Wird die KI das Problem der »Fake News« verschlimmern?

Im internen Chat eines Berufs­ver­bands der Kreativ­wirt­schaft ging es seit Dezember 2022 hoch her: Viele Kolle­ginnen und Kollegen probierten den KI-Bot ChatGPT aus und tauschten sich über ihre Erfah­rungen aus. Eine Kritik an der neuen Technik kam immer wieder auf: die Prognose, die KI werde von Konzernen, Dikta­toren und Trollen dazu genutzt werden, gewal­tige Fluten von »Fake News« zu erzeugen, die die allge­meine Verwir­rung noch weiter steigern werden. Als Histo­riker und Polito­loge frage ich: Ist diese Prognose plausibel? Und ist das wirklich das zentrale Problem der KI-Bots?

Fake News, Falschmeldungen, Gerüchte

Zunächst möchte ich den Begriff »Fake News« enger fassen, indem ich zwei Überset­zungen ins Deutsche vorschlage: Falsch­mel­dungen und Gerüchte. Wenn es sich um Tatsa­chen­be­haup­tungen handelt, die erwie­se­ner­maßen wider­legt wurden, passt das Wort Falsch­mel­dung. Wenn es sich eher um schwam­mige Behaup­tungen oder Prognosen handelt, die schwer zu beweisen und schwer zu wider­legen sind, dann passt das uralte Wort Gerücht. Es ist nützlich, sich klar zu machen, dass viele sog. Fake News schlicht und einfach Gerüchte sind – denn Gerüchte gibt es, seit Menschen sprechen können; mit Gerüchten kennen wir uns aus. Wenn ich in diesem Licht die häufig zitierten Studi­en­ergeb­nisse betrachte, dass viele Fake News, also Gerüchte, sich in den sozialen Medien schneller verbreiten als viele echte Nachrichten, dann ist Vorsicht bei der Inter­pre­ta­tion angezeigt: Erstens kann das gar nicht generell für alle Meldungen gelten, da sich eine überra­schende, aber echte Meldung über US-Präsi­dent Biden mit Sicher­heit schneller verbreitet als eine Falsch­mel­dung über die Minis­ter­prä­si­dentin von Liberia. Es kommt also auf die Bedeu­tung einer Meldung an. Zweitens bedeutet die schnelle Verbrei­tung eines Gerüchts nicht, dass alle, die es verbreiten, an das Gerücht glauben. Gerüchte werden nämlich auch von denen verbreitet, die sich darüber aufregen, dass andere das Gerücht verbreiten.[1] Das antise­mi­ti­sche Gerücht, US-Präsi­dent Obama und Hillary Clinton hätten einen geheimen Ring von Kinder­schän­dern unter­stützt, wurde hier in Deutsch­land z. B. vermut­lich überwie­gend von denen verbreitet, die sich über die Absur­dität des Gerüchts aufge­regt haben. Festhalten kann man, dass das, was Leute aufregt, sich schneller verbreitet als das, was Leuten egal ist, wobei wir um so weniger nachdenken, je mehr wir uns ärgern.[2]

Mehr Gerüchte wegen KI?

Viele äußerten die Sorge, die KI-Bots würden uns noch viel mehr Falsch­mel­dungen und Gerüchte bescheren, weil sie von Leuten genutzt werden können, die Lügen verbreiten wollen. Das ist aber nicht schlüssig, weil das für alle Medien gilt, auch für Gerede von Mensch zu Mensch, für Bücher, Zeitungen oder das Fernsehen.[3] Wer Gerüchte verbreiten will, nutzt seit jeher sämtliche Medien, die ihm zur Verfü­gung stehen. Das war noch nie ein hinrei­chender Grund dafür, eines dieser Medien zu verbieten oder beson­ders streng zu regulieren. Und das liegt daran, dass alle Medien, auch KI-Bots, genauso gut von den Aufklä­rern genutzt werden können, die ständig versu­chen, Lügnern und Gerüch­te­kö­chen das Handwerk zu legen.

Konser­va­tive haben seit jeher dem jeweils neuen Medium unter­stellt, es werde die Gesell­schaft im Chaos von Gerüchten, Falsch­mel­dungen und Halbwahr­heiten versinken lassen – zuletzt waren das die sozialen Medien, davor war es »dieses Internet«. Es ist niemals passiert, weil keines dieser Medien wirklich so konstru­iert war und ist, dass das Verbreiten von Lügen gegen­über früher erleich­tert und das Verbreiten von Wahrheiten erschwert wurde. Ja, soziale Medien haben das Verbreiten von Lügen erleich­tert, aber sie haben auch das Verbreiten von Wahrheiten und das Aufde­cken von Lügen  erleich­tert. Deshalb hat sich das Verhältnis zwischen Falsch­meldungen und richtigen Meldungen wahrschein­lich nie verän­dert; es ist wohl immer noch ungefähr so wie beim Dorfklatsch oder beim Flurfunk. Nach Allen et al. 2020 machen Falsch­mel­dungen aus dem Internet nur etwa 0,15 % des Medien­kon­sums von Ameri­ka­nern aus.[4]

Gerüchte sind stets zunächst im Vorteil, weil sie schneller weiter­erzählt werden, aber auf längere Sicht im Nachteil, weil sie weniger plausibel sind und weil ihre Prognosen (meist ein Weltun­ter­gang oder eine totale Weltdik­tatur) immer wieder ausbleiben. Oder auch wegen des pastell­farbenen Charmes der Norma­lität, in deren Routinen die meisten nach den Tagen oder Wochen der Erregung und Empörung gerne zurück­kehren.

Beim Testen von ChatGPT konnten einige Texterkol­le­ginnen und ich keine Indizien dafür finden, dass die KI-Texte feind­se­lige Gerüchte über Minder­heiten oder Einzel­per­sonen beför­dern. Eher war das Gegen­teil zu beobachten: Gibt man eine polari­sierte Meinung vor, dann neigt ChatGPT dazu, diese Meinung zu relati­vieren. Es ist schwierig, sie zu eindeu­tigen Positionen in strit­tigen Fragen zu bewegen. Sie redet sich lieber aus Kontro­versen heraus und erzeugt ein harmo­ni­sie­rendes Einer­seits-andrer­seits-Blabla. Was nützt es, den Teufel an die Wand zu malen und sich vorzu­stellen, was ein Weltdik­tator damit anfangen könnte? Es gibt keinen Teufel und keinen Weltdik­tator. 2020 habe ich angerissen, warum Weltherr­schaft und Diktatur einander in der Praxis stets ausge­schlossen haben.

Spezifische Probleme von sozialen Medien und KI

Die Fixie­rung auf den Gerüchte- und Lügen­kom­plex lenkt meines Erach­tens von spezi­fi­schen Problemen ab, die die jewei­ligen Medien tatsäch­lich haben. Bei sozialen Medien ist das die allge­gen­wär­tige Bewer­tung von Äußerungen mithilfe von Emojis und Kommen­taren. Der Facebook-Daumen ist das zentrale Problem, weil er fast alle Teilnehmys darauf kondi­tio­niert, möglichst Bilder oder Texte einzu­setzen, die schnelle Rückmel­dungen auslösen. Das fördert Egoismus und kurze Sicht­weisen, es schadet der Koope­ra­tion und dem langen Atem, und der soziale Druck drängt manche zur Verbrei­tung von Gerüchten.[5] Dieser Komplex scheint mir wesent­li­cher zu sein als die viel disku­tierten Filter­blasen (die empirisch niemals nachge­wiesen wurden) oder die angeb­liche Verro­hung der Debatten.

Bei der KI zeichnen sich ebenfalls ganz spezi­fi­sche Probleme ab: Ihre Unfähig­keit, real existie­rende Quellen zu zitieren,[6] ihre Neigung, fehlende Teile der Realität durch Inter­po­la­tion zu ergänzen wie bei einem Zahlen­bild, vertuscht die Lücken, die das Leben lässt. Ihre Tendenz, Kontro­versen zu glätten und Wider­sprüche zu leugnen, behin­dert tenden­ziell den leben­digen Diskurs und die Entste­hung neuer Ideen. Das scheint ein grund­le­gender Konstruk­ti­ons­fehler zu sein, der damit zusam­men­hängt, dass die KI anhand von wahrschein­li­chen Zusam­men­hängen textet, die sie aus der Vergan­gen­heit ableitet. Dabei können einst­weilen nur Wieder­ho­lungen und plumpe Trendfort­schreibungen heraus­kommen. Neue Ideen und überra­schende Wendungen werden wohl Menschen­werk bleiben: Produkte natür­li­cher Intel­li­genz und Emotion.

Musk, Wozniak, Tallinn und die KI

Ende März 2023 veröf­fent­lichte das Future of Life Insti­tute in Narberth, Pennsyl­vania (USA), einen offenen Brief, der die KI-Labore wegen drohender Gefahren (z. B. könne die Zivili­sa­tion durch KI außer Kontrolle geraten) zu einem sechs­mo­na­tigen Entwick­lungs­mo­ra­to­rium und die Gesetz­geber zu regulie­renden Gesetzen aufrief. Zu den Erstun­ter­zeich­nern gehörten Tesla- und Twitter-Chef Elon Musk, der Apple-Mitbe­gründer Steven Wozniak und der Skype-Gründer Jaan Tallinn. Barbara Wimmer lieferte am 30.3.2023 in future​zone​.at erste Ansätze zur Kritik des Aufrufs.

Was haben ausge­rechnet Musk, Wozniak und Tallinn gegen die neue Form von KI? Dazu folgt hier ein weiterer Analy­se­ver­such von mir.

Belege

[1] In fact, habitual users shared politi­cally discordant news — news that challenged their political beliefs — as much as concordant news that they endorsed. (USC News 2023)

[2] In der Wissen­schaft herrscht Konsens, dass Emotionen ein treibender Einfluss­faktor der Viralität sind (Akpinar & Berger, 2017, S. 318; Berger & Milkman, 2012, S. 192; Eckler & Bolls, 2011, S. 1; Stieg­litz & Dang-Xuan, 2013, S. 217; Taylor et al., 2012, S. 14; Tellis et al., 2019, S. 1)… Negative Emotionen, beispiels­weise Ärger oder Traurig­keit, führen zu geringem kogni­tiven Aufwand und zu dem Einsatz von Heuris­tiken (Malhotra & Kuo, 2009, S. 301). (Uni Göttingen 2021)

[3] „Sonst haben Sie aber soziale Netzwerke genauso als Akteure drin wie aber auch klassi­sche Medien…“ (Alexander Sänger­laub in DLF 2018)
“Our results suggest that the origins of public misin­for­med­ness and polariza­tion are more likely to lie in the content of ordinary news or the avoid­ance of news altog­e­ther as they are in overt fakery.” (Allen et al. 2020)

[4] “First, news consump­tion of any sort is heavily outweighed by other forms of media consump­tion, compri­sing at most 14.2% of Ameri­cans’ daily media diets. Second, to the extent that Ameri­cans do consume news, it is overwhel­mingly from televi­sion, which accounts for roughly five times as much as news consump­tion as online. Third, fake news comprises only 0.15% of Ameri­cans’ daily media diet.” (Allen et al. 2020)
„Fake news may seem prolific, prior research has found that fake news only accounts for 0.15% of Ameri­cans’ daily media consump­tion (Allen et al. 2020), and 1% of indivi­duals are respon­sible for 80% of fake news sharing (Grinberg et al. 2019).“ (Asher Lawson et al. 2023)

[5] “To state the obvious: Social media platforms are social. This focuses our atten­tion on social concerns, such as how much engage­ment our posts will get, how much our friends will enjoy them, or what they commu­ni­cate about our identi­ties, and so on. These conside­ra­tions may distract us from even conside­ring whether or not news content is accurate before we share it. This is surely facili­tated by the fact that social media algorithms are optimized for engage­ment instead of truth…” (Rand/​Pennicook 2021)
“Our findings show that misin­for­ma­tion isn’t spread through a deficit of users. It’s really a function of the struc­ture of the social media sites themselves…
The habits of social media users are a bigger driver of misin­for­ma­tion spread than indivi­dual attri­butes… However, we show that the reward struc­ture of social media platforms plays a bigger role when it comes to misin­for­ma­tion spread.” (USC News 2023)
„Confor­mity and social pressure are key motiva­tors of the spread of fake news,” (Asher Lawson et al. 2023)

[6] DigiE­thics 3.1.2023

Veröffentlicht von

Jens J. Korff

Historiker, Politologe, Texter, Rheinländer in Westfalen, Sänger, Radfahrer, Wanderer, Naturbursche, Baumfreund, Pazifist

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.