Im internen Chat eines Berufsverbands der Kreativwirtschaft ging es seit Dezember 2022 hoch her: Viele Kolleginnen und Kollegen probierten den KI-Bot ChatGPT aus und tauschten sich über ihre Erfahrungen aus. Eine Kritik an der neuen Technik kam immer wieder auf: die Prognose, die KI werde von Konzernen, Diktatoren und Trollen dazu genutzt werden, gewaltige Fluten von »Fake News« zu erzeugen, die die allgemeine Verwirrung noch weiter steigern werden. Als Historiker und Politologe frage ich: Ist diese Prognose plausibel? Und ist das wirklich das zentrale Problem der KI-Bots?
Fake News, Falschmeldungen, Gerüchte
Zunächst möchte ich den Begriff »Fake News« enger fassen, indem ich zwei Übersetzungen ins Deutsche vorschlage: Falschmeldungen und Gerüchte. Wenn es sich um Tatsachenbehauptungen handelt, die erwiesenermaßen widerlegt wurden, passt das Wort Falschmeldung. Wenn es sich eher um schwammige Behauptungen oder Prognosen handelt, die schwer zu beweisen und schwer zu widerlegen sind, dann passt das uralte Wort Gerücht. Es ist nützlich, sich klar zu machen, dass viele sog. Fake News schlicht und einfach Gerüchte sind – denn Gerüchte gibt es, seit Menschen sprechen können; mit Gerüchten kennen wir uns aus. Wenn ich in diesem Licht die häufig zitierten Studienergebnisse betrachte, dass viele Fake News, also Gerüchte, sich in den sozialen Medien schneller verbreiten als viele echte Nachrichten, dann ist Vorsicht bei der Interpretation angezeigt: Erstens kann das gar nicht generell für alle Meldungen gelten, da sich eine überraschende, aber echte Meldung über US-Präsident Biden mit Sicherheit schneller verbreitet als eine Falschmeldung über die Ministerpräsidentin von Liberia. Es kommt also auf die Bedeutung einer Meldung an. Zweitens bedeutet die schnelle Verbreitung eines Gerüchts nicht, dass alle, die es verbreiten, an das Gerücht glauben. Gerüchte werden nämlich auch von denen verbreitet, die sich darüber aufregen, dass andere das Gerücht verbreiten.[1] Das antisemitische Gerücht, US-Präsident Obama und Hillary Clinton hätten einen geheimen Ring von Kinderschändern unterstützt, wurde hier in Deutschland z. B. vermutlich überwiegend von denen verbreitet, die sich über die Absurdität des Gerüchts aufgeregt haben. Festhalten kann man, dass das, was Leute aufregt, sich schneller verbreitet als das, was Leuten egal ist, wobei wir um so weniger nachdenken, je mehr wir uns ärgern.[2]
Mehr Gerüchte wegen KI?
Viele äußerten die Sorge, die KI-Bots würden uns noch viel mehr Falschmeldungen und Gerüchte bescheren, weil sie von Leuten genutzt werden können, die Lügen verbreiten wollen. Das ist aber nicht schlüssig, weil das für alle Medien gilt, auch für Gerede von Mensch zu Mensch, für Bücher, Zeitungen oder das Fernsehen.[3] Wer Gerüchte verbreiten will, nutzt seit jeher sämtliche Medien, die ihm zur Verfügung stehen. Das war noch nie ein hinreichender Grund dafür, eines dieser Medien zu verbieten oder besonders streng zu regulieren. Und das liegt daran, dass alle Medien, auch KI-Bots, genauso gut von den Aufklärern genutzt werden können, die ständig versuchen, Lügnern und Gerüchteköchen das Handwerk zu legen.
Konservative haben seit jeher dem jeweils neuen Medium unterstellt, es werde die Gesellschaft im Chaos von Gerüchten, Falschmeldungen und Halbwahrheiten versinken lassen – zuletzt waren das die sozialen Medien, davor war es »dieses Internet«. Es ist niemals passiert, weil keines dieser Medien wirklich so konstruiert war und ist, dass das Verbreiten von Lügen gegenüber früher erleichtert und das Verbreiten von Wahrheiten erschwert wurde. Ja, soziale Medien haben das Verbreiten von Lügen erleichtert, aber sie haben auch das Verbreiten von Wahrheiten und das Aufdecken von Lügen erleichtert. Deshalb hat sich das Verhältnis zwischen Falschmeldungen und richtigen Meldungen wahrscheinlich nie verändert; es ist wohl immer noch ungefähr so wie beim Dorfklatsch oder beim Flurfunk. Nach Allen et al. 2020 machen Falschmeldungen aus dem Internet nur etwa 0,15 % des Medienkonsums von Amerikanern aus.[4]
Gerüchte sind stets zunächst im Vorteil, weil sie schneller weitererzählt werden, aber auf längere Sicht im Nachteil, weil sie weniger plausibel sind und weil ihre Prognosen (meist ein Weltuntergang oder eine totale Weltdiktatur) immer wieder ausbleiben. Oder auch wegen des pastellfarbenen Charmes der Normalität, in deren Routinen die meisten nach den Tagen oder Wochen der Erregung und Empörung gerne zurückkehren.
Beim Testen von ChatGPT konnten einige Texterkolleginnen und ich keine Indizien dafür finden, dass die KI-Texte feindselige Gerüchte über Minderheiten oder Einzelpersonen befördern. Eher war das Gegenteil zu beobachten: Gibt man eine polarisierte Meinung vor, dann neigt ChatGPT dazu, diese Meinung zu relativieren. Es ist schwierig, sie zu eindeutigen Positionen in strittigen Fragen zu bewegen. Sie redet sich lieber aus Kontroversen heraus und erzeugt ein harmonisierendes Einerseits-andrerseits-Blabla. Was nützt es, den Teufel an die Wand zu malen und sich vorzustellen, was ein Weltdiktator damit anfangen könnte? Es gibt keinen Teufel und keinen Weltdiktator. 2020 habe ich angerissen, warum Weltherrschaft und Diktatur einander in der Praxis stets ausgeschlossen haben.
Spezifische Probleme von sozialen Medien und KI
Die Fixierung auf den Gerüchte- und Lügenkomplex lenkt meines Erachtens von spezifischen Problemen ab, die die jeweiligen Medien tatsächlich haben. Bei sozialen Medien ist das die allgegenwärtige Bewertung von Äußerungen mithilfe von Emojis und Kommentaren. Der Facebook-Daumen ist das zentrale Problem, weil er fast alle Teilnehmys darauf konditioniert, möglichst Bilder oder Texte einzusetzen, die schnelle Rückmeldungen auslösen. Das fördert Egoismus und kurze Sichtweisen, es schadet der Kooperation und dem langen Atem, und der soziale Druck drängt manche zur Verbreitung von Gerüchten.[5] Dieser Komplex scheint mir wesentlicher zu sein als die viel diskutierten Filterblasen (die empirisch niemals nachgewiesen wurden) oder die angebliche Verrohung der Debatten.
Bei der KI zeichnen sich ebenfalls ganz spezifische Probleme ab: Ihre Unfähigkeit, real existierende Quellen zu zitieren,[6] ihre Neigung, fehlende Teile der Realität durch Interpolation zu ergänzen wie bei einem Zahlenbild, vertuscht die Lücken, die das Leben lässt. Ihre Tendenz, Kontroversen zu glätten und Widersprüche zu leugnen, behindert tendenziell den lebendigen Diskurs und die Entstehung neuer Ideen. Das scheint ein grundlegender Konstruktionsfehler zu sein, der damit zusammenhängt, dass die KI anhand von wahrscheinlichen Zusammenhängen textet, die sie aus der Vergangenheit ableitet. Dabei können einstweilen nur Wiederholungen und plumpe Trendfortschreibungen herauskommen. Neue Ideen und überraschende Wendungen werden wohl Menschenwerk bleiben: Produkte natürlicher Intelligenz und Emotion.
Musk, Wozniak, Tallinn und die KI
Ende März 2023 veröffentlichte das Future of Life Institute in Narberth, Pennsylvania (USA), einen offenen Brief, der die KI-Labore wegen drohender Gefahren (z. B. könne die Zivilisation durch KI außer Kontrolle geraten) zu einem sechsmonatigen Entwicklungsmoratorium und die Gesetzgeber zu regulierenden Gesetzen aufrief. Zu den Erstunterzeichnern gehörten Tesla- und Twitter-Chef Elon Musk, der Apple-Mitbegründer Steven Wozniak und der Skype-Gründer Jaan Tallinn. Barbara Wimmer lieferte am 30.3.2023 in futurezone.at erste Ansätze zur Kritik des Aufrufs.
Was haben ausgerechnet Musk, Wozniak und Tallinn gegen die neue Form von KI? Dazu folgt hier ein weiterer Analyseversuch von mir.
Belege
[1] In fact, habitual users shared politically discordant news — news that challenged their political beliefs — as much as concordant news that they endorsed. (USC News 2023)
[2] In der Wissenschaft herrscht Konsens, dass Emotionen ein treibender Einflussfaktor der Viralität sind (Akpinar & Berger, 2017, S. 318; Berger & Milkman, 2012, S. 192; Eckler & Bolls, 2011, S. 1; Stieglitz & Dang-Xuan, 2013, S. 217; Taylor et al., 2012, S. 14; Tellis et al., 2019, S. 1)… Negative Emotionen, beispielsweise Ärger oder Traurigkeit, führen zu geringem kognitiven Aufwand und zu dem Einsatz von Heuristiken (Malhotra & Kuo, 2009, S. 301). (Uni Göttingen 2021)
[3] „Sonst haben Sie aber soziale Netzwerke genauso als Akteure drin wie aber auch klassische Medien…“ (Alexander Sängerlaub in DLF 2018)
“Our results suggest that the origins of public misinformedness and polarization are more likely to lie in the content of ordinary news or the avoidance of news altogether as they are in overt fakery.” (Allen et al. 2020)
[4] “First, news consumption of any sort is heavily outweighed by other forms of media consumption, comprising at most 14.2% of Americans’ daily media diets. Second, to the extent that Americans do consume news, it is overwhelmingly from television, which accounts for roughly five times as much as news consumption as online. Third, fake news comprises only 0.15% of Americans’ daily media diet.” (Allen et al. 2020)
„Fake news may seem prolific, prior research has found that fake news only accounts for 0.15% of Americans’ daily media consumption (Allen et al. 2020), and 1% of individuals are responsible for 80% of fake news sharing (Grinberg et al. 2019).“ (Asher Lawson et al. 2023)
[5] “To state the obvious: Social media platforms are social. This focuses our attention on social concerns, such as how much engagement our posts will get, how much our friends will enjoy them, or what they communicate about our identities, and so on. These considerations may distract us from even considering whether or not news content is accurate before we share it. This is surely facilitated by the fact that social media algorithms are optimized for engagement instead of truth…” (Rand/Pennicook 2021)
“Our findings show that misinformation isn’t spread through a deficit of users. It’s really a function of the structure of the social media sites themselves…
The habits of social media users are a bigger driver of misinformation spread than individual attributes… However, we show that the reward structure of social media platforms plays a bigger role when it comes to misinformation spread.” (USC News 2023)
„Conformity and social pressure are key motivators of the spread of fake news,” (Asher Lawson et al. 2023)
[6] DigiEthics 3.1.2023