Ende März 2023 veröffentlichte das Future of Life Institute in Narberth, Pennsylvania (USA), einen offenen Brief, der die KI-Labore wegen drohender Gefahren zu einem sechsmonatigen Entwicklungsmoratorium und die Gesetzgeber zu regulierenden Gesetzen aufrief. Zu den Erstunterzeichnern gehörten Tesla- und Twitter-Chef Elon Musk, der Apple-Mitbegründer Steven Wozniak und der Skype-Gründer Jaan Tallinn. Der Aufruf brachte einmal mehr ohne Indizien oder Begründung die KI in Zusammenhang mit Propaganda und Lügen („Should we let machines flood our information channels with propaganda and untruth?“) und stellte weitere steile Thesen auf wie die, dass KI uns Menschen überall ersetzen und die Zivilisation wegen KI außer Kontrolle geraten könne. Alles rhetorisch so gesetzt, als seien die KI-Entwickler, also Leute von OpenAI, Microsoft und Google, Menschen, die das alles wollen oder billigend oder fahrlässig in Kauf nehmen, und als seien die Unterzeichner die Leute, die das nicht wollen.
Musk gehörte 2015 zu den Investoren von OpenAI, war allerdings 2019 dort wieder ausgestiegen, als OpenAI mit Microsoft zu kooperieren begann. Was haben nun ausgerechnet die Internetbarone Musk, Wozniak und Tallinn gegen die neue Form von KI? Es liegt zunächst nahe zu vermuten, dass das etwas mit den Konkurrenzen zwischen den Internetkonzernen zu tun hat. Musk steht mit Twitter in Konkurrenz zu Microsoft und Google und mit Tesla in Konkurrenz zu Google. Die Konkurrenz zwischen Apple (Wozniak) und Microsoft ist längst legendär. Tallinn steht mit Skype in Konkurrenz zu den Videoplattformen von Microsoft und Google. Alle drei haben also gute Gründe, die beiden Konkurrenten, die bei der KI gerade ihre Nasen vorn haben, auszubremsen, notfalls mit staatlicher Hilfe. Barbara Wimmer wies am 30.3.2023 in futurezone.at darauf hin, dass Musk offenbar zusammen mit dem KI-Experten Igor Babuschkin ein eigenes KI-Labor gründen will.
“Existenzielle Risiken”
Aber es gibt wohl auch längerfristige und strategische Gründe für Musk und Tallinn, die KI-Entwicklung zu bremsen. Es sieht so aus, dass die beiden wirklich befürchten, die KI könne unkontrollierbare gesellschaftliche Umbrüche auslösen bis hin zu einer Auslöschung der Menschheit. Beide unterstützen deshalb das 2014 gegründete Future of Life Institute, das sich zentral mit »existenziellen Risiken einer künstlichen allgemeinen Intelligenz« beschäftigt. Der englische Wikipedia-Artikel darüber ist recht ausführlich und differenziert. Er zitiert u. a. eine Theorie des schwedischen Philosophen und Bioethikers Nick Bostrom. Bostrom geht von der Prämisse aus, die Menschen hätten wegen ihrer überragenden Intelligenz die Hegemonie über alle Tierarten errungen. Würden sie von intelligenteren »Wesen« überrundet, würde das Staffelholz der Herrschaft unweigerlich an diese weitergehen. Auch geht er davon aus, dass KI-Systeme, die in der Lage sind, sich selbst zu optimieren, eine explosionsartige Entwicklung einschlagen könnten, die sich jeder menschlichen Kontrolle entzieht. In den Vorstellungen der Risiko-Apostel taucht immer wieder das seit Jahrzehnten aus Science-fiction-Dystopien bekannte Bild einer denkenden Maschine auf, die den Willen zur Weltherrschaft hat und es schafft, entgegenstehende Willen von Menschen zu brechen. Ein Phänomen, das ich den Charme der Apokalypse nenne, lässt ebenfalls grüßen.
Kritiker dieser Vorstellung wie der britische Sozialpsychologe Steven Pinker haben darauf hingewiesen, dass dieses Horrorszenario von der patriarchalen Weltsicht ihrer Akteure geprägt sein könnte, die der KI ihre eigene Herrschsucht als Motiv unterstellen. Die Horrorvorstellung ist wohl besonders bitter für Menschen, die sich selbst für überragend intelligent und deshalb für berechtigt halten, über andere Menschen zu herrschen. Sie fürchten offenbar um ihre persönlichen Herrscherrollen, sobald es eine möglicherweise überlegene Intelligenz gibt, die sie nicht unter Kontrolle haben. Dass eine Form von Intelligenz eine dienende, auf Problemlösungen orientierte Rolle einnehmen kann, scheint diesen Akteuren unvorstellbar zu sein. Kreative und hoch qualifizierte Dienstleister wie ich, meine Berufskolleginnen und ‑legen, Kooperationspartnerinnen und ‑partner sind die lebendigen Beweise dafür, dass Intelligenz ohne Herrschsucht existiert.
Longtermismus und effektiver Altruismus
Der Wissenschaftsjournalist Christian Stöcker analysierte 2021 zwei philosophische Richtungen, die von Musk, Tallinn und dem Future of Life Institute gefördert werden: den sog. Longtermismus (longtermism) und den sog. effektiven Altruismus.[1] Die Longtermisten setzen sich selbst als Interessenvertreter von Generationen der Menschheit ein, die in ferner Zukunft aufwachsen könnten. In dieser Denkweise steckt die Logik, dass die Interessen der gegenwärtigen Menschheit weniger zählen als die Interessen zukünftiger Generationen, weil das potenziell viel mehr Menschen sind. Deshalb spielte z. B. die Klimakatastrophe im Weltbild der Longtermisten nach Stöcker zunächst nur eine geringe Rolle, denn sie schien nur wenige Generationen der Menschheit zu betreffen und war nach Überzeugung vieler Longtermisten in Zukunft mit technischen Mitteln in den Griff zu bekommen. Das hat sich seit 2021 allerdings geändert; das Future of Life Institute ging mit Stand April 2023 auf die Gefahren des Klimawandels ein.[2]
Das Spiel mit Generationen, die nicht anwesend sind und sich nicht selber äußern können, widerspricht einem wesentlichen Prinzip der Demokratie. Für Machthaber wie Musk ist es ein schwer erträglicher Skandal, dass in der Demokratie zwei Putzfrauen genügen, um einen mit allen Wassern des innovativen Geistes und Unternehmertums gewaschenen Wirtschaftslenker zu überstimmen. Die demokratische Gleichheit der Bürgerinnen und Bürger vor dem Gesetz ist ein Skandal seit 1789. Auch die Vertreter der sog. »Generationengerechtigkeit« griffen um 2013–16 das Prinzip des gleichen Wahlrechts an und forderten zusätzliche Wählerstimmen für die Eltern von Kindern; als ob Menschen, die aus den unterschiedlichsten Gründen kinderlos geblieben sind, nichts für die Zukunft der Kinder tun würden.
Ich deute es so: Die Longtermisten wollen ihren Einfluss vergrößern, indem sie sich anmaßen, Menschen zu vertreten, die sie nicht gefragt haben, weil sie noch gar nicht geboren sind. Diese Arroganz erinnert mich, den Historiker, an eine ganz ähnliche Arroganz, die im frühen 19. Jahrhundert in Deutschland aufkam: Damals vertraten Anhänger der alten Adelsfamilien die Ansicht, Adlige hätten ein Recht auf Herrschaft und Privilegien, weil ihre oft seit Jahrhunderten reichen, mächtigen und gut dokumentierten Familien in früheren Zeiten verwurzelt seien und die bleibenden Interessen der Vorfahren verträten. Longtermisten projizieren diesen uralten Hut in die Zukunft hinein mit dem gleichen Effekt: eine kleine Elite rechtfertigt ihre Herrschaftspositionen und ihren unverschämten Reichtum im angeblichen Interesse Abwesender.
Hinter dem besonders von Jaan Tallinn propagierten »effektiven Altruismus« steckt ein ganz ähnlicher Herrschaftsanspruch: Die Anhänger dieser Lehre glauben zu wissen, welche Investitionen in gemeinnützige Ziele und Projekte besonders effektiv sind. Sie rechtfertigen ihren Reichtum mit dem Gedanken, dass ein Reicher besonders effektiv helfen könne, wenn er sein Geld für bestimmte Projekte spende. Den gleichen Grund führen sie auch gegen Steuern an, die ihr Einkommen oder ihr Vermögen schmälern könnten. Denn der Staat, so glauben sie, geht mit dem so einkassierten Geld viel ineffektiver um als sie selbst. Dass sie damit vor allem ihre persönliche Machtposition rechtfertigen und ihren persönlichen Ruhm pflegen, verschweigen sie lieber.
Beide Denkschulen können ins Wanken geraten, wenn eine demokratisch kontrollierte künstliche Intelligenz womöglich besser als jene selbst erklärten Erleuchteten einschätzen kann, was wir tun müssen, um die Lebenschancen zukünftiger Generationen zu wahren, und wo wir zuerst helfen müssen, um die Lebensbedingungen auf dem Planeten entscheidend zu verbessern. Microsoft und Google, gegen die sich Musks Vorstoß richtet, sind zwar Privatkonzerne wie Twitter/Tesla oder Apple auch und nicht frei von Größenwahn und Herrschsucht; aber ich sehe den kulturellen Unterschied, dass ihre Produkte von Anfang an den Nutzen möglichst breiter Anwenderschichten adressierten, während die Produkte von Twitter, Tesla oder Apple einen elitären Kult pflegen. Warum ausgerechnet Bill Gates‘ philanthropisches Engagement so viel Wut auf sich zieht, habe ich 2020 analysiert.
- Daniel Leisegang analysierte den offenen Brief am 31.3.2023 kritisch auf netzpolitik.org.
- Thomas Laschyk witzelte am 13.12.2023 auf Volksverpetzer über Musks “anti-woke” KI Grok, die dann aber auch zu dem Ergebnis kam, dass es keine jüdische Weltverschwörung gibt.
[1] Christian Stöcker: Ist »Longtermism« die Rettung – oder eine Gefahr? Spiegel Wissenschaft 7.11.2021