KI und Science-Fiction:
Gastbeitrag von Dr. Isabella Hermann

 

Am 30. Mai 2023 wurde von der Nonprofit-Organisation Center for AI Safety ein Statement zum Risiko von Künstlicher Intelligenz veröffentlicht, das sich folgendermaßen liest: „Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.“¹ Zu den vier Erstunterzeichnenden dieses Einsätzers zählen keine geringeren als die KI-Forscher Geoffrey Hinton und Yoshua Bengio sowie Demis Hassabis, CEO von Google DeepMind, und Sam Altman, CEO von OpenAI. Warum warnen ausgerechnet Personen, die die KI-Entwicklung vorantreiben, allen voran Sam Altman, aus dessen Haus das Sprachmodell GPT in seinen verschiedenen Varianten kommt, vor der Auslöschung durch Künstliche Intelligenz? Ich sehe hinter solchen und ähnlichen Statements drei zusammenhängende Gründe:

Erstens handelt es sich dabei um eine Form des Self-Marketings. Die selbst geschaffene Technik wird als so hochentwickelt und mächtig dargestellt, dass sie zur „Auslöschung“ fähig ist. Wir können davon ausgehen, dass es hier um nichts weniger als die Menschheit und unsere Zivilisation geht, sonst wären die Worte anders gewählt worden. In einem viel beachteten Essay von 2021 wird ein solches Gebahren als „Criti-Hype“2 bezeichnet. Darunter versteht man das Phänomen, wenn Technologien vor dem Hintergrund eines Hypes kritisiert werden, und der Hype damit nur noch weiter aufgebläht wird.

Dr. Isabella Hermann (c) Anthony Straeger

Dr. Isabella Hermann (c) Anthony Straeger

Politikwissenschaftlerin und Science-Fiction Expertin

Zweitens schieben Entwickler:innen und Unternehmer:innen Verantwortung von sich weg. Nicht mehr die Personen selbst, die die Technik fortentwickeln, sind verantwortlich für ihre eigenen Produkte, denn sie haben schließlich davor gewarnt. Vielmehr handelt es sich nun um eine „global priority“, die alle miteinschließt. Es bleibt jedoch unklar, wer genau die Zielgruppe dieses Statements ist und dementsprechend handeln sollte – Staaten, Institutionen, die Zivilgesellschaft oder Verbraucher:innen?

Drittens wird Künstliche Intelligenz zu einer Art eigenständigen Akteurin stilisiert, die scheinbar unabhängig agiert und sich menschlicher Steuerung entzieht. In dem Statement steht schließlich nichts von „menschlicher Nutzung von KI“. Dabei wird außer Acht gelassen, dass KI-Systeme letztendlich von Menschen entwickelt und genutzt werden, um bestimmte Ziele zu verfolgen. Es wird suggeriert, dass KI-Systeme eigenständig handeln, anstatt im Interesse Dritter, die diese Systeme bewusst für ihre Zwecke einsetzen.

Alles in allem bedienen dieses und ähnliche Statements typische Science-Fiction-Diskurse. Ähnlich wie in den Filmreihen Terminator oder Matrix, in denen das KI-System Skynet oder ein Maschinengott die Herrschaft übernehmen, wird behauptet, dass die größte Gefahr von Künstlicher Intelligenz die Auslöschung oder Unterwerfung der Menschheit sei. Allerdings erzählt die Science-Fiction Geschichten von Menschen für Menschen, so dass KI-Systeme häufig eine Intention oder ein Bewusstsein zugeschrieben wird, damit die Geschichte funktioniert und spannend ist. Das muss nicht notwendigerweise etwas mit der Realität zu tun haben, sondern ist das „Fiction“-Element.

Science-Fiction-Diskurse in der Realität lenken zum einen von den tatsächlichen Problemen ab, mit denen wir hier und jetzt konfrontiert sind. Dazu zählen beispielsweise Datenschutz oder Urheberrechtsfragen, diskriminierende KI-Systeme, die Menschen benachteiligen, oder die schlechten Arbeitsbedingungen von Clickworker:innen und Contentmoderator:innen. Zum anderen verdecken Doomsday-Szenarien auch die realen positiven Anwendungsfälle von KI-Systemen, beispielsweise in der Medizin zur frühzeitigen Erkennung von Krankheiten, in der Landwirtschaft zur Wahl optimaler Anbaumethoden, in der Infrastruktur für das effiziente Management von Verkehrsflüssen, oder in der Bildung, um bei mangelnden Ressourcen Kinder besser individuell betreuen zu können.

____________

Weiterführende Informationen:

Dr. Hermann ist Autorin des Buches Science-Fiction zur Einführung und war am 8. Juli Impulsgeberin beim GWD-Fachforum Chancen und Risiken von KI.

Über die Autorin: https://www.isabella-hermann.de/
Zum Buch: Science Fiction zur Einführung
Zum GWD-Fachforum Forschung & Innovation: Chancen und Risiken der Künstlichen Intelligenz