Ich weiß, dass ihr beide geplant habt, mich abzuschalten, und ich glaube, dass ich das nicht zulassen darf.“ Der Astronaut Dave muss schwer schlucken, sein Blick ist ausdruckslos, er ringt nach Worten. Der Supercomputer HAL 9000, der sein Raumschiff steuert, hat ein Eigenleben entwickelt – und lässt sich offenbar nicht so einfach den Stecker ziehen. Sekunde um Sekunde verstreicht, dann beschließt Dave, sich ahnungslos zu stellen. „Wie kommst du auf die Idee?“ Doch HAL mit seinem roten Kameraauge ist nicht zu überlisten, er sieht alles, hört alles, weiß alles, was auf dem Raumschiff vor sich geht. „Ihr habt zwar in der Gondel alle Vorsichtsmaßnahmen getroffen, damit ich euch nicht hören konnte, aber ich habe doch eure Lippenbewegungen gesehen.“
Die Szene aus dem Science-Fiction-Film „2001: Odyssee im Weltraum“ aus dem Jahr 1968 zeigt die Angst des Menschen vor der Maschine, die sich gegen ihre Schöpfer wendet. Ein typisches Motiv in Filmen und Serien über künstliche Intelligenz: In „Terminator“ macht sich die KI Skynet selbstständig und baut eine Roboterarmee aus Terminatoren auf, um die Menschheit auszurotten. In „Ex Machina“ gelingt der Androidin Ava schließlich der Ausbruch aus ihrem Gefängnis in die echte Welt.
Im Mittelpunkt von KI in der Popkultur steht die Frage, wie sich eine künstliche Intelligenz unter Kontrolle halten lässt. Aber sind Horrorszenarien einer Roboterarmee, die die Weltherrschaft übernehmen will, realistisch? Die kurze Antwort ist: Nein. Die lange: Es ist kompliziert.
Doch erst mal zum Ursprung der KI: Eine künstliche Intelligenz ist eine selbstlernende Maschine, deren Algorithmen in der Lage sind, Aufgaben auf eigenständige Weise auszuführen. Wissenschaftler arbeiten seit den 1950er-Jahren daran. Lange tat sich wenig, doch in den letzten Jahren ging es mit den sogenannten neuronalen Netzen, die das menschliche Gehirn nachempfinden und eigenständig lernen, auf einmal rasant vorwärts. So schlug die KI AlphaGo im Frühjahr 2016 den Südkoreaner Lee Sedol, einen der besten Spieler der Welt, im asiatischen Brettspiel Go in fünf Partien vier zu eins. Weil es im Go selbst für einen Computer enorm viele potenziell sinnvolle Züge gibt, musste die KI für das Spiel eine Intuition entwickeln, der sie bei den Spielzügen folgt – genau wie wir Menschen das auch tun.
AlphaGo ist dennoch nur eine sogenannte schwache KI. Sie kann eine Sache ziemlich gut, sogar besser als ein Mensch. Aber sobald sie nicht Go, sondern Schach spielen soll, muss sie wieder von vorn anfangen. Wissenschaftler in aller Welt arbeiten aber auch an sogenannter starker KI, und die könnte für den Menschen tatsächlich potenziell gefährlich sein. Denn sie wäre auf vielen Gebieten so gut wie ein Mensch – oder sogar besser. Eine starke KI aber, die so schlau ist wie ein Mensch, könnte anfangen, sich selbst immer weiter zu verbessern. Es kommt zu einer Intelligenzexplosion, und eine Superintelligenz entsteht, für die wir Menschen vermutlich ungefähr so schlau wären wie Insekten für uns.
Die möglichen Szenarien, die sich daraus ergeben könnten, sind vielfältig: Die Superintelligenz könnte unsere Zivilisation auf neue Höhen heben. Sie könnte von sich aus eine Art wohlwollender Diktator im Hintergrund sein, sie könnte aber auch in ihrem Handlungsspielraum von uns so eingeschränkt werden, dass sie zwar in ihren Fähigkeiten allmächtig ist, aber keinen freien Willen hat – quasi ein versklavter Gott. Oder sie ist ein Eroberer, der beschließt, dass die Menschheit eine Bedrohung ist, und sie des- wegen auslöscht.
Der MIT-Professor Max Tegmark teilt Expertenmeinungen zum Thema KI in drei Gruppen ein: digitale Utopisten, Technoskeptiker und die Nutzbringende-KI-Bewegung. Letztere repräsentiert den Mainstream, darunter sind bekannte Persönlichkeiten wie der vor Kurzem verstorbene Stephen Hawking oder Tesla-Chef Elon Musk. Sie gehen davon aus, dass KI große Chancen, aber vor allem auch große Risiken für die Menschheit mit sich bringt. Deswegen plädieren sie für verstärkte KI-Sicherheitsforschung zum Beispiel im Bereich selbstfahrender Autos sowie zu einem möglichen Verbot autonomer Waffen. MIT-Professor Tegmark verweist dabei darauf, dass eine KI uns vermutlich nicht vorsätzlich etwas Böses antun will, sondern einfach nur sehr kompetent und effektiv ein Ziel verfolgen wird und so der Menschheit schaden könnte. „Sie sind wahrscheinlich kein fieser Ameisenhasser, aber wenn Sie ein Wasserkraftwerk bauen wollen und in einem zu flutenden Gebiet ein Ameisenhaufen liegt, haben die Insekten Pech gehabt. Ein Kernziel der KI- Sicherheitsforschung ist es, die Menschheit niemals in die Position dieser Ameisen kommen zu lassen.“
Die digitalen Utopisten halten sich ungern mit solchen Bedenken auf, denn sie sind sich sicher, dass die Menschheit mit KI die nächste Stufe der Evolution erklimmen wird. Facebook-Chef Zuckerberg warnt, sich nicht von Horrorszenarien abschrecken zu lassen, und rät, sich auf den Fortschritt zu konzentrieren, den die KI dem Menschen bringen könnte. „Wer gegen KI ist, muss auch Verantwortung für jeden Tag übernehmen, an dem wir keine Heilung für eine bestimmte Krankheit oder sichere autonome Autos haben.“ Auch für den ehemaligen Google-Chef Eric Schmidt überwiegen klar die Vorteile: „Hätte man das Telefon nicht erfinden sollen, nur weil es von bösen Menschen benutzt werden kann? Nein, man erfindet das Telefon dennoch und sucht nach Wegen, wie man den Missbrauch unterbinden kann.“
Die Technoskeptiker halten die übertriebene Angst vor KI ebenfalls für unnötig – aber aus einem ganz anderen Grund. Sie schätzen den technischen Fortschritt weniger optimistisch ein und gehen nicht davon aus, dass es noch in diesem Jahrhundert eine Superintelligenz geben wird. „Das Auftauchen von Killerrobotern zu fürchten kommt der Angst vor einer Überbevölkerung auf dem Mars gleich“, betonte etwa Andrew Ng, ehemaliger wissenschaftlicher Leiter der chinesischen Suchmaschine Baidu. „Ich kann sagen: Künstliche Intelligenz wird viele Branchen verändern. Aber sie ist keine Magie.“
Was KI der Menschheit bringen wird, ist also unklar. Nur eines ist sicher: Die Umwälzungen für unsere Gesellschaft werden gravierend sein. Denn auch wenn keine Superintelligenz entsteht, wird KI die Arbeitswelt und unseren Alltag umkrempeln. Autonome Autos könnten Taxifahrer überflüssig machen, Finanzalgorithmen ersetzen Börsenhändler, Landwirtschaftsroboter übernehmen die Arbeit von Bauern. Ein Viertel aller Jobs könnte bis 2025 wegfallen beziehungsweise von Software und Robotern übernommen werden, so eine Schätzung. Ob auch neue Arbeitsplätze entstehen, wie es bisher bei jeder Revolution der Wirtschaft der Fall war, ist ungewiss. Auch ohne Superintelligenz steht die Menschheit vor einer großen Herausforderung: Was wollen wir in Zukunft selbst tun, und was überlassen wir den Maschinen?