fluter.de: Herr Scharre, „autonome Waffen“ – da denkt man an die Kampfroboter aus den „Terminator“-Filmen oder an einige Folgen der dystopischen Streaming-Serie „Black Mirror“. Was verbirgt sich in der Realität hinter diesem Begriff?
Paul Scharre: Eine autonome Waffe ist eine Maschine, die von Menschen entworfen, gebaut und auf ein Schlachtfeld geschickt wurde. Wenn sie dort erst mal im Einsatz ist, kann sie selbstständig und ohne menschliches Zutun manövrieren, Ziele ausmachen und diese Ziele angreifen.
Gibt es so etwas schon?
Bislang sind völlig autonome Systeme rein hypothetisch, auch wenn etwa einige Verteidigungsanlagen von Schiffen bereits selbstständig anfliegende Raketen erkennen und zerstören können. Aber Systeme zum Angriff sind noch nicht wirklich im Einsatz. Das könnte sich allerdings bald ändern, weil sich die notwendige Technologie zurzeit sehr schnell weiterentwickelt, allem voran künstliche Intelligenz (KI). Militärs in mehreren Ländern der Welt lassen Rüstungskonzerne an KI-gesteuerten Waffen arbeiten.
„Es ist eine weit verbreitete Fehleinschätzung, dass autonome Waffen immer sehr teuer sein müssen“
Was sind die Vorteile, wenn KI militärische Operationen steuert?
KI kommt beim Militär vieler Staaten schon jetzt zum Einsatz – das aber vor allem im Backoffice hinter den Frontlinien, etwa bei Logistik, Wartung oder Personalplanung. Aber natürlich wird KI zunehmend auch in Waffen implementiert. Sie kann dafür sorgen, dass man auf dem Schlachtfeld schnell und zielgenauer reagieren kann, und das ist natürlich ein riesiger Vorteil gegenüber dem Gegner. Es kann deshalb sein, dass Menschen künftig Schlachten vor allem von einem höheren Level aus beaufsichtigen. Die Maschinen vor Ort treffen in einem bestimmten Rahmen Entscheidungen und kämpfen allein.
Wann hat diese Entwicklung begonnen?
Waffen werden schon lange immer weiter automatisiert. Im Grunde kann man das zurückführen bis ins 19. Jahrhundert, bis zu den sogenannten Gatling-Gewehren im Amerikanischen Bürgerkrieg, die über per Hand drehbare Läufe mehr Feuerkraft entfaltet haben. Im Ersten Weltkrieg kamen dann die ersten echten vollautomatischen Maschinengewehre zum Einsatz. Im Zweiten Weltkrieg gab es bereits Torpedos, die anhand von akustischen Signalen selbstständig einem Schiff folgen konnten. Und jede neue Generation von Raketen hat heute ausgefeiltere Intelligenz an Bord, womit die Flugkörper inzwischen weitgehend allein manövrieren können. So werden immer neue Funktionen von Maschinen übernommen.
Internationale Debatte zur Regulierung autonomer Waffen
Die UN arbeiten schon seit 2014 an einer Übereinkunft zum Einsatz autonomer Waffen. Allerdings konnten sich die Staaten bisher nicht dazu durchringen. Russland, die USA, Indien und Israel sind zum Beispiel gegen eine gemeinsame bindende Regulierung. Andere Staaten, darunter vor allem eine Gruppe von Staaten aus dem globalen Süden, sind hingegen für einen bindenden völkerrechtlichen Vertrag.
Die Bundesregierung hat sich im Koalitionsvertrag darauf verständigt, tödliche autonome Waffensysteme zu regulieren: „Letale Autonome Waffensysteme, die vollständig der Verfügung des Menschen entzogen sind, lehnen wir ab. Deren internationale Ächtung treiben wir aktiv voran.“ Dass der Mensch eine gewisse Steuerungskompetenz behalten soll, ist für viele Staaten wesentlich. Wie stark diese ausgestaltet sein soll, ist allerdings ebenfalls noch umstritten.
Das klingt ähnlich wie beim Auto, wo Fahrerassistenzsysteme dem Menschen schrittweise immer mehr Arbeit abnehmen – bis das Auto irgendwann vollständig autonom fährt.
Beides ist ein vergleichbarer gradueller Prozess, bei Autos wie bei Waffen. Der Einsatz von KI beschleunigt diese Entwicklung nur. Und beides beruht sogar grundlegend auf ähnlichen Technologien: KI, die autonomes Fahren möglich macht, kann auch autonome Waffen steuern.
Werden sich dann nur Industriestaaten solche Hightech-Waffen leisten können, während ärmere Länder vor allem Bürgerinnen und Bürger in den Krieg schicken?
Es ist eine weit verbreitete Fehleinschätzung, dass autonome Waffen immer sehr teuer sein müssen. Natürlich wird es weiter hochentwickelte und damit sehr kostenintensive Waffensysteme geben, so wie auch jetzt schon. Aber einfache autonome Waffen werden leicht herzustellen sein. Man sieht das schon jetzt in der Ukraine, wo Soldaten aus kommerziellen Produkten, die jede und jeder kaufen kann, Kampfdrohnen basteln. Künftig werden sich auch KI-Modelle kostenlos downloaden lassen, um dann auf dem Schlachtfeld zum Einsatz zu kommen. Relativ gesehen könnten ärmere Länder sogar stärker von den dadurch möglichen Entwicklungsschritten profitieren als reiche Länder.
Sie sagten eben, der große Vorteil von KI-gesteuerten Waffen sei es, dass sie schneller auf Angriffe reagieren können. Was geschieht, wenn sich eines Tages in einem Krieg solche Systeme gegenüberstehen und von allein mit einer Geschwindigkeit aufeinander reagieren, die kein Mensch mehr nachvollziehen kann?
Das ist tatsächlich eine reale Gefahr. So etwas ist ja an Börsen bereits vorgekommen, wo Algorithmen in Millisekunden Aktien handeln – und dann schon mehrmals sogenannte „Flash Crashs“ ausgelöst haben, also plötzliche starke Kurseinbrüche, die sehr schnell von allein in den Interaktionen dieser Systeme miteinander entstehen. Vergleichbar könnte es auch zu „Flash Wars“ oder, wie ich sie nenne, „Hyperwars“ kommen. KI-Systeme eskalieren dabei ungewollt einen Konflikt und kämpfen dann in übermenschlicher Geschwindigkeit gegeneinander. Um das zu vermeiden, müssten beide militärische Parteien miteinander kommunizieren – was in Kriegen ja nicht immer einfach ist.
„Autonome Waffen werfen rechtliche, ethische und politische Fragen auf. Wie schaffen wir es, dass sie sich an das Völkerrecht halten?“
Im Jahr 2017 haben mehr als 100 führende Expertinnen und Experten von KI- und Robotik-Firmen in einem offenen Brief gewarnt, die Entwicklung autonomer Waffen öffne die Büchse der Pandora – sie lasse also etwas Gefährliches in die Welt, das die Menschheit nur schwer wieder einfangen könne. Inwiefern halten Sie diese ganze Entwicklung für vertretbar?
Wie so vieles wird KI auch den Krieg verändern. Aber autonome Waffen werfen rechtliche, ethische und politische Fragen auf. Wie schaffen wir es, dass sich diese Maschinen an das Völkerrecht halten und etwa keine Verwundeten töten? Wie vermeiden wir Fehlentscheidungen? Wenn eine autonome Waffe unter Wasser U-Boote jagt und dort ein potenzielles Ziel entdeckt, ist es wahrscheinlich wirklich ein U-Boot – und nicht etwa eine Schule oder ein Krankenhaus. Anders sieht es in unübersichtlichen Lagen an Land aus, wo auch Zivilisten in der Nähe sein können. Und fühlen wir uns überhaupt wohl mit Maschinen, die allein Entscheidungen von solcher Tragweite treffen können? Solche Fragen sind schwer zu beantworten, und sie sollten nicht allein von Militärs beantwortet werden.
Paul Scharre war als Army Ranger im Irak und in Afghanistan im Einsatz und hat für das Büro des US-Verteidigungsministers gearbeitet. Heute ist er Vizepräsident des Thinktanks Center for a New American Security. Er ist Autor der Bücher „Army of None: Autonomous Weapons and the Future of War“ und „Four Battlegrounds: Power in the Age of Artificial Intelligence“.
Titelbild: Renke Brandt