Thema – Wahlen

Suchen Newsletter ABO Mediathek

Kann man sich per KI-Bot über die Wahl informieren?

Im Wahlkampf spielt künstliche Intelligenz eine immer größere Rolle. Doch kann man sich so seriös über die Wahl informieren? Antworten für jene, die sich vor der Bundestagswahl noch schlau machen wollen

Illustration einer Roboterhand die eine Menschenhand über einen Stimmzettel führt

Kann ich mich darauf verlassen, dass KI-Chatbots korrekte Informationen über Wahlen liefern?

Nein. Eine Untersuchung der Organisation AlgorithmWatch zu den Landtagswahlen 2024 offenbarte zahlreiche Fehler in Antworten von KI-Chatbots. Die KI-Programme ordneten teilweise Parteien und Kandidat:innen falsch zu und erfanden Informationen. Von einer Politikerin behauptete das KI-Programm „Gemini“ fälschlicherweise, sie leugne den Klimawandel, sei gegen Einwanderung und die gleichgeschlechtliche Ehe. Von einer anderen Politikerin behauptete das Programm, sie existiere gar nicht. Eigentlich sollen einige KIs nach ihren eigenen Richtlinien auch keine Wahlempfehlungen geben, was aber offensichtlich nicht immer gelingt.

Warum erfinden KI-Chatbots Informationen? 

KI-Systeme werden nach statistischen Prinzipien trainiert, also nach Wahrscheinlichkeiten. Das heißt: In einem Satz berechnen sie immer für das jeweils nächste Wort, welches Wort am wahrscheinlichsten ist. „Das klappt häufig sehr gut, weil das statistisch wahrscheinlichste oft auch faktisch korrekt ist“, sagt Aljoscha Burchardt, Principal Researcher am Deutschen Forschungszentrum für Künstliche Intelligenz. „Aber wenn es um Dinge geht, die kontrovers sind, die sich geändert haben oder zu denen es nicht viele Informationen gibt, dann können diese Systeme dadurch komplett falschliegen.“

Dann lieber die Finger von der KI lassen?

Das ist nicht nötig, aber man muss wissen, was die KI leisten kann. „Den größten Vorteil sehe ich darin, dass künstliche Intelligenz Wahlinformationen zusammenfassen und so ausspielen kann, dass es für die nachfragende Person verständlich ist“, sagt die Medienethikerin Jessica Heesen von der Eberhard Karls Universität Tübingen. Mit KIs können sich Nutzer:innen einen ersten Überblick verschaffen. Der muss aber unbedingt in einem zweiten Schritt selbstständig überprüft werden. Die KI kann zum Beispiel seitenlange Wahlprogramme zusammenfassen, in leichter oder einfacher Sprache erklären, Erklärungen für Kinder geben oder Übersetzungen in viele Sprachen anfertigen.

In einem zweiten Schritt ist es dann aber wichtig, die Antworten der KI noch mal mit anderen Quellen zu überprüfen. Bei einem in Stichworten zusammengefassten Wahlprogramm können die einzelnen Punkte auf der Webseite der Parteien noch mal eingegeben werden, um zu vergleichen, ob diese Punkte tatsächlich im Wahlprogramm vorkommen. Bei angeblichen aktuellen Ereignissen oder angeblichen Aussagen von Politiker:innen sollten Nutzer:innen am besten prüfen, ob große bekannte Medien auch davon berichten. Sollte der KI-Chatbot Quellen für die erfragten Informationen angeben, wie es zum Beispiel Perplexity AI macht, ist es wichtig, die Links anzuklicken, um zu checken, ob sie auf eine seriöse Webseite führen. Denn manchmal erfinden Chatbots auch Quellenangaben oder verweisen auf unseriöse Webseiten, sodass man ihnen nicht ungeprüft vertrauen kann.

Gibt es bestimmte KIs, die auf Wahlen zugeschnitten sind?

Neben den bekannten Chatbots gibt es auch mehrere KI-Bots speziell für die Bundestagswahl. Wahlweise oder Wahl.chat sind zwei Beispiele dafür. Das Tool Wahl.chat haben fünf Studierende einer KI-Forschungsgruppe an der LMU München und der Universität Cambridge entwickelt. In ihren Leitlinien für den KI-Bot geben sie an: „Alle Parteipositionen sollen neutral und ohne Wertung wiedergegeben werden.“ In den Antworten wird jeweils die entsprechende Seite des Partei-Wahlprogramms als Quelle verlinkt. Aber auch hier warnen die Entwickler, dass der Bot Fehlinformationen geben könnte. Das Risiko könne nicht ganz ausgeschlossen werden.

Was ist die größte Gefahr von KI im Wahlkampf?

Besondere Sorgen bereiten Behörden und Expert:innen sogenannte Deepfakes. Das sind mithilfe von KI erstellte Bilder, Videos oder Tonaufnahmen, die täuschend echt wirken können. Sie können Wähler:innen in die Irre führen oder falsch informieren. Deepfakes sind bereits in verschiedenen Ländern und Wahlkämpfen aufgetaucht: In den USA erhielten Wähler:innen zum Beispiel Anrufe mit der gefälschten Stimme von Joe Biden, der ihnen davon abriet, bei den Vorwahlen wählen zu gehen. In der Slowakei verbreitete sich 2023 zwei Tage vor den Parlamentswahlen eine gefälschte Audioaufnahme von Kandidat Michal Šimečka, der über vermeintlich gekaufte Stimmen und Pläne für höhere Bierpreise sprach. Seine Partei, die zuvor in Umfragen geführt hatte, erreichte am Wahltag nur Platz zwei.

In Deutschland kursierte zu Beginn des Bundestagswahlkampfs ein Deepfake-Video, das den CDU-Kanzlerkandidaten Friedrich Merz zeigte. Im Hintergrund des Videos lief die Nationalhymne, Merz sagte mit KI-generierter Stimme in die Kamera: „Die CDU/CSU verachtet Sie.“ Bisher habe ihr Team aber noch keine groß angelegten Kampagnen mit Deepfakes im Bundestagswahlkampf beobachten können, sagt Lea Frühwirth, Psychologin und Senior Researcher für Desinformation beim Thinktank CeMAS (Center für Monitoring, Analyse und Strategie).

Gibt es eine Kennzeichnungspflicht, wenn Parteien KI-Inhalte im Wahlkampf nutzen? 

Die KI-Verordnung der Europäischen Union verpflichtet zu einer Kennzeichnung von KI-Inhalten. Allerdings gilt sie allgemein erst ab August 2026, damit die Unternehmen genügend Zeit zur Anpassung haben. Wenn gefälschte Bilder und Videos von Politiker:innen verbreitet werden, kann das aber schon jetzt strafrechtlich verfolgt werden. „Eine speziell auf Deepfakes zugeschnittene Vorschrift zum Persönlichkeitsschutz existiert derzeit im Strafgesetzbuch noch nicht“, so die Organisation AlgorithmWatch.

Welche Rolle spielen Social-Media-Algorithmen bei der Verbreitung von Deepfakes und Falschinformationen?

 

Expert:innen kritisieren die Art und Weise, wie die großen Social-Media-Plattformen funktionieren, weil sie Desinformation begünstigen. Die Haupteinnahmequelle von Plattformen wie Facebook oder X ist Werbung, die Nutzer:innen sollen also möglichst lange auf der Plattform bleiben, damit sie viel davon sehen. Angsterzeugende, empörende Inhalte können diese Aufmerksamkeit anziehen und binden. „Das sind natürlich auch typische Merkmale von Desinformationen, die oft reißerisch und dramatisch formuliert sind“, sagt Frühwirth. KI könne hier als eine Art Beschleuniger wirken, ergänzt Medienethikerin Jessica Heesen. „Social-Media-Algorithmen laufen immer stärker mit künstlicher Intelligenz, und sie verstärken immer die Inhalte, für die ich mich interessiere. Es kann sein, dass die Algorithmen so noch stärker personalisieren.“ Theoretisch sei aber auch das Gegenteil möglich: KI könne auch zu mehr Ausgewogenheit führen. Es wäre denkbar, dass Nutzer:innen, die sich zum Beispiel nur Inhalte einer Partei anschauen, vom Algorithmus die Frage gestellt wird, ob sie nicht auch Inhalte anderer Parteien sehen wollen.

Wie können wir uns vor Deepfakes und falschen KI-Informationen schützen?

Bei Videos können Nutzer:innen mithilfe einer Bilder-Rückwärtssuche recherchieren, ob das Motiv zuvor schon anderswo aufgetaucht ist oder ältere Aufnahmen manipuliert wurden. Außerdem sollten die Mundbewegungen zu der Tonspur passen. Ruckartige Bewegungen, seltsames oder fehlendes Blinzeln sowie plötzlich im Hintergrund auftauchende oder verschwindende Objekte können ein Hinweis auf ein Deepfake-Video sein.

Illustration: Alexander Glandien 

Dieser Text wurde veröffentlicht unter der Lizenz CC-BY-NC-ND-4.0-DE. Die Fotos dürfen nicht verwendet werden.