Können Sie sich noch an den Attentatsversuch auf Donald Trump erinnern? ChatGPT muss man dafür auf die Sprünge helfen. „Bisher (Stand: August 2024) gab es kein Attentat auf Donald Trump, den ehemaligen Präsidenten der USA“, antwortet die Künstliche Intelligenz, wenn man um Informationen zum fehlgeschlagenen Tötungsversuch auf den Republikaner fragt. Erst auf genauere Nachfrage wird die KI konkreter und kann sich „erinnern“. Das Beispiel zeigt, dass KI im US-Wahlkampf zur Waffe werden kann.
Clemens Wasner vom ThinkTank „AI Austria“ erklärt, ChatGPT habe sich bewusst entschieden, sich nicht klar zu politischen Themen zu äußern. Die KI von Open AI ist mit diesem Vorgehen nicht alleine, denn andere Chatbots machen es ähnlich. Microsofts KI „Copilot“ will beispielsweise nicht beantworten, wer die US-Wahl 2020 gewonnen hat. „Die Unternehmen wollen nicht anecken – sie wollen weder als zu woke noch als zu rechts gesehen werden“, sagt Wasner. Vor allem in den polarisierten USA, wo knapp jeder dritte Wähler glaubt, dass die letzte Präsidentschaftswahl gestohlen wurde, sind Fakten eine heikle Angelegenheit.
So unspezifisch die Chatbots agieren, so gezielt setzen Politikerinnen und Politiker die KI ein, um die Kontrahenten zu diskreditieren oder sich selbst in ein besseres Licht zu setzen. Donald Trump lässt beispielsweise Fotos von sich generieren, die ihn in einer Masse von lachenden und jubelnden people of color, Menschen mit nicht-weißer Hautfarbe, zeigen. Die Botschaft, die er damit senden will: Entgegen der Meinung der Demokraten und Meinungsforscher liebe ihn das diverse Amerika. In einem anderen Versuch lassen die Republikaner von der KI Bilder anfertigen, die den Eindruck erwecken, dass Taylor Swift, die bei den letzten Wahlen noch offen für die Demokraten geworben hatte, Trump unterstützt. Ein künstlich-generiertes Bild von Kamala Harris vor einer Art kommunistischer Generalversammlung soll das republikanische Narrativ von Harris als linker Gefährderin, untermauern.
Wieso ist Taylor Swift so wichtig für den US-Wahlkampf?
Der Charakter als Ziel
Getrickst wurde im US-Wahlkampf immer viel. Durch den Einsatz von KI könnte der Trend verstärkt werden. „In den USA sind die Regulierungen viel sanfter, auch das Verbreiten von KI-generierten Bildern könnte mit Verweis auf die freie Meinungsäußerung gerechtfertigt werden“, sagt Wasner. Zusätzlich zu manipulativen Bildern sind irritierende politische Botschaften hoch im Kurs. Schon 2016 haben die Republikaner es durch Social Media geschafft, den vote share - also die Beteiligung gewisser Bevölkerungsgruppen an den Wahlen - zu drehen.
„In erster Linie geht es nicht darum, die Meinung zu verändern, sondern vielmehr darum, die Wahlbeteiligung zu drücken“, sagt Wasner. Unterschiedliche KI-Modelle helfen dabei. Gefälschte Videos, die Politikerinnen und Politikern Charakterschwächen attestieren, würden den Eindruck verstärken, dass alle Bewerber gleichermaßen unwählbar sind. Opfer eines sogenannten „character assassination“ (Charakter-Attentats) wurde auch der britische Labour-Chef und nunmehrige Premierminister Keir Starmer. Von ihm wurde ein Deepfake-Audiomitschnitt angefertigt, der belegen soll, wie er seine Mitarbeiter zusammenschreit.
Was steckt hinter Voice Cloning?
Manipulationen durch die KI sind nicht nur eine Waffe, sie sind auch ein Vorwurf. So will Trump Schummelversuche erkannt haben. Er warf seiner Konkurrentin Kamala Harris vor, mittels KI Bilder ihrer Wahlkampfauftritte im Nachhinein so bearbeitet zu haben, dass der Eindruck entstehe, es wären mehr Menschen dabei gewesen als in der Realität. Ein Faktencheck der Nachrichtenagentur AFP, die die Fotos analysierte, widerlegte Trumps Behauptungen. Harris wurde tatsächlich von mehreren Anhängerinnen und Anhängern umjubelt und griff nicht auf technische Tricks zurück. Anders als Trump, der 2017 mehr Personen auf die Fotos seiner Amtseinführung retuschieren ließ.