Wer beweist, dass meine Stimme wirklich meine Stimme ist? Dass die wütende Sprachnachricht auf der Mailbox der Chefin tatsächlich von einem Menschen oder nicht doch von einem Stimm-Klon gesprochen wurde? Oder dass der Song von Billie Eilish, den ich höre, echt ist? Mehr als 200 Musikschaffende weltweit wollen verhindern, dass künstliche Intelligenz im Audiobereich „unverantwortlich eingesetzt“ werde. Mit auf der Liste sind große Namen wie Bon Jovi, Katy Perry oder Stevie Wonder oder eben Billie Eilish. Die Sorge kommt nicht zufällig, denn gerade im Audiobereich ist die Möglichkeit des Missbrauchs durch künstliche Intelligenz groß.
Und daher ist die Sorge verständlich, denn seit einigen Wochen haben einige der führenden KI-Unternehmen genau solche Stimm- und Audio Programme am Start. Auch „Open AI“, die Mutter des erfolgreichen Chat-Bots „Chat GPT“, der mittlerweile von mehr als 200 Millionen Nutzerinnen und Nutzern gespeist wird, hat ein solches. Es heißt „Voice Engine“, doch seitens der Führungsspitze lässt man das Programm noch nicht in die Welt. Open AI lässt ausrichten: „Aufgrund des Potenzials für den Missbrauch synthetischer Stimmen gehen wir bei einer breiteren Veröffentlichung vorsichtig und informiert vor. Das Missbrauchspotenzial sei deshalb so hoch, weil man in diesem Generator eine menschliche Stimme mit einer nur 15-sekündigen Audiovorlage perfekt klonen kann. Man wolle, so Open AI weiter, sicherstellen, dass manche Stimmverifizierungen, wie etwa den Zugang zum eigenen Bankkonto, besser geschützt sind, ehe man das Programm freigibt. Außerdem wollte man die Wahlen in den USA abwarten, um Missbrauch in größerem Stil zu verhindern. Ebenso hält auch Nividia, der weltweit größte Anbieter von Chips und Software, der sein Anfang der Woche finalisiertes Programm „Fugatto“ noch nicht freigibt, obwohl das kommerzielle Interesse enorm sein dürfte. Was also sind die Gefahren? Der Zugriff auf Stimmen und der Zugriff auf synthetisierte KI-Stimmen, das sehen also sogar die Tech-Giganten ein.
Jetzt hat aber die Kleine Zeitung etwas ganz Ähnliches präsentiert. Eine Stimme, die ein KI-Klon ist. Trainiert von mir, der Autorin dieses Textes, Barbara Haas. Warum haben wir das gemacht? Weil wir unseren Abonnentinnen und Abonnenten ein Hör-Service bieten wollen. Quasi, eine Vorleserin. Wie wurde diese erzeugt? Durch wochenlanges Training durch eingesprochene Texte. Wie wurde die Stimme geschützt? Mit einem strengen Vertrag zwischen der Kleinen Zeitung und jener Firma, mit der wir gearbeitet haben. Sie dürfen etwa meine Trainingsdaten nicht weiterverwenden. Und dann noch mit einem Vertrag zwischen der Kleinen Zeitung und mir, der die Stimme gehört. Wofür darf der „Klon“ also verwendet werden? Nur für redaktionelle Artikel, die hinter der Paywall sind. Es ist ein Service, denn täglich 200 Artikel neu einlesen, das würde ich als Mensch nicht schaffen. Ich als KI-Klon hingegen locker.