Es waren viele Gründe, die Italiens Datenschutzbehörde Ende März ins Treffen führten. Nutzer würden nicht ausreichend über die Verarbeitung privater Daten informiert, es fehle die Möglichkeit, falsche Daten zu korrigieren und überhaupt gebe es keine Grundlage, derlei enorme Mengen an personenbezogenen Daten zu sammeln.
Ins Visier der umtriebigen Behörde war niemand geringerer als ChatGPT geraten. Also jener umstrittene wie beliebte Chatbot, der auf Künstlicher Intelligenz basiert, und nur zwei Monate nach dem Start mehr als 100 Millionen monatlich aktive Nutzer erreichte. Noch nie zuvor wuchs in der Geschichte eine Anwendung schneller.
Nun, in Italien bereitete die Behörde der Popularität erst einmal ein jähes Ende und verbot ChatGPT. Zumindest bis zum heutigen Tag. Lenkt Open AI, der von Microsoft unterstützte Erschaffer von ChatGPT ein, kann der Chatbot morgen wieder online gehen.
Vorbehalte in immer mehr Ländern
Zugleich mehren sich die Vorbehalte gegenüber der Technologie auch in anderen Gegenden der Welt. Frankreich, Kanada und Spanien meldeten ebenfalls datenschutzrechtliche Bedenken an. Deutschland spricht sich für einen "klaren Rechtsrahmen" beim Einsatz von KI aus und China kündigte eine Regulierung im Einklang mit sozialistischen Grundwerten an. Was wiederum Alarmglocken bei Österreichs Staatssekretär Florian Tursky, zuständig für Digitales, schrillen ließ. "KI darf keiner staatlich vorgegebenen Ideologie folgen", sagt Tursky.
EU will mit "AI Act"-Rechtsrahmen schaffen
Auch in den Institutionen der EU rauchen die Köpfe. Bereits vor zwei Jahren startete die EU-Kommission einen Gesetzgebungsprozess, im April 2021 kam es zu einem Entwurf für den "AI Act". Mittlerweile sind die Verhandlungen im Europaparlament und dort im heißen Finale. Ziel der Kommission ist es, den "AI Act" 2024 zu beschließen. 2025 könnte das Gesetz dann in Kraft treten.
Aber wie soll dieses aussehen? "Bei einer Regulierung von KI kann viel schiefgehen, wenn man sie übers Knie bricht", erzählt Matthias Wendland im Gespräch. Der Jurist lehrt am Institut für Unternehmensrecht und Internationales Wirtschaftsrecht der Grazer Karl-Franzens-Universität und gilt als ausgewiesener Experte für IT-Recht. Was Wendland meint: Regulierung dürfe die Entwicklung von Künstlicher Intelligenz in Europa nicht unnötig behindern. "Sonst werden wir abgehängt und es kommen über die Hintertür Anwendungen aus den USA oder China, die selbst ein Mindestmaß an Anforderungen nicht mehr erfüllen", erklärt Wendland. Im Europaparlament weiß man um das Dilemma und rief deswegen jüngst nach einem "globalen KI-Gipfel".
"Völlig offen ist die Frage der Durchsetzung"
Zugleich nimmt der AI Act Form an. Indizien mehren sich, dass viele KI-Anwendungen mit dem Attribut "Hochrisiko" versehen werden und die Kommission an eine Art Herstellerhaftung denkt. Das würde weitreichende Verpflichtungen für jene bringen, die KI entwickeln. Es geht um verpflichtendes Risikomanagement, Transparenzvorschriften gegenüber Anwendern oder eine detaillierte technische Dokumentation. Außerdem soll es regelmäßige externe Prüfungen geben.
Gegenspieler einer klugen Regulierung ist das Tempo, in dem KI aktuell weiterentwickelt wird. So spielte eine Allzweck-KI im ersten Entwurf der Verordnung noch keine Rolle. Heute ticken die Uhren anders. "ChatGPT war ein Weckruf für uns", sagt Paul Nemitz, Chefberater der EU-Kommission in einem "Futurezone"-Interview.
Auf eine nach wie vor große Baustelle weist Matthias Wendland hin. "Völlig offen ist die Frage der Durchsetzung", sagt der Jurist, "Gibt es Bußgelder? Und wer kontrolliert die Einhaltung des 'AI Act?'" Fragen über Fragen. Auf die zumindest ChatGPT sicher keine zufriedenstellende Antwort hat.