Herr Kettemann, das EU-Parlament hat einen Entwurf für ein Gesetz zur Regulierung von Künstlicher Intelligenz beschlossen. Zugleich gibt es bereits Stimmen, die meinen, der AI Act könne gar nie so mächtig werden, wie es die Datenschutzgrundverordnung (DSGVO) bereits ist. Stimmt das?
Matthias Kettemann: Die DSGVO war natürlich ein Paukenschlag und in Wahrheit weltweit das erste richtig große Datengesetz. Mit Widerhall bis nach Mexiko oder Indonesien. Die EU hat es damit geschafft, Standards zu setzen. Ich denke aber, der AI Act hat ähnliche Bedeutung. Es gibt weltweit nur wenige, die gute Normen setzen. Die USA verfolgen einen Laissez-faire-Ansatz, China oder Russland agieren autokratisch. Die EU wirkt durch Regulierung, und ich bin mir sicher, dass wir weltweit einen Brüssel-Effekt sehen werden. Wenn auch nicht so schnell, wie es bei der DSGVO der Fall war. Aber der AI Act wird jedenfalls stark wahrgenommen werden.
Ist der Verordnungswurf gelungen?
Ja. Die EU wird bald sehr gute Regeln verabschieden. Auch, weil es ein starkes Umsetzungsregularium ist.
Wird der jetzt folgende Trilog, also die Verhandlungen mit Rat und EU-Kommission, den strengen Parlamentsentwurf verwässern?
Das glaube ich nicht. Der Rat war ja bereits in der ersten Phase der Gesetzwerdung am Steuer. Möglicherweise wird es in Einzelbereichen noch zu Änderungen kommen, aber ich gehe nicht davon aus.
Bis wann wird das finale Gesetz in Kraft treten?
Kommt es Ende 2023 zu einer Verabschiedung, wird das Gesetz 2025 in Kraft treten. Wobei wichtig zu erwähnen ist, dass nicht das formale Inkrafttreten entscheidend ist, sondern der Prozess davor. Unternehmen lobbyieren bereits seit Jahren, wissen also auch, was kommen wird. Und dementsprechend richten sie ihre Produkte aus. Das sind kommunikative Prozesse.
Ist es klug, dass KI-Anwendungen im militärischen Bereich von der Regulierung ausgenommen sind?
Es ist nicht sinnvoll, aber rechtlich zwingend. Die EU hat in diesem Bereich keine Kompetenzen. Verteidigungspolitik ist Sache der Nationalstaaten. Es braucht in diesem Bereich also Verhandlungen auf anderer Ebene, etwa auf jener der UNO.
Kritische Stimmen monieren, dass ein zu hohes Maß an Regulierung technologische Innovation und Wachstumschancen hemmt. Kann es sein, dass KI-Anwendungen künftig einfach außerhalb Europas aufschlagen?
Ja. Aber nur Technologien, die sozial wenig Mehrwert bringen. Wir werden etwa in Europa im Bereich "Social Scoring" (ein Sozialkreditsystem, das in China angewendet wird, Anm.) wenig Innovation sehen. Aber wir wollen das auch nicht. Das Problem wird nicht Europas Datenschutzniveau sein. Das Problem ist in diesem Fall ein Produkt, das dem notwendigen Datenschutzniveau nicht entspricht. Ein Produkt, das den europäischen Werten nicht entspricht. Da geht es also um Innovationen, wo der Schaden größer wäre als der gesellschaftliche Nutzen.
Das Gesetz ist die eine Seite, dessen Durchsetzung die andere. Wie kann diese gelingen?
Es braucht jedenfalls eine starke Durchsetzungsstruktur. Und die EU-Kommission kann dabei ein ganz wichtiger Faktor sein. Wichtig ist, zu betonen, dass wir die KI ja nicht abstrakt regeln wollen, sondern das Augenmerk auf deren Anwendungsfälle legen. Geht es um KI im Schulbereich, könnten also durchwegs Schulbehörden zuständig sein. Übergeordnet könnte eine Art KI-Kommission agieren.
Österreich will eine eigene KI-Behörde installieren. Eine sinnvolle Idee?
Wenn sie eine beratende Funktion einnimmt, kann es sinnvoll sein. Ist sie zu stark als Datenschutzbehörde aufgestellt, droht eine Verantwortungsdiffusion.
Ist KI eigentlich gefährlich?
Aktuell empfinde ich es vor allem als gefährlich, wenn wir davon sprechen, dass eine KI "entscheidet" oder "halluziniert". Weil man dadurch die Menschen dahinter verdeckt. Tatsache ist, dass auch bei der Entwicklung dieser Technologie noch immer der Mensch die entscheidende Rolle spielt.