Die Europäische Union bekommt ein Regelwerk für den Einsatz von Künstlicher Intelligenz (KI). EU-Binnenmarktkommissar Thierry Breton gab am Freitagabend nach langwierigen Verhandlungen zwischen den Unterhändlern der Mitgliedstaaten und des Europaparlaments eine politische Vereinbarung für den neuen Rechtsrahmen bekannt. „Historisch! Die EU wird der allererste Kontinent, der klare Regeln für die Nutzung von KI setzt“, schrieb Breton im Kurzbotschaftendienst X (früher Twitter).
Es seien weltweit die ersten Regeln für KI, teilten auch das Europaparlament und die EU-Staaten am Freitagabend in Brüssel mit. Im Folgenden wichtige Fragen und Antworten:
Was ist KI und wie funktioniert sie?
Unter Künstlicher Intelligenz (KI) versteht man den Versuch, menschliches Lernen und Denken auf den Computer zu übertragen. Ziel ist es, komplexe Aufgaben erledigen zu lassen, die normalerweise menschliche Intelligenz erfordern. Generelle Problemlösungsmaschinen (Artificial General Intelligence) sind trotz aller Fortschritte noch nicht in Sicht. Allerdings finden enger definierte KI-Anwendungen in unserer heutigen Welt bereits breite Verwendung: Dazu zählen etwa automatische Übersetzungen, personalisierte Empfehlungen beim Online-Shopping, Gesichtserkennung am Handy, aber auch intelligente Thermostate oder Navis. Auch die Anwendungen der generativen KI wie der Text-Roboter ChatGPT gehören zu den enger definierten KI-Anwendungen.
Warum braucht es ein Gesetz dafür?
KI gilt als Zukunftstechnologie. Experten vermuten, dass die Technologie künftig praktisch alle Aspekte in der Wirtschaft, aber auch im Alltag betreffen könnte und sich zum Beispiel der Arbeitsmarkt dadurch massiv wandeln wird: Manche Jobs werden sich verändern, andere werden vielleicht ganz verschwinden. KI gilt aber auch als Technologie, die Gefahren birgt. So warnte etwa der Chef des ChatGPT-Erfinders OpenAI, Sam Altman, vor Falschinformationen mithilfe Künstlicher Intelligenz und sprach sich deshalb für eine Regulierung aus. Fotos oder Videos können durch KI leicht manipuliert werden. Als Problem gilt auch, dass KI teilweise mit verzerrten Datensätzen trainiert wurden und damit Personen diskriminiert werden. Auch der Einsatz in der Kriegsführung wird für möglich gehalten.
Worauf hat sich die EU nun verständigt?
Die nun vorgelegten Vorschriften legen Verpflichtungen für KI auf Grundlage ihrer potenziellen Risiken und Auswirkungen fest. Als besonders riskant werden KI eingestuft, die ein erhebliches Schadenspotenzial etwa für Gesundheit, Demokratie, Umwelt oder Sicherheit haben.
Bestimmte Anwendungen werden komplett verboten, etwa biometrische Kategorisierungssysteme, die sensible Merkmale wie zum Beispiel die sexuelle Orientierung oder religiöse Überzeugungen verwenden. Auch das ungezielte Auslesen von Bildern aus dem Internet oder aus Überwachungsaufnahmen für Gesichtserkennungsdatenbanken soll nicht erlaubt sein. Allerdings wird es Ausnahmen für biometrische Identifizierungen im öffentlichen Raum in Echtzeit geben, etwa bei der Gefahr eines Terroranschlags oder bei der gezielten Suche von Opfern von Menschenhandel. Um diesen Punkt wurde intensiv gerungen, das EU-Parlament wollte eigentlich ein komplettes Verbot.
Ein weiterer Streitpunkt war die Regulierung von sogenannten Basismodellen. Das sind sehr leistungsfähige KI-Modelle, die mit einem breiten Satz an Daten trainiert wurden. Sie können die Grundlage für viele andere Anwendungen sein. Dazu zählt etwa GPT. Deutschland, Frankreich und Italien hatten zuvor gefordert, dass nur konkrete Anwendungen von KI reguliert werden sollten, nicht aber die Basistechnologie an sich. Nun einigten sich die Unterhändler auf bestimmte Transparenzpflichten für diese Modelle.
Wie fallen die Reaktionen aus?
EU-Kommissionspräsidentin Ursula von der Leyen begrüßte die Einigung und bezeichnete das Gesetz als „weltweites Novum“. Auch Österreichs Staatssekretär für Digitalisierung, Florian Tursky (ÖVP), begrüßte die Einigung. „Mit dem weltweit ersten Rechtsrahmen für KI setzen wir in der Europäischen Union einen wichtigen Meilenstein, denn durch sinnvolle Regulierung stärken wir nicht nur das Vertrauen in die neuen Technologien, sondern stärken zudem die europäischen Werte und Grundrechte im digitalen Raum“, betonte er laut einer Aussendung von Samstag früh. Für Unternehmen seien „klare Regeln und Vorgaben“ wichtig, um Rechtssicherheit zu haben. „Für die Bürgerinnen und Bürger sind die Transparenz und der Schutz ihrer persönlichen Daten wichtig“, so Tursky.
Die europäische Verbraucherschutzorganisation BEUC kritisierte, dass sich die EU zu sehr auf den guten Willen der Unternehmen zur Selbstregulierung verlasse. „So werden beispielsweise virtuelle Assistenten oder KI-gesteuerte Spielzeuge nicht ausreichend reguliert, da sie nicht als Hochrisikosysteme gelten. Auch Systeme wie ChatGPT oder Bard werden nicht die notwendigen Leitplanken erhalten, damit die Verbraucher ihnen vertrauen können“, hieß es.
Wie geht es nun weiter?
Zunächst müssen EU-Staaten und Europaparlament dem Vorhaben noch offiziell zustimmen. Das gilt aber als Formsache. Gelten soll das Gesetz dann zwei Jahre nach Inkrafttreten.