Die Geschichten des Prager Golem oder Goethes Zauberlehrling zeigen: Die Idee, unbelebten Dingen einen Geist einzuhauchen, fasziniert die Menschen seit Jahrhunderten. Und so ist es nur allzu verständlich, dass die Wortkombination "künstliche Intelligenz" die Fantasie unzähliger Programmierer und Start-up-Gründer beflügelt.
Von einer echten Intelligenz kann man derzeit noch nicht sprechen, doch bereits die aktuellen Machine-Learning-Algorithmen sind zu erstaunlichen Dingen fähig. Sie färben alte Schwarz-Weiß-Bilder ein und verleihen diesen ein oft gruseliges Lächeln, sie wissen über Vorlieben beim Einkaufen Bescheid, können kurze Geschichten schreiben und einiges mehr.
Erste KI-Gesetze
In den oben genannten Geschichten wenden sich die "belebten" Objekte schließlich gegen ihre Meister und auch reale Beispiele haben in den vergangenen Jahren gezeigt, wie viel Unheil Machine-Learning schon heute anrichten kann: Ein Chatbot von Microsoft konnte innerhalb von 24 Stunden radikalisiert werden, eine Software zur Beurteilung der Rückfallwahrscheinlichkeit von US-Häftlingen war offen rassistisch, Algorithmen in Sozialen Netzwerken verstärken Verschwörungserzählungen.
Auch um diese Auswüchsen einzugrenzen, will die EU nun weltweite Standards zur Entwicklung von Künstlicher Intelligenz setzen. Konkret legte die EU-Kommission vor allem Regeln für sogenannte Hochrisiko-Anwendungen vor. Dazu zählt die Behörde unter anderem kritische Infrastruktur wie den Verkehrssektor oder Programme zur Personaleinstellung. Hier müssten unter anderem menschliche Aufsicht, umfangreiche Datensets und eine Risikobewertung sichergestellt werden.
Auch die biometrische Identifikation im öffentlichen Raum soll nur in engen Grenzen und nach behördlicher Genehmigung erlaubt werden - etwa bei der Suche nach einem vermissten Kind oder einem drohenden Terroranschlag. Technologien wie das Sozialkredit-System aus China, das regelkonformes Verhalten belohnt und Fehlverhalten bestraft, sollen gänzlich verboten werden.
Roboter-Beamte
Über all dem steht der Begriff der "vertrauenswürdigen KI". Das ist auch für Clemens Schwaiger einer der wichtigsten Punkte bei der Weiterentwicklung der künstlichen Intelligenz. Schwaiger ist im staatlichen Bundesrechenzentrum für die Entwicklung der KI-Angebote der Republik verantwortlich. "Gerade die öffentliche Verwaltung hat beim Einsatz von künstlicher Intelligenz Vorbildcharakter."
In Österreich werden solche Systeme schon länger eingesetzt. "Für die Bürger sichtbar sind unsere Chatbots Fred im Finanzamt, Mona im Unternehmerservice-Portal und Justitia im Justizministerium", erklärt Schwaiger. Hier werden Algorithmen zum Natural-Language-Processing eingesetzt. Mit jeder zusätzlichen Anfrage lernt dieser Chatbot dazu und versteht die Anliegen der Bürger besser.
Eher im Hintergrund arbeitet ein zweites KI-System. "Wenn wir mit dem Finanzamt in Kontakt treten, dann meist mit einer gewissen Nummer, sei es Sozialversicherung, UID oder Steuernummer." Bis vor Kurzem mussten Beamte die Nummern selbst suchen und verbinden. Auch wenn es pro Fall nur wenige Minuten waren, in Summe kam einiges an Zeit zusammen, erklärt Schwaiger. "Wir haben dann einen KI-Algorithmus entwickelt, der diesen riesigen Datenberg innerhalb eines Jahres abgearbeitet hat." Umgerechnet in Arbeitszeit hätte ein Verwaltungsbediensteter dafür 44 Jahre gebraucht.
Rechtsfreier Raum
So sinnvoll diese Einsatzgebiete sind, rechtliche Rahmenbedingungen gab es dafür bisher nicht, kritisiert Iris Eisenberger. Die Universitätsprofessorin hat am Institut für Öffentliches Recht und Politikwissenschaft der Uni Graz ein Forschungsprojekt zum Thema Smart Regulation aufgebaut. "Man tut oft so, als ob man technologische Entwicklungen nicht rechtlich regulieren kann, und sieht sich das dann erst an, wenn die Produkte längst eingesetzt werden", sagt Eisenberger.
Dabei könne man sehr wohl vorzeitig agieren, und zwar, ohne gleich technikfeindlich zu sein. Denn gerade bei dem Thema künstliche Intelligenz und Machine Learning würden die Programmierer ihre eigenen Werte und Vorstellungen oft ins Produkt einbringen. "Das ist alles andere als neutral und auch nicht transparent."
Ein aktuelles Beispiel für die mangelnde Transparenz seien die Prognosemodelle zum Verlauf der Covid-19-Fallzahlen. Diese werden mit Machine-Learning-Algorithmen erstellt. "Es ist aber nicht transparent, welche Daten als Grundlage genutzt werden und welche Modelle hinter den Berechnungen stecken." Dennoch werden auf Basis dieser Ergebnisse weitreichende politische Entscheidungen getroffen.
Mensch entscheidet
Eine offene Kommunikation ist auch für den BRZ-Experten Schwaiger zentral für die Entwicklung solcher Algorithmen. Das BRZ war an mehreren europäischen Initiativen zum Thema KI-Ethik beteiligt. Das Ergebnis seien fünf Prüfbereiche für die Produkte des BRZ: Transparenz, Verantwortung, Datenschutz, Zuverlässigkeit und Gerechtigkeit. "Es muss klar sein, mit welchen Daten die KI trainiert wurde, die Ergebnisse dürfen nicht diskriminierend sein und müssen auch nachvollziehbar sein." Schwaiger zieht auch eine klare Grenze. "Eine KI kann Informationen sammeln und den Sachbearbeiter unterstützen, sie wird aber nie autonome Entscheidungen treffen. Diese Verantwortung bleibt immer in Menschenhand."
Ähnlich sind auch die Vorschläge der EU zur "Trustworthy AI". In der weiteren Entwicklung der dazu nötigen Gesetze sei es nun wichtig Brücken zwischen den Disziplinen zu errichten, sagt die Forscherin Eisenberger. "Juristen müssen Techniker verstehen und umgekehrt." Und es brauche auch bei der Regulierung so etwas wie eine Fehlerkultur. Autonomes Fahren werde ja auch schon auf den Autobahnen getestet, obwohl die Technologie fehleranfällig ist. Warum sollte man nicht auch bei Gesetzen Fehler machen dürfen? "Man kann Regeln ja auch wieder ändern, wenn sie fehl am Platz sind."
Roman Vilgut