Künstliche Intelligenz (KI) übernimmt vielerorts immer mehr Aufgaben. Dass dies nicht immer reibungslos funktioniert, zeigt eine Evaluierung des KI-Systems der Londoner U-Bahn. In der ältesten Untergrundbahn der Welt sollte die Technologie eigentlich Schwarzfahrer und potenzielle Gewalttäter identifizieren. Doch das Projekt scheiterte.
Kinder wurden als Schwarzfahrer erkannt
Das aus elf verschiedenen Algorithmen bestehende System soll häufig falsche Schlüsse gezogen haben. Wie das britische Magazin „Watson“ berichtet, schlug das System im vergangenen Jahr 44.000 Mal an. Dabei handelte es sich aber nicht um Personen ohne Fahrschein oder besonders hohem Gewaltpotenzial. Häufig wurden beispielsweise Kinder als Schwarzfahrer eingestuft.
Der „Öffi“-Betreiber Transport for London (TfL) nennt in seinem Bericht zum System weitere Fehler. Darin heißt es, man habe „aggressive Handlungen“ einbeziehen wollen, sei aber nicht in der Lage gewesen, diese „erfolgreich zu erkennen“. Dafür habe es an geeigneten Trainingsdaten gefehlt - weitere Gründe seien in dem Dokument geschwärzt worden, so das Magazin.
Experten äußern ethische Bedenken
Nun ist es an den Softwareentwicklern, das System verkehrstauglich zu machen. Doch Experten sind skeptisch. Der Datenschutzaktivist Daniel Leufer von Access Now wies gegenüber „Wired“ darauf hin, dass bei solchen Erkennungsversuchen die Trainingsdaten „immer unzureichend“ seien, „weil diese Dinge wahrscheinlich zu komplex sind, um sie über eine KI zu erfassen“.
Generell sind Datenschützer von dem System nicht begeistert. Zwar werde keine Gesichtserkennung verwendet, aber der Einsatz von KI im öffentlichen Raum zur Identifizierung von Verhalten werfe viele „wissenschaftliche, ethische, rechtliche und soziale Fragen“ auf, heißt es vom Forschungsinstitut Ada Lovelace Institute.
Was ist Ihre Meinung zu Künstliche Intelligenz im Alltag? Verraten Sie es uns in den Kommenaren!