Die zahllosen Anwendungen der Künstlichen Intelligenz weckt hohe Erwartungen, ruft aber auch große Befürchtungen hervor. Auch die Technologiegespräche in Alpbach (22.-24. August) dominiert die Thematik. Seitens der Politik setzt man vor allem auf Expertengremien.
Konkrete Anwendungen gibt es bereits in großer Zahl, wenn man etwa an Übersetzungs- und Bilderkennungssoftware, immer flexiblere Chat-Bots, Spam-Mail-Blocker, den Algorithmus nach dem Google Suchergebnisse priorisiert oder die Playlist-Vorschläge beim Musikstreaming denkt. Dem Nutzer ist nicht immer bewusst, dass er es mit KI zu tun hat und durch sein Verhalten auch wichtige Daten zur selbstständigen Weiterentwicklung ebendieser liefert.
Gestaltung und Kontrolle unter menschlicher Aufsicht
Vorangetrieben werden die stark datengetriebenen Ansätze, die auf Systemen mit der Fähigkeit zum maschinellen Lernen fußen, vor allem von Internet- oder Logistik-Großkonzernen aus den USA oder China wie Amazon, dem Google-Mutterkonzern Alphabet, Facebook oder Alibaba. Die Gesetzgeber finden sich vielfach in der Zwickmühle: Einerseits gilt es, dem wichtigen Innovationsfeld nicht die Dynamik zu nehmen, andererseits braucht es Regulierung - etwa für den Umgang mit personenbezogenen Daten. Zudem gilt es für Europa den Anschluss an das Silicon Valley oder Asien auf dem Gebiet nicht zu verlieren.
Um sich in dem neuen Feld zurechtzufinden, richteten zahlreiche Regierungen und EU-Institutionen beratende Gremien ein. In Österreich ist das seit 2017 der Rat für Robotik und Künstliche Intelligenz (ACRAI), die EU-Kommission setzt etwa auf eine High-Level-Expertengruppe, die im April ihre "Ethischen Leitlinien für vertrauenswürdige KI" präsentiert hat. Diese beinhalten die Gestaltung und Kontrolle solcher Systeme unter menschlicher Aufsicht, das Achten auf Robustheit und Sicherheit, die Erfüllung von Datenschutz-Prinzipien, die Nachvollziehbarkeit der Arbeit der Systeme, die Nicht-Diskriminierung benachteiligter Gruppen durch die Entwicklungen, die Berücksichtigung gesellschaftlicher und ökologischer Konsequenzen von Technologien und eine Rechenschaftspflicht.
Hohe Investitionen
Der Grundgedanke dahinter ist, dass Europa im Gegensatz zu den USA mit seinen laxen rechtlichen Vorgaben, und China, das KI auch massiv zur staatlichen Überwachung einsetzt und weiterentwickelt, einen eigenen, "ethischeren" Weg beschreitet.
Seit 2017 haben sich insgesamt rund 20 Industrieländer Strategien für Künstliche Intelligenz gegeben. Nachdem die deutsche Regierung in ihrer Ende 2018 vorgestellten KI-Strategie bis zum Jahr 2025 zusätzlich drei Milliarden Euro in den Sektor investieren möchte, lässt die ursprünglich für die diesjährigen Alpbacher Technologiegespräche angekündigte österreichische Strategie unter dem Arbeitstitel "Artificial Intelligence Mission Austria 2030" in Folge des Koalitionsendes und der resultierenden Neuwahlen noch auf sich warten.
Auch die OECD hat im Juni unter dem Titel "Künstliche Intelligenz in der Gesellschaft" eine umfassende, länderübergreifende Publikation vorgelegt. Im Mai wurden die nicht rechtsverbindlichen OECD-Ratsempfehlung zu künstlicher Intelligenz von den Mitgliedsländern und einigen weiteren Staaten angenommen. Im Kern wird auch hier stark betont, dass KI gefördert werden sollte, "die innovativ und vertrauenswürdig ist und die Menschenrechte und demokratische Werte achtet".
Potenziale stehen auch Risiken gegenüber
Gemeinsam ist all den Empfehlungen und Strategien, dass einerseits ganz klar die wirtschaftlichen und gesellschaftlichen Chancen, und andererseits die ethischen und sozialen Gefahren hergehoben werden. "Diese neuen Technologien haben das Potenzial, zur Lösung der großen Herausforderungen unserer Zeit beizutragen, wobei ihre Anwendungsgebiete vielseitig sind: Gefährliche, monotone, ungesunde oder anstrengende Tätigkeiten können beispielsweise von Robotersystemen übernommen werden", heißt es etwa seitens des ACRAI. Gleichzeitig wird das Potenzial betont, "langfristig Arbeitsplätze zu schaffen bzw. zu erhalten". "Es erscheint aber offen, ob Zahl und Qualität der neuen Jobs denen der fortfallenden gleichkommt", schrieb das deutsche Science Media Center (SMC) 2018.
Den Potenzialen der KI stehen aber auch Risiken gegenüber, etwa "dass verzerrte Wahrnehmungen, sogenannte Biases, aus der analogen in die digitale Welt übertragen werden", wie die OECD schreibt. Manche KI?Systeme seien auch derart komplex, "dass ihre Entscheidungen u.U. nicht erklärt werden können". Das ist beispielsweise vor allem dann problematisch, wenn es um die Einschätzung von Kreditwürdigkeit durch KI, automatisierte Entscheidungen in Bewerbungsprozessen oder die Nutzung von intransparenten Systemen durch Polizei oder Geheimdienste geht, so das SMC, das auch die prinzipielle Problematik ins Treffen führt, dass sich viel KI-Know-how zur Zeit exklusiv in den Händen weniger großer Unternehmen befindet.