Vielleicht beginnen wir diesen Text über die Zukunft von Künstlicher Intelligenz untypischerweise mit dem Menschen und seiner Fehlbarkeit. Denn Markus Kneer ist ein ausgewiesener Kenner beider Seiten, der technischen und der menschlichen. Ausführlich beschäftigte sich der Professor für Ethik der Künstlichen Intelligenz (KI) am IDea_Lab der Uni Graz etwa mit dem Forschungsfeld „Bias im Strafrecht“, also kognitiven Verzerrungen im Urteil von Richterinnen und Richtern. Eine zentrale Erkenntnis von Kneers Forschung: Menschen können gewissen Denkfehlern kaum entkommen. Das wiederum macht sie anfällig für Fehlentscheidungen. Als Beispiel nennt Kneer den „Rückschaufehler“, also die in der Retrospektive viel höher eingeschätzte Wahrscheinlichkeit eines später eingetretenen Ereignisses.

„Ein Bias im Datensatz eines KI-Modells“, schlägt Kneer schnell die Brücke zur omnipräsenten Technologie, sei natürlich manchmal auch „katastrophal“. Erkennt man ihn, biete das aber zugleich eine große Chance, weil die Feinjustierung des KI-Modells schlussendlich Verzerrungen minimieren kann. Nur ein Beispiel, warum Kneer KI grundsätzlich „viel positives Potenzial“ zuschreibt. Und dazusagt: „Das zentrale Risiko von KI liegt derzeit eher im Unfall und fahrlässigen Einsatz der Technologie.“

In Summe konstatiert der Wissenschaftler jedenfalls „revolutionäre Veränderungen in der Mensch-Maschine-Interaktion“. Hervorgerufen durch den plötzlichen Welterfolg von ChatGPT Ende 2022. Den großen Sprachlernmodellen (LLM) hinter dem populären wie umstrittenen Chatbot steht Markus Kneer ambivalent gegenüber. Einerseits sei die Technologie selbst „eigentlich dumm, letztlich ein recht unkompliziertes Verfahren zur Wahrscheinlichkeitsberechnung“. Andererseits sei es „beeindruckend zu sehen“, was man „mit dieser Technologie und viel Text machen kann“. ChatGPT hätte auch ihn, Kneer, „komplett überwältigt“. Denn: „Man konnte sich nicht vorstellen, wie viel Macht im Text steckt.“

350.000 frei verfügbare KI-Basismodelle

Während Ende 2022 noch vieles im Unklaren lag, lichteten sich im Vorjahr mit dem Aufbruch vieler, vieler KI-Anwendungen einige Nebel. So bewahrheiteten sich die anfänglichen Befürchtungen nicht, dass mit dem überraschenden Durchbruch von ChatGPT-Macher OpenAI im Bereich der großen KI-Sprachmodelle ein neues Technologiemonopol entstehen könnte. Im Gegenteil. Die Bewegung hin zu frei zugänglichen „Open-Source-Modellen“ wird stärker, selbst Branchenriesen wie Meta setzen auf diesen Zug. Zählte man auf der Plattform „Hugging Face“ 2021 noch knapp 5000 frei verfügbare Sprachmodelle, finden sich dort mittlerweile 350.000 Basismodelle. Die dann von Unternehmen weltweit für spezielle Anwendungsfälle „feingetuned“, also speziell trainiert, werden.

Eines dieser in Österreich führenden KI-Unternehmen nennt sich Leftshift One. Dessen Chef Patrick Ratheiser sieht den „KI-Hype“ naturgemäß auch 2024 nicht abflachen, im Gegenteil. Immer mehr Betriebe hätten „Budgets für KI-Anwendungen reserviert“. Welche Trends Ratheiser auf großer KI-Bühne beobachtet? Einerseits würden die KI-Modelle immer stärker multimodal funktionieren, also nicht nur Text, sondern auch Bilder, Audio und Video verarbeiten. Zugleich tritt eine Spezialisierung auf den Plan. Von „vertikalen Modellen“ spricht Ratheiser. Die dann speziell für Anwendungen in der Versicherungswirtschaft oder in der Medizin trainiert werden.

Freilich: So wie Apple weiter unumstrittener technologischer Taktgeber der Smartphone-Branche ist, wird OpenAI vorerst auch 2024 an der Spitze des aktuellen KI-Wettrennens verharren. Deswegen gilt den neuen KI-Modellen des Konzerns auch weiterhin das größte Augenmerk der Branche.

„KI wird verlässlicher“

OpenAIs GPT-5 ist in Arbeit und „wird noch einmal besser werden, vor allem im Bereich der Nachweise für Aussagen“, sagt Matthias Kettemann, Professor für Innovationsrecht an der Uni Innsbruck. Halluzinationen würden sukzessive weniger, „KI wird verlässlicher“, prognostiziert Kettemann. Beitragen dazu sollen auch Rechtsrahmen, die weltweit gerade aufgesetzt werden. Europa schnürte etwa gegen Jahresende den AI Act, 2024 folgt der konkrete Gesetzestext. Kettemann glaubt, dass das zu „verantwortungsbewussterem unternehmerischen Handeln“ führen wird.

Nicht zuletzt wisse man durch das Gesetz bald „viel mehr über die verwendeten Trainingsdaten“ der KI-Modelle. Außerdem prognostiziert Kettemann, dass die Kommunikation zwischen Menschen und KI „nahtloser und intuitiver wird“. Mit vermehrtem Einsatz von KI-Systemen rechnet der Experte bei der Diagnostik und Behandlungsplanung im Gesundheitswesen, der Risikobewertung oder dem automatisierten Handeln im Finanzsektor und dem Zusammenspiel aus KI und Robotik in der industriellen Fertigung.

Womit wir unbedingt noch einmal zu Markus Kneer, dem KI-Ethiker, zurückkehren müssen. Denn je umfassender KI-Systeme in unseren Alltag einfließen, je mehr Bereiche sie betreffen, desto brennender werden Fragen, die weit über technische Belange hinausgehen. Und Kneer hat darauf eine ziemlich zentrale, universell einsetzbare Antwort parat. „In letzter Instanz“, sagt der Forscher, „muss immer der Mensch verantwortlich sein.“ Denn: „Rechnerisches Potenzial führt höchstwahrscheinlich nicht zu Bewusstsein. Egal, wie hoch das Potenzial ist.“ Na dann. Vielleicht schaffen wir es 2024 ja gemeinsam mit KI, dass die Welt nicht untergeht.