Sie komponiert Lieder, erstellt eindrucksvolle Bilder und Texte, erkennt gewisse Erkrankungen verlässlicher als Menschen, lässt Autos irgendwann sicherer fahren, als wir es je könnten: Künstliche Intelligenz (KI). Und: Sie bedroht die Menschheit existenziell. So lautet zumindest eine im Netz gern verbreitete Befürchtung, die Filmfreunde unweigerlich an die "Terminator"-Serie mit Arnold Schwarzenegger und das böse "Skynet" denken lässt. Begründet werden die Warnungen mit dem Umstand, dass die Leistungsfähigkeit von KI stetig zunimmt und in immer mehr Anwendungsbereiche vordringt. Sollte ein System so intelligent werden, dass es eine leistungsfähigere Version seiner selbst kreieren kann und die Menschheit als hinderlich für seinen Einsatzzweck sieht, könnte es versuchen, diese loszuwerden.
Chat-GPT-Entwickler warnen vor KI
In eine ähnliche Kerbe schlägt nun Open AI – also jene Firma, die mit "ChatGPT" für Furore sorgt. Das Programm kann Texte kreieren, die von denen eines Menschen kaum zu unterscheiden sind. Open AI warnte nun, dass "die enorme Macht der Superintelligenz" zur Entmachtung der Menschheit oder gar zu ihrem Aussterben führen könne. Das schrieben Open-AI-Mitgründer Ilya Sutskever und der Leiter der Abteilung für zukünftige Ausrichtung, Jan Leike, in einem Blogbeitrag. Demnach könnten superintelligente KI-Systeme, die intelligenter seien als Menschen, noch in diesem Jahrzehnt verwirklicht werden. Der Mensch werde bessere Techniken benötigen, als zurzeit zur Verfügung stehen, um superintelligente KI zu kontrollieren. Die Lösung soll eine "Superintelligenz" sein, Open AI will dafür in den nächsten vier Jahren 20 Prozent seiner Rechenleistung zur Verfügung stellen.
Doch wie gefährlich kann uns KI wirklich werden? Roman Kern, KI-Experte an der TU Graz, kann sich vorstellen, dass KI tatsächlich bald intelligenter als Menschen sein könnte. Wobei es darauf ankomme, wie man das misst: "Man sieht in gewissen Bereichen schon, dass KI-Anwendungen besser abschneiden als ein durchschnittlicher Mensch, aber es gibt auch noch viele Limitationen: Logik einsetzen, Schlüsse ziehen, das kann die KI noch nicht."
Auf die apokalyptischen Szenarien angesprochen, gibt der Experte Entwarnung, eher sieht er darin einen PR-Gag, mit dem Firmen ihre KI-Produkte im Gespräch halten wollen: "Eine Maschine denkt nicht, sie hat keinen Willen, keinen Plan." Vielmehr sieht er Gefahren in anderen Bereichen. Etwa bei der massenhaften Verbreitung von Fake News. Große Gefahren birgt auch der Einsatz von KI in Waffensystemen. Hier brauche es Regeln.
Grundsätzlich gibt Kern zu bedenken, was es für uns als Gesellschaft und Individuum psychologisch bedeutet, wenn wir sehen, dass Maschinen kognitive Aufgaben besser lösen als wir oder sogar Jobs ersetzen. "Wir sind es zwar schon gewohnt, dass Maschinen präziser und stärker sind als wir, aber das gibt uns als Menschheit zu knabbern. Und damit spielen diese Firmen auch."