Sie kom­po­niert Lie­der, er­stellt ein­drucks­vol­le Bil­der und Texte, er­kennt ge­wis­se Er­kran­kun­gen ver­läss­li­cher als Men­schen, lässt Autos ir­gend­wann si­che­rer fah­ren, als wir es je könn­ten: Künst­li­che In­tel­li­genz (KI). Und: Sie be­droht die Mensch­heit exis­ten­zi­ell. So lau­tet zu­min­dest eine im Netz gern ver­brei­te­te Be­fürch­tung, die Film­freun­de un­wei­ger­lich an die "Ter­mi­na­tor"-Se­rie mit Ar­nold Schwar­ze­negger und das böse "Sky­net" den­ken lässt. Be­grün­det wer­den die War­nun­gen mit dem Um­stand, dass die Leis­tungs­fä­hig­keit von KI ste­tig zu­nimmt und in immer mehr An­wen­dungs­be­rei­che vor­dringt. Soll­te ein Sys­tem so in­tel­li­gent wer­den, dass es eine leis­tungs­fä­hi­ge­re Ver­si­on sei­ner selbst kre­ieren kann und die Mensch­heit als hin­der­lich für sei­nen Ein­satz­zweck sieht, könn­te es ver­su­chen, diese los­zu­wer­den.

Chat-GPT-Entwickler warnen vor KI

In eine ähn­li­che Kerbe schlägt nun Open­ AI – also jene Firma, die mit "ChatGPT" für Fu­ro­re sorgt. Das Pro­gramm kann Texte kre­ieren, die von denen eines Men­schen kaum zu un­ter­schei­den sind. Open­ AI warn­te nun, dass "die enor­me Macht der Su­per­in­tel­li­genz" zur Ent­mach­tung der Mensch­heit oder gar zu ihrem Aus­ster­ben füh­ren könne. Das schrie­ben Open-­AI-Mit­grün­der Ilya Suts­ke­ver und der Lei­ter der Ab­tei­lung für zu­künf­ti­ge Aus­rich­tung, Jan Leike, in einem Blog­bei­trag. Dem­nach könn­ten su­per­in­tel­li­gen­te KI-Sys­te­me, die in­tel­li­gen­ter seien als Men­schen, noch in die­sem Jahr­zehnt ver­wirk­licht wer­den. Der Mensch werde bes­se­re Tech­ni­ken be­nö­ti­gen, als zur­zeit zur Ver­fü­gung ste­hen, um su­per­in­tel­li­gen­te KI zu kon­trol­lie­ren. Die Lö­sung soll eine "Su­per­in­tel­li­genz" sein, Open ­AI will dafür in den nächs­ten vier Jah­ren 20 Pro­zent sei­ner Re­chen­leis­tung zur Ver­fü­gung stel­len.

Doch wie ge­fähr­lich kann uns KI wirk­lich wer­den? Roman Kern, KI-Ex­per­te an der TU Graz, kann sich vor­stel­len, dass KI tat­säch­lich bald in­tel­li­gen­ter als Men­schen sein könn­te. Wobei es dar­auf an­kom­me, wie man das misst: "Man sieht in ge­wis­sen Be­rei­chen schon, dass KI-An­wen­dun­gen bes­ser ab­schnei­den als ein durch­schnitt­li­cher Mensch, aber es gibt auch noch viele Li­mi­ta­tio­nen: Logik ein­set­zen, Schlüs­se zie­hen, das kann die KI noch nicht."

Roman Kern, KI-Experte von der TU Graz
Roman Kern, KI-Experte von der TU Graz © TU Graz

Auf die apo­ka­lyp­ti­schen Sze­na­ri­en an­ge­spro­chen, gibt der Ex­per­te Ent­war­nung, eher sieht er darin einen PR-Gag, mit dem Fir­men ihre KI-Pro­duk­te im Ge­spräch hal­ten wol­len: "Eine Ma­schi­ne denkt nicht, sie hat kei­nen Wil­len, kei­nen Plan." Viel­mehr sieht er Ge­fah­ren in an­de­ren Be­rei­chen. Etwa bei der mas­sen­haf­ten Ver­brei­tung von Fake News. Große Ge­fah­ren birgt auch der Ein­satz von KI in Waf­fen­sys­te­men. Hier brau­che es Re­geln.

Grund­sätz­lich gibt Kern zu be­den­ken, was es für uns als Ge­sell­schaft und In­di­vi­du­um psy­cho­lo­gisch be­deu­tet, wenn wir sehen, dass Ma­schi­nen ko­gni­ti­ve Auf­ga­ben bes­ser lösen als wir oder sogar Jobs er­set­zen. "Wir sind es zwar schon ge­wohnt, dass Ma­schi­nen prä­zi­ser und stär­ker sind als wir, aber das gibt uns als Mensch­heit zu knab­bern. Und damit spie­len diese Fir­men auch."