Sepp Hochreiter hat mit den "Long Short-Term Memory-Netzen" eine der Grundlagen für die Technologie der Künstlichen Intelligenz geschaffen, die heuer im Zentrum der Alpbacher Technologiegespräche (22.-24.8.) steht. Im APA-Gespräch erklärt der Informatiker von der Uni Linz, warum KI-Systeme die Menschen nicht unterjochen werden und die Verzögerung der österreichischen KI-Strategie ein Problem ist.
Was ist Künstliche Intelligenz (KI)?
Sepp Hochreiter: Unter KI versteht man Maschinen, die kognitive Fähigkeiten zeigen, die man Menschen zuschreibt, und die diese einsetzen, um ein Ziel zu erreichen. Dazu gehört, die Umgebung wahrzunehmen und zu manipulieren, logisches Schließen, Planung, Kommunikation und - ganz wichtig - aus Erfahrungen und Daten zu lernen.
Das große Thema Maschinelles Lernen ist also ein Teilaspekt der KI?
Hochreiter: Das ist ein Teilaspekt, der derzeit alles überstrahlt. Dabei geht es darum, aus Daten etwas zu lernen und zu optimieren. Geht es um Lernen mit neuronalen Netzen, nennt man das Deep Learning - und das ist, was Unternehmen wie Facebook, Amazon, Google, Microsoft, etc. derzeit massiv verwenden.
Kann ich bei Interaktionen erkennen, dass es sich um ein KI-System handelt?
Hochreiter: Das wird schwieriger und schwieriger. Es gibt etwa Chat-Bots auf Twitter. Wenn da nur ein Satz steht, ist es extrem schwer, eine KI zu erkennen.
Sollte man nicht explizit ausschildern, dass es sich um eine KI handelt?
Hochreiter: Ich glaube schon, warum sollte man das verheimlichen?
KI-Systeme haben bereits die besten menschlichen Spieler in Schach und Go geschlagen, kürzlich auch fünf professionelle Poker-Spieler. Zudem schneiden KI-Systeme bei verschiedenen medizinischen Diagnosen besser als Ärzte ab. Sind diese Systeme nun tatsächlich intelligenter als Menschen?
Hochreiter: Kommt darauf an, wie man Intelligenz definiert. KI-Systeme können ihre Umgebung genau wahrnehmen. Das benötigt man etwa bei der Verkehrszeichenerkennung oder der Krebsdiagnose aus Gewebeschnitten. In solchen Spezialgebieten sind sie besser. Was aber logisches Schließen und Weltverständnis betrifft, sind Menschen noch weit voraus. Ein oft gebrachtes Beispiel aus dem Bereich Selbstfahrende Autos ist das Plastiksackerl, das vom Wind vor das Auto geweht wird. Als Mensch weiß ich, was das ist und dass ich drüberfahren kann und keine Vollbremsung machen muss. Für die KI ist das ein Objekt, das erkannt wird und mit dem eine Kollision vermieden werden sollte. Man braucht Weltverständnis dafür, dass Wind Dinge wie Plastiksackerl oder Blätter verwehen kann und das üblicherweise keine Gefahr darstellt. KI-Systemen fehlt dieses Weltverständnis, das auch zur Intelligenz gehört, noch stark, weil diese derzeit vor allem auf Spezialaufgaben trainiert werden.
Aber ist dieses Weltverständnis nicht vor allem Erfahrungswissen, das sich Menschen von Kindesbeinen an aneignen? Demnach müsste man eine KI nur ein paar Jahre Erfahrung sammeln lassen.
Hochreiter: Richtig, genau das ist auch die Idee. Das Weltwissen wird ganz lange trainiert, mit Daten gefüttert; die KI soll rausgehen und selber Erfahrungen machen, so wie ein Kleinkind die Welt erforscht. Der Vorteil der KI ist, dass man dann Kopien machen und diese Erfahrung in jede neue KI einbauen kann. Wir versuchen derzeit das auch zu erforschen und eine KI zu bauen, die ganz viel von der Welt weiß, auch wenn das für die konkrete Aufgabenstellung nicht notwendig ist. Es wäre gut, ein System zu haben, das Weltverständnis hat und sich erst dann in Spezialaufgaben einarbeitet. Denn mit diesem Weltverständnis kann es in Situationen, die ihm zum ersten Mal begegnen, handlungsfähig bleiben.
Vielen Menschen ist KI nicht geheuer, das zeigte kürzlich auch eine Online-Umfrage im Auftrag der Stiftung Weltwirtschaftsforum (WEF). 41 Prozent zeigten sich da besorgt über den Einsatz von KI, 48 Prozent sprachen sich für eine stärkere Regulierung von KI aus, 19 Prozent sogar für deren Verbot. Ist das die natürliche Angst vor dem Unbekannten oder sind diese Ängste berechtigt?
Hochreiter: Teils, teils. Ganz sicher ist es die Angst vor dem Unbekannten. Und bei der KI ist es noch schlimmer, weil sich keiner etwas darunter vorstellen kann. Zudem hat Hollywood das Thema schon negativ besetzt, mit Filmen wie Terminator oder Matrix, wo Menschen von Maschinen versklavt wurden und dagegen ankämpfen. Allerdings gibt es wirklich Gefahren verschiedenster Art, etwa wenn man nach China schaut. Dort will man KI-Technologien zur Überwachung einsetzen. In jeder Straßenlaterne, an jedem Straßeneck, auf jedem Parkplatz gibt es Kameras und verschiedene Sensoren, um zu schauen, wo gehen die Leute, was machen die, usw. Dazu kommen Gesichtserkennung und "pose estimation", also das Erkennen von Personen alleine aufgrund von deren Bewegung. Der Blaseneffekt ist eine weitere Gefahr - die Tatsache, dass die KI in meinem Handy oder Fernseher Informationen filtert und ich nur mehr jene Information bekomme, die ich für gut finde. Ich sehe die Welt gar nicht mehr so wie sie ist, sondern werde immer wieder bestätigt in meiner Meinung und meinen Vorurteilen.
In China gibt es allerdings große Zustimmung der Bevölkerung zur Überwachung.
Hochreiter: Ja, in anderen Teilen der Welt denken die Leute ganz anders. Sie sagen etwa, da habe ich keine Angst mehr in der Nacht als Frau heimzugehen, habe keine Angst mehr, dass mir etwas gestohlen wird, ich brauche keinen Parkplatz mehr suchen, weil mein System sofort weiß, wo der nächste freie Platz ist, usw. Für uns ist das ein Horrorszenario, aber Kulturen sind verschieden.
Kluge Köpfe wie Stephen Hawkings sind noch weiter gegangen und haben davor gewarnt, dass KI eine Gefahr für den Fortbestand der Menschheit darstellen. Sehen Sie das auch so dystopisch?
Hochreiter: Es gibt Leute die sagen, der Mensch ist nur eine vorübergehende Erscheinung und die biologische Intelligenz geht in eine maschinelle Intelligenz über, die sich weiterentwickelt und den Menschen irgendwann nicht mehr braucht. Ich glaube nicht, dass diese Szenarien eintreten werden. Die KI kommt nicht aus der Evolution, sondern ist menschengeschaffen, sie hat keinen Überlebenstrieb eingeimpft wie der Mensch. Bei der KI überlebt nicht die stärkere, sondern jene, die besser funktioniert, die genau das gemacht hat, was wir wollten. Denn diese wird weiterentwickelt und öfter kopiert. Die anderen werden modifiziert oder abgeschalten. Falls irgendwann KI-Systeme tatsächlich intelligenter als der Mensch werden, stellt sich die Frage, warum die Maschine den Menschen unterjochen sollte. Das biologische Leben und technische Systeme kämpfen nicht um die gleichen Ressourcen. Die KI braucht ihre Energie nicht in Form von Äpfel oder Gemüse und rostet zudem im Wasser, warum sollte sie also auf der Erde bleiben, wenn es im Weltall viel mehr und leichter zugängliches Rohmaterial und mehr Sonnenenergie als auf der Erde gibt. Wenn die KI wirklich intelligent ist, wird sie die Menschen verlassen. Ich glaube aber ohnehin nicht, dass es so weit kommt. Der Mensch wird die KIs weiterentwickeln, die ihm dienlich sind, und nicht jene, die irgendwelche Zicken machen.
In der vorhin zitierten Umfrage gab jeder vierte Befragte an, eher oder ganz dafür zu sein, dass eine KI die wichtigen Entscheidungen für das eigene Land trifft. Sind KI-Systeme die besseren Politiker, sie treffen doch robuste, evidenzbasierte Entscheidungen?
Hochreiter: Die Frage ist, ob die Leute das auch über medizinische Therapien sagen würden. Dass eine Maschine die Diagnose macht ist gut, aber die Therapieentscheidung muss der Arzt treffen, weil der hat Empathie, der weiß, wie andere Menschen fühlen, wie eine Therapie die Lebensqualität verändert, usw.. Auch für politische Entscheidungen muss man sehr viel Weltwissen haben und wissen, wie sich Menschen fühlen. Es gibt so viele Einflüsse und Nebenfaktoren, darum halte ich politische Entscheidungen durch KI schon für extrem schwierig.
Die EU-Kommission will beim Hype um die KI mit "vertrauenswürdiger KI" punkten und hat ethische Leitlinien dafür präsentiert. Ist das eine kluge Strategie oder eher eine Feigenblattaktion, weil man ohnedies vom Markt überrollt wird?
Hochreiter: Das weiß ich nicht. Ich finde es aber katastrophal, dass man sich auf die rechtlichen und ethischen Regelungen konzentriert und die Technologie wird von Amerika und China gebaut. Wir müssen ja auch die Technologie verstehen, und dafür müssen wir selber mitmischen. Was für mich am frustrierendsten ist, dass die Amerikaner und Chinesen genau das nutzen, was wir erfinden. LSTM, das jetzt überall eingebaut ist, habe ich erfunden (Hochreiter hat mit der Technik Long Short-Term Memory (LSTM) eine der Grundlagen für KI-Systeme geschaffen, Anm.). Wir sind vorne in der Forschung dran und dann kommen Leute und sagen, hören wir damit auf und lassen das die Amerikaner und die Chinesen machen. Wir sind auch in der Ausbildung vorne dran und starten im Herbst ein KI-Studium, mit Inhalten wie Deep Learning, LSTM und Mechatronik, das gibt es nicht in China, nicht in Amerika. Die Absolventen werden dann in den Firmen diese Techniken einsetzen. Und das ist gut so, denn KI wird nicht nur im Internet-Sektor eingesetzt, sondern wird in den Kühlschrank reinkommen, in jedes Auto, in jede Drehmaschine und Bohrmaschine. Wenn wir in Österreich und Deutschland die besten Maschinenhersteller sind, dann müssen wir die KI-Technologie auch erlernen, und die ersten sein, die KI-Methoden in die Maschinen hineinbringen. Damit nicht wieder ein Google oder Amazon daherkommt wie beim Auto und sagt, na gut, das bisserl Engineering und ein paar Drehmaschinen kann ich zukaufen, dann bauen wir unsere KI rein und dann geht es los. Nein, das wollen wir doch lieber selber machen.
Die österreichische KI-Strategie sollte bei den diesjährigen Alpbacher Technologiegesprächen präsentiert werden. Das wurde aber aufgrund der innenpolitischen Ereignisse verschoben. Ist die Verzögerung ein Problem?
Hochreiter: Die KI-Technologieentwicklung geht sehr schnell voran und je länger wir inaktiv sind, desto schlechter ist es. Es gibt zwei europaweite KI-Netzwerke ELLIS und CLAIRE. Bei ELLIS ist Österreich mit Deutschland, der Schweiz, den Niederlanden und Großbritannien ganz vorne mit dabei. Wir hätten schon mit ein paar Sachen loslegen können, doch ich kann jetzt keine Versprechungen machen und wir müssen auf die neue Regierung warten. Es könnte also sein, dass wir bald wieder von der Spitze weg sind. Das tut mir weh, weil wir lange darauf hingearbeitet haben, dass wir in Europa sichtbar sind.
Christian Müller/APA