Die EU-Kommission hat kürzlich Regeln für den Umgang mit Künstlicher Intelligenz (KI) vorgelegt. Für Verstöße sind hohe Strafen vorgesehen. Was halten Sie von diesem Regelwerk an sich?
SEPP HOCHREITER: Ich habe da ein bisserl Bauchweh. In den Entscheidungsgremien der EU saßen vor allem Philosophen und Ethiker, aber kaum Techniker und Forscher. Da ging es vor allem darum, vor den Gefahren der Künstlichen Intelligenz, vor dem Schlimmen, Bösen und Hochrisiko zu schützen. Das ist eine sehr einseitige Sicht. Es stimmt zwar, dass auch etwas Schlimmes passieren kann, aber mit KI-Methoden kann man auch mehr Produktivität schaffen.
Ist der Datenschutz in Europa also eher Fluch als Segen?
Vielleicht ist er notwendig, aber er bremst auch – teilweise aus Unkenntnis und Unklarheit darüber, ob man etwas darf oder nicht. Durch KI kann es aber zu einer höheren Produktivität und intensiveren Kundenbindung durch bessere Servicemöglichkeiten führen. Das wird in Europa völlig übersehen. Man lähmt sich selbst. Da ist man in den USA viel fixer. Dort nimmt man die Ideen, die in Europa – auch mit Hilfe von staatlichen Investitionen – entwickelt werden, mit Handkuss.
Haben Sie ein Beispiel?
Wir haben in Linz „Self-Normalizing Networks“ erfunden. Das System hat Amazon übernommen für Übersetzungen, Bewertungen und gezielte Werbung – und damit binnen kürzester Zeit eine Milliarde Dollar mehr Umsatz gemacht.
Was hatten Sie davon?
Mir haben Amazon-Leute dafür auf einer Konferenz einen Mojito bezahlt.
Aber bei vielen Maschinen sind europäische Produkte aufgrund der Qualität Marktführer.
Die kann man aber sehr leicht verlieren, indem ein anderer ein intelligenteres Produkt baut, das vielleicht qualitativ nicht besser ist, er aber mehr Kontakt zum Kunden und ein besseres Rund-um-Service bietet. Es wäre fatal, wenn Google, Facebook oder Microsoft dank der KI-Technologie neben dem Internetsektor – in dem sie ohnehin schon uneinholbar sind – plötzlich auch den Engineering-Markt beeinflussen. Dann haben wir wirklich viel verloren. Dann wären die Maschinen- und Anlagenbau-Kompetenz auch noch weg. Das ist nicht einfach so daher gesagt: Es ist eine reale Gefahr! Also bitte Vorsicht, dass man diese neuen Technologien nicht übersieht.
In diesem Zusammenhang existiert die Angst, Computer würden uns Jobs wegnehmen, weil sie immer schlauer werden. Wie groß ist diese Gefahr?
Ja, bestehende Jobs werden wegfallen, vor allem jene, die repetitiv und langweilig sind. Aber mit jeder neuen Technik sind auch neue Jobs gekommen. Wir werden Experten brauchen, die Feinheiten sehen und erkennen. Sie müssen auch wissen, wo KI tatsächlich eine Effizienzsteigerung bringt, welche Sensoren und Daten es braucht. Dafür muss man nicht studiert haben, braucht aber entsprechende Qualifikationen.
Tesla-Gründer Elon Musk ruft Sie an, wenn er Rat sucht, sie genießen in der Branche weltweites Ansehen – und forschen in Linz? Warum sind Sie noch hier und nicht im Silicon Valley?
Was wäre dort besser? Außer dass es mehr Studenten gibt und damit das Potenzial an guten Studenten größer ist.
Apropos: Ihre Studenten werden noch aus dem Hörsaal von Firmen „wegengagiert“.
Ja, das ist schade und ein bisserl ärgerlich. Aber die verdienen dann bei Start-ups oder großen Konzernen bis zum Sechsfachen dessen, was sie auf der Uni bekommen hätten.
… und damit auch ein Vielfaches von Ihnen. Verspüren Sie nie Neid?
Nein. Mir tun die Studenten leid. Was sollen sie denn mit dem vielen Geld tun? Die kaufen sich ein teures Auto. Und dann? Es ist doch viel schöner, eine gute Idee zu haben und coole Sachen zu erfinden.
Wo sind da die Grenzen? Forscher können es sich ja einfach machen und sagen: Wir zeigen nur, was möglich ist. Ob es real wird, darüber soll je nach Anwendungsbereich die Politik, die Kirche, eine Volksabstimmung, das konkrete Unternehmen entscheiden. Aber wo sind Ihre Schranken im Kopf, an denen Sie sagen, das wäre zwar möglich, aber wir tun da aus ethischen Gründen nicht weiter?
Da braucht es ein Gefühl für den Einzelfall. Weil eigentlich sind es ja nur mathematische Formeln. KI-Anwendungen können bei einer Herzoperation Leben retten, aber auch auf einer Bombe sitzen, die Menschen umbringt. Es geht immer um den Anwendungsbereich.
Aber wo liegen die Grenzen?
Die Grenzen liegen nicht beim Erfinden. Aber Maschinen dürfen nicht über Menschen entscheiden, weil Maschinen keine Empathie haben. Wenn ich über Menschen entscheide, sollte ich ein Gefühl dafür haben, was es für ihn bedeutet. Aber woher soll eine Maschine wissen, wie sich Schmerz anfühlt oder was Hunger ist?
Klaus Höfler