Bei Jana Lasser ist es 6.30 Uhr, als wir uns sprechen. Aber müde wirkt sie nicht. "Ich hab die Zeitverschiebung nur halb mitgemacht und bin schon eine Zeit lang munter", schickt sie schmunzelnd vom kalifornischen Zimmer aus in Richtung Österreich.
Jana Lassers Wissen, das ist spätestens zu diesem Zeitpunkt klar, ist weltweit gefragt. Besonders herausfordernde Themenkomplexe sind das wissenschaftliche Zuhause der Komplexitätsforscherin. Erst Anfang des Jahres landete sie einen Coup. In einem Beitrag für das Fachmagazin Physical Review X erklärte Lasser als Erstautorin, wie die markanten Sechsecke, die "Waben", in Salzwüsten entstehen. In Medien rund um den Globus fand die Nachricht, des "Rätsels Lösung", Niederschlag.
Aber auch in ein anderes Phänomen ist Lasser tief eingetaucht. Die promovierte Physikerin, die nach Aufenthalten in Göttingen oder Wien heute wieder an der TU Graz forscht, fragt sich, wie man die Ausbreitung von Hassrede auf Social Media reduzieren kann. Auch, weil sie "zu der Gesellschaft, in der ich lebe, was beitragen will".
Zwei Millionen Postings als Datenbasis
Eher "zufällig", erinnert sich Lasser an den Beginn, sei sie auf einen "coolen Datensatz" gestoßen. Als in Deutschland die AfD gegründet wurde, formierte sich parallel dazu im Internet die Reconquista Germanica. 5000 Personen, in digitalen Welten "Trolle" genannt, organisierten sich über Discord, nahmen gezielt die Twitter-Konten von Medien wie dem Spiegel oder der Zeit ins Visier und attackierten diese mit Hasspostings. Der deutsche Satiriker Jan Böhmermann rief mit der Reconquista Internet später eine Gegenbewegung ins Leben. Sie sollte die Hassrede eindämmen. Mal mit faktischem Zugang, dann wieder empathisch und immer wieder auch selbst aggressiv und beleidigend.
Ein gefundenes Fressen für die Wissenschaft. Binnen drei Jahren saugen Jana Lasser & Co. zwei Millionen Postings aus den Konversationen im Dunstkreis der Gruppen ab. Für die Analyse der riesigen Datenmengen vertrauen die Forscherinnen und Forscher auf Künstliche Intelligenz (KI). Per maschinellem Lernen messen sie Hassrede an sich, den Grad an Toxizität und die politische Extremität in den Beiträgen. Wichtige Hinweise auf die Wirkung von Hassrede liefert auch die Anzahl an neutralen Nutzerinnen und Nutzern, die in den Konversationen bleiben. "Wir schauen uns wenige spezifische Postings an", sagt Lasser. Viel mehr gehe es um Muster, um das größere Bild.
Aus den Vorlagen der – gezielt trainierten – KI leitet die Wissenschaftlerin schließlich ihre Erkenntnisse ab. Die sie, wie sie heute anmerkt, selbst überraschen. "Unintuitiv" seien die Ergebnisse, eigene Thesen musste die Wissenschaftlerin rasch verwerfen. Etwa jene, dass nüchterne, faktenbasierte Antworten Hass am besten eindämmen.
"Einen Troll wird man nicht überzeugen", sagt sie heute – "schon gar nicht mit Fakten". Auch selbst ins Genre der Beleidigung zu wechseln, sei nicht heilvoll, im Gegenteil. Dafür zeigt Lassers Untersuchung, dass "Sarkasmus als Reaktion sehr gut funktioniert". So wie es generell sinnvoll ist, eigene Meinung zu formulieren, Präsenz zu zeigen. Übergeordnetes Ziel müsse sein, die "Gespräche gesund zu halten" und "sie so von Extrempositionen wegzuführen". Wie es sich mit der Ignoranz von Trollen als Medizin verhält? "Nein, das ist nicht klug", sagt Lasser – "damit würden wir ganze Plattformen aufgeben".
Für die Forscherin ist das keine Option, weil sie weiter an das Gute in sozialen Medien glaubt. Und weil sie Wissenschaftlerin ist, heißt glauben in ihrer Welt, Evidenz zu suchen. Es gäbe ausreichend Nachweis, so Lasser, dass Plattformen wie Facebook oder Twitter auch "gute Rollen" einnehmen können. "In entstehenden Demokratien" etwa, oder auch in "autoritären Staaten", sagt die Grazerin. In den meisten Gegenden, die wir allgemein gesprochen der westlichen Welt zuordnen, würde aber zurzeit "eher das Schädliche" von Social Media überwiegen. Also deren Hang, Polarisierung anzufachen oder Desinformation Reichweite zu verleihen.