Zwei Hände mit Smartphones auf denen News zu sehen sind

Künstliche Intelligenz

Sind wir für das gewappnet, was auf uns zukommt?

KI-Experte Prof. Stefan Feuerriegel vom Institute of Artificial Intelligence (AI) in Management von der Ludwig-Maximilians-Universität München (LMU) wirft einen Blick auf die Gefahr automatisierter Fake-News-Kampagnen und zeigt Möglichkeiten auf, wie man ihr begegnen kann.

KI-Tools können inzwischen quasi auf Knopfdruck überzeugende Texte, Bilder, Stimmen und sogar Videos erzeugen. Können wir in Zukunft unseren Augen, unseren Ohren und unserem gesunden Menschenverstand überhaupt noch trauen?

Prof. Feuerriegel: „Wie überzeugend solche künstlich erzeugten Inhalte sind, sieht man am Beispiel des Bildes von Papst Franziskus, das im Frühling viral ging. Bei diesem Bild konnte man als Laie kaum noch erkennen, ob das echt war. Solche Fälschungen konnten begabte Grafiker:innen natürlich auch früher schon erstellen.

Aber in diesem Fall war es eine Person, die auf die Schnelle dutzende Versionen dieses Fotos produziert hat. Das hat gezeigt, was mittlerweile ganz einfach und ohne besondere Fähigkeiten möglich ist.

Aktuell bekommen kriegen die KIs einzelne Details noch nicht so ganz hin, der Hintergrund stimmt manchmal nicht ganz, Hände tendieren noch dazu, zu viele oder zu wenige Finger zu haben. Aber die Technologie wird ja auf Hochtouren weiterentwickelt und optimiert. In den nächsten Monaten wird das schon ganz anders aussehen.“

Was machen KI-generierte Fake News besonders gefährlich?

Leider sind die Fakes mit fehlerfreien Texten und authentischen Bildern inzwischen nicht nur sehr überzeugend, sondern man kann die Fehlinformationen dank KI auch personalisieren und individuell auf die Religion, das Geschlecht oder die politische Gesinnung der einzelnen Konsumenten abstimmen und in jeder Zielgruppe Hass oder Wut säen.

Man kann einen Bot (Anm. der Redaktion: Bot ist ein textbasiertes Dialogsystem, das Chatten mit einem technischen System erlaubt) bauen, der nicht mehr einfach nur eine Nachricht postet, sondern ganz persönlich auf Facebook oder Twitter Menschen anschreibt und sogar auf Antworten reagiert und Unterhaltungen führt.

Das geht bis hin zu Fake-Anrufen, bei denen man gezielt eine Stimme generiert, die so klingt wie ein Familienmitglied.

 

Wenn man mit Tippfehlersuchen und Fingerzählen bald nicht mehr weiterkommt: Was sind die Anhaltspunkte, anhand derer wir die Fakes erkennen können?

Allein anhand des Inhalts gibt es keine. Oder zumindest bald nicht mehr. Entweder man verlässt sich darauf, dass man bestimmten Quellen vertrauen kann oder man muss unabhängig recherchieren. Wobei Faktenfälscher natürlich auch mit KI erstellte Webseiten und Quellen platzieren können.

In sozialen Netzwerken sind die Bilder außerdem so klein, dass man solche Fehler gar nicht mehr erkennen kann. Es kursieren Bilder und Videos im Netz, bei denen aufgrund der geringen Auflösung nicht mehr eindeutig geprüft werden kann, ob sie echt sind oder gefälscht.

Das macht es schwer, Fehlinformationen von echten Inhalten zu unterscheiden. Bei kriegerischen Konflikten spielt die Macht von Bildern und die Bedeutung der sozialen Medien zum Beispiel eine große Rolle und kann eine immense politische Sprengkraft entwickeln.

Auch in diesem Kontext sehen wir neben herkömmlichen Fakes bereits den Einsatz von KI-generiertem Material.

Treten wir gerade in ein neues Zeitalter der Desinformation ein?

Viele meiner Kolleg:innen sagen, wir leben eigentlich schon in Zeiten von Fake News. Das Problem wird sich verschärfen. Die entscheidende Frage ist, wer nutzt diese neuen Möglichkeiten? Ich habe weniger Sorge, dass irgendjemand privat mit ChatGPT oder DALL·E (Anm. der Redaktion: DALL·E und die Nachfolger DALL-E 2 und DALL-E 3 sind von OpenAI entwickelte Computerprogramme, die Bilder aus Textbeschreibungen aufgrund von maschinellem Lernen erstellen können) Fehlinformationen streut.

Der- oder diejenige hat selten die Reichweite und auch meist kein Interesse daran, einen großen Einfluss damit auszuüben. Wir müssen stattdessen auf die Akteure schauen, die diese Tools für groß angelegte Desinformationskampagnen nutzen, sie gezielt kalibrieren oder sogar eigene Tools entwickeln, die keine eingebauten Sicherheitsmechanismen besitzen.

Wirklich gefährlich wird es, wenn die großen Player ins Spiel kommen, vielleicht sogar ein staatlicher Akteur mit einer gewissen politischen Agenda in einem nicht-demokratischen Staat. Im Rahmen des russischen Überfalls auf die Ukraine sehen wir, dass ein großer Aufwand für prorussische Propaganda betrieben wird.

Wieso sollten die dafür Verantwortlichen nicht auch mit den neuen Tools arbeiten, wenn die es ermöglichen, schneller zu reagieren und authentisch wirkende Inhalte in viel größeren Dimensionen zu produzieren? Es wäre naiv zu glauben, dass diese Möglichkeit nicht genutzt wird.

 

Kommen die Fact-Checker da überhaupt noch hinterher?

Wir wissen, dass menschliche Fact-Checker bis zu 24 Stunden brauchen, um eine Nachricht zu prüfen. In dieser Zeit kann sie längst viral gegangen sein. Gerade bei aktuellen Krisen ist das rechtzeitige Eindämmen von Fehlinformationen eine immense Herausforderung.

Facebook und Twitter nutzen inzwischen generative KI, um Fake News automatisiert zu identifizieren. Momentan wird auch der Einsatz sogenannter Wasserzeichen diskutiert, anhand derer Plattformen KI-generierte Inhalte erkennen und rausfiltern können. Dafür müssen die Plattformen mitspielen.

Es bringt nichts, wenn Twitter diese Möglichkeit nutzt, die Fehlinformation dann aber auf WhatsApp viral geht. Es kann außerdem immer noch Akteure geben, die sich nicht daran halten und ihre eigene KI ohne Wasserzeichen programmieren.

Wie kann man der Flut an KI-Fehlinformationen begegnen?

Ich persönlich bin noch viel vorsichtiger geworden bei den Inhalten, die ich konsumiere. Wir müssen viel mehr aufpassen, was wir lesen, gerade in den sozialen Netzwerken. Das Problem ist vielen leider noch nicht bewusst. Wir wissen zwar, dass KI jetzt schöne Texte und Bilder produzieren kann, aber haben noch nicht auf dem Schirm, wie diese Technologie missbraucht werden kann.

Die Plattformen müssen in die Pflicht genommen werden, sie sitzen an der Quelle der Informationen. Wir Nutzer:innen sehen nur die Posts, aber die Plattformen sehen, ob im Hintergrund irgendein Computerprogramm diese Inhalte sendet oder ein echter Mensch dahinter steckt.

Die Betreiber der Netzwerke können zudem ihre Mitglieder daran erinnern, Informationen kritisch zu hinterfragen und zu überprüfen. Plattformen könnten auch viel mehr tun, um Fake News herauszufiltern ‒ einige bemühen sich, andere weniger.

Als zweites Standbein müssen wir jeden Einzelnen und die breite Öffentlichkeit informieren und vorbereiten. Wir brauchen Trainings zu Medienkompetenz und Digital Literacy, die Desinformationen durch KI berücksichtigen und sich stetig mit dem technischen Fortschritt weiterentwickeln.

Und dann stellt sich drittens die Frage, was die Politik tun sollte und wie viel Regulierung sinnvoll ist. Das ist ein heikles Thema, weil Reibungspunkte mit dem Recht auf Meinungsfreiheit entstehen können. KI steht auch im EU-Parlament mittlerweile ganz oben auf der Tagesordnung.

Ich glaube, wir können relativ zügig gute Lösungen erarbeiten, was regulatorische Rahmenbedingungen angeht.

Sind wir gewappnet für das, was auf uns zukommt? Wo ist die Forschung gefragt?

Nein, wir sind nicht ausreichend vorbereitet. Wir haben es mit einer neuen Technologie zu tun, die wir besser verstehen müssen und da braucht es viel mehr Grundlagenforschung. Zum Glück wird, nicht zuletzt an der LMU, stark in dem Bereich geforscht.

Die Linguistik, die Soziologie, die Politikwissenschaften und viele weitere Disziplinen beschäftigen sich mit diesem komplexen Themenbereich. Die Verhaltenswissenschaften arbeiten daran, überhaupt erst einmal zu verstehen, wie Menschen auf solche künstlich generierten Informationen reagieren.

Die Rechtsfakultät beschäftigt sich mit den rechtlichen Hürden und balanciert das hohe Gut der Meinungsfreiheit mit lösungsorientierten, umsetzbaren Ansätzen aus. Die Informatik muss herausfinden, was technologisch überhaupt machbar ist.

Wir haben hier ein interdisziplinäres Umfeld, wo viele Forschungsbereiche gemeinsam eine Forschungsagenda entwickeln.

Quelle: LMU