Fake News sind keine alternativen Wahrheiten, sondern eine Gefahr für die Gesellschaft. Sie verleumden Einzelne oder bringen Gruppen in Misskredit. In Anbetracht der steigenden Zahl an Meldungen und des Aktualitätsdrucks vieler Medien ist oft nicht klar, was Fake ist und welche Nachrichten für bare Münze genommen werden sollten. Forscher arbeiten deshalb an einer Software, um Texte und Social Media-Beiträge besser klassifizieren zu können. Prof. Dr. Ulrich Schade vom Fraunhofer FKIE erklärt die Grundzüge des Tools.

Hallo Herr Professor Schade, ein neuartiges Tool des Fraunhofer-Instituts für Kommunikation, Informationsverarbeitung und Ergonomie FKIE kann uns helfen, Fake News auszusortieren.

Ganz so einfach ist es nicht. Wir haben längst noch kein System, bei dem die rote Lampe angeht, wenn eine Aussage – etwa auf Twitter – ein Fake ist.

Aber es gibt Hilfestellungen bei der Analyse?

Ja, zumindest in speziellen Anwendungskontexten. Zum Beispiel, wenn vorab definierte Schlüsselwörter genutzt werden. Einfache Aussagen wie »Die Ukraine ist korrupt« oder »dieser Filmstar ist schwanger« sind oftmals automatisiert überprüfbar. Vor allem, wenn wir dazu noch die Metadaten einer Meldung nutzen können.

Zum Beispiel?

Menschen müssen gelegentlich schlafen, wir dürfen also bei den untersuchten Accounts auch Pausen erwarten. Rund um die Uhr abgesetzte Meldungen deuten deshalb auf die Tätigkeit eines Bots hin, der so programmiert ist, dass er einen Diskussionsverlauf in »seinem Sinne« beeinflusst.

Was ist für die wissenschaftliche Analyse »Fake or not Fake« wichtiger: der Inhalt oder die Metadaten?

Eine inhaltliche Untersuchung ist vor allem dann zielführend, wenn die Nachricht eine gewisse Länge hat. Erst dann ist die Analyse, etwa nach Schlüsselworten, nach Beleidigungen oder Hate Speech oder nach einer bestimmten Tonalität, sinnvoll. Auch orthografische Merkmale kommen erst dann zum Tragen. Bei Tweets aber würde unser Tool wegen der Kürze des Posts zunächst versuchen, die Metadaten zu nutzen. Es sei denn, die Kurznachricht verlinkt beispielsweise auf eine Webseite, die für eine ergänzende Untersuchung gut geeignet wäre.

Die eigentliche Leistung des Tools besteht ohnehin in der Interpretation von Inhalten.

Wir müssen Nachrichten verstehen, um ihren Wahrheitsgehalt bestimmen zu können. Deshalb ist es auch wenig sinnvoll, nur einzelne Wörter zu suchen. Wir müssen intelligent arbeiten lassen, damit das Tool künftig Wahres von Falschem zumindest grob unterscheiden kann.

Dafür nutzen Sie eine KI, die sich anhand von verifizierbaren Medien sozusagen »informiert«.

Genau. Die KI, die hinter unserem Tool steht, muss wissen, was seriös ist, um sagen zu können, welche Nachrichten falsch sein könnten.

Und um das zu wissen, lernt die KI anhand zehntausend seriöser Texte.

Nicht zwangsläufig. Sie beschreiben die Methode des Deep Learning. Dafür braucht die KI in der Tat extrem viel Material, von dem sie lernen kann. In der Regel sind aber weder genug Texte vorhanden, noch haben Sie die Zeit, große Mengen von Texten manuell zu annotieren, sodass ausreichend viel Trainingsmaterial vorhanden ist. Deshalb arbeitet unser Tool meist mit einem eher klassischen Machine Learning-Verfahren: Hier geben wir vor, nach welchen Features oder Merkmalen gesucht werden soll. Dafür braucht die KI nur 150 oder 200 Beispieltexte.

Aber auch das ist viel Material. Vor allem, wenn es um tagesaktuelle Meldungen geht. Beispielsweise bei der Frage, ob die Trunkenheitsfahrt eines Prominenten tatsächlich stattgefunden hat.

Ein Kernproblem ist, dass wir nicht nur 150 oder 200 echte Meldungen zu einem Thema benötigen, sondern ebenso viele Falschmeldungen. Sonst kann die KI die Wahrheit nicht filtern und arbeitet nicht zuverlässig, wenn wir ihr eine weitere Meldung zu diesem Thema vorlegen.

Gesetzt den Fall, die Voraussetzungen sind erfüllt. Wie funktioniert das Tool?

Wie eine Art Spamfilter. Eingehende Nachrichten werden grob sortiert: Gibt es Indizien, die auf Fake hindeuten oder nicht? Ähnlich einem Spamfilter können Sie auch bei uns die Rigidität des Systems danach einstellen, wie streng es aussortiert. Je strenger es arbeitet, desto mehr steigt allerdings die Wahrscheinlichkeit, dass wahre Nachrichten ausgefiltert werden. Und umgekehrt.

Wenn diese Art »Spamfilter« nach Regeln arbeitet, wann er vermeintlich wahre Nachrichten durchlässt oder nicht, könnte ich meine Fake News diesen Regeln auch anpassen.

Es wäre nicht schwierig, das System so zu überlisten. Genauso einfach oder schwer ist es auch für die Versender von Spam-Mails. Der Punkt ist nur: Für die Verbreitung von Spam oder Fakes benötigen Sie Masse. Es ist aufwendig für die Verfälscher, eine Nachricht auf die Filter anzupassen.

Ein anderes Problem ist vermutlich die Aktualität.

Genau wie ein Spamfilter wird unser Tool auch nur funktionieren, wenn es an die aktuellen Themen angepasst ist. In einem realen Einsatz müsste das System also kontinuierlich wenigstens mit aktuellen wahren Meldungen, beispielsweise mit den aktuellen News der dpa, aktualisiert werden.

Zusätzlich bietet das Tool eine grafische Aufbereitung – ähnlich, wie wir das von Antiviren-Programmen kennen, die die Verbreitung der Viren rund um den Globus anzeigen.

Gerade bei Fake News ist es wichtig zu wissen, wie sich eine Kampagne verbreitet und wer wen zitiert. Im Idealfall kristallisiert sich so sogar die Urheberschaft einer Fake News heraus. Aber wie schon angedeutet: Entscheidend für unsere Arbeit ist zunächst die Klassifikation von Nachrichten. Und hier liegt noch ein gutes Stück Forschungsweg vor uns, bis das Tool professionell eingesetzt werden kann. Auch dann wird das Tool nur den Verdacht auf Fake News anzeigen, der dann journalistisch überprüft werden muss. Auf gute Journalisten werden wir also auch dabei weiterhin nicht verzichten können.

(hen)

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Acht + = 10
Bitte Zahl eintragen!
image description
Interviewpartner
Alle anzeigen
Prof. Dr. Ulrich Schade
  • Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie FKIE
Weitere Artikel
Alle anzeigen
Gebärden sprechen lassen
Digitaler Durchblick im Schilderwald
Lärm: Ein unerhörtes Politikum?
Veranstaltungen
Alle anzeigen
Stellenangebote
Alle anzeigen