Spätestens seit der U.S. Präsidentschaftswahl sind Fake News ein viel diskutiertes Problem. Vor allem die digitalen Möglichkeiten der Eindämmung, Verantwortlichkeiten und mögliche Gesetze werden immer wieder thematisiert. Professor Christian Bauckhage, Lehrstuhlinhaber für Medieninformatik am Bonn-Aachen International Center for Information Technology und Experte für Multimedia Pattern Recognition am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS, spricht mit uns über das Phänomen.

Hallo Herr Professor Bauckhage. Falschmeldungen, erfundene Geschichten, Gerüchte. Das hat es alles früher schon gegeben. Was ist eigentlich das Neue am Phänomen Fake News?

Neu sind die Distributionswege über das Internet und die sozialen Medien im Gegensatz zu den klassischen Print- und Rundfunkmedien. Jeder kann nun News erstellen, verbreiten und konsumieren. Das führt zu einem unkontrollierbaren Zugriff auf Nachrichten, den es früher nicht gegeben hat. Es entstehen Echokammern, wo Leute mit gewissen Interessen mit anderen Leuten mit eben diesen Interessen kommunizieren. Die Gate Keeper Funktion der traditionellen Medien gerät dabei stark unter Beschuss.

Bei der U.S. Präsidentschaftswahl waren Fake News häufig Thema. Auch in Deutschland tauchen Falschmeldungen immer wieder auf, beispielsweise um gegen geflüchtete Menschen Stimmung zu machen. Welche Möglichkeiten gibt es, die Verbreitung von Fake News einzudämmen?

Entgegen der landläufigen Meinung: Leider keine unmittelbaren. Da sollte man ganz realistisch sein. Fake News sind kein technisches Problem, sondern ein soziales. Die Frage ist also nicht, was Technik, Algorithmen oder die Betreiber von Plattformen im Internet tun können, um die Verbreitung von Fake News zu verhindern. Sondern die Frage muss sein, warum Menschen Falschmeldungen überhaupt glauben und weiterverbreiten.

 Es handelt sich also um ein pädagogisches Problem?

Was es braucht ist Medienerziehung. Wie banal und selbstverständlich es klingen mag: Den Menschen muss klar werden, dass nicht alles der Wahrheit entspricht, was sie im Internet lesen. Lassen Sie mich kurz ausholen und die Situation mit dem Medienumbruch vor 500 Jahren vergleichen, als der Buchdruck erfunden wurde. Bis der Buchdruck und die Presse erfunden waren, wurden Schriftstücke aufwendig per Hand geschrieben. Das war teuer, das konnte sich nur leisten, wer die Mittel dazu hatte. Fürsten, Bischöfe, wohlhabende Händler. Also hatte jedes Schriftstück eine offizielle Aura. Das Offizielle gehörte zur Definition des Geschriebenen. Und plötzlich gibt es den Buchdruck. Nun ist es preiswert geworden, Dokumente zu produzieren und zu verbreiten. Es ist keine Herrschaftstechnologie mehr. In der Zeit des Umbruchs dachte man immer noch, man müsste mit jedem Schriftstück etwas Offizielles vor sich haben, denn bisher war es immer so gewesen. Aber diese Wahrheit galt halt nicht mehr. Es hat seine Zeit gebraucht, bis sich diese Tatsache im kulturellen Bewusstsein etablierte.

Und die Situation ist mit der heutigen vergleichbar?

Eine vergleichbare Situation haben wir im 21. Jahrhundert mit den sozialen Medien. Bislang waren Nachrichten von Presseagenturen, Print- oder Rundfunkmedien recherchiert und abgesegnet. Sie waren damit sozusagen »offizielle« Nachrichten. Verbreiter von Fake News machen sich durch das Imitieren von offiziellen Webseiten diese Aura zu eigen und verleihen ihren Falschmeldungen so Authentizität. Es ist also die Aufgabe der User, hier genau hinzuschauen und zu erkennen, was falsche und was glaubwürdige Nachrichten sind. Das muss man lernen. Ich wiederhole mich gerne noch einmal: Das Eindämmen von Fake News ist eine soziale, eine pädagogische Aufgabe. Und keine technische.

Andererseits haben große Plattformen wie Facebook und Google Algorithmen, die die Reichweite angesagter Nachrichten nochmals erhöhen. Also könnten sie theoretisch auch Algorithmen einsetzen, um unglaubwürdige Nachrichten zu unterdrücken.

Stellen Sie sich vor, ich würde tweeten: »Morgen bricht in China die Wirtschaft zusammen.« Der Wahrheitsgehalt dieser Nachricht lässt sich nur über die Seriosität des Urhebers feststellen. Der Inhalt selbst aber ist nicht nachprüfbar. Man müsste die wirtschaftliche Situation in China kennen. Politische Veränderungen. Andere Rahmenbedingungen. Artificial Intelligence könnte den Inhalt meines Tweets verstehen, aber die eben genannten Zusammenhänge nicht analysieren. Da braucht man sehr viel Hintergrundwissen, das ist die technische Schwierigkeit. Aber es gibt noch weitere. Ich tweete: »Ich gehe über eine Brücke in New York und im Hudson ist ein Flugzeug gelandet.« Wahr oder falsch?

Hört sich unwahrscheinlich an.

Absolut unwahrscheinlich. Ist aber genauso passiert. Wie soll eine Maschine also Realität und Fake News unterscheiden? Ich würde zu diesem Zeitpunkt dringend davor warnen, Algorithmen oder maschinelles Lernen einzusetzen, um Fake News einzudämmen. Das führt zu Zensur.

Aber wie ist es denn mit den Metadaten? Beim sogenannten »Pizzagate« beispielsweise wurde in Mazedonien eine echt anmutende News-Seite designt und dort eine Falschmeldung eingebettet. Nur um durch Klicks mit Werbeeinnahmen Geld zu verdienen. Kann man das nicht algorithmisch ermitteln?

In der Theorie, ja. Aber dazu müsste man permanent das ganze Internet beobachten. Man müsste wissen, wo eine Nachricht herkommt. Man müsste die Seriosität der ursprünglichen Quelle prüfen. Das ist denkbar, aber nicht praktikabel. Das Internet umfasst Milliarden und Abermilliarden von Webseiten und selbst Giganten wie Google, die es permanent abcrawlen, hätten Schwierigkeiten, diesen Aufwand in Echtzeit zu bewältigen. Es gibt natürlich Forschung, die sich mit der automatischen Erkennung von Fake News beschäftigt. Beispielsweise gibt es Hinweise, dass Fake News Artikel längere Überschriften besitzen. Aber sicher sind diese Methoden nicht.

Facebook scheint wegen Fake News am stärksten unter Druck zu stehen. Das soziale Netzwerk arbeitet seit kurzem mit externem Dienstleistern zusammen, um Falschmeldungen zu identifizieren. Dabei handelt es sich um Recherchezentren. Und bietet gleichzeitig ihren Nutzern an, Beiträge als Fake News zu markieren. Das sind beides keine algorithmischen Lösungen.

Dieser Weg ist momentan der einzig gangbare. Dass viel Geld für externe Recherchezentren ausgegeben wird, anstatt billige Algorithmen zu nutzen, zeigt, dass selbst Facebook keine technischen Möglichkeiten sieht. Hätte man eine Idee, wie das Problem algorithmisch zu lösen ist, dann würde man es tun. Denn es ist sehr viel billiger.

Auf der anderen Seite stehen sogenannte Social Bots, also einfache Programme, die in sozialen Netzwerken menschliche Identität vortäuschen. Diese Bots scannen Timelines und Posts nach bestimmten Key-Words, verbreiten authentische Nachrichten wie auch Fake News ungeprüft weiter und können sogar mehr oder weniger komplexe Kommentare verfassen. Wie groß ist die Rolle von Bots?

Dazu fällt mir eine Anekdote ein. Im Jahr 2008, kurz vor dem Zusammenbruch von Lehmann Brothers, ist der Aktienkurs der Fluggesellschaft United Airlines drastisch eingebrochen. Zwei Tage zuvor, in der Nacht von Samstag auf Sonntag, hatte jemand auf der Website der kleinen Regionalzeitung Florida Sun Sentinel das Archiv durchstöbert und einen Artikel aus dem Jahr 2004 mit dem Titel »United Airlines files for bankruptcy« gelesen. Das stimmte im Jahr 2004, aber nicht im Jahr 2008. Wenig später kam ein Google Newsbot vorbei, also ein Programm, das das Internet nach interessanten Meldungen durchsucht und stellte fest: Dieser Artikel wurde ein Mal gelesen. Nachts um halb eins ist ein Mal gelesen viel. Das Problem war, dass der Artikel kein Datumsstempel hatte. Der Bot hat das Naheliegende getan und den Artikel mit dem heutigen Datum versehen. So landete die Nachricht bei Google News. Und weil am Sonntag nicht viel passiert, war sie da den ganzen Tag. Montag früh ist sie von einem Analysten der Firma Bloomberg gelesen worden und in deren Bloomberg Report des Tages übernommen worden, wo aktuelle wirtschaftliche Entwicklungen täglich zusammengefasst werden. Dieser Report wurde anschließen von Software ausgewertet, die für Aktienhandel zuständig ist. Und da Aktien heutzutage größtenteils automatisch gehandelt werden, hat die Software angefangen, an der Wall Street Aktien von United Airline abzustoßen. So ist es dann zu dem Crash gekommen.

Seitdem häufen sich doch Zwischenfälle dieser Art.

Richtig, weil Menschen mit falschen Absichten verstanden haben, wie sie die Mechanismen zu ihren Zwecken ausnutzen können. Also wie man indirekt versuchen kann, den Aktienmarkt zu manipulieren. Und weil Fake News auf die U.S. Präsidentschaftswahl Einfluss genommen haben und die Mechanismen jetzt verstanden wurden, kann man davon ausgehen, dass sie wieder eingesetzt werden. Jetzt, wo das Phänomen einmal in der Welt ist, wird es nicht mehr verschwinden. Diese Aussage treffe ich mit großer Sicherheit.

Sie nehmen an, dass Fake News auch bei der Bundestagswahl 2017 eine Rolle spielen werden?

Ja.

Die Präsidentschaftswahl in Frankreich wurde mit dem sogenannten Macron-Leak torpediert. Großer Schaden wurde aber nicht angerichtet.

Wie man hört, weil das Team von Macron auf diesen Fall vorbereitet war. Man ging von vornherein davon aus, dass man gehackt wird. Als Gegenmaßnahme wurden Fake Accounts und Repositories angelegt, in denen neben authentischen Dokumenten, Fälschungen und Zwiebelsuppenrezepte gespeichert wurden. Damit war das Paket substanzlos. Die Hacker haben es nicht gemerkt, sind einem Honeypot aufgesessen.

Man kann sich also vorbereiten und Gegenmaßnahmen ergreifen.

Ja, aber die andere Seite wird daraus lernen. Es ist ein Wettrüsten.

Vielen Dank für das Gespräch.

(adz)

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Eins + = 1
Bitte Zahl eintragen!
image description
Interviewpartner
Alle anzeigen
Prof. Dr. Christian Bauckhage
  • Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS
Weitere Artikel
Alle anzeigen
»Die Verantwortung muss beim Menschen bleiben.« 
CoBot
Meine Empfehlung
Stellenangebote
Alle anzeigen