Neuronale Netze haben eine Vielzahl von Ähnlichkeiten mit dem menschlichen Gehirn. Vergleichbar mit den Aktivitäten unserer Nervenzellen verknüpfen sich hier mathematisch definierte Einheiten miteinander. Die Ergebnisse sind in der Regel verblüffend richtig. Das Problem ist nur: Keiner weiß, warum ein Neuronales Netz so entscheidet, wie es entscheidet. Eine spezielle Software schafft nun Abhilfe. Sie erlaubt den Blick in die »Black Box«.

Es gibt mit Sicherheit visionärere oder zumindest wichtigere Sätze von Politikern, aber der Satz von Altkanzler Helmut Kohl, dass es »entscheidend ist, was hinten rauskommt« ist wohl einer, der den meisten im Gedächtnis geblieben ist. Dabei stimmt die Aussage nur auf den ersten Blick. Natürlich zählt zunächst das Ergebnis. Egal ob im Sport, der Politik oder in der Forschung. Aber gerade letztere will in der Regel auch wissen, wie Ergebnisse zustande kommen. Und hier haben Forscher zunehmend ein Problem. Neuronale Netze lassen sich mittlerweile hervorragend trainieren. Jeder, der die Gesichtserkennung eines Bildbearbeitungsprogramms nutzt, weiß das. Wie neuronale Netze aber tatsächlich funktionieren, warum sie also einen Hund für einen Hund und nicht für ein Pferd halten oder einen Text als literarisch, einen anderen aber als medizinischen Fachtext klassifizieren – das weiß niemand. Zumindest nicht so richtig.

Black Box

»Keiner weiß genau, wie Neuronale Netze zu dem Ergebnis kommen, zu dem sie kommen«, erklärt Wojciech Samek vom Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut HHI. Die immer komplexer agierenden Techno-Hirne seien wie »Black Boxes«, in die man Werte einspeist und die dann (in der Regel) zuverlässige und verwertbare Ergebnisse liefern. Dass es für die Experten wenig befriedigend ist, wenn Neuronale Netze zwar richtige Resultate liefern, der Weg dorthin aber verdeckt bleibt, ist nicht nur in der allgemeinen Neugier von Forschern begründet. Es hat auch essentielle Gründe: Denn nur wer versteht, wie Neuronale Netze funktionieren, kann ihre Arbeits- (beziehungsweise Denk-)weise verbessern. Und nur wer versteht, wie Neuronale Netze arbeiten, kann den Ergebnissen vertrauen. Etwa bei Analysen von Krankheitssymptomen, der Untersuchung des Erbguts oder generell bei der Beurteilung von Menschen und Produkten.

Vom Ende zum Anfang

Samek und sein Team am Fraunhofer HHI haben zusammen mit Kollegen um Klaus-Robert Müller von der Technischen Universität Berlin (TUB) deshalb eine Software entwickelt, die Neuronale Netze sozusagen beim Denken beobachtet. Dabei gehen sie wie in einem Film vor: Sie betrachten das Endergebnis und lassen dann den Film rückwärtslaufen. Die Forscher wollen so möglichst detailliert erkennen, anhand welcher Merkmale das Neuronale Programm seine Entscheidungen festmacht. »Wir können jetzt Schritt für Schritt nachvollziehen, an welcher Stelle eine bestimmte Gruppe von Neuronen für eine Entscheidung des Neuronalen Netzes ‚verantwortlich‘ war. Und wir sehen, wie stark diese Entscheidung das Ergebnis beeinflusst hat«, betont Samek.

Welche Bedeutung das Wissen um den Entscheidungsweg Neuronaler Netze hat, zeigen erste verblüffende Ergebnisse der Fraunhofer/TUB-Software. »Bei einem Vergleich von zwei Programmen, die unter anderem in der Lage sind, Pferde zu identifizieren, konnten wir mit Hilfe unserer Software sehen, dass eines der Programme tatsächlich gelernt hatte, den Körper eines Pferdes zu erkennen. Das zweite Programm aber agierte vollkommen anders: Es orientierte sich an den Copyright-Zeichen der Fotos, die zu den Foren von Pferdeliebhabern führten«, erklärt Samek.

Ein weiteres Beispiel ist die Textanalyse durch Neuronale Netze. Sie klassifizieren Artikel beispielsweise nach religiösen, medizinischen, technischen oder politischen Inhalten.  Die Forscher erkannten nun, dass – anders als beim Menschen – die Inhalte für die Neuronalen Netze manchmal keine echte Relevanz haben. Entscheidend ist vielmehr lediglich die statistische Häufigkeit bestimmter Wörter.

Right to explain

»Die Beispiele illustrieren, warum der Blick in die Back Box Neuronaler Netze so wichtig ist«, unterstreicht Samek. Und dies gelte nicht nur für Bereiche, die den Menschen unmittelbar betreffen. Auch die Industrie wird davon profitieren, wenn die für die automatische Entscheidung der Produktqualität maßgeblichen Parameter bekannt sind. Denn selbst wenn die Ergebnisse mit der Meinung von Menschen übereinstimmen: Unter Umständen beurteilt der Computer aufgrund falscher Grundlagen ein Produkt als gut oder schlecht. Ein Umstand, der über kurz oder lang Probleme hervorrufen kann.

Und noch ein entscheidender Punkt kommt hinzu. Die EU plant in ganz Europa ein »right to explain« zu etablieren. Verbraucher sollen beispielsweise einer Erklärung dafür bekommen, warum sie von der Elektronik einer Bank als nicht mehr kreditwürdig eingestuft werden. Oder warum Versandhäuser entscheiden, eine Lieferung zu verweigern. »Da hinter den meisten dieser Urteile Neuronale Netze stehen, schafft unsere Software die Möglichkeit, für die Wirtschaft, eigene Entscheidungsprozesse besser zu verstehen und die Erkenntnisse weiterzugeben«, sagt Samek. So sehen Kunden nicht mehr nur, was »hinten rauskommt«, sondern haben die Möglichkeit, den Entscheidungsweg besser nachzuvollziehen und auf Fehler im System hinzuweisen.   

Auf der CeBIT in Hannover werden die Forscher um Wojciech Samek zeigen, wie sie mit ihrer Software die Black Boxes Neuronaler Netze analysieren – und wie diese aus Gesichtern das Alter oder Geschlecht der Person herauslesen oder Tiere erkennen. (aku)

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Fünf + = 9
Bitte Zahl eintragen!
image description
Experte
Alle anzeigen
Dr. Wojciech Samek
  • Fraunhofer-Institut für Nachrichtentechnik Heinrich-Hertz-Institut HHI
Weitere Artikel
Alle anzeigen
Gain New Ground mit KI und intelligenten Waschräumen
Digitale Souveränität für Bürger und KMU
Gut Zuhören
Stellenangebote
Alle anzeigen