Wie lässt sich Blut kontrastmittelfrei und schnell verfolgen? Wodurch kann Schadsoftware in Softwareapplikationen effizienter aufgespürt werden und was braucht es, um die Gesichter von Menschenaffen automatisch zu identifizieren? Die Preisträger des diesjährigen ICT-Dissertation Awards widmeten sich diesen Fragen in ihren herausragenden Dissertationsprojekten: Dr. Siegried Rasthofer vom Fraunhofer SIT, Dr. Federico von Samson-Himmelstjerna vom Fraunhofer MEVIS und Dr. Alexander Loos vom Fraunhofer IDMT im Gespräch:

Dr. Alexander Loos vom Fraunhofer-Insitut für Digitale Medientechnologie IDMT Bild: Fraunhofer IDMT

Herr Dr. Loos, wieso haben Sie sich dafür entschieden, die Gesichtserkennung von Menschenaffen voranzutreiben und einen entscheidenden Beitrag im Bereich »Visual Animal Analytics« zu leisten?

Persönlich waren mir der Bezug zur Natur und die Erhaltung der Artenvielfalt immer wichtig. Andererseits reizt mich das interdisziplinäre Arbeiten an der Schnittstelle von Biologie und Informatik. Nach meinem Studium für Ingenieurinformatik habe ich am Fraunhofer-Institut für Digitale Medientechnologie IDMT meine Diplomarbeit zur Signalverarbeitung in Hinblick auf Musikanalyse geschrieben und schnell entdeckt, dass es dort Parallelen zur Bildanalyse gibt. So bin ich zu meinem jetzigen Fachbereich gekommen. Da aktuell alle Menschenaffenarten wie Schimpansen und Gorillas vom Aussterben bedroht sind, muss der Artenschutz intensiviert und die Wirksamkeit von Schutzmaßnahmen überprüft werden. Die heute eingesetzten automatisierten Methoden zur Erfassung der Primaten in Reservaten sind zwar effektiver und genauer als frühere manuelle Schätzungen, aber die über Infrarot ausgelösten Kameras produzieren immense Datenmengen. Deswegen kontaktierte uns eine Gruppe von Biologen des Max-Planck-Instituts für evolutionäre Anthropologie, um gemeinsam zu überlegen, wie man eine automatisierte Auswertung bewerkstelligen könnte. Wir haben dafür bestehende Algorithmen zur Erkennung von menschlichen Gesichtern erweitert – der Kern meiner Promotionsarbeit. Uns war aber wichtig, dass auch Biologen und Wildhüter die Software bedienen können. Nach einer zunächst manuellen Zuordnung einiger Gesichtsdaten kommt der Algorithmus ins Spiel, dessen Training anders als bei Deep Learning Software sehr schnell vonstattengeht und leicht um weitere Datensätze erweiterbar ist. Inzwischen werden die Videodaten der Menschenaffen in afrikanischen Reservaten erfasst, ans Max-Planck-Institut geschickt und dort ausgewertet.

Mit welchen Hürden hatten Sie zu kämpfen, um Ihre schließlich preisgekrönte Arbeit fertigstellen zu können?

Es gibt natürlich viele technische Hürden. Die Bedingungen im Dschungel als natürlicher Lebensraum sind für die Erkennung sehr ungünstig: So stellen sich die Affen nicht artig vor die Kamera und lassen sich nach biometrischen Vorgaben fotografieren, sondern bewegen sich ständig. Der Blick auf das Gesicht wird leicht durch die Vegetation verdeckt. Hinzu kommen noch Probleme mit der Beleuchtung und der Datenverteilung, da von manchen Individuen viele, von anderen kaum Daten vorliegen.

Wird Ihre Software bereits in anderen Bereichen eingesetzt und wo sehen Sie zukünftig weitere Anwendungsfelder für Ihre Entwicklung?

Eine weitere Anwendung gibt es im Leipziger Zoo, wo eine interaktive Besucherstation dafür sorgt, dass Besucher mit Touchscreen und Kamera die Affen filmen und über sie in Echtzeit Informationen wie Alter und Namen erhalten. Vor kurzem haben wir außerdem mit der »Citizien Science«-Plattform »Zooniverse« zusammengearbeitet, auf der freiwillige Helfer Biologen dabei helfen, riesige Datenmengen zu annotieren, indem sie zum Beispiel Tierarten in Bildern und Videos bestimmen. Auch hier können unsere automatischen Algorithmen den Annotationsaufwand deutlich reduzieren. Weiterhin haben wir unsere Algorithmen in einer kanadisch-deutschen Kollaboration noch einmal verändert und erweitert, um die Erfassung der heimischen Grizzlybär-Population in Wildgebieten voranzutreiben.

Dr. Siegfried Rasthofer vom Fraunhofer-Institut für Sichere Informationstechnologie SIT Bild: Fraunhofer SIT

Herr Dr. Rasthofer, welcher war für Sie der Ausgangspunkt, um sich mit der Weiter- und Neuentwicklung von mobilen Schaderkennungsmethoden im Bereich der statischen und dynamischen Codeanalyse zu beschäftigen, was dann letztendlich zur Entwicklung von CodeInspect führte?

Ich lernte das Institut schon kennen, als mein damaliger Doktorvater während meiner Promotion an der Technischen Universität Darmstadt eine Stelle beim Fraunhofer-Institut für Sichere Informationstechnologie SIT annahm. Schon da habe ich mich für das relevanter werdende Problem von Malware in Android-Systemen interessiert, weswegen ich dann den Kontakt zu Antivirenherstellern fand. Das hat zu diversen langfristigen Kooperationen geführt und meine Dissertation geprägt. Das konkrete Problem war und ist folgendes: Wenn ein Hersteller eine neue App beispielsweise im Google Playstore hochlädt, wird diese automatisch von Algorithmen auf Schadsoftware geprüft. Diese Verfahren sind nicht präzise genug, um versteckte Schadsoftware aufzuspüren, da die Virenentwickler dafür bewusst Verschleierungsmechanismen einsetzen. Das ist ein grundlegendes Problem bei der Codeanalyse, bei der es auch darum geht, Schwachstellen im Softwarecode aufzudecken, oder beispielsweise herauszufinden, ob die App intransparent sensible Daten an externe Server versendet. Genau an diesem Punkt setzt meine Forschung ein: Ich arbeite daran, die Limitierungen der Scans zu überwinden und eine stetige Verbesserung der Erkennungsrate zu erreichen.

Wir hatten bereits erste Erfolge: So konnten beispielsweise unsere Algorithmen zum Aufdecken der Funktionsweise eines Bankentrojaners in Südkorea verwendet werden. In diesem Beispiel war klar, dass Bankdaten von zehntausenden ahnungslosen Nutzern gestohlen wurden, aber unter anderem war unklar, an welchen E-Mail-Client die Daten verschickt wurden. Mit unserem Werkzeug CodeInspect konnte ich das Problem in fünf Minuten lösen.

Welche Herausforderungen haben Sie beim Angehen der Forschungsprobleme angespornt und schließlich zum internationalen Erfolg des Projekts beigetragen?

Mich hat es angespornt Probleme, die bereits seit vielen Jahren im Bereich der Codeanalyse bestehen, anzugehen und dafür konkrete Verbesserungen zu erarbeiten, die dann auch in die Anwendung kommen. Um das zu ermöglichen, musste zunächst Vertrauen zu großen Softwareherstellern wie Google und Amazon aufgebaut werden, um Kollaborationen zu ermöglichen. Das dauerte eine Weile, brachte aber später sehr gute Resultate.

Welches sind die nächsten Schritte? Gibt es Pläne, Kollaborationen mit Partnern aus der Wirtschaft und Industrie einzugehen?

Momentan arbeiten wir daran, die manuellen Schritte zu automatisieren und später über eine Ausgründung in Zusammenarbeit mit Fraunhofer-Venture unseren Industriepartnern eine noch einfachere Anwendung der Software zu ermöglichen. Dadurch soll ein Werkzeug zur Schwachstellenerkennung geschaffen werden, dass die Stärken von CodeInspect aufweist, aber durch die Automatisierung viel schneller und noch detaillierter arbeiten wird.

Dr. von Samson-Himmelstjerna vom Fraunhofer-Institut für Bildgestützte Medizin MEVIS Bild: Fraunhofer MEVIS

Herr Dr. von Samson-Himmelstjerna, was hat Sie als Physiker auf die Idee gebracht, sich genauer mit der Entwicklung von Verfahren der kontrastmittelfreien Perfusionsbildgebung in der Medizin zu beschäftigen – im diesem Fall mit dem Arterial-Spin-Labeling-Verfahren (ASL)?

Zu dem Thema kam ich über Umwege: Eigentlich war mein Forschungsfeld die Elementarteilchenphysik, in dem ich auch meine Diplomarbeit geschrieben habe. Dort fehlte mir allerdings oft der direkte Bezug zwischen Forschung und Anwendung. Zu meinen Interessenbereichen gehörten aber immer schon Medizin und Biologie. Als ich dann über einen Freund an der Charité in Berlin zufällig mit ASL in Kontakt kam, entschied ich mich, dort weiterzuforschen. Die Idee, das Markieren des Blutes durch Magnetisierung zu erzielen, fand ich von Anfang an sehr spannend, genauso wie mich mit dem Gehirn auseinanderzusetzen. Die Kernfrage war: wie lässt sich die kapillare Ausbreitung des Blutes in Organen bildgebend messen? Bisherige Verfahren dazu verwenden entweder exogene Kontrastmittel oder dauern mit Messzeiten von bis zu zehn Minuten für den klinischen Alltag zu lange; unter Extrembedingungen muss es schneller gehen. Zeiteffizientere Verfahren, wie das 2007 von meinem Doktorvater Professor Matthias Günther vorgeschlagene Hadamard-Kodierungsverfahren haben es geschafft, das zu ändern, sind aber noch relativ fehleranfällig. Genau dort entschied ich mich anzusetzen: Mit der sogenannten Walsh-Kodierung, die in der Nachrichtentechnik genutzt wird, einem mit der Universität Oxford kooperativ entwickelten Signalmodell und fitting-Verfahren sowie einem eigens erdachten Algorithmus zur Detektion fehlerhafter Bilder kann ich die kodierten Bilder trotz möglicher Artefakte nutzbar machen. Das fehleranfällige Dekodieren fällt komplett weg und Zeiteffizienz und Robustheit der Daten erhöhen sich deutlich. Bei geringer Qualität lassen sich so erste Ergebnisse schon nach 40 Sekunden und bei guter Qualität nach zwei bis drei Minuten erzielen – ganz ohne risikobehaftete Kontrastmittel.

Auf welche Probleme sind Sie bei Ihrer ausgezeichneten Forschung zu dem Thema gestoßen?

Eines der Hauptprobleme in diesem Bereich war die fehlende Grundlagenliteratur. Ich musste mir alles nötige Wissen durch Patente und wissenschaftliche Aufsätze, zum Teil auch fachfremder Gebiete, aneignen. Zudem gestalten sich bei biologisch-medizinischen Daten die Experimente schwerer, da man bei der Forschungsarbeit mit Menschen strenge ethische Richtlinien einbezieht und auch auf individuelle Komponenten achten muss. Die Reproduzierbarkeit der Ergebnisse wird oft durch die »Blackbox Mensch« eingeschränkt und physiologisch bedingte Fehlerquellen bei Messungen sind häufig nicht eindeutig identifizierbar. Zudem gibt es situative Diskrepanzen zwischen Tests im Labor und einem Notfall-MRT am Patienten unter Realbedingungen.

Wie geht es jetzt weiter? Werden Sie Gelegenheit haben, Ihre neuen Forschungsansätze im klinischen Umfeld anzuwenden?

ASL gibt es schon seit circa 20 Jahren – leider nur selten im klinischen Alltag. Das wollen wir ändern, das Interesse der großen MR-Hersteller aufgreifen und die Innovationen der letzten zehn Jahre nutzen. Hier arbeiten wir schon mit interessierten Klinikern zusammen. Eine vielversprechende Möglichkeit wäre, das Verfahren etwa in der Früherkennung von Alzheimerdemenz anzuwenden. Im Zuge der rezenten »EU COST Action: Arterial Spin Labelling Initiative in Dementia (AID)« war das Fraunhofer-Institut für Bildgestützte Medizin MEVIS unter der Federführung von Prof. Günther maßgeblich daran beteiligt, dass ein europäischer Austausch zum Thema ASL stattfand. Zusätzlich stellen wir auch weiterhin unsere Kenntnisse vielen internationalen Partnern kostenlos zur Verfügung. Allerdings versuchen wir, zum Beispiel im Rahmen der Initiative »Horizon 2020«, neue finanzierte Möglichkeiten zu finden, das Verfahren weiterzuentwickeln.

(mal)

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Eins + = 4
Bitte Zahl eintragen!
image description
Interviewpartner
Alle anzeigen
Alexander Nouak
  • Fraunhofer-Verbund IUK-Technologie
Weitere Artikel
Alle anzeigen
5 Jahre Fraunhofer AISEC
Der vierte ICT-Dissertation Award
35 Jahre Fraunhofer FIT
Stellenangebote
Alle anzeigen