Software durch neue Testing-Methoden besonders sicher machen, neue diagnostische Erkenntnisse aus Mikroskopie-Bildern gewinnen oder einfach mal die Maschinen das Planen übernehmen lassen? Diesen Herausforderungen haben sich drei junge Wissenschaftler gestellt. Beim diesjährigen ICT Dissertation Award wurden Dr. Julius Pfrommer vom Fraunhofer IOSB, Dr. André Homeyer vom Fraunhofer MEVIS und Dr. Konstantin Böttinger vom Fraunhofer AISEC für ihre herausragenden Dissertationen ausgezeichnet.

Herr Dr. Pfrommer, in Ihrer Dissertation geht es um »Distributed Planning for Self-Organizing Production Systems«. Damit haben Sie den ersten Platz beim diesjährigen ICT Dissertation Award belegt. Was hat Sie dazu inspiriert, Produktionsanlagen mal ganz genau unter die Lupe zu nehmen?

Das Thema verbindet zwei große Passionen von mir: Ich habe Wirtschaftsingenieurwesen studiert und hatte somit immer einen Bezug zur Produktion. Es ist ein langer Weg, bis aus Rohstoffen ein Produkt entsteht, und der Prozess selbst ist wie das schlagende Herz der Wertschöpfung. Da mitzuwirken, finde ich sehr faszinierend. Aber ich hatte auch immer ein Faible für Informatik! Schon als Schüler habe ich beim Bundeswettbewerb Informatik (BWInf) mitgemacht und auch einen Preis gewonnen.

In meiner Dissertation verbinde ich meine beiden Passionen, indem ich mich damit auseinandergesetzt habe, wie man Produktion und Wertschöpfung smart machen könnte. Diese Prozesse sollen flexibel sein und sich immer auf neue kundenspezifische Anforderungen einstellen können.

Bei automatisierten Produktionsanlagen muss man sich oft zwischen Effizienz und Flexibilität entscheiden. Dieses Problem wollen Sie mit dem sogenannten verteilten Planen lösen. Wie funktioniert das genau?

In den klassischen automatisierungstechnischen Systemen werden Entscheidungen in der sogenannten Automatisierungspyramide zentral »von oben« getroffen. Dafür muss man also erstmal alle Informationen sammeln und über viele Stufen durchreichen, bis von einem System oder einem Menschen eine Entscheidung getroffen wird.  Dieser Prozess ist sehr unflexibel, weil bei Änderungen am System oder den Produkten selbst viele überlagerte Subsysteme der Produktion händisch angepasst werden müssen.

Hier setzt das verteilte Planen an: Ziel ist, die Selbstorganisation und die Selbststeuerung von Produktionssystemen möglich zu machen. Maschinen sollen sich selbst dynamisch einstellen und gemeinschaftlich planen.

Dafür habe ich den sogenannten »Utility Propagation« Algorithmus entwickelt. Dieser basiert auf einer Kombination aus Reinforcement Learning – das ist ein sehr moderner Ansatz, um Entscheidungsverhalten zu optimieren – und dem Belief Propagation Ansatz für verteilte probabilistische Inferenz. Damit ist es möglich, dass die kleinen Subsysteme in einer Produktionsanlage gemeinschaftlich planen und schnell eine gute Lösungsstrategie entwickeln. Durch den Austausch zwischen den Mitgliedern wird eine sehr gute Lösung erreicht, auch wenn jedes Subsystem nur einen Ausschnitt des Gesamtsystems einsehen und beeinflussen kann.

Sie haben Ihr Modell bereits an Maschinen und in Simulationen getestet. Wie geht es jetzt weiter?

Mein Anwendungsbeispiel habe ich anhand einer Fertigungsanlage aufgebaut. Für den entwickelten Utility Propagation Algorithmus gibt es eine Menge weitere Anwendungsfelder, die ich im Zuge meiner Dissertation noch nicht untersucht habe. Die Forschung an diesem relevanten Thema läuft für mich weiter. Das Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB baut außerdem gerade, zusammen mit dem benachbarten Fraunhofer-Institut für Chemische Technologie ICT und dem Karlsruher Institut für Technologie (KIT), eine Forschungsfabrik in Karlsruhe auf. Dort werden wir das Thema Industrie 4.0 weiter vorantreiben. Die flexible Planung durch Technologien wie verteiltes Planen, Machine Learning und Künstliche Intelligenz wird dort im Fokus stehen.

Dr.-Ing. Julius Pfrommer ist Gruppenleiter in der Abteilung Cyberphysische Verteilte Systeme am Fraunhofer IOSB und der technisch-wissenschaftliche Leiter des Kompetenzzentrum KI-Engineering (CC-KING) Bild: bearbeitet von Fraunhofer-Verbund IUK-Technologie, Bilder von Fraunhofer IOSB, fotosassa und Wesley Tingey | unsplash

Herr Dr. Homeyer, für Ihre Dissertation »Automated analysis of necrosis and steatosis in histological images – Practical solutions for coping with heterogeneity and variability« haben Sie sich den zweiten Platz beim diesjährigen ICT Award verdient. Was hat Sie dazu inspiriert, sich so genau mit der Analyse von Gewebebildern auseinanderzusetzen?

Ich beschäftige mich schon lange mit der automatischen Auswertung von Mikroskopie-Bildern, bereits meine Masterarbeit drehte sich um das Thema, das ich in meiner Arbeit am Fraunhofer-Institut für Digitale Medizin MEVIS weiter vertieft habe. Vor allem die Komplexität histologischer Bilder und ihre ganz eigene Ästhetik finde ich unglaublich faszinierend. In ihren Mustern steckt eine Fülle von Informationen, die diagnostisch relevant sind.

Patholog*innen studieren Jahrzehnte, um diese Muster lesen und daraus diagnostische Entscheidungen ableiten zu können. Leider gibt es in fast allen Ländern der Erde einen wachsenden Mangel an Patholog*innen. Das führt zu einer Überlastung des entsprechenden Fachpersonals.

Mit der teilweisen Automatisierung könnte man hier Erleichterung verschaffen. Insbesondere, weil die Pathologie viele mühsame Aufgaben beinhaltet, wie etwa das Finden von Strukturen und Zählen von Zellkernen in Mikroskopiebildern. Mit Computer-Unterstützung können diese Arbeiten reproduzierbar und genau ausgeführt werden.

Bisherige Analyseverfahren stoßen oft auf Schwierigkeiten bei Bildern aus der klinischen Praxis. Wie sind Sie vorgegangen, um diese Herausforderungen zu bewältigen und verbesserte Verfahren zu entwickeln?

Eines der Grundprobleme, mit denen ich mich beschäftigt habe, war, wie man mit der Heterogenität umgeht. Einen großen histologischen Schnitt zu studieren, ist, wie einen Kontinent zu betrachten – die interessanten Bereiche sind oft ungleichmäßig über die ganze Fläche verteilt. Aus diesen großen, komplexen Bildern einen Gesamtkrankheitszustand zu erkennen, war eine der Zielsetzungen.

Eine weitere Herausforderung war die sehr große Variabilität in den Proben. Einen histologischen Schnitt herzustellen, ist ein langer, aufwendiger Prozess. Die dabei entstehenden Artefakte können die Schnitte sehr unterschiedlich aussehen lassen. Faktoren sind z.B. welches Labor die Probe angefertigt hat oder die Luftfeuchtigkeit im Raum während der Herstellung. Mit dieser Variabilität konnten bisher nur Menschen gut umgehen, aber Computer sind eher auf standardisierte Prozesse spezialisiert. Mit Technologien wie künstlicher Intelligenz und maschinellem Lernen können jetzt auch sie variabel aussehende Bilder zuverlässig auswerten.

Der Ansatz meines Verfahrens war, dem Computer mittels interaktiven Lernens beizubringen, geschädigtes und gesundes Gewebe zu erkennen und zu unterscheiden. Um diesen Trainingsprozess möglichst kurz zu halten, habe ich mich damit beschäftigt, wie man dem Computer Beispiele zum Lernen geben kann, die besonders aussagekräftig sind.

Daraus ist das Uncertainty Sampling entstanden. Dabei gibt der Computer Feedback bei welchen Bildbereichen er sich unsicher ist und für diese Areale muss der Mensch dann möglichst viele aussagekräftige Beispiele geben, um ihn zu trainieren.

Ein weiterer Aspekt meiner Arbeit ist die Praktikabilität. Man braucht sehr fortschrittliche Algorithmen wie Machine-Learning-Methoden, um große histologische Schnitte analysieren zu können. Die sind teuer und brauchen viel Rechenkapazität. Ich wollte die Algorithmen so effizient implementieren, dass sie auch auf normalen Computern laufen können.

Welche Zukunftsaussichten sehen Sie für Ihre Forschung?

Die entwickelten Methoden wurden inzwischen schon in mehreren Forschungsstudien genutzt. Aktuell arbeiten wir in verschiedenen Projekten daran, dass künstliche Intelligenz auch in klinischen Pathologielaboren verwendet werden kann.

Zum Beispiel im Projekt »EMPAIA«, welches das Fraunhofer MEVIS zusammen mit der Charité und anderen Institutionen angestoßen hat.

In der Pathologie gibt es sehr viele Aufgaben, die man mit KI unterstützen könnte. Für den praktischen Einsatz müssen noch Hürden wie z.B. die rechtlichen Rahmenbedingungen, Abrechnungsmöglichkeiten bei den Krankenkassen oder fehlende Standards für Pathologie-Softwaresysteme gemeistert werden. Dank vieler anderer großartiger Arbeiten und meiner Arbeit sind die technischen Herausforderungen bei der Algorithmenentwicklung heute jedoch deutlich geringer.

Dr.-Ing. André Homeyer arbeitet im Bereich Computational Pathology am Fraunhofer MEVIS. Bild: bearbeitet von Fraunhofer-Verbund IUK-Technologie, Bilder von Fraunhofer MEVIS und Wesley Tingey | unsplash

Herr Dr. Böttinger, in Ihrer Dissertation schreiben Sie über »Fuzzing with Stochastic Feedback Processes«. Damit haben Sie sich den dritten Platz beim ICT Award verdient. Wie kamen Sie auf die Idee, das Auffinden von Schwachstellen in Software und Machine Learning zu verbinden?

Als ich 2011 am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit AISEC anfing, habe ich mich mit kryptografischen Protokollen beschäftigt – ein sicherheitstechnisch wichtiger Bereich. Mit kryptografischen Mitteln verschlüsselte Kommunikationskanäle benutzt man zum Beispiel für sichere Verbindungen beim Online Banking.

Um zu verifizieren, dass so ein Protokoll korrekt ist, existieren sogenannte formale Methoden. Mir kam dann die Idee, dass es auch statistische Methoden für diese Prüfung geben müsse. Also habe ich diese Datenpakete statistisch analysiert und angefangen, dafür auch Machine Learning zu benutzen. Mir ist es gelungen, bestimmte Dinge über den Inhalt der Datenpakete herauszufinden, ohne die Kryptografie zu brechen. Daher kam die Idee, auch Software mit Machine Learning und Statistik zu untersuchen und zu testen.

Wie sind Sie dabei vorgegangen, Ihre Methode zum Software-Testen zu entwickeln?

Schwachstellen in Programmen will man möglichst schon im Entwicklungsprozess finden. Das ist für alle Softwarearchitekturen und vor allem für kritische Infrastrukturen relevant. Wenn auf der Außenschicht eines Programms eine Schwachstelle existiert, kann diese genutzt werden, um tiefer in das System einzudringen. Das hat mitunter auch eine wirtschaftliche Tragweite.

Mein Ziel war, den Reinforcement-Learning-Ansatz aus der Welt der KI und den Fuzzing-Ansatz – einer effektiven Methode zum Software-Testen – zu verbinden.

Fuzzing ist im Grunde sehr einfach. Man stelle sich ein mögliches Ziel für einen Angriff vor, zum Beispiel einen PDF-Reader. Beim Fuzzing gibt man dem PDF-Reader Inputs, die man immer leicht abändert oder randomisiert. Dann schaut man sich genau an, was das Programm macht und welche Ausführungspfade es nimmt.

Basierend auf diesen Informationen kann man neue Eingaben generieren. Ziel ist, das Programm zu möglichst vielen Ausführungspfaden zu bringen. Je besser der Input – also je mehr neue Pfade er auslöst – desto höher ist die Wahrscheinlichkeit, dass man eine Sicherheitslücke findet.

Das Generieren und Bewerten von Eingaben läuft in Schleifen ab. Mit evolutionären Algorithmen werden die Eingaben mutiert, sodass sie maximalen Code abdecken und die Heuristik maximal ausnutzen.

In meiner Arbeit habe ich diesen Prozess mit KI verbunden. Ein KI-Akteur, der von einem tiefen neuronalen Netz gesteuert wird, generiert dann die Eingaben und lernt aus ihrer Bewertung.

Ihre Dissertation wurde vor allem für ihren Beitrag zur IT-Sicherheit und ihren enormen gesellschaftlichen und wirtschaftlichen Impact gelobt. In welchen Anwendungsbereichen kann Ihre Arbeit bzw. Ihre Forschung in Zukunft von Nutzen sein?

Wir sind zunehmend von Software umgeben. Damit meine ich kritische Infrastrukturen, Online-Banking, sämtliche Assistenzsysteme – eben der digitale Raum, in den wir seit Corona noch mehr eindringen. Umso wichtiger wird die Sicherheit dieser Systeme.

Meine Ansätze sind für ein sehr breites Spektrum von Software anwendbar. Es ist Software Testing im weitesten Sinne. Da sind der Fantasie keine Grenzen gesetzt.

Deswegen forsche ich weiter daran, IT-Sicherheit und KI zu verbinden. Das ist auch der rote Faden der Abteilung Cognitive Security Technologies am Fraunhofer AISEC. Es ist ein rasant wachsendes, vielfältiges und spannendes Forschungsgebiet.

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Sechs + = 8
Bitte Zahl eintragen!
image description
Interviewpartner
Alle anzeigen
Alexander Nouak
  • Fraunhofer-Verbund IUK-Technologie
Weitere Artikel
Alle anzeigen
Die Fraunhofer Solution Days
10 Jahre Fraunhofer IOSB
Der ICT-Dissertation Award geht in die fünfte Runde
Stellenangebote
Alle anzeigen