Wie kann man Datenströme analysieren und sich vor Datenmissbrauch oder Hackerangriffen schützen? Wie können Daten überhaupt gesammelt werden ohne die Datenschutzrichtlinien zu verletzen? Und wie sehen Modelle zu kombinierten Tiefen- und Kuchenfiltrationsvorgängen aus? Dr. Steven Arzt vom Fraunhofer SIT, Dr. Christoph Bier vom Fraunhofer IOSB und Dr. Sebastian Osterroth vom Fraunhofer ITWM sind die diesjährigen Preisträger des ICT-Dissertation Awards und widmen sich diesen Fragestellungen in ihren Dissertationsprojekten. Im Gespräch verrieten sie mehr über ihre Arbeiten, Ambitionen und Ziele.

Dr. Steven Arzt vom Fraunhofer-Institut für Sichere Informationstechnologie SIT Bild: Privat

Herr Dr. Arzt, Ihre Doktorarbeit beschäftigt sich mit Datenschutz/Datensicherheit. Wieso haben Sie sich für dieses Thema entschieden?

Als ich angefangen habe zu promovieren, waren mobile Systeme gerade stark im Kommen. Das war die Zeit, in der Android einen riesigen Marktanteil gewonnen hat, in der immer mehr Apps aufkamen. Doch das Problem war zu diesem Zeitpunkt, dass Menschen eigentlich gar nicht so richtig wussten, was eine App-Nutzung impliziert. Klar war nur, Apps haben Zugriff auf sehr viele Daten und erfordern gewisse Berechtigungen – wie den Internetzugriff. Um mehr darüber zu erfahren, kann sich der Nutzer seitenlange Datenschutzerklärungen durchlesen und muss letztlich darauf vertrauen, dass diese aktuell sind. Oder man braucht eben eine Variante des Selbstdatenschutzes oder zumindest der informierten Entscheidung auf Basis von Fakten, bei denen man nicht so stark vom Anwendungsentwickler abhängig ist. Das war ein Problem, das mein Interesse geweckt hat. Zusätzlich reizvoll war dann in Bezug auf das Thema der Datenflussanalyse, dass die Technik dahinter nicht nur für solche Datenschutzfragen einsetzbar ist. Sie kann auch nach bestimmten Arten von Sicherheitslücken suchen. Und somit hatte ich eine Forschungsfrage, die aber plötzlich an zwei Stellen relevant war. Nicht nur für den Bürger, sondern auch für Wirtschaftsunternehmen, die ihre Anwendungen gegen Hackerangriffe absichern wollen. Die Basistechnologie FlowDroid ist auch bewusst so entwickelt worden, dass sie in beiden Anwendungsbereichen genutzt werden kann. Weil das Privatsphäre-Thema erst einmal das wichtigere war, ist meine Evaluation in die App-Richtung gelaufen. Hier am Fraunhofer-Institut für Sichere Informationstechnologie SIT haben wir die Technologie aber auch schon für Schwachstellenscans eingesetzt.

Sie haben sich eingehend mit Analysetools – vor allem mit dem hier eben angesprochenen FlowDroid beschäftigt. Was unterscheidet FlowDroid von anderen Analysewerkzeugen?

Erst einmal ist FlowDroid Open Source, die Software steht also jedermann im Internet zur Verfügung. Sie ist allerdings nur als Technologie verfügbar, d.h., es gibt keine schöne Benutzeroberfläche. FlowDroid richtet sich eher an Techniker, an Wissenschaftler und auch an Firmen, die das Tool integrieren wollen. Es ist stark modular und kann damit vielfältig eingesetzt werden. Viele Wissenschaftler setzen das Tool ein, um es entweder zu erweitern, um neue Forschungsfragen damit zu beantworten, um ihre eigenen Anwendungen damit zu vergleichen oder um z.B. auch einen Schwachstellenscanner zu bauen. Diese Wiederverwendbarkeit war ein ganz großes Kernthema für mich, insbesondere da mir die Vergleichbarkeit wissenschaftlicher Ergebnisse sehr am Herzen liegt. Ich will, dass jeder, der auf diesem Gebiet arbeitet, sagen kann: »Das und das sind meine Ergebnisse und jetzt will ich wissen, ob ich besser, schlechter, anders als FlowDroid bin.« Und wenn jemand eine Datenflussanalyse für etwas benötigt, das lediglich ein Baustein seiner Arbeit ist, dann soll er auf bereits Bestehendes aufbauen können. Wir kommen in der Wissenschaft schließlich nicht weiter, wenn jeder wieder bei null anfangen muss. Die Möglichkeit, FlowDroid auch als Vehikel zur Kooperation und zum gemeinsamen Vorantreiben einer Wissenschaftsdisziplin zu nutzen, das ist mir ein Anliegen und ich bin natürlich auch stolz darauf, dass wir das am Institut auch als Basis für diverse kommerzielle Angebote und Eigenentwicklung von Sicherheitssoftware nutzen.

Gab es Probleme, auf die Sie während Ihrer Forschungsarbeit gestoßen sind?

Interessante Probleme ergeben sich z.B. daraus, dass Anwendungen sogenannte Bibliotheken verwenden, also Drittanbieterkomponenten, die die App-Entwickler integrieren und die dann gewisse Aufgaben in der Anwendung übernehmen. D.h. natürlich, dass selbst der App-Entwickler oft gar nicht den großen Einblick hat, was eigentlich im Inneren dieser Bibliothek passiert. Da findet man dann teilweise merkwürdige Datenflüsse, über die man wahrscheinlich auch nichts in der Datenschutzerklärung finden wird, weil die Entwickler selbst davon nichts wussten. Zusätzlich hat man oft das Problem, dass viele Anwendungen sehr stark konfigurierbar sind. Das bedeutet, Sie sehen eine Datenschutzerklärung, aber abhängig davon, in welchem Land Sie sich z.B. aufhalten, gibt es ganz andere Datenflüsse. Das liegt daran, dass der Hersteller der Werbebibliothek eben weiß, in diesen Ländern darf ich Daten weitergeben, in jenen nicht.

Dr. Christoph Bier hat seine Dissertation am Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung verfasst Bild: Privat

Herr Dr. Bier, viele Menschen versuchen zu vermeiden, dass ihre Daten weitergegeben werden. Sie plädieren für eine geordnete Weitergabe von personenbezogenen Daten nach rechtlichen Vorschriften. Wieso ist dieses Thema – und speziell der Auskunftsanspruch – so wichtig?

Die gänzliche Vermeidung einer Datenweitergabe ist aus meiner Sicht in der heutigen Zeit unmöglich. Personenbezogene Daten können sich in ganz vielfältigen Sozialbezügen befinden. Nicht immer kann die von der Datenverarbeitung betroffene Person deshalb die Verfügungsgewalt über ihre Daten ausüben. Die Verfügungsgewalt des Betroffenen ist zwar in gewissen Grenzen datenschutzrechtlich erwünscht, aber hauptsächlich geht es beim Datenschutzrecht darum, unterschiedliche Interessen miteinander in Einklang zu bringen. Dafür müssen diese Interessen allerdings transparent gemacht werden. Ansonsten entsteht ein Machtungleichgewicht zwischen demjenigen, der die Datenverarbeitung in seinem Herrschaftsbereich hat und allen anderen. Um dieses Wissensungleichgewicht zu reduzieren, gibt es Transparenzmaßnahmen, wie den Auskunftsanspruch. Dieser erlaubt Einblicke in die Daten, die eine verantwortliche Stelle gespeichert hat und ermöglicht Informationen über die Herkunft und die Empfänger der Daten zu erhalten. Und erst, wenn ich weiß, an wen meine Daten weitergegeben worden sind, kann ich meine weiteren Rechte wahrnehmen und auf die Datenverarbeitung Einfluss nehmen. In unserer heutigen Informationsgesellschaft ist es essentiell, dass mit Daten umgegangen wird und ich glaube, dass es einen fairen Weg des Umgangs mit personenbezogenen Daten geben kann.

Sie haben im Zuge Ihrer Arbeit ein Datenschutzauskunftssystem entworfen. In welchen Bereichen ist dieses von besonderer Relevanz?

Bei herkömmlichen IT-Systemen ist es nur möglich zu sagen, welche Daten aktuell gespeichert sind. Eine normale Datenbank enthält nicht die Informationen, wo die personenbezogenen Daten herkommen und an wen sie weitergegeben wurden. Hier kommt ein Personal-Data-Provenance-System zum Tragen. Dieses verfolgt personenbezogene Daten ab dem Zeitpunkt, an dem ich einem Unternehmen meine Daten offenbare. Jedes Kopieren der Daten wird in einer Historie, der Personal-Data-Provenance, gespeichert. Die Personal-Data-Provenance zeigt also an, welche personenbezogenen Daten durch die Kopieroperation von einem Datenspeicherort zu einem anderen geflossen sind. Das ist besonders relevant in den Bereichen der Sozialen Medien, der Marktforschung, des Online-Trackings. Hier werden personenbezogene Daten als Wirtschaftsgut betrachtet und das Wissen der einzelnen Unternehmen über eine Person ist enorm. Deswegen hat in solchen Bereichen eine technologische Lösung für die datenschutzrechtlichen Probleme einen gehobenen Stellenwert. Was die Datenflussnachvollziehbarkeit betrifft, gibt es allerdings zwei Probleme. Das grundsätzliche Problem ist, dass personenbezogene Daten in ganz unterschiedlichen IT-Systemen verarbeitet werden. Um die Datenflüsse über alle IT-Systeme hinweg nachvollziehbar machen zu können, müsste jedes einzelne System so erweitert werden, dass es einen Tracking-Mechanismus beinhaltet. Meine Arbeit führt die Möglichkeit ein, Informationsflüsse innerhalb eines Systems zu beschreiben und die gängigen APIs zu nutzen, um aus Ereignissen, die aus diesen APIs ausgeleitet werden, Informationsflüsse ableiten zu können. Im Endeffekt muss nun nur noch die Schnittstelle für systeminterne Ereignisse an das zentrale Trackingsystem angebunden werden. Das Problem der Überapproximation ist das zweite Problem. D.h., wenn in einer großen Datenbank jede Menge personenbezogene Daten gespeichert sind und Teile dieser Datenbank in ein PDF exportiert werden, dann weiß man nicht, welche Daten kopiert wurden. Dieses Problem ist nicht vollständig gelöst, doch in meiner Arbeit habe ich eine Annäherung an den Idealfall erreicht.

Werden Sie in diesem Themenbereich weiterarbeiten?

Ich gehe fest davon aus, dass meine Kollegen beim Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB an dem Thema weiterarbeiten. Allerdings habe ich selbst Fraunhofer und auch den Forschungsbereich im Frühjahr dieses Jahres verlassen. Jetzt bin ich dabei, in der Industrie Konzepte für das Auskunftsrecht, aber auch für andere Datenschutzrechte, umzusetzen. Hierbei habe ich die Erfahrung gemacht, dass mir das, was ich bei Fraunhofer wissenschaftlich erarbeitet habe, auch in der Praxis sehr weiterhilft.

Dr. Sebastian Osterroth vom Fraunhofer-Institut für Technik- und Wirtschaftsmathematik Bild: Privat

Herr Dr. Osterroth, seit wann beschäftigen Sie sich mit mathematischen Modellierungen und Simulationen von Kuchen- und Tiefenfiltrationen*, wie sind Sie auf dieses spezielle Thema gekommen?

Zugegebenermaßen recht unbedarft! Als ich frisch von der Uni kam, hatte ich bis dato nichts mit Filtrationen zu tun. Das Thema wurde mir im Rahmen meiner Promotion vom Fraunhofer-Institut für Technik- und Wirtschaftsmathematik ITWM nahegelegt. Das war im Jahr 2014. Zu diesem Zeitpunkt bestand am Institut schon eine seit über zehn Jahren angewachsene Expertise, die sich mit der Modellierung von Filtrationsvorgängen befasste und ich durfte das Team ergänzen. Die Erweiterung der bislang vorhandenen Modelle auf die Kuchenfiltrationsvorgänge war dann Kernthema meiner Promotion und seitdem beschäftige ich mich damit. Vor allem aufgrund des mathematischen Hintergrundes – ich komme ja eigentlich aus einem reinen Mathematikstudium – war der Bereich für mich interessant.

Was ist das Besondere an Ihren Ergebnissen, haben Sie mit Ihrer Forschung die Simulation der Filtration optimiert?

Die überwiegenden Literaturannahmen gehen davon aus, dass es sich bei der sogenannten Kuchen- und Tiefenfiltration um zwei getrennte Verfahren der Filtration handelt, die nacheinander auftreten. Wir konnten in der Arbeit jedoch mithilfe der Modellierung nachweisen, dass einige Effekte, die in der reinen Kuchenfiltration oft mit einer Kompression des Kuchens begründet werden, durchaus auch so erklärt werden können, dass während der Kuchenfiltration auch noch eine Tiefenfiltrationsphase stattfindet. Wir haben also einen neuen Erklärungsansatz gefunden. Die Arbeit trägt einen wesentlichen Teil zur Optimierung der Filterauslegung bei. Ich würde allerdings nicht so weit gehen zu sagen, dass wir die Simulation vollkommen optimiert haben. Es gibt durchaus noch Aspekte, die weiter untersucht werden müssen und die auch in meiner Promotion noch nicht vollkommen erforscht werden konnten. Wir hier am Institut sind auch ständig dabei die Filtrationsvorgänge weiter zu untersuchen. Der Übergang zwischen der Tiefen- und Kuchenfiltrationsphase ist beispielsweise ein interessanter Punkt. Dieser ist in meiner Dissertation durch ein recht einfaches Modell abgebildet worden, aber wir sind der Meinung, dass man dieses noch genauer ausführen müsste. Die Abläufe in der Übergangsphase sind für die Filterauslegungen sehr relevant.

In welchen Bereichen sind die Simulationen von kombinierten Tiefen- und Kuchenfiltrationen besonders vorteilhaft und die Berechnungen relevant?

In meiner Promotion habe ich hauptsächlich die Flüssigfiltration untersucht. Filter aus Getrieben oder Ölfilter waren von besonderem Interesse für mich. Die Automobilindustrie ist aber nur eines von vielen typischen Anwendungsfeldern. Die Filtrationssimulation hat generell den Vorteil, dass einige Prozesse, die in Experimenten nicht zu beobachten sind, weil sie z.B. innerhalb des Filterkuchens stattfinden, grafisch dargestellt und mithilfe der Visulisierung der Simulationsdaten angesehen und analysiert werden können. Die Kombination aus Tiefen- und Kuchenfiltration liefert keinen direkten Vorteil, sondern eine zusätzliche Erklärung. Diese war notwendig, da bislang existierende Standarderklärungen nicht unbedingt auf die Beobachtungen von Experimenten passten. Im Experiment startet man einen Prozess und erhält am Ende ein Ergebnis. Dank der Simulation kann man aber auch in den Prozess hineinschauen und zu jedem Zeitpunkt feststellen, wie die Verteilung der Partikel auf oder im Filtermedium ist und wo neue Partikel abgelagert werden. Anhand vorhandener experimenteller Daten, die wir mit diesem kombinierten Tiefen- und Kuchenfiltrationsmodell untersucht haben, konnten wir zeigen, dass die Daten mit diesem Modell erklärbar sind.

*Anmerkung der Redaktion: Ablagerungen auf einem Filtermedium werden als Kuchen bezeichnet. Dieser Filterkuchen wirkt mit zunehmender Dicke als zusätzliches Filtermedium. Die Filtration findet an der Oberfläche statt. Bei der Tiefenfiltration hingegen werden die Partikel im Inneren des Filters abgelagert.

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Eins + = 9
Bitte Zahl eintragen!
image description
Interviewpartner
Alle anzeigen
Alexander Nouak
  • Fraunhofer-Verbund IUK-Technologie
Weitere Artikel
Alle anzeigen
35 Jahre Fraunhofer FIT
30 Jahre Fraunhofer FOKUS
25 Jahre Fraunhofer ISST
Stellenangebote
Alle anzeigen