Im vergangenen Jahr hat die Welt mehr als 2,8 Zettabyte an Daten erzeugt. Und Experten prognostizieren, dass es bis 2020 sogar 40 Zettabyte sein werden. Diese Zahl entspräche der 57-fachen Anzahl der Sandkörner auf allen Stränden der Erde. Big Data ist ein Thema, dass sich inzwischen quer durch Wirtschaft, Wissenschaft und Gesellschaft zieht. Im Interview erklärt Dr. Michael May, Koordinator einer jüngst gegründeten Fraunhofer-Initiative zum Thema Big Data und Abteilungsleitung Knowledge Discovery am Fraunhofer IAIS, die wichtigsten Aspekte von Big Data.

Big Data hat sich zu einem Mega-Trend entwickelt. Was ist so bedeutend an der Nutzung großer Datenvolumen aus unterschiedlichen Bereichen? 

Es gibt kaum ein Technik- oder Wirtschaftsmagazin, das sich nicht mit Big Data auseinandersetzt. Selbst die Tageszeitungen berichten regelmäßig über die Möglichkeiten dieser Entwicklung. Diese Aufmerksamkeit ist aber nur konsequent. Denn nach der ersten Big-Data-Welle, die von großen Internetfirmen wie Google, Yahoo, Twitter oder Facebook ausgelöst wurde, erkennen nun auch andere Unternehmen und Institutionen die Vorteile: Wer sich heute ansieht, wie beispielsweise eine Google-Suche funktioniert, mit der das gesamte Internet in Millisekunden durchsucht werden kann, will auch selbst von derartigen Techniken profitieren, um die eigenen Daten zu durchforsten und die Ergebnisse sinnvoll für sich zu nutzen. 

Aber Google und Co. arbeiten bereits seit Jahren mit der Grundidee, Big Data für sich zu nutzen. Warum wird der Trend erst heute zu einem regelrechten »Hype«?

Viele der nötigen Technologien sind erst heute allgemein verfügbar, weil wir verstärkt Open-Source-Anwendungen nutzen können. So erklärt sich auch die zweite Big-Data-Welle. Die Vorzüge werden nun von den Firmen aufgegriffen und in ihre Prozesse implementiert. Die Unternehmen sehen, dass sie – um es sehr vereinfacht auszudrücken – mit Big Data Geld verdienen können. Und zwar jetzt und nicht wie bei anderen Technologien, indem sie auf eine Anwendungsmöglichkeit in der Zukunft warten. Ein Beispiel sind Energieunternehmen, die mit Hilfe von Big Data innerhalb kurzer Zeit ihre Energienetze effizienter verwalten und die Energiebedarfe und -produktionen besser vorhersagen können. Auch im Finanzdienstbereich entwickeln sich mit Hilfe von Big Data neue Geschäftsmodelle. Big Data kommt in allen Branchen zum Einsatz, weil Entscheidungen nun aufgrund fundierter Daten und nicht nur aus letztlich einem »Bauchgefühl« heraus getroffen werden. Wir heben die Wertschöpfungskette also auf eine neue, sehr fundamentale Ebene.

Wenn die Geschäftsprozesse so stark datengetrieben gestaltet werden können, könnten in der Zukunft Maschinen unternehmensrelevante Entscheidungen treffen?

So weit würde ich im Moment noch nicht gehen. Die Maschinen werden aber zumindest prozessrelevante Entscheidungen treffen. Wir erleben eine rasante Vernetzung der Prozesse und Dynamisierung über alle Grenzen hinweg. Am Ende werden selbstoptimierende Verfahren nicht nur bei der Prozesssteuerung und Qualitätssicherung entscheidend mitwirken, sondern auch im Bereich der Sicherheit. Schon heute erfährt »Predictive Monitoring« zunehmendes Interesse.

Big Data ermöglicht also eine Art technische Erfassung von Erfahrungen und des industriellen »Bauchgefühls«?

Ja, das könnte man vielleicht so sagen. Im Kontext des THESEUS-Programms haben wir eine vom Bundesministerium für Wirtschaft und Technologie BMWi geförderte Analyse zu Nutzung und Potenzial für Big Data in deutschen Unternehmen durchgeführt. Eines der signifikantesten Ergebnisse bezieht sich auf den Bereich Handel. Gerade hier ist es offensichtlich, dass eine Art Bauchgefühl mitentscheidend ist. Jeder gute »Tante Emma« konnte ihren Kunden die richtigen Waren empfehlen, weil sie ein Gespür für die Bedürfnisse und Interessen der Kunden entwickelte. Das wollen die Handelsunternehmen natürlich auch für ihre Kunden im Internet abbilden. 

Aber Studien zeigen nicht nur den strategischen Nutzen von Big Data, sondern – zumindest bei kleineren und mittelständischen Unternehmen – noch eine gewisse Unsicherheit bezüglich des grundsätzlichen Ansatzes und der Möglichkeiten.

Dabei lässt sich Big Data verhältnismäßig leicht erklären, wenn man es über die sogenannten drei V’s, also Volume, Variety und Velocity erklärt. Volume steht für die Menge der Daten. Variety für deren Verschiedenartigkeit. Aus beiden Gegebenheiten lassen sich nun über Velocity, also Geschwindigkeit, in Echtzeit neue Erkenntnisse gewinnen. Wobei man sich nicht einzelne Daten etwa von Abteilungen ansieht, sondern alle Daten ganzheitlich betrachtet und analysiert. Das schafft einen bedeutenden Mehrwert für Forschung, Wirtschaft und Gesellschaft. 

Gerade für den letztlich entscheidenden Bereich, nämlich dem Erforschen, Entwickeln und Bereitstellen geeigneter Techniken, sind die Fraunhofer-Institute quasi per definitionem prädestiniert. 

Natürlich. Wir leben dafür und leben davon, Forschung in die Anwendung zu bringen. Big Data an sich ist ein sehr spannendes Forschungsthema. Nicht zuletzt, weil bei der Frage der Analyse von Algorithmen und der Skalierbarkeit der Verfahren noch sehr viel Forschungsarbeit zu leisten ist. Erst wenn wir in der Lage sind, große Datenmengen mit automatisierten Verfahren effizient und kostengünstig zu analysieren und dabei alle Erfordernisse des Datenschutzes zu beachten, können wir wirklich alle Branchen mit ins Big-Data-Boot holen. 

Lesen Sie morgen an dieser Stelle im zweiten Teil des Interviews, welche Ziele sich die neu gegründete Fraunhofer-Initiative Big Data gestellt hat.

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Acht + = 8
Bitte Zahl eintragen!
image description
Interviewpartner
Alle anzeigen
Dr. Michael May
  • Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS
Weitere Artikel
Alle anzeigen
Quo Vadis Big Data
Daten-Treibstoff, oder doch nicht?
Zwischen Hype und Realität – Die Big Data Days 2018
Stellenangebote
Alle anzeigen