Mögliche Störungen an Windkraftanlagen frühzeitig zu erkennen ist prinzipiell kein Problem. Zumindest fehlt es nicht an Informationen, die auf eine kommende Fehlfunktion hinweisen würden. Das Problem liegt eher an einem Zuviel an Zahlen. Denn die Sensoren an den Rotorblättern erfassen so viele Messdaten, dass sich ihre Übertragung kaum mehr bewältigen lässt. Und bei der Auswertung versperrt die Flut von „Normalbetriebszuständen“ den Blick auf das Wesentliche. Intelligente Analysealgorithmen sollen nun helfen, aus dem Pool der Daten nur die wirklich relevanten herauszupicken.

Weht der Wind zu stark, werden die Rotorblätter automatisch aus dem Wind gedreht. Die Sensoren der Windkraftanlagen erfassen alle Zustände. Sie schützen so die Rotorblätter vor Beschädigungen. Das ist technischer Standard. In den Sensordaten stecken allerdings noch weit mehr Informationen, als derzeit zum Schutz der Anlagen genutzt werden. Veränderungen in den Frequenzdaten der Vibrationen an den Anlagenkomponenten beispielsweise könnten frühzeitig Hinweise auf einen nicht mehr einwandfreien Betrieb geben. »Größere Schäden an den Anlagen und teure Reparaturen würden vermieden und notwendige Wartungen der Anlagen könnten gezielt geplant werden«, so Prof. Dr. Garcke vom Fraunhofer-Institut für Algorithmen und Wissenschaftliches Rechnen SCAI.

Um eine solche effiziente Analyse der Sensordaten aber tatsächlich durchzuführen, müssen die Anlagentechniker zwei entscheidende Hürden überwinden: Erstens sind die Datenmengen der aufgezeichneten Zeitreihen in der Regel schlicht zu groß, um sie mit vertretbarem Technik- und Zeitaufwand von den Windkraftanlagen zum Standort von Analyserechnern zu übertragen. Ganz gleich ob Offshore-Windpark oder eine Einzelanlage, die im freien Gelände steht – eine leistungsfähige Datenanbindung ist in beiden Fällen typischerweise nur schwer zu realisieren. Die zweite Hürde ist die Analyse der Sensordaten selbst. Da die Daten zum allergrößten Teil lediglich den »Normalbetrieb« des Windrades abbilden, würde eine Sichtung und Überprüfung durch einen Techniker bedeuten, dass er den größten Teil seiner Arbeitszeit damit verbringt, für ihn vollkommen uninteressante Vorgänge zu beobachten.

Intelligenter Blick auf das Wesentlich

Intelligente Algorithmen sollen die Sensordaten künftig gleich am Standort der Windkraftanlagen nach relevanten Informationen durchforsten. Im Rahmen des vom Bundesministerium für Bildung und Forschung geförderten Projekts »VAVID« entwickeln sie zusammen mit Forschungs- und Industriepartnern neue Big Data-Techniken und -Methoden für die vergleichende Analyse von ingenieurwissenschaftlichen Mess- und Simulationsdaten. Ihre Lösungen setzen die Forschungspartner exemplarisch für die Anwendungsbereiche der numerischen Simulation zur Produktentwicklung in der Automobilindustrie und des Monitorings von Windkraftanlagen um.

Analysesysteme sollen künftig kontinuierlich nach auffälligen Mustern in den aufgezeichneten Sensordaten suchen. »Wichtig ist dabei, dass das Analysesystem zuverlässig zwischen Normalzuständen und Auffälligkeiten zu unterscheiden lernt«, sagt Garcke. Der Big Data Ansatz der Forscher kann damit beide bestehenden Hürden überwinden: Für die detaillierte Untersuchung möglicher Störungen muss nur noch ein Bruchteil der aufgezeichneten Sensordaten übertragen werden. Und die Techniker können sich auf Analysen der Messdaten konzentrieren, die tatsächlich Auffälligkeiten aufweisen.

Datenfülle besser managen

Neben Methoden zur Datenanalyse entwickeln die Forschungspartner neue Verfahren zur Speicherung, Kompression, Management und Visualisierung großer Datenmengen. »Bei numerischen Simulationen etwa lassen sich durch die Vorberechnung von Varianten diejenigen herausfinden, bei denen überhaupt signifikante Änderungen zu erwarten sind. So werden weniger zeit- und rechenintensive Simulationsläufe für Entwicklungsprozesse benötigt«, so Garcke. Auch bei der Datenspeicherung lassen sich die Ressourcen weit besser nutzen, wenn Simulationsergebnisse und Messdaten von Monitoring-Systemen nicht mehr komplett abgelegt werden, sondern redundante Informationen nur einmal und ansonsten lediglich die Datenbereiche mit relevanten Zusatzinformationen gespeichert werden. (stw)

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Vier + = 6
Bitte Zahl eintragen!
image description
Experte
Alle anzeigen
Prof. Dr. Jochen Garcke
  • Fraunhofer-Institut für Algorithmen und Wissenschaftliches Rechnen SCAI
Weitere Artikel
Alle anzeigen
Quo Vadis Big Data
Daten-Treibstoff, oder doch nicht?
Zwischen Hype und Realität – Die Big Data Days 2018
Veranstaltungen
Alle anzeigen
Stellenangebote
Alle anzeigen