Die Steuerungsprozesse in der Industrie laufen zunehmend automatisiert. Möglich wird das durch eine durchgängige Vernetzung und den Input von Sensoren, die den Verlauf der Prozesse unablässig überwachen. Das allerdings ist erst der Anfang, denn künftig dürfte die Zahl an Kameras, Temperatursensoren oder Beschleunigungsfühlern noch erheblich wachsen. Das kann die Automatisierung aber nur dann weiter verbessern, wenn Messtechnik und Datenkommunikation gut miteinander harmonieren. Forscher*innen erproben nun, wie die kommenden Schritte auf dem finalen Weg zur Industrie 4.0 aussehen müssen.

Mehr als zehn Jahre alt ist sie schon, die vierte industrielle Revolution. Zumindest ihr Label: Industrie 4.0. Das 2011 rund um die Hannover Messe vorgestellte Leitbild subsumiert nicht nur die unterschiedlichsten Ausprägungen der Digitalisierung in der industriellen Fertigung von Produkten unter einem ganzheitlichen Ansatz. Das Konzept einer durchgängig digitalen Zusammenarbeit hat vor allem Attribute wie Konnektivität, Interoperabilität und Vernetzung aller beteiligten Komponenten und Systeme in den Fokus gerückt.

Eine zentrale Rolle dabei spielt die Messtechnik. Denn Steuerungs- und Kontrollsysteme oder auch der digitale Fabrikzwilling in der Cloud können ihren Zweck nur erfüllen, wenn sowohl die Datenübertragung zuverlässig funktioniert als auch Validität und Qualität der übertragenen Messinformationen zu jedem Zeitpunkt stimmen. Und das gilt unabhängig davon, ob es um die Funktionsparameter einer Maschine geht, um die Messwerte von Temperatur-, Vibrations- oder Durchflusssensoren oder um optische Qualitäts- und Prozesskontrollen von Kamerasystemen entlang der gesamten Produktionskette. Und diese Prämisse gilt nicht nur für einzelne Messstationen, sondern für nahezu alle Komponenten – und sei ihre Bauart noch so unterschiedlich und seien die Hersteller noch so verschieden. Doch genau diese Vorgabe birgt meist umfangreichere Schwierigkeiten.

Zahlreiche Detailprobleme

Für viele der bereits erkannten Probleme gibt es bislang kaum zufriedenstellende Lösungen, sagt Dr. Martin Kasparick vom Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut HHI und nennt Beispiele: »Zum einen ist oftmals unklar, wie wir sicherstellen können, dass die Messgenauigkeiten aller beteiligten Sensoren jederzeit die spezifischen Anforderungen eines Bearbeitungsprozesses erfüllen. Und zum anderen stellt sich die Frage, wie wir gewährleisten, dass die Latenzzeit der Kommunikationsverbindung von und zu den Komponenten für einen bestimmten Kontroll- und Steuerungsprozess nachweislich kurz genug ist«. Weiterführende Forschungen wie aktuell bei »GEMIMEG-II« seien deshalb grundlegend. In der vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) geförderten Forschungskooperation »GEMIMEG-II« entwickeln und erproben dreizehn Partner*innenorganisationen aus Wissenschaft und Industrie weiterführende Konzepte und Methoden für das vernetzte digitale Messwesen in Industrie 4.0-Umgebungen. Außerdem arbeiten sie die dafür nötigen Standards aus und initiieren Weiterentwicklungen auf dem Feld der Sensortechnologien.

Welche Anforderungen die Messkomponenten und der Informationsaustausch im Detail dabei erfüllen müssen, hatten Forscher*innen vom Fraunhofer HHI und der Physikalisch-Technischen Bundesanstalt (PTB) im Vorgängerprojekt »GEMIMEG-I« bereits gemeinsam mit Industrieparter*innen identifiziert und in einer eigenen Forschungsagenda konkretisiert. Zentrale Kriterien sind demnach, dass erstens die exakte Kalibrierung der Messeinrichtungen jederzeit gewährleistet ist, dass zweitens bei jedem Informationsaustausch sowohl der Sender als auch der Empfänger eindeutig festgestellt werden kann und dass drittens sämtliche Kalibrierungsinformationen und Messdaten so exakt und zuverlässig wie möglich übertragen werden.

Durchgängig zuverlässiges Kalibriermanagement

Eine der Basistechnologien ist der digitale Kalibrierschein (Digital Calibration Certificate - DCC), der von der Physikalisch-Technische Bundesanstalt konzipiert wurde. Letztlich ist dieses Zertifikat »nur« ein erweitertes, elektronische Pendant der bisher auf Papier festgehaltenen Kalibrierscheine für Messsysteme. Durch das mit einem digitalen Siegel gesicherte Zertifikat können nun aber alle grundlegenden Informationen der messtechnischen Komponenten maschinell ausgelesen werden. Manuelle Aktualisierungen sind nicht mehr nötig, alle Systeme sind und bleiben auf dem jeweils neuesten Stand. In einer vernetzen Produktionsumgebung können nun die verschiedenen Messunsicherheiten in den einzelnen Prozessbereichen automatisiert erfasst und sofort in die Fertigungsplanung eines Digitalen Zwillings übernommen werden. Nun muss das digitale Kalibrierzertifikat nur noch von den zuständigen internationalen Gremien und den Instituten des Messwesens als neuer Standard akzeptiert und eingeführt werden.

Wie das DCC-System in der Praxis eingesetzt wird und welche Möglichkeiten es bietet, wollen die Entwickler*innen aber schon vorab anhand von fünf GEMIMEG-Demonstratoren zeigen, die das Projektkonsortium derzeit einrichtet. Am Kompetenzzentrum für Windenergie des PTB beispielsweise bauen die Forscher*innen eine komplette digitalisierte Mess- und Kalibrierumgebung auf: eine 20 MNm-Drehmomentnormalmesseinrichtung inklusive digitalem Zwilling, bei der sämtliche Betriebsabläufe digital geplant, initiiert, geregelt und verwaltet werden. Für andere »Realbeds« nutzen die Industriepartner ihre bereits bestehenden Produktionsumgebungen und setzen hier beispielsweise durchgängig digitalisierte Prozessketten oder Entwicklungsprojekte zu Hard- und Softwaretechnologien im Bereich des autonomen Fahrens um.

Kommunikationsnetzwerke für die Industrie 4.0

Ihren Mehrwert können diese Testumgebungen allerdings erst dann vollständig unter Beweis stellen, wenn auch die Qualität der Vernetzung in den Entwicklungszentren und Produktionshallen so aufgerüstet ist, dass sie den künftigen Leistungsanforderungen genügen. In den Forschungen zu diesem Bereich bringen vor allem die Wissenschaftler*innen des Fraunhofer HHI ihre Kompetenzen ein. Beispielsweise, wenn es um den Aufbau und Betrieb von 5G-Netzen für eine schnelle und sichere Kommunikation zwischen allen beteiligten Komponenten geht. »Im Fokus unserer Forschungen ist aktuell unter anderem der Aufbau eines eigenen 5G-Campusnetzes mit firmeneigener Funklizenz«, erklärt Kasparick. In puncto Bandbreite, Netzabdeckung, Security und niedriger Latenz könne solch ein Privatnetz anspruchsvolle und sehr spezifische Anforderungen erfüllen.

Allerdings können die meisten Unternehmen bei der 5G-Vernetzung noch nicht auf eigene Erfahrungen zurückgreifen. »Die Unternehmen fangen zwar nicht bei null an. Aber sie müssen die Aufgabe bewältigen, bestehende Kabel- und Funknetze zu erweitern oder ganz umzustellen«, sagt Kasparick. Hinzu komme, dass insbesondere in sensiblen Bereichen der Produktion heute bereits spezielle Funk- und Netzwerktechnologien im Einsatz sind, die eigentlich eine sehr hohe Leistung bieten können und auch zuverlässig arbeiten. In den GEMIMEG-Realbeds setzt das Team um Kasparick daher nicht nur auf Vernetzungslösungen mithilfe von 5G-Technologien, sondern auch auf Hybridinfrastrukturen verschiedenster Couleur. Die Forscher*innen müssen dafür allerdings zahlreiche Schnittstellen neu entwickeln, um die vorhandenen Systeme anzupassen. Deshalb – so Kasparick – sei es wichtig, zusätzlich an Konzepten, Netzkomponenten und Softwarelösungen zu arbeiten, damit die heterogen aufgebauten Kommunikationsnetze mit einer künftigen Vielzahl und Vielfalt an angebundenen Komponenten sicher und leistungsfähig betrieben und gesteuert werden können. Sein Team und er forschen dazu unter anderem an neuartigen Möglichkeiten des Monitorings der Netzinfrastrukturen und der Orchestrierung der Sensordatenströme oder zu einer über das Kommunikationsnetz gesteuerten Echtzeitsynchronisation aller angebundenen Sensoren.

Minimaler Ressourceneinsatz und Netzintelligenz

Der Plan, die Kommunikationsnetze in den Unternehmen immer dichter und möglichst latenzfrei zu knüpfen stößt allerdings auch an Grenzen. Nicht nur im Hinblick auf die technische Machbarkeit, sondern auch hinsichtlich des finanziellen Aufwands und in ihren Auswirkungen auf den Ressourcenverbrauch und die Nachhaltigkeit der industriellen Produktion. »Wir müssen je nach Betrieb die richtige Balance finden«, sagt Kasparick. Einerseits müsse die Leistung bei Verfügbarkeit, Bandbreite und Geschwindigkeit stimmen. Andererseits aber solle die Kommunikationsinfrastruktur aber auch schlank bleiben, um den finanziellen und logistischen Aufwand sowie den Energieverbrauch so weit wie möglich zu senken.

Eine Möglichkeit des 5G-Standards, die die Forscher*innen dafür nutzen ist das »Network Slicing«. Dabei steht den angebundenen Sensoren ein gesicherter Übertragungsweg zur Verfügung – allerdings exakt nur mit den Leistungsparametern und zu den Zeiten, an denen er tatsächlich gebraucht wird. Auf diese Weise werden die Netzressourcen deutlich besser ausgenutzt und Energie eingespart.

Ein weiterer Ansatz, das Leistungsvermögen von Kommunikationsnetzen möglichst optimal zu nutzen, ist die Integration von Computing- und Sensing-Prozessen. »Auch hier ist das Potenzial enorm – sowohl um die Performance der Netzwerke weiter zu steigern als auch um den Energieverbrauch bei der vernetzten Zusammenarbeit in der Industrie maßgeblich zu verringern«, erklärt Kasparick und erklärt das Prinzip an einem Beispiel: Entlang einer Produktionslinie sind eine Reihe von Temperatursensoren verbaut, die regelmäßig ihre Messwerte an einen Computer übermitteln. Hier errechnet ein Programm lediglich den Mittelwert, denn mehr Informationen benötigt es nicht, um seine Aufgaben zu erfüllen. »Durch Over-The-Air -Computing können wir die benötigte Information datensparender bereitstellen, indem wir die Analyse und Aggregierung der gemessenen Temperaturdaten in das Netz verlagern«, sagt Kasparick. Mit anderen Worten: Sobald die Sensoren ihre Messdaten in das Netz einspeisen, bildet der in der Netzsteuerung integrierte Computing-Prozess sofort den Mittelwert. Die kompletten Messinformationen aller einzelnen Sensoren müssen also nicht erst bis zu einem Auswertungsrechner übertragen werden, sondern nur noch das fertige Ergebnis. »Künftige Kommunikationsnetze werden immer mehr solcher Analyseaufgaben unmittelbar übernehmen können und damit den Bedarf an Übertragungskapazitäten deutlich reduzieren«, ist sich Kasparick sicher. Das Potenzial lasse sich zwar mit den momentanen Möglichkeiten der Netzwerktechnologien noch nicht ausschöpfen. Bei der aktuellen Vorbereitung der Standards für die nächste Funknetzgeneration »6G« stehen entsprechende Technologien und Standards bereits auf der Agenda. »Auch dafür nutzen wir die Testbeds und die Erfahrungen des Projekts«, betont Kasparick. Dann sollte es noch besser gelingen, nicht nur die Anforderungen in den Unternehmen zu sammeln, die sich heute noch unzulänglich erfüllen lassen, sondern auch zusätzliche Lösungskonzepte zu entwickeln und in die Standardisierungsgremien einzubringen.

 

(ted)

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Fünf + = 8
Bitte Zahl eintragen!
image description
Experte
Alle anzeigen
Dr. Martin Kasparick
  • Fraunhofer-Institut für Nachrichtentechnik Heinrich-Hertz-Institut HHI
Weitere Artikel
Alle anzeigen
Krach unter Kontrolle
Dataspace Connector – Wächter des Datenaustauschs
Die International Data Spaces werden Unternehmensalltag
Veranstaltungen
Alle anzeigen
Stellenangebote
Alle anzeigen