Autobahnen, verkehrsberuhigte Bereiche in der Innenstadt, Eisenbahnstrecken: Die täglich genutzte Infrastruktur ist für uns alle sichtbar. Schäden können schnell erkannt und zeitnah behoben werden. Was aber passiert im Untergrund mit der »versteckten Infrastruktur«? Das Fraunhofer IAIS kümmert sich im Projekt »AUZUKA« zusammen mit vielen Partnern darum, dass Mängel und Schäden an kritischen Infrastrukturen wie der Kanalisation automatisiert erkannt und leichter priorisierbar werden.

Die Anbindung deutscher Haushalte an das öffentliche Kanalnetz von ca. 96% ist im Vergleich zu anderen Ländern sehr hoch. Das zeigt aber auch das dazugehörige Problem auf: Es geht um über 540.000 km an verlegten Rohren, die jährlich mit einem Aufwand von ca. 50 Milliarden Euro gewartet oder saniert werden müssen. Zwar liegt die durchschnittliche Nutzungsdauer bei über 100 Jahren, aber viele Rohre weisen Risse und Schäden auf, durch die z.B. umweltschädliches Abwasser sickern kann.

Wie können diese teils gigantischen Kosten reduziert werden? Die Lösung klingt einfach, ist aber wesentlich komplexer, als es den Anschein erwecken mag: Automatisierung. Um die Erkennung von Schäden weniger redundant und dadurch kostengünstiger sowie genauer zu gestalten, entwickelt das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS in Kooperation mit den Berliner Wasserbetrieben (BWB) im Projekt »AUZUKA« eine Möglichkeit, den oft ungenauen manuellen Klassifikationsanteil von Schäden an nicht begehbaren Abwasserrohren drastisch zu reduzieren. Dazu wird derzeit bestehendes und neu gewonnenes Bildmaterial, welches durch Roboter mithilfe der Panoramo®-Technologie aufgenommen wurde, genutzt. Es wird automatisch analysiert, nach Schadensarten klassifiziert und graphisch rekonstruiert.

Der Panoramo®-Roboter von IBAK wurde bisher vielfältig für die Kanalinspektion eingesetzt. Bild: Fraunhofer IAIS

In Zukunft soll eine 3D-Rekonstruktion des Kanals durch einen neu entwickelten Inspektionsroboter erstellt werden. Dieser ist mit neuen notwendigen Sensoren ausgestattet, welche 3D-Daten erzeugen, die dann anschließend automatisch ausgewertet werden, um so den Anwendern aufwändige händische Arbeitsschritte zu ersparen. Auf diese Weise kann eine bessere Sanierungsplanung und letztlich eine schnelle, kosteneffizientere Behebung relevanter Schäden durchgeführt werden.

Selbstlernende neuronale Netze

Das bereits vorliegende Bildmaterial durchläuft dafür verschiedene Schritte, konkreter: einzelne »selbstlernende« neuronale Netze – MLP (Multi-Layer Perzeptronen) – die die Eingabewerte »X« verarbeiten und anschließend Werte »Y« ausgeben. Sinnvolle Zwischenergebnisse in Hinblick auf Struktur, Materialbeschaffenheit und vorhandene Schäden werden nach und nach in neue Prozesse integriert.

Dazu wird zum einen ein Bildausschnitt aus vorliegenden Bilddaten entnommen. Dieser wird in Hinsicht auf bestimmte Bildeigenschaften (z.B. Kontrast, Helligkeit) in dem »Feature Extraction Module« untersucht und somit für folgende MLP aufgearbeitet. Die aufgearbeiteten »Features« werden an ein Strukturklassifizierungs-MLP weitergegeben, welches bestimmt, ob eine Art von Struktur (Muffe, Anschluss etc.) vorhanden ist, da bestimmte strukturelle Schwachstellen anfällig für bestimmte Schäden sind (z.B. Wurzeleinwuchs). Gleichzeitig wird in einem weiteren MLP mittels eines Farb-Histogramms die Materialbestimmung für das Bildmaterial durchgeführt. Diese Materialbestimmung ist nötig, da gewisse Schäden wahrscheinlicher bei bestimmten Materialien entstehen (z.B. Scherbenbildung bei Ton) – ähnlich wie bei Strukturen. Zusätzlich wird noch die Position auf dem Rohrumfang bestimmt, da auch diese Information ein wichtiges Indiz bei der Klassifizierung von Schäden liefern kann. Verschleiß findet man z.B. meistens im unteren Teil des Rohres.

Anschließend werden die drei ermittelten Werte (die Position auf dem Rohrumfang, die »Features«, sowie die Materialinformationen) zusammen mit den Strukturwerten an das Schadensklassifizierungs-MLP weitergegeben. Hier wird dann automatisch die Art des Schadens klassifiziert und in Form einer graphischen »Defect Map«, einer Schadenskarte für den analysierten Bildbereich ausgegeben. Parallel zur Weiterleitung an das Schadensklassifizierungs-MLP gibt das Strukturklassifizierungs-MLP auch eine »Structure Map« aus, auf der die entsprechende Struktur graphisch im Vergleich zur restlichen Struktur sichtbar gemacht wird. Das folgende Schema gibt einen Überblick:

Das Schema verdeutlicht den groben Ablauf der Datenverarbeitung im Projekt »AUZUKA« Bild: Fraunhofer IAIS

Wie geht es weiter?

Das Training der neuronalen Netze geschieht zunächst noch mit händisch erzeugten Daten früherer Aufnahmen über Stochastic Gradient Descent (SGD). Das Ziel ist, zukünftig eine automatisierte Auswertung robotisch erzeugter Bilddaten zu erreichen und regelmäßig Nachtrainings der Netze über durch Nutzer kontrollierte Daten durchzuführen.

Die Projektpartner JT-elektronik GmbH und Kappa optronics GmbH entwickeln dafür den Roboterunterbau und den Sensorkopf mit mehreren Kameras zur Erzeugung der 3D-Daten. Das Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB sorgt für eine korrekte Positionsbestimmung des Roboters im Rohr mittels Odometrie und das Zentrum für Bild- und Signalverarbeitung e.V. für die Entwicklung eines Verfahrens zur Produktion von 3D-Informationen aus dem gewonnenen Bildmaterial. Ein Kernstück des Projektes – ein virtuell begehbares 3D-Modell – wird von der Humboldt-Universität zu Berlin entwickelt. Es wird zum einen dazu dienen, den Mitarbeitern der BWB die Auswertung zu erleichtern und andererseits als Dateninput für die Neuronalen Netze des Fraunhofer IAIS fungieren. Die Software-Infrastruktur für das Projekt wird durch die e.sigma Technology GmbH bereitgestellt – die Planer der Dr.-Ing. Pecher und Partner Ingenieurgesellschaft mbH sind verantwortlich für eine Anforderungsanalyse an die Algorithmen und treffen eine Vorauswahl des Datenbestandes.

Bis Oktober dieses Jahres werden Befahrungen der Rohre mit einem neu entworfenen Prototypen stattgefunden haben, um dann im Nachgang Fehler zu beheben, eine kundenorientierte Serviceinfrastruktur aufzubauen und bis Anfang 2019 das Projekt erfolgreich abzuschließen. Gefördert wird das Projekt vom Bundesministerium für Bildung und Forschung BMBF. (mal)

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Sechs + = 7
Bitte Zahl eintragen!
image description
Experte
Alle anzeigen
Thomas Werner
  • Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS
Weitere Artikel
Alle anzeigen
Daten in Darwins Diensten
KIMBA-Quiz
Panel: Unterdrücken uns Algorithmen?
Veranstaltungen
Alle anzeigen
Stellenangebote
Alle anzeigen