Ein Teil der Infrastruktur in Deutschland muss zur Sicherstellung ihrer Funktionalität inspiziert und saniert werden. Das betrifft auch die Abwasserkanalsysteme, die zum Teil schon über 100 Jahre alt sind. Forscher am Fraunhofer IAIS entwickeln gemeinsam mit den Berliner Wasserbetrieben und weiteren Partnern eine Methode, wie mit Hilfe von Neuronalen Netzen Beschädigungen automatisch erfasst und kategorisiert werden können. Denn bislang muss jeder Quadratmeter noch von Menschen kontrolliert werden. Das aber ist ebenso kostenintensiv wie fehleranfällig.

Und da reden wir immer von Brücken, Autobahnen und anderen Schnellstraßen! – Weil Wartungen und Reparaturen gerade hier so wichtig sind für die Infrastruktur in Deutschland. Dabei liegt die vielleicht wichtigste Infrastruktur nicht auf, sondern unter der Erde. Mit rund 575.000 Kilometern ist das Abwasser-Kanalnetz einer der umfangreichsten Bauten der Nation. Zum Vergleich: Unser gesamtes Autobahnnetz umfasst nur 13.000 Kilometer, nimmt man Bundes-, Landesstraßen und Kreisstraßen hinzu, sind es »lediglich« 200.000 Kilometer mehr. In einem aber sind sich die beiden Infrastrukturen weitestgehend ähnlich: Sie befinden sich in einem sanierungsbedürftigen Zustand. Prüfen lässt sich das in der Regel schon per Augenschein. Und die Anschauung ist auch nach wie vor das entscheidende Mittel, um über- und unterirdische Bauwerke auf Schäden hin zu untersuchen.

Bei den Kanälen ist das aber aus verschiedenen Gründen ein Problem. Sie haben oftmals nur einen Durchmesser von weniger als einem Meter. Und selbst, wenn sie begehbar sind: Gerüche und der Kontakt mit vielerlei Krankheitserregern erschweren eine Begehung erheblich. Zuständige Unternehmen und Behörden setzen deshalb auf Kontrolle mit Hilfe von Kamerafahrzeugen, die durch die Kanäle gesteuert werden. Die Schäden, die sich dabei bei den zum Teil über 100 Jahre alten, städtischen Kanalsystemen auftun, sind immens: Bei einem Gesamtwert des Kanalsystems von fast 700 Milliarden Euro besteht bei fast einem Drittel der Netzwerke Handlungsbedarf.

Eine grafische Darstellung der Objektdetektion. Bild: Fraunhofer IAIS | BWB

Kanalinspektion mit dem Kamerafahrzeug

So auch im Untergrund von Berlin: Hier arbeiten die Berliner Wasserbetriebe intensiv und mit Kamerafahrzeugen an einer Inspektion der knapp 10.000 Kilometer langen Abwasserkanäle. Das Problem hier wie an anderen Orten aber ist, dass die Bildauswertungen, immer noch vom Menschen durchgeführt werden müssen. Das sind fast 1.000 km pro Jahr. »Das ist nicht nur zeit- und kostenintensiv. Menschen machen naturgemäß auch Fehler. Unter anderem, weil sie ermüden oder kurzzeitig abgelenkt sind«, konstatiert Dr. Florian Zimmermann vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS. Gemeinsam mit Partnern arbeitet das Verbundteam unter anderem mit Fachleuten der Berliner Wasserbetriebe am vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekt »Automatische Zustandsanalyse von Abwasserkanälen durch virtuelle Begehung« (AUZUKA). Sie suchen Möglichkeiten, Ablagerungen, Lageabweichungen, Risse oder auch eingewachsene Wurzeln automatisch erkennen zu lassen. Der Fokus dabei liegt auf Beton, Steinzeug- und Kunststoffrohren zwischen 20 und 160 Zentimetern. »Wir wollen aber nicht nur erforschen, wie ein durch die Kamera aufgenommener Schaden zuverlässig erkannt werden kann. Wir wollen mit Hilfe modernster Technik auch Möglichkeiten schaffen, wie der Schaden automatisch klassifiziert werden kann. Selbst wenn er, wie beispielsweise ein Haarriss, nur wenige Millimeter breit ist«, erklärt Zimmermann. Das Erreichen beider Ziele aber ist mit ungewöhnlichen Schwierigkeiten verbunden. Denn wie soll eine IT den Fachmannblick und auch das ›Bauchgefühl‹ eines Experten übernehmen, der in jahrelanger Erfahrung gelernt hat, wo welche Schäden zu vermuten sind und wo – Stück für Stück - genauer nachgesehen werden sollte?

Dieses Problem der »semantischen Segmentierung« wollten die Forscher ursprünglich mit einem »patch-basierten sliding window-Ansatz« lösen: »Weil die Datenmengen bei unseren Bildgrößen von 1.200 Pixeln bis zu mehreren 10.000 Pixeln deutlich zu groß sind, um sie auf einmal zu verarbeiten, untersuchen wir die Bilder mit einer Art »Viereck«, also einem »sliding-window«, um das Bild Position für Position ›abzugrasen‹«, erklärt Zimmermann. Das Problem dabei aber sei gewesen, dass Objekte wie Risse oder Wurzeln, die sich zwischen zwei Positionen befunden haben, nur mit großen Problemen auch tatsächlich erkannt wurden. Die Forscher nutzten deshalb das sogenannte »scene labeling«, bei dem jedem einzelnen der Pixel eine bestimmte Schadensart zugeordnet wird. So kann beispielsweise ein Wurzelpixel mit gelb und ein Riss-Pixel mit rot markiert werden. Ähnlich einem Fernsehgerät, bei dem man sehr nahe an den Bildschirm geht und die einzelnen Pixel sieht, sind die Einzelinformationen dann zwar sehr detailliert. Andererseits entsteht nun aber das Problem, den »Wald vor lauter Bäumen« beziehungsweise das Bild vor lauter Einzelpixeln nicht richtig zu sehen.

Neuronale Netze detektieren Beschädigungen

Die Forscher erweiterten deshalb ihre Methode mithilfe von »object detection«. Hier sucht eine Maschine automatisch nach Zusammenhängen. »Leisten kann das in unserem Fall aber nur ein flexibles und lernfähiges System wie ein neuronales Netz«, sagt Zimmermann: »Es kann die Erkennungsleistung von Fachexperten zumindest im Ansatz nachbilden – sofern es entsprechend geschult beziehungsweise trainiert ist.« In diesem Training liegt das für die Forscher umfassendste Problem. Denn jede Machart des Kanalrohrs und jede Varianz im Beton, Steinzeug oder Kunststoff kann auf etwas anderes hindeuten«, sagt Zimmermann. Die Forscher beziehungsweise zwei Assistenten haben deshalb die Aufnahmen eines nur 400 Meter langen Kanalabschnitts in tagelanger Kleinarbeit analysiert und »Pixel für Pixel« durchleuchtet, um festzuhalten, was darauf zu sehen ist. Nur so kann dem Neuronalen Netz »beigebracht« werden, wie auch kleinste Auffälligkeit zu interpretieren sind. »Zusätzlich zu dieser – im wahrsten Wortsinn ›Kleinstarbeit‹ müssen wir auch die normale Arbeitsweise klassischer KI sozusagen ›umkehren‹«, erklärt Zimmermann. Während Neuronale Netze üblicherweise lernen zu abstrahieren und mit Näherungen zu arbeiten, muss das AUZUKA-System genau gegenläufig arbeiten und feinste Strukturen besonders beachten.

»AUZUKA ist schon dann ein Erfolg, wenn die schadensfreien Abwasserkanäle nicht mehr manuell ausgewertet werden müssen. Und die KI könnte der Begutachtung durch Experten dann assistieren, wenn mit hoher Trefferquote Schadensklassifizierungen je nach Art und Ausmaß markiert zur Verfügung gestellt werden«, sagt Verbundleiter Jan Waschnewski von den Berliner Wasserbetrieben. Das exakte und zeitraubendes Training und die besondere Denkweise der KI sei deshalb elementar für den Erfolg des Projekts. Gelingt dies aber – und die ersten Tests sprechen dafür – dann sollen Erkenntnisse und Ergebnisse auf das Erfassen weiterer Kanalabschnitte übertragen und die prototypische Arbeit ausgeweitet werden. Mittelfristig, so die Hoffnung der Experten, könnte AUZUKA dann den Grundstein legen für eine automatisiert assistierende und »treffsichere« Kontrolle der wohl wichtigsten deutschen Infrastruktur. Dann könnten die Roboter nicht nur automatisch in die Röhre schauen. Sie könnten auch etwas erkennen.

(aku)

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Eins + = 2
Bitte Zahl eintragen!
image description
Experte
Alle anzeigen
Dr. Florian Zimmermann
  • Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS
Weitere Artikel
Alle anzeigen
Zukunft der Arbeit - Zukunft der Informatik
Teilhabe durch Robotik
Was ist die Zukunft des Prozessmanagements?
Stellenangebote
Alle anzeigen