Schäden in Kanalsystemen feststellen und beheben, ohne hohen Personal- und Kostenaufwand: Das ist Ziel des Projektes „AUZUKA“, an dem das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS) forscht.
Das Projekt „AUZUKA – Automatische Zustandsanalyse Kanalnetz“ wird von den Berliner Wasserbetrieben (BWB) koordiniert. Sein Ziel ist es, die Inspektion der Kanalisation stark zu erleichtern, den hohen manuellen und finanziellen Aufwand bei der Wartung von Kanalisationssystemen in Deutschland zu reduzieren. Die bisher rein manuelle Überprüfung der TV-Inspektionsbefahrungen durch Experten wird dabei durch den Einsatz einer Künstlichen Intelligenz (KI) teilautomatisiert. Das spart nicht nur Zeit und Geld, sondern unterstützt die Mitarbeiter auch bei einer sonst langwierigen und monotonen Aufgabe.
Laut einer Statistik der BWB gibt es in Berlin insgesamt 9621 Kilometer Kanalnetz, die im Intervall von 15 Jahren besichtigt werden. Umgerechnet sind das über 600 Kilometer pro Jahr – davon sind aber nur etwa vier Prozent begehbar. Der Rest wird durch Roboter aufgenommen, deren Videoaufnahmen mit hohem Aufwand durch Experten überprüft werden. Außerdem ist das Ergebnis der manuellen Inspektion oft subjektiv und kann bei verschiedenen Experten inkonsistent sein. Laut einer Untersuchung haben die Experten bei mehr als der Hälfte der Haltungen in paralleler Bearbeitung unterschiedliche Zustandsklassifizierungen festgestellt.
Automatische Schadenserfassung
Um diesen Problemen entgegenzuwirken, soll eine KI eine automatisierte Vorerfassung von Schäden durchführen, die im Anschluss von den Experten geprüft und gegebenenfalls angepasst wird. Der Gesamtprozess der Inspektion soll damit effizienter und konsistenter werden, wenn die KI die meisten potenziellen Schäden für die Experten findet. Außerdem wird ein neuer Kanalroboter entwickelt, der die Oberflächenstruktur des Rohrinneren dreidimensional aufzeichnet und damit perspektivisch wichtige Zusatzinformationen für die KI-basierte Schadenserkennung liefert.
Die KI lernt über sogenanntes „Deep Learning“, in den Aufnahmen Schäden am Rohr in Form von rechteckigen Boxen zu markieren und zu zählen. Der Lernprozess basiert auf einer großen Menge (aktuell 14,7 Kilometer) von Aufnahmen der Rohrinnenseite – die Trainingsdaten, in denen Experten der BWB und der Dr.-Ing. Pecher und Partner Ingenieurgesellschaft mbH (PP) die Fehlstellen auf die gleiche Weise markiert (annotiert) haben.
Eine große Herausforderung ist dabei die Konsistenz dieser Annotation: Selbst für Experten sind nicht alle Schäden gut zu finden, und die Eingrenzung in rechteckige Boxen sind bei verschlungenen Rissen und ineinander überlaufenden Schäden nicht einfach. Dazu kommt, dass manche Schäden wie Brüche und Deformationen selten in den Trainingsdaten auftauchen oder bestimmte Schadensarten wie Ablagerungen sehr unterschiedlich aussehen können.
Daten sind alles
Die Erfahrungen des Projekts deuten auf ein sehr verbreitetes Mantra in der KI-Entwicklung hin: Daten sind alles. So zeigte es sich, dass die Konsistenz der manuellen Schadensannotation bei unterschiedlichen Experten die Performanz der KI stark beeinträchtigt – das ist genau das Problem, das die KI lösen sollte. Dennoch schaffte sie es selbst mit den nur bisher vorhandenen 2D-Daten, 86 Prozent der Haltungssegmente richtig als schadhaft bzw. schadensfrei zu klassifizieren. Hier zeigen sich bereits Vorteile der KI-basierten Schadenserkennung.
Als weiterer Pluspunkt wird eine starke Beschleunigung der Inspektion erwartet: Die bisherige Inspektionsauswertung (bei einer Strecke von rund 2,5 Kilometer) dauert insgesamt ein bis zwei Wochen; das KI-System benötigt dagegen nur 30 Minuten, um diesen Abschnitt vorzubewerten, und sollte damit den manuellen Zeitaufwand deutlich reduzieren.
Unter der Koordination des BWB arbeiten eine Vielzahl von Organisationen Hand in Hand an den verschiedenen Teilaspekten des Projektes. Die PP ist zusammen mit den BWB Experten für die Anforderungen der Kanalisation und befassen sich mit der Datenannotation sowie der Auswertung. Das Fraunhofer IAIS, das Fraunhofer IOSB, die e.sigma Technology GmbH, die Humboldt-Universität zu Berlin und das Zentrum für Bild- und Signalverarbeitung e.V. (ZBS) arbeiten an verschiedenen Teilen der Software. Der Roboter und seine Hardware sind die Aufgabe der Kappa optronics GmbH, JT-elektronik GmbH und ZBS. Mehr Information über das Projekt und Kontaktmöglichkeiten finden Sie auf der Projektwebseite. Laura Anger, Bach Duc Ha, Lennard Bodden, Nico Höft
Die Autorinnen und Autoren: Laura Anger ist Geschäftsfeldleiterin des Teams Computer Vision in der Abteilung NetMedia am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS) in Sankt Augustin. Bach Duc Ha, Lennard Bodden und Nico Höft sind wissenschaftliche Mitarbeiter im Team Computer Vision.