Deep Learning: Ein Beispiel aus dem öffentlichen Dienst

Automatische Bilderkennung hat das Potenzial, Wasserwirtschaftsverbände spürbar zu entlasten – und so beim Hochwasserschutz zu unterstützen. Ein Fallbeispiel.

Deep Learning, eine Teildisziplin der Künstlichen Intelligenz, hat in nur wenigen Jahren für bahnbrechende Fortschritte im Bereich der automatischen Bilderkennung gesorgt. Computer sind nicht nur in der Lage, einfache Beobachtungen anzustellen (Ist eine Katze auf dem Bild zu sehen: ja/nein?): Mit dem richtigen Training erkennen sie auf Bildern blitzschnell Muster und Zusammenhänge, die der Mensch nur mit sehr viel Mühe findet – oder eben übersieht.

Um das zu veranschaulichen, habe ich Ihnen ein Deep Learning Beispiel aus dem öffentlichen Dienst mitgebracht. Wasserwirtschaftsverbände stehen regelmäßig vor der Herausforderung, Luftbildaufnahmen zum Zwecke von Gebührenberechnung und Hochwasserschutz kosten- und zeitintensiv kategorisieren zu müssen. Im Blog erfahren Sie, wie automatische Bilderkennung diesen Prozess um ein Vielfaches beschleunigen kann.

Hochwasserschutz: Eine Herausforderung für Wasserwirtschaftsverbände

Spätestens seit der Ahrtal-Flut stehen sie unter verstärkter öffentlicher Beobachtung: die kommunalen Wasserwirtschaftsverbände, zu deren Aufgaben neben Abwasserreinigung, Sicherung des Abflusses und Gewässerunterhaltung eben auch der Hochwasserschutz gehört. Ihnen obliegt es, versiegelte Flächen – also Flächen, die luft- und wasserdicht abgedeckt sind – in hochauflösenden Luftbildaufnahmen zu kategorisieren. Auf dieser Basis werden dann Kanalnetz-, Niederschlagswasser- oder weitere Gebühren erhoben.

Möglichst aktuelles Kartenmaterial vorliegen zu haben, dient nicht nur dem Zweck, jederzeit die richtigen Gebühren ausrechnen zu können – die Flutkatastrophe im Sommer 2021 hat vielmehr gezeigt, wie eminent wichtig es ist, um die Landschaftsgestaltung engmaschig überprüfen zu können. Daraus nämlich lassen sich Rückschlüsse auf mögliche kommende Katastrophen ziehen. 

Was bedeutet Flächenversiegelung?

Luftbildaufnahmen als kosten- und zeitintensives Großprojekt

In der Regel werden solche Luftbildaufnahmen alle fünf Jahre aktualisiert – ein kosten- und zeitintensiver, sich wiederholender und manueller Prozess. Trotz üppiger Ausstattung an Personal und beauftragten Ingenieurbüros werden nur ca. 10 % des Datenbestands pro Jahr aktualisiert. Die Länder verfügen in der Regel über keine zentrale Datenbank, in der Versiegelungsinformationen für wasserwirtschaftliche Anwendungen vorgehalten werden könnten. Auch eine einheitliche Methodik zur Erhebung der Versiegelungsdaten gibt es nicht. So muss man sich zumeist auf Schätzungen berufen und zieht dabei Analysen von Daten aus digitalisierten Luftbildern oder abgeschätzten Durchschnittswerten für Verkehrs- und Siedlungsflächen heran.

Mit Data Science wertvolle Informationen erkennen

Extrahieren Sie mit Data Science versteckte, wertvolle Informationen aus großen Datenmengen, um so künftig datenbasierte Entscheidungen treffen zu können. Setzen Sie in dem Rahmen auf KI und Deep Learning und sparen Sie z. B. mit automatischer Bilderkennung Zeit und Kosten. Unser Expertenteam unterstützt Sie dabei!

Exkurs – GeoAI

Luftbilder kommen in vielen Bereichen zum Einsatz – beispielsweise, für Stadtplanung, bodenkundliche Erhebungen, Beweissicherungen in Schadenfällen oder wenn die Forst- und Landwirtschaftsbetriebe ihre Ertragsoptionen sichten wollen. Doch bis aus solchen Luftbildern aussagekräftige Karten werden, die als Analysegrundlage dienen, ist ein stark manueller Prozess erforderlich. Der Grund: Objekte oder Flächen müssen bisher weitestgehend manuell markiert werden. Hier kommt einiges zusammen. Wollen Städte beispielsweise die Gesamtfläche von Grünflächen, Wasserkörper oder versiegelte Flächen für ihre Region herausfinden, müssen Fachkräfte in der Verwaltung oft stundenlang Polygone auf eine Hintergrundkarte zeichnen.

Dank Künstlicher Intelligenz lässt sich die Objekt- und Flächenerkennung auf digitalen Karten heute automatisieren. Unterscheiden lassen sich dabei vier Anwendungsbereiche:

Image Classification

Image Classification ordnet ein gesamtes Bild einer bestimmten Kategorie zu. So kann ein Modell beispielsweise trainiert werden, nach einem Sturm beschädigten von unbeschädigten Gebäuden zu unterscheiden.

Object Detection
Image Segmentation
Instance Segmentation

Bilderkennung von X-INTEGRATE nutzt Deep Learning

X-INTEGRATE hat eine Lösung entwickelt, die unter Zuhilfenahme KI-basierter Methoden (Deep Learning) versiegelte Flächen aus Luftbildaufnahmen automatisiert bestimmt. Die Entwicklung eines solchen Modells, das die verschiedenen Arten der Versiegelung genau vorhersagt, ist von besonderer Bedeutung – eben weil die bisherigen Verfahren viel Know-how erfordern und der Arbeitsaufwand immens ist, Luftbildaufnahmen zu betrachten und zu versuchen, die Versiegelungsart zu bestimmen, um jene schließlich mit Polygonen einzuzeichnen.

Statt diesem kostenintensiven und zeitaufwändigen Prozess wird in der Lösung von X-INTEGRATE ein Modell anhand der von Fachkräften eingezeichneten Polygonen trainiert, das automatisch die Art der auf den Luftbildaufnahmen dargestellten Flächen vorhersagt. Diese Aufgabe wird in Computer Vision „semantische Segmentierung“ genannt. Sie stellt ein Bild auf Pixel-Ebene dar, indem jedes Pixel eines Bildes einer bestimmten Klasse zugeordnet wird. Deep Learning kommt hier zum Einsatz, um eine Zusammenstellung von Pixeln zu erkennen, welche die verschiedenen Klassen bilden.

Beispiele für semantische Segmentierung
Beispiele für semantische Segmentierung

U-Net-Algorithmus für die Segmentierung von Anwendungen

Beispielhafte Darstellung des U-Nets mit Luftbildaufnahmen als Input und den zugehörigen Ausschnitten des Shapefiles als Output.

Es gibt viele semantische Segmentierungsalgorithmen wie U-Net, LinkNet, Mask-R-CNN, FPN, usw. Dabei handelt es sich tiefe künstliche neuronale Netze, welche für einen erfolgreichen Trainingsprozess einen Datensatz mit zwei Informationen benötigen:

  1. Ein Rasterbild (Luftbildaufnahme), das den Input darstellt und
  2. eine Segmentierungsmaske (Shapefile), welches das Label für jedes Pixel im Rasterbild enthält

Der U-Net-Algorithmus besteht aus zwei Teilen: Ein Encoder reduziert schrittweise die räumliche Dimension mit Pooling Layern, während der Decoder sukzessive die Objektdetails und die räumliche Dimension wiederherstellt. U-Net Architekturen haben sich als überaus nützlich für die Segmentierung verschiedener Anwendungen erwiesen, z.B. bei medizinischen Bildern (z.B. Krebsdiagnostik), Straßenansichten, Satellitenbildern usw.

Diese Technologien nutzen wir im Projekt

Wir setzen unsere Lösung auf der Google Cloud Platform, dem Public Cloud-Angebot von Google, um. Dadurch sparen sich Kund:innen zum einen Investitionen in die eigene Infrastruktur, zum anderen profitieren sie von verschiedenen Google Services in den Bereichen Datenverarbeitung und -speicherung sowie Entwicklung. Im Deep Learning Projekt kommen unter anderem folgende Services zum Einsatz:

Vertex AI

Die Machine Learning (ML)-Plattform von Vertex AI erlaubt es uns, ML-Modelle schnell zu erstellen, bereitzustellen und zu skalieren – sowohl vortrainierte als auch eigene Modelle. 

Cloud Storage
TensorFlow

Fazit: Zeitersparnis und detailliertere Ergebnisse

Die neue Lösung ermöglicht es, neue georeferenzierte Luftbildaufnahmen und erste Erkenntnisse über den Versiegelungsgrad sehr schnell vorherzusagen. Das Ergebnis sind GeoTiff-Dateien, die der Fachbereich in sein spezifisches GIS-System einspielen kann, um die Folgeprozesse und Abrechnungsmechanismen zu bedienen. Dies bietet einerseits großes Potential und eine zeitsparende Alternative zur klassischen manuellen Bestimmung der Versieglungsflächen. Andererseits kann dadurch der vorhandene Datenbestands sehr viel engmaschiger aktualisiert werden. Eine Verbesserung kommunaler Aufgaben auf allen Ebenen also.

Das Data & AI Team der X-INTEGRATE unterstützt Sie gerne auch bei ihrem Vorhaben. Wie wäre es mit einem Einstieg über einen Data Science Use Case Workshop?


Data Science Use Case Workshop

Inhalte des Data Science Use Case Workshops
  • Vorstellung des Status quos des jeweiligen Use Cases
  • Vorstellung wichtiger Konzepte und Methoden – weg von Buzzwords, hin zum Verständnis
  • Verwendung der TIMETOACT-Methode, um Hypothesen zu erarbeiten
  • Prüfung und Validierung notwendiger Daten
  • Sicherstellung der Machbarkeit und Realisierbarkeit des Use Cases
  • Entwicklung eines analytischen Konzepts
Ablauf Data Science Use Case Workshop
Ergebnisse des Data Science Use Case Workshops

In einer internen Nachbereitung wird eine Dokumentation des Workshops erstellt. Außerdem erarbeiten wir, basierend auf unseren Erfahrungswerten, konkrete Empfehlungen und nächste Schritte.


Über den Autor: Matthias Bauer

Matthias Bauer ist seit 2020 als Teamlead Data Science bei der X-INTEGRATE (Teil der TIMETOACT GROUP) und bringt mehr als 15 Jahre Expertise als Solution Architect mit. Daten dafür nutzen, Großes zu schaffen und Mehrwerte zu erzielen – in seinen Worten: Data Thinking – ist seine Leidenschaft. Matthias ist erfahren in Artificial Intelligence, Data Science und Data Management; dabei bedient er von Data Warehousing bis hin zu Data Virtualization ein breites Spektrum an datenbezogenen Fragestellungen.  

Matthias Bauer
CTO & Teamlead Data ScienceX-INTEGRATE Software & Consulting GmbHKontakt

Sprechen Sie uns gerne an!

Sie interessieren sich für einen Date Science Use Case Workshop? Oder haben allgemein Fragen zu unseren Services rund um Data Science und AI? Schreiben Sie uns einfach eine Nachricht – wir melden uns schnellstmöglich bei Ihnen zurück!

* Pflichtfelder

Wir verwenden die von Ihnen an uns gesendeten Angaben nur, um auf Ihren Wunsch hin mit Ihnen Kontakt im Zusammenhang mit Ihrer Anfrage aufzunehmen. Alle weiteren Informationen können Sie unseren Datenschutzhinweisen entnehmen.