Skip to Content
[Translate to German:] two man looking straight into the camera

Was „Das Boot“ mit Sensorüberwachung zu tun hat

  • Datenwissenschaften
  • Forschung

Bei Lebensmitteln versucht man immer öfter, unnötige Transportwege zu vermeiden. Und bei Daten? Warum sich das gleiche Prinzip bei der Verarbeitung von Sensordaten aus kritischen Infrastrukturen lohnen und wie es technisch umgesetzt werden könnte, hat Carsten Trinitis, Professor am TUM Campus Heilbronn, erforscht.

 

Wenn Carsten Trinitis das Prinzip des „Real-Time Sensor Monitoring“ erklärt, erwähnt der Professor für Rechnerarchitektur und Betriebssysteme an der TUM School of Computation, Information and Technology (CIT) in Heilbronn gerne den Obermaschinisten Johann aus dem Film „Das Boot“: Der kauzige Charakter hört ständig mit einem Hörrohr die Dieselmotoren seines U-Boots ab, um ungewöhnliche Geräusche und damit mögliche Schäden frühzeitig zu erkennen.

Ähnlich funktioniert Real-Time Sensor Monitoring, das in zahlreichen kritischen Infrastrukturen zur Anwendung kommt: Sensoren horchen in Kraftwerke, IT-Infrastrukturen oder Stahlkocher hinein, indem sie permanent verschiedene Messdaten überwachen. Auf diese Weise stellen sie sicher, dass keine Schäden oder andere Unregelmäßigkeiten auftreten und der Betrieb zuverlässig weiterläuft.

 

Verarbeitung an der Datenquelle bietet viele Vorteile

 

Dabei erzeugen die Sensoren Unmengen von Daten, die bisher in Clouds weiterverarbeitet werden sollen. Das Problem: Nur ein Teil der Daten kommt dort an, denn je nach Infrastruktur kann es sehr aufwändig sein, sie in die Cloud zu übertragen. Prof. Trinitis erklärt das am Beispiel von Kraftwerken: „Diese sind auf der ganzen Welt verteilt. Nicht überall gibt es schnelle Netzanbindungen. Also ist es besser, weniger Daten und dafür relevante zu übertragen.“ Eine mögliche Lösung: Die Masse der unauffälligen Daten wird bereits an der Datenquelle, der sogenannten Edge, herausgefiltert, nur die kritischen Ausreißer werden an die Cloud geschickt. Die Verarbeitung an der Datenquelle, das Edge-Computing, verbraucht zudem weniger Energie und ist damit nachhaltiger.

Die Kombination von Edge- und Cloud-Computing und die Verarbeitung von Sensordaten für KI-Anwendungen waren zentrale Inhalte des „SensE“ (Sensors on the Edge)-Projekts der TUM in Kooperation mit der Ingenieurbüro für Thermoakustik GmbH (IFTA) im oberbayrischen Puchheim. Das Projekt mit einem Volumen von rund einer Million Euro lief von 2021 bis Sommer 2024 und wurde zur Hälfte von der Bayerischen Forschungsstiftung gefördert. Prof. Trinitis leitete SensE zusammen mit Martin Schulz, Professor für Rechnerarchitektur und Parallele Systeme an der TUM in Garching, und Dr. Roman Karlstetter, Technical Lead Software bei IFTA. 

 

Jedes Problem schwingt anders

 

Das Projekt griff sich einen Anwendungsfall von Real-Time Sensor Monitoring heraus: ein Gaskraftwerk in Deutschland mit zwei Turbinen. Die Sensoren dort überwachen akustische Schwingungen der Turbinen in Echtzeit, um sicherzustellen, dass alles im optimalen Bereich läuft – Obermaschinist Johann lässt grüßen. 

Prof. Trinitis berichtet von einem Zwischenfall, der in den aufgezeichneten Sensordaten erkennbar ist: „Einmal ist eine Brennkammer an der Gasturbine kaputtgegangen. Das hat charakteristische Schwingungen im ganzen Apparat verursacht, die auf genau diesen Zwischenfall hinweisen. Ein Riss in der Welle zum Beispiel würde andere Schwingungen auslösen.“

Die Kombination von Edge- und Cloud-Computing bot auch beim Training eines KI-Modells zur Anomalieerkennung Vorteile: Das aufwändige Training erfolgte in der Cloud, die mit Daten aus verschiedenen Edge-Quellen versorgt wurde. Danach wurde das Modell wieder auf die Edge zurückgespielt und dort angewendet.

 

Win-win-Situation für alle Beteiligten

 

Die zentralen Meilensteine des Projekts fasst Prof. Trinitis zusammen: „Wir haben verschiedene Rechnerarchitekturen für die Edge untersucht, um herauszufinden, welche sich am besten für die Datenverarbeitung eignen. Dabei haben wir unterschiedliche Prozessormodelle und Machine-Learning-Algorithmen analysiert, unter anderem den derzeit viel diskutierten ,Transformer‘. Unsere Doktorandin Dai Liu hat intensiv daran gearbeitet, diese modernen Machine-Learning-Algorithmen speziell für die Verarbeitung von Zeitreihen-Daten an der Edge anzuwenden.“

Roman Karlstetter von der IFTA GmbH fügt hinzu: „Im SensE Projekt haben wir bis dahin ungelöste Probleme bei der Verarbeitung von Sensordaten, insbesondere für die Nutzung in KI-Szenarien, erforscht.“ Das wichtigste Ergebnis aus seiner Sicht ist ein Demonstrator, der Sensordaten von Hochleistungs-Gasturbinen kontinuierlich analysiert und sich langsam entwickelnde Schäden mehrere Tage im Voraus erkennen kann. „Dieser Demonstrator nutzt große Mengen historischer Sensordaten, um eine KI-basierte Methode zu trainieren“, erklärt er. „Dadurch konnte gezeigt werden, dass die im Forschungsprojekt entwickelten Methoden für echte Probleme in der Industrie nützlich sind. Eine vergleichbare Entwicklung wäre ohne die Ergebnisse aus dem Forschungsprojekt technisch nur schwer zu realisieren“, ist er sich sicher.