Was Predictive Maintenance, Digitale Zwillinge und die Validierung von Messstellen gemeinsam haben


Predictive Maintenance, Digitale Zwillinge und Messstellen-Validierung sind drei Themen, um die heute kein Automatisierungs-Anbieter mehr herum kommt. Und obwohl diese ganz unterschiedlich daherkommen, gibt es doch einige Gemeinsamkeiten

Prozessdaten

Predictive Maintenance, Digitale Zwillinge und Messstellen-Validierung funktionieren nicht ohne Daten aus dem Prozess (der beim digitalen Zwilling auch simuliert sein kann). Welche und wie viele Daten das sind ist aber sehr unterschiedlich. Die Validierung von Messstellen braucht deutlich weniger Eingangsgrössen als beispielsweise der digitale Zwilling für eine Ofenlinie in einem Zementwerk. Umgekehrt sind für die Messstellen-Validierung viel mehr Einzelwerte erforderlich. Klar ist: Sobald Stundenwerte oder kleinere Intervalle benötigt werden oder gar Rohwerte aus vielen Messstellen analysiert werden müssen, ist man ohne eine Datenbank schnell am Anschlag.

Prozessmodell

Mindestens für den digitalen Zwilling und eine Messstellen-Validierung nach VDI 2048, mit Vorteil auch für Predictive Maintenance-Konzepte * muss ein Prozessmodell erstellt werden. Und dafür ist verfahrenstechnisches Know-How viel wichtiger, als "das richtige" Tool für die Modellierung. Oft ist es so, dass Softwarelösungen für verfahrenstechnische Modellierungen bestimmte Sachen sehr gut können, andere Sachen dafür weniger gut oder gar nicht. Für Teilbereiche oder Prozessabschnitte kann es zudem sinnvoll sein, vom klassischen Bilanzieren und Modellieren à la VDI-Wärmeatlas abzuweichen. Insbesondere wenn die physikalischen Zusammenhänge unbekannt sind (oder nicht zu den Messwerten passen) bieten sich KI-Modelle an, basierend auf statistisch ermittelten Zusammenhängen zwischen den Ein- und Ausgangsgrössen.

* Das Prozessmodell erlaubt dann, mehrere Messstellen/Anlagenkomponenten gemeinsam zu betrachten, mit entsprechend höherem Erkenntnisgewinn.Detaillierungsgrad

Wie detailliert analysiert, modelliert und validiert werden muss hängt einzig davon ab, welche Erkenntnisse gewonnen werden sollen und welche Prozessdaten dafür überhaupt vorliegen. Bei einem "digitalen Zwilling" geht man von vorn herein davon aus, möglichst jede Komponente mit einzuschliessen. Was in den meisten Fällen weder nötig noch datentechnisch überhaupt möglich ist. In der Regel wird das Modell nach ersten Probeläufen oder späteren Änderungen im Prozess nochmals überarbeitet. Dann wäre es natürlich gut, den Detaillierungsgrad einfach anpassen zu können.


Wir sehen, dass Themen wie "Predictive Maintenance", "Digital Twins", "Big Data" und "KI" nach wie vor ziemlich im Trend sind. Als Verfahrenstechniker ist uns aber klar, dass dafür ganz normale, oft spannende, manchmal aber auch langweilige Ingenieurarbeit zu leisten ist: R&Is lesen, Prozessdaten sammeln und auswerten, Prozessmodelle erstellen und validieren, Kennzahlen ableiten, Optimierungen durchführen.

Falls Ihnen das bekannt vorkommt, Sie das "richtige Tool" aber noch nicht gefunden haben, zeige ich Ihnen OpenPi gerne einmal Live. Sie werden begeistert sein *


Dr.-Ing. Martin Horeni, 12/2021