Datengetriebene Module für Predictive Maintenance
Betrachtung verschiedener Module für eine datengetriebene, vorausschauende Wartung

Burkhard Hoppenstedt, Rüdiger Pryss, Alexander Treß, Bernd Biechele und Manfred Reichert

Der Wunsch aus Produktionsdaten einen vorausschauenden Wartungszyklus abzuleiten, definiert das Umfeld des Themengebiets Predictive Maintenance. Hierbei unterscheiden sich die jeweiligen Anforderungen an eine Anwendung sehr stark, u. a. aufgrund der zugrunde liegenden Datenbasis, bestehenden Echtzeitanforderungen und vorhandenem Expertenwissen. Im Folgenden wird erörtert, welche Module in den Kreislauf eines Predictive Maintenance Systems einfließen können. Ein Schwerpunkt liegt auf der Datenreduktion mittels der Principal Component Analysis.

Das Themengebiet Predictive Maintenance ist kein neues Thema. Inhaltlich bewegt es sich im Themenumfeld der Automatisierung und kann softwareseitig in ein Manufacturing Execution System integriert werden (vgl. Bild 1). Die Integration ermöglicht es wiederum, dass Ergebnisse aus der Auswertung von Maschinendaten in die Produktionskontrolle miteinbezogen werden können. Im ersten Teil dieses Beitrags stellen wir ein Predictive Maintenance System anhand einer grundlegenden Modulstruktur vor (vgl. Bild 2) und diskutieren ausgewählte Module (vgl. die fettgedruckten Module im Folgenden mit Bild 2). Anschließend stellen wir entlang eines realen Industriedatensatzes eine Methode zur Datenreduktion vor, die einen wichtigen Bestandteil im Kontext von Predictive Maintenance darstellen kann.  


Bild 1: Predictive Maintenance kann Teil eines MES sein.
Jedoch ist es kein isoliertes Modul, sondern es nutzt,
erweitert und steuert vorhandene Module.


Teil 1: Modulstruktur für Predictive Maintenance Systeme

Aufgrund der umfangreichen Funktionalitäten eines Predictive Maintenance Systems, wurde ein Übersichtsschaubild der Komponenten entwickelt (vgl. Bild 2). Dieses wird im Folgenden erläutert. Zur Einführung eines Predictive Maintenance Systems [1] muss eine Datenbasis des gesamten Maschinenzustandes extrahiert werden. Um dies zu ermöglichen, ist folgende Frage von zentraler Bedeutung: Welche Genauigkeit wird für die Messdaten benötigt? Die Aufgabe des verantwortlichen Sensormoduls liegt darin, (a) einen kontinuierlichen Verlauf der Maschinensignale durch Abtastung zu diskretisieren, (b) die gewünschte Signalauflösung durch Quantisierung festzulegen sowie ggf. (c) eine Metastruktur zur Organisation der Daten zu identifizieren. Eine Metastruktur könnte entstehen, indem die Maschinensignale mit der Protokollsprache Open Platform Communication Unified Architecture (OPC-UA) softwareseitig wiederum als Maschine abgebildet werden. Um Fehler bei der Übertragung von kontinuierlichen zu diskreten Werten während der Abtastung zu vermeiden, sollte das Nyquist-Shannon-Abtasttheorem [2] beachtet werden, welches eine vollständige Rekonstruktion des Ursprungssignals ermöglicht, indem die Abtastrate größer als die doppelte Ursprungsfrequenz des Datensatzes gewählt wird (d. h. fabtast>2*fmax(signal)). Im Bereich von Maschinen mit hochfrequenten Signalen führt dies zu sehr hohen Anforderungen an die Sensorik. Mittels der Quantisierung kann eine verlustbehaftete Kompression durchgeführt werden. Durch das Auf- oder Abrunden des Signalwertes auf die nächste Quantisierungsstufe, welche durch die Schrittweite ∆ ermittelt wird, ergibt sich der verwendete diskrete Wert. Der Quantisierungsfehler wird durch die mittlere quadratische Abweichung (engl. MSE – Mean Square Error) angegeben. Nach diesen zwei Schritten liegt der gemessene Wert digital im System vor und kann durch Meta-Informationen wie Maschineninformationen (z. B. Laufzeit) ergänzt werden. Um die Sinnhaftigkeit der erhaltenen Werte zu überprüfen, wird optional das Modul Data Quality ausgeführt. Folgende Fragestellungen sind in diesem Kontext relevant:

  • Consistency: Sind die Daten konsistent? 
  • Validity: Passt die Intervallzuordnung und der Datentyp? 
  • Completeness: Sind alle Sensorwerte gesetzt oder gab es NULL-Einträge?
  • Timeliness: Lassen die Zeitstempel Rückschlüsse auf Verzögerungen zu?
  • Accuracy: Ist die Auflösung gut genug gewählt worden (vgl. MSE)?

Sollte eine dieser Bedingungen verletzt sein, kann ein Datensatz in der Datenbank als korrupt markiert werden und ein Hinweis an das Monitoringmodul gesendet werden. In einem Dashboard werden Verlaufsinformationen, Hinweise und Empfehlungen visualisiert. Eine Verletzung der Completeness-Bedingung könnte beispielsweise durch den Hinweis aufbereitet werden, dass nicht alle benötigten Sensoren angeschlossen sind.