Machine Learning

Verbunden mit weiteren Kerntechnologien wie ARM-Mikrocontrollern, IoT Gateways, Cloudtechnologie oder Fast Data ist unsere Anwendung des maschinellen Lernens. Ziel beim Machine Learning ist es, Maschinen- und Anlagendaten zu bündeln, zu speichern und zu analysieren. Auf diese Weise wird es der Maschine ermöglicht, dass sie eigenständig Wissen erzeugt, welches auf selbst gesammelten Erfahrungen beruht. Die vorausschauende Wartung und Instandhaltung wird so auf ein neues Level gehoben, da die Analyse sehr großer Datenmengen automatisiert abläuft und sich entsprechende Lösungsansätze für neue sowie bisher unbekannte Probleme identifizieren lassen.

  • Daten werden gesammelt, gespeichert und analysiert
  • datengestützte Vorhersagen
  • Wahrscheinlichkeitsberechnung für Ereignisse
  • selbstständige Anpassung an die Datenentwicklung
  • Mustererkennung und -analyse
  • Prozessoptimierung

Damit Maschinen und Anlagen – mittels der dahinterliegenden und eingesetzten Software – selbstständig lernen und Lösungen finden, müssen die technologischen Grundlagen geschaffen und passende Algorithmen implementiert werden. Um Predictive-Maintenance-Funktionalitäten umzusetzen, verwenden wir eigens entwickelte, hochoptimierte und GPU-gestützte Machine-Learning-Algorithmen.

Ein Grund für die GPU-Nutzung ist die Performanceverbesserung im Vergleich zur normalen CPU-Umsetzung. GPUs erlauben es, auf sehr vielen Rechenkernen sehr viele Threads (Aufgaben) parallel und in Echtzeit zu bearbeiten. Im Gegensatz dazu sind die wenigen Kerne einer CPU auf die Optimierung der Single-Thread-Performance ausgelegt. Hinzu kommt eine schnellere Speicheranbindung der GPU. Für den Predictive-Maintenance-Sektor und dessen Aufgaben ist das Machine Learning via GPU daher effektiver und effizienter, da Aufgaben bzw. Daten schneller be- und verarbeitet werden und so ein erheblicher Zeitvorteil besteht. Insgesamt stellt die GPU-Nutzung mehr Ressourcen für die Berechnung komplexer, simultaner Prozesse (Matrixberechnungen) mit einer hohen Rechengeschwindigkeit zur Verfügung und bietet damit die optimale Basis für unsere Machine-Learning-Algorithmen.

Grundlegend im Machine Learning ist also die Lernphase unter Nutzung der Leistung einer GPU. Das erlernte Systemverhalten nutzt der Algorithmus daraufhin, um den aktuellen Zustand zu bewerten. Dazu werden die erlernten Daten auf das IoT Gateway transferiert. Dieses nutzt die relevanten Daten an dieser Stelle, um eine Zustandsbewertung in Echtzeit vorzunehmen. Anhand dieser Bewertung werden – je nach Systemzustand – Entwicklungen und Abweichungen erkannt, so dass bei Problemen selbstständig Gegenmaßnahmen ergriffen werden.

Ziel im Predictive-Maintenance-Umfeld und in unserem Modul weMonitor ist es, mittels Machine Learning Probleme frühzeitig zu identifizieren und präventiv einzugreifen. Elementar für Maschinennutzer ist ein ausfallsicherer Betrieb und die Sicherstellung einer hohen Leistung als auch eine optimale Auslastung der eingesetzten Maschinen. Die Bandbreite des Machine Learning erstreckt sich dabei über Identifizierung von Abweichungen der definierten und erlernten Sensorwerte, das Erkennen von Verschleißteilen und dem Vorhersagen zukünftiger, kritischer Ereignisse. In allen Fällen ist der Anspruch unserer Machine-Learning-Lösungen, einen Maschinenausfall zu vermeiden, die Anlagenleistung zu steigern, Wartungsintervalle zu optimieren sowie Instandhaltungs- und Reparaturkosten zu minimieren.

Um den Anforderungen der Anwender gerecht zu werden und den Betreibern eine optimale Analyse via weMonitor zur Verfügung zu stellen, haben wir unsere selbst entwickelten Predictive-Maintenance-Alogrithmen speziell auf das Anwendungsszenario zur Bewertung des Maschinenzustandes optimiert. Entsprechend unserer weSupport-Applikationen und den damit verknüpften Technologien ist für uns auch im Machine Learning die kundenindividuelle Anpassung ein wichtiger Schritt für ein ideales Ergebnis. Die Grundlage hierfür bilden zwei Algorithmen:

Verschleißsituationen lassen sich insbesondere anhand von Schwingungsdaten identifizieren. In diesem Fall kommt es zu wiederholten, zeitlichen Veränderungen von relevanten Zustandsgrößen. Der Verschleiß entsteht an dieser Stelle durch die Schwingungen selbst. Die Abnutzung kann dabei in verschiedenen Formen auftreten: Adhäsion (Veränderung der Oberflächenbeschaffenheit durch Reibung), Tribooxidation (Entstehung harter Oxidpartikel) oder Oberflächenzerrüttung (mit möglichem Bruch des Materials).

Im Zeitverlauf ergeben sich daher immer wieder Veränderungen am Material, welche auch in den Schwingungsdaten deutlich werden. Mittels Machine Learning kann diese Entwicklung nachvollzogen und so angelernt werden. Mit diesem Wissen ist es nun möglich, die Analyse zu verfeinern und kritische Verschleißsituationen zu erkennen, bevor sie auftreten. In Abstimmung mit anderen Kerntechnologien wie dem ARM-Mikrocontroller Cortex M7, IoT Gateway und Cloud Computing erfolgt die Verarbeitung der Schwingungsdaten in Echtzeit. Die relevanten Daten werden so ohne Verzögerung weiter aufbereitet und der Machine-Learning-Algorithmus während des Betriebs weiter verfeinert.

Ein zweiter Algorithmus kommt für die multidimensionale Anomaly Detection zum Einsatz. Dieser Ansatz verfolgt die Entdeckung von Abweichungen und Unregelmäßigkeiten in Zeitreihendaten. Aufgrund der Multidimensionalität und der Berücksichtigung des Gesamtsystems ist die Anwendung dieses Verfahrens komplex in vielfacher Hinsicht. Zum einen muss die Interaktion verschiedener Daten und Metriken bedacht werden. Zum anderen kann die Alert-Konfiguration eine Schwierigkeit darstellen. Der Grund dafür ist die aufwendige Definition von Schwellenwerten (für Warnung, Fehler oder Notfall) im Kontext gemessener Sensorwerte. Aufgrund der Komplexität dieses Machine-Learning-Algorithmus unterstützen wir unsere Anwender in jeglicher Hinsicht, um eine bestmögliche und effiziente Anomaly Detection zu ermöglichen.

Der Vorteil dieses Ansatzes liegt in der Betrachtung der Anomalien im Gesamtsystem und dem Herstellen von Verknüpfungen. Grundlage für die weitere Analyse ist in der Lernphase das Schaffen von Clustern, um Ähnlichkeitsstrukturen innerhalb von großen Datenmengen herauszubilden. Ein vereinfachtes Anwendungsszenario wäre beispielsweise die Temperaturabweichung eines Sensors vom Normalzustand. Im Zeitverlauf bewegt sich die Temperatur innerhalb einer Spur zwischen den Minimal,- Maximal und Schwellenwerten des Definitionsbereichs. Kommt es zu einer Abweichung, bricht die Temperatur aus dieser Spur aus. Als weiterer Faktor muss hier jedoch beachtet werden, in welchem Zustand sich die Maschine als Ganzes befindet: Verrichtet sie Arbeit oder befindet sie sich im Stillstand? Anhand dessen – und weiterer Einflusswerte – analysiert der Algorithmus die Gesamtsituation. Der Algorithmus erlernt so anhand der definierten Sensorwerte und des Maschinenverhaltens, das Gesamtsystem zu bewerten und bei Abweichungen vom Normalzustand, Alerts auszugeben. Ziel ist auch hier, kostenintensive Maschinendefekte und -stillstände sowie teure Verschleißschäden entgegenzuwirken und vorzubeugen.