Grundlagen IoT-Basics: Neue Geschäftsmodelle auf Datenbasis
Basierend auf Laufzeitdaten von Komponenten und Maschinen können verschiedene Analysen vorgenommen werden (Störungen, Stillstände oder Zustände). Die Auswertungen lassen sich dann zur Entwicklung neuer datenbasierter Dienstleistungen nutzen.
Anbieter zum Thema

Wenn Komponenten oder Maschinen wie im Artikel "Selbstbeschreibung von Maschinen und Anlagen" dargestellt, Selbstbeschreibungen erhalten, die auf eingebetteten Systemen, Einplatinen-Computern [III.12] oder anderen Rechnern in der Fertigung abgelegt werden, bietet es sich an, auch Laufzeitdaten aus dem Betrieb zu speichern. Aufgrund der Leistungsfähigkeit der Hardware können diese Daten auf den jeweiligen Geräten vorverarbeitet werden.
Basierend auf den Daten sind dann neue Services möglich, z.B. Auswertungen in Bezug auf Störungen und Stillstände oder den Zustand von Maschinen und Komponenten. Neue Geschäftsmodelle können dann neue datenbasierte Dienstleistungen sein [III.13], z.B. dass ein Komponentenlieferant auf Basis der Kenntnis der anstehenden Ausfälle die Ersatzteilbewirtschaftung für seine Kunden übernimmt und so die Verfügbarkeit von Maschinen und Anlagen verbessert.
Laufzeitdaten erfassen, speichern und auswerten
Die Produktivität eines Produktionssystems wird maßgeblich durch die produzierte Menge von i.O.-Teilen und die Verfügbarkeit von Produktionsanlagen bestimmt. Um die Verfügbarkeit zu verbessern, rücken neue Strategien zur Wartung und Instandhaltung von Anlagen – unterstützt durch die Analyse von Laufzeitdaten zum Zustand von Maschinen, Anlagen und deren Komponenten – in den Fokus des Interesses.
Statt einfacher korrektiver Instandhaltung geht der Trend hin zu Systemen, die vorausschauend bereits Wartungs- und weitere Handlungsvorschläge machen («Prescriptive Maintenance»). Die Industrie hat in den letzten Jahren diverse Anwendungsfälle für solche neuen Ansätze definiert:
- Sensor- und Aktordaten von Produktionsanlagen können genutzt werden, um einen technischen Prozess automatisch auf Optimierungspotenzial bzgl. Ressourcenverbrauch wie Wasser oder Energie hin zu untersuchen [III.14].
- Softwaresysteme können das Verhalten von Produktionsanlagen diagnostizieren, das Normalverhalten abstrahieren und so später Abweichungen wie Verschleiß oder Fehler erkennen [III.15].
- Durch automatische Abstraktion der Prozessdaten sowie die maschinelle Interpretation und Hervorhebung relevanter Daten kann der Anlagenbediener in geeigneten Mensch-Maschine-Schnittstellen in Zukunft entlastet werden [III.16].
Grundlage für solche neuen Potenziale sind Daten aus dem Prozess, die von Feldgeräten (Sensoren und Aktoren) erfasst werden. Durch die zunehmende Verfügbarkeit von «intelligenten» Feldgeräten vollzieht sich ein Trend zu immer umfassender instrumentierten Prozessen. Damit stehen zunächst mehr Daten zur Verfügung, was z.B. durch steigende Abtastraten der Sensorsysteme noch verstärkt wird. Die anfallenden Daten aus dem Betrieb können je nach Menge auf dem eingebetteten System gespeichert und vorverarbeitet werden, das auch die Konfigurationsdaten enthält, oder auf anderen produktionsnahen IT-Systemen. Es ist zu erwarten, dass Geräte für das sogenannte Edge Computing zukünftig dezentral viele der Aufgaben zur Datenauswertung und -analyse übernehmen. Verstärkt wird diese Tendenz durch neue echtzeitnahe Kommunikationsstandards wie TSN [III.18].
Anwendungsfälle, für die Lösungen existieren, sind kontinuierliche Prozesse in der chemischen Industrie sowie Batch-Prozesse, z.B. in der Pharmaproduktion. Diese Prozesse zeichnen sich dadurch aus, dass sie äußerst komplex sind, durch eine große Anzahl von Systemvariablen beschrieben werden und ihr Verhalten analytisch nur schwer zu modellieren ist. Bei den vergleichsweise langen Laufzeiten von kontinuierlichen Prozessen müssen vor allem schleichende Veränderungen des Systemverhaltens oder Verschleißerscheinungen entdeckt werden.
Klassische Diagnoseverfahren eignen sich nicht für die reale Produktion
Aufgrund der Anlagengröße und der komplexen Prozesse benötigen Anlagenführer und Instandhalter außerdem detaillierte Informationen, um erkannte Fehler in der Anlage genau zu lokalisieren. Klassische Diagnoseverfahren basieren auf analytischen Modellen des Prozesses. Sie können jedoch in der realen Produktion oft nicht eingesetzt werden, weil die Modellierung zu aufwendig ist und sie meist nur lokal begrenzt, d.h. für einen kleinen Teil des Prozesses, genutzt werden kann. Für Batch-Prozesse sind dagegen Prozessphasen charakteristisch, die der korrekt ablaufende Prozess durchlaufen muss. Zu deren Überwachung müssen Monitoring-Verfahren diese Prozessphasen finden, deren Abfolge überwachen und überprüfen, ob die Prozessdauern in den verschiedenen Prozessphasen eingehalten werden.
Für beide Arten von Prozessen sind lernfähige Data-Mining-Methoden verfügbar, z.B. in Form selbstorganisierender Karten, die passgenau auf die Anforderungen der Prozesstechnik adaptiert sind. Um mit diesen Verfahren den Anlagenzustand zielführend zu überwachen, muss der Anwender nur geringes Wissen über den eigentlichen Produktionsprozess einbringen. Außerdem können sie eingeführt werden, ohne die Produktion zu unterbrechen.
Vereinfacht ausgedrückt, wird bei diesen Verfahren das mehrdimensionale Prozessverhalten auf eine dreidimensionale «Landkarte» projiziert: «Täler» bezeichnen stationäre Prozessphasen und «Bergkämme» Zustandsübergänge. Der Weg durch die Karte bezeichnet dann die Abfolge der Prozessphasen, so dass eventuell auftretende Störungen und Anomalien im Prozess leicht zu erkennen sind.
(ID:45101609)