Skalierbare Monitoringlösungen Digitales Monitoring von Produktionsanlagen und Fertigungslinien

Autor / Redakteur: Dr. Stefan Pietschmann* / Sebastian Human

Digital Twins decken als digitale Abbilder von Produktionsanlagen Potentiale in Produktionsablauf, Wartung und Qualitätskontrolle auf – und sind skalierbar und niedrigschwellig implementierbar. Worauf es dabei ankommt.

Firma zum Thema

Viele Unternehmen interessieren sich für die Möglichkeiten, die Simulationen mittels eines Digital Twin bieten, scheuen jedoch den damit verbundenen Aufwand – aber ist dieser wirklich so hoch?
Viele Unternehmen interessieren sich für die Möglichkeiten, die Simulationen mittels eines Digital Twin bieten, scheuen jedoch den damit verbundenen Aufwand – aber ist dieser wirklich so hoch?
(Bild: gemeinfrei / Unsplash)

Neben der Vernetzung von Produktionslinien oder weltweit verteilter Standorte bestehen die typischen Herausforderungen in Produktionsumgebungen in der Sicherstellung eines nahtlosen Produktionsflusses und einer intelligenten Steuerung der Anlagen und Abläufe. Qualität und Effizienz sind Schlüsselkriterien der Produktion, die jedes Unternehmen durch digitale Überwachung in Echtzeit verbessern kann – unabhängig von der Branche, sei es im Maschinen- und Landmaschinenbau, in der Halbleiterindustrie, in der Automobilbranche oder in der Lebensmittelindustrie.

Datenerhebung und -verarbeitung als Grundlage für Predictive Maintenance

Anlagen- und Linienüberwachung, Wartung und integrative Qualitätskontrolle sind die drei Anwendungsbereiche, in denen digitale Zwillinge einen großen Mehrwert bieten können.

In der Produktionsplanung und -steuerung besteht die Herausforderung darin, die Produktionslinien und Zuläufe im Shopfloor (ERP, SCM) sicherzustellen, Rüstzeiten zu optimieren und Anlauf-Simulationen idealerweise digital gestützt durchzuführen. Dazu werden Erkenntnisse in Form von Daten aus der laufenden Produktion benötigt – oft auch über verschiedene Standorte hinweg. Diese Daten durch Anbindung der Maschinen oder durch die nachträgliche Aufrüstung der Anlagen mit Sensoren (Retrofitting) zu erheben, anschließend zu konsolidieren und zu verarbeiten, schafft größtmögliche Transparenz des Produktionsprozesses und ist die Grundlage für jedwede Optimierung.

In der Wartung und Instandhaltung steht hingegen die Senkung von Ausfallzeiten von Maschinen oder ganzen Linien im Vordergrund. Neben der Wartung vor Ort, muss - gerade in Zeiten von Fachkräftemangel und Corona - auch der Remote-Zugriff reibungslos funktionieren, sei es für Fehleranalyse, Rekonfigurationen, Inbetriebnahmen oder sonstige Unterstützung durch Wartungsmitarbeiterinnen und -mitarbeiter (auch aus dem Homeoffice). Zudem setzen immer mehr Unternehmen auf Predictive Maintenance, also die vorausschauende Wartung, die mögliche Störungen idealerweise erkennt, ehe sie zu Problemen führen.

Ein intelligentes Warnsystem, das beispielsweise einen Alarm auslöst, wenn Maschinen vom über Machine-Learning ermittelten Normverhalten abweichen, ist hier eine typische Lösung. Sie erlaubt eine flexible, bedarfsgerechte Wartung statt starrer Service-Modelle, und benötigt einen umfangreichen und validen Datenpool beziehungsweise Data-Lake, der sich aus den erhobenen Produktionsdaten speist.

Solche Maschinendaten sind in der Regel über digitale Steuerungen vorhanden – teils auch offen verfügbar und durch Hersteller bereitgestellt. Doch praktisch werden sie im Produktionsprozess häufig nicht genutzt, um Erkenntnisse oder KPIs – etwa für die vorausschauende Wartung – abzuleiten.

Grund dafür sind häufig nicht technische Herausforderungen, sondern vielmehr die fehlende Vision einer digitalen Plattform, um die Daten der Produktion anlagen-, linien- und fabrikübergreifend zusammenzuführen, zu konsolidieren und miteinander in Verbindung zu setzen. So kann beispielsweise die Aufbereitung und Auswertung von Telemetriedaten verschiedener Anlagen in einem System neue Zusammenhänge verdeutlichen. Selbst der einfache Einstieg über die Definition von Schwellenwerten und die Alarmierung bei Störungen, kann bereits Ausfallzeiten verhindern, Wartungsfenster planbar machen, und signifikant die Zuverlässigkeit und Lebensdauer der Anlage steigern.

Muster- und Anomalie-Erkennung für effizientere Qualitätssicherung

Qualitätssicherung in der Produktion findet auch heute noch oft manuell statt, etwa durch Sichtprüfungen oder Entnahmen von Halbzeugen. Hier ist eine digitale Unterstützung zum Beispiel durch kamerabasierte Muster- und Anomalie-Erkennung bei Halbfabrikaten hilfreich, um Störungen rechtzeitig bereits während der Produktion zu erkennen, zu minimieren oder zu unterbinden. Ziel ist es, eine möglichst geringe Ausschussproduktion zu erreichen und so unnötige Kosten zu vermeiden. Dabei kommen Retrofit-Sensoren und Kameras rund um die Fertigungslinie zum Einsatz. Basierend auf den so erhobenen Daten lässt sich ein digitales Modell des Produktionsablaufs erstellen und für die Qualitätsbewertung und -überwachung nutzen.

Die wesentliche Erkenntnis der letzten Jahre ist: Es gibt kein fertiges System, das alle Anforderungen eines solchen Smart Factory Projekts aus dem Stand erfüllen kann. IoT-Systeme in der Produktion weisen immer einen Anpassungsbedarf auf. Jede Fertigungslinie unterscheidet sich bezüglich der eingesetzten Maschinenparks und damit einhergehender Steuerungen, Daten und Protokolle. Die Ermittlung von KPIs unterliegt individuellen Modellen. Anforderungen an die Visualisierung in Form von Dashboards unterscheiden sich. Letztlich sind auch die zu integrierenden IT-/OT-Systeme und Geschäftsprozesse in der Regel verschieden.

Um dennoch einen schnellen Projektstart zu ermöglichen ist es sinnvoll, typische Funktionalitäten in vorgefertigten Modulen und Assets zu kapseln und von den kunden- und anlagenspezifischen Aspekten zu trennen. Beispiele solcher Module können die Anomalieerkennung, KI-basierte optische Qualitätskontrolle, AR/VR-gestützte Wartungsszenarien oder Blockchain-basierte Herstellungsnachweise sein.

Trotz Modularisierung und Individualisierung müssen Lösungen im Kern flexibel gestaltet und so implementiert werden, dass sie skalierbar sind. Das heißt: Ein Einstieg muss kostengünstig mit wenigen Anlagen möglich sein und schnell Mehrwerte aufzeigen. Gleichzeitig muss die Skalierung auf mehrere Linien und Produktionsstandorte machbar sein, wobei die getätigten Investitionen erhalten bleiben.

Digital Twin: Der schrittweise Weg zum digitalen Zwilling

Die Entwicklung eines lückenlosen Monitorings von Produktionsanlagen und Fertigungslinien ist deshalb ein schrittweiser Prozess. Ziel ist es, ein vollständiges digitales Abbild oder Modell aller Produktionsanlagen und -prozesse zu erhalten, einen digitalen Zwilling (Digital Twin) der physikalischen Anlagen und Abläufe. Auf dem Weg dorthin steigt mit zunehmendem Reifegrad die Wertschöpfung in den Produktionsabläufen.

Zu Beginn steht die Aufnahme und Konsolidierung von Daten jeder einzelnen Maschine, jedes einzelnen Sensors, jeder Kamera und so weiter. Sie werden im zweiten Schritt zur Verarbeitung entweder On-Premise, über einen Edge-Controller in der Peripherie oder direkt in die Cloud übertragen. In der dritten Stufe werden alle strukturierten und unstrukturierten Daten aufbereitet, visualisiert und interpretiert, um sie für die Prozessoptimierung nutzbar zu machen. Nun ist es möglich, Muster zu erkennen, Korrelationen herzustellen, KPIs zu berechnen und Schwellenwerte zu ermitteln, bei deren Verletzung eine Alarmierung ausgelöst wird. Die fünfte und letzte Phase erlaubt schließlich durch den Einsatz von KI und Machine Learning ein vollumfänglich digitales Abbild der bestehenden Produktionsprozesse zu „erlernen“, welches neben der Datensicht auch das Verhalten der Anlagen und Prozesse repräsentiert. Auf dieser Basis können unter anderem digitale Anlaufsimulationen zur Verkürzung von Rüstzeiten oder selbstlernende und selbstoptimierte Modelle realisiert werden, welche Optimierungspotentiale ohne menschliche Eingriffe heben.

Praxisbeispiel: Qualitätskontrollen in der Spezialkunststoff-Herstellung

Wie der Einstieg in ein solch skalierbares System aussehen kann, zeigt das Beispiel eines bekannten und führenden Herstellers von Spezialkunststoffen. Um seinem hohen Qualitätsanspruch gerecht zu werden, entnahm der Hersteller bislang alle zwei Stunden Produktionsproben – und das an fünf Standorten mit je zwei bis sechs Extrudern. Ein Vorgang, der monatliche Kosten von rund 160.000 Euro verursachte.

Um Kosten zu senken aber dennoch für eine gleichbleibende Qualität des Produkts zu sorgen, entschied sich das Unternehmen, die Frequenz der physikalischen Entnahmen zu reduzieren und künftig auf Qualitätskontrollen durch kontinuierliche Datenanalyse auf Basis von Machine Learning schon während des Produktionsprozesses zu setzen. Das neue Verfahren wurde zunächst an einem Standort implementiert und getestet, anschließend auf alle anderen Produktionsstätten ausgerollt. Eine spezielle Software-Suite verbindet die Anlagensteuerungen sowie die zur Datenerfassung eingesetzten Sensoren mit verschiedenen Interfaces. Im Fall des Kunststoffherstellers geschieht der Datentransfer in den Microsoft Azure IoT Hub. Dort findet die Auswertung und Visualisierung der Daten sowie der Erkenntnisgewinn statt.

Am Digital Twin lässt sich der Status und das Verhalten von Produktionsanlagen überwachen und Dank KI beziehungsweise Machine Learning intelligent analysieren und prognostizieren. Physikalische, retrospektive Qualitätskontrollen können, wie im Beispiel des Kunststoffherstellers, minimiert werden. Wartungsprozesse können mittels Predictive Maintenance effizienter gestaltet und Produktionsstätten selbst standortübergreifend im Blick behalten werden. Die Einstiegshürden zur Einrichtung eines digitalen Zwillings sind dabei dank des skalierbaren Stufenmodells und der unmittelbaren Wertschöpfung von Schritt eins an denkbar niedrig.

* Dr. Stefan Pietschmann arbeitet als Head of Digital Twin Solutions bei T-Systems MMS.

(ID:47360919)