Grundlagen IoT-Basics: Neue Geschäftsmodelle auf Datenbasis

Autor / Redakteur: Olaf Sauer / Jürgen Schreier

Basierend auf Laufzeitdaten von Komponenten und Maschinen können verschiedene Analysen vorgenommen werden (Störungen, Stillstände oder Zustände). Die Auswertungen lassen sich dann zur Entwicklung neuer datenbasierter Dienstleistungen nutzen.

Firmen zum Thema

Methoden aus Data-Mining und Statistik helfen, Daten zur Anlagenüberwachung und -optimierung zu nutzen.
Methoden aus Data-Mining und Statistik helfen, Daten zur Anlagenüberwachung und -optimierung zu nutzen.
(Bild: Pexels / CC0 )

Wenn Komponenten oder Maschinen wie im Artikel "Selbstbeschreibung von Maschinen und Anlagen" dargestellt, Selbstbeschreibungen erhalten, die auf eingebetteten Systemen, Einplatinen-Computern [III.12] oder anderen Rechnern in der Fertigung abgelegt werden, bietet es sich an, auch Laufzeitdaten aus dem Betrieb zu speichern. Aufgrund der Leistungsfähigkeit der Hardware können diese Daten auf den jeweiligen Geräten vorverarbeitet werden.

Basierend auf den Daten sind dann neue Services möglich, z.B. Auswertungen in Bezug auf Störungen und Stillstände oder den Zustand von Maschinen und Komponenten. Neue Geschäftsmodelle können dann neue datenbasierte Dienstleistungen sein [III.13], z.B. dass ein Komponentenlieferant auf Basis der Kenntnis der anstehenden Ausfälle die Ersatzteilbewirtschaftung für seine Kunden übernimmt und so die Verfügbarkeit von Maschinen und Anlagen verbessert.

Laufzeitdaten erfassen, speichern und auswerten

Die Produktivität eines Produktionssystems wird maßgeblich durch die produzierte Menge von i.O.-Teilen und die Verfügbarkeit von Produktionsanlagen bestimmt. Um die Verfügbarkeit zu verbessern, rücken neue Strategien zur Wartung und Instandhaltung von Anlagen – unterstützt durch die Analyse von Laufzeitdaten zum Zustand von Maschinen, Anlagen und deren Komponenten – in den Fokus des Interesses.

Statt einfacher korrektiver Instandhaltung geht der Trend hin zu Systemen, die vorausschauend bereits Wartungs- und weitere Handlungsvorschläge machen («Prescriptive Maintenance»). Die Industrie hat in den letzten Jahren diverse Anwendungsfälle für solche neuen Ansätze definiert:

  • Sensor- und Aktordaten von Produktionsanlagen können genutzt werden, um einen technischen Prozess automatisch auf Optimierungspotenzial bzgl. Ressourcenverbrauch wie Wasser oder Energie hin zu untersuchen [III.14].
  • Softwaresysteme können das Verhalten von Produktionsanlagen diagnostizieren, das Normalverhalten abstrahieren und so später Abweichungen wie Verschleiß oder Fehler erkennen [III.15].
  • Durch automatische Abstraktion der Prozessdaten sowie die maschinelle Interpretation und Hervorhebung relevanter Daten kann der Anlagenbediener in geeigneten Mensch-Maschine-Schnittstellen in Zukunft entlastet werden [III.16].

Von korrektiver Wartung zu "Prescriptive Maintenance"
Von korrektiver Wartung zu "Prescriptive Maintenance"
(Bild: Verfasser)

Grundlage für solche neuen Potenziale sind Daten aus dem Prozess, die von Feldgeräten (Sensoren und Aktoren) erfasst werden. Durch die zunehmende Verfügbarkeit von «intelligenten» Feldgeräten vollzieht sich ein Trend zu immer umfassender instrumentierten Prozessen. Damit stehen zunächst mehr Daten zur Verfügung, was z.B. durch steigende Abtastraten der Sensorsysteme noch verstärkt wird. Die anfallenden Daten aus dem Betrieb können je nach Menge auf dem eingebetteten System gespeichert und vorverarbeitet werden, das auch die Konfigurationsdaten enthält, oder auf anderen produktionsnahen IT-Systemen. Es ist zu erwarten, dass Geräte für das sogenannte Edge Computing zukünftig dezentral viele der Aufgaben zur Datenauswertung und -analyse übernehmen. Verstärkt wird diese Tendenz durch neue echtzeitnahe Kommunikationsstandards wie TSN [III.18].

Anwendungsfälle, für die Lösungen existieren, sind kontinuierliche Prozesse in der chemischen Industrie sowie Batch-Prozesse, z.B. in der Pharmaproduktion. Diese Prozesse zeichnen sich dadurch aus, dass sie äußerst komplex sind, durch eine große Anzahl von Systemvariablen beschrieben werden und ihr Verhalten analytisch nur schwer zu modellieren ist. Bei den vergleichsweise langen Laufzeiten von kontinuierlichen Prozessen müssen vor allem schleichende Veränderungen des Systemverhaltens oder Verschleißerscheinungen entdeckt werden.

Klassische Diagnoseverfahren eignen sich nicht für die reale Produktion

Aufgrund der Anlagengröße und der komplexen Prozesse benötigen Anlagenführer und Instandhalter außerdem detaillierte Informationen, um erkannte Fehler in der Anlage genau zu lokalisieren. Klassische Diagnoseverfahren basieren auf analytischen Modellen des Prozesses. Sie können jedoch in der realen Produktion oft nicht eingesetzt werden, weil die Modellierung zu aufwendig ist und sie meist nur lokal begrenzt, d.h. für einen kleinen Teil des Prozesses, genutzt werden kann. Für Batch-Prozesse sind dagegen Prozessphasen charakteristisch, die der korrekt ablaufende Prozess durchlaufen muss. Zu deren Überwachung müssen Monitoring-Verfahren diese Prozessphasen finden, deren Abfolge überwachen und überprüfen, ob die Prozessdauern in den verschiedenen Prozessphasen eingehalten werden.

Für beide Arten von Prozessen sind lernfähige Data-Mining-Methoden verfügbar, z.B. in Form selbstorganisierender Karten, die passgenau auf die Anforderungen der Prozesstechnik adaptiert sind. Um mit diesen Verfahren den Anlagenzustand zielführend zu überwachen, muss der Anwender nur geringes Wissen über den eigentlichen Produktionsprozess einbringen. Außerdem können sie eingeführt werden, ohne die Produktion zu unterbrechen.

Vereinfacht ausgedrückt, wird bei diesen Verfahren das mehrdimensionale Prozessverhalten auf eine dreidimensionale «Landkarte» projiziert: «Täler» bezeichnen stationäre Prozessphasen und «Bergkämme» Zustandsübergänge. Der Weg durch die Karte bezeichnet dann die Abfolge der Prozessphasen, so dass eventuell auftretende Störungen und Anomalien im Prozess leicht zu erkennen sind.

Im Gegensatz zu kontinuierlichen oder Batch-Prozessen sind in der Stückgutfertigung diskrete Ereignisse der Anlage, z.B. Schaltzustände, wichtig für die Überwachung. Durch die zunehmende Automatisierung der Fertigungsprozesse und den verstärkten Einsatz von Sensoren fallen in immer kürzeren Zeitabschnitten immer größere Datenmengen an. Diese überfordern aber den Benutzer und werden daher nur unzureichend genutzt.

So werden heute nur rund 7 % der Daten zur Analyse komplexer Zusammenhänge und Trends sowie zur Optimierung von Prozessabläufen und kostenrelevanten Entscheidungen verwendet. Wesentlicher Grund, dass die vorhandenen Prozessdaten nur unzureichend für zielgerichtete schnelle Entscheidungen in allen Unternehmensbereichen genutzt werden, ist der Mangel an intelligenten Analysewerkzeugen. Diese abstrahieren die Daten und unterstützen die Benutzer dabei, sie zur Anlagenüberwachung und -optimierung zu nutzen. Kernidee ist der Einsatz von Methoden aus Data-Mining und Statistik.

Auch für diese Industriezweige ist es ein gängiger Ansatz, Modelle des Verhaltens der Anlagen aus den Daten zu lernen, statt sie manuell zu erstellen, z.B. mit Hilfe hybrider, zeitbehafteter Automaten. Diese haben sich für verschiedene Branchen der Fertigungsindustrie zum Lernen der Zustände und zur Modellierung des Verhaltens von Maschinen und Anlagen als geeignet und robust erwiesen. Die Zustände des Automaten modellieren grundsätzliche Systemzustände («Modes»), in denen der Prozessverlauf dann mittels klassischer Ansätze, z.B. Kalman-Filter, Neuronale Netze, gelernt wird. Kennzeichnend ist dabei, dass alle Zustände, Zustandsübergänge und Übergangsfunktionen erlernt werden.

Neue Architekturen produktionsnaher IT-Systeme

Es zeichnet sich ab, dass sich die bisherigen Ebenen der bekannten Automatisierungspyramide auflösen [III.19] und ein neues Informationsmodell für die Industrie 4.0 erforderlich wird. Für die Auflösung der Automatisierungspyramide sind unter anderem folgende Basistechnologien verantwortlich:

  • Cyber-Physical-Systems und Eingebettete Systeme: Allgemein gesprochen, bedeuten diese Technologien die konsequente Durchdringung aller Ebenen der bisherigen Automatisierungspyramide mit Internet-Technologien und dazugehörigen Standards. Dies umfasst einerseits die eingesetzten Kommunikationstechnologien, z.B. TCP/IP, bis auf die Ebene der einzelnen Sensoren und Aktoren, was durch die Standardisierung von IPv6 und weltweit eindeutige Bezeichner für Ressourcen, z.B. Uniform Resource Identifier (URI) des WWW, ermöglicht wurde. Immer intelligentere Geräte mit eigenen Kapazitäten zur Kommunikation und Datenverarbeitung sorgen dafür, dass einige MES-Funktionen, z.B. die Berechnung von Kennzahlen, auf die Geräteebene verlagert werden können. IP-Fähigkeiten auf Eingebetteten Systemen machen einfache Geräte nun zu Knoten im Internet, die sich selbst vernetzen und mit anderen Teilnehmern kommunizieren und Daten austauschen.
  • Big Data und Hauptspeicherdatenbanken: Auf der bisherigen ERP-Ebene existieren Bestrebungen, direkt auf Online-Daten aus Fertigungsprozessen zuzugreifen, diese zu verarbeiten und daraus geschäftsrelevante Informationen zu generieren [III.20]. In-Memory-Datenbanken leisten dieser Entwicklung insofern Vorschub, als dass sie die geforderte Geschwindigkeit zur Verarbeitung großer Datenmengen bieten.
  • IP-basierte Kommunikation: Echtzeit-Ethernet als industrielle Kommunikation ermöglicht die Fortsetzung des in den Bürobereichen ohnehin verwendeten Ethernet bis in die Feldebene und schafft damit erstmals eine durchgängige physikalische Kommunikationsstruktur. Echtzeit-Ethernet ist damit ein Befähiger für flexiblen und durchgängigen Datenaustausch. Vor dem Start der Kommunikation benötigt jeder Ethernet-basierte Teilnehmer nur noch eine eindeutige MAC-/IP-Adresse.

Monolithische MES-Systeme werden zu Service-orientierten Architekturen

Die bisher eher monolithisch anmutenden MES-Systeme wandeln sich hin zu Service-orientierten Architekturen. Neue Anbieter produktionsnaher IT-Systeme am Markt entwickeln ihre Werkzeuge direkt nach dem Paradigma der Serviceorientierung. Dabei lassen sich grob die folgenden Architekturkomponenten unterscheiden:

  • Apps: Dies sind Applikationen mit eigener Benutzeroberfläche, aber keiner oder nur sehr eingeschränkter eigener Datenhaltung, die auf einem mobilen Endgerät genutzt werden können. Beispiele für produktionsnahe Apps sind KPI-Apps zur Visualisierung von Kennzahlen wie Verfügbarkeit oder OEE oder Gantt-Chart-Apps zur Visualisierung von Auftragsreihenfolgen als Ergebnis einer Fertigungsfeinplanung.
  • MES-Services: Unter einem Service verstehen wir im Folgenden eine Einheit mit einer konkreten Funktion und eindeutigen Ein- und Ausgangsparametern. Einzelne Funktionen können als Services bereitgestellt werden oder Services fassen mehrere Funktionen zusammen. Auch existieren immer mehr MES-nahe Funktionen, die Maschinenbauer speziell für den Fertigungsprozess ihrer Maschine bereitstellen, z.B. zur Optimierung von Draht- oder Rohrbiegeprozessen [III.21], zur Generierung von ERP-Daten auf Basis von PLM-Daten [III.22] usw.
  • Manufacturing Service Bus: Über diesen Bus kommunizieren die Services untereinander. Dieser Service-Bus ist eine der Kernkomponenten der zukünftigen Service-orientierten Architektur und dient als Integrationsebene,um das Zusammenspiel der Services zu realisieren. Auch in den heutigen MES-Systemen existieren diese Komponenten schon, allerdings zugeschnitten auf den jeweiligen Hersteller. Service-Busse, mit denen sich MES-Services unterschiedlicher Software-Anbieter ohne manuelle Programmiereingriffe verbinden können, existieren heute nur in Ansätzen.
  • Integrationsservices: Diese Services oder Konnektoren auf Basis der oben beschriebenen Selbstbeschreibung werden zwingend benötigt, um die Verbindung zwischen MES-Services und den Maschinen, Anlagen und anderen Einrichtungen der Fabrik zu schaffen. Diese Konnektoren befähigen Maschinen und Anlagen, sich mit den übergeordneten IT-Systemen zu verbinden und aus den Laufzeitdaten neue Erkenntnisse zu gewinnen, z.B. über den Zustand von Komponenten und Maschinen. Die oben beschriebene Kommunikation auf Basis von OPC UA mit semantischem Mapping zur automatischen Anbindung von Maschinensteuerungen an den Manufacturing Service Bus ist ein Beispiel für einen solchen Integrationsservice [III.23].

Dr.-Ing. Olaf Sauer studierte Wirtschaftsingenieurwesen an der Universität Karlsruhe. Nach beruflichen Stationen am Fraunhofer IPK, bei Bombardier Transportation und in der METROPLAN-Gruppe leitete er von 2004 bis 2012 den Geschäftsbereich Leitsysteme am Fraunhofer IOSB, wo er jetzt Stellvertreter des Institutsleiters ist. Er ist Lehrbeauftragter am Karlsruher Institut für Technologie (KIT) und an der Universität Kassel, Vorsitzender des Fachbereichs Informationstechnik des VDI sowie Mitglied des Vorstandes der Wirtschaftsstiftung Südwest.

Quellen/Literatur

[III.12] SCHLEIPEN, MIRIAM; LÜDER, ARNDT; SAUER, OLAF, et al.: Requirements and concept for Plug-and-Work. at – Automatisierungstechnik, Band 63 (2015), Nr. 10, S. 790–820.

[III.13] Statusreport: Digitale Chancen und Bedrohungen – Geschäftsmodelle für Industrie 4.0. Düsseldorf: VDI e.V., Mai 2016.

[III.14] GILANI, SYED SHERAZ; WINDMANN, STEFAN; PETHIG, FLORIAN, et al.: The Importance of Model-Learning for the Analysis of the Energy Consumption of Production Plant. In: 2013 8th IEEE International Conference on Emerging Technologies and Factory Automation (ETFA), Cagliari, Italy, September 2013.

[III.15] VODENCAREVIC, ASMIR; KLEINE BÜNING, HANS.; NIGGEMANN, OLIVER, et al.: Identifying Behavior Models for Process Plants. In: 2011 16th IEEE Conference on Emerging Technologies and Factory Automation (ETFA 2011). Toulouse, France, September 2011, S. 937–944. Quellenverzeichnis 361

[III.16] TACK, TIM; MAIER, ALEXANDER; NIGGEMANN, OLIVER: Visuelle Anomalie – Erkennung in Produktionsanlagen. In: VDI Kongress AUTOMATION. Baden Baden, Juni 2013.

[III.17] LINDEN, ALEXANDER: Big Data: Alles Hype! Oder Nicht? Gartner45 Webinar vom 28.11.2013.

[III.18] HAPPACHER, MEINHARD: Wie schnell zieht TSN in der Fabrik ein? Computer-automation.de, http://www.computer-automation.de/feldebene/vernetzung/artikel/135165/ (abgerufen am 09.05.2017).

[III.19] VOGEL-HEUSER, BIRGIT; KEGEL, GUNTHER; BENDER, KLAUS, et al.: Global Information Architecture for Industrial Automation. In: atp edition. Automatisierungstechnische Praxis. Band 51 (2009), Nr. 1-2, S. 108–115.

[III.20] GRUND, MARTIN: HYRISE – A Main Memory Hybrid Database Storage Engine. Dissertation an der Universität Potsdam, Mathematisch-Naturwissenschaftliche Fakultät, 2012.

[III.21] WEIGMANN, UWE-PETER: Automatische Optimierung von Biegeprozessen zur Qualitäts- und Leistungssteigerung unter Verwendung von Cyber-Physical-Systems. Tagungsunterlagen zur 5. VDIFachtagung Industrie 4.0. Düsseldorf: VDI e.V., 2016.

[III.22] Ihr Marktplatz für Factory on Demand. Heidelberg: Heidelberger Druckmaschinen AG. heidelberg.com/de/View2Connect (abgerufen am 09.05.2017).

[III.23] ENSTE, UDO; MAHNKE,WOLFGANG: OPC Unified Architecture – Die nächste Stufe der Interoperabilität. In at – Automatisierungstechnik, Band 59 (2011), Heft 7, S. 397-404.

Fachbuch „Industrie 4.0: Potenziale erkennen und umsetzen“ Dieser Beitrag stammt aus den dem Fachbuch „Industrie 4.0: Potenziale erkennen und umsetzen“ von Thomas Schulz (Hrsg.) Das Buch bietet dem Professional einen praxisorientierten und umfassenden Einblick in die Digitalisierung der Fertigung und der Produktion. Das Buch „Industrie 4.0“ kann hier versandkostenfrei oder als eBook bestellt werden.

(ID:45101609)