Vernetzte Produktion Die ideale Datenarchitektur in der Smart Factory

Autor / Redakteur: Dr. Stefan Schwarz* / Stefan Guggenberger

Das Konzept der Smart Factory beruht auf intelligenter Vernetzung von Produktions- und Logistiksystemen auf der Grundlage leistungsfähiger Datenanalysen. Welche Merkmale sollte die ideale Datenarchitektur in einer intelligenten Fabrik haben?

Firmen zum Thema

Die Smart Factory braucht ein intelligentes Systems, das sich aus den Fesseln von Komplexität und hohen Kosten befreit.
Die Smart Factory braucht ein intelligentes Systems, das sich aus den Fesseln von Komplexität und hohen Kosten befreit.
(Bild: gemeinfrei // Pexels)

Ob Predictive Maintenance oder die Optimierung von Anlagen auf Basis von Simulationen – moderne Produktionsprozesse erfordern ausgefeilte Datenverarbeitung, oft in Echtzeit. Zentralisierte Systeme sind hierfür nicht schnell genug. An die Stelle der zentralen, hierarchischen Steuerung aus einem singulärem 'Anlagengehirn' tritt das Konzept der dezentralisierten Intelligenz.

Verteilte Intelligenz macht flexibel

Die intelligente Fabrik bedient sich dezentraler Architekturen. Dabei wird die Entscheidungsfunktion von der zentralen Instanz auf einzelne Komponenten verlagert, die sich selbst steuern. Damit das gelingt, müssen sie vernetzt sein und miteinander kommunizieren. Auf diese Weise lassen sich Probleme im Produktionsablauf genau an der Stelle lösen, an der sie entstehen. Die zentrale Intelligenz übernimmt die Koordination der Komponenten, stellt die Kongruenz der lokalen Lösungen sicher und sorgt für eine durchgängige Integration. Die Lösung sehr komplexer Problemstellungen sowie das Lernen aus Basis vieler dezentraler Einheiten ('crowd learning') bleibt ebenfalls der zentralen Steuerung vorbehalten.

Die dezentrale Architektur einer Industrie-4.0-Umgebung erweist sich als deutlich effizienter und effektiver als das herkömmliche Modell der zentralen Steuerung durch ein Manufacturing Execution System (MES). Die Ergebnisse sind analytisch viel tiefer durchdrungen. Durchlaufzeiten lassen sich so verringern und erforderliche Änderungen im Produktionsprozess können schneller umgesetzt werden. Die Produktionsumgebung bietet eine große Flexibilität, gerade im Hinblick auf Kundenwünsche. Zudem erlaubt die Systemarchitektur sowohl eine dynamische Erweiterung als auch ein Ersetzen einzelner Komponenten.

Analytisches Ökosystem bündelt Intelligenz

In Unternehmen verläuft der Umgang mit Daten nicht immer so reibungslos, dass sich vorhandene Informationen optimal nutzen lassen. Häufig entstehen Datensilos, wenn Systeme bestimmte Aufgaben nicht abbilden können und deshalb proprietäre Lösungen implementiert werden. Dies macht auf lange Sicht nahtlose, übergreifende Abläufe unmöglich.

In der intelligenten Fabrik kann die dezentrale Steuerung nur funktionieren, wenn eine durchgängige Integration der Daten aus unterschiedlichen Quellen stattfindet. Die beschriebene zentrale Instanz ist dafür zuständig, alle Datenströme zu verarbeiten, zu analysieren und aufzubereiten. So erfolgt einerseits eine durchgehende Integration aller Komponenten in der Produktion und andererseits auch zwischen Produktionsplanung und -steuerung.

Grundlage der Smart Factory ist ein analytisches Ökosystem, das Datenintelligenz bündelt – unabhängig von Datenformat oder -quelle und ohne zusätzlichen Anpassungsaufwand. Gefragt ist ein in seiner Gesamtheit intelligentes System, das sich aus den Fesseln von Komplexität und hohen Kosten befreit.

Die wichtigsten Merkmale einer idealen Datenumgebung für eine intelligente Produktion:

  • Integration leistungsstarker Engines zur Datenanalyse, die dem Anwender, respektive analytischen Gesamtlösungen, eine einheitliche Sicht und Zugriff auf alle Daten ermöglichen – unabhängig davon, aus welchen Quellen diese stammen oder in welchem Datenhaltungs-System die Daten gespeichert sind.
  • Die Datenanalyse ist für alle Datentypen und -formate möglich; die Leistung lässt sich je nach Datenvolumen und Anzahl der Nutzer mühelos skalieren, um veränderte Anforderungen abzubilden
  • Konsistente Unterstützung möglichst aller relevanten Tools und Programmiersprachen wie SQL, R, Python oder spezieller Workbenches wie Jupyter, RStudio oder SAS. Multistrukturelle Daten sollten mit JSON, BSON, Avro, CSV und XML analysiert werden, um reibungslosen Datenaustausch zu ermöglichen.

Höhere Produktivität dank KI

Produktionsunternehmen stehen einem hohen Margendruck, einer sich wandelnden Nachfrage und einer sich radikal verändernden Wettbewerbslandschaft gegenüber. Hier bringt ein analytisches Ökosystem, das auf KI basiert, den entscheidenden Marktvorteil. Die vernetzte Intelligenz optimiert Produktionsprozesse, senkt die Fehlerrate durch verbesserte Fehlererkennung und steigert die Produktqualität oft deutlich. Das Ergebnis ist eine höhere Produktivität infolge gesenkter Kosten, zum Beispiel für Personal, Wartung und Inspektion.

Diese Vorteile der vernetzten Intelligenz entsprechen den Erwartungen der Industrieunternehmen, die 2020 im Rahmen einer Bitkom-Studie dazu befragt wurden, was sie sich von KI versprechen. Dabei stand die Möglichkeit der vorausschauenden Wartung mit 43 Prozent der Nennungen an erster Stelle der erwarteten Vorteile, gefolgt von der Steigerung der Produktivität mit 41 Prozent, sowie der Optimierung von Produktions- und Fertigungsprozessen mit 39 Prozent.

Siemens Healthineers: Störungsfreie Diagnostik

Predictive Maintenance steht im Fokus des Unternehmensinteresses, da es zu den Kernkompetenzen von Industrie 4.0 zählt. Die vorausschauende Wartung von Maschinen und Anlagen nutzt von Sensoren erfasste Messwerte und Daten, um Ausfallzeiten zu vermeiden beziehungsweise zu minimieren. Hochgradig verlässliche Vorhersagen über zukünftige Störungen werden erst dadurch ermöglicht, dass relevante und oft große Datenmengen integriert gespeichert, gemeinsam verarbeitet und durch hochwertigste Algorithmen analysiert werden können.

Das Medizintechnikunternehmen Siemens Healthineers vertraut zum Beispiel auf eine Datenanalyse-Plattform, um seine weltweit mehr als 600.000 installierten Bildgebungsgeräte für Diagnostik und Therapie sowie für Labordiagnostik vorausschauend zu warten. Die Siemens-Geräte liefern die Grundlage für über 70 Prozent der kritischen klinischen Entscheidungen. Alle Daten aus Sensoren, Logistik und Service werden fortlaufend analysiert, um einen störungsfreien Betrieb der Geräte in Kliniken und Labors sicherzustellen.

Unternehmen und Politik in der Pflicht

Obwohl laut Bitkom-Studie mehr als jedes zweite Unternehmen damit rechnet, dass Künstliche Intelligenz in der Industrie bestehende Geschäftsmodelle nachhaltig und tiefgreifend verändern wird, nutzen erst 14 Prozent der befragten deutschen Industrieunternehmen diese neuen Möglichkeiten im Kontext von Industrie 4.0. Hier liegt demnach noch viel ungenutztes Potential. Es wird Zeit dieses Potential zu heben.

Neben der intrinsischen unternehmerischen Verantwortung, Unternehmen zukunftsfähig aufzustellen, ist auch die Politik in der Pflicht. Dies umfasst eine ganze Reihe von Bereichen – von der digitalen Infrastruktur, dem Eigentumsrecht an Daten, der Datensicherheit, den Grundlagen für eine Sharing Economy, einem digitalen Binnenmarkt bis hin zur Ausbildung (Digital Skills).

*Dr. Stefan Schwarz ist Partner Business Consulting bei Teradata

(ID:47464487)