Datenanalyse

Big Data in der Produktion: große Daten = großes Potential?

| Autor / Redakteur: Sebastian von Enzberg* / Lisa Marie Waschbusch

Wie kann Big Data in der Produktion zum Erfolg führen?
Wie kann Big Data in der Produktion zum Erfolg führen? (Bild: Pixabay / CC0)

Big Data – das sind Google und Facebook. Ja, aber: Auch produzierende Unternehmen horten wahre Datenschätze. Während Facebook das Benutzerverhalten für zielgerichtete Werbung analysiert, können Unternehmen wichtige Informationen zur Wartung erlernen. Die Chancen, die sich durch Datenerfassung, -auswertung und -nutzung ergeben, sind enorm.

Ein Blick in heutige Produktionsanlagen: Pro Sekunde entstehen hier Tausende von Informationen. Sensoren messen Geschwindigkeit und Qualität der Fertigung, Steuerungen horten wichtiges Wissen über den Zustand von Maschinen und Anlagen. Ursprünglich haben Unternehmen diese Informationsquellen gezielt für die Automatisierung ihrer Fertigung eingerichtet. Durch die Vernetzung von Maschinen und das Internet der Dinge werden hier inzwischen Datenmengen generiert, die das Volumen jeder anderen Branche übersteigen. Durch intelligente Datenauswertung können Daten in Erkenntnisse überführt werden, die Entscheidungen unterstützen oder sogar Grundlage für automatisierte Handlungen und Optimierungen sein können. Was sind die größten Einflussfaktoren auf die Produktivität meiner Fabrik? Wie kann ich Maschinenausfälle vermeiden? Wie kann ich die Qualität meiner Produkte erhöhen? Wie kann ich Energie einsparen? Frost & Sullivan leiten von Big Data Analytics enorme Optimierungspotenziale ab: eine Steigerung der Produktionseffizienz von zehn Prozent, eine Reduktion der Betriebskosten um fast 20 Prozent und eine Reduktion der Instandhaltungskosten um 50 Prozent. Roland Berger benennt dies mit einer Gesamtsumme von 1,25 Billionen Euro bis 2025, die in Europa durch Digitalisierung in der Industrie zusätzlich gehoben werden können.

Das Bewusstsein vom Wert der Daten wächst also zunehmend. In der IT-Branche ist dies eine Selbstverständlichkeit. Technologieunternehmen wie Google oder Facebook fußen ihr gesamtes Geschäftsmodell auf der intelligenten Datenauswertung und erzeugen jährliche Gewinne von mehreren Milliarden US-Dollar. Big-Data-Methoden sind hier schon lange etabliert, Rechenleistung und Speicher sind erschwinglich, die Fortschritte im maschinellen Lernen sind enorm und Frameworks zur Nutzung dieser Verfahren frei verfügbar. Doch der Einsatz von Big-Data-Methoden ist im Maschinen- und Anlagenbau, insbesondere bei kleinen und mittleren Unternehmen, nach wie vor verhalten. Laut einer McKinsey-Studie von 2016 verstehen nur 15 Prozent der Betriebe in der industriellen Fertigung Daten als Teil der Wertschöpfung. In 50 Prozent der Unternehmen bleiben Daten für die Entscheidungsfindung gänzlich ungenutzt.

Der ganzheitliche Blick

Woran scheitert Big Data also in der industriellen Produktion? Und welche Hindernisse gibt es besonders im Mittelstand? Um diese Fragen zu beantworten, müssen wir über die reine Algorithmik hinausschauen. Industrial Data Science bietet hier eine ganzheitliche Perspektive an. Der Ansatz betrachtet neben den Verfahren zur Datenauswertung auch Datenquellen, Dateninfrastruktur und die darauf aufbauenden Anwendungsfälle. Dieser umfassende Blick ist insbesondere für kleine und mittlere Unternehmen oft eine Herausforderung, denen es an Budget und Personal fehlt, um beispielsweise eine umfassende, sichere IT-Infrastruktur oder Fachwissen zur Anbindung von Daten aus der Maschinensteuerung aufzubauen. Aber: Es lohnt sich!

Betrachtet man die aktuell typische Dateninfrastruktur in produzierenden Unternehmen, so laufen die Datenquellen in zentralen IT-Systemen zusammen. ERP-Systeme (Enterprise Ressource Planning) sind häufig die zentrale Speicher- und Verarbeitungsinstanz für Unternehmensdaten. Sie ermöglichen die Produktionsplanung und -steuerung inklusive aller zugehöriger Ressourcen wie Material, Personal oder Betriebsmittel. Für die tiefergehende Sammlung und Verarbeitung von Maschinen- und Betriebsdaten kommen meist MES-Systeme (Manufacturing Execution System) ins Spiel. Sie übernehmen die Überwachung und Steuerung einzelner Fertigungsprozesse. ERP und MES sind somit in den meisten Fällen die zentralen Datenspeicher in einem Fertigungsbetrieb. Daneben gibt es eine Vielzahl weiterer, spezialisierter IT-Systeme wie zum Beispiel für die Verwaltung von Kundendaten (CRM-Systeme), von Produktdaten (PLM-Systeme) oder für die Auswertung betrieblicher Daten (Business-Intelligence-Systeme). Diese erfüllen einzelne Teilfunktionen – und stellen gleichzeitig nicht vernetzte Datensilos dar.

Zusammengefasst: Die typische IT-Infrastruktur in der Industrie ist nicht für Big-Data-Auswertungen ausgelegt. Eine Reihe von Initiativen wie Big Data Europe oder Fiware beginnen zwar Lösungen zu erarbeiten, die eine zentrale Speicherung und Verarbeitung bieten. Bis zur breiten Akzeptanz und Verfügbarkeit ist es jedoch noch ein weiter Weg. Aspekte der Datensicherheit oder Zugriffsrechte auf Datenquellen werden von vielen Unternehmen skeptisch beäugt.

Eine weitere Hürde: Typische Anwendungsfälle für die Datenauswertung sind im industriellen Umfeld sehr heterogen – es mangelt also an eingängigen Best Practices. Szenarien finden sich in den verschiedensten Funktionsbereichen, wie Entwicklung, Fertigung, Marketing oder Vertrieb. Aber auch innerhalb der Bereiche gibt es eine Vielzahl von Use Cases. So können in der Fertigung der Zustand einzelner Maschinen beobachtet (Condition Monitoring) oder Ausfälle vorhergesagt werden (Predictive Maintenance). Gleichzeitig ist es auch möglich, den Fertigungsprozess zu überwachen (Process Monitoring) oder zu optimieren (Process Optimization). Die verschiedenen Anwendungsfälle erfordern eine jeweils unterschiedliche Herangehensweise bei der Datenauswertung, die nicht nur von Branche zu Branche unterschiedlich ist, sondern auch immer von Produkt und Maschine abhängt. Für einzelne Anwendungsfälle (z. B. Predictive Maintenance) gibt es schon Softwarelösungen, diese sind aber entweder auf einzelne Hersteller oder bestimme Szenarien beschränkt oder erfordern eine hohe Anpassung der Algorithmen.

Big Data in der Fertigung

Unternehmen müssen folglich ihre Big-Data-Strategie individuell entwickeln. Dies widerspricht zunächst der Vorstellung einer automatisierten Datenauswertung, wie wir sie durch maschinelle Lernverfahren wie zum Beispiel künstliche neuronale Netze erwarten: Können intelligente Algorithmen nicht selbstständig Lösungen finden, wenn wir sie bloß mit ausreichend Daten füttern?

Die Antwort auf diese Frage erhalten wir, wenn wir uns Fertigungsdaten genauer ansehen. Für die Charakterisierung haben sich die „fünf Vs“ etabliert. Der Fertigungsprozess sollte möglichst beherrschbar sein und konstant und gleichbleibend verlaufen. Für maschinelle Lernverfahren ist dies aber ungünstig, denn gerade anhand schwankender Daten können Zusammenhänge erlernt werden. Soll beispielsweise künftig ein Maschinenausfall automatisch erkannt werden, so muss dieser in den Lerndaten ersichtlich sein – und darf nicht durch eine Instandhaltungsmaßnahme verhindert werden. Sonst können im Wesentlichen nur Normalzustände „auswendig gelernt“ werden (sogenanntes „overfitting“) und keine echten Zusammenhänge.

Weiterhin ist die Datenqualität (Validity) oft nicht ausreichend. Das betrifft insbesondere Annotationen, die durch den Menschen gemacht wurden – diese sind entweder unpräzise oder unstrukturiert. So werden zum Beispiel Wartungsvorfälle selten auf die Sekunde genau dokumentiert, Ausfallursachen oft als variierender Freitext festgehalten oder eine Sichtprüfung stark subjektiv bewertet. Gerade dies sind aber meist die wertvollen Zielgrößen, anhand derer eine möglichst präzise Vorhersage, eine genaue Diagnose oder eine objektivierte Einschätzung erlernt werden soll. Insgesamt schränkt dies die Robustheit datengetriebener Verfahren ein, denn diese steht und fällt mit den genannten Eigenschaften der verfügbaren Datenquellen.

Zuletzt wird Big Data durch den unternehmerischen Wert (Value) charakterisiert. Dieser kann jedoch erst nach erfolgreicher Umsetzung ermittelt werden. Der Lackdrahtspezialist Schwering und Hasse und Jowat SE, Hersteller von Klebstofflösungen, standen vor eben skizzierten Herausforderungen. Mit Ansätzen des Industrial Data Science gelang es, je einen eigenen Weg zu finden, um Big Data sinnvoll zu nutzen.

Aus der Praxis

Die Firma Schwering und Hasse stellt Lackdrähte für die elektrotechnische Industrie her. Diese kommen zum Beispiel in Elektromotoren oder Transformatoren zum Einsatz. Die Herstellung von Lackdrähten ist ein kontinuierlicher Fertigungsprozess, bei dem ein Rohdraht auf einen geforderten Querschnitt gebracht wird und durch Aufbringung eines Lacks elektrisch isoliert wird. Der Draht wird mit hohen Geschwindigkeiten und kontinuierlich – auf Rollen von mehreren Kilometern Länge – verarbeitet. Während der Verarbeitung können nur wenige Qualitätsmerkmale online überwacht werden, weshalb Qualitätskontrollen offline notwendig sind. Das unternehmenseigene Labor untersucht Stichproben zerstörend auf verschiedenste mechanische, elektrische und Materialeigenschaften hin.

Die Entnahme erfordert eine Unterbrechung des Prozesses, was das Erreichen einer möglichst hohen Basislänge verhindert. Andererseits muss die Qualitätsprüfung häufig genug stattfinden, da im Fehlerfall sämtliche gefertigten Drähte zwischen zwei Qualitätsprüfungen aufwendig untersucht werden müssen. Die Basislänge wird üblicherweise als Erfahrungswert eingestellt und bei Bedarf angepasst. In einem Transferprojekt wurde die datengetriebene Optimierung der Basislänge untersucht. Das Ziel: Die Häufigkeit von Qualitätsprüfungen sollte abhängig vom gefertigten Produkt und auf Grundlage aktueller Produktionsdaten individuell und bestenfalls dynamisch angepasst werden.

Dazu sammelte Schwering und Hasse historische Daten aus über zwei Jahren Produktion und von hunderten verschiedenen Produkten, bereitete sie auf und analysierte sie. Daraus entstand ein datenbasiertes Kostenmodell, um den hypothetischen Ausschuss bei verschiedenen Produktions- und Prüfparametern zu simulieren. So konnte der Lackdrahtspezialist die Auswirkung verschiedener Prüfzyklen bewerten und eine optimale Prüfhäufigkeit berechnen. Ergebnis des Big-Data-Projekts ist die optimale Nutzung der Kapazitäten seiner Prüflabore sowie die Minimierung von Ausschuss und Nachprüfungen. Mit der ermittelten Strategie kann Schwering und Hasse seinen Ausschuss um bis zu 14 Prozent reduzieren.

Eine datengetriebene Modellbildung bietet sich auch für die Verfahrens- und Prozessindustrie an. Das Unternehmen Jowat SE ist Anbieter von Klebstofflösungen für die Möbel-, Textil- und Automobilindustrie. Die Produktion von reaktiven Schmelzklebstoffen ist ein komplexer chemischer Prozess, da eine Vielzahl von Rohstoffen auf kontrollierte Weise reagieren muss. Viele interessante Parameter können nicht direkt im Reaktor beobachtet oder gemessen werden und werden stattdessen durch zeit- und arbeitsintensive Auswertung von Proben im Labor bestimmt.

Ähnlich wie im Beispiel der Lackdrahtproduktion wurde auch bei Jowat SE zunächst die notwendige Datenbasis geschaffen und eine große Menge an historischen Daten aus einem Zeitraum von drei Jahren gesammelt. Dies umfasst Maschinen- und Sensordaten aus dem Reaktor, wie zum Beispiel die Temperatur, Produktinformationen, beispielsweise Produktnummern und Rezeptparameter, sowie zugehörige Ergebnisse aus Labormessungen. Eine Herausforderung ist dabei das Erstellen einer sauberen Datenbasis, also die fehlerfreie Kombinierung der verschiedenen Datenquellen. Als Zielgröße wurde im Gespräch mit Prozessexperten die Viskosität ermittelt. Diese Größe ist entscheidend für die Eigenschaften des Klebstoffs, während des Herstellungsprozesses allerdings nur durch Laborproben messbar.

Für den Auswertealgorithmus kamen künstliche neuronale Netze zum Einsatz. Diese können Zusammenhänge aus vorgegebenen Trainingsdaten erlernen. Tatsächlich konnte die Viskosität aus den messbaren Größen am Reaktor abgeleitet werden. Das künstliche neuronale Netz erfüllt somit die Funktion eines virtuellen Viskositätssensors. Diese virtuelle Sensorik – derzeit im Piloteinsatz – ermöglicht die Onlineüberwachung während des Herstellungsprozesses. Jowat SE kann also, bei ähnlicher Messgenauigkeit, auf die je 20-minütigen realen Labormessungen verzichten.

Datenstrategie als umfassendes Projekt

Nicht jedes Unternehmen kann auf eine konsistente historische Datenbasis von mehreren Jahren zurückgreifen. Für eine erfolgreiche Umsetzung der Wertschöpfung aus Daten müssen die verschiedenen Ebenen – Datenquellen, Infrastruktur, Datenauswertung und Anwendungsfälle – ganzheitlich und mit einer strategischen Perspektive betrachtet werden. Jeder Aspekt muss über das gesamte Unternehmen und darüber hinaus über die Wertschöpfungskette betrachtet werden. Dies erfordert die horizontale Integration sämtlicher Funktionsbereiche, also zum Beispiel die Verbindung einzelner Datensilos zu einem Data Warehouse oder Data Lake oder den Aufbau einer gemeinsamen Dateninfrastruktur mit gemeinsamen IT-Systemen.

Gleichzeitig müssen die einzelnen Ebenen ganzheitlich gedacht werden. Dies erfordert auch die interdisziplinäre Zusammenarbeit einzelner Experten: Prozessexperten oder Automatisierungstechniker mit dem Wissen über Datenquellen, IT-Experten mit dem Wissen über den Aufbau und die Möglichkeiten der IT-Infrastruktur, Data Scientists und Softwareentwickler für die Entwicklung von Algorithmen sowie Management und Geschäftsführung, die über die Umsetzung verschiedener Anwendungsfälle entscheiden. Um diese ganzheitliche Integration – entlang der Wertschöpfungskette und entlang der Ebenen – nachhaltig zu ermöglichen, ist eine unternehmensweite Datenstrategie erforderlich.

Mit der Querschnittsdisziplin Industrial Data Science erforschen wir diese interdisziplinären Aspekte und verbinden Big-Data-Methoden aus der Informatik mit maschinellen Lernverfahren und den spezifischen Problemstellungen aus dem industriellen Kontext. Daraus ergeben sich spezifische Vorgehensmodelle und einfach anwendbare Lösungsmuster, die den Entwicklungsprozess von Big-Data-Anwendungen systematisieren und somit die Umsetzung stark vereinfachen.

Für Unternehmen bedeutet Industrial Data Science das nötige Rüstzeug, um Aufwand, Nutzen und somit die Wirtschaftlichkeit von Big Data besser einschätzen und zielgerichtet in die Umsetzung gehen zu können. So können zukünftig auch Maschinen und Anlagen ihren Prozesszustand selbstständig twittern und ihren Gesundheitsstatus teilen.

Dieser Beitrag ist ursprünglich in unserem Partnermagazin Next Industry erschienen.

* Sebastian von Enzberg arbeitet bei Fraunhofer IEM.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45608890 / Technologie)