Suchen

Industrie 4.0 Big Data – der neue Rohstoff der Wirtschaft

Redakteur: Jürgen Schreier

Maschinen und Fertigung steuern und überwachen sich selbst. Der Mensch wird zum Dirigenten dieses grossen Industrie-4.0-Konzerts. Die Partitur: gigantische Datenmengen aus Sensoren, Aktoren, Steuerungen und MDE-Systemen – Big Data. Doch die «grossen Daten» gewinnen erst an Wert, wenn aus ihnen Wissen wird, Basis für vorausschauende Informationsmodelle.

Firma zum Thema

(Bild: Bosch)

La vache qui rit – die Kuh, die lacht: So labelt der französische Käseproduzent Bel (bekannt für den beliebten Klassiker Bonbel) seine Milchprodukte. Heute ist die Kuh schon ein ganzes Stück weiter. Den sie lacht nicht nur (wenn sie denn im Zeitalter der Massentierhaltung überhaupt noch etwas zu lachen hat), sondern sendet als Akteurin auf dem «Bauernhof 4.0» auch schon mal eine SMS. Sensoren, GPS oder Big-Data-Analysen werden die Landwirtschaft von morgen effizienter machen und tiefgreifend verändern.

Bildergalerie
Bildergalerie mit 10 Bildern

Und so wird die Frau, die der Bauer in der gleichnamigen Fernsehserie sucht (und selten findet), schon bald keine mehr sein, die dem üblichen «Landfrauenklischee» entspricht. Statt zu melken, den Stall auszumisten oder den Hühnern die Eier trickreich «abzuluchsen», hat die digitale Bäuerin über ihr Tablet oder Smartphone stets im Blick, was im Stall oder auf der Weide so geschieht: Sensoren an verschiedenen Stellen des Hofes senden einen Alarm auf das Mobilgerät, wenn Tore, Türen oder Gatter unbefugt geöffnet werden, Brandmelder warnen rechtzeitig bei Rauchbildung.

Immer fitter für Industrie 4.0

Schon heute gibt es in der Landwirtschaft Ansätze analog zu «Industrie 4.0»: Hightech-Mähdrescher und -Traktoren, die satellitengesteuert über das Feld navigieren, oder Drohnen, die Herbizide oder Düngemittel punktgenau ausbringen. Aktuellstes Beispiel ist eine Nachrüstlösung, die von der Deutschen Telekom gemeinsam mit Leica Geosystems und Sensor-Technik Wiedemann entwickelt wurde.

Sie steuert GPS-Korrekturdaten direkt über das Mobilfunknetz in das Lenksystem von Landmaschinen ein. Dazu sendet die Maschine ihre Position über das Mobilfunknetz in die Telekom-Cloud. Ein Korrekturdatensystem errechnet die präzisen Positionsdaten und «beamt» sie sofort zurück an die Maschine. Und diese wiederum passt Fahrspur, Düngemittel- oder Saatguteinsatz automatisch an und optimiert zusätzlich den Spritverbrauch.

Fazit: Nicht nur die Techniken, auch die Ziele sind auf dem «digitalen Bauernhof» nahezu die gleichen wie in der smarten Fabrik. Die Landwirte, das zeigt eine aktuelle Umfrage des Digitalverbandes Bitkom, erwarten von solchen Technologien verbesserte Abläufe, geringere Herstellungskosten durch eine höhere Effizienz und verbesserte Kapazitätsauslastung. Aber auch die Wartung und Instandhaltung der Maschinen und Geräte könnte mithilfe vorausschauender Analyseverfahren besser geplant werden als heute. Hightech-Anwendungen und Big Data werden auf dem Bauernhof von morgen ganz selbstverständlich sein, ist man beim Bitkom überzeugt.

Big-Data-Readiness nimmt zu

Auch das produzierende Gewerbe setzt zunehmend mehr Big-Data-Lösungen ein. Das geht aus dem aktuellen «IT Innovation Readiness Index» von Pierre Audoin Consultants (PAC) im Auftrag der Freudenberg IT hervor. So nutzt die mittelständische Fertigungsindustrie Big Data insbesondere zur Auswertung kaufmännischer Unternehmenskennzahlen sowie zur Absatzdatenanalyse.

Denn laut Umfrage wird das Thema Internationalisierung und Globalisierung in der Zielgruppe derzeit als eine der grössten Herausforderungen wahrgenommen. PAC geht deshalb davon aus, dass Big-Data-Analysen von Absatzdaten, die auf immer komplexeren Vertriebswegen global generiert werden, in der mittelständischen Fertigungsindustrie langfristig zunehmen werden.

Den höchsten Anstieg jedoch verzeichnet die jährlich durchgeführte PAC-Untersuchung bei der Analyse von Fertigungsdaten für eine vorausschauende Wartung. Aus Sicht der Studienautoren überrascht dieser Wert nicht, denn eine analysegestützte Wartungsplanung vermeidet Stillstände im Maschinenpark, verbessert die Auslastung und spart somit Kosten. «Der industrielle Mittelstand steht generell vor der Herausforderung, die rasant wachsenden Datenmengen zielgerichtet auszuwerten, um den Unternehmenserfolg nachhaltig zu sichern», weiss PAC-Analystin Stefanie Naujoks. «Im Zuge der Weiterentwicklung der Produktion in Richtung Industrie 4.0 werden Big-Data-Lösungen künftig vor allem auch auf der Fertigungsebene an Bedeutung gewinnen.»

Schnell eingreifen dank Echtzeitanalyse

So gesehen sorge Big Data als Treibertechnologie für Industrie 4.0 auch für eine neue Qualität 4.0, meint Horst Reichardt, CEO der Freudenberg IT. Denn durch die permanente Echtzeitanalyse von Betriebs- und Maschinendaten mit In-Memory-Lösungen wie SAP Hana liesse sich beispielsweise die Ausschussquote in der Teileproduktion signifikant senken. Ein schnelles Eingreifen in die Produktion und die Rückverfolgbarkeit des gesamten Produktionsprozesses werden so möglich – grosse Rückrufaktionen, wie man sie vor allem aus der Automobilindustrie kennt, wären damit Geschichte.

Reichardt zufolge spielt Big Data im fertigungsnahen Bereich aber nicht nur zur Steigerung von Effizienz und Qualität eine wichtige Rolle, sondern ebenso als Basis für neue Geschäftsmodelle: «Speziell im Maschinen- und Anlagenbau können Hersteller die Wertschöpfung über den gesamten Produktlebenszyklus hinweg mit internetbasierten Dienstleistungen intensivieren», umreisst der CEO eine von vielen Optionen. Offenbar wächst im Mittelstand das Bewusstsein für das weitreichende Big-Data-Potenzial. Dafür spricht nicht zuletzt die gesunkene Skepsis gegenüber dem Nutzen entsprechender Lösungen. Dieser Vorbehalt sank nach der Freudenberg-IT-Studie im Vergleich zu 2014 von 32 auf 24 %.

Der Big-Data-Zug ist nicht zu stoppen

Kurzum: Der Big-Data-Zug rollt – und das unaufhaltsam. Bis zum Jahr 2025 soll der weltweite Umsatz mit Big-Data-Lösungen auf mehr als 85 Mrd. Euro steigen. Das geht aus einer vom Business Application Research Center (Barc) und dem Bundesverband der IT-Anwender (Voice) vorgestellten Studie hervor. Bereits im Jahr 2020 werden nach Expertenmeinung bis zu 50 Mrd. Geräte im Internet eingebunden sein, angefangen beim einzelnen Sensor bis hin zur kompletten Maschine, Anlage oder Fabrik. Und alle liefern Daten in rauen Mengen, die nicht nur erfasst und gelagert, sondern auch analysiert werden wollen – nicht zuletzt, um neue, lukrative Geschäftsmodelle zu kreieren.

Immer wichtiger wird es deshalb, die Daten so früh wie möglich zu filtern: in solche, die im Gerät direkt und ohne Zeitverlust verarbeitet werden, und andere, die für Evaluation und Analyse in angeschlossene Systeme übermittelt werden. «Die Menge an Daten im Zusammenhang mit dem Internet der Dinge ist enorm – sie müssen gefiltert werden. Eine Verarbeitung direkt im Gerät ist ohnehin oft effizienter. Um das zu erreichen, sind neue Analytics-Lösungen erforderlich», weiss Dr. Joachim Schaper, Vice President & Head of Research Organization bei AGT International in Zürich, einem Anbieter von Analytik für das Internet der Dinge (IoT).

Datenbasierte Fakten bringen den Menschen auf den richtigen Weg

Die grosse Masse an Daten im «Internet of Every­thing» braucht beim Transfer immense Bandbreiten. Das gilt auch für die Speicherung. Hinzu kommen die Heterogenität der erfassten unstrukturierten Daten sowie geografisch häufig weit verteilte Datenquellen. «Ein Grossteil der erfassten Daten ist nicht für Analytics nutzbar, aber vor Ort dennoch wertvoll. Oft ist es wirkungsvoller, den praktischen Nutzen in den Vordergrund zu stellen und eine Reaktion im Gerät in Echtzeit zu erreichen – mit dem Ziel, dass das ,Device' seine typischen Zustände lernt und über die Zeit Anomalien selbstständig melden kann. Die mit dieser Art von künstlicher Intelligenz verbundenen Möglichkeiten werden künftig immer öfter eingesetzt», meint IoT-Experte Schaper.

So verarbeiten komplexe Systeme wie Roboter heute immer mehr Daten. Zum Beispiel lernen sie durch einen regelmäßigen Abgleich mit vorhandenen Daten das Identifizieren kritischer Abweichungen von den Standards. Im Bedarfsfall können sie sofort reagieren. Trotzdem würden Maschinen den Menschen nicht ersetzen, ist Moritz von Plate, CEO des Predictive-Analytics-Spezialisten Cassantec AG, überzeugt. «Aber sie werden die Art und Weise, wie wir Entscheidungen treffen, enorm beeinflussen. Gerade wenn Ursache und Wirkung bei Problemen nicht eindeutig zuzuordnen sind und Entscheidungsträger vor komplexen Gebilden stehen, können datenbasierte Fakten den Menschen auf den richtigen Weg bringen.»

Ähnlich sieht es Jörg Hoffmann, Chef des Karlsruher Automatisierungstechnikherstellers Hoffmann Engineering GmbH: «Verfügbarkeit und Forecast in Produktionsanlagen mit vorausschauenden Informationsmodellen werden immer mehr zum Schlüssel für die Produktion und neue Geschäftsmodelle von morgen. Der Aufgabenschwerpunkt der Mitarbeiter in der Produktion optimiert sich in Richtung neuer Unternehmensprozesse mit intelligenter und intuitiver Prozessanalytik.»

Neues Wissen aus dem Datenwust

Und so werden Daten oder datenbasierte Fakten mehr und mehr zu einem Rohstoff, der die Leistungskraft der modernen Wirtschaft bestimmt. Anders als Stahl, Gold oder Kunststoff kann man ihn zwar nicht sehen oder anfassen, was seine Bedeutung und seinen Wert jedoch kaum schmälert. Für Dr. Lothar Baum, Informatiker im neuen Forschungscampus von Bosch in Renningen, steht fest: «Daten sind das neue Öl der Weltwirtschaft.»

Worum es geht, ist, den stetig wachsenden Datenstrom aus vernetzten Fabriken, vernetzten Autos oder vernetzten Produkten richtig zu nutzen – für einen besseren Kundenservice und optimierte Produktionsprozesse und in Konsequenz für mehr Wettbewerbsfähigkeit. «Die Fähigkeit, aus grossen Datenmengen neues Wissen zu generieren, ist eine Schlüsselkompetenz der Zukunft», so Baum weiter, der in Renningen ein Expertenteam leitet, das sich mit der gezielten Auswertung des zunehmenden Datenvolumens (Data Mining) beschäftigt. Konkret erforscht Baum unter anderem Ansätze, wie sich mit Data Mining die vernetzte Industrie optimieren lässt.

Konkrete Beispiele dafür gibt es bereits: So konnte Bosch durch die Auswertung von Daten aus der Fertigung die Prüfzeit von Hydraulikventilen um 17,4 % verkürzen. Ein ganz schöner Batzen: Denn bei rund 40.000 gefertigten Ventilen pro Jahr werden jetzt 14 Tage eingespart. In diesem Fall bildete die Analyse der Produktionsdaten von 30.000 gefertigten Hydraulikventilen die nötige Wissensbasis. Dabei zeigte sich, dass zeitlich später in der Prüfreihenfolge angesiedelte Schritte entfallen konnten, wenn zuvor mehrere früher angesiedelte Prüfungen positiv ausfielen. Das Resultat des späten Prüfschrittes liess sich zuverlässig aus der Analyse der vorausgehenden vorhersagen. Solche – und zumeist wesentlich komplexere – Zusammenhänge aufzudecken, spart Zeit und Geld. «Bei Millionen Teilen summieren sich selbst wenige Sekunden zu beachtlichen Zeiten und Centbeträge zu Millionen Euro», schwärmt Baum. Jede Ersparnis stärkt die Wettbewerbsfähigkeit und damit die Attraktivität der produzierten Erzeugnisse.

Auf die Dauer hilft nur Rechenpower

Technisch ist das Data Mining überaus anspruchsvoll. «Die dafür nötigen Algorithmen sind zwar grundsätzlich seit vielen Jahrzehnten bekannt. Doch liessen sich die Algorithmen mangels Rechenkraft nicht auf mehrere Milliarden Datenpunkte anwenden», erläutert Baum. Das wird nun möglich, weil aus vielen Servern zusammengeschaltete Cluster auf Tausenden Prozessoren parallel an den riesigen Aufgaben rechnen.

Diese Fähigkeiten haben auch die Grundlagen für ein weiteres gutes Beispiel dafür gelegt, wie nützlich die Beschäftigung mit Big Data sein kann. Das Energieunternehmen British Gas verkauft seinen Kunden die Dienstleistung, Wärme und Warmwasser zu liefern. Zahlreiche der von der Gasfirma installierten Bosch-Boiler sind mittlerweile internetfähig und liefern jede Menge Daten aus dem laufenden Betrieb an den Energieversorger: Wann ist der Boiler in Betrieb, wie lange, wie schnell zündet die Flamme, wie hoch ist die Wassertemperatur? «Die Analyse dieser Informationen deckt mögliche Ursachen auf, falls etwa ein Boiler längere Zeit zum Anspringen braucht als bisher», erläutert Data-Mining-Fachmann Baum.

Der Servicetechniker klingelt nur noch einmal

«Wenn der Servicetechniker zum Kunden fährt, kann er jetzt gleich das richtige Ersatzteil einpacken, da er bereits weiss, was schadhaft ist. Aktuell kommen die Techniker oft zwei Mal – zuerst zur Analyse und dann nochmal zur Reparatur.» Nun klingelt er nur noch ein Mal. Bei Bosch selbst ist die Big-Data-Nutzung bereits weit gediehen. Viele Maschine sind vernetzt. Algorithmen erkennen aus den Sensordaten drohende Schäden an den Maschinen und geben Hinweise für deren rechtzeitige Wartung. Die Big-Data-Komponente der Bosch-IoT-Suite – mit ihr lassen sich IoT-Anwendungen entwickeln, bereitstellen und betreiben – erlaubt die Analyse grosser Datenmengen.

Auch zwei andere grosse Player ihrer Branche, Schaeffler und Deckel Maho Pfronten, lassen das Big-Data-Licht leuchten. Aufbauend auf einem konkreten Investitionsprojekt wurde gemeinsam mit weiteren Partnern ein Maschinenkonzept «Werkzeugmaschine 4.0» entwickelt. Vom Sensor bis in die Cloud vernetzt es bestehende Technik mit neuen, digitalisierten Komponenten und ist somit ein grosser Schritt in Richtung einer digitalisierten Produktion. Dazu wurden zwei Prototypen auf der Basis von DMC 80 FD Duo­block der vierten Generation aufgebaut. Einer davon kommt in der Serienproduktion des Schaeffler-Werks Höchstadt im Segment Genauigkeitslager zum Einsatz. Der zweite Prototyp wurde am Stand von DMG Mori auf der EMO in Mailand gezeigt.

Als Entwicklungs- und Zulieferpartner für antriebstechnische Komponenten in der Werkzeugmaschine verfolgt Schaeffler eine definierte Digitalisierungsstrategie mit dem Ziel, über Sensorik, Vernetzung und Analyse die erhobenen Daten für unterschiedlichste Prozesse verfügbar zu machen und so seinen Kunden einen klaren Mehrwert zu bieten – um beispielsweise über vorausschauende Wartungsstrategien Maschinenstillstände zu vermeiden. Denn: In einer Werkzeugmaschine sind die Lager entscheidend für die Maschinenperformance, da sie nicht nur die Funktionsfähigkeit der Maschine, sondern auch die Qualität des Werkstücks massgeblich bestimmen. Daten, die auf den aktuellen Zustand, aber auch auf das zukünftige Verhalten der Komponente schliessen lassen, bilden deshalb eine wichtige Grundlage für den Maschinenbetreiber.

Analytik aus der Cloud

In den Prototypen des Innovationsprojekts sind in fast allen für den Bearbeitungsprozess relevanten Lagerstellen zusätzliche Sensoren zur Messung von Schwingungen, Kräften, Temperaturen und Drücken integriert, um optimale Informationen über den Maschinenzustand zu erhalten. Wirklich 4.0-fähig ist eine Maschine aber nur dann, wenn die aufgenommenen Daten ausgewertet werden, um Massnahmen abzuleiten. Ein maschineninternes Netzwerk, an das alle zusätzlichen Sensoren, Aktoren und Auswerteeinheiten angebunden sind, macht die Daten zugänglich.

Doch muss zur bereits bestehenden Datenauswertung die Analyse grosser Datenmengen kommen. Der Grund: Korrelationen von Messwerten mit anderen Daten ergeben Muster, die Rückschlüsse auf den Zustand eines Lagers zulassen. Mit geeigneten Algorithmen können die Muster automatisch erkannt und notwendige Handlungsempfehlungen oder Aktionen ausgeführt werden. Die analytische Auswertung von Big Data erfolgt bei Schaeffler in der Cloud.

Dieser Beitrag ist ursprünglich auf unserem PartnerportalMM Maschinenmarkt erschienen.

(ID:44381687)