Grundlagen IoT-Basics: Machine Learning in der Smart Factory

Autor / Redakteur: Baris Ayaz / Jürgen Schreier

Künstliche Intelligenz, Machine Learning, Deep Learning. Was steckt hinter diesen Buzzwords und wo liegt der Nutzen von KI und maschinellem Lernen? Der Beitrag erläutert die relevanten Methoden und Algorithmen und skizziert den Einsatz in der intelligenten Fabrik.

Firma zum Thema

Maschinelles Lernen kombiniert Methoden der Statistik, Informatik und Mathematik mit dem Ziel, Softwaresysteme zu konstruieren, die automatisch aus Daten lernen können.
Maschinelles Lernen kombiniert Methoden der Statistik, Informatik und Mathematik mit dem Ziel, Softwaresysteme zu konstruieren, die automatisch aus Daten lernen können.
(Bild: Pixabay / CC0 )

Rund um das Thema «maschinelles Lernen» (Machine Learning) existieren meist englische Begriffe wie Supervised & Unsupervised Learning, Deep Learning, Classification, Regression, Features, Training & Test Data, Validation – und damit ist nur ein Bruchteil der bekanntesten genannt. Werden die Namen der Algorithmen hinzugenommen, die zum Teil aus Akronymen bestehen, ist die Verwirrung komplett.

Im Folgenden werden die wichtigsten Grundbegriffe und Algorithmen des maschinellen Lernens erklärt. Zunächst jedoch wird der Begriff maschinelles Lernen eingeführt. Anschließend wird eine virtuelle Smart Factory (intelligente Fabrik) errichtet, in der die verschiedenen Verfahren zu Klassifikation, Regression und Clustering anschaulich erklärt werden. Bereits mit diesem Basiswissen über diese drei Hauptverfahren können erste Ideen selbstständig für das nächste Analytics-Projekt abgeleitet werden. Für weitere Inspirationen werden im nächsten Kapitel Anwendungsgebiete für Industrial-Analytics-Projekte aufgezeigt.

Was ist maschinelles Lernen (Machine Learning)?

«Maschinelles Lernen» (Machine Learning) bezeichnet eine Querschnittsdisziplin aus Statistik, Informatik und Mathematik, die das Ziel hat, Softwaresysteme zu konstruieren, die automatisch aus Daten lernen können. Eine Vielzahl generischer Lernalgorithmen wurde entwickelt,um eine Vielzahl von Lernaufgaben zu lösen oder neue Erkenntnisse aus Daten zu gewinnen. Wie der Name «Maschinelles Lernen» (Machine Learning) bereits impliziert, lernen Maschinen komplexe Zusammenhänge, wozu Menschen in puncto Schnelligkeit und Genauigkeit nicht mehr in der Lage sind.

Damit die wachsende Datenflut in der industriellen Produktion beherrschbar wird, hilft maschinelles Lernen, aus einer immensen Menge von Sensoren- und Prozessdaten komplexe Zusammenhänge zu entschlüsseln, Muster zu erkennen und neues Wissen zu generieren. Ein weitläufig bekanntes Beispiel ist die Klassifikation zur Erkennung von E-Mails als Spam, dargestellt in Bild 1.

Die virtuelle Smart Factory (Bild 2) dient als Referenzbeispiel. Auf die virtuelle Smart Factory (smarte Fabrik) wird immer wieder referenziert, um bestimmte Methoden einfacher erklären zu können. Die Optimierungen und Effizienzsteigerungen an der virtuellen Smart Factory werden in den nächsten Abschnitten in diesem Buchkapitel anhand der eingeführten Beispiele veranschaulicht.

In der virtuellen Smart Factory wird ein fiktives Endprodukt in den Maschinen M1 und M2 produziert. Anschließend wird das Endprodukt bei der Qualitätssicherung QS einer Qualitätsprüfung unterzogen. Endprodukte, die den Qualitätsmerkmalen entsprechen, werden abschließend an der Verpackungsmaschine M3 verpackt, womit das Endprodukt fertig produziert ist. Endprodukte, die den Qualitätsmerkmalen nicht entsprechen, werden bei der QS aussortiert.

Bildergalerie
Bildergalerie mit 18 Bildern

Klassifikation – Effizienzsteigerung in der Qualitätssicherung

In der virtuellen Smart Factory wird das Endprodukt am Ende der Produktionskette innerhalb der Qualitätssicherung mit gut oder schlecht bewertet. Bewertungen mit gut entsprechen den Qualitätsansprüchen des Marktes und werden weiter verarbeitet, wohingegen Bewertungen mit schlecht aussortiert werden und Ausschuss darstellen. Die Entscheidung, ob das Endprodukt mit gut oder schlecht bewertet wird, wird am Beispiel der Klassifikation Schritt für Schritt in Kontext von maschinellem Lernen erklärt.

Die Klassifikation teilt dem Endprodukt die diskreten Werte gut und schlecht zu. Größen, die nur einen bestimmten Wert annehmen können, wie z.B. eine der Farben Rot, Grün oder Blau, werden als diskret bezeichnet. Auf der anderen Seite gibt es kontinuierliche Werte, die auch Zwischenwerte annehmen können. Diese sind von der Klassifikation ausgeschlossen (Bild 3).

Zunächst wird in der Qualitätssicherung die Bewertung für das Endprodukt anhand eines Merkmals A bestimmt. Merkmal A sowie weitere Merkmale B, C, D,…repräsentieren in diesem Beispiel unterschiedliche Eigenschaften, wie z.B. Temperatur, Gewicht, Druck, Größe und Werkstoffzusammensetzung. In Bild ist die Verteilung für Merkmal A dargestellt. Eine eindeutige Klassifikation ist nur für gut möglich, wenn der Wert für Merkmal A größer als y ist. Der Wertebereich zwischen x und y lässt keine eindeutige Klassifikation in gut oder schlecht zu. Damit die Klassifikation bessere Entscheidungen zwischen gut und schlecht treffen kann, sind weitere Merkmale notwendig. Die Hinzunahme eines weiteren Merkmals bedeutet mathematisch, dass eine weitere Dimension hinzugefügt wird. Dimensionen sind Features – also Merkmale, die für die Klassifizierung benutzt werden.

Die Hinzunahme von Merkmal B wird in einem Streudiagramm (engl.: scatter plot) in Bild 5 gezeigt. Darin können Zonen und Grenzen für gut und schlecht identifiziert werden. Die Zone für gut ist grün hinterlegt, die für schlecht rot. Durch die Hinzunahme von Merkmal B ist es erstmals möglich, schlecht zu klassifizieren, wenn der Wert für A zwischen x und y sowie der Wert für B zwischen u und v liegt. Dennoch ist eine eindeutige Klassifikation zwischen gut und schlecht nicht für alle Datenpunkte mit den Merkmalen A und B möglich. Diese Datenpunkte sind im Streudiagramm grau hinterlegt.

Bildergalerie
Bildergalerie mit 18 Bildern

Die erneute Hinzunahme weiterer Merkmale ist notwendig. In der Realität variiert die Anzahl der Merkmale stark in Abhängigkeit von der Datenqualität und der jeweiligen Aufgabe zwischen wenigen bis hunderten oder sogar tausenden Merkmalen. Hierfür können alle zur Verfügung stehenden Daten herangezogen werden, die mit dem Endprodukt in Verbindung stehen. Dies können z.B. die Werkstoffzusammensetzungen, die Werkstoffeigenschaften und die erfassten Prozessdaten aus vorherigen Produktionsschritten sein.

In Bild 6 ist eine exemplarische Datenbasis mit mehreren Merkmalen und den dazugehörigen Ergebnissen (Spalte «Gut?») mit gut und schlecht aufgeführt. Diese Datenbasis wird als Trainingsdaten bezeichnet, mit denen der Klassifikationsalgorithmus ein Modell für eine genauere Klassifikation lernt. Die Merkmale «A, B, C, …» sind die unabhängigen Variablen, und das Ergebnis Gut? ist die abhängige Zielvariable. Im maschinellen Lernen (Machine Learning) wird das Lernen von Modellen auf Grundlage von vorhandenem Wissen – das Wissen über das Endergebnis (Gut?) – als «Überwachtes Lernen» (engl. supervised learning) bezeichnet.

Entscheidungsbäume im Machine Learning

Es existiert eine große Menge von generischen Lernalgorithmen, die für verschiedene Klassifikationsaufgaben im Machine Learning unterschiedlich gut geeignet sind. Dazu zählen u.a. Entscheidungsbäume, Support Vector Machines, Neuronale Netze und Deep Learning. Wegen seiner Anschaulichkeit wird als nächstes Beispiel zur Klassifikation ein Entscheidungsbaum gewählt.

Ein Entscheidungsbaum stellt eine Lösung eines Entscheidungsproblems unter Berücksichtigung einer oder mehrerer Merkmale dar. Der Entscheidungsbaum besteht aus einem oder mehreren Knoten, in denen eine Entscheidung getroffen wird. Darüber hinaus besteht der Entscheidungsbaum aus mindestens zwei Blättern, die das Resultat einer Entscheidung repräsentieren. Kanten verknüpfen die Knoten und Blätter und stellen somit den Entscheidungsweg dar. Zur Verdeutlichung ist in Bild 7 ein Entscheidungsbaum mit nur einem Knoten abgebildet. In diesem Knoten wird entschieden, ob der Wert a1 für Merkmal A größer als der Wert y ist (Bild 7). Ist dies der Fall, wird die Kante mit Ja verfolgt, und der Entscheidungsweg endet an dem Blatt mit dem Wert gut, andernfalls bei dem mit dem Wert schlecht. Der Startknoten in einem Entscheidungsbaum wird auch als Wurzelknoten bezeichnet. (Bild 8)

Wie bereits festgestellt, ist die Klassifikation mit einem einzigen Merkmal nicht eindeutig genug. Die Genauigkeit (engl.: accuracy) könnte z.B. bei lediglich 55 % liegen, was nicht annähernd akzeptabel für einen produktiven Einsatz ist. Eine Genauigkeit von 50 % entspricht der Genauigkeit eines Klassifikators, der die Klasse rät. Die Hinzunahme weiterer Merkmale erhöht die Genauigkeit der Klassifikation und vergrößert den Entscheidungsbaum sowohl in der Tiefe als auch in der Breite – der Entscheidungsbaum wird komplexer, aber auch genauer auf den Trainingsdaten.

Dieses Prinzip wird beim Machine Learning so lange rekursiv wiederholt, bis der Entscheidungsbaum eine Genauigkeit von nahezu 100 % auf den Trainingsdaten erreicht. Datenwissenschaftlerinnen und -wissenschaftler nennen diesen Prozess das Trainieren von Modellen. Das Modell wird auf Basis der Trainingsdaten so lange trainiert, bis eine Genauigkeit von nahezu 100 % erreicht ist.Gleichzeitig besteht das Problem der Überanpassung (engl.: overfitting). Dies bedeutet, dass das Modell i.d.R. alle Daten aus dem Trainingsdatensatz korrekt nach gut und schlecht klassifiziert. Der Entscheidungsbaum ist dabei derart komplex geworden, dass für jede Beobachtung ein eigener Knoten entstanden ist. Primäres Ziel des Modelltrainings ist es, die den Daten zugrunde liegenden Muster auf Basis der Trainingsdaten zu lernen. Überanpassung wird in der Praxis durch eine Kontrolle der Modellkomplexität vermieden (Regularisierung).

Für einen produktiven Einsatz sollte das Modell mit Daten validiert werden, die nicht Bestandteil der Trainingsdaten sind. In der Modellvalidierung werden Testdaten genutzt, deren Ergebnisse bekannt sind. Anschließend werden die Testdaten mit dem neuen Klassifikationsmodell getestet und mit den realen Ergebnissen verglichen (Bild 9).

Modellvalidierung: Ergebnisse richtig interpretieren

Bei der Modellvalidierung ist es nicht ausreichend, alleine die Genauigkeit zu betrachten. Eine Genauigkeit von 97 % erscheint auf den ersten Blick ein sehr gutes Resultat zu sein. Je nach zugrunde liegendem Vorgang kann dies jedoch ebenso gut sehr schlecht sein. Eine detaillierte Interpretation der Ergebnisse der Modellvalidierung ist unabdingbar, um bessere Aussagen über die Klassifikationsgüte treffen zu können. Hierfür werden vier neue Kategorien für die Bewertung der Klassifikationsgüte eingeführt:

  • Richtig positiv (engl.: true positives): Das Endprodukt entspricht den Qualitätsansprüchen, und das Klassifikationsmodell hat dies korrekt mit gut klassifiziert.
  • Richtig negativ (engl.: true negatives): Das Endprodukt entspricht nicht den Qualitätsansprüchen, und das Klassifikationsmodell hat dies korrekt mit schlecht klassifiziert.
  • Falsch positiv (engl.: false positives): Das Endprodukt entspricht nicht den Qualitätsansprüchen, aber das Klassifikationsmodell hat dies fälschlich mit gut klassifiziert.
  • Falsch negativ (engl.: false negatives): Das Endprodukt entspricht den Qualitätsansprüchen, aber das Klassifikationsmodell hat dies fälschlich mit schlecht klassifiziert.

Die vier Bewertungskategorien ermöglichen eine bessere Einsicht in die Klassifikationsgüte, um zu bestimmen, wie genau ein Klassifikationsmodell arbeitet. Diese vier Bewertungskategorien werden übersichtlich in einer Konfusionsmatrix (engl.: confusion matrix) in Bild 10 dargestellt. Die Konfusionsmatrix besteht aus den Spalten gut und schlecht, die das Klassifikationsmodell vorhersagt. Die Zeilen repräsentieren die tatsächlichen Werte für gut und schlecht, die in den Testdaten vorhanden sind. Die Zellen «richtig positiv» (RP) und «richtig negativ» (RN) geben die Anzahl der richtig vorhergesagten Gut- und Schlecht-Werte an. Die Zellen «falsch positiv» (FP) und «falsch negativ» (FN) geben die Anzahl der falsch vorhergesagten Gut- und Schlecht-Werte an.

Bildergalerie
Bildergalerie mit 18 Bildern

Werden RP und FN miteinander summiert, so ergibt die Summe die Anzahl der tatsächlich verfügbaren Gut-Werte in dem Testdatensatz. Gleiches gilt für FP und RN, und die Summe entspricht der Anzahl der Schlecht-Werte im Testdatensatz. Werden die Spalten summiert, so gibt die Summe von RP und FP die Anzahl der Gut-Werte, die das Klassifikationsmodell vorhergesagt hat, und die Summe von FNund RN die Anzahl der Schlecht-Werte, die ebenfalls von dem Klassifikationsmodell vorhergesagt wurden.

Mit Konfusionmatrizen arbeiten

In Bild 11 ist die Konfusionsmatrix für einen Testdatensatz mit 10 000 Einträgen (Anzahl insgesamt, total) abgebildet. Davon sind 6000 Einträge als gut gekennzeichnet und 4000 als schlecht. In der ersten Zeile sind alle 6000 (tatsächliche Anzahl gut) Einträge, die mit gut gekennzeichnet sind. Davon hat das Klassifikationsmodell 5500 korrekt mit gut klassifiziert (richtig positiv) und 500 fälschlich mit schlecht (falsch negativ). In der zweiten Zeile sind alle 4000 Einträge (tatsächliche Anzahl schlecht), die mit schlecht gekennzeichnet sind. Davon hat das Klassifikationsmodell 112 fälschlich mit gut klassifiziert (falsch positiv) und 3888 korrekt mit schlecht (richtig negativ). Auf Basis der Konfusionsmatrix können weitere Kennzahlen berechnet werden, die eine bessere

Beurteilung über die Klassifikationsgüte erlauben.

  • Treffergenauigkeit (engl.: accuracy): Wie oft lag die Klassifikation insgesamt richtig? (RP+RN) / total = (5500+3888) / 10000 = 0,9388 = 93,88 %
  • Klassifikationsfehler (engl.: misclassification rate): Wie oft lag die Klassifikation insgesamt falsch? (FP+FN) / total = (112+500) / 10000= = 0,0612 = 6,1 2%
  • Richtig-Positiv-Rate (engl.: true positive rate): Wie oft lag die Klassifikation richtig, wenn es tatsächlich gut war? RP / (RP+FN) = 5500 / (5500+500) = 0,9166 = 91,7 %
  • Falsch-Negativ-Rate (engl.: false negative rate): Wie oft lag die Klassifikation falsch, wenn es tatsächlich gut war? FN / (RP+FN) = 500 / (5500+500) = 0,0833 = 8,3 %
  • Richtig-Negativ-Rate (engl.: true negative rate): Wie oft lag die Klassifikation richtig, wenn es tatsächlich schlecht war? RN / (FP+RN) = 3888 / (112+3888) = 0,972 = 97,2 %
  • Falsch-Positiv-Rate (engl.: false positive rate): Wie oft lag die Klassifikation falsch, wenn es tatsächlich schlecht war? FP / (FP+RN) = 112 / (112+3888) = 0,028 = 2,8 %
  • Positiver Vorhersagewert (engl.: positive predictive value): Wenn die Klassifikation gut vorhersagte, wie oft lag die Klassifikation damit richtig? RP / (RP+FP) = 5500 / (5500+112) = 0,98 = 98 %
  • Negativer Vorhersagewert (engl.: negative predictive value): Wenn die Klassifikation schlecht vorhersagte, wie oft lag die Klassifikation damit richtig? RN / (FN+RN) = 3888 / (500+3888) = 0,89 = 89 %

Aus Sicht der Qualitätssicherung sind die Kennzahlen «Falsch-Negativ-Rate» und «Falsch-Positiv-Rate» besonders interessant. Die 500 Endprodukte, die als «falsch negativ» fälschlich aussortiert wurden, entsprechen den Qualitätsansprüchen und bilden – bezogen auf die insgesamt 6000 guten Endprodukte – einen vermeidbaren Ausschuss von ca. 8,3 % (Falsch-Negativ-Rate). Die 112 Endprodukte, die als «falsch positiv» für die Weiterverarbeitung zugelassen sind, entsprechen den Qualitätsansprüchen nicht und bilden – bezogen auf die insgesamt 5612 (Anzahl Vorhersage gut) zugelassenen Endprodukte – einen Produktfehler von ca. 2,8 % (Falsch-Positiv-Rate).

Bildergalerie
Bildergalerie mit 18 Bildern

Abschließend sind die Klassifikationsergebnisse mit einer Treffergenauigkeit von ca. 93,88 % und einem Klassifikationsfehler von 6,12 % für den produktiven Einsatz von Machine Learning in der virtuellen Smart Factory gut genug. Dennoch sollten weitere Daten herangezogen werden, um die Treffergenauigkeit zu erhöhen und den Klassifikationsfehler zu minimieren. Die Klassifikationsmodelle sollten in regelmäßigen Abständen manuell oder automatisiert angepasst und validiert werden (Modellmanagement). Ein Assistenzsystem für die automatische Klassifikation in der Qualitätssicherung könnte eine signifikante Effizienzsteigerung für die gesamte Produktionskette bedeuten.

Regression ermöglicht optimale Produktionsplanung und -steuerung

In der Zentrale der virtuellen Smart Factory (Bild 12) werden die Kundenaufträge bearbeitet und in der Fertigung die bestellten Endprodukte produziert. Anschließend werden die Endprodukte durch die Logistik in den Handel gebracht. Der Handel generiert wiederum neue Aufträge und beauftragt die Zentrale, so dass der Kreislauf letztendlich geschlossen ist. Die gesamte Wertschöpfungskette von der Beauftragung bis zum Endprodukt ist nicht kosteneffizient. Eine bessere Produktionsplanung und -steuerung können dem produzierenden Unternehmen helfen, auf allen Ebenen kosteneffizient zu arbeiten.

Auf Basis der historischen Unternehmensdaten werden mit Hilfe von Regressionsverfahren verschiedene Prognosemodelle entwickelt, die präzise und belastbar sind. Die neuen Prognosemodelle helfen dem produzierenden Unternehmen, unter Berücksichtigung mehrerer Einflussfaktoren (wie z.B. zukünftigen Absatzmengen, benötigten Rohstoffmengen und notwendigen Kapazitäten), eine optimale Produktionsplanung und -steuerung zu erstellen.

Die Regression gehört wie die Klassifikation zu der Gruppe des überwachten Lernens im Machine Learning. Anders als bei der Klassifikation ist die Regression eine Klasse von Verfahren, um kontinuierliche Werte zu bestimmen – z.B. Mengen und Preise (Bild 13). Weiterhin untersucht die Regression die funktionalen Zusammenhänge zwischen verschiedenen Merkmalen. Ein funktionaler Zusammenhang besteht dann, wenn eine oder mehrere unabhängige Variablen z.B. x eine abhängige Zielvariable yy erklären, so dass y = f(x) +.pngilon gilt. Beispielsweise könnte die abhängige Variable y für eine Absatzmenge stehen; ist die unabhängige Variable x das Datum, so könnte über y = f(x) +.pngilon die zukünftige Absatzmenge prognostiziert werden.

Die Regression kann für eine Vielzahl von Aufgabenstellungen eingesetzt werden, wie z.B. für die Identifikation von KPIs (Key Performance Indicators), die Bestimmung von optimalen Maschinenparametern oder die Prognose von Zielvorgaben in der Fertigung. Ebenfalls ist die Prognose von fehlenden oder zukünftigen Werten möglich, beispielsweise: welche Absatzmengen erwartet werden können, welche Rohstoffmengen benötigt werden und das Abschätzen von notwendigen Kapazitäten. Darüber hinaus können Zusammenhänge zwischen einem und mehreren Merkmalen erkannt werden – beispielsweise, welche Auswirkung die Eigenschaften Temperatur und Druck auf das Endprodukt in der Fertigung haben. Außerdem ist es möglich, Merkmale, die das Endprodukt beeinflussen, zu identifizieren, ohne dass diese jemals in Betracht gezogen worden wären, sowie die Art und Weise dieser Einflüsse.

Es gibt viele verschiedene Regressionsverfahren, wie z.B. die lineare Regression, logistische Regression, symbolische Regression und generalisierte lineare Modelle. Jedes dieser Verfahren hat seine Stärken und Schwächen und wird je nach Aufgabenstellung ausgewählt. In den folgenden Abschnitten werden die Grundlagen für eine einfache lineare Regression aus Sicht des maschinellen Lernens (Machine Learning) Schritt für Schritt erklärt.

Bestimmtheitsmaß R² sollte über 70 % liegen

Für eine bessere Produktionsplanung in der virtuellen Smart Factory wird für jedes einzelne Produkt ein Prognosemodell erstellt, damit zukünftige Absatzmengen besser prognostiziert werden können. In Bild 13 sind auf Basis der historischen Unternehmensdaten die Absatzmengen für verschiedene Produkte A, B, C, … kompakt aufgelistet. Die Datenbasis enthält für jedes Produkt die genaue Absatzmenge für den Zeitraum von Januar 2000 bis Dezember 2016. Diese Datenbasis stellt zugleich den Trainingsdatensatz für das maschinelle Lernen dar. Es wird ein lineares Modell trainiert, um einen Zusammenhang zwischen der unabhängigen Variablen Datum und der abhängigen Variablen A (die Absatzmenge von Produkt A) zu finden. Das Ergebnis ist eine Gerade, die in Bild 14 dargestellt ist.

Die Modellgüte für das vorliegende Regressionsmodell wird mit dem Bestimmtheitsmaß R2 (engl.: R-squared) bestimmt. Ein R² von 0 % bedeutet, dass die Absatzmenge von Produkt A nicht mit einem linearen Modell durch die unabhängige Variable Datum erklärt werden kann. Ein R² von 100 % hingegen bedeutet, dass die Absatzmenge von Produkt A mit einem linearen Modell durch die unabhängige Variable Datum perfekt erklärt wird. Für einen produktiven Einsatz von Machine Learning in der virtuellen Smart Factory (intelligenten Fabrik) sollte der R² -Wert größer als 70 % sein. Die Berechnung für das folgende R² -Bestimmtheitsmaß wird in Bild 15 visualisiert. Die prognostizierten Werte liegen auf der Geraden, und die Distanz zum tatsächlichen Wert ist gestrichelt dargestellt. Die Distanz zwischen dem tatsächlichen Wert und dem prognostizierten Wert wird für die Berechnung von R² quadriert.

Dieses Vorgehen wird für alle Datenpunkte in dem Trainingsdatensatz durchgeführt, und die Ergebnisse der Distanzen werden zu einer Gesamtsumme aufsummiert. Anschließend wird die Gesamtsumme durch die Anzahl der Datenpunkte dividiert. Das Ergebnis der Division wird von der Zahl 1 subtrahiert. Somit liegt das Ergebnis für das Bestimmtheitsmaß R² zwischen 0 und 1. Für eine prozentuale Darstellung kann das Ergebnis abschließend mit 100 multipliziert werden. Dieser Prozess wird automatisiert für alle Produkte durchgeführt, bis letztendlich für jedes Produkt ein Prognosemodell zur Verfügung steht. Das Bestimmtheitsmaß R² liegt für alle Prognosemodelle zwischen 78 % und 97 %, was völlig ausreichend für die virtuelle Smart Factory ist.

Komplexe Prognosen auf Basis der symbolischen Regression

Die linearen Regressionsmodelle sind bereits für viele Anwendungsfälle ausreichend, da viele reale Prozesse im relevanten Bereich lineare Näherungen haben, viele andere aber auch nicht. Hochpräzise Prognosemodelle können z.B. mit der symbolischen Regression entwickelt werden. Die symbolische Regression erstellt spezialisierte Modellformeln auf Basis einfacher mathematischer Bausteine automatisch. Dazu werden typischerweise Milliarden von Modellkandidaten auf ihre Genauigkeit und Komplexität geprüft und ausgewählt.

Das Ergebnis sind mathematische Funktionen, die von Experten verstanden und interpretiert werden können, daher werden sie als White-Box-Modelle bezeichnet. Mit diesen Eigenschaften ausgerüstet, ist die symbolische Regression unter anderem in der Lage, physikalische Gesetze automatisiert zu erkennen – der «virtuelle Wissenschaftler». In Bild 16 ist exemplarisch ein hochpräzises Prognosemodell auf Basis der symbolischen Regression abgebildet, das im Gegensatz zum linearen Regressionsmodell weitere Gegebenheiten wie z.B. saisonale Perioden berücksichtigt.

Die Produktionsplanung kann sich für die Prognose zukünftiger Absatzmengen auf mathematisch präzise und statistisch belastbare Modelle verlassen und nicht wie in der Vergangenheit auf Bauchentscheidungen. Dadurch ergeben sich weitere Synergieeffekte, die sich in der gesamten Produktionsplanung bemerkbar machen. Die Produktionsplanung kann den Bedarf an Rohstoffen und Kapazitäten zielgerichteter abschätzen und kostengünstiger einkaufen. Die Lagerbestände sind zugleich optimiert. Weiterhin sind eine bessere Fertigungsplanung sowie die intelligente und effiziente Maschinenauslastung im Voraus planbar. Engpässe werden frühzeitig erkannt und können durch gezielte Maßnahmen kompensiert werden. Verkürzte Lieferzeiten bei gleichzeitiger Reduzierung der Produktionskosten maximieren die Gewinne und die Kundenzufriedenheit steigt zugleich.

Bildergalerie
Bildergalerie mit 18 Bildern

Clusteranalyse deckt Ähnlichkeiten in Produktionsdaten auf

Für die Qualitätssicherung in der fiktiven Smart Factory wurde im Beispiel der Klassifikation ein Modell erstellt, mit dem Endprodukte automatisiert nach ihrer Produktqualität bewertet werden. Für den dort verwendeten Trainingsdatensatz waren die Produktqualitäten bekannt und wurden mit gut und schlecht gekennzeichnet. Auf dieser Grundlage konnte ein Modell trainiert werden, das die verschiedenen Merkmale für das jeweilige Endprodukt nach gut und schlecht klassifiziert.

Ist eine solche Klassifikation auch möglich, wenn die Produktqualitäten vorher nicht bekannt sind? – Ja, mit einem Cluster-Algorithmus! Das Clustering ist eine Gruppe von Verfahren, mit denen ähnliche Merkmale zu einer Gruppe zugeordnet werden. Gruppen werden auch als Cluster bezeichnet. Cluster-Algorithmen (z.B. k-Means-Algorithmus, EM-Algorithmus oder DBSCAN) analysieren die verschiedenen Merkmale, und ähnliche Merkmalskombinationen werden zu den jeweiligen Gruppen zugeordnet.

Bildergalerie
Bildergalerie mit 18 Bildern

Für die Clusteranalyse werden die Trainingsdaten (Bild 17) aus dem Klassifikationsbeispiel ohne die Spalte Gut? verwendet, um ähnliche Merkmale Clustergruppen zuzuordnen. Wenn Algorithmen wie das Clustering mit Trainingsdaten lernen, in denen das Resultat wie z.B. Gut? nicht bekannt ist, so werden diese Algorithmen als «unüberwachtes Lernen» (engl.: unsupervised learning) bezeichnet. In Bild 17 ist das Ergebnis der Clusteranalyse illustriert. Die grünen Punkte gehören zur Gruppe gut und die roten zur Gruppe schlecht. Die grauen Punkte sind Ausreißer (engl.: outlier) und können zu keiner Gruppe zugeordnet werden. Nachfolgend sind die Ergebnisse der Clusteranalyse in Bild 18 aufgeführt.

Die Fachexperten können das neue Wissen interpretieren und validieren. Aus diesem Wissen können anschließend Mehrwerte generiert werden, indem z.B. die Zuordnung nach gut und schlecht für die automatische Klassifizierung verwendet wird. Die Fachexperten können das neue Wissen interpretieren und validieren. Aus diesem Wissen können anschließend Mehrwerte generiert werden, indem z.B. die Zuordnung nach gut und schlecht für die automatische Klassifizierung verwendet wird.

Dipl.-Inform. Baris Ayaz studierte Informatik an der Technischen Universität Dortmund und theoretische Medizin an der Ruhr-Universität Bochum. Nach dem Studium arbeitete er in der Finanzindustrie und war für die Entwicklung von automatisierten Handelssystemen und für die schnelle Verarbeitung von Finanzdaten verantwortlich. Er ist Mitbegründer und Geschäftsführer der sourcewerk GmbH, die sich mit der Datenanalyse rund um Industrie 4.0 befasst..

Fachbuch „Industrie 4.0: Potenziale erkennen und umsetzen“ Dieser Beitrag stammt aus den dem Fachbuch „Industrie 4.0: Potenziale erkennen und umsetzen“ von Thomas Schulz (Hrsg.) Das Buch bietet dem Professional einen praxisorientierten und umfassenden Einblick in die Digitalisierung der Fertigung und der Produktion. Das Buch „Industrie 4.0“ kann hier versandkostenfrei oder als eBook bestellt werden.

(ID:45204206)