Künstliche Intelligenz Blackboxing vs Whiteboxing: Wovon die Steuerungs- und Automatisierungstechnik profitiert

Von Dr. Theo Steininger* |

Anbieter zum Thema

Die meisten KI-Anwendungen gleichen aktuell tendenziell einer Blackbox, da ihre berechneten Entscheidungen nicht wirklich nachvollziehbar sind. Dem gegenüber steht der Ansatz des Whiteboxing, der entsprechende Berechnungen auch begründet. Was bringt das?

KI-Anwendungen, die dem Blackbox-Prinzip folgen, sind leistungsstärker, das Whitebox-Design macht Entscheidungen dafür transparenter.
KI-Anwendungen, die dem Blackbox-Prinzip folgen, sind leistungsstärker, das Whitebox-Design macht Entscheidungen dafür transparenter.
(Bild: gemeinfrei / Pixabay)

Künstliche Intelligenz (KI) und Machine Learning (ML) haben den gesamten industriellen Bereich und speziell die Steuerungs- und Automatisierungstechnik mit konkreten, praktischen Anwendungsmöglichkeiten erfasst. Die wirtschaftlichen Vorteile entsprechender Lösungen sind für zukunftsorientierte Unternehmen zu einer großen Chance und im Zuge dessen zu einer Notwendigkeit geworden, um den Wettbewerbern einen entscheidenden Schritt voraus zu sein. Denn: Mit Hilfe des maschinellen Lernens können Data Scientists bisher nicht geschlossen lösbare Fragestellungen beantworten, an denen sich klassische Algorithmen die Zähne ausbeißen, da die geschlossene, also vollständige und exakte Berechnung sehr viel Rechenkapazität benötigt.

Darauf aufbauend lassen sich bestehende Prozesse sowie die Prozess- und Produktqualität noch weiter optimieren, Prognosen für die Zukunft ableiten und neue Geschäftsmodelle entwickeln. Als Grundlage für den Einsatz von Machine-Learning-Modellen müssen zunächst alle relevanten Daten von Maschinen, Anlagen und Prozessen, aber auch in Form von Expertenwissen gesammelt werden. Aber dann?

Viele Unternehmen setzen auf traditionelle Machine-Learning-Verfahren. Dazu werden Modelle in Form mathematischer Funktionen erstellt, die präzise Vorhersagen treffen können und am Ende ein entsprechendes Ergebnis liefern. Das Problem dabei: Diese Modelle sind in der Regel Blackbox-Modelle. Projektverantwortliche wissen zwar, welche Daten verarbeitet und welche Ergebnisse am Ende generiert wurden, aber nicht, wie und warum beispielsweise eine Vorhersage auf eine bestimmte Weise getroffen wurde. Diese Modelle haben damit nicht den Anspruch, Zusammenhänge zu erklären, sondern zielen lediglich darauf ab, Trainingsdaten zu reproduzieren. Es findet keine Rekonstruktion der die Daten erzeugenden Prozesse an sich statt. Abhilfe schafft hier der Einsatz von KI-Ansätzen, die den Ansprüchen einer Whiteboxing-Lösung gerecht werden – das heißt, dass Vorhersagen nicht nur richtig berechnet, sondern auch durch das Modell begründet werden können.

Black- vs. Whiteboxing: Wo liegt der Unterschied?

Wie bereits erwähnt, spielen beim Blackboxing lediglich Input und Output eine Rolle. Die Gründe oder Prozesse, die für die Generierung des Outputs verantwortlich sind, sind hier ebenso wenig bekannt wie die Variablen, die ein Ergebnis oder eine Prognose tatsächlich beeinflusst haben. Selbst die Experten, die den Algorithmus entwickelt haben, wissen nicht, wie dieser aufgrund der hohen Komplexität zustande kommt, da die eingesetzten künstlichen neuronalen Netze, Mixturmodelle oder lineare und nichtlineare Regressionen meist aus einer unüberschaubaren Anzahl an Parametern bestehen.

Im Gegensatz dazu beschreibt Whiteboxing als Überbegriff transparente kausale Modelle, die Ursache und Wirkung identifizieren können.

Data Scientists können damit zu jeder Zeit nachvollziehen, was mit den Daten in den verschiedenen Teilprozessen des Modells geschieht, welche Berechnungen durchgeführt werden und damit auch, wie die eingesetzte KI zu ihrem Ergebnis kommt.

Auf der einen Seite haben Blackbox-Modelle also beobachtbare Input-Output-Beziehungen, aber keine Klarheit über die innere Funktionsweise. Auf der anderen Seite haben Whitebox-Modelle den Vorteil von nachvollziehbaren Verhaltensweisen, Merkmalen und Beziehungen zwischen Einflussvariablen und den Ausgabevorhersagen. Sie gelten allerdings oft als weniger leistungsstark, da Blackbox-Modelle eine hohe Nichtlinearität und Interaktionen zwischen den Features auch dann erfassen können, selbst wenn diese bei der vorherigen Modellierung und dem Feature-Engineering nicht berücksichtigt wurden.

Trotz der höheren theoretischen Leistung haben Blackbox-Modelle jedoch gerade in der Industrie einige Nachteile. Zum einen lassen sich die Ergebnisse des Modells innerhalb des Unternehmens oder einer anderen Abteilung sowie Kunden gegenüber nur schwer anschaulich erklären, weshalb alle Beteiligten dem Modell und seinen Resultaten beinahe blind vertrauen müssen. Zum anderen kann eine Vielzahl von Problemen auftreten, die sich auf die Modell-Performance auswirken und die sich aufgrund des mangelnden Verständnisses der Funktionsweise des Blackbox-Modells nur schwer erkennen und lösen lassen. Dazu zählen beispielsweise Overfitting und Scheinkorrelationen, die zu falschen Schlussfolgerungen führen.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Hinzu kommt, dass leider nicht vorhersehbar ist, wie das Modell mit den Daten umgeht, wenn die Datenmenge an sich zu gering ist, die verwendeten Daten verrauscht sind oder in ihrer statistischen Verteilung nicht dem zugrundeliegenden Prozess entsprechen.
Letzteres kommt in der Automatisierungstechnik fast immer vor, da zur Datenerhebung nur in den seltensten Fällen gezielte statistische Stichproben erhoben und stattdessen die Daten aus dem laufenden Betrieb genutzt werden. Für den laufenden Betrieb werden Anlagen mit Parameter-Presets betrieben, welche einem Algorithmus wiederum Korrelationen vorgaukeln, die in Realität gar nicht existieren. Konkrete Anwendungsfälle in der Steuerungs- und Automatisierungstechnik lassen sich mit Blackboxing also nur lösen, wenn dem Unternehmen sehr viele und vor allem qualitativ hochwertige Daten zu Verfügung stehen. Diese haben Unternehmen jedoch nur in den seltensten Fällen und stoßen daher mit Blackboxing-Modellen schnell an ihre Grenzen.

Whiteboxing: Die Lösung für die Steuerungs- und Automatisierungstechnik

Eine geeignete Software-Lösung in diesem Bereich muss den Anspruch eines Whiteboxing-Modells erfüllen. Auf diese Weise behalten Data Scientists jeder Zeit den Überblick über alle Inputs und Outputs sowie jede Zwischenstufe und jeden Teilprozess im Modell. Diese lassen sich im Gegensatz zu gängigen Verfahren auch gesondert trainieren und nachträglich mit weiteren Daten anreichern.

Wird also beispielsweise im Projektverlauf eine Maschine ausgetauscht, können die Daten gesondert trainiert werden, sodass nicht der komplette Prozess neu berechnet werden muss. Bereits generierte Ergebnisse werden dabei gespeichert und können zu jeder Zeit weiterverwendet werden. Eine passende Lösung ist zudem in der Lage, die Genauigkeit der Ergebnisse zu ermitteln bzw. wie sich die Unsicherheit des Inputs auf die Genauigkeit der Prognosen auswirkt. Ebenfalls wichtig: Die Lösung sollte Möglichkeiten bieten, um Overfitting zunächst zu erkennen und schließlich zu beheben.

Wie Machine-Learning-Modelle, die auf dem Prinzip des Whiteboxing basieren, erfolgreich in der Praxis angewendet werden, zeigt ein Spezialist für Steuerungs- und Automatisierungstechnik. Das Machine-Learning-Modell wurde im Rahmen der Produktion von elektromechanischen Bauteilen eingesetzt, deren komplexer Montagevorgang auf hochautomatisierten Anlagen erfolgt.

Steigerung der Gesamtanlageneffizienz

Das Unternehmen legt großen Wert auf die hohe Qualität seiner Produkte und ist daher daran interessiert, Produktionsprozesse kontinuierlich zu optimieren. Die Verantwortlichen müssen genau nachvollziehen können, wie die jeweiligen Montageprozesse funktionieren und welche Faktoren innerhalb der Montageanlage zu qualitativ hochwertigen Endprodukten führen. Lässt sich also bereits in der Anlage erkennen, welche Prozess-Drifts – schleichende Veränderungen in den Prozessparametern und in den Eigenschaften der montierten Komponenten – welche Konsequenzen auf die Qualität haben, könnte das Unternehmen direkt gegensteuern. Das reduziert nicht nur Ausschuss, sondern erhöht auch die Gesamtanlageneffektivität.

Vor dem Einsatz der auf Whiteboxing basierenden Lösung überwachten die Verantwortlichen Sensoren und Aktoren rund ein halbes Jahr, sammelten Daten und versuchten, mit einem klassischen Blackboxing-Modell Abhängigkeiten zwischen der Qualität der Produkte und den verschiedenen Parametern zu erkennen. Signifikante Korrelationen ergaben sich daraus leider nicht. Zum einen war es durch die enorme Kombinatorik der möglichen Anlagenzustände unmöglich, für jeden Zustand Datenpunkte für das Training des Algorithmus zu finden. Zum anderen sind reale Messdaten immer auch mit Rauschen behaftet. Erst durch eine explizite Modellierung konnte das Unternehmen sicherstellen, dass das Modell das Rauschen nicht für ein echtes Signal hält und so Overfitting ausschließen. Dabei ging man wie folgt vor:

Schritt eins: Expertenwissen sammeln
Im ersten Schritt betrachteten Montageplaner, Anlagenführer und Konstrukteure die einzelnen Aspekte des Montagevorgangs und brachten diese mit den einzelnen Maschinenbestandteilen sowie mit den Aktoren und Sensoren in Verbindung, die jeweils zum Einsatz kommen. Das Experten-Team stellte hier also Wirkketten auf und das unabhängig jeder KI, sondern nur anhand des Wissens der Prozessexperten.

Auf dieser Basis wurde ein Abhängigkeitsparagraph erstellt, der die verschiedenen Abhängigkeiten gewichtet und so darstellt, wie die einzelnen Funktionen am Ende zur gewünschten Produktqualität führen. Als Beispiel: Wie wirkt das Anzugsdrehmoment einer bestimmten Schraube am Ende auf die Produktqualität?

Schritt zwei: KI im Einsatz
Das Wissen der Prozessexperten bildet das entscheidende Fundament, aufgrund der Komplexität der anschließenden Berechnungen ist beim Zusammenführen aller Daten eine KI notwendig. Die eingesetzte Technik gehört zu den klassischen KI-Techniken und ist ein sogenanntes Bayes’sches Netz, das Wahrscheinlichkeiten quantifiziert und deren Wirkketten darstellt. Beim Aufbau dieses Netzes kam die menschliche Intelligenz zum Einsatz, bei der Gewichtung des Netzes die Fähigkeiten der KI.

Das Unternehmen ist nun während des Prozessablaufs – konkret in den Sekunden, in denen montiert wird – in der Lage, eine Vorhersage zu treffen hinsichtlich der Qualität des zu produzierenden elektromechanischen Bauteils, aber auch über möglicherweise notwendige Maßnahmen, um proaktiv gegenzusteuern, sollten die erforderlichen Qualitätsstandards nicht erreicht werden.

So konnten die Projektbeteiligten eine Verbesserung der Effektivität dieser Anlage erzielen. Das sowohl durch die Verbesserung des Gutteileanteils – das heißt einer Reduzierung des Ausschusses – als auch durch die Erhöhung der Maschinenverfügbarkeit – also eine höhere Stabilität im Laufen der Maschine. Auf diese Weise liefert die KI einen echten Mehrwert im Einsatz in der Produktion.

Grau ist alle Theorie

Ob Black- oder Whiteboxing – hier ist es vom jeweiligen Anwendungsfall abhängig, auf welches Modell Data Scientists zugreifen sollten. In der Steuerungs- und Automatisierungstechnik lohnt es sich jedoch auf Whiteboxing-Methoden zu setzen, um schnell, effizient und vor allem transparent Prozesse zu optimieren und so auch künftig den eigenen Wettbewerbern einen entscheidenden Schritt voraus zu sein.

* Dr. Theo Steininger arbeitet als CEO bei Erium.

(ID:47383780)