IoT-Basics Was ist Künstliche Intelligenz? Definition, Anwendung und Beispiele

Redakteur: Jürgen Schreier

Künstliche Intelligenz (KI): 52 Prozent der Deutschen glauben zu wissen, was dahinter verbirgt. KI ist damit einer der geläufigsten Begriffe aus der Welt der Digitalisierung. Was man mit KI, AI und Machine Learning alles machen kann, erläutern wir in diesem Beitrag.

Selbstfahrende Autos, genauere medizinische Diagnosen oder Unterstützung bei der Aufklärung von Verbrechen: Künstliche Intelligenz wird schon heute in vielen Lebensbereichen eingesetzt und gilt als Schlüsseltechnologie der kommenden Jahre.
Selbstfahrende Autos, genauere medizinische Diagnosen oder Unterstützung bei der Aufklärung von Verbrechen: Künstliche Intelligenz wird schon heute in vielen Lebensbereichen eingesetzt und gilt als Schlüsseltechnologie der kommenden Jahre.
(Bild: Pixabay / CC0 )

Technothrill und filmreife Action: Das bietet der jüngste Pageturner des Bestsellerautors Frank Schätzung "Die Tyrannei des Schmetterlings". Alles dreht sich um Quantencomputing und um Künstliche Intelligenz, wobei Letztere (erwartungsgemäß) komplette aus dem Ruder läuft. Anstatt - wie von ihrem philantropisch gesinnten Schöpfer intendiert - die Grundprobleme der Menschheit zu lösen, beginnt das neuronale Superhirn eben diese Menschheit zu eliminieren - in der Erkenntnis, dass deren Existenz das größte Menschheitsproblem darstellt.

Für Hochspannung ist also gesorgt. Und auch sonst ist der Spezialist für packende Öko- und Tech-Thriller voll am Puls der Zeit. Denn kaum ein Thema wird aktuell dermaßen gehypt wie die Künstliche Intelligenz. Über 1,2 Milliarden Ergebnisse spuckt Google in Dumme zu den Suchbegriffen "Künstliche Intelligenz", "Artificial Intelligence" und "Machine Learning" aus. Apropos Google: Natürlich arbeitet die Suchmaschine selbst mit KI-Unterstützung.

Während KI-Kritiker dystopische Szenarien à la Schätzing heraufbeschwören, erwarten sich andere von neuronalen Netzwerken und Deep Learning wahre Wunder: zum Beispiel Ray Kurzweil. Der amerikanische Erfinder, Futurist , Gründer der Singularity University und Director of Engineering beim Suchmaschinenbetreiber Google gilt als einer der bekanntesten Vordenker des Transhumanismus. Er prognostiziert für das Jahr 2045 eine exponentielle Zunahme der informationstechnologischen Entwicklung: eine Singularität, die eine künstliche Intelligenz ermöglicht, mit der die Menschheit Unsterblichkeit erlangen kann.

Doch auch bei eher bodenständigen Herausforderungen erwartet man von KI und der "Subdisziplin" Machine Learning (ML) Lösungen. "Maschinelles Lernen (ML) erschließt der Automatisierung neue Möglichkeiten und spürt brachliegende Optimierungspotenziale auf: mit prädiktiver Wartung und beim Steuern von Prozessen, zur Detektion von Anomalien an Maschinen und Anlagen sowie von Werkstücken, bei kollaborativ arbeitenden Robotern, in der automatisierten Qualitätskontrolle und beim Optimieren des Fertigungsablaufs in Maschinen", erläutert der Automatisierungsexperte und Fachpublizist Reinhard Kluger.

Artificial Intelligence - vom alten Hut zum Hype

Genau genommen ist Künstliche Intelligenz ein Kind der Rock 'n-Roll-Ära, also der 1950er Jahre. Die erste Konferenz über künstliche Intelligenz, die legendäre Dartmouth Conference, fand im Sommer 1956 statt. In dem Förderantrag an die Rockefeller Foundation für diese Konferenz[ prägte John McCarthy 1955 den Begriff Künstliche Intelligenz - schließlich wollte der MIT-Forscher beim potenziellen Geldgeber ordentlich Eindruck machen. McCarthy ist übrigens auch Erfinder der Programmiersprache LISP, deren Design er 1960 in der Fachzeitschrift Communications of the ACM vorstellte. LISP gehört zu den wichtigsten Programmiersprachen der Künstlichen Intelligenz.

Die Anfangsphase der KI war geprägt durch eine fast grenzenlose Erwartungshaltung im Hinblick auf die Fähigkeit von Computern, Aufgaben zu lösen, zu deren Lösung Intelligenz notwendig ist, wenn sie vom Menschen durchgeführt werden. So prognostizierte Herbert Simon, Mathematiker und Sozialwissenschaftler, im Jahr 1957, dass innerhalb der nächsten zehn Jahre ein Computer Schachweltmeister werden und einen wichtigen mathematischen Satz entdecken und beweisen würde.

Doch auch Genies können sich manchmal irren. Der spätere Nobelpreisträger für Wirtschaftswissenschaften lag mit seiner Vorhersage leider voll daneben. Immerhin gelang es 1997 dem von IBM entwickelten System Deep Blue, den Schach-Weltmeister Garri Kasparov in sechs Partien zu schlagen. Im Jahr 2011 gewann das Computerprogramm Watson im Quiz Jeopardy! gegen die beiden bislang erfolgreichsten Spieler.

Zusammen mit Allen Newell entwickelte Simon in den 1960er Jahren den General Problem Solver, ein Programm, das die Fähigkeit besitzen sollte, mit einfachen Methoden beliebige Probleme zu lösen. Nach fast zehnjähriger Entwicklungsdauer wurde das Projekt jedoch eingestellt.

Ende der 1960er Jahre entwickelte der MIT-Informatiker Joseph Weizenbaum mit einem relativ simplen Verfahren das Programm ELIZA, das den Dialog eines Psychotherapeuten mit einem Patienten simuliert. Die Wirkung des Programms, das aus heutiger Sicht den ersten Chatbot der Welt darstellt, war atemberaubend. Weizenbaum war selbst überrascht, dass man auf relativ einfache Weise Menschen die Illusion eines beseelten Partners vermitteln konnte.

Expertensysteme nur mäßig erfolgreich

Auf einigen Gebieten erzielte die KI beachtliche Erfolge, beispielsweise bei Strategiespielen wie Schach und Dame, bei der Mustererkennung oder der Simulation von Robotern. Ein Thema, das zahlreiche Wissenschaftler über längere Zeit beschäftigte, waren die sogenannten Expertensysteme. In einem Expertensystem wird das regelbasierte Wissen eines bestimmten Fachgebiets formal repräsentiert.

Das System wendet bei konkreten Fragestellungen diese Regeln auch in solchen Kombinationen an, die von menschlichen Experten nicht in Betracht gezogen werden. Die zu einer Problemlösung herangezogenen Regeln können angezeigt werden, d.h. das System kann "erklären", warum es zu einem bestimmten Ergebnis gekommen ist.. Einem Expertensystem lassen sich einzelne Wissenselemente hinzufügen, verändern oder löschen.

Expertensysteme und andere auf Wissensdatenbanken basierende Systeme nur mäßigen Erfolg, denn es war schwer, das benötigte Wissen von Hand in formale Regeln zu überführen. Diese Schwäche ließ sich durch maschinelles Lernen umgehen. Beim ML lernt das Computersystem selbstständig anhand der vorliegenden Daten und wird so befähigt, verborgene Zusammenhänge zu erkennen, die ein Mensch nicht berücksichtigt hätte. Klassische Verfahren lernen dabei eine Ausgabefunktion anhand vorher extrahierter Merkmale, die durch manuelle Programmierung aus den Eingabedaten extrahiert wurden.

Allerdings zeigte beim ML ein ähnliches Problem wie bei den Expertensystemen: Nicht immer führt eine manuelle Auswahl zu einem optimalen Ergebnis. Eine aktuell erfolgreiche sehr Struktur für maschinelles Lernen sind künstliche neuronale Netze (KNNs). Diese basieren auf der Fähigkeit, die erforderlichen Merkmale selbst anhand der Rohdaten zu lernen, z.B. direkt aus Kamerabildern.

RNN: Das bisher Unlernbare lernen

Eine Technik, die zu einer wesentlichen Verbesserung der KI beigetragen hat, nennt sich ong short-term memory (LSTM, langes Kurzzeitgedächtnis)L. Sie wurde 1997 von Sepp Hochreiter und Jürgen Schmidhuber (TU München) in einer Veröffentlichung vorgestellt. Die Einführung von Big Data stellte riesige Mengen von Daten zum Trainieren der neuronalen Netze zu Verfügung, während der Boom im Computerspielbereich zu immer schnelleren und preisgünstigeren Grafikkarten führte. Mithilfe dieser Grafikkarten werden bei Games zur simulierte Bewegung der Akteure im Raum sehr viele Matrixmultiplikationen durchgeführt - eine Fähigkeit die für KI und LSTM wie geschaffen war.

Die in Schmidhubers Arbeitsgruppe entwickelten rekurrenten neuronalen Netze (RNN) lernen in effizienter Weise so manche einst unlernbare Aufgaben: z.B. Erkennung gewisser kontextsensitiver Sprachen, die Robotersteuerung in nur partiell sichtbaren Umgebungen und die Komposition von Musikstücken.

Schnelle GPU-Implementierungen dieser Kombination wurden 2011 durch Dan Ciresan und Kollegen in Schmidhubers Gruppe eingeführt und konnten mit solchen Systemen diverse Challenges gewinnen, z.B. den „ICPR 2012 Contest on Mitosis Detection in Breast Cancer Histological Images“. Seit etwa 2016 setzen große Tech-Unternehmen wie Google, Apple und Microsoft LSTM als grundlegende Komponente für neue Produkte ein. So verwendete beispielsweise Amazon LSTM für das Sprachassistenzsystem Alexa.

Mehr als 70 Prozent der Deutschen wissen, was ein digitaler Sprachassistent ist, bislang haben allerdings nur 37 Prozent diese Möglichkeit der Gerätesteuerung ausprobiert. Vor allem auf dem Smartphone vorinstallierte Sprachassistenten werden gut angenommen. Apples Siri und der Google Assistant sind mit jeweils 15 Prozent Nutzern die beliebtesten Eingabehilfen der Deutschen.
Mehr als 70 Prozent der Deutschen wissen, was ein digitaler Sprachassistent ist, bislang haben allerdings nur 37 Prozent diese Möglichkeit der Gerätesteuerung ausprobiert. Vor allem auf dem Smartphone vorinstallierte Sprachassistenten werden gut angenommen. Apples Siri und der Google Assistant sind mit jeweils 15 Prozent Nutzern die beliebtesten Eingabehilfen der Deutschen.
(Bild: Splendid Research)

Für Schmidhuber, der heute als wissenschaftlicher Direktor bei einem Schweizer Forschungsinstitut für Künstliche Intelligenz arbeitet und an der Scuola universitaria professionale della Svizzera italiana lehrt, ist die Spracherkennung nach wie vor eines der wichtigsten Anwendungsfelder für KI. Doch sieht der Wissenschaftler das größte Potenzial für diese Technologie anderswo, nämlich im Bereich der kognitiven Robotik (Cognitive Robotics). Bei kognitiven Maschinen handelt es sich um intelligente Systeme, die sich ihre eigenen Ziele setzen können und diese konsequent verfolgen.

Wohin die KI-Reise mit solchen „wahrnehmenden“ Maschinen gehen könnte, lotet die von Schmidhuber mitbegründete Firma NNaisense aus. Das Startup, das mit renommierten Partnern wie Audi, Schott, EOS und Festo zusammenarbeitet, befasst sich mit der Entwicklung groß angelegter neuronaler Netzwerklösungen, die die menschliche Wahrnehmung übertreffen. Die betreffenden Lösungen könnten dann z.B. für intelligente Automatisierungsprozesse in der Industrie oder im Mobilitätsbereich eingesetzt werden.

Ein Beispiele dafür sind „schmerzempfindliche" Automobile. Die Fahrzeuge lernen aus Fehlern, die sie beim autonomen Einparken machen (z.B. Parkremplern). Wenn sie irgendwo anecken, empfangen sie Schmerzsignale, die sie durch künftiges "Wohlverhalten" vermeiden können. Noch ist das Ganze ein Forschungsprojekt (mit Audi). Trotzdem müsse man damit rechnen, dass der Mensch in naher Zukunft „nicht mehr die Krone der Schöpfung sein wird“, zeigt sich KI-Forscher Schmidhuber überzeugt.

Was ist Künstliche Intelligenz?

Künstliche Intelligenz ist der Überbegriff für Anwendungen, bei denen Maschinen menschenähnliche Intelligenzleistungen erbringen. Darunter fallen das maschinelle Lernen oder Machine Learning, das Verarbeiten natürlicher Sprache (NLP – Natural Language Processing) und Deep Learning.

Die Spielarten der Künstlichen Intelligenz und ihre Anwendungen
Die Spielarten der Künstlichen Intelligenz und ihre Anwendungen
(Bild: CRISP Research)

ML, so Katharina Zweig, Informatikprofessorin an der TU Kaiserslautern, „ist eine Sammlung von Methoden, die in Daten der Vergangenheit nach Mustern sucht, die für die Zukunft Vorhersagen erlauben“. Beim Natural Language Processing (NLP) geht es um die Verarbeitung von Texten und natürlicher menschlicher Sprache. Als vielversprechendste Methode des Machine Learning wird aktuell Deep Learning gesehen, das sehr tiefe neuronale Netze mit mehreren Ebenen und einem großen Datenvolumen nutzt.

Im Gegensatz zu NLP geht der Algorithmus beim Deep Learning tiefer: Die Maschine erkennt Strukturen, kann diese evaluieren und sich in mehreren vorwärts wie rückwärts gerichteten Durchläufen selbständig verbessern. Dabei verwendet der Algorithmus mehrere Knotenebenen (Neuronen) parallel, um fundierte Entscheidungen zu treffen.

Beispielsweise findet die Medizin mit Deep Learning Unterstützung bei der Früherkennung von Krebs oder Herzkrankheiten und kann DNA-Profile von Kindern nach Genmarkern untersuchen, die auf Typ 1 Diabetes hinweisen. In der Forschung wird Deep Learning unter anderem eingesetzt, um tausende Zellprofile und deren aktive Gene auszuwerten oder Teilchenschauer, die entstehen, wenn in einem Teilchenbeschleuniger Protonenstrahlen aufeinanderprallen.

Wie funktioniert Maschinelles Lernen?

Maschinelles Lernen (machine learning) bezeichnet eine Querschnittsdisziplin aus Statistik, Informatik und Mathematik, die das Ziel hat, Softwaresysteme zu konstruieren, die automatisch aus Daten lernen können. Eine Vielzahl generischer Lernalgorithmen wurde entwickelt, um eine Vielzahl von Lernaufgaben zu lösen oder neue Erkenntnisse aus Daten zu gewinnen. Wie der Name „Maschinelles Lernen“ bereits impliziert, lernen Maschinen komplexe Zusammenhänge, wozu Menschen in puncto Schnelligkeit und Genauigkeit nicht mehr in der Lage sind.

Beim maschinellen Lernen wird in der Regel zwischen folgenden drei Problemklassen unterschieden:

(1) Beim überwachten Lernen umfassen die Trainingsdaten bekannte Eingabe- und Zieldaten. Der Algorithmus lernt dabei den unbekannten Zusammenhang zwischen Eingabe und Ziel. Da die Zielgröße bekannt ist, kann die Abweichung zwischen der momentanen Ausgabe der Lernalgorithmus und dem Ziel quantifiziert und zur Verbesserung des Lernens eingesetzt werden. Beim überwachten Lernen unterscheidet man zwischen zwei Aufgabestellungen, der Klassifikation und der Regression. Grob gesagt, liegt der Unterschied beider Aufgaben in den Zieldaten. Bei der Klassifikation ist das Ziel diskret, während bei der Regression kontinuierliche Zieldaten vorliegen. Zu den bekanntesten überwachten Lernverfahren gehören künstliche neuronale Netze (KNN), Entscheidungsbäume, Support Vector Machines und Gauß-Prozesse. Die genannten Beispielverfahren lassen sich sowohl für die Klassifikation als auch für die Regression einsetzen.

(2) Beim unüberwachten Lernen stehen lediglich Eingabedaten zur Verfügung, während die Zieldaten unbekannt sind. Ein Lernalgorithmus versucht nun Muster in den Eingabedaten zu erkennen, kann diesen Mustern aber aufgrund der fehlenden Zieldaten keine semantische Bedeutung zuordnen. Wegen der fehlenden Zieldaten lässt sich auch keine Abweichung wie beim überwachten Lernen berechnen. Typische Aufgabestellungen beim unüberwachten Lernen ist das Clustern von Daten, die Dimensionsreduktion oder die Berechnung von Assoziationen.

(3) Das Reinforcement Learning zielt auf das Lernen einer Strategie ab, die es erlaubt, in bestimmten Zuständen (entspricht der Eingabe) optimale Aktionen durchzuführen oder Entscheidungen (entspricht der Ausgabe) zu treffen. Zum Lernen stehen dem Lernalgorithmus keine bekannten Trainingsdaten zur Verfügung. Vielmehr lernt der Algorithmus durch Exploration und Interaktion, wobei dieser für eine gewählte Aktion eine Belohnung oder Bestrafung erfährt. Auf der Grundlage versucht das Verfahren die Aktionswahl derart zu verbessern, dass die erhaltene Belohnung maximiert bzw. die Bestrafung minimiert wird. Bekannte Verfahren des Reinforcement Learnings sind Temporal-Difference-Learning oder das dynamische Programmieren.

Quelle: Machine Learning in der Smart Factory

Da diese Art des Lernens sehr komplexe, nichtlineare Probleme löst, kommt sie auch bei selbstfahrenden Fahrzeugen zum Einsatz - z.B. um unübersichtliche Verkehrsszenarien richtig zu interpretieren: Ob Fußgänger, Radfahrer, Wetter, Verkehrszeichen oder Bäume: Das Verhalten der Verkehrsteilnehmer muss unter Berücksichtigung aller möglichen Einflussfaktoren richtig erkannt und vorhergesagt werden, um Unfälle zu vermeiden.

Grundlegende KI- bzw. ML-Verfahren

Klassifikation – Effizienzsteigerung in der Qualitätssicherung
In der virtuellen Smart Factory wird das Endprodukt am Ende der Produktionskette innerhalb der Qualitätssicherung mit gut oder schlecht bewertet. Die Klassifikation teilt dem Endprodukt die diskreten Werte gut und schlecht zu. Größen, die nur einen bestimmten Wert annehmen können, wie z.B. eine der Farben Rot, Grün oder Blau, werden als diskret bezeichnet. Auf der anderen Seite gibt es kontinuierliche Werte, die auch Zwischenwerte annehmen können. Diese sind von der Klassifikation ausgeschlossen.

Regression – Optimale Produktionsplanung und -steuerung
Auf Basis der historischen Unternehmensdaten werden mit Hilfe von Regressionsverfahren verschiedene Prognosemodelle entwickelt, die präzise und belastbar sind. Die neuen Prognosemodelle helfen dem produzierenden Unternehmen, unter Berücksichtigung mehrerer Einflussfaktoren (z.B. künftiger Absatzmengen, benötigten Rohstoffmengen und notwendigen Kapazitäten), eine optimale Produktionsplanung und -steuerung zu erstellen. Anders als bei der Klassifikation ist die Regression eine Klasse von Verfahren, um kontinuierliche Werte zu bestimmen. Weiterhin untersucht die Regression die funktionalen Zusammenhänge zwischen verschiedenen Merkmalen. Ein funktionaler Zusammenhang besteht dann, wenn eine oder mehrere unabhängige Variablen (z.B. x) eine abhängige Zielvariable y erklären.

Clustering – Ähnlichkeiten in Produktionsdaten aufdecken
Beim Clustering handelt es sich um Verfahren, mit denen ähnliche Merkmale zu einer Gruppe zugeordnet werden. Gruppen werden auch als Cluster bezeichnet. Cluster-Algorithmen (k-Means-Algorithmus, EM-Algorithmus oder DBSCAN) analysieren die verschiedenen Merkmale. Ähnliche Merkmalskombinationen werden zu den jeweiligen Gruppen zugeordnet.

Quelle: Machine Learning in der Smart Factory

KI wandert von der Cloud in den Sensor

Bislang werden Künstliche Intelligenz und neuronale Netze vor allem für Bildverarbeitung und Spracherkennung eingesetzt. Bei einigen Systemen verlassen die Daten die lokalen Systeme. In der Cloud, also auf externen Servern, werden dann z.B. Stimmprofile verarbeitet, da die Rechenleistung der lokalen Systeme nicht immer ausreicht. Dabei werden Unmengen an Daten übertragen, darunter oft auch sensible Daten, die eigentlich besser "on premise" verarbeitet werden sollten.

Deshalb hat man beim Fraunhofer IMS über Alternativen nachgedacht und bringt nun maschinelle Lernverfahren - salopp gesagt - direkt auf den Chip (embedded System). Mit „Artificial Intelligence for Embedded Systems“ (Aifes) haben Forscherinnen und Forscher am Fraunhofer-Institut für Mikroelektronische Schaltungen und Systeme IMS eine Künstliche Intelligenz für Mikrocontroller und Sensoren entwickelt, die ein voll konfigurierbares künstliches neuronales Netz umfasst.

Mit Machine Learning für Sensoren lässt sich eine Handschriften- und Gestenerkennung realisieren. Eine Zahl wird hierbei über ein Touchpad geziechnet und von einem Mikrocontroller erkannt und ausgegeben.
Mit Machine Learning für Sensoren lässt sich eine Handschriften- und Gestenerkennung realisieren. Eine Zahl wird hierbei über ein Touchpad geziechnet und von einem Mikrocontroller erkannt und ausgegeben.
(Bild: Fraunhofer IMS)

Es handelt sich dabei um eine plattformunabhängige Machine-Learning-Bibliothek, mit der sich selbstlernende Kleinstelektroniken realisieren lassen, die keine Anbindung an eine Cloud oder leistungsfähige Computer erfordern. Konkret unterstützt die sensornahe KI die Handschriften- und Gestenerkennung. Läuft die Bibliothek etwa auf einem Wearable, so lässt sich die Eingabe sogar per Geste steuern.

"So kann der Datenschutz garantiert werden und auch die zu übertragene Datenmenge wird deutlich reduziert“, erläutert Burkhard Heidemann, Gruppenleiter Embedded Systems am Fraunhofer IMS. „Natürlich können keine riesigen Deep Learning Modelle auf einem eingebetteten System realisiert werden, somit beschäftigen wir uns verstärkt mit der geschickten Merkmalsextraktion zur Reduktion der Eingangssignale.“ Indem die Forscherinnen und Forscher die KI direkt auf den Mikrocontroller bringen, lässt sich ein Gerät mit zusätzlichen Funktionen ausstatten, ohne dass teure Hardwareänderungen nötig sind, so die Forscher.

Das neuronale Netz direkt auf dem Mikrocontroller trainieren

Bei „Artificial Intelligence for Embedded Systems“ handelt es und eine Machine-Learning-Bibliothek in der Programmiersprache C, die auf Mikrocontrollern lauffähig ist, darüber hinaus aber auch andere Plattformen wie PC, Raspberry PI oder Android unterstützt. Die Bibliothek umfasst aktuell ein voll konfigurierbares künstliches neuronales Netz (KNN), das bei Bedarf auch tiefe Netze für das Deep Learning erzeugen kann.

Ein KNN ist der Versuch, das menschliche Gehirn mit Algorithmen mathematisch nachzubilden, um funktionale Zusammenhänge für Algorithmen erlernbar zu machen. Aifes wurde speziell für eingebettete Systeme optimiert. „Wir haben den Quellcode auf ein Minimum reduziert, dadurch lässt sich das KNN direkt auf dem Mikrocontroller oder auf dem Sensor, also dem eingebetteten System, trainieren. Außerdem ist der Quellcode universal gültig, er lässt sich für nahezu jede Plattform kompilieren. Da immer die gleichen Algorithmen genutzt werden, ist ein KNN, das z. B. auf dem PC erstellt wurde, einfach auf einen Mikrocontroller portierbar. Dies ist bislang mit kommerziell erhältlichen Softwarelösungen so noch nicht möglich“, sagt Dr. Pierre Gembaczka, wissenschaftlicher Mitarbeiter am Fraunhofer IMS.

Aifes fokussiert sich nicht auf die Verarbeitung großer Datenmengen, vielmehr werden nur die erforderlichen Daten übertragen, um sehr kleine neuronale Netze aufzubauen. „Wir folgen nicht dem Trend, der hin zur Verarbeitung von Big Data geht, sondern wir beschränken uns auf die absolut nötigen Daten und etablieren quasi eine Mikrointelligenz auf dem eingebetteten System, die die jeweiligen Aufgaben lösen kann. Wir entwickeln für jedes Problem neue Datenvorverarbeitungsstrategien und Merkmalsextraktionen, um möglichst kleine KNN realisieren zu können. Dies gewährleistest dann auch ein nachträgliches Lernen auf dem Controller selbst“, erläutert Gembaczka.

Ist Deutschland bei KI "abgehängt"?

Verblüffende Möglichkeiten. Doch wo „steht“ man hierzulande in Sachen Künstliche Intelligenz tatsächlich? Die Beratungsfirma BearingPoint hat sich dieses Themas angenommen und im Rahmen einer Umfrage (Digitalisierungsmonitor 2020) nach Antworten gesucht. Die Ergebnisse könnte man mit der Floskel „teils teils“ umschreiben. Teils sind sie ermutigend, teils sorgen sie für einiges Stirnrunzeln. Immerhin: Das passende „Mindset“ ist in vielen Unternehmen offenbar vorhanden – zumindest in der Theorie. KI werde die Welt verändern, so die Auffassung der meisten von BearingPoint Befragten. 88 Prozent glauben, dass KI ihre Branche beeinflussen wird. Elf Prozent sprechen gar von einer Revolution

(Bild: BearingPoint)

Warum ein Unternehmen KI in der Praxis nutzen sollte, findet Antwort in der Frage nach den Haupttreibern für den Einsatz dieser Technologie. In erster Linie sehen die Befragten diese in Effizienzsteigerungen (65 Prozent) und Prozessverbesserungen (60 Prozent). Unabhängig von der Unternehmensgröße oder ob bereits KI-Initiativen im Unternehmen vorhanden sind oder nicht sind die Werte sind stets in etwa gleich hoch.

Bedingt wird dies nach Einschätzung der Studienautoren möglicherweise dadurch, dass sich Unternehmen derzeit generell auf Effizienzsteigerungen fokussieren und die Unterstützung von KI dabei natürlich willkommen ist. Für eher kreative Tätigkeiten versprechen sich die Befragten von KI weniger Impulse, und zwar , unabhängig von der Branche.

(Bild: BearingPoint)

Als Treiber für neue Produkte und Services wird der Künstlichen Intelligenz schon deutlich geringere Bedeutung beigemessen (37 Prozent). Geht es um KI-basierte betriebliche Entscheidungen, so versprechen sich nur noch 22 Prozent der Befragten einen Benefit. Gefragt nach ganz konkreten Geschäftsprozessen, für die sich KI eigne, nennen die Unternehmen auf den ersten drei Plätzen Unterstützung bei logistischen Prozessen (30 Prozent), in der Produktion (26 Prozent) und bei Sicherheit und Überwachung (25 Prozent).

Viele Unternehmen haben (noch) keine KI-Strategie

Soviel zur Theorie. Aber wie sieht es bei der praktischen Umsetzung aus? Nach der BearingPoint-Studie nicht ganz so rosig. Doch ist die Lage auch nicht hoffnungslos.

Mehr als jeder vierte Befragte berichtet von ersten Erfahrungen mit KI im Unternehmen, 27 Prozent nutzen sie bereits oder arbeiten mit bzw. an einem KI-Pilotprojekt, 19 Prozent haben zumindest Ideen, was man damit machen könnte, oder befinden sich in einer Experimentier- und Diskussionsphase. Zur Wahrheit gehört aber auch, dass über die Hälfte der Befragten erklärten, dass es ihres Wissens keine Initiativen im Unternehmen dazu gebe (54 Prozent).

Die vier Entwicklungsphasen der KI: Wo stehen die Unternehmen?
Die vier Entwicklungsphasen der KI: Wo stehen die Unternehmen?
(Bild: Accenture)

Woran liegt es, dass fast drei Viertel aller Befragten noch gar nicht mit KI oder mit einem ernstzunehmenden Piloten beschäftigt sind? Ist generell nicht klar, wie man mit KI loslegt oder wird fachliche Unterstützung dabei benötigt? Fakt ist: Oftmals gibt es im Unternehmen keine eigene, klare Strategie und die Herangehensweise scheint momentan noch unklar. Immerhin nehmen 25 Prozent der Befragten externe Beratung in Anspruch, um in Sachen KI in die Schuhe zu kommen. Auch von Messebesuchen verspricht man Input für KI-Projekte. Doch so richtig „Hippes“ wie Acceleratoren, Labs oder Hubs leisten sich aber nur elf Prozent der befragten Unternehmen.

Bei Data Science – denn ohne Daten geht ja nichts in Sachen KI – sprechen 65 Prozent von einer mittleren bis starken Ausprägung in ihrem Unternehmen. Sind bereits KI-Initiativen vorhanden, liegt diese Quote bei 83 Prozent, bei denen ohne KI-Initiativen bei 50 Prozent.

Die grundlegenden Hausaufgaben – das fange an beim Know-how zu KI allgemein, über Prozessmanagement und Datenmanagement bis hin zur Identifikation von Use Cases und der Zusammenarbeit mit Partnern oder Start-ups – seien (noch) nicht gemacht, resümiert die BearingPoint-Studie und liefert damit eine einigermaßen plausible Erklärung für die Startschwierigkeiten mancher Unternehmen.

Bei KI-Einsatz im B2C-Bereich liegen die USA und China vorn

Ist Deutschland in Sachen KI also wirklich abgehängt? Betrachtet man die KI-Forschungsaktivitäten und nutzt man als Indikator die Zahl der wissenschaftlichen Publikationen zu diesem Thema, so weisen die USA und China die höchsten Publikationszahlen auf. Allerdings hat sich die chinesische Forschung gerade in den letzten Jahren vornehmlich auf den Bereich der neuronalen KI konzentriert. Unter den europäischen Ländern führen Großbritannien, Deutschland und Frankreich hinsichtlich der Zahl der Publikationen.

Zusammengenommen verfügen die Länder der EU in der KI-Forschung über eine gute Ausgangsposition, sodas Jahresgutachten zu Forschung, Innovation und technologischer Leistungsfähigkeit Deutschlands 2019 der Expertenkommission Forschung und Innovation (EFI). Allerdings geben die Verfasser des Gutachtens zu bedenken, dass diese „Aggregation“ inhaltlich aber nur dann berechtigt wäre, wenn es im europäischen Forschungsraum und im Binnenmarkt keine Friktionen gäbe.

Bei Produkten mit KI, die vom Verbraucher nutzbar sind, haben die USA und namentlich amerikanische Tech-Firmen wie Amazon, Google, Apple, Microsoft und IBM die Nase vorne. Ähnliches Gilt für China, wo große Plattformbetreiber und Tech-Konzerrne wie Alibaba, Tencent, Baidu und Huawei, aber auch zahlreiche Startups das Thema KI vorantreiben. Die Startups befassen sich schwerpunktmäßig mit Gesichts-, Bewegungs- und Verhaltenserkennung, Voice Recognition und Computer Vision. Zu den bekannteren Firmen in diesem Segment gehören Megvii Technology ((Face++), SensTime und Mobvoi.

Der Vorsprung, den amerikanische und chinesische Tech-Konzerne im Bereich der KI-basierten Verbraucherlösungen haben, ist nach Einschätzung von Prof. Dr. Wolfgang Wahlster nicht mehr aufzuholen. In einem Gespräch mit der „Berliner Morgenpost“ zeigte sich der Informatiker, der von 1997 bis 2019 das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) leitete, davon überzeugt, dass es „im Bereich der Geschäftsbeziehungen mit Privatpersonen es für Deutschland nicht mehr möglich sein wird, noch aufzuholen. Hier sind die USA und China weit voraus.“ Doch abgehängt sei Deutschland keineswegs. Im Gegenteil: „Wir haben den größten Datenschatz an Maschinendaten“, so der Informatikprofessor.

Und diesen Datenschatz, der sekündlich wächst, gilt es zu heben und zu gewinnbringend nutzen. Schließlich KI wird von vielen Ökonomen als Technologie betrachtet, die in fast allen Sektoren einsetzbar ist und erhebliche produktivitätssteigernde Effekte entfalten kann. Verlässliche wissenschaftliche Studien zu den wirtschaftlichen Auswirkungen von KI liegen derzeit noch nicht vor. Jedoch haben verschiedene Beratungsunternehmen Effekte in erheblicher Größenordnung beschrieben.

So könnte das deutsche BIP im Jahr 2030 aufgrund des Einsatzes von KI bis zu 11,3 Prozent höher ausfallen, was einem Plus von 430 Milliarden Euro entspricht. Das prognostiziert die Beratungsfirma pwc in ihrer Studie "Auswirkungen der Nutzung von künstlicher Intelligenz in Deutschland" vom Juni 2018. Das potenzielle BIP-Wachstum im Zusammenhang mit der Ersetzung und „Erweiterung“ der Arbeitskräfte und die daraus resultierenden Produktivitätssteigerungen könnten sich in Deutschland auf 4,6 Prozent belaufen. Die kapitalintensiven Branchen, die im Vergleich zu vielen anderen Volkswirtschaften Europas einen größeren Teil der deutschen Volkswirtschaft ausmachen, werden nach Einschätzung von pwc voraussichtlich die größten Produktivitätssteigerungen erzielen.

Bund gibt Geld für die Entwicklung von KI-Technologien

Folglich könne es sich Deutschland als Innovationsstandort nicht leisten, die Wertschöpfungspotenziale durch KI zu vernachlässigen, resümieren die Verfasser des oben erwähnten Jahresgutachtens zu Forschung, Innovation und technologischer Leistungsfähigkeit Deutschlands 2019. Das hat mittlerweile auch die Politik erkannt. So wurde das Thema im Anfang 2018 geschlossenen Koalitionsvertrag von CDU, CSU und SPD aufgegriffen. Dieser hebt die Bedeutung von KI als Schlüsseltechnologie hervor und setzt als Ziel, „Deutschland zu einem weltweit führenden Standort bei der Erforschung von künstlicher Intelligenz“ zu machen".

Mit dem KI-Gipfel im April 2018 dokumentierte die Bundesregierung nochmals die Relevanz des Themas. In ihrem Strategiepapier formuliert sie drei übergreifende Ziele. So soll Deutschland zu einem führenden Standort für die Entwicklung von KI-Technologien gemacht und die Wettbewerbsfähigkeit Deutschlands gesichert werden. Ferner soll eine verantwortungsvolle und gemeinwohlorientierte Entwicklung und Nutzung von KI sichergestellt werden. Letztlich gehe es darum, KI durch einen breiten gesellschaftlichen Dialog und aktive politische Gestaltung in die Gesellschaft einzubetten.

Mit dem Haushalt 2019 stellte der Bund in einem ersten Schritt insgesamt 500 Millionen Euro für das Jahr 2019 und die Folgejahre zur Verfügung. Bis einschließlich 2025 will der Bund insgesamt etwa drei Milliarden Euro für die Umsetzung der KI-Strategie ins Schaufenster legen. Die Bundesregierung erwartet, dass Wirtschaft, Wissenschaft und Bundesländer mindestens in gleicher Höhe Mittel bereitstellen.

Zur Sicherung der Wettbewerbsfähigkeit von Forschung und Wirtschaft sowie des Gemeinwohls wird in der KI-Strategie eine Reihe KI-spezifischer Maßnahmen angekündigt. So sollen zur Förderung des wissenschaftlichen Nachwuchses, der Forschung und der Lehre im Bereich KI mindestens 100 neue Professuren für eine breite Verankerung des Themas an Hochschulen sorgen. Weiterhin sollen die bestehen-den Kompetenzzentren für KI-Forschung überregional weiterentwickelt werden, sodass ein nationales Netzwerk von mindestens zwölf Zentren und Anwendungs-Hubs entsteht.

Geplant ist ferner der Aufbau eines virtuellen deutsch-französisches Forschungs- und Innovationsnetzwerks. Und schließlich ist die verstärkte Unterstützung von kleinen und mittleren Unternehmen im Bereich der KI über die Kompetenzzentren Mittelstand 4.0 geplant.

Bitkom: Wir müssen das Tempo massiv erhöhen

Was jedoch die faktische Umsetzung der im November 2018 verabschiedeten KI-Strategie der Bundesregierung anbelangt, so zog der Digitalverband Bitkom ein Jahr später eine eher "verhaltene" Zwischenbilanz. „Die bescheidenen Mittel von 500 Millionen Euro pro Jahr haben bislang noch so gut wie keine Wirkung erzielt“, kritisierte Bitkom-Hauptgeschäftsführer Dr. Bernhard Rohleder. In den USA hingegen werde gerade über ein 100-Milliarden-Dollar-Programm zur KI-Förderung diskutiert, weshalb die Bundesregierung überprüfen solle, ob die deutsche KI-Strategie überhaupt richtig dimensioniert sei. „Wir müssen das Tempo massiv erhöhen“, fordert der Vertreter der deutschen ITK-Industrie.

Nicht minder wichtig sei es, dass man in Deutschland Künstliche Intelligenz und Datenpolitik zusammen denke. Für den Bitkom-Geschäftsführer macht keinen Sinn, viel Geld in die KI-Förderung zu pumpen und ihr gleichzeitig ihre wichtigste Ressource zu entziehen, die Daten. „Hier brauchen wir mehr Konsistenz in den politischen Maßnahmen. Schon bald wird es in der IT kaum noch Anwendungen geben, die sich nicht der KI zuordnen lassen.“

Wo gewinnt KI künftig an Bedeutung?

Einige Anwendungsbereiche, in denen KI künftig an Bedeutung gewinnen wird und wo sich F&E (und Förderung) lohnen könnten, hat der amerikanische Anbieter von Cloud-Infrastruktur und Cloud-Anwendungen Oracle zusammengestellt. Matthias von Blohn, Head of Cloud Applications Insight bei Oracle Deutschland, kommentiert ist überzeugt: „Es kommt in diesem neuen Jahrzehnt nicht länger darauf an, KI-Trends lediglich zu folgen. Stattdessen müssen KI und aufkommende Innovationen in allen Bereichen des Unternehmens verankert werden, um so Innovations- und Zukunftsorientierung zu stärken.“

Kollege KI transformiert den Arbeitsalltag

Im alltäglichen Leben verändert und optimiert KI bereits Anwendungen wie Netflix oder Waze. Anwender erwarten dies zunehmend auch von Lösungen, die sie in Büro, Lager oder Fabrikhalle nutzen. KI wird in diesem Zusammenhang vermehrt zu einem wichtigen Kollegen werden, der den Arbeitsalltag erleichtert. KI automatisiert sich wiederholende Aufgaben, wertet Dateneingaben auf, liefert smarte Einblicke für die Entscheidungsfindung und wird sich stetig weiterentwickeln, um veränderte Anforderungen zu adressieren. KI-basierte Apps, intelligente UX und fortschrittliche digitale Assistenten revolutionieren den Büroalltag.

Gebrauchsfertige KI-Apps statt eigens gebauter Anwendungen

App-Entwicklung kann ein schwieriger, frustrierender Prozess sein. Zudem fällt es den meisten Unternehmen schwer, KI-Anwendungen zu entwickeln, da es ihnen im eigenen Haus an Know-how und Datenkompetenz mangelt. Eine Studie von Oracle und ESG kommt in diesem Zusammenhang zu dem Schluss, dass Unternehmen mit etwa doppelt so hoher Wahrscheinlichkeit vorgefertigte KI-Anwendungen einsetzen, als dass sie eigene Lösungen entwickeln. Anbieter müssen daher die App-Entwicklung für ihre Kunden übernehmen, um von Anfang an einsatzbereite Lösungen bereitzustellen und einen sofortigen geschäftlichen Nutzen zu erzielen.

KI verschmilzt vermehrt mit nativen Prozessen und Anwendungen

Unternehmen sind daran interessiert, KI-Fähigkeiten eng mit bereits vorhandenen Prozessen zu verbinden, damit sie intelligenter arbeiten und vernetzen können. Das bedeutet, dass KI nicht nur die nächst besten Aktionen empfiehlt, sondern sie auch gleich auslösen kann, unabhängig von Gerät, Anbieter, Produkt oder Dienstleistung. Künftig sind auch direkte KI-Verbindungen zur Biometrie einer Person denkbar.

Data Enrichment optimiert KI-Einsatz

KI braucht nicht viele Daten, um zu funktionieren, aber eine Menge der richtigen Daten. Daher suchen Unternehmen zunehmend nach einfacheren Möglichkeiten, ihre Datensätze zu bereinigen und anzureichern, bevor ihre KI-Modelle die Daten aufnehmen. Lösungen wie DataFox erleichtern es Firmen, genau die Daten zu erhalten, die KI für eine gute Arbeit benötigt, denn sie reichern diese so an, dass sie zu intelligenteren und präziseren Ergebnissen.

Smarte Assistenten verdrängen einfache Chatbots

Chatbots sind gut darin, einfache Fragen zu beantworten. Die Zukunft gehört aber noch smarteren digitalen Assistenten: KI hilft diesen Bots, Absicht und Kontext hinter den Anfragen besser zu verstehen und natürliche Konversationen zu führen. Zudem wird KI den digitalen Assistenten helfen, Fragen und Bedenken proaktiv statt reaktiv anzugehen, um Vorhersagen zu treffen und Empfehlungen für die nächsten Schritte zu geben. Auch im Bereich der Unternehmenssoftware nehmen digitale Assistenten einen zunehmend wichtigere Rolle für eine effizientere Mensch-Maschine-Interaktion ein. Einige Cloud-Software-Suiten erlauben Anwendern bereits, beispielsweise direkt mit dem Finanzsystem zu sprechen und zu interagieren.

KI verändert E-Commerce

Der E-Commerce - vor allem im B2B-Bereich - wird von KI ebenfalls nachhaltig verändert. Einschätzungen des "Datenveredlers" Omikron zufolge vollzieht sich dieser Wandel schneller als angenommen und betrifft de facto jedes Unternehmen. Schon heute finden in den Ein- und Verkaufsabteilungen KI-Verfahren ein breites Anwendungsspektrum. Das gilt beispielsweise für Lager-Vorhersagen, die sich mit Hilfe von KI besser treffen lassen als mit traditionellen Verfahren.

Im Hinblick auf den Vertrieb ist z.B. Adaptive Pricing mit KI realisierbar – eine Maßnahme, die insbesondere für B2B-Unternehmen relevant ist, um präzisere Preise je Kunden individuell zu ermitteln. Wenn bereits viele Interaktionen mit dem Kunden vorliegen, kann ein Algorithmus beurteilen, wie preissensibel dieser ist oder ob es andere Faktoren gibt, die für genau diesen Käufer relevanter sind als für andere Kunden. Ein Ergebnis könnte sein, dass bestimmten Kunden höhere Gewährleistungen zum jeweiligen Preis angeboten werden.

Bei Materialbestellungen dürfte laut Omikron der “Predictive Basket” an Bedeutung gewinnen. Dieser sagt dem Kunden, was er in seiner aktuellen Session kaufen könnte und letztlich natürlich sollte. Die KI schlägt Produkte auf Basis des historischen Kundenverhaltens sowie auf Basis des Einkaufsverhaltens anderer Kunden vor. Sie lernt den Kauf-Rhythmus kennen, adaptiert saisonale Besonderheiten und optimiert die eigenen Vorschläge auf einer immer individuelleren Ebene.

KI-gestützte Algorithmen schaffen im E-Commerce bereits heute bis zu 75 Prozent Trefferquote, wodurch der B2B-Kunde seinen den Einkauf in einem Drittel der Zeit erledigen könnte. Typisches Beispiel aus dem B2C-E-Commerce sind die Kaufempfehlungen von Amazon. Im B2B-Bereich könnten beispielsweise beim Einkauf von Zerspanungswerkzeugen für Werkzeugmaschinen auch Kühlschmierstoffe, ein Nachschleifservice oder die Entsorgung von Hartmetallen angeboten werden.

Kostenfreier KI-Online-Kurs

Mit dem kostenlosen Online-Kurs "Elements of AI" der Industrie- und Handelskammern in Deutschland kann ab sofort jeder im Internet Wissen über Künstliche Intelligenz (KI) erwerben und testen. In Finnland, wo der Kurs ursprünglich entwickelt wurde, haben inzwischen mehr als 270.000 Menschen das Angebot genutzt. Die appliedAI Initiative des Innovations- und Gründerzentrums UnternehmerTUM hat die inhaltliche Überführung von Elements of AI ins Deutsche unterstützt und betreut den laufenden Betrieb.

Das Angebot zeigt, wie Maschinen lernen, Bilder und Texte erkennen und mit Menschen interagieren. Der Deutsche Industrie- und Handelskammertag (DIHK) rechnet für die nächsten fünf Jahre mit einem stark wachsenden Einsatz von KI in allen Wertschöpfungsstufen. "Im digitalen Zeitalter bleiben wir als deutsche Wirtschaft nur wettbewerbsfähig, wenn wir auch bei Künstlicher Intelligenz an der Weltspitze mitspielen", sagt DIHK-Präsident Eric Schweitzer zum Ziel des Online-Kurses.

Der Online-Kurs, der von Deutschlands führender KI-Initiative appliedAI betreut wird, soll dazu beitragen, möglichst viele Menschen mit Künstlicher Intelligenz in Berührung zu bringen und Ängste abzubauen.

Für die Teilnahme an dem deutschsprachigen Kurs sind weder mathematische noch Programmier-Kenntnisse erforderlich. Die sechs Module können bei völlig freier Zeiteinteilung in 30 bis 60 Stunden online absolviert werden.

Zm Kursangebot

Use Cases, Best Practices und Projekte

Logistik: Mit KI die Lieferkette optimieren

Lieferzeiten, Bestandsmanagement, das Transportmittel der Wahl, Wetter oder landesspezifische gesetzliche Regelungen – all das und vieles mehr sind Faktoren, die die Supply Chain beeinflussen können. Unvorhergesehene Ereignisse in der Lieferkette können schnell Komplikationen in der Produktion nach sich ziehen. Probleme, die sich daraus ergeben, sind dann mitunter auf verschiedenen Ebenen spürbar. Eine Supply Chain hat viele Beteiligte und ein gebrochenes Kettenglied an einer Stelle kann leicht Auswirkungen auf die gesamte Kette haben. Ressourcen in die Optimierung der Supply Chain zu stecken, kann sich für alle Beteiligten lohnen.

Der Einsatz von Künstlicher Intelligenz (KI) ist dabei ein möglicher Ansatzpunkt. Ein Unternehmen, das in diese Richtung arbeitet, ist die JDA Software Group. Seit der Gründung 1985 befasst man sich dort mit Themen rund um die Lieferkette. Ab 2014 kam dann auch das Thema KI hinzu, anfangs noch im Rahmen eigener Labore. Mit der Übernahme des KI-Unternehmens Blue Yonder im Jahr 2018 wurde auch die Entwicklung von konkreten Produkten möglich. Blue Yonder arbeitete bereits seit 2008 an einer funktionsfähigen KI-Lösung.

Aktuell arbeitet man laut Gabriel Werner, Vice President, Solution Advisory Manufacturing für EMEA bei JDA, am Control Tower, um Lieferungen in Echtzeit zu überwachen und zum Beispiel die erwartete Ankunft der Lieferung genauer zu prognostizieren. Die Künstliche Intelligenz soll auf Basis von Daten Vorhersagen zu möglichen Ereignissen treffen, welche die Supply Chain beeinflussen. Im nächsten Schritt gehe es darum, Maßnahmen einzuleiten, die die Auswirkungen der Ereignisse abfedern können.

„Dabei arbeiten wir viel mit Design Thinking, also Lösungen, die den Anwender überzeugen. Wir wollen durch Automatisierung den Teufelskreis von Planungsproblemen durchbrechen“, so Werner. Es komme vor, dass ein Projektmanager sich mit einer Störung in der Lieferkette befasst, während an anderer Stelle schon weitere Probleme auftreten. Hier kann Machine Learning Abhilfe schaffen. Der Algorithmus soll anhand von Daten nicht nur Vorhersagen zu möglichen Ereignissen treffen, sondern auch Lösungsstrategien erlernen. Laut Werner soll die KI irgendwann gänzlich autonom arbeiten.

Das System werde dann alle Entscheidungen zur Lieferkettenoptimierung selbstständig, ohne menschliches Eingreifen treffen.Momentan ist dies nur in Teilen der Lieferkette möglich, zum Beispiel wurden bei der Supermarktkette Morissons in England bereits 99 Prozent Automatisierung in der Filialbelieferung erreicht. In anderen Teilen der Lieferkette würde die Software gewisse Entscheidungen noch nicht treffen; solche zum Beispiel, die größere finanzielle Auswirkungen nach sich ziehen, müssen von einem menschlichen Bediener autorisiert werden.

Quelle: MM-Logistik

AutoML: Domänenexperten entwickeln eigenständig Machine-Learning-Lösungen

Heute analysieren Data Scientists die Daten und erstellen ML-Modelle. Dieser Prozess ist weitestgehend manuell und explorativ. Dabei entsteht nicht nur das eigentliche Modell, sondern auch eine sogenannte ML-Pipeline, in der die Daten viele Verarbeitungsschritte durchlaufen und an deren Ende das Modell ausgeführt sowie das Ergebnis ausgegeben wird.

Der Prozess der Modellbildung und der Erstellung der ML-Pipeline ist sehr komplex. Insgesamt gibt es bis zu 1040 Kombinationsmöglichkeiten um eine ML-Lösung aufzubauen. Die konkrete Ausgestaltung der ML-Pipeline ist für jeden Use Case spezifisch. Natürlich bietet der Markt auch einige Software-Werkzeuge für den Data Scientist, die den grundlegenden Aufbau der Pipeline unterstützen und damit die Arbeit der Data Scientists vereinfachen. Jedoch sind die meisten Parameter für die ML-Lösung in kreativer und zugleich mühevoller Arbeit manuell zu bestimmen.

Mit dem Automated-Machine-Learning-Tool (AutoML) gibt Weidmüller dem Nutzer eine Software an die Hand, die den KI-Einstig auch ohne den Einsatz von Data Scientisten ermöglicht. Das Tool befähigt die Domänenexperten auf Basis ihres Applikationswissens eigenständig Machine-Learning-Modelle zu erzeugen.
Mit dem Automated-Machine-Learning-Tool (AutoML) gibt Weidmüller dem Nutzer eine Software an die Hand, die den KI-Einstig auch ohne den Einsatz von Data Scientisten ermöglicht. Das Tool befähigt die Domänenexperten auf Basis ihres Applikationswissens eigenständig Machine-Learning-Modelle zu erzeugen.
(Bild: Weidmüller)

Bei der Modellbildung und dem Aufbau der Pipeline diskutiert der Data Scientist kontinuierlich die in den Daten gefundenen Zusammenhänge mit den Maschinen- und Prozessexperten. Gemeinsam erfolgt eine ingenieurmäßige Interpretation der Ergebnisse, wodurch letztendlich die Parameter für das Modell sowie die Pipeline identifiziert und festgelegt werden. Das Applikationswissen der Domänenexperten trägt also entscheidend für den Erfolg einer gute ML-Lösung bei.

Diesen Prozess zu verkürzen und die Anwendung von Machine Learning zu demokratisieren, ist die Vision des Detmolder Automatisierungsunternehmens Weidmüller. Machine Learning soll jedem Domänenexperten in der Industrie zugänglich zu machen, damit die Anwendung von ML in der Industrie nicht durch die beschränkte Anzahl von Data Scientists gehemmt wird und das vorhandene Wissen der Fachexperten optimal genutzt wird.

Dazu ist die Anwendung von ML für industrielle Applikationen soweit zu standardisieren und zu vereinfachen, dass Domänenexperten ohne Expertenwissen im Bereich Data Science eigenständig ML-Lösungen erzeugen können. Dies umfasst zudem eine weitestgehende Automatisierung der Modellbildung sowie der Generierung der ML-Pipeline, um die Erzeugung der ML-Lösung zu beschleunigen. Der technologische Ansatz dahinter wird mit dem Term Automated Machine Learning beschrieben, wobei es nicht der Anspruch ist, den Prozess der Generierung von ML-Lösungen komplett zu automatisieren. Ganz im Gegenteil: Die Domänenexperten sollen ihr Wissen bewusst mit dem AutoML-Prozess verknüpfen, um so exzellente ML-Lösungen zu schaffen.

Mit der AutoML-Software können Domänenexperten ML-Modelle erzeugen. Dabei führt die AutoML-Software den Nutzer durch den Prozess der Modellentwicklung, weshalb wir hier auch von „Guided Analytics“ sprechen. Dabei fokussiert sich der Experte auf sein Wissen zum Maschinen- und Prozessverhalten und verknüpft dieses mit den im Hintergrund ablaufenden ML-Prozessen. Das bedeutet, dass die Software bei der Übersetzung und Archivierung des vorhandenen und wertvollen Applikationswissens in eine verlässliche Machine Learning-Anwendung hilft, indem das vorhandene Wissen geschickt abgefragt und mit dem im Hintergrund arbeitenden ML-Verfahren kombiniert wird.

Die AutoML-Lösung besteht im Wesentlichen aus zwei Modulen zur Modellbildung, -ausführung, und -optimierung sowie zum Management der Modelle über ihren Lebenszyklus. Mit dem Modul zur Modellbildung kann der Domänenexperte auf den Trainingsdaten und seinem Applikationswissen basierende ML-Lösungen zur Anomalieerkennung, Klassifikation und Fehlervorhersage erzeugen. Weltweit einmalig ist die Anomalieerkennung lediglich auf Basis von „Gut-Daten“, dem „unsupervised“ Training (unüberwachtes Lernen).

Ein Algorithmus erlernt dabei die typischen Datenmuster eines normalen Maschinenverhaltens anhand historischer Daten. Zur Laufzeit können Abweichungen von diesen Mustern identifiziert werden. Bei den erkannten Anomalien kann es sich um Ineffizienzen, kleinere Störungen oder größere Fehlerfälle handeln. Das System ist durch diese Herangehensweise in der Lage, auch bisher vollkommen unbekannte Fehlerfälle schon bei ihrem ersten Auftreten zu erkennen. Ergebnis des Modellbildungsprozesses ist eine komplett konfigurierte ML-Pipeline inklusive des Modells.

Mit dem Modul zur Modellbildung kann der Domänenexperte auf den Trainingsdaten und seinem Applikationswissen basierende ML-Lösungen zur Anomalieerkennung, Klassifikation und Fehlervorhersage erzeugen.
Mit dem Modul zur Modellbildung kann der Domänenexperte auf den Trainingsdaten und seinem Applikationswissen basierende ML-Lösungen zur Anomalieerkennung, Klassifikation und Fehlervorhersage erzeugen.
(Bild: Weidmüller)

Darüber hinaus dient der Model-Builder zur Optimierung der ML-Modelle im Betrieb. Neue Ereignisse wie bestimmte Betriebssituationen, Anomalien oder Fehler, die während des Betriebs einer Maschine vorkommen und nicht in den Trainingsdaten enthalten waren, können den Modellen mit wenigen Klicks hinzugefügt werden, wodurch sich die Modelle über ihren Lebenszyklus kontinuierlich verbessern lassen.

Das zweite Modul der AutoML-Lösung ist die Ausführungsumgebung, die zum Betrieb der ML-Modelle in der Cloud oder in einer On-Premise-Anwendung dient. Sie ist plattformunabhängig und skaliert automatisch gemäß der Anzahl der auszuführenden Modelle. Darüber hinaus stellt die Ausführungsumgebung die Modellergebnisse verständlich dar, sodass der Nutzer konkrete Handlungen z.B. zur Fehlervermeidung umsetzten kann. Da die Modelle über ihren Lebenszyklus angereichert werden und damit Modellvarianten entstehen, ist ein Modellmanagement ein weiterer Bestandteil der Ausführungsumgebung. Das Modellmanagement stellt u.a. Funktionen zur Modellversionierung, Modellwiederherstellung, und Modellüberwachung bereit.

Produktion: Mit KI Werkzeugmaschinen warten

Die Wartung und der rechtzeitige Tausch von defekten Bauteilen in Werkzeugmaschinen ist ein wichtiger Bestandteil des Produktionsprozesses. Bei Kugelgewindetrieben, wie sie etwa in Drehmaschinen bei der Herstellung von zylindrischen Bauteilen zum Einsatz kommen, wird der Verschleiß bislang manuell festgestellt. „Die Wartung ist deshalb mit Montagearbeiten verbunden. Die Maschine steht dann erst einmal still“, sagt Professor Jürgen Fleischer vom Institut für Produktionstechnik (wbk) des Karlsruher Instituts für Technologie (KIT).

Mit dem am KIT entwickelten System zur vollautomatischen Überwachung von Kugelgewindetrieben in Werkzeugmaschinen lässt sich dieses Problem lösen. „Unser Ansatz basiert auf der Integration eines intelligenten Kamerasystems direkt in den Kugelgewindetrieb. So kann ein Anwender den Zustand der Spindel kontinuierlich überwachen. Besteht Handlungsbedarf, wird er automatisch informiert.“

Demonstration des am KIT entwickelten Systems zur vollautomatischen Verschleißkontrolle von Kugelgewindetrieben mithilfe von Künstlicher Intelligenz.
Demonstration des am KIT entwickelten Systems zur vollautomatischen Verschleißkontrolle von Kugelgewindetrieben mithilfe von Künstlicher Intelligenz.
(Bild: KIT)

Das neue System besteht aus einer an der Mutter des Kugelgewindetriebes angebrachten Kamera mit Beleuchtung, die mit einer Künstlichen Intelligenz zur Auswertung der Bilddaten kombiniert ist. Während der Bewegung der Mutter auf der Spindel macht sie von jedem Spindelabschnitt Einzelaufnahmen. Dadurch wird jeweils die gesamte Oberfläche der Spindel analysiert.

Die Kombination von Bilddaten aus dem laufenden Betrieb mit Methoden des maschinellen Lernens (ML) ermöglicht Anwenderinnen und Anwendern des Systems eine direkte Bewertung des Zustands der Spindeloberfläche. „Wir haben unseren Algorithmus mit tausenden Aufnahmen trainiert, sodass er nun souverän zwischen Spindeln mit und solchen ohne Defekt unterscheiden kann“, erläutert Tobias Schlagenhauf vom wbk, der an der Entwicklung des Systems mitgearbeitet hat. „Durch eine weitere Auswertung der Bilddaten lässt sich der Verschleiß außerdem genau quantifizieren und interpretieren. So können wir unterscheiden, ob es sich bei einer Verfärbung einfach nur um Schmutz oder aber um schädlichen Lochfraß handelt.“

Eine integrierte Kamera samt Beleuchtung ermöglicht die kontinuierliche Überwachung der Spindel im Kugelgewindetrieb.
Eine integrierte Kamera samt Beleuchtung ermöglicht die kontinuierliche Überwachung der Spindel im Kugelgewindetrieb.
(Bild: KIT)

Beim Trainieren der KI wurden alle denkbaren Formen einer visuell sichtbaren Degeneration berücksichtigt und die Funktionalität des Algorithmus mit neuen, vom Modell noch nie gesehenen Bilddaten validiert. Der Algorithmus eignet sich für alle Anwendungsfälle, bei denen bildbasiert Defekte auf der Oberfläche einer Spindel identifiziert werden sollen und lässt sich auch auf andere Anwendungsfälle übertragen.

Produktion: Maschinengeräusche signalisieren Verschleiß

Mittels KI ist man bei der tschechischen Firma Neuron soundware dem Verschleiß von Maschinen und Bauteilen auf der Spur. Das in Prag ansässige Technologieunternehmen nutzt dafür das aus der Physik bekannte holographische Prinzip. Maschinen werden überwiegend aus Metall hergestellt, das akustische Signale ("Klänge") sehr gut verbreitet. Der Verschleiß von Teilen, der sich gut über Veränderungen des akustischen Spektrums feststellen lässt, kann nichtinvasiv an der Oberfläche einer Maschinenkomponente gemessen werden.

Solche diagnostischen Methoden werden bereits seit Jahrzehnten in der Industrie eingesetzt - insbesondere für Komponenten die lediglich einfache Bewegungen ausführen. Dazu gehören z.B. rotierende Systeme wie Wellen oder Lager, bei denen auf einfachen Gleichungen basierende Algorithmen zum gewünschten Ergebnis führen.

Bei komplexeren Maschinen wie Robotern, Kränen oder Motoren sieht die Sache hingegen anders aus. Solche Maschinen beinhalten oft mehrfach bewegliche Achsen, Gelenke oder Getriebe. Um den Zustand dieser Maschinen analysieren zu können, müssten sehr viele Sensoren eingebaut und sehr komplizierte Algorithmen angewendet werden. in der Praxis ist man aber von Anzahl von Sensoren, der verfügbaren Datenmengen und der vertretbaren Kosten für die Rechenleistung her limitiert.

Deshalb werden Maschinen üblicherweise nur von einem oder wenigen Sensoren überwacht., was zur Folge hat, dass sich die Signale aus den verschiedenen Quellen überlagern. Um dieses komplexe Spektrum zu verarbeiten und den Zustand der Maschine zu bestimmen, nutzt Neuron soundware KI-Algorithmen und Methoden des maschinellen Lernens.

Weitere Informationen

Automatisierung: Wenn der Bediener mit der Maschine spricht

Spracherkennung gibt es seit knapp 40 Jahren. Um damals Maschinen per Sprache steuern zu können, musste man die dazu erforderliche Elektronik aufwendig auf die Stimme ihres Herrn trainieren. Folglich gab es seinerzeit nur wenige sprachgesteuerte Anwendungen. Dank Künstlicher Intelligenz ist das heute anders, wie Alexa und Siri zeigen. Warum also nicht auch Maschinen per Sprache intuitiv steuern?

Eine Technologiestudie von Trumpf zeigt, wie dies konkret an einer Lasermarkieranlage funktionieren könnte. „Künstliche Intelligenz ist die nächste Stufe der Automatisierung und eine Schlüsseltechnologie für die vernetzte Industrie. KI macht die Produktion mit unseren Lasern in Zukunft noch effizienter, einfacher und anpassungsfähiger“, verspricht Christian Schmitz, der bei Trumpf für die Lasertechnik zuständige Geschäftsführer. Der Anlagenbediener kann direkt in ein Mikrofon sprechen: „Türe öffnen!“, „Starte den Markiervorgang!“ oder „Wie viele Produkte hast du heute markiert?“. Die Laseranlage antwortet und führt den Sprachbefehl aus.

Für unerfahrene Bediener entfällt die oft komplizierte händische Befehlseingabe. Außerdem kann der Werker schon während des Sprachbefehls parallel das nächste Bauteil vorbereiten oder aus der Maschine entnehmen. Das spart Zeit und macht produktiver.

In einem nächsten Schritt wollen die Trumpf-Entwickler die Bedienbarkeit der Lasermarkieranlage weiter vereinfachen. Noch muss der Anlagenbediener, damit auch das richtige Markierprogramm startet, der Maschine sagen, welches Teil er eingelegt hat. In Zukunft soll die Anlage per Sensorik und Bilderkennungssoftware selbst erkennen, welches Bauteil zu markieren ist. Dann wählt die Maschine das passende Programm selbst aus.

Finance: KI ersetzt den Controller

Unternehmen, die KI und andere neue Technologien im Bereich Finance and Operations einsetzen, steigern ihren jährlichen Gewinn um 80 Prozent schneller als Firmen, die derartige Lösungen nicht nutzen. Zu diesem Ergebnis kommt jetzt die neue Studie "Emerging Technologies: The competitive edge for finance and operations" der Enterprise Strategy Group und Oracle. So reiche es nicht mehr aus, dass Finance und Operations lediglich finanzielle Ergebnisse reporten und Prozesse rationalisieren. Das Rechnungswesen müsse vielmehr von der Berichterstattung über das "Was" im Unternehmen auf das "Warum" übergehen. Dabei verbessern KI und digitale Assistenten Genauigkeit und Effizienz im Finanzbereich.

  • Unternehmen, die innovative KI und digitale Assistenten einsetzen, reduzieren Fehler im Finanzbereich um durchschnittlich 37 Prozent.
  • 72 Prozent der Organisationen, die KI einsetzen, profitieren von einem transparenteren Überblick ihrer gesamten Unternehmensleistung.
  • 83 Prozent der Führungskräfte glauben, dass KI innerhalb der nächsten fünf Jahre Finanzabschlüsse vollständig automatisieren wird.
  • Digitale Assistenten verbessern die Produktivität um durchschnittlich 36 Prozent und machen die Finanzanalyse um 38 Prozent schneller.

"In Zukunft wird der Zeitaufwand, den wir für die Aufbereitung benötigen, stark zurückgehen - wahrscheinlich auf etwa fünf Prozent unserer produktiven Zeit. In der verbleibenden Zeit werden wir die Daten tatsächlich analysieren. Heute ist der Zeitaufwand i9n etzwa gleich verteilt", ist der CFO einer Gesundheitseinrichtung mit 18.000 Mitarbeitern überzeugt.

Datenveredlung: Aus "Silo"-Daten Wissen generieren

Unternehmensdaten werden oft als das Gold des 21. Jahrhunderts bezeichnet. Diese Darstellung ist faktisch aber nicht unproblematisch, da sie die Menschen dazu ermutigt, sich mit dem bloßen Sammeln von Daten zufrieden zu geben. Das Ergebnis: Die täglich explodierenden Datenmengen landen in Hunderten von "Silos" im gesamten Unternehmen und spielen bei der digitalen Transformation allenfalls eine untergeordnete Rolle.

"Wir können die Daten kaum als Gold bezeichnen, solange Unternehmen diesen Rohstoff nicht verarbeiten und verfeinern und daraus tatsächliches Wissen generieren", so Daniel Fallmann, Gründer und CEO von Mindbreeze. Das Software-Unternehmen mit Sitz im österreichischen Linz befasst sich mit den Themen Enterprise Search, Information Access und Digital Cognition.

Die Lösungen von Mindbreeze stellen proaktiv automatisiert Daten über alle Applikations-, Abteilungs- und auch Unternehmensgrenzen hinweg zur richtigen Zeit zur Verfügung. Sogenannte Insight-Engines handhaben die Veredelung intelligent und unabhängig voneinander. Indem sie sozusagen eine Schicht über alle Datensilos innerhalb eines Unternehmens legen, werden alle Daten - ob strukturiert oder unstrukturiert - miteinander verknüpft. Am Ende dieses Zyklus steht dem gesamten Unternehmen geballtes Wissen zur Verfügung steht.

"Die eigentliche Botschaft lautet also: Das Gold des Jahres 2020 ist die automatisierte Generierung von Wissen über alle Abteilungsgrenzen hinweg", betont Mindbreeze-CEO Fallmann Und: Diese Entwicklung ist Trend. Wie das Marktforschungsunternehmen Gartner herausgefunden hat, werden bis 2022 rund 40 Prozent der Mitarbeiter KI-Agenten konsultieren, bevor sie Entscheidungen im Tagesgeschäft treffen.

Herkömmliche Software-Bots können diese Aufgabe nicht bewältigen, weil sie in Wirklichkeit nichts mit KI zu tun haben und nur nach einem manuell erstellten und gespeicherten Entscheidungsbaum arbeiten. Umgekehrt können Insight-Engines die Stärken echter KI ausnutzen. Im Jahr 2020 werden die Mitarbeiter also zunehmend diese zukunftsweisende Technologie nutzen, um die Rolle eines persönlichen Assistenten zu übernehmen.

Literatur

(01) Baris Ayaz: Machine Learning in der Smart Factory, in Thomas Schulz (Hrsg.): Industrie 4.0 - Potenziale erkennen und umsetzen; Vogel Business Media

(02) Jörg Frochte: Maschinelles Lernen - Grundlagen und Algorithmen in Python; Hanser

(03) Wolfgang Ertel: Grundkurs Künstliche Intelligenz - Eine praxisorientierte Einführung; Springer Vieweg

(04) Philip C. Jackson: Introduction to Artificial Intelligence; Courier Corporation

(05) Andrew W. Trask: Neuronale Netze und Deep Learning kapieren; mitp

(06) Pedro Domingos: The Master Algorithm - How the Quest for the Ultimate Learning Machine Will Remake Our World; Penguin Books

(07) Katharina Zweig: Ein Algorithmus hat kein Taktgefühl - Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können; Ullstein

(08) Manuela Lenzen: Künstliche Intelligenz - Was sie kann & was uns erwartet; C. H. Beck

(09) Ray Kurzweil: The Singularity Is Near - When Humans Transcend Biology; Penguin Books

(10) Nick Bostrom: Superintelligence - Paths, Dangers, Strategies; Oxford University Press

(11) Julian Nida-Rümelin und Nathalie Weidenfeld: Digitaler Humanismus - Eine Ethik für das Zeitalter der Künstlichen Intelligenz; Piper

(12) Daniel Rebhorn: Digitalismus - Die Utopie einer neuen Gesellschaftsform in Zeiten der Digitalisierung; Springer Gabler

(13) Frank Schätzing: Die Tyrannei des Schmetterlings; Amazon Audible (Hörbuch)

(ID:45324964)