Suchen

IoT-Basics Was ist Künstliche Intelligenz? Definition, Anwendung und Beispiele

| Redakteur: Jürgen Schreier

Künstliche Intelligenz (KI): 52 Prozent der Deutschen glauben zu wissen, was dahinter verbirgt. KI ist damit einer der geläufigsten Begriffe aus der Welt der Digitalisierung. Was man mit KI, AI und Machine Learning alles machen kann, erläutern wir in diesem Beitrag.

Firma zum Thema

Selbstfahrende Autos, genauere medizinische Diagnosen oder Unterstützung bei der Aufklärung von Verbrechen: Künstliche Intelligenz wird schon heute in vielen Lebensbereichen eingesetzt und gilt als Schlüsseltechnologie der kommenden Jahre.
Selbstfahrende Autos, genauere medizinische Diagnosen oder Unterstützung bei der Aufklärung von Verbrechen: Künstliche Intelligenz wird schon heute in vielen Lebensbereichen eingesetzt und gilt als Schlüsseltechnologie der kommenden Jahre.
(Bild: Pixabay / CC0 )

Technothrill und filmreife Action: Das bietet der jüngste Pageturner des Bestsellerautors Frank Schätzung "Die Tyrannei des Schmetterlings". Alles dreht sich um Quantencomputing und um Künstliche Intelligenz, wobei Letztere (erwartungsgemäß) komplette aus dem Ruder läuft. Anstatt - wie von ihrem philantropisch gesinnten Schöpfer intendiert - die Grundprobleme der Menschheit zu lösen, beginnt das neuronale Superhirn eben diese Menschheit zu eliminieren - in der Erkenntnis, dass deren Existenz das größte Menschheitsproblem darstellt.

Für Hochspannung ist also gesorgt. Und auch sonst ist der Spezialist für packende Öko- und Tech-Thriller voll am Puls der Zeit. Denn kaum ein Thema wird aktuell dermaßen gehypt wie die Künstliche Intelligenz. Über 1,2 Milliarden Ergebnisse spuckt Google in Dumme zu den Suchbegriffen "Künstliche Intelligenz", "Artificial Intelligence" und "Machine Learning" aus. Apropos Google: Natürlich arbeitet die Suchmaschine selbst mit KI-Unterstützung.

Während KI-Kritiker dystopische Szenarien à la Schätzing heraufbeschwören, erwarten sich andere von neuronalen Netzwerken und Deep Learning wahre Wunder: zum Beispiel Ray Kurzweil. Der amerikanische Erfinder, Futurist , Gründer der Singularity University und Director of Engineering beim Suchmaschinenbetreiber Google gilt als einer der bekanntesten Vordenker des Transhumanismus. Er prognostiziert für das Jahr 2045 eine exponentielle Zunahme der informationstechnologischen Entwicklung: eine Singularität, die eine künstliche Intelligenz ermöglicht, mit der die Menschheit Unsterblichkeit erlangen kann.

Doch auch bei eher bodenständigen Herausforderungen erwartet man von KI und der "Subdisziplin" Machine Learning (ML) Lösungen. "Maschinelles Lernen (ML) erschließt der Automatisierung neue Möglichkeiten und spürt brachliegende Optimierungspotenziale auf: mit prädiktiver Wartung und beim Steuern von Prozessen, zur Detektion von Anomalien an Maschinen und Anlagen sowie von Werkstücken, bei kollaborativ arbeitenden Robotern, in der automatisierten Qualitätskontrolle und beim Optimieren des Fertigungsablaufs in Maschinen", erläutert der Automatisierungsexperte und Fachpublizist Reinhard Kluger.

Artificial Intelligence - vom alten Hut zum Hype

Genau genommen ist Künstliche Intelligenz ein Kind der Rock 'n-Roll-Ära, also der 1950er Jahre. Die erste Konferenz über künstliche Intelligenz, die legendäre Dartmouth Conference, fand im Sommer 1956 statt. In dem Förderantrag an die Rockefeller Foundation für diese Konferenz[ prägte John McCarthy 1955 den Begriff Künstliche Intelligenz - schließlich wollte der MIT-Forscher beim potenziellen Geldgeber ordentlich Eindruck machen. McCarthy ist übrigens auch Erfinder der Programmiersprache LISP, deren Design er 1960 in der Fachzeitschrift Communications of the ACM vorstellte. LISP gehört zu den wichtigsten Programmiersprachen der Künstlichen Intelligenz.

Die Anfangsphase der KI war geprägt durch eine fast grenzenlose Erwartungshaltung im Hinblick auf die Fähigkeit von Computern, Aufgaben zu lösen, zu deren Lösung Intelligenz notwendig ist, wenn sie vom Menschen durchgeführt werden. So prognostizierte Herbert Simon, Mathematiker und Sozialwissenschaftler, im Jahr 1957, dass innerhalb der nächsten zehn Jahre ein Computer Schachweltmeister werden und einen wichtigen mathematischen Satz entdecken und beweisen würde.

Doch auch Genies können sich manchmal irren. Der spätere Nobelpreisträger für Wirtschaftswissenschaften lag mit seiner Vorhersage leider voll daneben. Immerhin gelang es 1997 dem von IBM entwickelten System Deep Blue, den Schach-Weltmeister Garri Kasparov in sechs Partien zu schlagen. Im Jahr 2011 gewann das Computerprogramm Watson im Quiz Jeopardy! gegen die beiden bislang erfolgreichsten Spieler.

Zusammen mit Allen Newell entwickelte Simon in den 1960er Jahren den General Problem Solver, ein Programm, das die Fähigkeit besitzen sollte, mit einfachen Methoden beliebige Probleme zu lösen. Nach fast zehnjähriger Entwicklungsdauer wurde das Projekt jedoch eingestellt.

Ende der 1960er Jahre entwickelte der MIT-Informatiker Joseph Weizenbaum mit einem relativ simplen Verfahren das Programm ELIZA, das den Dialog eines Psychotherapeuten mit einem Patienten simuliert. Die Wirkung des Programms, das aus heutiger Sicht den ersten Chatbot der Welt darstellt, war atemberaubend. Weizenbaum war selbst überrascht, dass man auf relativ einfache Weise Menschen die Illusion eines beseelten Partners vermitteln konnte.

Expertensysteme nur mäßig erfolgreich

Auf einigen Gebieten erzielte die KI beachtliche Erfolge, beispielsweise bei Strategiespielen wie Schach und Dame, bei der Mustererkennung oder der Simulation von Robotern. Ein Thema, das zahlreiche Wissenschaftler über längere Zeit beschäftigte, waren die sogenannten Expertensysteme. In einem Expertensystem wird das regelbasierte Wissen eines bestimmten Fachgebiets formal repräsentiert.

Das System wendet bei konkreten Fragestellungen diese Regeln auch in solchen Kombinationen an, die von menschlichen Experten nicht in Betracht gezogen werden. Die zu einer Problemlösung herangezogenen Regeln können angezeigt werden, d.h. das System kann "erklären", warum es zu einem bestimmten Ergebnis gekommen ist.. Einem Expertensystem lassen sich einzelne Wissenselemente hinzufügen, verändern oder löschen.

Expertensysteme und andere auf Wissensdatenbanken basierende Systeme nur mäßigen Erfolg, denn es war schwer, das benötigte Wissen von Hand in formale Regeln zu überführen. Diese Schwäche ließ sich durch maschinelles Lernen umgehen. Beim ML lernt das Computersystem selbstständig anhand der vorliegenden Daten und wird so befähigt, verborgene Zusammenhänge zu erkennen, die ein Mensch nicht berücksichtigt hätte. Klassische Verfahren lernen dabei eine Ausgabefunktion anhand vorher extrahierter Merkmale, die durch manuelle Programmierung aus den Eingabedaten extrahiert wurden.

Allerdings zeigte beim ML ein ähnliches Problem wie bei den Expertensystemen: Nicht immer führt eine manuelle Auswahl zu einem optimalen Ergebnis. Eine aktuell erfolgreiche sehr Struktur für maschinelles Lernen sind künstliche neuronale Netze (KNNs). Diese basieren auf der Fähigkeit, die erforderlichen Merkmale selbst anhand der Rohdaten zu lernen, z.B. direkt aus Kamerabildern.

RNN: Das bisher Unlernbare lernen

Eine Technik, die zu einer wesentlichen Verbesserung der KI beigetragen hat, nennt sich ong short-term memory (LSTM, langes Kurzzeitgedächtnis)L. Sie wurde 1997 von Sepp Hochreiter und Jürgen Schmidhuber (TU München) in einer Veröffentlichung vorgestellt. Die Einführung von Big Data stellte riesige Mengen von Daten zum Trainieren der neuronalen Netze zu Verfügung, während der Boom im Computerspielbereich zu immer schnelleren und preisgünstigeren Grafikkarten führte. Mithilfe dieser Grafikkarten werden bei Games zur simulierte Bewegung der Akteure im Raum sehr viele Matrixmultiplikationen durchgeführt - eine Fähigkeit die für KI und LSTM wie geschaffen war.

Die in Schmidhubers Arbeitsgruppe entwickelten rekurrenten neuronalen Netze (RNN) lernen in effizienter Weise so manche einst unlernbare Aufgaben: z.B. Erkennung gewisser kontextsensitiver Sprachen, die Robotersteuerung in nur partiell sichtbaren Umgebungen und die Komposition von Musikstücken.

Schnelle GPU-Implementierungen dieser Kombination wurden 2011 durch Dan Ciresan und Kollegen in Schmidhubers Gruppe eingeführt und konnten mit solchen Systemen diverse Challenges gewinnen, z.B. den „ICPR 2012 Contest on Mitosis Detection in Breast Cancer Histological Images“. Seit etwa 2016 setzen große Tech-Unternehmen wie Google, Apple und Microsoft LSTM als grundlegende Komponente für neue Produkte ein. So verwendete beispielsweise Amazon LSTM für das Sprachassistenzsystem Alexa.

Mehr als 70 Prozent der Deutschen wissen, was ein digitaler Sprachassistent ist, bislang haben allerdings nur 37 Prozent diese Möglichkeit der Gerätesteuerung ausprobiert. Vor allem auf dem Smartphone vorinstallierte Sprachassistenten werden gut angenommen. Apples Siri und der Google Assistant sind mit jeweils 15 Prozent Nutzern die beliebtesten Eingabehilfen der Deutschen.
Mehr als 70 Prozent der Deutschen wissen, was ein digitaler Sprachassistent ist, bislang haben allerdings nur 37 Prozent diese Möglichkeit der Gerätesteuerung ausprobiert. Vor allem auf dem Smartphone vorinstallierte Sprachassistenten werden gut angenommen. Apples Siri und der Google Assistant sind mit jeweils 15 Prozent Nutzern die beliebtesten Eingabehilfen der Deutschen.
(Bild: Splendid Research)

Für Schmidhuber, der heute als wissenschaftlicher Direktor bei einem Schweizer Forschungsinstitut für Künstliche Intelligenz arbeitet und an der Scuola universitaria professionale della Svizzera italiana lehrt, ist die Spracherkennung nach wie vor eines der wichtigsten Anwendungsfelder für KI. Doch sieht der Wissenschaftler das größte Potenzial für diese Technologie anderswo, nämlich im Bereich der kognitiven Robotik (Cognitive Robotics). Bei kognitiven Maschinen handelt es sich um intelligente Systeme, die sich ihre eigenen Ziele setzen können und diese konsequent verfolgen.

Wohin die KI-Reise mit solchen „wahrnehmenden“ Maschinen gehen könnte, lotet die von Schmidhuber mitbegründete Firma NNaisense aus. Das Startup, das mit renommierten Partnern wie Audi, Schott, EOS und Festo zusammenarbeitet, befasst sich mit der Entwicklung groß angelegter neuronaler Netzwerklösungen, die die menschliche Wahrnehmung übertreffen. Die betreffenden Lösungen könnten dann z.B. für intelligente Automatisierungsprozesse in der Industrie oder im Mobilitätsbereich eingesetzt werden.

Ein Beispiele dafür sind „schmerzempfindliche" Automobile. Die Fahrzeuge lernen aus Fehlern, die sie beim autonomen Einparken machen (z.B. Parkremplern). Wenn sie irgendwo anecken, empfangen sie Schmerzsignale, die sie durch künftiges "Wohlverhalten" vermeiden können. Noch ist das Ganze ein Forschungsprojekt (mit Audi). Trotzdem müsse man damit rechnen, dass der Mensch in naher Zukunft „nicht mehr die Krone der Schöpfung sein wird“, zeigt sich KI-Forscher Schmidhuber überzeugt.

Was ist Künstliche Intelligenz?

Künstliche Intelligenz ist der Überbegriff für Anwendungen, bei denen Maschinen menschenähnliche Intelligenzleistungen erbringen. Darunter fallen das maschinelle Lernen oder Machine Learning, das Verarbeiten natürlicher Sprache (NLP – Natural Language Processing) und Deep Learning.

Die Spielarten der Künstlichen Intelligenz und ihre Anwendungen
Die Spielarten der Künstlichen Intelligenz und ihre Anwendungen
(Bild: CRISP Research)

ML, so Katharina Zweig, Informatikprofessorin an der TU Kaiserslautern, „ist eine Sammlung von Methoden, die in Daten der Vergangenheit nach Mustern sucht, die für die Zukunft Vorhersagen erlauben“. Beim Natural Language Processing (NLP) geht es um die Verarbeitung von Texten und natürlicher menschlicher Sprache. Als vielversprechendste Methode des Machine Learning wird aktuell Deep Learning gesehen, das sehr tiefe neuronale Netze mit mehreren Ebenen und einem großen Datenvolumen nutzt.

Im Gegensatz zu NLP geht der Algorithmus beim Deep Learning tiefer: Die Maschine erkennt Strukturen, kann diese evaluieren und sich in mehreren vorwärts wie rückwärts gerichteten Durchläufen selbständig verbessern. Dabei verwendet der Algorithmus mehrere Knotenebenen (Neuronen) parallel, um fundierte Entscheidungen zu treffen.

Beispielsweise findet die Medizin mit Deep Learning Unterstützung bei der Früherkennung von Krebs oder Herzkrankheiten und kann DNA-Profile von Kindern nach Genmarkern untersuchen, die auf Typ 1 Diabetes hinweisen. In der Forschung wird Deep Learning unter anderem eingesetzt, um tausende Zellprofile und deren aktive Gene auszuwerten oder Teilchenschauer, die entstehen, wenn in einem Teilchenbeschleuniger Protonenstrahlen aufeinanderprallen.

Wie funktioniert Maschinelles Lernen?

Maschinelles Lernen (machine learning) bezeichnet eine Querschnittsdisziplin aus Statistik, Informatik und Mathematik, die das Ziel hat, Softwaresysteme zu konstruieren, die automatisch aus Daten lernen können. Eine Vielzahl generischer Lernalgorithmen wurde entwickelt, um eine Vielzahl von Lernaufgaben zu lösen oder neue Erkenntnisse aus Daten zu gewinnen. Wie der Name „Maschinelles Lernen“ bereits impliziert, lernen Maschinen komplexe Zusammenhänge, wozu Menschen in puncto Schnelligkeit und Genauigkeit nicht mehr in der Lage sind.

Beim maschinellen Lernen wird in der Regel zwischen folgenden drei Problemklassen unterschieden:

(1) Beim überwachten Lernen umfassen die Trainingsdaten bekannte Eingabe- und Zieldaten. Der Algorithmus lernt dabei den unbekannten Zusammenhang zwischen Eingabe und Ziel. Da die Zielgröße bekannt ist, kann die Abweichung zwischen der momentanen Ausgabe der Lernalgorithmus und dem Ziel quantifiziert und zur Verbesserung des Lernens eingesetzt werden. Beim überwachten Lernen unterscheidet man zwischen zwei Aufgabestellungen, der Klassifikation und der Regression. Grob gesagt, liegt der Unterschied beider Aufgaben in den Zieldaten. Bei der Klassifikation ist das Ziel diskret, während bei der Regression kontinuierliche Zieldaten vorliegen. Zu den bekanntesten überwachten Lernverfahren gehören künstliche neuronale Netze (KNN), Entscheidungsbäume, Support Vector Machines und Gauß-Prozesse. Die genannten Beispielverfahren lassen sich sowohl für die Klassifikation als auch für die Regression einsetzen.

(2) Beim unüberwachten Lernen stehen lediglich Eingabedaten zur Verfügung, während die Zieldaten unbekannt sind. Ein Lernalgorithmus versucht nun Muster in den Eingabedaten zu erkennen, kann diesen Mustern aber aufgrund der fehlenden Zieldaten keine semantische Bedeutung zuordnen. Wegen der fehlenden Zieldaten lässt sich auch keine Abweichung wie beim überwachten Lernen berechnen. Typische Aufgabestellungen beim unüberwachten Lernen ist das Clustern von Daten, die Dimensionsreduktion oder die Berechnung von Assoziationen.

(3) Das Reinforcement Learning zielt auf das Lernen einer Strategie ab, die es erlaubt, in bestimmten Zuständen (entspricht der Eingabe) optimale Aktionen durchzuführen oder Entscheidungen (entspricht der Ausgabe) zu treffen. Zum Lernen stehen dem Lernalgorithmus keine bekannten Trainingsdaten zur Verfügung. Vielmehr lernt der Algorithmus durch Exploration und Interaktion, wobei dieser für eine gewählte Aktion eine Belohnung oder Bestrafung erfährt. Auf der Grundlage versucht das Verfahren die Aktionswahl derart zu verbessern, dass die erhaltene Belohnung maximiert bzw. die Bestrafung minimiert wird. Bekannte Verfahren des Reinforcement Learnings sind Temporal-Difference-Learning oder das dynamische Programmieren.

Quelle: Machine Learning in der Smart Factory

Da diese Art des Lernens sehr komplexe, nichtlineare Probleme löst, kommt sie auch bei selbstfahrenden Fahrzeugen zum Einsatz - z.B. um unübersichtliche Verkehrsszenarien richtig zu interpretieren: Ob Fußgänger, Radfahrer, Wetter, Verkehrszeichen oder Bäume: Das Verhalten der Verkehrsteilnehmer muss unter Berücksichtigung aller möglichen Einflussfaktoren richtig erkannt und vorhergesagt werden, um Unfälle zu vermeiden.

Grundlegende KI- bzw. ML-Verfahren

Klassifikation – Effizienzsteigerung in der Qualitätssicherung
In der virtuellen Smart Factory wird das Endprodukt am Ende der Produktionskette innerhalb der Qualitätssicherung mit gut oder schlecht bewertet. Die Klassifikation teilt dem Endprodukt die diskreten Werte gut und schlecht zu. Größen, die nur einen bestimmten Wert annehmen können, wie z.B. eine der Farben Rot, Grün oder Blau, werden als diskret bezeichnet. Auf der anderen Seite gibt es kontinuierliche Werte, die auch Zwischenwerte annehmen können. Diese sind von der Klassifikation ausgeschlossen.

Regression – Optimale Produktionsplanung und -steuerung
Auf Basis der historischen Unternehmensdaten werden mit Hilfe von Regressionsverfahren verschiedene Prognosemodelle entwickelt, die präzise und belastbar sind. Die neuen Prognosemodelle helfen dem produzierenden Unternehmen, unter Berücksichtigung mehrerer Einflussfaktoren (z.B. künftiger Absatzmengen, benötigten Rohstoffmengen und notwendigen Kapazitäten), eine optimale Produktionsplanung und -steuerung zu erstellen. Anders als bei der Klassifikation ist die Regression eine Klasse von Verfahren, um kontinuierliche Werte zu bestimmen. Weiterhin untersucht die Regression die funktionalen Zusammenhänge zwischen verschiedenen Merkmalen. Ein funktionaler Zusammenhang besteht dann, wenn eine oder mehrere unabhängige Variablen (z.B. x) eine abhängige Zielvariable y erklären.

Clustering – Ähnlichkeiten in Produktionsdaten aufdecken
Beim Clustering handelt es sich um Verfahren, mit denen ähnliche Merkmale zu einer Gruppe zugeordnet werden. Gruppen werden auch als Cluster bezeichnet. Cluster-Algorithmen (k-Means-Algorithmus, EM-Algorithmus oder DBSCAN) analysieren die verschiedenen Merkmale. Ähnliche Merkmalskombinationen werden zu den jeweiligen Gruppen zugeordnet.

Quelle: Machine Learning in der Smart Factory

(ID:45324964)