IoT-Basics Was ist Künstliche Intelligenz? Definition, Anwendung und Beispiele
Künstliche Intelligenz (KI): Viele Menschen glauben zu wissen, was sich dahinter verbirgt. KI ist damit einer der geläufigsten Begriffe aus der Welt der Digitalisierung. Was man mit KI, AI und Machine Learning alles machen kann, erläutern wir in diesem Beitrag.
Anbieter zum Thema

Technothrill und filmreife Action: Das bietet der jüngste Pageturner des Bestsellerautors Frank Schätzung "Die Tyrannei des Schmetterlings". Alles dreht sich um Quantencomputing und um Künstliche Intelligenz, wobei Letztere (erwartungsgemäß) komplette aus dem Ruder läuft. Anstatt - wie von ihrem philantropisch gesinnten Schöpfer intendiert - die Grundprobleme der Menschheit zu lösen, beginnt das neuronale Superhirn eben diese Menschheit zu eliminieren - in der Erkenntnis, dass deren Existenz das größte Menschheitsproblem darstellt.
Für Hochspannung ist also gesorgt. Und auch sonst ist der Spezialist für packende Öko- und Tech-Thriller voll am Puls der Zeit. Denn kaum ein Thema wird aktuell dermaßen gehypt wie die Künstliche Intelligenz. Über 1,2 Milliarden Ergebnisse spuckt Google in Dumme zu den Suchbegriffen "Künstliche Intelligenz", "Artificial Intelligence" und "Machine Learning" aus. Apropos Google: Natürlich arbeitet die Suchmaschine selbst mit KI-Unterstützung.
Während KI-Kritiker dystopische Szenarien à la Schätzing heraufbeschwören, erwarten sich andere von neuronalen Netzwerken und Deep Learning wahre Wunder: zum Beispiel Ray Kurzweil. Der amerikanische Erfinder, Futurist , Gründer der Singularity University und Director of Engineering beim Suchmaschinenbetreiber Google gilt als einer der bekanntesten Vordenker des Transhumanismus. Er prognostiziert für das Jahr 2045 eine exponentielle Zunahme der informationstechnologischen Entwicklung: eine Singularität, die eine künstliche Intelligenz ermöglicht, mit der die Menschheit Unsterblichkeit erlangen kann.
Doch auch bei eher bodenständigen Herausforderungen erwartet man von KI und der "Subdisziplin" Machine Learning (ML) Lösungen. "Maschinelles Lernen (ML) erschließt der Automatisierung neue Möglichkeiten und spürt brachliegende Optimierungspotenziale auf: mit prädiktiver Wartung und beim Steuern von Prozessen, zur Detektion von Anomalien an Maschinen und Anlagen sowie von Werkstücken, bei kollaborativ arbeitenden Robotern, in der automatisierten Qualitätskontrolle und beim Optimieren des Fertigungsablaufs in Maschinen", erläutert der Automatisierungsexperte und Fachpublizist Reinhard Kluger.
Artificial Intelligence - vom alten Hut zum Hype
Genau genommen ist Künstliche Intelligenz ein Kind der Rock 'n-Roll-Ära, also der 1950er Jahre. Die erste Konferenz über künstliche Intelligenz, die legendäre Dartmouth Conference, fand im Sommer 1956 statt. In dem Förderantrag an die Rockefeller Foundation für diese Konferenz[ prägte John McCarthy 1955 den Begriff Künstliche Intelligenz - schließlich wollte der MIT-Forscher beim potenziellen Geldgeber ordentlich Eindruck machen. McCarthy ist übrigens auch Erfinder der Programmiersprache LISP, deren Design er 1960 in der Fachzeitschrift Communications of the ACM vorstellte. LISP gehört zu den wichtigsten Programmiersprachen der Künstlichen Intelligenz.
Die Anfangsphase der KI war geprägt durch eine fast grenzenlose Erwartungshaltung im Hinblick auf die Fähigkeit von Computern, Aufgaben zu lösen, zu deren Lösung Intelligenz notwendig ist, wenn sie vom Menschen durchgeführt werden. So prognostizierte Herbert Simon, Mathematiker und Sozialwissenschaftler, im Jahr 1957, dass innerhalb der nächsten zehn Jahre ein Computer Schachweltmeister werden und einen wichtigen mathematischen Satz entdecken und beweisen würde.
Doch auch Genies können sich manchmal irren. Der spätere Nobelpreisträger für Wirtschaftswissenschaften lag mit seiner Vorhersage leider voll daneben. Immerhin gelang es 1997 dem von IBM entwickelten System Deep Blue, den Schach-Weltmeister Garri Kasparov in sechs Partien zu schlagen. Im Jahr 2011 gewann das Computerprogramm Watson im Quiz Jeopardy! gegen die beiden bislang erfolgreichsten Spieler.
Zusammen mit Allen Newell entwickelte Simon in den 1960er Jahren den General Problem Solver, ein Programm, das die Fähigkeit besitzen sollte, mit einfachen Methoden beliebige Probleme zu lösen. Nach fast zehnjähriger Entwicklungsdauer wurde das Projekt jedoch eingestellt.
Ende der 1960er Jahre entwickelte der MIT-Informatiker Joseph Weizenbaum mit einem relativ simplen Verfahren das Programm ELIZA, das den Dialog eines Psychotherapeuten mit einem Patienten simuliert. Die Wirkung des Programms, das aus heutiger Sicht den ersten Chatbot der Welt darstellt, war atemberaubend. Weizenbaum war selbst überrascht, dass man auf relativ einfache Weise Menschen die Illusion eines beseelten Partners vermitteln konnte.
Expertensysteme nur mäßig erfolgreich
Auf einigen Gebieten erzielte die KI beachtliche Erfolge, beispielsweise bei Strategiespielen wie Schach und Dame, bei der Mustererkennung oder der Simulation von Robotern. Ein Thema, das zahlreiche Wissenschaftler über längere Zeit beschäftigte, waren die sogenannten Expertensysteme. In einem Expertensystem wird das regelbasierte Wissen eines bestimmten Fachgebiets formal repräsentiert.
Das System wendet bei konkreten Fragestellungen diese Regeln auch in solchen Kombinationen an, die von menschlichen Experten nicht in Betracht gezogen werden. Die zu einer Problemlösung herangezogenen Regeln können angezeigt werden, d.h. das System kann "erklären", warum es zu einem bestimmten Ergebnis gekommen ist.. Einem Expertensystem lassen sich einzelne Wissenselemente hinzufügen, verändern oder löschen.
Expertensysteme und andere auf Wissensdatenbanken basierende Systeme nur mäßigen Erfolg, denn es war schwer, das benötigte Wissen von Hand in formale Regeln zu überführen. Diese Schwäche ließ sich durch maschinelles Lernen umgehen. Beim ML lernt das Computersystem selbstständig anhand der vorliegenden Daten und wird so befähigt, verborgene Zusammenhänge zu erkennen, die ein Mensch nicht berücksichtigt hätte. Klassische Verfahren lernen dabei eine Ausgabefunktion anhand vorher extrahierter Merkmale, die durch manuelle Programmierung aus den Eingabedaten extrahiert wurden.
Allerdings zeigte beim ML ein ähnliches Problem wie bei den Expertensystemen: Nicht immer führt eine manuelle Auswahl zu einem optimalen Ergebnis. Eine aktuell erfolgreiche sehr Struktur für maschinelles Lernen sind künstliche neuronale Netze (KNNs). Diese basieren auf der Fähigkeit, die erforderlichen Merkmale selbst anhand der Rohdaten zu lernen, z.B. direkt aus Kamerabildern.
RNN: Das bisher Unlernbare lernen
Eine Technik, die zu einer wesentlichen Verbesserung der KI beigetragen hat, nennt sich ong short-term memory (LSTM, langes Kurzzeitgedächtnis)L. Sie wurde 1997 von Sepp Hochreiter und Jürgen Schmidhuber (TU München) in einer Veröffentlichung vorgestellt. Die Einführung von Big Data stellte riesige Mengen von Daten zum Trainieren der neuronalen Netze zu Verfügung, während der Boom im Computerspielbereich zu immer schnelleren und preisgünstigeren Grafikkarten führte. Mithilfe dieser Grafikkarten werden bei Games zur simulierte Bewegung der Akteure im Raum sehr viele Matrixmultiplikationen durchgeführt - eine Fähigkeit die für KI und LSTM wie geschaffen war.
Die in Schmidhubers Arbeitsgruppe entwickelten rekurrenten neuronalen Netze (RNN) lernen in effizienter Weise so manche einst unlernbare Aufgaben: z.B. Erkennung gewisser kontextsensitiver Sprachen, die Robotersteuerung in nur partiell sichtbaren Umgebungen und die Komposition von Musikstücken.
Schnelle GPU-Implementierungen dieser Kombination wurden 2011 durch Dan Ciresan und Kollegen in Schmidhubers Gruppe eingeführt und konnten mit solchen Systemen diverse Challenges gewinnen, z.B. den „ICPR 2012 Contest on Mitosis Detection in Breast Cancer Histological Images“. Seit etwa 2016 setzen große Tech-Unternehmen wie Google, Apple und Microsoft LSTM als grundlegende Komponente für neue Produkte ein. So verwendete beispielsweise Amazon LSTM für das Sprachassistenzsystem Alexa.
Für Schmidhuber, der heute als wissenschaftlicher Direktor bei einem Schweizer Forschungsinstitut für Künstliche Intelligenz arbeitet und an der Scuola universitaria professionale della Svizzera italiana lehrt, ist die Spracherkennung nach wie vor eines der wichtigsten Anwendungsfelder für KI. Doch sieht der Wissenschaftler das größte Potenzial für diese Technologie anderswo, nämlich im Bereich der kognitiven Robotik (Cognitive Robotics). Bei kognitiven Maschinen handelt es sich um intelligente Systeme, die sich ihre eigenen Ziele setzen können und diese konsequent verfolgen.
Wohin die KI-Reise mit solchen „wahrnehmenden“ Maschinen gehen könnte, lotet die von Schmidhuber mitbegründete Firma NNaisense aus. Das Startup, das mit renommierten Partnern wie Audi, Schott, EOS und Festo zusammenarbeitet, befasst sich mit der Entwicklung groß angelegter neuronaler Netzwerklösungen, die die menschliche Wahrnehmung übertreffen. Die betreffenden Lösungen könnten dann z.B. für intelligente Automatisierungsprozesse in der Industrie oder im Mobilitätsbereich eingesetzt werden.
Ein Beispiele dafür sind „schmerzempfindliche" Automobile. Die Fahrzeuge lernen aus Fehlern, die sie beim autonomen Einparken machen (z.B. Parkremplern). Wenn sie irgendwo anecken, empfangen sie Schmerzsignale, die sie durch künftiges "Wohlverhalten" vermeiden können. Noch ist das Ganze ein Forschungsprojekt (mit Audi). Trotzdem müsse man damit rechnen, dass der Mensch in naher Zukunft „nicht mehr die Krone der Schöpfung sein wird“, zeigt sich KI-Forscher Schmidhuber überzeugt.
Was ist Künstliche Intelligenz?
Künstliche Intelligenz ist der Überbegriff für Anwendungen, bei denen Maschinen menschenähnliche Intelligenzleistungen erbringen. Darunter fallen das maschinelle Lernen oder Machine Learning, das Verarbeiten natürlicher Sprache (NLP – Natural Language Processing) und Deep Learning.
ML, so Katharina Zweig, Informatikprofessorin an der TU Kaiserslautern, „ist eine Sammlung von Methoden, die in Daten der Vergangenheit nach Mustern sucht, die für die Zukunft Vorhersagen erlauben“. Beim Natural Language Processing (NLP) geht es um die Verarbeitung von Texten und natürlicher menschlicher Sprache. Als vielversprechendste Methode des Machine Learning wird aktuell Deep Learning gesehen, das sehr tiefe neuronale Netze mit mehreren Ebenen und einem großen Datenvolumen nutzt.
Im Gegensatz zu NLP geht der Algorithmus beim Deep Learning tiefer: Die Maschine erkennt Strukturen, kann diese evaluieren und sich in mehreren vorwärts wie rückwärts gerichteten Durchläufen selbständig verbessern. Dabei verwendet der Algorithmus mehrere Knotenebenen (Neuronen) parallel, um fundierte Entscheidungen zu treffen.
Beispielsweise findet die Medizin mit Deep Learning Unterstützung bei der Früherkennung von Krebs oder Herzkrankheiten und kann DNA-Profile von Kindern nach Genmarkern untersuchen, die auf Typ 1 Diabetes hinweisen. In der Forschung wird Deep Learning unter anderem eingesetzt, um tausende Zellprofile und deren aktive Gene auszuwerten oder Teilchenschauer, die entstehen, wenn in einem Teilchenbeschleuniger Protonenstrahlen aufeinanderprallen.
Da diese Art des Lernens sehr komplexe, nichtlineare Probleme löst, kommt sie auch bei selbstfahrenden Fahrzeugen zum Einsatz - z.B. um unübersichtliche Verkehrsszenarien richtig zu interpretieren: Ob Fußgänger, Radfahrer, Wetter, Verkehrszeichen oder Bäume: Das Verhalten der Verkehrsteilnehmer muss unter Berücksichtigung aller möglichen Einflussfaktoren richtig erkannt und vorhergesagt werden, um Unfälle zu vermeiden.
(ID:45324964)