Selbstlernende Algorithmen Das kognitive Internet der Dinge – Einstieg in eine neue Ära

Steffen Hartmaier * |

Anbieter zum Thema

Wie werden KI und selbstlernende Algorithmen kommende Technologien prägen? Wo stehen wir hinsichtlich Connectivity, Security oder auch in der agilen Entwicklung? In seiner Keynote zum ESE-Kongress 2017 zeigt Steffen Hartmaier, IT-Architekt bei IBM, was mit sogenannten kognitiven Themen alles möglich wird.

Einstieg in eine neue Ära: Das kognitive internet der Dinge, eine Kombination aus maschinellem Lernen und dem bestehenden Status Quo der vernetzten Geräte, verspricht eine spannende technologische Zukunft.
Einstieg in eine neue Ära: Das kognitive internet der Dinge, eine Kombination aus maschinellem Lernen und dem bestehenden Status Quo der vernetzten Geräte, verspricht eine spannende technologische Zukunft.
(Bild: Pixabay / geralt / GDJ)

Was genau ist das „kognitive Internet der Dinge“? Ist es 'nur' eine Kombination aus vernetzten Geräten und künstlicher Intelligenz? Und wohin führt uns diese technologische Entwicklung?

Wenn vom kognitiven Internet der Dinge gesprochen wird, stellt man häufig fest, dass mit dem Begriff kognitiv beim Gegenüber nicht direkt eine klare Vorstellung weckt. Und selbst wenn Vorwissen vorhanden ist, kommen schnell Fragen auf. Zum Beispiel: Wie grenzt sich „kognitiv“ von „künstlicher Intelligenz“ oder „maschinellem Lernen“ ab? Im Grunde ist es einfach und schwierig zugleich – den eine klare Abgrenzung gibt es nicht.

Was genau sind „kognitive Technologien“?

Als IBM um 2010 das Thema aufgrund verschiedener Rahmenbedingungen wie gesteigerter Rechenleistung, Cloud, Smartphones wieder ins Bewusstsein bringen wollte, war der Begriff „Künstliche Intelligenz“ verbrannt – im englischen sprach man vom AI-Winter. Für lange Zeit war also der Begriff Künstliche Intelligenz nicht mehr richtig vermarktbar - obwohl hier weiterhin Entwicklungen und Fortschritte stattfanden.

Mit 'kognitv' konnte in der folgenden Zeit eine bessere Positionierung im Markt gefunden werden. Das geschah aus gutem Grund: In den 90ern war das, was Gemeinhin als 'Künstliche Intelligenz' und die darunterliegenden Algorithmen bekannt war, auf Grund der Rechenleistung noch eher auf relativ einfache Texte und Zahlen beschränkt. 2010 war aber ein neues Level erreicht: Die vorhandene Rechenleistung auch kleinerer Geräte konnte nun auch für Töne, Sprache, Bilder und Videos etc. ausreichen. Das heißt, man konnte die künstliche Intelligenz auf kognitive Eigenschaften wie z.B. Hören und Sehen anwenden.

Und das klärt auch was kognitiv bedeutet: das Verarbeiten unstrukturierter Daten unter Verwendung von Künstlicher Intelligenz, die z.B. auf Machine Learning oder die Sonderform Deep Learning zugreift und Wissen aufzubauen und daraus selbstständig Schlussfolgerungen zu ziehen.

Wir erleben heute tagtäglich das Ergebnis von kognitiven Technologien. Jede Spracherkennung in unseren Autos, Smart Homes etc. verwendet auf neuronalen Netzen aufbauende Technologie. Der Einstieg in eine neue, kognitive Ära hat schon längst begonnen. Und das Internet der Dinge ist hierbei der Vorreiter – denn diese „Things“ müssen nicht zwingend Tastaturen besitzen, um Eingaben zu machen oder Anzeigen darzustellen; Displays etwa sind oft zu klein oder brauchen zu viel Strom, um dem Nutzer etwas mitzuteilen.

Sprach-Ein- und -Ausgabe ist aber nur ein initialer Aspekt von kognitivem Computing. Sprach- und Bilderkennung über z.B. Convolutional Neural Networks sind heutzutage fester Bestandteil von frei zugänglichen Open Source Bibliotheken wie OpenCV. Diese erlauben beispielsweise, Informationen aus Videos oder Bildern in Form von Tags zu extrahieren – d.h. auf einem Bild werden mit einer Wahrscheinlichkeit von 98 % Orangen korrekt erkannt. Oder in einem gesprochenen Text wurde der Name „Watson“ genannt: der Nutzer kann sich – unterstützt von dem verwendeten Algorithmus – per Spracheingabe direkt an die Stelle im Video bringen lassen, wo das Wort „Watson“ gefallen ist, ohne es sich im Gesamten selbst ansehen zu müssen.

Wir werden diese Technologien in Zusammenhang mit Objekterkennung im autonomen Fahren der Stufen 3 und 4 mehr und mehr erleben. Die Erkennung bezieht sich auf Fahrbahnen, andere Verkehrsteilnehmer und Fußgänger. Die Regeln sind die Verkehrsregeln in Verbindung mit Verkehrszeichen und Umgebungsparametern. Es gibt Stand heute 37 Firmen, die in Kalifornien die Zulassung für diese Technik beantragt haben. Auch hier bewegen wir uns schon in der nahenden Realität von kognitiven Technologien.

Doch es geht nicht nur um das reine Erkennen unstrukturierter Informationen. Das Schlussfolgern und der Aufbau von Wissen – im Englischen Reasoning, Learning und Interacting – ist weitaus komplexer und komplizierter. Das Verarbeiten dieser Informationen auf Grundlage von Fakten und Wissen, ebenso wie die Pflege und Anpassung dieses Wissens durch eigenständiges Lernen, sind weitaus größere Herausforderungen.

IoT liefert die Daten, die KI fürs Lernen benötigt

Hier spielt das Internet der Dinge eine ganz andere Rolle. Erst die kostengünstige Sensorik wird den Algorithmen die „Beweise“ für ihre Entscheidungen liefern, aus denen sie lernen können. Nehmen wir eine Produktionsanlage, die z.B. Temperatur und Druck selbsttätig einstellen kann. Diese Regulierungen haben Auswirkungen auf den Durchsatz und die Qualität der Produkte. Heute können solche Wirknetze berechnet werden und im Voraus eingestellt werden. Dies bedarf allerdings konstanter Überwachung. Mit dem im Internet der Dinge üblichen Grad an Connectivity und Sensorik, die z.B. an der Produktionslinie selbsttätig die Qualität feststellt, kann das System aus seinen eigenen Entscheidungen lernen.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Leider sind solche Prozesse nie so einfach wie im genannten Beispiel. Denn in der Praxis werden Systeme stets Tausende eingehende Daten aus Hunderten potentieller Messpunkte erfassen und verarbeiten müssen. Es muss erst ein zuverlässiger Wissenskorpus, ein Schatz an erlerntem Wissen geschaffen werden, auf dessen Basis ein solches System dann zurückgreifen kann, um aus den eingehenden Informationen weiter zu lernen. In verschiedenen Bereichen wie z.B. der Onkologie oder der Chemischen Industrie, wird an solchen Systemen bereits gearbeitet. Aber die Vorstellung einer Art universellen Wikipedia, die beliebige eingehende Fragen richtig versteht und korrekt beantworten kann, ist noch weit weg.

(ID:45028056)