Suchen

Expertenbeitrag

 Robert Jänisch

Robert Jänisch

CEO & Co-Founder, IOX GmbH

KI am Rand Warum Edge AI das Potential des Internet of Things steigern wird

| Autor / Redakteur: Robert Jänisch / Sebastian Human

Das Internet der Dinge verbindet Geräte nicht nur, es macht sie klug. Künstliche Intelligenz sorgt als technologische Innovation seit einiger Zeit für viel Furore. Wir sind kurz davor, dass unsere kühnsten Vorstellungen von den Möglichkeiten des maschinellen Lernens wahr werden.

Firmen zum Thema

Die latenzarme KI-Verarbeitung an der Edge, also am Netzwerkrand, macht neugierig.
Die latenzarme KI-Verarbeitung an der Edge, also am Netzwerkrand, macht neugierig.
(Bild: gemeinfrei / Unsplash)

Was mit Methoden der künstlichen Intelligenz alles möglich sein könnte, darüber wird gut und viel nachgedacht. Aber erst durch den Einsatz von Edge-AI können wir das Potenzial auch voll nutzen. Ein Hindernis, an dem so einige KI-Ideen scheitern können, ist schließlich oft die fehlende Schnelligkeit.

Wenn die Cloud zu viel Latenz fordert

Das Geheimnis der künstlichen Intelligenz liegt in der Verarbeitung der Daten. Die Sensoren vieler Endgeräte sind in der Lage, Daten aufzunehmen. Dazu gehören in den Smart Homes vor allem Assistenten wie Alexa oder Google Home aber auch die intelligente Lichtsteuerung. Im Bereich des Online-Shoppings, im Kontext von Industrie 4.0 oder im Bereich Healthcare spielen KI-Lösungen ebenso große Rollen. Und das Prinzip ist überall dasselbe: Die Daten werden gesammelt und durch leistungsfähige Algorithmen analysiert. Die erkannten Muster oder herausgefilterten Fehler helfen dabei, Entscheidungen zu treffen oder Prozesse zu automatisieren. Genau hier liegt jedoch die Crux im Cloud Computing. Eine Zentrale ist nämlich nicht immer geeignet.

Zwar basieren die meisten Anwendungsfälle der künstlichen Intelligenz derzeit noch auf der Leistung des Cloud Computing, aber das kann sich ändern. Und sollte es auch, wenn das nächste Level der künstlichen Intelligenz erreicht werden möchte. Das Problem: Bei der Arbeit mit Cloud Computing werden die Daten erst an die Cloud gesendet, bevor sie analysiert werden. Das heißt zum Beispiel, dass die Smart Watch oder das smarte Auto in permanenter Verbindung zur Cloud steht, um funktional zu sein. In diesem Fall wird die zentrale Datenverarbeitung zum Nadelöhr, durch das eine ganze Menge Daten hindurch muss. Keine Frage also, dass sich durch die daraus resultierende Latenz mögliche Gefahren auftun.

Nehmen wir ein Beispiel aus der Welt der Connected Cars. Wenn die Sensoren ein nahendes Hindernis wahrnehmen, etwa ein anderes Auto oder einen Fußgänger, und ein Bremsvorgang stattfinden soll, können Bruchteile von Sekunden entscheidend sein. Ist ein potentielles Hindernis erkannt, sollte die Handlung sofort erfolgen. Hier ist es aufgrund der Verzögerungen eher sinnlos, die Daten erst an die Cloud zu senden.

Dezentraler Datenverarbeitung rettet Leben

Edge AI erlaubt Echtzeitoperationen. Durch die hohe Priorität, was den Echtzeitbetrieb betrifft, gewinnt die dezentrale Verarbeitung deshalb für viele Bereiche an Bedeutung. Nicht nur für selbstfahrende Autos, sondern auch für medizinische Geräte oder Geräte, die auf die Vitalfunktionen von Menschen reagieren, ist die Verarbeitung mit geringer Latenz wichtig. Man kann sogar sagen, dass sie hier überlebenswichtig ist. Kein Wunder also, dass die Möglichkeiten des Edge Computing immer wertvoller werden. Schließlich wird das Problem mit dem Faktor Zeit durch den dezentralen Ansatz gelöst. Im Unterschied zum Cloud Computing werden die Daten nämlich dezentral oder am Rande des Netzwerks, also auf den smarten Geräten selbst, verarbeitet.

Weitere Vorteile von Edge AI

Edge AI ermöglicht die Verarbeitung der Daten dort, wo sie erhoben werden. Dabei wird nicht nur die Schnelligkeit zum Vorteil. Da die smarten Devices nun nicht mehr auf die Kommunikation mit der Cloud angewiesen sind, gibt es auch keine Probleme, wenn die Netzwerkverbindung instabil ist. Gerade in ländlichen Gebieten mit geringer Breitbandabdeckung kann dies zum entscheidenden Faktor werden. Aber auch für Wetterstationen, die vielleicht extremen Bedingungen ausgesetzt sind, kann Edge AI die bessere Lösung sein.

Ein weiterer Vorteil ist Energieeffizienz von Edge AI. Und die ist ja nicht nur auf dem Land, sondern auch in Städten zu einem sensiblen Thema geworden. Wenn Geräte dauerhaft mit der Cloud kommunizieren, wird Energie verbraucht. Edge AI dagegen kommt ohne zusätzlich benötigte Batterien oder teure Netzteile aus. Das macht die Technik beispielsweise auch für Anwendungsbereiche im Einzelhandel, wo mit engen Margen gearbeitet wird, sehr interessant. Darüber hinaus bleiben auch die Kommunikationskosten auf einem Level, das für den Einsatz von hoch skalierbaren Business-Anwendungen entscheidend sein kann.

Punkt drei auf der Liste der Vorteile ist die IT-Sicherheit. Auf dem Weg zur Cloud können Daten schließlich auch von Unbefugten abgefangen werden. Bei der Verarbeitung vor Ort können die Daten nach der Analyse gelöscht werden und nur ausgewählte Metadaten in gewissen Abständen weitergeleitet werden. Vor allem Unternehmen sollten daher auf Edge AI setzen, wenn ihnen die Sicherheit ihrer Daten wichtig ist. So kann ein verteilter Denial-of-Service-Angriff (DDoS) schlimme Folgen haben, wenn Maschinen und Geräte auf die zentrale Cloud zurückgreifen. Edge-AI-Geräte verringern diese Gefahr genau wie sie vermeiden, dass ein Single Point of Failure innerhalb einer Kettenreaktion gleich mehrere Geräte lahmlegt.

Edge-AI-Projekte sinnvoll umsetzen

Die dezentrale Verarbeitung durch Edge AI ist noch eine recht junge Technik. Daher wird sich noch zeigen, welche Methoden sich durchsetzen werden, um die Funktionen zu implementieren. Grundsätzlich aber lassen sich Edge-AI-Projekte wie alle technischen Projekte umsetzen. Zunächst gilt es, die Anforderungen zu definieren. Wie viel der künstlichen Intelligenz soll am Rande bearbeitet und wie viel in der Cloud umgesetzt werden? Entscheidend ist hierbei die Leistungsfähigkeit der Prozessoren. Oder vielleicht sind auch die Kosten erheblich oder die Frage, wie die Chips der Zukunft entsorgt werden können.

Sind diese Basispunkte abgehakt, können in einem System-Footprint die Anforderungen an das Machine Learning definiert werden. Dazu muss erst einmal bestimmt werden, wer das fertige Produkt einmal benutzen soll. Darüber hinaus sollten neben der Frage nach der Zielgruppe noch folgende Punkte beachtet werden:

  • Welche Aufgaben sollen vom Produkt erfüllt werden?
  • Welche Schlüsselergebnisse müssen bereitgestellt werden?
  • Gibt es spezifische technische Komponenten, die das Projekt enthalten soll?
  • Welche technischen Schnittstellen benötigt das Projekt für jedes beteiligte System oder den Benutzer?
  • Gibt es technische Einschränkungen zu beachten?
  • Gibt es spezielle Anforderungen von Stakeholdern des Projekts?

Nach Klärung aller dieser Punkte gilt es, entsprechende Daten zu sammeln, zu labeln und digitale Testszenarien zu entwickeln. Für ein möglichst exaktes Ergebnis sind dabei die Datenqualität und das präzise Vorgehen beim Labeln von großer Bedeutung. Um das nötige Niveau zu erreichen, sollte vorher klar sein, welche Verfahren zum Sammeln von Daten angewendet und welche Real-Life-Conditions für das Edge-AI-Projekt festgelegt werden.

Der Blick in die Zukunft

Das große Potential, das sich durch die dezentrale Verarbeitung mit Edge AI bietet, wird dafür sorgen, dass sich die Technologie weiter durchsetzen wird. Wie das genau aussieht und wie die Unternehmen die einzelnen Projekte umsetzen, ist bislang noch ungewis. Sinnvoll dabei wäre es jedoch, wenn Unternehmen stärker zusammenarbeiten würden, um einen gemeinsamen Rahmen zu schaffen. Dadurch erhöhen sich die Chancen, technische Innovationen schneller umzusetzen und Raum für neue Erfindungen zu schaffen.

(ID:46254269)

Über den Autor

 Robert Jänisch

Robert Jänisch

CEO & Co-Founder, IOX GmbH