IoT-Basics Was bedeutet Edge Computing?

Autor / Redakteur: Filipe Martins und Anna Kobylinska / Jakob Schreiner

Edge Computing wird für das IoT in Zukunft zur unverzichtbaren Schlüsseltechnologie. Dieser Grundlagentext gibt eine Definition des Computing Sytems, erklärt die Vorteile seiner Funktionsweise und nennt Beispiele für den Einsatz.

Anbieter zum Thema

Bis 2025 schätzt man, dass eine Person am Tag fast 4.800 Kontakte mit einem IoT-Gerät haben wird – praktisch eine Interaktion alle 18 Sekunden.
Bis 2025 schätzt man, dass eine Person am Tag fast 4.800 Kontakte mit einem IoT-Gerät haben wird – praktisch eine Interaktion alle 18 Sekunden.
(Bild: www.siemens.com/press)

Beim Edge Computing werden Daten dezentral in der Netzwerkperipherie verarbeitet – an dem Ort, wo sie generiert wurden. Die Bedeutung der Technologie steigt mit der Menge an Daten, die durch das Internet der Dinge erzeugt wird.

Und Analysten sind sich einig: Das Datenvolumen wird in den nächsten zehn Jahren explodieren. Bereits im Jahr 2025 soll die Menge an Neu-Daten die 163 Zettabyte-Marke übersteigen, ein Äquivalent von 16 Milliarden der heute üblichen 12 TB großen HDDs. Die überwiegende Computing-Last tragen bisher konventionelle Datacenter. Hier wird das Gros der Daten verarbeitet, gesichert, verwaltet und bereitgestellt. Diese Datacenter konsolidieren massive Datenmengen, sind jedoch von den zunehmend verteilten und zum Teil auch mobilen Datenquellen quasi per Definition geografisch zu weit entfernt, um niedrige Latenzzeiten (Verzögerungs- oder Reaktionszeiten) zu garantieren.

Dabei wächst die Echtzeit-Relevanz neuer Daten noch schneller als die Datenmenge selbst. Die Kombination aus beidem – Datenmenge und geringe Latenzzeiten – zwingt das konventionelle Computing-Modell in die Knie. Dabei ist der Motor für das exponentielle Wachstum von Echtzeitdaten das IoT. Analysten der International Data Group (IDG) prognostizierten, dass 2019 etwa 43 Prozent der durch das Internet der Dinge erzeugten Daten mit sogenannten Edge-Computing-Systemen am „Rande“ des Netzwerks verarbeitet werden, um die Datenflut überhaupt handhaben zu können.

Die Gesamtmenge an Echtzeitdaten explodiert.
Die Gesamtmenge an Echtzeitdaten explodiert.
(Bild: IDC´s Data Age 2025 study, sponsored by Seagate)

Bedeutung von Edge Computing für das IoT

Um den maximalen Nutzen aus dem Internet der Dinge zu ziehen, wird Edge Computing zur unverzichtbaren Schlüsseltechnologie. Für ihre Funktionalität benötigen IoT-Geräte einen Großteil ihrer Sensordaten, danach werden diese aber obsolet. Edge Computing sortiert diese Daten ohne größere Verzögerung und nah am Ort der Entstehung vor. Nach der ersten Analyse löscht es echtzeitrelevante Daten und leitet nur noch die daraus abgeleiteten Erkenntnisse an den Server oder die Cloud weiter. Aus ihnen kann man auch später noch einen Nutzen ziehen. So hilft Edge Computing, konventionelle Computing-Systeme zu entlasten und gewährleistet die für das IoT so wichtigen geringen Latenzzeiten.

Der Motor für das exponentielle Wachstum von Echtzeitdaten ist das IoT.
Der Motor für das exponentielle Wachstum von Echtzeitdaten ist das IoT.
(Bild: IDC´s Data Age 2025 study, sponsored by Seagate)

Edge Computing bildet also eine Zwischenschicht zwischen dem Kern-Rechenzentrum und der IoT-Sensorik der Endgeräte. Es hat zum Ziel, die Latenz zu minimieren, die Netzüberlastung zu verhindern und die reibungslose Funktionalität von kognitiven Systemen und anderen latenzsensiblen Anwendungen zu ermöglichen.

Funktionsweise von Edge Computing

Wie bereits erwähnt, unterscheiden Edge-Computing-Systeme zwischen „Wegwerfdaten“ und „kritischen“ beziehungsweise „hyperkritschen“ Daten. IoT-fähige Geräte produzieren mit ihren Sensoren große Datenmengen. Beispielsweise erzeugt ein autonom fahrendes Auto pro Tag ein Datenvolumen von rund 4 Terabyte. Ein noch größeres Volumen erzeugen Flugzeuge. So sind in den Tragflächen eines Airbus A350 rund 6.000 Sensoren verbaut, die pro Tag rund 2,5 Terabyte an Daten liefern. Alleine die Sensorik in den Triebwerken misst 16 mal pro Sekunde rund 3.000 Parameter. So summieren sich die einzelnen Datenelemente auf rund 150 Millionen während eines Fluges, die analysiert werden wollen.

Webinar zum Thema Sehen Sie sich die Online-Vortragsreihe von "Industry of Things" zum Thema Edge Computing an. Jetzt kostenfrei aufrufen

Die Mehrheit dieser Informationen sind allerdings „Wegwerfdaten“, geprägt durch minimales oder gar fehlendes Potenzial für eine spätere Wiederverwendung. Das IoT-Gerät benötigt diese Daten zwar in Echtzeit zwecks sofortiger Entscheidungsfindung – danach aber nicht mehr.

Einem relevanten Anteil des neuen Datenaufkommens wird kritische bis hyperkritische Bedeutung und damit Echtzeitrelevanz zugeschrieben.
Einem relevanten Anteil des neuen Datenaufkommens wird kritische bis hyperkritische Bedeutung und damit Echtzeitrelevanz zugeschrieben.
(Bild: IDC´s Data Age 2025 study, sponsored by Seagate)

Hier setzt das Edge-Konzept ein: Der Edge schaltet sich als eine hyper-responsive Vermittlerschicht zwischen cyber-physische Systeme auf der einen Seite und das Datacenter auf der anderen Seite. Angesichts der immensen Datenflut müssen die stets neu entstehenden Daten im Hinblick auf ihre Archivierung priorisiert werden. Edge Computing verschiebt die Datenverarbeitung an den „Rand“ des Netzwerks, um die Latenzzeiten zu minimieren und die Entstehung von Flaschenhälsen - also Engpässen bei der Datenübermittlung - zu verhindern. Dank Edge Computing kann die Priorisierung des Datentransfers direkt am Ort des Geschehens und daher in Echtzeit mit nur minimaler Netzwerkbelastung stattfinden.

Ergänzendes zum Thema
Zwischen diesen Datentypen wird unterschieden

Die riesigen und kontinuierlich anfallenden Datenmengen müssen in den vielen Fällen einer ersten Datenanalyse unterzogen werden. „Kritische“ und „hyperkritische“ Daten haben ein Verfallsdatum – also eine Echtzeitrelevanz. Dabei gilt es auf Anomalien im System sofort zu reagieren, sei es um die Entstehung von Schäden zu verhindern oder um die Kundenerfahrung zu verbessern.

  • potenziell kritisch:
    Daten sind eventuell für eine nützliche, spätere Auswertung relevant; keine Echtzeitrelevanz
  • kritisch:
    Daten haben einen Einfluss auf das Alltagsleben des Nutzers; Echtzeitrelevanz
  • hyperkritisch:
    Daten haben direkten Einfluss auf die Gesundheit und das Wohlergehen des Nutzers; Echtzeitrelevanz
    (Flugdaten, medizinische Daten)

Das Prinzip des Fog Computing

Das Fog ist im Endeffekt nichts anderes als ein Architekturmuster von Edge Computing auf Systemebene, welches mit spezialisierten Gateways und anderen Fog-Knotenpunkten aufwartet. Beim Edge-Computing-Modell werden die Daten direkt auf den Endgeräten selbst verarbeitet. Im industriellen Umfeld kommen dafür typischerweise die sogenannten PACs (Programmable Automation Controllers) zum Einsatz. Geräte, die so klein sind wie Raspberry Pis, können die Datenverarbeitung für eine Vielzahl von „smarten“ IoT-Endpunkten bewerkstelligen – nur lässt sich ihre Leistung kaum skalieren und damit auch ihre kontinuierliche Verfügbarkeit kaum gewährleisten.

Schematische Darstellung eines Fog-Computing-Systems.
Schematische Darstellung eines Fog-Computing-Systems.
(Bild: Cloud and Fog/Edge computing / Zhoobinjalili / CC BY-SA 4.0)

Als Antwort auf diese Herausforderungen ist das Konzept von Fog Computing entstanden. Das Fog-Computing-Modell sieht den Einsatz eines externen Knotens oder Gateways für die Endgeräte vor, der ihre Leistung steuert und erweitert. Fog-Architekturen verteilen die Ressourcen und Dienste von Compute, Speicher, Steuerung und Vernetzung entlang eines Kontinuums von der Cloud im Datacenter zu den einzelnen IoT-Endgeräten und ihrer Sensorik, um die Geschwindigkeit der Datenverarbeitung an strategischen Punkten zu beschleunigen und die Entscheidungsfindung in Echtzeit zu ermöglichen. Fog-zentrische Architekturen widmen sich einer definierten Teilmenge von Geschäftsproblemen, die sich mit herkömmlichen Cloud-basierten Architekturen oder intelligenten Edge-Geräten alleine nicht bewerkstelligen lassen.

Latenzintensive, Sensorik-gestützte Anwendungen wie es beim maschinellen Lernen oder Predictive Maintenance, die typisch für die Industrie 4.0 sind, oder bei bandbreitenlastigen Inhalten wie dem Video-Streaming, VR (Virtual Reality) und AR (Augmented Reality) erfordern die kontinuierliche Verfügbarkeit einer störungsfreien Anbindung der betreffenden Endgeräte an das Rechenzentrum.

Konventionelle Infrastrukturen bieten keinen Ersatz für Edge Computing. Unabhängig davon, inwieweit die bereits vorhandene Rechenzentrumskapaziät „ausreichen“ sollte, um die neu anfallenden Datenmengen kurz- und langfristig zu bewältigen, lassen sich die neuen Anwendungsszenarien – sei es im Bereich der Industrie 4.0, der Telekommunikation, des Gebäudemanagements oder anderen – schon alleine aufgrund der physischen Entfernung der Kern-Rechenzentrums von der jeweiligen Datenquelle nicht nur durch höhere Rechenkapazitäten abdecken. Angesichts der steigenden Bedeutung von Daten für digitale Geschäftsmodelle hat sich Edge Computing vielerorts bereits unverzichtbar gemacht.

Bildergalerie

Edge Computing - Vorteile und Funktionen:

  • Datenerfassung und -aggretation
    Das Edge-Rechenzentrum wertet übermittelte Daten sofort aus und selektiert was später an ein Kern-Rechenzentrum weitergeleitet wird.
  • Sensorgestützte Fernsteuerung
    Durch die Sensordaten von IoT-fähigen Geräten ist eine kontinuierliche Überwachung und KI-gestützte Eingriffe in deren Funktion in Echtzeit möglich.
  • Machine-to-Machine Kommunikationsvermittlung
    Autonome und semi-autonome IoT-Geräte kommunizieren über die Edge.
  • On-Premise-Replikation von Diensten und Anwendungen
    Im Datacenter ablaufende Dienste können in latenzkritischen Nutzungsszenarien als Replikate vom Edge heraus störungsfrei bereitgestellt werden.
  • Isolation des Kern-Rechenzentrums
    Als eine Zwischenebene zwischen dem Datacenter und IoT-Endgeräten kann die Edge zum Schutz von unternehmenskritischen Daten und Diensten beitragen.
  • Lokale Speicherung und Bereitstellung von Inhalten
    Die Echtzeit-Übertragung von (proprietären) Daten aus dem Kern-RZ für Augmented-Reality-Anwendungen.

Edge Computing mischt die Karten der Unternehmens-IT neu. Die größte Herausforderung für die Planer und Lenker der Edge-Transformation besteht darin, eine geschickte Zusammenstellung kritischer IT-Infrastrukturen auf der Basis verschiedener Rechenzentrums-Typen für das Unternehmen zu finden.

Ein ausführliches E-Book zum Thema Edge Computing finden Sie hier zum kostenlosen Download:

(ID:45093096)