Datenanalyse

Mit der richtigen Architektur ins Internet der Dinge

| Autor: Stephan Ellenrieder *

Die Anzahl der vernetzten Geräte und Systeme ist drastisch gestiegen: Dadurch steigt die Belastung des Netzes, wenn die Informationen an einen zentralen Server oder in die Cloud geladen werden.
Die Anzahl der vernetzten Geräte und Systeme ist drastisch gestiegen: Dadurch steigt die Belastung des Netzes, wenn die Informationen an einen zentralen Server oder in die Cloud geladen werden. (Bild: PTC)

Firmen zum Thema

Edge Computing wird überall dort eine integrale Rolle bei Anwendungen im Internet der Dinge spielen, wo Latenzzeiten und hoher Bandbreitenbedarf problematisch sind.

Aus Milliarden Daten verwertbare Informationen zu gewinnen, gehört zu den primären Werttreibern des IoT. Das Marktforschungsinstitut Gartner prognostiziert, dass 21 Milliarden Dinge bis 2020 mit dem Internet vernetzt sein werden (Gartner Symposium/ITxpo, Nov. 2015). Diese zunehmende Konnektivität von Produkten, Geräten und Maschinen stellt Hochleistungsanforderungen an die bisherige IT-Infrastruktur und Unternehmen damit vor großen Herausforderungen.

Dank der relativ kostengünstigen Integration von Sensoren in allerlei Geräte, etwa zur Messung von Temperatur, Bewegung, Geräuschen oder zur Ermittlung des Standorts, ist ein Ende noch lange nicht in Sicht. Aber wie lassen sich diese riesigen Datenmengen sinnvoll in der Cloud erfassen, verarbeiten, speichern und analysieren und vor allem: Wie können Cloud-Server diesen massiven Input bewältigen? Die Antwort ist einfach: Indem sie es nicht alleine bewältigen, sondern ein großer Teil dieser Prozesse an den Rand der Cloud verlagert wird, dort wo sich Gerät und Anwender treffen. Edge Computing nennt sich dieses Architekturkonzept.

Hatten Unternehmen lange Zeit Bedenken bei der Implementierung eigener Cloud-Lösungen bezüglich Sicherheit und Anwendungsrahmen, so wird die Cloud spätestens mit dem Einzug von IoT-Konzepten ins Unternehmen unumgänglich. Wenn schnelle Bereitstellung der Anwendungen, hohe Agilität und Skalierbarkeit sowie voraussehbare und planbare Betriebskosten gefragt sind, ist eine Cloud-Lösung der richtige Ansatz. Die dezentrale Architektur von Cloud Computing ermöglicht den Fernzugriff von überall auf die abgelegten Daten und vereinfacht unter anderem die Zusammenarbeit von weit entfernten Teams an gemeinsamen Projekten. Was aber passiert, wenn Trilliarden an Endgeräten riesige Datenmengen senden, die in kritischen Fällen in Echtzeit ausgewertet werden müssen?

Intelligenz bewegt sich an den Rand des Netzes

Edge Computing: Die ermittelten Daten werden nicht an ein zentrales Rechenzentrum gesendet, sondern auf dem Gerät selbst verarbeitet.
Edge Computing: Die ermittelten Daten werden nicht an ein zentrales Rechenzentrum gesendet, sondern auf dem Gerät selbst verarbeitet. (Bild: GE)

„Edge Computing“ oder auch „Fog Computing“ ist ein Ansatz dafür. Die Daten werden hier nicht über das Internet an ein zentrales Rechenzentrum gesendet, sondern auf dem Gerät selbst und damit am Entstehungsort der Daten verarbeitet, etwa im vernetzten Auto oder in einer Überwachungskamera. Edge Computing unterstützt somit Hochleistungsinteraktionen in Echtzeit, da sie weder durch Batch-Verarbeitung noch durch netzwerkbedingte Latenzzeiten ausgebremst werden.

Ergänzendes zum Thema
 
Edge Computing gewinnt an Fahrt

Die Geräte am Rande der Cloud kommunizieren miteinander und treffen unabhängig von ihr Entscheidungen. Möglich wird dadurch nicht nur die Sammlung, Verarbeitung und Analyse von Daten aus der Außenwelt, sondern auch die umgekehrte Richtung. Das neueste Update für die Videoüberwachungskameras eines großen Gebäudekomplexes muss somit nicht mehr vom zentralen Server an jedes einzelne Gerät im Netzwerk geschickt werden, sondern nur noch an eine für Edge Computing ausgerüstete Kamera, über die daraufhin die Verteilung an alle anderen Geräte läuft.

Zugegeben, dieser Ansatz ist nicht ganz neu, die Umsetzung ist jedoch erst heutzutage möglich. Die Gründe sind einfach: Die Software ist mittlerweile so weit entwickelt, dass sie nicht mehr nur auf Hochleistungs-Hardware laufen muss. Zudem ebnen die Geräte selbst den Weg für diese Form der Datenverarbeitung, indem sie Speicher, Rechenleistung und Netzwerkverbindung in sich vereinen können – all diese Komponenten, die früher nur im zentralen Rechenzentrum zu finden waren.

Mussten die Daten vorher über das Netz an ein solches Rechenzentrum geschickt und dort gespeichert werden, um sie daraufhin analysieren und weiterverarbeiten zu können, wird es für die Einleitung eines Bremsvorgangs in den selbstfahrenden Autos der Zukunft schon zu spät sein: Trotz rechtzeitiger Sensorwarnung droht der Auffahrunfall. Der gesamte Prozess kann am Entstehungsort selbst, in diesem Fall im vernetzten Auto, ablaufen. Schließlich können Rechenleistung, Speicherkapazität und Anwendungen mittlerweile von einer Computing-Box in der Größe eines Laptops geliefert werden, die am Rand des Netzwerks platziert wird.

Inhalt des Artikels:

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44531221 / IoT-Technologie)