Suchen

Datenanalyse Mit der richtigen Architektur ins Internet der Dinge

| Autor / Redakteur: Stephan Ellenrieder * / Franz Graser

Edge Computing wird überall dort eine integrale Rolle bei Anwendungen im Internet der Dinge spielen, wo Latenzzeiten und hoher Bandbreitenbedarf problematisch sind.

Firmen zum Thema

Die Anzahl der vernetzten Geräte und Systeme ist drastisch gestiegen: Dadurch steigt die Belastung des Netzes, wenn die Informationen an einen zentralen Server oder in die Cloud geladen werden.
Die Anzahl der vernetzten Geräte und Systeme ist drastisch gestiegen: Dadurch steigt die Belastung des Netzes, wenn die Informationen an einen zentralen Server oder in die Cloud geladen werden.
(Bild: PTC)

Aus Milliarden Daten verwertbare Informationen zu gewinnen, gehört zu den primären Werttreibern des IoT. Das Marktforschungsinstitut Gartner prognostiziert, dass 21 Milliarden Dinge bis 2020 mit dem Internet vernetzt sein werden (Gartner Symposium/ITxpo, Nov. 2015). Diese zunehmende Konnektivität von Produkten, Geräten und Maschinen stellt Hochleistungsanforderungen an die bisherige IT-Infrastruktur und Unternehmen damit vor großen Herausforderungen.

Dank der relativ kostengünstigen Integration von Sensoren in allerlei Geräte, etwa zur Messung von Temperatur, Bewegung, Geräuschen oder zur Ermittlung des Standorts, ist ein Ende noch lange nicht in Sicht. Aber wie lassen sich diese riesigen Datenmengen sinnvoll in der Cloud erfassen, verarbeiten, speichern und analysieren und vor allem: Wie können Cloud-Server diesen massiven Input bewältigen? Die Antwort ist einfach: Indem sie es nicht alleine bewältigen, sondern ein großer Teil dieser Prozesse an den Rand der Cloud verlagert wird, dort wo sich Gerät und Anwender treffen. Edge Computing nennt sich dieses Architekturkonzept.

Hatten Unternehmen lange Zeit Bedenken bei der Implementierung eigener Cloud-Lösungen bezüglich Sicherheit und Anwendungsrahmen, so wird die Cloud spätestens mit dem Einzug von IoT-Konzepten ins Unternehmen unumgänglich. Wenn schnelle Bereitstellung der Anwendungen, hohe Agilität und Skalierbarkeit sowie voraussehbare und planbare Betriebskosten gefragt sind, ist eine Cloud-Lösung der richtige Ansatz. Die dezentrale Architektur von Cloud Computing ermöglicht den Fernzugriff von überall auf die abgelegten Daten und vereinfacht unter anderem die Zusammenarbeit von weit entfernten Teams an gemeinsamen Projekten. Was aber passiert, wenn Trilliarden an Endgeräten riesige Datenmengen senden, die in kritischen Fällen in Echtzeit ausgewertet werden müssen?

Intelligenz bewegt sich an den Rand des Netzes

Edge Computing: Die ermittelten Daten werden nicht an ein zentrales Rechenzentrum gesendet, sondern auf dem Gerät selbst verarbeitet.
Edge Computing: Die ermittelten Daten werden nicht an ein zentrales Rechenzentrum gesendet, sondern auf dem Gerät selbst verarbeitet.
(Bild: GE)

„Edge Computing“ oder auch „Fog Computing“ ist ein Ansatz dafür. Die Daten werden hier nicht über das Internet an ein zentrales Rechenzentrum gesendet, sondern auf dem Gerät selbst und damit am Entstehungsort der Daten verarbeitet, etwa im vernetzten Auto oder in einer Überwachungskamera. Edge Computing unterstützt somit Hochleistungsinteraktionen in Echtzeit, da sie weder durch Batch-Verarbeitung noch durch netzwerkbedingte Latenzzeiten ausgebremst werden.

Die Geräte am Rande der Cloud kommunizieren miteinander und treffen unabhängig von ihr Entscheidungen. Möglich wird dadurch nicht nur die Sammlung, Verarbeitung und Analyse von Daten aus der Außenwelt, sondern auch die umgekehrte Richtung. Das neueste Update für die Videoüberwachungskameras eines großen Gebäudekomplexes muss somit nicht mehr vom zentralen Server an jedes einzelne Gerät im Netzwerk geschickt werden, sondern nur noch an eine für Edge Computing ausgerüstete Kamera, über die daraufhin die Verteilung an alle anderen Geräte läuft.

Zugegeben, dieser Ansatz ist nicht ganz neu, die Umsetzung ist jedoch erst heutzutage möglich. Die Gründe sind einfach: Die Software ist mittlerweile so weit entwickelt, dass sie nicht mehr nur auf Hochleistungs-Hardware laufen muss. Zudem ebnen die Geräte selbst den Weg für diese Form der Datenverarbeitung, indem sie Speicher, Rechenleistung und Netzwerkverbindung in sich vereinen können – all diese Komponenten, die früher nur im zentralen Rechenzentrum zu finden waren.

Mussten die Daten vorher über das Netz an ein solches Rechenzentrum geschickt und dort gespeichert werden, um sie daraufhin analysieren und weiterverarbeiten zu können, wird es für die Einleitung eines Bremsvorgangs in den selbstfahrenden Autos der Zukunft schon zu spät sein: Trotz rechtzeitiger Sensorwarnung droht der Auffahrunfall. Der gesamte Prozess kann am Entstehungsort selbst, in diesem Fall im vernetzten Auto, ablaufen. Schließlich können Rechenleistung, Speicherkapazität und Anwendungen mittlerweile von einer Computing-Box in der Größe eines Laptops geliefert werden, die am Rand des Netzwerks platziert wird.

Artikelfiles und Artikellinks

(ID:44531221)