Edge Computing Das Potenzial von Rechenpower am „Rand“

Autor / Redakteur: Nelson Petracek* / Sebastian Human

Geht es beispielsweise darum, Latenzzeiten zu verringern und Daten möglichst in Echtzeit auszuwerten, kommt Edge Computing ins Spiel. Wie kann das helfen, Wettbewerbsvorteile aus dem Internet of Things zu erschließen?

Firmen zum Thema

IoT-Geräte produzieren perspektivisch mehrere Milliarden Terabytes an Daten pro Jahr – Edge Computing wird bei deren Verarbeitung eine wichtige Rolle spielen.
IoT-Geräte produzieren perspektivisch mehrere Milliarden Terabytes an Daten pro Jahr – Edge Computing wird bei deren Verarbeitung eine wichtige Rolle spielen.
(Bild: gemeinfrei / Pexels )

Bis 2025 wird das Internet der Dinge weltweit aus 75 Milliarden Geräten bestehen, so die Analysten von Statista. Der daraus resultierende Zuwachs an Rohdaten, die von all diesen Geräten wie Thermometern, Druckmonitoren, Überwachungskameras und weiteren Datenquellen zurückgemeldet werden, führt zu einem Engpass bei Bandbreiten und Datenverarbeitung. Wenn Unternehmen diese Probleme nicht lösen, dann werden diese gesendeten Informationen schlichtweg nichts wert sein.

Unabhängig davon, ob es sich um Obstplantagen oder Ölfelder, Fertigungsstraßen oder Rennstrecken handelt: Das Internet of Things verspricht Unternehmen jeder Art und Größe eine bessere Übersicht über ihre Vermögenswerte. Um die Werte erschließen zu können, welche die so gewonnenen Erkenntnisse versprechen, kann sich für Unternehmen das Investment in Edge-Computing-Geräte lohnen.

Als besonders wertvoll wird sich diese Art der Datenverarbeitung bei der Datenverwaltung, bei zeitnahen Analysen und Maschinenlernprozessen erweisen. Dies wird durch die Aussage untermauert, dass den Analysten von CB Insights zufolge bis 2022 insgesamt 6,7 Milliarden US-Dollar in diese Geräte investiert werden.

Das Internet der Dinge ermöglicht es Unternehmen, über die einzelnen Transaktionen im Bilde zu sein, die in ihrer Wertschöpfungskette stattfinden. Der wahre Wert wird aber nur dann erschlossen, wenn sie unmittelbar darauf reagieren können – wenn aber der Datenfluss oder die damit verbundene Verarbeitung verzögert werden, sinkt der Nutzen, den sie aus den Daten ziehen können. Bedenkt man, dass laut Analysten allein IoT-Geräte bis 2025 jährlich knapp 80 Zettabytes an Daten erzeugen werden, dann belegt das die sich entwickelnde Krise (ein Zettabyte entspricht einer Milliarde Terabytes).

Kontext und Definition

Bevor man zu schnell Urteile fällt, benötigen all diese Zahlen einen Kontext. Die Geschichte zeigt, dass die Wahrnehmung jeder neuen Technologie durch allzu enthusiastische Hersteller getrübt werden kann, die im Wettstreit um lukrative Gelegenheiten lediglich bestehende Produkte in aller Eile umetikettieren.

Hier ist zunächst eine Definition des Begriffs Edge nötig, hinter dem sich in der Tat sehr Unterschiedliches verbergen kann. Er kann sich auf die Fähigkeiten, die in ein Embedded-Gerät eingebaut sind, auf ein Gerät mit mehr Rechenleistung oder einfach auf ein Gateway beziehen, an das mehrere Geräte angeschlossen werden.

Eine allgemeine Überzeugung ist jedoch, dass das Internet of Things an seinem Rand intelligent ist – oder besser: sein sollte. Die Verarbeitung von Arbeitslasten kann aus Gründen der Zweckmäßigkeit dorthin verlagert werden.

Beispiel Ölförderung

Die petrochemische Industrie veranschaulicht diesen Punkt. Auf Bohrinseln gibt es IoT-Netzwerke, die massenhaft Informationen liefern – beispielsweise über die Unterwasserlandschaft, die Rohöltaschen unter dem Gestein und die Kapazität der Bohrausrüstung. Die Übertragung der Daten, die in den Terabyte-Bereich gehen können, von den Bohrinseln zum Festland dauert sehr lange.

Angesichts der Opportunitätskosten ist in der Ölindustrie jede einzelne Minute Millionen wert. Man versteht darunter die dadurch entgangenen Erlöse, dass vorhandene Möglichkeiten nicht wahrgenommen werden, beispielsweise aufgrund von Zeitverlusten beim Bohren oder von ausgefallener Ausrüstung. Das Ziel aller IT-Abteilungen in der Branche ist es daher, die durchschnittliche Zeit bis zur Ölförderung ständig zu verkürzen.

Wenn diese Informationen lokal gesammelt und berechnet werden und dort zu Entscheidungen führen, kann das beträchtliche Summen einsparen.

Was man dazu am Netzwerkrand benötigt, muss kein riesiges Rechenzentrum sein – es ist eher ein „Mini-Rechenzentrum“: Geräte, die Arbeitsspeicher, Speicherplatz und Rechenleistung bereitstellen und so die lokale Verarbeitung vor Ort ermöglichen.

Das IoT, das global denkt und lokal handelt

Die Entscheidungen werden in einem Bruchteil der Zeit getroffen, weil die Daten auf ihrer Reise viel kürzer unterwegs sind – aber hauptsächlich, weil diese großen Mengen, die bis in die Terabytes gehen, lokal verarbeitet werden können. Das führt dazu, dass die mittlere Zeit zur Bohrvorbereitung sinkt. Anders ausgedrückt: Das ist das Internet der Dinge, das global denkt und lokal handelt.

Die gleichen Einsparungen lassen sich auf jeden vertikalen Markt anwenden, von der Fertigungs- bis zur Logistikbranche, vom Motorsport bis zu Lebensmitteln und sogar so etwas Unerwartetem wie Pferderennen.

Bevor die Data-Mining-Experten mit ihrer Arbeit beginnen können, muss die IT-Landschaft sorgfältig überprüft werden – genauso wie beim Bohren nach Öl.
Wenn riesige Datenmengen verarbeitet werden müssen, ist es hilfreich, wenn sich die Maschinen in unmittelbarer Nähe befinden. Über die Hardware-Architektur selbst hinaus gibt es eine Reihe technischer Details zu beachten, wie beispielsweise die Bruttospeicherkapazität der Einheiten, Prozessor, Arbeitsspeicher und Akkulaufzeit.

Eine noch kritischere Konfigurationskomponente, die es zu beachten gilt, ist die zugehörige Software-Architektur. Denn Leistungsvorteile lassen sich durch die Anpassung verschiedener Parameter wie Betriebssystem, Netzwerk, verschiedener Protokolle und Syntaxen und der Unterstützung von Software-Laufzeitfunktionen erzielen.

Grenzüberschreitende Fähigkeiten

Die Fähigkeit, Grenzen zu überschreiten, beruht bei Edge Computing auf mehreren Faktoren. Das Protokoll und die Netzwerkstabilität zählen ebenso dazu wie die Anforderung, dass ein Endgerät auch im nicht verbundenen Zustand funktioniert. Das intelligente Edge-Gerät ist verbunden, aber unabhängig. Es sollte unter den richtigen Bedingungen platziert werden, mit angemessener Vernetzung in beide Richtungen, so gut wie möglich gegen Angriffe geschützt und nicht weit entfernt.

Und das ist längst nicht alles. Es scheint, als gäbe es Hunderte granularer Konfigurationsmöglichkeiten. Bei Edge Computing geht es um winzige Konfigurationsdetails, aber wenn diese einmal korrekt festgelegt wurden, sind den Möglichkeiten keine Grenzen gesetzt.

Anwendungsfall „DeviceOps“

Ein weiterer zentraler Punkt ist etwas, das man DeviceOps (nicht zu verwechseln mit DevOps) nennen könnte. DeviceOps beschäftigt sich mit dem Thema, wie man Soft-, Hard- und Firmware auf IoT-Geräten warten kann. Der Gerätelebenszyklus – also die Häufigkeit, in der die Hardware-Geräte ausgetauscht werden müssen – ist neben der Gerätefunktion und seiner Wirkung auf Daten ein wichtiger Einflussfaktor. Wenn die neue Version der Software beispielsweise mehr Rechenleistung benötigt, da die Daten nicht nur gesammelt und weitergeleitet, sondern auch analysiert und verarbeitet werden müssen, dann muss eventuell das Endgerät ausgetauscht werden.

Solche Fragen sind wichtig, da Edge-Geräte von Tag zu Tag funktionsfähiger und intelligenter werden. Heutzutage werden sie hauptsächlich zum Sammeln und Weiterleiten von Daten verwendet. Künftig werden sie aber in zunehmendem Maß Einfluss auf die Informationen nehmen, die sie erhalten, und auf die Geräte, mit denen sie verbunden sind.

Randentscheidungen

Der „Arbeitgeber“ der Edge-Geräte (das Unternehmen) wird von ihnen verlangen, dass sie die Informationen sammeln und wichtige Entscheidungen treffen. Diese Entscheidungen können auf einfachen Regeln basieren; alternativ können die Geräte eine transformative Rolle spielen, wie beispielsweise Stream-Vorbereitung, algorithmische Analyse oder Streaming-Logik-Aggregationen.

Wichtig ist, dass die Aktionen, die diesen Entscheidungen am Netzwerkrand folgen, viel schneller ablaufen, eben weil sie lokal – und dezentral – stattfinden und dass so Informationen entstehen, die einen tatsächlichen Wert haben.

* Nelson Petracek arbeitet als Global CTO bei Tibco Software.

(ID:47009348)