Suchen

Expertenbeitrag

 Karsten  Stöhr

Karsten Stöhr

Data Architect, DataStax Inc.

IoT und 5G Auf den richtigen Umgang mit Daten kommt’s an

| Autor / Redakteur: Karsten Stöhr / Sebastian Human

Das weltweite Datenvolumen wächst in rasantem Tempo, ein Ende ist nicht in Sicht. Doch wie sichert man all diese Informationen? Und vielleicht noch wichtiger: Wie verwaltet man sie, um größtmöglichen Nutzen aus ihnen zu ziehen?

Firma zum Thema

Die weltweite Datenflut nimmt täglich zu. Unternehmen sollten daher schon jetzt überlegen, wie sie diese Datenmenge im Laufe der Zeit verwalten werden.
Die weltweite Datenflut nimmt täglich zu. Unternehmen sollten daher schon jetzt überlegen, wie sie diese Datenmenge im Laufe der Zeit verwalten werden.
(Bild: gemeinfrei / Pixabay )

In meinem letzten Artikel ging es um die Möglichkeiten und Herausforderungen, die 5G mit sich bringen wird. Die neue Mobilfunkgeneration wird dank geringer Latenz und hoher Bandbreite den Einsatz und die Entwicklung von Anwendungen befeuern, die von IoT-Daten profitieren. Immer mehr Geräte im Internet der Dinge lassen die Datenmengen explodieren, mehr Sensoren senden zusätzliche Informationen - und das immer schneller: 73 Milliarden Devices werden 2025 mit dem Internet verbunden sein, sagt IHS Markit voraus. Parallel steigt die Zahl der 5G-Verbindungen laut Statista bis 2025 weltweit auf 2,7 Milliarden. So entstehen völlig neue Anwendungsfälle und Unternehmen können ihre Anwendungen noch besser an die Bedürfnisse der Kunden anpassen.

Dazu müssen sie aber die erhobenen Informationen sinnvoll auswerten und nutzen – und zwar zweifach: Erstens zum Zeitpunkt, an dem sie entstehen, und später dann in ihrer Gesamtheit. Dann profitieren sie doppelt von den Messwerten und ziehen die richtigen Schlüsse daraus.

Sie greifen dabei auf zwei Arten von IoT-Daten zu:

  • Zum einen auf Echtzeitdaten, die sofort ausgewertet werden, um eine unmittelbare Reaktion ableiten zu können.
  • Zum anderen auf den gesamten Datenpool, der im Nachhinein analysiert wird, um weitere Schlüsse zu ziehen.

Echtzeitanalyse für eine umgehende Reaktion

Ein Beispiel macht deutlich, warum beides wichtig ist. Stellen wir uns eine Umwälzpumpe vor, die mit dem IoT verbunden und Teil eines smarten Heizungssystems ist. Über Sensoren übermittelt sie andauernd Informationen, beispielsweise über die aktuelle Fördermenge, Auslastung und den Energieverbrauch. Über eine Daten-Pipeline gelangt der kontinuierliche Strom an Informationen ins System, wo sie verarbeitet und analysiert werden.

Das System prüft die eingehenden Daten automatisch. Dabei vergleicht es beispielsweise die Leistung mit dem Energiebedarf der angeschlossenen Haushalte. Wenn diese nicht übereinstimmen, alarmiert das System die Verantwortlichen. Die können zeitnah entscheiden, wie sie darauf reagieren. Soll die Pumpenleistung erhöht werden? Und welche Stellschraube ist dafür die richtige: Verbrennungsoptimierung, Temperaturregelung oder die Umschaltung der Betriebsart? So lassen sich sowohl die Hydraulik als auch der Energieverbrauch optimieren. Denn durch ihre integrierte Elektronik stellt eine Umwälzpumpe ein sehr flexibles Stellglied im gesamten Heizungssystem dar. Eine Echtzeitdatenanalyse wie Apache Spark erledigt solche Aufgaben – und zwar umgehend, sobald neue Informationen eintreffen.

Datenspeicherung im Gesamtpaket

Doch die Umwälzpumpe in unserem Beispiel ist im besten Fall nicht nur Teil eines übergeordneten Heizungssystems. Vielmehr werden die anfallenden Daten zu Analysezwecken langfristig gespeichert und fließen in ein intelligentes Gesamt-Stromnetz. Dies ermöglicht Einblicke, was hier vor sich geht – und das über ganze Zeitspannen hinweg. Ein solches intelligentes Stromnetz („Smart Grid“) erkennt dann Kapazitätsprobleme, indem es den gesamten Energiebedarf und die Verfügbarkeiten der angeschlossenen Haushalte rechtzeitig kontrolliert und vorhersagt. Das reduziert wiederum den sonst notwendigen Netzausbau und gestaltet ihn effizienter.

Doch für die dadurch entstehenden Daten braucht man skalierbare Speicher- und Bearbeitungslösungen. Hier scheinen Public-Cloud-Angebote die kosteneffizienteste und flexibelste Wahl zu sein. Setzt man allerdings auf nur einen Anbieter, beispielsweise AWS, Microsoft oder Google, drohen Datensilos.

Große Datenmengen richtig speichern und auswerten

Um die Kontrolle über die Daten auch langfristig zu behalten, ist ein Hybrid- oder ein Multi-Cloud-Ansatz die beste Option. Denn ein Mix aus eigenen Rechenzentren und verschiedenen Cloud-Angeboten bietet starke Performance und beugt Lock-ins vor. Gleichzeitig ist man flexibler und kann die Vorteile jedes einzelnen Anbieters flexibel nutzen – der eine bringt vielleicht eine ausgefeilte KI-Funktionalität mit, der andere punktet in Sachen Preis.

Zum Managen der Daten bietet sich ein verteiltes Datenbanksystem an. Es läuft gleichzeitig auf verschiedenen Clouddiensten und eine einheitliche Plattform verspricht besseres Datenmanagement als einzelne lokal verteilte Datenbanken. Zusätzlich können Daten näher an den Geräten selbst gespeichert und verwendet werden. Das unterstützt Edge-Computing-Bereitstellungen und verbessert Verfügbarkeit und Skalierbarkeit der Zeitreihendaten.

Unerlässlich wird vor allem der Aspekt, Daten verteilt zu verwalten. Denn wenn sich mehr IP-fähige Geräte verbinden und 5G mehr Bandbreite bietet, können Unternehmen mehr Daten über ihre Aktivitäten sammeln. Allerdings müssen Unternehmen schon jetzt darüber nachdenken, wie sie diese Datenmenge im Laufe der Zeit verwalten werden. Diese Herausforderungen können bestehende Datennetze oder Architekturen nur schwer erfüllen: Zum einen gilt es, die Geschwindigkeit managen zu können, mit der Daten von IoT-Geräten ankommen werden. Zudem müssen sie mit Daten aus anderen unternehmensinternen sowie -externen Quellen integriert werden können. Daneben spielt deren Administration über mehrere Regionen hinweg und die verteilte Ablage in lokalen, Cloud- oder Hybridanwendungen eine Rolle. Letztlich müssen die Unternehmen zur Einhaltung von Datenschutzbestimmungen Audit Trails einführen und in der Lage sein, die Wege der Daten tracken zu können.

Die meisten Legacy-Anwendungen sind nicht auf die geografisch verteilte Ablage und Abfrage ausgerichtet, viele bisherige Unternehmensumgebungen berücksichtigen zudem die technischen Anforderungen von IoT und 5G noch nicht. Unternehmen benötigen dafür einen leistungsfähigen Data Layer – also einen verteilten, belastbaren und stets verfügbaren Speicher, der allen Verbrauchern und Endpunkten sowohl Stamm- als auch Betriebsdaten jederzeit in Echtzeit zur Verfügung stellt.

Innovation schlägt Investition

Der Umgang mit der Datenflut, die 5G verursachen wird, erfordert also enorme Investitionen in die Infrastruktur. Jedoch wird 5G Unternehmen auch dabei unterstützen, neue Ziele zu erreichen, die bisher nicht möglich waren. Um profitieren zu können, wenn es soweit ist, geht es schon jetzt darum, die richtige Infrastruktur zu schaffen. Nur dann können Unternehmen Daten effizient erfassen, auf die richtige Art und Weise analysieren und die gewonnenen Informationen zum richtigen Zeitpunkt bereitstellen.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 46342467)

Über den Autor

 Karsten  Stöhr

Karsten Stöhr

Data Architect, DataStax Inc.