Suchen

IoT-Basics Was ist Big Data? Definition, Bedeutung und Architektur

| Autor/ Redakteur: Klaus Hübschle / Jürgen Schreier

Industrielle Internet-Systeme auf der Basis von Cloud-basierten IoT-Plattformen werden den Einsatz von Big Data in der Industrie deutlich voranbringen. Hier erfahren Sie, was Big Data bedeutet, welche Bedeutung IoT in diesem Zusammenhang hat, wie die Architektur ist und welche konkreten Anwendungsszenarien es gibt.

Firmen zum Thema

Das Internet der Dinge benötigt die Technologien von Big Data und ist damit auch eine konkrete Anwendung von Big Data.
Das Internet der Dinge benötigt die Technologien von Big Data und ist damit auch eine konkrete Anwendung von Big Data.
(Bild: Pixabay / CC0)

Der derzeit konkreteste Ansatz für einen breiteren Einsatz von Big Data-Technologien in der Industrie ist das Internet der Dinge (Internet of Things, IoT). Darunter versteht man ein Netzwerk von physischen Geräten, Fahrzeugen, Gebäuden und andere Gegenstände, die dank eingebauter Software, Sensoren und Netzwerkkonnektivität in der Lage sind, Daten zu sammeln und untereinander auszutauschen. Sie erschließen die bereits vorhandenen Datenquellen und führen sie einer effizienten zentralen Auswertung zu, was kompetentere Entscheidungen ermöglicht.

Definition: Was ist Big Data?

Der Begriff Big Data stammt aus dem englischen Sprachraum und bezeichnet große Mengen an Daten, die Konsumenten, Anwender und Unternehmen täglich produzieren. Unter dem Begriff werden zwei Aspekte zusammen zusammengefasst:

  • Die immer rasanter wachsenden Datenmengen: Hierzu zählen – auf Konsumentenebene – beispielsweise Daten zum Online-Suchverhalten, Bewegungsdaten oder Daten zum Kaufverhalten und – auf Unternehmensebene – Produktionsdaten oder Transportdaten.
  • Neue IT-Lösungen und Systeme: Auf Basis der großen Datenmenge benötigen Unternehmen intelligente Software, um Vorhersagen treffen, relevante Sachverhalte herausarbeiten und die Informationsflut vorteilhaft verarbeiten können, wie beispielsweise die Technologie der Blockchain.

Hierzu zählen:

Big Data oder Bigger Data?

Je mehr Dinge miteinander verknüpft sind, umso mehr Daten fallen an und umso komplexer werden die Beziehungen der Dinge untereinander und deren Management.

Das Internet der Dinge benötigt deshalb die Technologien von Big Data und ist damit auch eine konkrete Anwendung von Big Data; manche Analysten bezeichnen IoT angesichts der Vielzahl der Geräte sogar als «Bigger Data».

Im Umfeld der Produktion spricht man speziell auch vom Industrial Internet.

Dabei sollen Menschen mit

  • Maschinen,
  • Steuerungen,
  • Feldgeräte und Sensoren,
  • Softwaredienste in der Cloud,

verknüpft und unterstützt werden.

Ein Industrial-Internet-System unterstützt intelligente Produktionsprozesse mit fortschrittlichster Datenanalysetechnik, um darauf aufbauende Geschäftsprozesse grundlegend zu transformieren. Es basiert auf der Idee eines globalen industriellen Ökosystems aus fortschrittlicher Computer- und Herstellungstechnologie, ausgestattet mit umfangreicher Mess- und Sensortechnik und einer durchgängig verfügbaren Netzwerkkonnektivität. Die Steuerungssysteme sollen untereinander verknüpft werden,um damit flexiblere und schnellere Anpassungen in der laufenden Produktion zu ermöglichen. Externe Daten aus unternehmensweiten oder auch öffentlichen Informationsquellen sollen stärker in die Steuerung der Produktionsprozesse mit einfließen, um damit bessere und kompetentere Entscheidungen treffen zu können.

IoT-Referenzarchitekturen

Zur Umsetzung dieser Vision werden standardisierte Dienste, Komponenten und Schnittstellen benötigt. Organisationen wie das Industrial Internet Consortium (IIC) haben sich zum Ziel gesetzt, diese Vision eines Industrial Internet in die Realität umzusetzen. Das IIC hat dazu als ersten Schritt eine generelle Referenzarchitektur für Industrial-Internet-Systeme vorgestellt [1]. Ähnlich wie beim Referenzarchitekturmodell von ndustrie 4.0 (RAMI)I verwendet auch die Referenzarchitektur des IIC verschiedene Ansichten, um die Eigenschaften von Industrial-Internet-Systemen zu beschreiben.

Aus Sicherheitsgründen sind die heutigen Produktionssysteme von der Außenwelt meist noch hermetisch abgeriegelt. Diese isolierte Insellage muss für die Realisierung von Industrial-Internet-Systemen aufgelöst werden. Dafür müssen speziell im Bereich der Sicherheit noch einige offene Fragen beantwortet werden. Die IIC-Architektur betrachtet daher das Thema Sicherheit als essentiellen vertikalen Aspekt, der in jeder Sicht berücksichtigt werden muss.

Zur Beschreibung der Implementierungssicht werden verschiedene Architekturmuster herangezogen. Eines dieser Architekturmuster ist eine 3-Tier-Architektur (3-Schichten-Architektur) die aus 3 logischen Schichten (Tier) und den sie verbindenden Netzwerke besteht. Das in Bild 1 aufgezeigte Schichtenmodell findet sich in vielen heute bereits angebotenen kommerziellen IoT-Plattformen wieder. Im Edge-Tier werden Daten von Edge-Nodes über ein lokales Netzwerk (Proximity Network)

eingesammelt. Dieses lokale Netzwerk verbindet Maschinen, Sensoren, Aktuatoren, Geräte, Steuerungssysteme und sonstige intelligente Assets. Es fasst diese Edge-Nodes zu einem oder mehreren Clustern zusammen, die dann über Edge-Gateways mit dem Access-Network verbunden sind. Die Edge-Gateways dienen darüber hinaus auch als Zugriffspunkt für das Gerätemanagement und sind in der Lage, ausgewählte Daten vorab zu aggregieren oder anderweitig vorzuverarbeiten.

Die drei Tiers der IIC-Referenzarchitektur
Die drei Tiers der IIC-Referenzarchitektur
(Bild: Verfasser)

Das Access-Network liefert die Konnektivität für Daten und Steuerungsflüsse zwischen Edge- und Platform-Tier. Das Access-Network kann ein geschlossenes Unternehmensnetzwerk, ein Virtual Privacy Network (VPN) oder auch das öffentliche Internet sein. Zur Datenübertragung können spezialisierte IoT-Protokolle wie MQTT oder AMQP, aber auch spezifische REST APIs zum Einsatz kommen.

Der Platform-Tier besteht im Wesentlichen aus einer nicht domänenspezifischen Serviceplattform, die neben Diensten zum Transformieren, Speichern und Analysieren der Daten auch unterstützende Funktionen zum Betrieb der Plattform inklusive Geräteverwaltung bereitstellt. Darüber hinaus ist der Platform-Tier auch die zentrale Datendrehscheibe. Er verarbeitet und konsolidiert die Datenflüsse vom Edge-Tier und leitet sie bei Bedarf an den Enterprise-Tier weiter. Umgekehrt empfängt und verarbeitet er Steuerbefehle vom Enterprise-Tier und leitet sie zum Edge-Tier weiter. Das Service-Network ermöglicht die Verbindung zwischen den Diensten des Platform-Tiers und des Enterprise-Tiers. Auch dieses Netzwerk kann ein geschlossenes Unternehmensnetzwerk, ein Virtual Privacy Network (VPN) oder auch das öffentliche Internet sein.

Der Enterprise-Tier umfasst alle übergeordneten Geschäftsregeln und Steuermechanismen. In der Praxis sind dies domänenspezifische Geschäftsanwendungen wie z.B. ERP oder CRM, Entscheidungsunterstützungssysteme (Decision Support Systems), aber auch Benutzerschnittstellen zum Betrieb der Plattform. Der Enterprise-Tier empfängt Daten von Platform- und Edge-Tiers und sendet Steuerbefehle an Platform- und Edge-Tiers.

Fog Computing bringt die Intelligenz vor Ort

Schon die Referenzarchitektur des IIC zeigt, dass Analysefunktionen nicht immer nur zentral im Platform-Tier erfolgen müssen, eine Vorverarbeitung kann auch in den Edge-Gateways erfolgen. Zwar findet im Platform-Tier ein Großteil der Datenspeicherung und -analyse zentral statt, weil dieser zentralistische Ansatz klare Vorteile beim Betrieb der Lösungen bietet. Aber der Ansatz stößt bei Bandbreiten, Geschwindigkeit und Verfügbarkeit der Access Networks an heute noch schwer überwindbare Grenzen. Außerdem dürfen Daten den Edge-Tier oft aus regulatorischen oder sicherheitstechnischen Gründen gar nicht erst verlassen.

Um diese Probleme zu umgehen, hat sich unter dem Begriff Fog Computing ein dezentralerer Ansatz für IoT herausgebildet. Beim Fog Computing (engl.: fog = Nebel) wird versucht, die Analyse-Intelligenz an die Stelle zu bringen, wo sie am effizientesten ausgeführt wird. Fog Computing soll dazu eine Art abstrahiertes Betriebssystem für Analysefunktionen bereitstellen, das deren Ausführung unabhängig von der physikalischen Umgebung macht. Die Dinge vor Ort werden dadurch noch smarter und können viele Aufgaben autonom direkt vor Ort lösen, bedienen sich aber bei Bedarf zusätzlicher zentraler Dienste des Platform-Tiers. Dadurch werden schnellere Reaktionszeiten möglich, und die Netzwerke werden weniger belastet.

Unterstützt wird dies auch durch neue Technologietrends wie Container Computing (z.B. mittels Docker-Container), die es erlauben, Applikationen als sogenannte Micro-Services viel einfacher auf lokale Geräte zu verteilen, ohne dass die Firmware angepasst werden muss. Damit lassen sich die von den Smartphones bekannten App-Konzepte zukünftig auch einfacher auf Steuerungen und Gateways übertragen. Führende Anbieter von IoT-Plattformen ergänzen ihre Architekturen bereits um Konzepte, die das Fog Computing unterstützen sollen.

Die SPS als IoT-Controller

Ein IoT-Controller ist eine speicherprogrammierbare Steuerung (SPS), die sich besonders einfach in eine Cloud-basierte IoT-Anwendung integrieren lässt. Der IoT-Controller vereint dabei die Funktionalitäten eines Edge-Knotens und eines Edge-Gateways in einem Gerät. Durch seinen modular erweiterbaren I/O-Bus können verschiedenste I/O-Signale direkt erfasst werden, über zusätzliche Buskoppler können weitere Unterknoten wir andere Steuerungen oder busfähige Feldgeräte

integriert werden. Als typische SPS sendet der IoT-Controller einen oder mehrere konfigurierbare Datensätze, bestehend aus I/O-Variablen und/oder Programmvariablen, zyklisch oder ereignisgesteuert an einen IoT-Hub in der Cloud. Dazu verwendet der IoT-Controller eine integrierte Ethernet- oder Mobilfunkschnittstelle. Über diese Schnittstelle empfängt der Controller im Gegenzug auch einzelne Steuerbefehle aus der Cloud und gibt sie an die auf dem Controller laufende SPS-Applikation weiter.

Neben den üblichen IEC-61131-Anwendungen können auf einem solchen Controller auch eigene Applikation in C, C++ oder anderen Sprachen implementiert werden. Die Kommunikation mit der Cloud-Anwendung erfolgt über IoT-Protokolle. Bevor der IoT-Controller Daten an die Cloud senden und Steuerbefehle empfangen kann, muss er über ein von der verwendeten Cloud-Plattform unterstütztes Gerätemanagement registriert und aktiviert werden.

Bei einem temporären Ausfall der Internetverbindung kann der Controller die angefallenen Daten auf einem lokalen Speichermedium bis zu einer konfigurierbaren Maximalzeit zwischenspeichern und dann bei erneuter Verfügbarkeit der Internetverbindung die Daten nachliefern, sodass der Verlust von Daten sehr gering ist.

IoT-Plattformen als Cloud-basierte Lösungsbaukästen

IoT-Plattformen sollen helfen, spezifische IoT-Anwendungen mit vertretbarem Aufwand zu implementieren und zu betreiben. Sie bieten dazu eine Vielzahl von miteinander integrierten Diensten und Komponenten an, auf deren Basis sich auch konkrete Industrial-Internet-Lösungen realisieren lassen. Neben den eigentlichen datenverarbeitenden Diensten gehören auch effiziente Werkzeuge für die Entwicklung und den Betrieb der Lösungen dazu. Da die Kontrolle über eine solche Plattform mit zugehörigem Ökosystem als Schlüssel zur Etablierung zukünftiger Geschäftsmodelle gilt, versuchen viele Firmen eine eigene IoT-Plattform am Markt zu etablieren.

Dienste und Komponenten der IoT-Plattform in Microsoft Azure
Dienste und Komponenten der IoT-Plattform in Microsoft Azure
(Bild: Verfasser)

Neben den großen Cloud-Anbietern wie Amazon, Microsoft oder auch Google versuchen sich auch viele kleinere, spezialisierte Anbieter einen Teil des Kuchens zu sichern, indem sie IoT-Plattformen entweder in eigenen Rechenzentren oder auf den Cloud-Plattformen der großen Cloud-Anbieter betreiben. Auch große Automatisierungstechnologie-Anbieter wie GE oder Siemens bieten eigene IoT-Plattformen an, ebenso große ERP-Anbieter wie SAP oder Oracle. Bild 2 zeigt typische Bausteine einer solchen IoT-Plattform am konkreten Beispiel von Azure, der Cloud-Plattform von Microsoft [2]. Die Darstellung ist stark vereinfacht. Sie zeigt auch nur eine Untermenge aller in Azure verfügbaren Cloud-Services.

Die Edge-Geräte werden direkt oder über Edge-Gateways mit der Cloud verknüpft.

Folgende Protokollvarianten werden unterstützt:

  • MQTT
  • AMQP
  • REST API

Zur Vereinfachung stellt Microsoft Software Development Kits (SDK) für Geräte und Gateways für die wichtigsten Betriebssystemplattformen und Programmiersprachen kostenlos bereit.

Damit Tausende oder gar Millionen von Geräten ihre Daten gleichzeitig an eine IoT-Anwendung liefern können, bedarf es einer entsprechenden Infrastruktur, die das damit verbundene Datenaufkommen sicher und unterbrechungsfrei aufnehmen kann und gleichzeitig eine parallelisierte Weiterverarbeitung ermöglicht. Bei Azure sind hierfür Event-Hubs und die darauf aufbauenden, aber um zusätzliche Geräteverwaltungsfunktionen erweiterten IoT-Hubs zuständig. Mit den API-Apps können zusätzlich weitere individuelle, aber trotzdem hochskalierbare REST APIs mit .Net, Java, PHP, Node.js oder Python implementiert und auch für andere Entwickler zur Integration in deren eigene Applikationen bereitgestellt werden.

Für die Transformation, Speicherung und Analyse der Daten gibt es eine riesige Palette an Diensten, die je nach Anwendungsfall ausgewählt und miteinander verknüpft werden können. Für einfache Prototypen geht dies im einfachsten Fall ohne jegliche Programmierung nur durch webbasierte Konfiguration. Bei komplexeren Anwendungen müssen die Basisbausteine jedoch durch zusätzliche individuelle Softwarelösungen ergänzt werden. Hier zahlt sich aber die hervorragende Integration von Visual Studio und Azure aus. Mit Azure Machine Learning können Predictive-Analytics-Modelle in einer integrierten und Web-basierten Umgebung erstellt, getestet und die trainierten Algorithmen als Web-API bereitgestellt werden.

Bemerkenswert ist auch, dass neben den proprietären Lösungen von Microsoft in Azure mit HDInsight auch ein kompletter Hadoop-Stack als vorkonfigurierter und verwalteter Cloud-Dienst bereitsteht.

HDInsight umfasst:

  • MapReduce
  • Pig
  • Hive
  • HBase
  • Storm
  • Mahout
  • Spark
  • R-Server, einer mit HDInsight integrierten Ausführungsumgebung für R

Neben Java werden auch C# und .Net für die Entwicklung von MapReduce-Jobs unterstützt.

Zusammenfassung und Ausblick

Die weiter fortschreitende Digitalisierung und die damit verbundene Verbreitung von datengetriebenen Algorithmen werden dazu führen, dass zukünftig in fast jedem Unternehmen einige der vorgestellten Big-Data-Technogien zum Einsatz kommen werden. Großes Potenzial für Big-Data-Technologien in der Industrie zeichnet sich derzeit beim Einsatz von Data Analytics und Machine Learning ab. Hier fehlen in der Breite heute aber noch die ausgebildeten Datenanalysten, die sowohl das notwendige Data-Science-Handwerkszeug als auch das entsprechende Anwendungswissen mitbringen, um wertvolles und nutzbringendes Wissen aus den vorhandenen Daten abzuleiten. Daraus ergibt sich ein Markt für entsprechende Beratungs- und Implementierungsdienstleistungen, aber auch für stark interaktive, visuelle Werkzeuge, die die Datenanalyse auch für den normalen Domänenexperten zugängig machen.

Der erfolgreiche Einsatz von Big Data setzt immer das Vorhandensein geeigneter Eingangsdaten voraus. Welche Daten geeignet sind, hängt aber vom einzelnen Anwendungsfall ab und lässt sich somit schwer vorhersagen. Idealerweise würde ein Unternehmen sofort beginnen, alle anfallenden Daten auf Verdacht auf Vorrat zu speichern, um sie dann später im Nachgang für ausgiebige Analysen zur Verfügung zu haben. Natürlich ist dies mit nicht unerheblichen Kosten verbunden – vor allem, wenn der Rechner-Cluster permanent aktiv sein soll, um anstehende Anfragen jederzeit mit ordentlicher Performance ausführen zu können. Die Industrie, aber auch die Technologieanbieter müssen noch beweisen, dass sich dieser Aufwand nicht nur im sehr speziellen Einzelfall lohnt.

Bei Big Data sind wie beim Internet der Dinge und bei Industrie 4.0 viele kritische Fragen zur Daten- und Anlagensicherheit noch nicht abschließend beantwortet, es zeichnen sich aber mehr und mehr Lösungen ab, die die Aspekte Datensicherheit und Daten-Governance klar adressieren. Big Data selbst wird aber auch mit eigenen Lösungen zur erfolgreichen Meisterung dieser Herausforderung für die anderen Themenbereiche beitragen können.

Das Internet der Dinge hat das Potenzial, die klassische Automatisierungspyramide radikal aufzulösen und durch eine neue Systemlandschaft zu ersetzen, bei der die Dinge auf vielfältige Art miteinander vernetzt sind. Big Data liefert dazu zahlreiche Lösungsbausteine. Industrielle Internet-Systeme auf der Basis von Cloud-basierten IoT-Plattformen werden den Einsatz von Big Data speziell auch in der Industrie deutlich voranbringen, denn sie erschließen die bereits vorhandenen Datenquellen und führen sie einer effizienten zentralen Auswertung zu.

Die Kontrolle über erfolgreiche IoT-Plattformen und die damit verknüpften Ökosysteme verspricht ein großes Geschäftspotenzial. Deswegen versuchen bereits zahllose Anbieter von IoT-Plattformen, sich am Markt zu etablieren. Nur wenige davon werden langfristig erfolgreich sein. Die besten Perspektiven für diesen Zukunftsmarkt haben die heute schon dominierenden Anbieter von IT-Technologie und Cloud-Computing. Auf diesen führenden IoT-Plattformen und den darauf verfügbaren Marktplätzen werden sich aber wiederum branchenspezifische Lösungsanbieter mit eigenständigen Serviceangeboten etablieren können.

Über den Autor

Dipl.-Inform. (FH) Klaus Hübschle studierte Informatik an der Fachhochschule Furtwangen und startete noch während des Studiums als Softwareentwickler bei der M&M Software GmbH. In seiner beruflichen Laufbahn hat er seitdem im Unternehmen leitende Rollen in zahlreichen Beratungs- und Softwareentwicklungsprojekten in verschiedensten Bereichen der Automatisierungstechnik ausgeübt. Als geschäftsführender Gesellschafter im Bereich Technik treibt er heute die Ausrichtung des Unternehmens auf die neuen Herausforderungen von Industrie 4.0 und Digitalisierung mit an und setzt Schwerpunkte mit den Themen Cloud-Computing, Big Data, Internet of Things und Assistenzsysteme..

Literatur/Quellen

[1] The Industrial Internet of Things. Volume G1: Reference Architecture. Needham: Industrial Internet Consortium (IIC), 2017. https://www.iiconsortium.org/IIRA.htm (abgerufen am 09.05.2017). 364 Quellenverzeichnis

[2] Microsoft Azure IoT Reference Architecture. Redmond: Microsoft Cooperation, 2016. http://download.microsoft.com/download/A/4/D/A4DAD253-BC21-41D3-B9D9-87D2AE6F0719/Microsoft_Azure_IoT_Reference_Architecture.pdf (abgerufen am 09.05.2017).

Fachbuch „Industrie 4.0: Potenziale erkennen und umsetzen“ Dieser Beitrag stammt aus den dem Fachbuch „Industrie 4.0: Potenziale erkennen und umsetzen“ von Thomas Schulz (Hrsg.) Das Buch bietet dem Professional einen praxisorientierten und umfassenden Einblick in die Digitalisierung der Fertigung und der Produktion. Das Buch „Industrie 4.0“ kann hier versandkostenfrei oder als eBook bestellt werden.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 45181767)