Suchen

Daten & Edge Computing Neuer Schauplatz für das Datenmanagement

Autor / Redakteur: Sascha Oehl* / Sebastian Human

Im Internet der Dinge werden Informationen idealerweise direkt dort verarbeitet, wo sie erhoben werden. Das heißt: Unternehmen müssen den Wert solcher Daten am Edge der IT-Infrastruktur evaluieren und sie entsprechend sichern.

Firmen zum Thema

Was muss bleiben und was kann Weg: Die Verarbeitung, Beurteilung und Sicherung von Daten beim Edge Computing erfordert ein paar tiefere Überlegungen.
Was muss bleiben und was kann Weg: Die Verarbeitung, Beurteilung und Sicherung von Daten beim Edge Computing erfordert ein paar tiefere Überlegungen.
(Bild: gemeinfrei / Pixabay )

Nach Einschätzung von Gartner-Analysten wächst die Bedeutung des Edge Computing stark: Werden aktuell lediglich 10 Prozent der digitalen Assets außerhalb des zentralen Rechenzentrums oder einer Cloud erzeugt und verarbeitet, soll dieser Anteil bis 2025 auf 75 Prozent steigen.

Denn dank IoT werden viele unterschiedliche Minisysteme an einzelnen Orten konzentriert und führen dort unterschiedlichste Aufgaben aus, bei denen sie Daten erfassen und berechnen.
Dies können kleinste Sensoren sein, die die Temperatur einer Maschine in der Fabrikhalle messen. Es kann sich aber um den Lichtsensor im Smarthome handeln, der bei bestimmten Werten ein Signal an die zentrale Steuerungsanlage schickt.

Die Analysten erwarten, dass die IoT-Systeme vor allem die 5G Infrastruktur und andere Netztechniken nutzen werden, um ihre Ergebnisse an eine zentrale Instanz am Edge weiterzugeben, sei es ein Micro-Server oder eine Micro-Cloud. Sie werden kaum Daten selbst speichern, da man sonst in den Geräten Speicher verbauen und mit weitaus mehr Strom versorgen müsste.

Das intelligente zentrale System am Edge wird die Werte der Sensoren sammeln und in relevante, Kontext-basierte und intelligente Informationen verwandeln sowie diese zuverlässig sichern. Ein Datenverlust an dieser Stelle würde somit die Funktionalität der gesamten Echtzeit-Anwendungen beeinträchtigen und die Simulationen etwa eines digitalen Zwillings in der Produktion zerstören. Es gibt verschiedene Wege, die Ausfallsicherheit des Servers zu steigern – etwa durch das Einrichten von sekundären Edge-Sites oder lokalen Clustern. Zusätzlich besteht die Möglichkeit, das Backup der Daten-Systeme in die Core-Infrastruktur oder in die Cloud zu bringen.

Neue Bewertungsgrundlagen

Wie lässt sich ein wirtschaftlich sinnvolles Konzept im IoT-Umfeld allerdings realisieren? Es gilt dabei, die Fehler zu vermeiden, die auch bei der klassischen IT-Infrastruktur gemacht werden.

Etwa, dass vorsichthalber alles oder lieber etwas mehr als nötig gespeichert wird, obwohl es niemand mehr braucht. Entscheidend für die richtige Konzeption wird sein, die Daten und ihren Wert in dieser neuen Workload- und Service-Welt im Detail zu verstehen.

Für am Edge entstehendes Wissen gelten spezifische Kriterien. So lassen sich die Messwerte nach ihrer Verwertung für einen vorübergehenden Zweck löschen, um den Standort in der IT-Peripherie nicht mit unnötigem Ballast zu überfrachten. Auch einmal erfolgreich übermittelte, dann zentral gespeicherte Werte müssen nicht vorgehalten werden. Das Aufbewahren speicherintensiver Raw-Formate ist nur in manchen Fällen aus Compliance-Gründen nötig – etwa bei Bildern aus CCTV-Überwachungskameras oder bei Tokens und Karten für eine intelligente Zutrittskontrolle.

Auch bei einem digitalen Zwilling kommt es nicht auf die Aufbewahrung einzelner Werte, sondern nur auf die Ergebnisse ihrer intelligenten Verarbeitung an. Jeder Fall und jede Anwendung erfordern eine eigene Abwägung. Vier Grundregeln helfen aber bei der Beurteilung von Edge-Daten:

  • 1. Sichtbarkeit:
    Data Mapping und Data Discovery zeigen, wie sich Datenbestände im Unternehmen bewegen, wer Zugriff darauf hat und wie lange sie vorgehalten werden. Das kann ein Indiz dafür sein, ob sie auch genutzt werden. Anhand solcher Angaben können Unternehmen die jeweiligen Risiken einschätzen und entscheiden, was nicht mehr benötigt wird und ohne Bedenken gelöscht werden kann.
  • 2. Automatisierte Analyse:
    Nur eine automatisierte Analyse und Verfolgung von Informationen bietet eine verlässliche Entscheidungsgrundlage, um Auskunft über ihre Nutzung und ihre Risiken zu bekommen. Lösungen für die Nachverfolgung sowie für Archivierung und Backup sind bei Größenordnungen im Petabyte-Bereich oder bei Milliarden von Dateien nur automatisiert zu bewältigen.
  • 3. Minimierung und Zweckbestimmung:
    Diese Prinzipien helfen, die Menge der zu speichernden Inhalte zu reduzieren und dafür zu sorgen, dass diese nur für einen konkreten Zweck verwertet werden. Engines zur Klassifizierung sowie flexiblen Sicherung und Durchsetzung von Compliance-Richtlinien helfen, Überflüssiges zu löschen.
  • 4. Compliance:
    Nicht nur die DSGVO schreibt vor, offen gelegte personenbezogene Angaben an Aufsichtsbehörden oder die Betroffenen zu melden. Unternehmen müssen auch in der Lage sein, Sicherheitsvorfälle durch den Einsatz von Monitoring-Lösungen zu entdecken und sie zu dokumentieren.

Wer diese Fragen beantworten kann, wird den Wert der IoT-Daten für das Geschäft und den laufenden Service besser verstehen, und damit das mögliche Risiko und die möglichen Schäden, sollten die Daten verloren gehen. Auf dieser Grundlage lassen sich die notwendigen Investitionen in Backup- und Hochverfügbarkeitskonzepte rechtfertigen und ein wirtschaftlich tragfähiges Modell entwickeln, in dem Aufwand und Ertrag in der richtigen Balance zueinander stehen. Bei all diesen Berechnungen wird entscheidend sein, die Daten und ihren Wert in dieser neuen Workload- und Service-Welt im Detail zu verstehen.

* Sascha Oehl arbeitet als Director Technical Sales in der DACH-Region bei Veritas Technologies.

(ID:46956756)