Suchen

Entwicklungsstrategien

Softwarequalität ist der entscheidende Faktor im IoT

Seite: 2/2

Firma zum Thema

Big Data muss sich zu Smart Data wandeln

Für diese Computing-Infrastrukturen wird der plakative Begriff Big Data gebraucht. Entscheidend ist hier aber, dass es nicht auf das Daten-Crunching – also die Verarbeitung möglichst vieler Daten – an sich ankommt, sondern darauf, aus der Datenmenge sinnvolle Informationen zu destillieren, die zur Entscheidungsfindung dienen können. Technische Durchbrüche wie In-Memory-Datenbanken und Non-SQL-Datenbanktechniken haben zwar dazu beigetragen, Informationen schneller zu verarbeiten.

Entscheidend bleibt jedoch, dass Big Data zu Smart Data werden muss, um für den Menschen nutzbar zu sein. In Forschungsprojekten wie SIDAP (Skalierbares Integrationskonzept zur Datenaggregation, -analyse, -aufbereitung von großen Datenmengen in der Prozessindustrie) werden Architekturen entwickelt, die die Datenströme so aufbereiten, dass sie zu Analysen herangezogen werden können. Ziel ist es, das Wissen der Wartungsteams und der Betreiber von Maschinen und Anlagen anhand der Wartungsdaten zu erweitern.

Letzten Endes dürfte auch dies nur ein Zwischenstadium sein. Auf die herkömmlichen IoT-Infrastrukturen, bei denen den über das Internet angebundenen Sensoren und Geräten eine mehr oder weniger zentralisierte Big-Data-Infrastruktur gegenübersteht, dürfte schon bald eine dezentralisierte Netzstruktur folgen, bei der die Daten dort ausgewertet werden, wo sie entstehen. Denn: „Unsere Netze sind nicht für 50 Milliarden angeschlossene Geräte im Jahr 2025 ausgelegt“, sagt Mark Cudak, Principal Research Specialist beim Telekommunikationsausrüster Nokia. Ins selbe Horn stößt Jamie Smith, Direktor für das Produktmarketing eingebetteter Systeme bei National Instruments: „Moores Gesetz lässt Nielsens Gesetz, das das Wachstum der Netzwerkbandbreite beschreibt, immer weiter hinter sich. Die Rechenleistung wächst um 30 Prozent stärker als die Bandbreite.“

Zwar sollen die Fortschreibung des LTE-Funkstandards sowie 5G-Techniken, die im Millimeterband arbeiten, Entlastung bringen. Doch noch ist nicht sicher, wann diese Techniken in ausreichendem Maß zur Verfügung stehen. Viele Anwendungen, unter anderem im Bereich der Telemedizin, benötigen konstantere und verlässliche Netzverbindungen, als sie heute möglich sind. An-drea Goldsmith, Professorin an der renommierten kalifornischen Stanford University, kann sich zum Beispiel Remote- Operationen vorstellen, bei denen Ärzte ihre chirurgischen Instrumente über das Netz steuern.

Datensicherheit bleibt eine Dauerbaustelle

Eine weitere Herausforderung lässt sich mit den Begriffen Standardisierung, Datenschutz und Datensicherheit umschreiben. Insbesondere die Datensicherheit ist eine Dauerbaustelle, da im Bereich der Gerätesoftware noch allzu oft nach dem Prinzip „verbaut und vergessen“ verfahren wird, wie der IT-Sicherheitsexperte Hans-Joachim Hof, Professor an der Technischen Hochschule Ingolstadt, bemerkt. Mit dem IoT verbundene Geräte werden viel zu selten mit Sicherheits-Updates versorgt. In letzter Konsequenz fordert Professor Hof eine deutlich bessere Softwarequalität für IoT-Geräte und stellt die provokative Frage: „Wann haben wir uns denn daran gewöhnt, dass Software schlechte Qualität hat?“

Dieses Problem, so Hof, werde bei den Herstellern von IoT-Produkten oft noch gar nicht erkannt. Das liege zum einen daran, dass dort meist Ingenieure aus der Elektrotechnik tätig seien, die nicht aus der Gedankenwelt der Informatik kämen. Zum anderen seien der Preisdruck und die zu geringen IT-Ressourcen bei IoT-Produkten Hemmnisse. Die Implementierung von Sicherheitsmechanismen wird deshalb noch viel Energie kosten.

Dieser Beitrag ist ursprünglich auf unserem Partnerportal ELEKTRONIKPRAXIS erschienen.

(ID:44430978)