Datenanalyse In-Memory-Datenbanken sind der Wegbereiter für BI und IoT
Die Menge an Daten wächst rasant und es ist längst kein Problem mehr, diese zu speichern. Sollen diese Informationen einen unternehmerischen Mehrwert liefern, müssen sie schnell und unkompliziert den für die Auswertung eingesetzten Anwendungen zur Verfügung gestellt werden.
Anbieter zum Thema

Big Data war erst der Anfang. Denn viele Daten zu erfassen, ist nur ein erster Schritt auf dem Weg zu einem datenbasierten Unternehmen. Wenn valide Geschäftsentscheidungen auf der Basis möglichst aktueller Zahlen getroffen werden sollen, reichen monatlich oder wöchentlich angefertigte Management-Reports nicht mehr aus. Vielmehr sollten sich jederzeit flexibel Berichte erstellen lassen: management- und fachabteilungsgetrieben sowie mit beliebigen Korrelationen auswertbar. Die Einbindung verschiedener Datenquellen und weiterer Systeme ist ebenfalls unbedingt notwendig. Erst dann wird aus Big Data Business Intelligence und kann über ein BI Reporting hinaus zu einem Operation BI entwickelt werden – der automatisierten Steuerung von Geschäftsentscheidungen auf der Basis von Datenanalyse.
Sollen IoT-Szenarien umgesetzt werden, ist die Echtzeit-Auswertung großer Datenmengen in noch stärkerem Maße geschäftskritisch. In Industrieumgebungen beispielsweise, wo IoT-Daten verwendet werden, um Laufzeit-Optimierungen zu erreichen oder aufwendige Predictive-Maintenance-Modelle zu errechnen, ist die Verarbeitung umfangreicher Datenmengen aus mehreren Quellen in Echtzeit notwendig.
Die Vorteile der In-Memory-Technologie
Diskbasierte Speichersysteme wie Festplatten können zwar große Datenmengen aufnehmen, der Zugriff darauf ist für diese Anforderungen jedoch zu langsam. In hohem Maße schnellere Zugriffszeiten bieten In-Memory-Datenbanken (IMDB). Die Technologie ist nicht brandneu, gewinnt aber aufgrund der aktuellen Big-Data-Anforderungen immer stärker an Bedeutung.
IMDBs nutzen den Hauptspeicher (RAM) als effizienten Beschleunigungs-Cache und können somit viel schneller darauf zugreifen. Das hat entscheidenden Einfluss auf die IT-Infrastruktur: Die Größe des Hauptspeichers bekommt eine übergeordnete Bedeutung. Bis vor einigen Jahren lag hier auch der entscheidende Kostennachteil der In-Memory-Technologie, war RAM doch deutlich kostenintensiver als Disk-Systeme. Inzwischen sind die RAM-Preise jedoch erheblich gesunken. Zudem bieten Cloud-Lösungen weitere Möglichkeiten, die Infrastruktur effizient nach Bedarf zu gestalten. Zwar wird mehr Hauptspeicher als bei herkömmlichen Datenbank-Systemen benötigt, er muss allerdings nicht überdimensioniert sein: Intelligente Systeme führen die Anfrage im Hauptspeicher durch, holen sich die Daten aber bei Bedarf aus anderen Speichersystemen. So genügt es in den meisten Fällen, wenn der Hauptspeicher etwa 10 Prozent der Gesamtdatenmenge fasst. Vollautomatische Algorithmen sorgen dafür, dass im richtigen Moment die richtigen Daten in den Hauptspeicher geladen werden.
Was passiert jedoch mit den Daten beispielsweise bei einem Stromausfall oder Systemabsturz? RAM ist ein flüchtiger Speicher – ist die Energiezufuhr unterbrochen, geht auch der Speicherinhalt verloren. Ohne zusätzliche Maßnahmen lässt sich die Persistenz der Daten nicht garantieren. In der Tat besteht dieses Problem nur bei IMDB-Systemen, die den Hauptspeicher für die Ablage der gesamten Datenmenge nutzen. Bei Lösungen, die den RAM als Beschleunigungs-Cache nutzen, liegen die gerade nicht genutzten Daten passiv auf der Festplatte, und zwar so lange, bis sie benötigt werden.
Ein charakteristisches Merkmal von IMDBs ist darüber hinaus die massive parallele Datenverarbeitung. Diese wurde vor allem dafür entwickelt, nicht auf den Hauptspeicher eines Systems begrenzt zu sein. Und sie trägt in entscheidendem Maße zur hohen Performance bei. Abfragen werden dabei automatisch auf alle Knoten eines Clusters verteilt. Jeder Server ist jeweils mit einem Prozessor, einem Hauptspeicher, I/O für Festplatten-Zugriffe sowie einer Netzwerkverbindung zwischen den Servern ausgestattet und zwar so, dass mehr Daten gleichzeitig verarbeitet werden können. Diese sogenannte Shared-Nothing-Architektur ermöglicht es, durch das Zusammenschalten von vergleichsweise günstigen Standard-Rechnern hoch performante Cluster zu bilden.
Auswahlkriterien für In-Memory-Datenbanken
Zuallererst sollte eine Daten-Strategie definiert werden. Ohne sie kämen die Vorteile der In-Memory-Technologie nicht zum Tragen. Denn nicht die reine Datenmenge ist entscheidend, sondern das, was mit den Daten geschehen soll. Unternehmen benötigen ein Konzept für alle Belange rund um die Datenerfassung, die Datenspeicherung und die Datenanalyse. Viele Unternehmen wissen allerdings noch nicht oder nicht genau, welche Daten sie zu welchem Zweck erfassen und wo genau diese gespeichert sind. Auch wenn die Anforderungen der Datenschutzgrundverordnung (DSGVO) hier einiges angestoßen haben, sind durch die Digitalisierung in den letzten Jahren jedoch eher noch mehr Datensilos entstanden. Die Treiber sind hierbei Big Data, auf Hadoop basierende Projekte, die bereits erwähnten IoT-Initiativen, aber durchaus auch moderne Softwareentwicklungs- und Projektmethoden wie Agile Development.
Natürlich ist es sinnvoll, wenn das gewählte IMDB-System zunächst als Erweiterung zur bestehenden Infrastruktur eingesetzt werden kann. Die Lösung sollte deshalb hoch integrativ sein und mit den gängigsten Datenbanken, wie etwa Oracle oder Microsoft SQL, zusammenarbeiten. Die neue IMDB kann dann im ersten Schritt einzelne Prozesse beschleunigen, wie beispielsweise die Erstellung von Analysen in Echtzeit nach variablen Kriterien von allen Fachabteilungen, um dann organisch in das Unternehmen hineinzuwachsen.
Im Fall von In-Memory-Datenbanken geht es vor allem um die Performance. Unter Verwendung von standardisierten Benchmarks lassen sich die verschiedenen Systeme gut und unabhängig vergleichen. Die Non-Profit Organisation TPC (Transaction Processing Performance Council) bietet zum Beispiel Benchmark-Tests an, die die Leistungsfähigkeit von Transaktions- und Datenbanksystemen veranschaulichen. Mit einem Proof-of-Concept – dank Cloud-Infrastrukturen in den meisten Fällen recht unkompliziert aufzusetzen – können Unternehmen ihren individuellen Anwendungsfall direkt selbst testen und ihren eigenen Benchmark setzen.
Entscheidend für die Wahl des geeigneten IMDB-Systems können zudem die Integration von Data-Science-Sprachen wie R, Phyton oder SQL sowie die zertifizierte Unterstützung einer breiten Palette von BI-Tools sein.
Unterschiedlichste Anwendungen
Wegen der hohen Performance eignet sich die In-Memory-Technologie für die Echtzeit-Analyse großer Datenmengen. Und schon lange fallen nicht mehr nur im Finanzwesen – beispielsweise bei der Analyse von Aktienkursen – Unmengen an Daten an, die blitzschnell analysiert werden müssen und auf deren Basis weitere Entscheidungen getroffen werden. Auch in vielen anderen Branchen geht es nicht mehr ohne Echtzeit-Analysen. Im Online-Handel beispielsweise gewinnen sie immer stärker an Bedeutung, sollen den Kunden doch direkt während ihres Einkaufs gezielt auf die individuellen Profile hin maßgeschneiderte Produkte empfohlen werden.
Ein Praxisbeispiel ganz anderer Art liefern Betreiber von Krankenhäusern: Um Infektionen vorzubeugen, werden zahlreiche Parameter der aufgenommenen Patienten erfasst und zeitnah ausgewertet. Im Fall einer Infektion lässt sich innerhalb sehr kurzer Zeit die Ursache ermitteln. Dass die Analyse von Daten hier extrem schnell erfolgen muss und die Mitarbeiter entsprechende Informationen bekommen sollten, erklärt sich von selbst. In vielen weiteren Branchen, von IoT-Anwendungen im Industriebereich bis hin zu Social-Media-Plattformen, fallen heute so viele Daten an, dass es nur mit hochperformanter Technologie möglich ist, die berühmten Flaschenhälse und lange Wartezeiten zu vermeiden.
Dass Unternehmen mit IoT-Anwendungen wirklich Geld sparen können, zeigt ein Beispiel aus der System-Gastronomie und dem stationären Handel. Durch die Vernetzung von allen stromverbrauchenden Geräten – von Kühlschränken bis hin zur Beleuchtung – mit vorgefertigten elektronischen Schaltschränken, die in der Lage sind, zahlreiche Daten zu erfassen und auszuwerten, lassen sich die Temperatur oder die Helligkeit automatisch dem Bedarf anpassen. Wird der Waren-Kühlschrank zur Haupteinkaufszeit immer wieder geöffnet, wird mehr gekühlt. Bleibt er zu weniger frequentierten Zeiten meist geschlossen, wird die Energiezufuhr gedrosselt. Auf diese Weise lassen sich enorme Einsparungen bei den Stromkosten erzielen.
Fazit
Business Intelligence bedeutet viel mehr als nur die reine Erfassung von Daten. Nur wenn die Daten auch genutzt werden, um bei Bedarf einen Prozess anzupassen oder eine Entscheidung zu treffen, können sie ihr Potenzial entfalten. Denn ist es nicht die Natur digitaler Geschäftsmodelle und des IoT, auf Daten zu basieren? Unternehmen brauchen zum einen eine Strategie, wie sie ihre Daten nutzen und zum anderen eine Technologie wie In-Memory, die solche großen Datenmengen auch schnell und flexibel bewältigen kann.
(ID:45587645)