DataOps So werden aus Rohdaten Handlungs-Optionen

Autor / Redakteur: Wolfgang Kobek* / Sebastian Human

Das Geschäft mit und um Daten floriert. Doch um hier einen Teil des Kuchens abzubekommen, genügt es nicht, nur Datenberge zu horten. Intelligente Datenintegration und Automatisierungslösungen können Ordnung ins Chaos bringen.

Firma zum Thema

Auch wenn die Speichermedien immer leistungsfähiger werden: Daten zu besitzen macht noch keinen Geschäftserfolg, erst deren durchdachte Speicherung und Auswertung ermöglicht Unternehmen einen echten Gewinn.
Auch wenn die Speichermedien immer leistungsfähiger werden: Daten zu besitzen macht noch keinen Geschäftserfolg, erst deren durchdachte Speicherung und Auswertung ermöglicht Unternehmen einen echten Gewinn.
(Bild: gemeinfrei / Unsplash)

Bis der Mensch aus seinen Einsichten planvoll handelt, kann es erfahrungsgemäß eine Weile dauern: Etwas zu sehen heißt nicht immer, es auch zu erkennen. Etwas zu erkennen, heißt noch nicht, es tatsächlich zu verstehen – und selbst etwas zu verstehen, bedeutet noch nicht, entsprechend zu handeln. Dazu gehören Erfahrung, ein ganzheitliches Bild von der Welt – und immer auch ein Stück weit Intuition. Der Weg zur datengetriebenen Unternehmenssteuerung funktioniert ganz ähnlich.

Immer schneller, immer mehr und immer unterschiedlicher: Wer sich mit Daten beschäftigt, hat sich ganz schön etwas vorgenommen. Data Lakes voller strukturierter und unstrukturierter digitaler Informationen, Big-Data-Umgebungen mit Realtime-Anspruch oder komplexe IoT-Szenarien: Das Generieren und Nutzen von Daten treibt die Analytics Economy in neue Höhen – und ermöglicht datenbasierte Wertschöpfung in nahezu allen Geschäftsprozessen, vom Einkauf bis zur After-Sales-Steuerung.

„Data Hoarding“ ist keine Strategie

Doch das ist kein Selbstläufer. Beispiel Big Data: Wer auf skalierbare Cloud-Lösungen setzt – und Cloud-First-Konzepte gehören in immer mehr Organisationen zur Unternehmensstrategie – ist nicht länger von den Kapazitäten der eigenen IT-Infrastruktur abhängig. Wo früher Storage-Limitierungen ehrgeizige Projekte irgendwann von selbst begrenzten, stehen heute Speicherkapazitäten und Rechnerleistung ohne Ende zur Verfügung – was zwar komfortabel ist, aber ohne Strategie auch in ein regelrechtes „Data Hoarding“ führen kann. Dann werden Daten also erst einmal gesammelt – das „Warum?“ überlegt man sich später.

Doch damit nicht genug: Während die Cloud-Speicher munter mit immer neuen Informationen geflutet werden, existiert in vielen Unternehmen parallel auch noch eine weit verzweigte, oft stark fragmentierte Daten-Umgebung, die nicht selten aus uneinheitlichen, nicht konsistenten Datensets und isolierten Datensilos besteht. Zwei Fragen tun sich daher schon fast automatisch auf:

  • 1. Wie lassen sich existierende Daten-Silos aufbrechen?
  • 2. Und wie lassen sich Informationen aus allen verfügbaren Quellen so in ein modernes Analytics-Szenario einbinden, dass (fehleranfällige) manuelle Prozesse möglichst eliminiert werden?

End-to-End-Erfahrung aufgrund von Data-Warehouse-Automation

Möglichst intelligentes Daten-Management ist hier gefragt, das ebenso agil wie qualitativ hochwertig arbeitet. Kurz: ein echter „DataOps“-Ansatz, der bereits Rohdaten als ersten Schritt zur datenbasierten Handlungs-Option versteht.

Die Idee dahinter ist es, spätere assoziative Analytics-Szenarien bereits mit den vorhergehenden Schritten (Datenmanagement, -aufbereitung und -bereitstellung, …) von Anfang an zu unterstützen. Ein entscheidender Faktor dabei ist Geschwindigkeit. Warum? Menschliche Intuition geht nicht über Umwege – und auch seine Daten sollte man nicht zwingen, das zu tun.

Technologisch meint das, automatisierte und prozessorientierte Technologien einzusetzen, also On-Demand IT-Ressourcen zu nutzen, Tests zu automatisieren und geeignete, valide Datenquellen (interne wie externe) automatisch bereit zu stellen. Echtzeit-Datenintegration, Change Data Capture (CDC) und Streaming-Data-Pipelines in Echtzeit sind die aktuellsten Methoden dafür und machen aus DataOps eine End-to-End-Erfahrung, die eigentlich auf einer konsequenten Data-Warehouse-Automation beruht: von der Rohdatenquelle zur konkreten datenbasierten Handlungs-Option. Organisationen, die ein derartiges DataOps-Konzept umsetzen, können etwa vier Fünftel der Geschäftsdaten als relevante Kerndaten an ihre Anwender liefern.

Das weitestgehend automatisierte, operative Datenmanagement auf der einen Seite und anwenderfreundliche Analytics-Applikationen am Ort der Geschäftsentscheidung gewährleisten so eine datenbasierte Wertschöpfungskette – unternehmens- und standortübergreifend.

Katalogisierte Metadaten als Brücke zwischen Datensets und Analyse-Applikation

Um Rohdaten in heterogenen und weit verzweigten Datenbeständen zu lokalisieren, sie zusammenzuführen und sie auf Vergleichbarkeits-Merkmale hin zu untersuchen, sind Metadaten-Kataloge ein intelligenter Lösungsansatz. Metadaten-Kataloge, die mit KI-Engines arbeiten, gewährleisten eine rasche und vollständige Datenbereitstellung und ermöglichen agile Daten-Projekte, die sich ohne Infrastruktur-Hürden durchführen und teilen lassen.

Wer ein „DataOps“-Konzept umsetzen möchte und den Weg zur datengetriebenen Organisation konsequent von seinen Rohdatenquellen bis hin zu validen Business-Insights denkt (End-to-End), sollte intelligente Datenintegration als Dreh- und Angelpunkt verstehen. Data-Warehouse-Automation kann die entsprechende Geschwindigkeit forcieren – und zudem das Risiko minimieren, das manuelle Prozesse bedeuten, um Daten wirklich Analytics-ready zu machen.

* Wolfgang Kobek arbeitet als SVP EMEA bei Qlik .

(ID:47327192)