Strukturierte Datenanalyse – Wasser auf den Mühlen des unternehmerischen Erfolgs

Autor / Redakteur: Dr. Juliane Voigt* / Sebastian Human

Immer wieder werden Daten als das neue Gold, als das Öl der digitalen Transformation bezeichnet. Dabei handelt es sich bei Daten um ein viel elementareres Element: Sie sind das Wasser der Wirtschaft. Will man diese effektiv nutzen, helfen sieben Grundsätze.

Firmen zum Thema

Gold, Öl oder doch einfach Wasser – in jedem Falle sind Daten und deren strukturiertes Management zentral für die betriebliche Effizienz.
Gold, Öl oder doch einfach Wasser – in jedem Falle sind Daten und deren strukturiertes Management zentral für die betriebliche Effizienz.
(Bild: gemeinfrei / Pixabay )

Spätestens die Corona-Pandemie hat gezeigt, welche Relevanz Daten für unser heutiges Wirtschaftssystem haben. Im Alltagsgeschäft haben Unternehmerinnen und Unternehmer aufgrund ihrer jahrelangen Erfahrung häufig ein gutes Bauchgefühl für ihre Entscheidungen. In Ausnahmesituationen wie der Corona-Krise fehlen diese Erfahrungen und man benötigt schnell und unkompliziert die relevanten Zahlen und Fakten, um auf die sich ständig wandelnde Situation angemessen reagieren zu können. Denken wir zum Beispiel an einen Automobilhersteller, dessen Zulieferer aufgrund des Lockdowns keine Getriebeteile mehr fertigen kann. Wie lang kann der Automobilhersteller ohne neue Lieferungen produzieren? Lassen sich Getriebeteile von einem Fertigungsstandort vielleicht für einen anderen Fertigungsstandort nutzbar machen? Gibt es alternative Lieferanten und wenn ja, wie schnell können diese die Lücke füllen? All diese Fragen lassen sich nur auf Basis umfassender und aktueller Daten des Unternehmens fundiert beantworten.

Das gilt unabhängig vom jeweiligen Geschäftsfeld, also nicht nur für Digitalunternehmen, sondern für jede (unternehmerische) Organisation. Weder die Branche noch die Größe spielt dabei eine Rolle. Das Ziel sollte sein Zahlen, Daten und Fakten möglichst exakt und zugänglich vorliegen zu haben, um auf ihrer Basis schnell und nachhaltig reagieren und die bestmöglichen Entscheidungen treffen zu können. Um an diesen Punkt zu gelangen, braucht es eine gründliche Vorarbeit und das Wissen um die richtigen Ansätze und Möglichkeiten. Sind die Grundlagen aber erst einmal gelegt, dann wandelt sich das Wasser zu Gold. Denn datengetriebene Entscheidungen sind die Mühlen zukunftsfähiger und agiler Unternehmen.

Grundlagen der Datenanalyse

An jeder Stelle eines Unternehmens fallen unzählige Daten an. Ob in der Sales-Abteilung, in der IT oder in der Produktion: Überall dort, wo kommuniziert oder produziert wird, wo Feedback eingesammelt wird oder wo Kundenkontakt besteht, entstehen Datenpunkte. Unsortiert und für sich gesehen, sind sie erst einmal nur vorhanden. Wenn sie aber zusammengeführt, (gemeinsam) analysiert und den relevanten Entscheidungsträgerinnen und Entscheidungsträgern zur Verfügung gestellt werden, zeigt sich ihr eigentliches Potenzial.

Um dieses entfalten zu können, sollten Unternehmen bestimmte Grundsätze und Vorgehensweisen verinnerlichen, die ihnen dabei helfen, den Wert ihrer Daten zu erkennen und einsetzen zu können:

  • 1. Datenquellen:
    Datenpunkte fallen an vielen unterschiedlichen Stellen an. Grundlegende Vorarbeit sollte daher sein, sich über den Ursprung der Daten klar zu werden und die einzelnen Quellen sorgsam zusammenzutragen. Unternehmen können dabei auf unterschiedlichste Ressourcen zurückgreifen, die sowohl intern, als auch extern zu finden sind. Beispiele für interne Quellen sind ERP- und CRM-Systeme oder andere Arten von Datenspeichern (zum Beispiel Excel-Tabellen, Bilddatenbanken) in den jeweiligen Fachabteilungen. Hinzukommen externe Daten, beispielsweise frei zugängliche Informationen, so genannte Open Data, die ebenfalls für die eigenen unternehmerischen Entscheidungen nützlichen sein können.
  • 2. Datenqualität:
    Die Qualität der gesammelten Daten ist entscheidend für deren spätere Nutzung. Es ist daher wichtig, dass Informationen über einen längeren Zeitraum und möglichst lückenlos dokumentiert sind. Dies wird nicht von Anfang an sichergestellt sein, lässt sich aber durch Nachjustierung anpassen. Es lohnt sich, ein entsprechendes Konzept für die zukünftige Datensammlung zu erstellen, um so die notwendige Datenqualität herzustellen.
  • 3. Aktualität:
    Die Aktualität der Daten spielt bei ihrer Verarbeitung eine entscheidende Rolle. Wie sie definiert ist, hängt vom konkreten Anwendungsfall ab. Wenn es zum Beispiel um die Vorhersage von Wartungsausfällen bei Maschinen geht, ist eine Echtzeitanalyse der Daten notwendig, eine sogenannte Stream-Verarbeitung. Gehen die Informationen an das Management, genügen meist tägliche oder wöchentliche Reports, so dass die relevanten Daten zu definierten Zeitpunkten abgerufen werden, die sogenannte Batch-Verarbeitung.
  • 4. Konsolidierung:
    Erst die Konsolidierung der verschiedenen Datenquellen und -typen ermöglicht eine gemeinsame Analyse aller gesammelten Datenpunkte. Elementar ist dabei die Überlegung, welche Schlüsselvariable den Ausgangspunkt bildet, nach dem Informationen aus verschiedenen Quellen verknüpft werden, oder auf welche Weise Informationen beispielsweise aus Videos und Bildern extrahiert werden können.
  • 5. Standardisierung:
    Um ohne Probleme neue Datenquellen zu den bestehenden hinzufügen zu können und die entsprechenden Daten für unterschiedliche Analysevarianten nutzbar zu machen, ist die Standardisierung der Datenhaltung elementar. Gerade bei komplexen Analysen, in die eine Vielzahl unterschiedlicher Daten einfließen, lässt sich die Bereitstellungsgeschwindigkeit der Ergebnisse bei Anpassungen deutlich erhöhen, wenn mit standardisierten Datenhaltungsprozessen gearbeitet wird. Dies spart nicht nur Zeit und Kosten, sondern erhöht auch die Akzeptanz der Nutzer.
  • 6. Technik:
    Um die optimale technische Lösung für die eigene Datenhaltung und Analyse zu finden, muss genau feststehen, welche Daten vorhanden sind und in welcher Häufigkeit sie wie gemeinsam analysiert werden sollen. Auch ist das Ziel der Analyse wichtig, denn nicht jede am Markt befindliche technische Möglichkeit ist für jedes gewünschte Ergebnis die richtige.
  • 7. Kompetenzen:
    Bei Datenanalyse-Projekten stellt sich zudem immer die Frage, welche Kompetenzen im Unternehmen bestehen. Während ein klassisches Reporting meist inhouse erstellt werden kann, stoßen viele Unternehmen an ihre Grenzen, wenn es um fortschrittliche Analysemethoden bis hin zur Einbindung von KI-Algorithmen geht. Sich externe Unterstützung zu holen, kann helfen, die entsprechenden Grundlagen zu legen und internes Wissen aufzubauen.

Interdisziplinäre Kompetenz

Vor allem in Bezug auf Projekte, die hinsichtlich der zu verwendenden Datenquellen sehr komplex sind, hat sich die Zusammenarbeit von Business Intelligence (BI)-, Big Data- und Data Science-Fachleuten bewährt. Während BI-Spezialistinnen und -Spezialisten über ein breites Wissen beim Aufbau effizienter Daten-Pipelines mittels klassischer ETL-Prozesse verfügen, liefern Big-Data-Expertinnen und -Experten wertvollen Input wenn es darum geht, unstrukturierte Daten, wie Bilder oder Videos, der Analyse zugänglich zu machen oder umfangreiche Echtzeit-Datenströme zu verarbeiten. Data Scientists identifizieren geeignete Analysemethoden oder entwickeln neue Algorithmen für den größtmöglichen Informationsgewinn aus den Daten.

Machine Learning-Algorithmus wertet Feedbackbögen aus

Exemplarische Darstellung eines Customer Intelligence Lifecycles.
Exemplarische Darstellung eines Customer Intelligence Lifecycles.
(Bild: T-Systems Multimedia Solutions)

Schauen wir uns den Wert einer starken Daten-Pipeline anhand eines Beispiels aus dem Automobilbereich an. Um ihr Produkt kontinuierlich zu optimieren, berücksichtigen Automobilhersteller das Feedback ihrer Kunden und Kundinnen bei der Planung der nächsten Produktionslinie. Sie steuern zum einen die grundsätzliche Produktion auf Basis dieses Feedbacks aus und speisen zudem sich häufende Beanstandungen zu bestimmten Bauteilen oder ganzer Serien ein, um in der Produktion möglichst zeitnah reagieren zu können.

Die dafür relevanten Daten fallen jedoch meist nicht in den unternehmensinternen Systemen an, sondern entstammen Kunden-Feedbackbögen oder Berichten aus Vertragswerkstätten. Hinzu kommt, dass die Feedbackbögen viele Freitextfelder vorsehen. Das ist insofern von Vorteil, als dass wesentlich spezifischer auf Fehler und Wünsche eingegangen werden kann, als wenn die Antworten der Kundinnen lediglich über Multiple-Choice-Fragen ermittelt werden würden. Das hat jedoch Folgen für die Auswertung, denn diese gestaltet sich entsprechend aufwändig.

Aufgrund der Ausgangslage liegt es nahe, dieser Herausforderung mit der Einführung eines Machine Learning-Algorithmus zu begegnen. Dieser analysiert die Feedbackbögen systematisch und erkennt und clustert darin befindliche Fehlerbilder. Diese werden dann mit Daten aus dem Product Lifecycle Management verknüpft, um die Fehlerbilder den entsprechenden Produktionsserien, -linien, -tagen, oder ähnlichem, zuordnen zu können. So gelingt es, das Feedback wesentlich schneller in die Produktion zurück zu speisen – konkret handelt es sich bei diesem Beispiel um wenige Tage, statt wie bisher um einen Zeitraum von mindestens einem Monat. Zusätzlich kann in der Produktion fundiertes Wissen über das Auftreten bestimmter Fehler aufgebaut werden; darüber, welche Fahrzeugtypen am häufigsten betroffen sind und an welchen Standorten welche Herausforderungen bestehen. Dieses Wissen erstreckt sich bis ins kleinste Bauteil, alles auf Basis des gut aufgearbeiteten Feedbacks. Der Einfluss der Feedback-Daten auf das Unternehmen ist heute wesentlich nachhaltiger als zuvor.

Individualität schlägt Allround-Lösung

Je nach Betrieb kann der Ausbau einer starken Daten-Pipeline individuelle Vorteile haben. Allen Wegen gemeinsam ist die Verbesserung der betrieblichen Effizienz und die dadurch indirekte oder direkte Gewinnsteigerung. Die Lösung ist dabei so individuell wie ihre Herausforderung, „one size fits all“ gibt es hier nicht.

Sei es das Controlling von Vertriebsaktivitäten, eine intelligente Marketingunterstützung, die automatische Bestandsüberwachung oder eine autonome Überwachung der Produktqualität: Die systematische Analyse von Unternehmensdaten bietet eine Vielzahl an Möglichkeiten, die die Auseinandersetzung mit ihr in jedem Fall wert ist. Denn sie bringt Schätze hervor, die im Zweifel gegen Gold nicht aufzuwiegen sind.

Buchtipp "Data Analytics"

Das Fachbuch bietet einen guten Überblick zu den in Produktion und Logistik anwendbaren Data Mining Algorithmen und stellt konkrete Use Cases vor, die mit diesen Algorithmen umgesetzt werden können.

Mehr erfahren

* Dr. Juliane Voigt arbeitet als Consultant für Data Analytics und Big Data bei T-Systems Multimedia Solutions.

(ID:47113513)