Suchen

IPlytics

Markt- und Technologieanalysen mit Big Data

| Autor/ Redakteur: Dr. Tim Pohlmann / Jürgen Schreier

Technologien werden komplexer, vernetzter und konvergenter. Gerade im interdisziplinären Umfeld scheitern Unternehmen oft an sich dynamisch entwickelnden Wettbewerbslandschaften. Mittels intelligenter Analyse kann Big Data über technologische Entwicklungen aufklären und prognostizieren.

Firma zum Thema

Neue softwaregesteuerte Big-Data-Algorithmen erlauben es, Technologie- und Markttrends gezielter zu prognostizieren, um die Entwicklung neuer Technologien und aufkommender Märkte nicht zu verpassen. Dazu werden unterschiedliche Datenquellen (z.B. die Zahl der Patentanmeldungen und der Zitierungen in der Fachliteratur) verknüpft.
Neue softwaregesteuerte Big-Data-Algorithmen erlauben es, Technologie- und Markttrends gezielter zu prognostizieren, um die Entwicklung neuer Technologien und aufkommender Märkte nicht zu verpassen. Dazu werden unterschiedliche Datenquellen (z.B. die Zahl der Patentanmeldungen und der Zitierungen in der Fachliteratur) verknüpft.
( Bild: Pixabay / CC0 )

Neue softwaregesteuerte Big-Data-Algorithmen erlauben es, Technologie- und Markttrends gezielter zu prognostizieren, um die Entwicklung neuer Technologien und aufkommender Märkte nicht zu verpassen. Unternehmen stehen vor der Herausforderung, Geschäftsprozesse zunehmend zu digitalisieren und somit auch vermehrt Big-Data-Software in die Entscheidungsfindung miteinzubeziehen. Der für belastbare Prognosen notwendige Wissensvorsprung bedarf allerdings sensorischer Fähigkeiten seitens der Unternehmen sowie moderner Datenanalyseverfahren, um bereits erste Anzeichen wettbewerbsrelevanter Veränderungen in den Marktsegmenten wahrnehmen zu können.

Da wichtige Informationen über Technologietrends und/oder neue Marktfelder in einer Vielzahl inhomogener Datenquellen versteckt liegen, ist eine Integration dieses Wissens in den Wertschöpfungsprozess innovativer Entwicklungsprojekte oftmals zu zeit- und zu kostenaufwendig. Gleichzeitig werden Technologien zunehmend komplexer, vernetzter und konvergenter, insbesondere in interdisziplinären Anwendungsfeldern wie Industrie 4.0.

Die Nadel im Heuhaufen

Die wenigsten Unternehmen sind in der Lage, das riesige Meer von technologierelevanten Informationen zu filtern und intelligent auszuwerten, um damit bei komplexen Technologieentscheidungen Chancen abzuwägen und Risiken zu minimieren. So müssen sich Unternehmen schon in frühen Phasen der Entwicklung folgende Fragen stellen: Wie wird sich das eigene Marktumfeld verändern oder erweitern? – Wie entwickelt sich der Wettbewerb für aktuelle und zukünftige relevante Märkte? Gibt es neue Marktteilnehmer? – Welche Technologien setzen sich durch? Werden bestehende Technologien abgelöst? – Wer treibt die Forschung an und wer ist Technologieführer? – Woran arbeiten Forschungsinstitute oder Universitäten, woran arbeiten junge Start-ups, woran arbeitet die Industrie? Gibt es Kooperationsmöglichkeiten? – Wer hält welche Schutzrechte (z.B. Patente) an relevanten Technologien? Wer kann den Markt blockieren?

Das zur Beantwortung dieser Fragen notwendige Wissen bedarf analytischer, prognostischer und sensorischer Fähigkeiten seitens der betroffenen Unternehmen sowie moderner Datenanalyseverfahren. Dabei liegen die größten Herausforderungen darin, technologiebezogene Daten wie Patente, Forschungsartikel oder Informationen zu Start-ups und Unternehmen gezielt zu durchsuchen sowie intelligent darstellen zu können.

Im Zuge einer Entwicklung zur Industrie 4.0 integrieren insbesondere traditionelle, mittelständisch geprägte Branchen vermehrt Informations- und Kommunikationstechnologien in ihre Produkte und Produktionsverfahren. Diese für die Branche relativ neuen und schnelllebigen Technologien sind jedoch komplex, unterliegen veränderten Spezifikationen und werden von hochspezialisierten Produzenten geliefert. Obwohl Informationen zu diesen Technologien zwar häufig öffentlich verfügbar sind, liegen sie meist stark verteilt und ohne einheitlichen Zugang in unterschiedlichsten Formaten und in unterschiedlichster Qualität vor.

Unternehmen müssen aus heterogenen Quellen enorme Datenmengen auswerten, um für Technologieentscheidungen relevante Informationen als sprichwörtliche Nadeln im Heuhaufen zu finden: So müssen monatlich bis zu 450.000 neue wissenschaftliche Publikationen, rund 500.000 Patentanmeldungen und ca. 25.000 Neugründungen von Start-ups oder Investments in Start-ups identifiziert, gesichtet und bewertet werden (siehe Grafik). Aber auch Informationen, die Unternehmen in aktuellen Businessnews publizieren, sind relevant und müssen für Technologieentscheidungsprozesse berücksichtigt werden. Die rasche Beantwortung von komplexen oder vielschichtigen Fragestellungen, wie etwa der zukünftige Einsatz, die Akzeptanz und die Durchdringung mobiler Consumer Devices zur Werksunterstützung innerhalb der Produktion, übersteigt nicht selten die Möglichkeiten vieler Unternehmen.

Technologiestudien erfolgen oft nur unregelmäßig

Auch heute noch werden technologiebezogene Daten oft manuell identifiziert, erfasst, verknüpft und ausgewertet. Dazu werden interne Teams oder externe Berater mit einer Technologie- oder Wettbewerbsstudie beauftragt. Das Zusammentragen der verschiedenen Informationen, wie auch das Harmonisieren und Verknüpfen dieser, dauert oft mehrere Monate. Die Auswertung erfolgt über Programme wie Excel oder Analysetools wie Vantage Point Analytics oder Tableau.

Die Ergebnisse werden in Reports zusammengetragen und den Entscheidern des Projekts präsentiert. Technologie- oder Wettbewerbsstudien werden meist in unregelmäßigen Abständen durchgeführt und beanspruchen drei bis vier Wochen bei kleinen Rechercheaufgaben bis hin zu einem Jahr bei großen Analysereports. Das Problem dieser Vorgehensweise ist zum einen der hohe Kostenfaktor: Ganze Teams werden für den Projektzeitraum von ihren operativen Aufgaben freigestellt. Arbeitet man mit externen Beratern, werden diese für mehrere Monate kostenintensiv beauftragt.

Nicht selten kommt es vor, dass verschiedenste Datenquellen für ein Projekt gesammelt, verknüpft und ausgewertet werden, jedoch im Anschluss nicht weiter gepflegt oder aktualisiert werden. Grund hierfür ist, dass die verwendeten Daten aus unterschiedlichen Quellen stammen, zu denen es keine standardisierten Schnittstellen gibt. Daten müssen somit immer wieder aufs Neue erfasst und in Datenprogramme importiert werden. Da die Daten in der Regel am Anfang eines jeweiligen Projekts gesammelt werden, sind diese über einen Zeitraum von im Schnitt sechs Monaten zum Projektende bereits veraltet. Angesichts der heutigen Schnelllebigkeit von Technologieentwicklungen hinken Unternehmen somit immer einen Schritt hinterher.

Wichtige Kernelemente der Technologieanalyse sind die genaue Einschätzung der Relevanz der Daten, ihrer Dynamik und der wechselseitigen Wirkungen verschiedener Informationen sowie der systematische Blick in die Zukunft. Die Entwicklung neuer Analysekonzepte und die Kombination verschiedenster Bewertungsmethoden ermöglichen die Einbeziehung unterschiedlicher Akteure eines Innovationssystems, um empirisch gestützt frühzeitig das unternehmerische Risiko bei komplexen Technologieentscheidungen bewertbar zu machen. Dabei müssen traditionelle Innovationsansätze, die Diffusion von Technologien, aber auch neuere Innovationssystem-Ansätze und die dahinterliegenden Systemdynamiken aufgegriffen werden.

ExpertTalk „Advanced Analytics & Big Data“ - Jetzt anmelden!

Wissen Sie, wie sich durch Industrial Analytics und Big Data neue erfolgreiche Geschäftsmodelle etablieren oder wie Sie mit Methoden zur prädiktiven Wartung bzw. durch die Digitalisierung der Materialplanung Zeit und Kosten sparen? Der Next Industry"-ExpertTalk „Advanced Analytics & Big Data“" am 6. September in Hamburg lädt dazu ein, sich branchenübergreifend zum Einsatz von Data-Analytics-Technologien und Big-Data-Strategien im Industrieumfeld auszutauschen. Führende Experten stellen ihre Strategien im B2B Umfeld vor. Erfahren Sie, worauf es ankommt!

Datenquellen kombinieren

So können zum Beispiel bibliometrische Maße herangezogen werden, um Technologierelevanz zu erfassen und zu bewerten und somit den Innovationsprozess zu operationalisieren. So lässt beispielsweise der Anstieg wissenschaftlicher Publikationen, das vermehrte Anmelden von Patenten, oder Gründungen von Start-ups potenzielle technologische Innovationen erkennen, während zunehmende mediale Erwähnungen und Referenzen wichtiges Indiz für die Marktreife einer Technologie sein können.

Die Einbeziehung und Verknüpfung mehrerer Datenquellen erhöht somit die Treffsicherheit und die Qualität von Aussagen zu Technologie- und Marktentwicklungen drastisch. Informationsquellen wie Patente oder wissenschaftliche Publikationen ermöglichen Aussagen über die Diffusion und die Akzeptanz von technologischen Lösungen im Markt. Neue Datenquellen zu Start-ups und Investmentaktivitäten implizieren die Bewertung von Technologie- und Produktentwicklungen.

Bislang bleibt die Kombination solcher Datenquellen in der Technologieanalyse gänzlich unberücksichtigt. Die gängige isolierte Betrachtungsweise jeweiliger Datenquellen und Lösungen erschwert valide Einschätzungen und Rückschlüsse aus den Analysen, da hierfür ein umfangreicher Quellensatz notwendig ist. So ergeben sich für eine vertiefte Analyse entscheidende Vorteile durch Big Data, weil die Einbeziehung und Verknüpfung aller relevanten Quellen in eine Analyse möglich ist.

Grundlegend für eine flexible sowie aussagekräftige Technologie- und Marktanalyse ist, dass eine große Menge (Volume) von heterogenen Daten (Variety) erschlossen werden kann. Für diese Daten muss eine kontinuierliche Akquisition, Integration und ein Management sichergestellt werden. Das Ziel, die Vielzahl von technologierelevanten Daten effizient analysierbar zu machen, erfordert eine Daten- und Analyseinfrastruktur, welche gegenwärtig am besten auf Basis von Big-Data-Technologien umgesetzt werden kann.

Ein wesentlicher datenorientierter Vorteil von Big Data liegt in dem Paradigmenwechsel von klassischen tabellarischen Datenbankkonzepten (SQL) hin zu dokumentenbasierten Konzepten (z.B. Hadoop, CouchDB, MongoDB) oder graphenbasierten Datenbankkonzepten (z. B. Neo4j , Titan, Virtuoso). Diese Konzepte werden unter dem Oberbegriff NoSQL zusammengefasst. Liegen Daten semantisch annotiert vor, so sind graphenbasierte Datenbanken geeignet. Dabei werden Datenpunkte als Knoten und Relationen als Kanten eines Graphen formalisiert. Die Nutzung von NoSQL-Datenbankkonzepten ermöglicht eine hohe Flexibilität in der Modellierung heterogener Datenbestände.

Markt- & Technologieanalyse über Big Data

Die isolierte Betrachtungsweise jeweiliger Datenquellen macht eine valide Einschätzung von Technologie- und Marktentwicklungen ohne externe Berater unmöglich. Das Anstellen großer Teams oder externer Berater ist jedoch kostenaufwendig und ineffizient. Vertiefte Analysen von Technologieebenen und -trends über softwaregesteuerte Systeme ergeben somit entscheidende Vorteile.

Die IPlytics GmbH ist ein Softwareanbieter mit Schwerpunkt im Bereich der automatisierten Analyse weltweiter Daten zu Technologieentwicklungen und Marktaktivitäten. Das Kernprodukt ist die IPlytics Platform, eine Big-Data-basierte Software zur Analyse großer Datenbanken mit Innovationsbezug.

IPlytics bietet den Zugang zu seiner Plattform als SaaS (Software as a Service) an. Über Such- sowie Statistiktools können Kunden Analysen zu Markt- und Technologieentwicklungen eigenständig über jeden gängigen Browser durchführen. Die Daten werden im Hintergrund auf einer verschlüsselten Cloudanwendung aktualisiert. Der Kunde hat somit einen weltweiten 24/7-Zugriff ohne Updates installieren zu müssen.

Mithilfe intelligenter Berechnungen und Visualisierungen verschafft der Softwareanbieter seinen Kunden damit einen 360°-Überblick über aktuelle Entwicklungen zu Patentanmeldungen, Veröffentlichungen von Forschungsergebnissen wie auch zu Gründungen von Start-ups oder dem Investment in Start-ups, aber auch Informationen zu aktuellen Normungszertifizierungs- und Standardisierungsaktivitäten.

In Verbindung mit einem selbst entwickelten Machine-Learning-Algorithmus ermöglicht die Plattform eine intelligente Suche und Analyse von Millionen von Datenpunkten in Echtzeit – über Features wie zum Beispiel Netzwerkgraphen, Clustergraphen oder Trendgraphen und über die Strukturen verschiedener Datenquellen. Die semantische Verknüpfung von Patenten, Forschungsartikeln oder Start-up-Daten über Machine-Learning-Algorithmen ist ein neuer und dennoch bereits bewährter Ansatz der Technologieanalyse.

Verarbeitung in der Datencloud

Ein intuitives Interface ermöglicht es Kunden aus verschiedenen Abteilungen gemeinsam Analysen durchzuführen, zu teilen und zu bearbeiten. Die Plattform integriert dabei über 90 Millionen Patentdokumente, mehr als 60 Millionen wissenschaftliche Veröffentlichungen und über drei Millionen Unternehmensprofile und Start-up-Informationen. Im Gegensatz zu anderen Analyseanbietern verknüpft IPlytics dabei Informationen aus mehreren Datenquellen, die täglich aktualisiert werden.

Der Algorithmus befähigt dazu, große Datenmengen aufzubauen, diese in einer Datencloud zu speichern, zu verknüpfen und so zu verarbeiten, dass ein Nutzer auf die für ihn relevanten Informationen unkompliziert mit wenigen Klicks zugreifen kann. Über visuell dargestellte Verknüpfungen der Daten kann ein Nutzer Suchabfragen intuitiv verfeinern, gestalten und auf seine Bedürfnisse fokussieren. Im Anschluss wird ein Monitoringsystem aufgesetzt, das wöchentliche „Alerts“ zu beispielsweise neuen Patentanmeldungen der Wettbewerber, neuen Studien und Forschungsergebnissen im Kernsegment oder relevante Neugründungen oder Investment Deals von Start-ups aufzeigt.

Die IPlytics Platform wird bereits bei vielen Unternehmen als Informationsquelle für Investitionsentscheidungen, für neue F&E&I-(Forschung & Entwicklung & Innovation)-Vorhaben oder für die Überwachung des Wettbewerbs eingesetzt. IPlytics bietet seinen Kunden eine Lösung, um kurzfristig F&E-Kosten zu sparen und langfristig über einen Informationsvorsprung Wettbewerbsvorteile gegenüber Konkurrenten zu sichern. Im Gegensatz zu anderen Lösungen ist der IPlytics-Algorithmus flexibel erweiterbar, um in Zukunft jede Form von Informationen in die Analyse einbinden zu können. Über Web-Scraper werden Daten aus zurzeit über 1.000 öffentlich verfügbaren Quellen tagesaktuell bezogen.

Dr. Tim Pohlmann ist Founder & CEO von IPlytics in Berlin. Nach dem Studium der BWL in Marburg und Kent promovierte Dr. Tim Pohlmann an der TU Berlin in Innovationsökonomie. Während seiner anschließenden Tätigkeiten für die Law and Economics Group of Patents MINES ParisTech, die WIPO, die europäische Kommission und das BM für Wirtschaft und Technologie entstand die Idee zu IPlytics.
Dr. Tim Pohlmann ist Founder & CEO von IPlytics in Berlin. Nach dem Studium der BWL in Marburg und Kent promovierte Dr. Tim Pohlmann an der TU Berlin in Innovationsökonomie. Während seiner anschließenden Tätigkeiten für die Law and Economics Group of Patents MINES ParisTech, die WIPO, die europäische Kommission und das BM für Wirtschaft und Technologie entstand die Idee zu IPlytics.
( Bild: IPlytics )

Dieser Artikel ist ursprünglich in der Ausgabe 2 unseres Magazins "Next Industry" erschienen.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45470296)

Pexels; Pixabay; Quelle: shutterstock.com; Festo; IPlytics; gemeinfrei; fischertechnik; Axians; Medisana/Oliver Eltinger; Vogel Communications Group; Edag