Product Lifecycle Management im Aufwind

Produktdaten werden das Herzstück der Digitalisierung

| Autor / Redakteur: Jürgen Frisch / Ulrike Ostler

(Bild: Pixabay, CC0 Public Domain)

Die digitale Transformation verschafft Lösungen für Product Lifecycle Management (PLM) Aufwind. Der Funktionsumfang der Module nimmt zu. Unternehmen und Hersteller experimentieren mit der Cloud, aber das dominierende Betriebsmodell ist bislang das Inhouse-Rechenzentrum.

„Digitale Modelle werden künftig zum Herzstück der Digitalisierung“, berichtet , Senior Vice President und Managing Director Germany der Siemens Industry Software GmbH unserer Schwesterpublikation Maschinenmarkt. Digitale Modelle existierten nicht nur im CAD-System (Computer Aided Design), sondern in der gesamten Prozesskette hinweg vom PLM-System (Product Lifecycle Management) über das MES-System (Manufacturing Execution System) bis hin zum ERP-System (Enterprise Resource Planning): „Ziel ist es, die Realität möglichst genau und umfassend digital abzubilden. Das digitale Modell bleibt immer aktuell, weil es über den gesamten Lebenszyklus mit Informationen angereichert wird.“

Die Beschreibung des Siemens-Managers wirft ein Schlaglicht auf den sich ändernden Charakter von PLM-Systemen. Noch vor zehn Jahren galten die Begriffe Product Lifecycle Management und Product Data Management (PDM) als Synonyme. PDM-Lösungen waren damals oft nicht viel mehr als ein Repository für Produkt- und Konstruktionsdaten.

„Die Digitalisierung von Unternehmenswissen und dessen Nutzung entlang der Wertschöpfungskette hat schon immer zum Wesenszug von PLM gehört“, erläutert CIMdata-Analyst Stan Przybylinski.
„Die Digitalisierung von Unternehmenswissen und dessen Nutzung entlang der Wertschöpfungskette hat schon immer zum Wesenszug von PLM gehört“, erläutert CIMdata-Analyst Stan Przybylinski. (Bild: CIMdata)

Heute hingegen bezeichnet PLM die Gesamtheit von der Konstruktion über die Verwaltung von Produktdaten bis hin zu Service-Anwendungen, beispielsweise über Fernwartung, sowie die Fertigungssteuerung und Fabriksimulation. „In der Digitalisierung zeigen sich die Stärken von PLM-Systemen“, sagt Stan Przybylinski, Vice President of Research beim amerikanischen Analystenhaus CIMdata. „Man könnte sogar sagen, dass die Digitalisierung von Unternehmenswissen und seine Nutzung entlang der Wettschöpfungskette schon immer zum Wesenszug von PLM-Systemen gehört hat.“

Der Markt für PLM-Systeme

Das Marktvolumen für PLM-Lösungen wächst: „In aller Stille hat sich diese Kategorie zum viertgrößten Bereich von Unternehmenssoftware gemausert“, berichtet Forrester Analyst Nate Fleming. „Mit Lösungen und Dienstleistungen rund um PLM haben die Hersteller im vergangenen Jahr weltweit 17,1 Milliarden Dollar erwirtschaftet.“ Im Rahmen dieses Wachstums hätten sich PLM-Module ebenso wie andere Lösungen für die Produktentwicklung dramatisch verändert und den ehemaligen Fokus einer Silotechnologie hin zu einer kollaborativen Anwendung verschoben, die den gesamten Lebenszyklus eines Produkts umfasst.

Vier Trends verändern Entwicklung und Produktdaten-Management

Auf dem Weg von PLM hin zu einer übergreifenden Lösung, die von der Konstruktion, über die Produktdatenverwaltung bis hin zum Service reicht, beobachtet Fleming vier Trends:

1. Das Produktdaten-Management wird zum Kernstück aller Digitalisierungs-Initiativen

„Die digitale Transformation erfordert unternehmensübergreifende Strategien, welche die Bedürfnisse und die Zufriedenheit der Kunden in den Mittelpunkt stellen“, erklärt der Analyst. Weil sich derartige Projekte niemals an einer einzige Technologie ausrichten könnten, liefere PLM hier keine alleingültige Antwort. Allerdings würden diese Lösungen Unternehmen dabei unterstützen, die, Grundfragen der Digitalisierung anzugehen. Als Beispiele nennt Fleming die Vereinfachung von Geschäftsprozessen, um den Betrieb agiler zu gestalten, die Verkürzung von Produktlebenszyklen sowie das Bestreben, die Produktentwicklung mit einer möglichst guten Kundenerfahrung in Einklang zu bringen.

2. Gemeinsames Management physischer und digitaler Lebenszyklen

Anwendungen und Produkte im Internet der Dinge erreichen sowohl den Endkundenmarkt als auch den Bereich Business to Business. „Unternehmen arbeiten an Produkten, bei denen die physische und die digitale Welt verschmelzen“, erläutert Fleming. „Um dieses Ziel zu erreichen, brauchen sie Lösungen, die eine übergreifend zusammenhängende Entwicklung abbilden.“ Als Beispiel nennt der Analyst eine Lösung des PLM-Herstellers Aras, die in einer Materialliste die mechanischen und elektrischen Komponenten sowie die Software-Bestandteile eines Produkts zusammenführt.

3. Software as a Service legt als Betriebsmodell zu, es ist aber noch kein dominierender Hersteller in Sicht.

Software as a Service habe inzwischen sämtliche Bereiche der Unternehmenssoftware erreicht: „Bei CRM krempelt Salesforce.com den Markt um, bei Finanzlösungen und Personalverwaltungssystemen nehmen Workday und Success Factors den etablierten Anbietern Marktanteile weg“, erläutert Fleming. Auch im Bereich PLM würden Cloud-basierte Mietlösungen Boden gut machen, aber es sei noch völlig offen, welcher Hersteller sich hier durchsetze, indem er beispielsweise die Produktentwicklung mit anderen Geschäftsbereichen eines Unternehmens verknüpfe:

„Möglicherweise gewinnt dieses Rennen ein Hersteller von Legacy-PLM-Produkten, der einen SaaS-Anbieter übernimmt“, argumentiert der Analyst. Andererseits könnte sich auch ein reinrassiger SaaS-Anbieter wie Autodesk durchsetzen. Die dritte Möglichkeit seien SaaS-Spezialisten außerhalb des PLM-Markts, die mit einem PLM-Spezialisten kooperieren. Als Beispiele hierfür nennt Fleming den CRM-Anbieter Salesforce.com und Propel PLM, einen Hersteller von SaaS-PLM-Lösungen.

4. Große Hersteller konzentrieren sich erst auf den Mittelstand und dann erst auf Konzerne

Große PLM-Hersteller waren bislang laut Fleming eher zaghaft bei den Bemühungen, ihre Software als Service auszuliefern. In den vergangenen zwei Jahren hätten sie allerdings begonnen, PLM-Funktionalitäten aus der Cloud anzubieten. Der primäre Zielmarkt seien zunächst mittelständische Unternehmen. „Die PLM-Hersteller sehen zwar, dass auch große Unternehmen ihre Lösungen eines Tages in die Cloud migrieren wollen, aber sie gehen davon aus, dass in den kommenden drei bis fünf Jahren kein durchgreifender Wechsel des Betriebsmodells stattfinden wird.“

Die Cloud löst bestehende Inhouse-Systeme nur langsam ab

PLM-Lösungen sind bis heute eine eherne Bastion des Inhouse-Betriebs. Immerhin sind Produktdaten und Entwicklungsstrategien nicht nur geistiges Eigentum der Unternehmen, sondern sie stellen auch in hohem Maße Wettbewerbsvorteile dar. „Die Vorstellung, künftig sämtliche Daten und Anwendungen in die Cloud zu packen, widerspricht der Political Correctness“, warnt Henrik Klagges, Mitbegründer des Consulting-Hauses TNG Technology Consulting GmbH. „Für besonders schwierig halte ich die Verbindung von Künstlicher Intelligenz und Big Data. Hier rate jedem Unternehmen, gut zu überlegen, welche Daten besser im eigenen Unternehmen verbleiben.“ Soweit die aktuelle Skepsis.

Laut Fleming könnte sich diese Wahrnehmung künftig ändern, wenn Unternehmen beispielsweise bei Lösungen zur Kundenbetreuung die Vorteile der Cloud sehen und zudem erkennen, dass Rechenzentrumsanbieter in Sachen Sicherheit teilweise besser aufgestellt sind als sie selbst. Von Seiten der Hersteller haben laut Fleming zunächst Cloud-Anbieter wie Arena Solutions und Propel PLM das Betriebsmodell Software as a Service favorisiert, während andere Hersteller Teile ihrer Lösung in der Cloud verfügbar machten. In den vergangenen zwölf Monaten hätten sich allerdings auch traditionelle Anbieter wie Dassault Systems, PTC, Siemens und Oracle für die Cloud-Idee erwärmt, weil Unternehmen daran Interesse zeigten.

Einst als Silotechnologie gestartet, hat sich Product Lifecycle Management (PLM) inzwischen zu einer kollaborativen Plattform gemausert, die Konstruktion, Service und Wartung verbindet und den gesamten Lebenszyklus eines Produkts umfasst.
Einst als Silotechnologie gestartet, hat sich Product Lifecycle Management (PLM) inzwischen zu einer kollaborativen Plattform gemausert, die Konstruktion, Service und Wartung verbindet und den gesamten Lebenszyklus eines Produkts umfasst. (Bild: Forrester)

Als größten Vorteil des Cloud-Betriebs nennt Fleming die Zusammenarbeit zwischen Entwicklungspartnern in der Lieferkette. „Software as a Service verspricht die Möglichkeit, dass Entwickler gemeinsam an CAD-Dateien oder Stücklisten arbeiten.“ Generell hält Forrester die Auflösung der Datensilos für die Vorbedingung einer unternehmensübergreifenden und kundenzentrierten Produktentwicklung. Ein weiterer Vorteil sei das bekannte Argument der Skalierung: Cloud-Lösungen ließen sich in einem kleinen Projekt starten und bei Bedarf sehr schnell vergrößern.

Die Bedingung

Diese Flexibilität hat allerdings laut Fleming eine Vorbedingung: das PLM-Produkt sollte sich über einfache Konfiguration anpassen lassen. Das sei bislang oft nicht der Fall: „Da PLM-Lösungen bisher idealerweise die Abläufe in einer großen Anzahl von Branchen unterstützen sollten, waren es oft generische Module, die Unternehmen mit tiefgreifenden Code-Änderungen auf ihre eigenen Bedürfnisse zuschneiden mussten“, berichtet Fleming. „Ein derartiges Customizing ist teuer und erschwert künftige Upgrades.“

„Die Kategorie PLM hat sich in aller Stille zum viertgrößten Bereich von Unternehmenssoftware entwickelt“, rechnet Forrester-Analyst Nate Fleming vor. „Im vergangenen Jahr erwirtschafteten die Anbieter mit den dazugehörigen Lösungen und Dienstleistungen weltweit mehr als 17 Milliarden Dollar.“
„Die Kategorie PLM hat sich in aller Stille zum viertgrößten Bereich von Unternehmenssoftware entwickelt“, rechnet Forrester-Analyst Nate Fleming vor. „Im vergangenen Jahr erwirtschafteten die Anbieter mit den dazugehörigen Lösungen und Dienstleistungen weltweit mehr als 17 Milliarden Dollar.“ (Bild: Forrester)

Als Beleg zitiert der Analyst die Aussage eines Schuhherstellers, der mit einer sechs Jahre alten PLM-Lösung arbeitet, weil ein Upgrade aufgrund der Code-Anpassungen sehr schwierig sei: „Wer unser Problem vermeiden will, sollte soweit wie möglich auf Customizing verzichten.“

Die Integration von SaaS-Modulen als möglicher Stolperstein

Die von Fleming benannten Nachteile Cloud-basierter PLM-Lösungen überraschen nicht: die Integration mit den Inhouse-Systemen könnten sich hakelig gestalten. Spezialisierte SaaS-Lösungen seien zwar aufgrund ihres idealerweise geringen Anteils an Customizing einfacher zu integrieren als die klassischen Inhouse-Lösungen, dennoch sollten IT und Fachabteilung bei der Implementierung eng kooperieren und stets die gesamte Systemlandschaft im Blick haben. Zu Problemen könne es beispielsweise kommen, wenn im Unternehmen bereits mehrere fragmentierte SaaS-Module implementiert seien oder wenn die Integration der vorhandenen Module technologisch stark voneinander abweiche.

Um die beschriebenen Probleme zu vermeiden, implementierten manche Unternehmen SaaS-Cloud-Lösungen in einer Inhouse-Cloud. Zu dieser Variante würden einige Hersteller von SaaS-Applikationen raten, um den Übergang von Inhouse- zu Cloud-Systemen zu glätten. In derartigen so genannten Single-Tenant-Clouds betreiben Unternehmen die Anwendungen hinter ihrer eigenen Firewall. Das lindert laut Fleming Bedenken in Sachen Datenschutz. Unternehmen sollten dabei allerdings beachten, dass Single-Tenant-Lösungen das Potenzial in Sachen unternehmensübergreifende Zusammenarbeit, schnellere Einführung und Kostensenkung möglicherweise weniger gut ausschöpfen als Implementierungen in der Public Cloud.

Erleichterte Kollaboration versus Datenschutz

Auch Gartner-Analystin Janet Suleski beobachtet ein steigendes Interesse der Unternehmen an Cloud-basierten PLM-Lösungen. Befeuert werde dieses Interesse durch den Hybrid-Ansatz einiger Hersteller, die neue Funktionalitäten in der Cloud verfügbar machten und gleichzeitig die bisherigen Inhouse-Systeme pflegten. Eine Hürde bei Cloud-Implementierungen stellt laut Suleski die Datensicherheit dar.

Um die unternehmensübergreifende Zusammenarbeit zu modellieren, sollten sich IT-Architekten aus der gesamten Wertschöpfungskette zusammensetzen und dabei auch Partner ohne eigenen Unternehmenssitz sowie reisende Kundenbetreuer einbeziehen“, rät Gartner-Amnalystin Janet Suleski.
Um die unternehmensübergreifende Zusammenarbeit zu modellieren, sollten sich IT-Architekten aus der gesamten Wertschöpfungskette zusammensetzen und dabei auch Partner ohne eigenen Unternehmenssitz sowie reisende Kundenbetreuer einbeziehen“, rät Gartner-Amnalystin Janet Suleski. (Bild: Gartner)

„Unternehmen sollten sich um die Datensicherheit kümmern, es aber nicht zulassen, dass diese eine Cloud-Implementierung generell verhindert“, rät die Analystin. Wie Untersuchungen zeigten, würden Service Provider aufgrund ihrer stärkeren Datenverschlüsselung Firmengeheimnisse teilweise besser schützen als unternehmenseigene Rechenzentren.

Um Möglichkeiten für eine unternehmensübergreifende Zusammenarbeit zu modellieren, sollten sich laut Suleski IT-Architekten aus der gesamten Wertschöpfungskette zusammensetzen und dabei Partner ohne zentralen Unternehmenssitz ebenso einbeziehen wie Kundenbetreuer, die häufig auf Reisen sind. Unternehmen, die sich für Cloud-basierte PLM-Lösungen interessieren, sollten im ersten Schritt Kollaborationslösungen für Entwickler implementieren, um Erfahrungen zu sammeln.

Für das Internet of Things fehlen noch die Geschäftsmodelle

CIMdata-Analyst Przybylinski verweist auf eine kommende Erweiterung von PLM-Anwendungen, die sich unabhängig vom Betriebsmodell ergibt: die Koppelung mit dem Internet of Things, also der intelligenten Vernetzung von Alltagsgegenständen sowie von Maschinen und Werkstücken in der Produktion. Die Anwendungsfälle dafür müssten sich erst entwickeln.

Viele Hersteller würden ihre Produkte zwar inzwischen mit Sensoren ausstatten, aber es gebe nur wenige Ideen, wie sich mit diesen Informationen die Produkte verbessern lassen. „Wenn ein Unternehmen seine Produkte smart machen will, besteht der einfachste Schritt darin, sie mit Sensoren und mit Kommunikationstechnologie auszustatten“, erläutert Przybylinski. „Viel schwieriger ist es, die Produkte tatsächlich weiter zu entwickeln. Unternehmen, welche die mit den IoT-Daten neuartige Businessmodelle entwickeln wollen, brauchen dafür die Unterstützung eines kompetenten Systemintegrators.“

Datenqualität so lästig wie immer, so wichtig wie nie

Carsten Kraus Gründer und CEO des Datenqualitätsspezialisten Omikron verweist auf eine Hürde, die das PLM mit der Disziplin Business Intelligence gemeinsam hat: unvollständige oder doppelt vorhandene Datensätze mit teilweise widersprüchlichen Informationen. „Doppelte Datensätze sind auch in Produktstammdaten ein weitverbreitetes Phänomen. Meist schleichen sie sich Dubletten ein, weil zuvor getrennte Datenbestände zusammengelegt werden, beispielsweise wenn ein Unternehmen einen Mitbewerber übernimmt oder Daten aus verschiedenen Werken oder Konstruktionsabteilungen konsolidiert.“

„Um die Qualiät der Einträge in Produkt und Materialdatenbanken zu verbessern, nutzen wir Algorithmen, die Informationen aus unstrukturierten Beschreibungstexten extrahieren“, berichtet Carsten Kraus, CEO des Datenqualitätsspezialisten Omikron.
„Um die Qualiät der Einträge in Produkt und Materialdatenbanken zu verbessern, nutzen wir Algorithmen, die Informationen aus unstrukturierten Beschreibungstexten extrahieren“, berichtet Carsten Kraus, CEO des Datenqualitätsspezialisten Omikron. (Bild: Omikron)

Die Anforderungen an Produktdaten sind anders als bei Adressdaten, wie Kraus an einem Beispiel ausführt: ‚Glühbirne 50 Watt, Glühbirne 40 Watt und Glühb. 50W‘: „Die erste und die dritte Nennung bezeichnen das Gleiche, Nennung weicht ab. Für uns Menschen eindeutig, für Computer nicht, denn die zweite Nennung unterscheidet sich nur in einem einzigen Zeichen von der ersten, während die dritte insgesamt acht Abweichungen enthält.“

Software für Adressdubletten wie beispielsweise Omikron Data Quality Server können diese Hürde nicht gut genug überwinden. Omikron habe daher vor einigen Jahren begonnen, spezielle Algorithmen für Produkt- und Materialdatenbanken zu entwickeln. Neben der Dublettenprüfung seien deren wichtigste Funktionen die Normalisierung, die Klassifizierung sowie die Feature-Extraktion, also das Ermitteln strukturierter Informationen aus unstrukturierten Beschreibungstexten heraus. Das Ziel seien eindeutige und vollständige Datensätze, auch Single Version of the Truth genannt.

Dieser Beitrag ist auf unserem Partnerportal DataCenter-Insider erschienen.

* Jürgen Frisch ist freier IT-Journalist und lebt in Stuttgart.

Jürgen Frisch
Über den Autor

Jürgen Frisch

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44527068 / Industrie 4.0 und IIC)