Interview Jürgen Hamm, Netapp „Die Microservices-Ära hat begonnen“

Das Gespräch führte Sebastian Human

Anbieter zum Thema

Für viele Unternehmen liegt der Reiz der Industrie 4.0 auch darin, neue datenbasierte Geschäftsmodelle zu entwickeln. Wie kann sowas aussehen? Wie bringt man IT und OT zusammen? Wie kommen IoT-Daten in SAP? Diese und weitere Fragen beantwortet unser Interviewpartner.

Man kann vor Gräben haltmachen, man kann sie aber auch überwinden, berichtet Solution Architect SAP & IoT Jürgen Hamm im Interview.
Man kann vor Gräben haltmachen, man kann sie aber auch überwinden, berichtet Solution Architect SAP & IoT Jürgen Hamm im Interview.
(Bild: gemeinfrei/Netapp / Pixabay)

Der Grundgedanke des Industrie 4.0-Zeitalters ist die vollumfängliche Vernetzung. Doch nur allzu oft scheitert diese noch immer am Graben zwischen IT und OT. Dabei ist es durchaus möglich, diesen zu überwinden. Wir haben mit Jürgen Hamm, Solution Architect SAP & IoT bei Netapp, unter anderem darüber gesprochen, wie Anwendungs- und Sensordaten aus der Fertigung mit den Daten und Unternehmensanwendungen zusammenfinden.

Herr Hamm, im Rahmen der Hannover Messe haben Sie gezeigt, wie auf Datenbasis neue digitale Geschäftsmodelle, Produkte und Services entwickelt werden. Können Sie speziell zu den Geschäftsmodellen mal noch etwas tiefer einsteigen und eventuell. ein, zwei erfolgreiche Praxisbeispiele liefern?

Das Thema Datenanalyse im IoT-Umfeld macht gerade den Sprung von Forschungsprojekten und Teststellungen im Rahmen von Proofs-of-Concept in die Praxis. Predictive Maintenance, also die smarte Instandhaltung ohne feste Wartungszyklen, ist ein häufiges Einstiegsszenario. In Kooperation mit der Bundeswehr-Universität arbeiten wir beispielsweise an einem Brückenprojekt in der Nähe von Mühldorf. Die Erfahrungen, die hier aktuell gewonnen werden, fließen in die Entwicklung von Algorithmen ein, die eine bedarfsgerechte Wartung von Brücken und anderen Bauwerken ermöglichen.

Ein anderes Projekt, dass wir aktuell mit einem internationalen Automobilzulieferer durchführen, betrachtet die virtuelle Inbetriebnahme von Produktionslinienerweiterungen. Im Manufacturing-Umfeld ist es sehr schwierig, Produktionsänderungen im laufenden Betrieb zu planen und umzusetzen. Das geht von der Entwicklung der Prototypen über den Umbau der Fertigungsprozesse bis hin zu den Auswirkungen auf die Lieferkette. Pro Monat können solche Produktionsänderungen in vierstelliger Zahl anfallen. Dadurch entsteht eine enorme Komplexität. Auf Basis digitaler Daten lässt sich jedoch der gesamte Prozess vorab abbilden und die Prozessreife testen. Mit Hilfe von digitalen Zwillingen der bestehenden Anlage und der benötigten Erweiterung ist es möglich, die Zeit bis zur Inbetriebnahme deutlich zu verkürzen und eventuell notwendige Anpassungen an der Erweiterung bereits beim Lieferanten oder Anlagenbauer zu erkennen und vorzunehmen.

Der nächste Schritt ist dann ein ganzheitlicher Manufacturing Marketplace auf Cloud-Basis. Sprich, Kunden definieren ihre Produktionsanforderungen auf einem internationalen Portal. Die Systematik dahinter kennt die Auslastung, Fertigungstiefe, Rohstoff- und Lieferkette sowie alle anderen relevanten Kenngrößen der teilnehmenden Betriebe. Der Kunde kann dann den Auftrag an den günstigsten – oder aber auch nachhaltigsten oder schnellsten – Anbieter im Pool vergeben. An solchen Szenarien wird im Rahmen von GAIA-X oder Catena-X gearbeitet.

Um solche Erfolge zu verwirklichen, muss aus Ihrer Sicht die Lücke zwischen Produktion und Business-IT geschlossen werden. Wie geht das am effizientesten?

Die Technik ist interessanterweise nicht die größte Herausforderung. Die Hürden liegen im Bereich der betrieblichen Organisation und bei der Kommunikation zwischen den Verantwortlichen für IT und OT. Wenn Enterprise-Applikationen und Produktion zusammenwachsen sollen, müssen unterschiedliche Teams zusammenarbeiten und gemeinsam komplexe Probleme lösen. Dabei geht es beispielsweise um die Containerisierung von alten Systemen oder auch um die IT-Sicherheit von Altanlagen, die bisher nicht vernetzt waren.

Im Cloud-First-Zeitalter müssen die unterschiedlichen Datenflüsse – zunächst betriebsintern, aber langfristig auch zwischen Herstellern, Zulieferern, Partnern und Kunden – zusammenspielen. All das ist hochkomplex. Der effizienteste Weg zum Erfolg ist deshalb tatsächlich intensiver Austausch der Beteiligten im Rahmen einer gemeinsamen Strategie für IT/OT-Konvergenz. Die Strategie muss von der Unternehmensführung gemeinsam mit den Beteiligten entwickelt und die notwendigen Ressourcen zur Umsetzung müssen bereitgestellt werden. Dann geht es an die Vorbereitung der beteiligten Mitarbeiter auf die neuen Aufgaben durch Weiterbildung oder Ausbildung.

Welche Rolle spielt dabei das Betriebssystem BaSyx, das aus der Forschung des Fraunhofer-Instituts für Experimentelles Software Engineering IESE gemeinsam mit Industrie- und Forschungspartnern hervorging?

BaSyx deckt die technischen Anforderungen im Bereich IT/OT-Konvergenz umfassend ab. Auf dieser Grundlage entstehen innovative Strategien für die Digitalisierung im Produktionsumfeld bis hin zu konkreten Transformationsprojekten. Am Ende steht zum Beispiel die wandelbare Produktion mit minimalen Losgrößen. Mit Hilfe von BaSyx entstehen auch digitale Zwillinge oder Verwaltungsschalen, um komplexe Produktionsentscheidungen durch digitale Simulation zu vereinfachen. BaSyx erlaubt je nach Bedarf die Integration unterschiedlicher Maschinen, Standards, Protokolle und Datenquellen. So werden die beschriebenen neuen Geschäftsmodelle im Umfeld bestehender Anlagen erst möglich.

Sie verfolgen mit BaSys – BaSyx ist die Softwarearchitektur, BaSys ist das Projekt zur Entwicklung der Software – das Ziel, einen Standard für die Maschine-zu-Maschine-Kommunikation zu etablieren. Wie stellen Sie sich das genau vor?

Hier muss ein wenig abgegrenzt werden: BaSyx ist kein Kommunikationsstandard. Es ändert oder ersetzt beispielsweise keine bestehenden Protokolle. Vielmehr arbeitet es mittels der einheitlichen, standardisierten Schnittstelle und dem Datenmodell der Verwaltungsschale wie ein zwischengeschalteter Übersetzer. In der Praxis ermöglicht BaSyx die Kommunikation zwischen proprietären Geräten verschiedener Hersteller, zum Beispiel der speicherprogrammierbaren Steuerung einer Maschine von Siemens, und über die Schichten der Automatisierungspyramide hinweg. So entsteht ein vernetzter Maschinenpool mit digitalem Informations- und Befehlsfluss in beide Richtungen.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Soweit ich weiß, soll damit unter anderem auch die Integration von IoT-Daten in SAP gelingen. Wie funktioniert das für die Anwenderinnen und Anwender konkret?

Die SAP-Welt ist unglaublich vielfältig. Entsprechend müssen verschiedene Applikationen und Anwendungsszenarien unterschieden werden – je nach SAP-Technologie, die zum Einsatz kommt. Das Prinzip ist: Die über Verwaltungsschalen im Rahmen von BaSyx standardisierten und mit Metadaten versehenen Daten werden in einem Objektdatenspeicher abgelegt. Digitale Daten aus unterschiedlichen Quellen, zum Beispiel Sensorik, können mittels entsprechender Metadaten zur weiteren Verarbeitung leicht neu kombiniert und über die Standardschnittstellen sowohl lokalen als auch cloudbasierten SAP-Anwendungen bereitgestellt werden.

Was ist neben Containertechnologie und dem Netapp Objektspeicher in der Referenzarchitektur für BaSyx noch wichtig?

Die Microservices-Ära hat begonnen. Sie stehen bei fast allen unseren Kunden ganz oben auf der Agenda. Deshalb ist eine konsistente Datensicherung wichtig: BaSyx ist eine containerisierte Applikation und benötigt als solche zwingend persistente Datensicherung, um bei Ausfall oder Neustart der Container einen Datenverlust auszuschließen. Wichtig ist auch das Cloning von Containern für Test/Dev, also Entwicklungsumgebungen oder digitale Zwillinge. All das muss unter Berücksichtigung der Cloud-Strategie aufgesetzt werden.

Je nach Anwendungsfall müssen die Daten bereits nahe am Entstehungsort vorverarbeitet werden. Das heißt, die notwendige Infrastruktur zur Vorverarbeitung oder zum Transport der Daten in das lokale Rechenzentrum oder die Cloud muss bereitgestellt werden. Auch Ausfall- und Wiederherstellungsszenarien – zum Beispiel im Rahmen von Hardwarenachrüstungen – müssen dabei anwendungsspezifisch betrachtet werden. Die Sicherung der Daten in lokalen oder zentralen Zwischenspeichern ist die Voraussetzung für den unterbrechungsfreien Betrieb oder das automatisierte und kontrollierte Hochfahren nach einer Störung. Diese Herausforderung wächst ständig, da sowohl Datenübertragungsraten als auch Datenproduktionsraten weiter steigen.

Zu guter Letzt müssen wir den Bereich Künstliche Intelligenz beziehungsweise Machine Learning betrachten. Die Projektreife ist hier im Firmenumfeld oftmals noch jung und dreht sich um Proofs of Concept oder erste Einzellösungen. Trotzdem sind digitale Daten die Grundlage dieser und kommender KI-Projekte – die IT-Strategie im produzierenden Gewerbe muss das abbilden können.

Wie wollen Sie die von Ihnen in Aussicht gestellte Hochverfügbarkeit und Persistenz in Containern realisieren?

Das Problem haben wir mit unserem Astra-Produktportfolio tatsächlich schon gelöst. Netapp Astra verwaltet Applikationsdaten für Kubernetes und liefert Storage für Cloud-native- und On-Premises-Anwendungen. Die Open-Source-Software Astra Trident beispielsweise stellt sogenannte Persistent Volumes für Kubernetes-Applikationen bereit. Alle diese Informationen lassen sich per Snapshot sichern und dann wiederum für vielfältige Anwendungen bereitstellen, darunter Teststellungen, Entwicklungsumgebungen, Datenschutz und -wiederherstellung sowie Cloud-Integration, um nur einige zu nennen.

Danke für diese Einblicke!

(ID:48531367)