Digitale Verschmelzung Konvergenz von OT & IT: Warum Integration wieder sexy ist

Autor / Redakteur: Ulrich Hatzinger & Alessandro Chimera* / Sebastian Human

Industrie 4.0, Multi-Cloud, Data Fabric – wir greifen nach den Sternen. Doch wenn wir die Bodenhaftung verlieren, bleibt der Traum ein Traum. Eine erfolgreiche, durchgängige Integration kann hier helfen. Wie sieht das aus und was hat eine goldene Schnur damit zu tun?

Firmen zum Thema

Die Verschmelzung von OT und IT ist real und das Thema Integration aktueller denn je.
Die Verschmelzung von OT und IT ist real und das Thema Integration aktueller denn je.
(Bild: gemeinfrei / Unsplash)

In den vergangenen Jahren sind hier auf Erden wegweisende technologische Entwicklungen erfolgt. Lang ersehnte Ziele wie die Konvergenz von IT und OT sind auf einmal möglich und machen vermeintliche Legacy-Themen wie Integration wieder attraktiv.

Speziell Fertigungsunternehmen können ein Lied davon singen. Seit Jahren schon möchten sie den Bereich der operativen Technologie, der ihre Fertigungsstraßen, Maschinen und Anlagen bestimmt und steuert, nahtlos mit der Unternehmens-IT verbinden, sodass durchgängige Informationsflüsse und Prozessketten entstehen und ein zentrales Management endlich Wirklichkeit wird. Nicht zuletzt seit dieser Wunsch mit den Termini Industrie 4.0 oder Internet der Dinge (IoT) einen Namen bekommen hat, setzen die Unternehmen sich selbst unter Druck, um die in dieser Verbindung schlummernden Produktivitätspotenziale zu heben.

Typische Herausforderungen auf einen Blick

Dabei stoßen sie immer wieder auf dieselben Probleme und Herausforderungen:

  • Um IoT-Daten überhaupt analysieren zu können, müssen sie erst einmal integriert werden, da sie aus vielen verschiedenen Quellen stammen. Dazu zählen unter anderem Datenbanken für Zeitreihen, in denen Sensordaten gespeichert sind, oder Asset-Management- und Stammdatenmanagementsysteme, in denen die zu den Daten gehörenden Kontextinformationen abgelegt sind.
  • Hinzu kommt, dass IoT-Daten oftmals nicht aufeinander abgestimmt sind. Der eine Sensor misst jede Millisekunde einen Wert, während das bei einem anderen Sensor nur alle 30 Millisekunden der Fall ist. Solche unterschiedlichen Daten müssen für die Analyse erst aufbereitet werden. Das bedeutet einen entsprechenden Aufwand.
  • Es ist allgemein bekannt, dass IoT-Geräte sehr große Datenmengen erzeugen. Vor diesem Hintergrund ist es einfach nicht effizient, IoT-Rohdaten, die zudem nicht aufeinander abgestimmt sind, zu speichern. Unter dem Gesichtspunkt der Effizienz sollten IoT-Daten dementsprechend in Systemen vorgehalten werden, die für die Speicherung von Zeitreihendaten optimiert sind.
    Die Menge der Daten in der Welt von Industrie 4.0 und IoT droht in der Tat so sehr anzuwachsen, dass die Unternehmen lernen müssen, mit Daten umzugehen, die nur teilweise oder gar nicht aufbewahrt werden und im laufenden Prozess den relevanten Applikationen und Services zur Ad-hoc-Verarbeitung und -Analyse zur Verfügung gestellt werden.
  • Doch die schieren Datenmengen führen noch zu einem weiteren Problem – das der Komplexität. Diese Komplexität bringt den traditionellen Ansatz, Daten zu Analysezwecken in einen Data Store zu schreiben, an seine Grenze. Moderne Analyselösungen sollten daher diesen Ansatz nicht mehr voraussetzen.
  • Probleme mit der Datenqualität wie Ausreißer nach oben oder unten, Abweichungen, fehlende Datenpunkte oder veraltete Daten beeinträchtigen oder verfälschen Analyseergebnisse, sodass sie ihre Aussagekraft verlieren und eher schaden als nützen, wenn sie zur Grundlage von Entscheidungen und Maßnahmen gemacht werden. Ungültige Datensätze sollten sich deshalb erkennen und aussortieren lassen.
  • Traditionelle BI (Business Intelligence) hat den Nachteil, dass sie erst mit Verzögerung Ergebnisse liefert und deshalb nicht im Tagesgeschäft genutzt werden kann. Die Unternehmen brauchen daher Technologien und Ansätze, mit deren Hilfe Visualisierungen, Analysen oder Warnungen in Echtzeit funktionieren. Dies ist die Voraussetzung dafür, dass Betriebsteams Vorfälle und Probleme unmittelbar erkennen und beheben können.
  • Die Unternehmen stellen immer wieder fest, dass die Effizienz von Betriebsprozessen nicht nur von der Arbeit des Betriebsteams abhängt. Dabei handelt es sich vielmehr um eine Aufgabe, die alle Mitarbeiter betrifft. Daher kommt es darauf an, ihnen die Prozesseffizienz transparent zu machen, zum Beispiel in Form von Echtzeit-Kennzahlen und einem positiven Anreizsystem, das ein effizienzorientiertes Verhalten belohnt.
  • Alle diese Herausforderungen sind nur dann zu meistern, wenn System-, Applikations-, Abteilungs- und Prozessgrenzen überwunden werden. Dies setzt vor allem eines voraus: Integration. Sie ist die Basis, damit die nahtlose Verbindung von IT und OT überhaupt gelingen kann. Lange Zeit standen diesem Integrationsziel proprietäre Protokolle auf OT-Seite im Wege. Mit der Standardisierung in Richtung IP-Protokolle in den letzten Jahren wurden jedoch die wichtigsten Hürden in Richtung unternehmensweite Digitalisierung aus dem Weg geräumt, die sich durch alle Bereiche einschließlich Produktion hindurchzieht. Gleichzeitig erwächst aus der Möglichkeit einer durchgängigen Integration eine neue Herausforderung: die des erhöhten Integrationsaufwands, den die Unternehmen möglichst effizient bewältigen müssen.

Mehr Kopplung, mehr Flexibilität, mehr APIs

Moderne Applikationen, die für das digitale Unternehmen geschrieben werden, unterscheiden sich deutlich von traditionellen Anwendungen. Sie gleichen eher einer flexiblen und dynamisch änderbaren Kombination von lose gekoppelten Funktionalitäten. Einige davon entwickeln die Unternehmen selbst, andere kaufen sie von Dritten hinzu, ob in der Cloud oder von Partnern und Lieferanten. Auch die Daten stammen oft sowohl aus internen als auch externen Quellen.

Um solche Anwendungen effektiv zu betreiben und zu managen, bedarf es einer Art „Goldener Schnur“. Diese muss sich durch das gesamte Unternehmen ziehen. Sie muss nicht nur die Funktionalitäten, sondern auch die intelligenten Geräte am Netzwerkrand, die verschiedenen Datenquellen und alle anderen Elemente der Verarbeitungsschiene einschließlich Middleware nahtlos miteinander verbinden. Erst dadurch entsteht eine kanalübergreifende Anwendererfahrung, die diesen Namen verdient. An dieser Schnur sind Programmierschnittstellen (APIs) wie Perlen aufgefädelt.

So überträgt das vernetzte Auto der Zukunft zum Beispiel Motor- und Fahrerdaten- sowie Navigationsdaten. Der Austausch mit den sie verarbeitenden Anwendungen erfolgt über bidirektionale APIs. Hinzu kommen in diesem Szenario aber flüchtige Informationsflüsse oder Streaming Data, die in Echtzeit ausgewertet werden müssen, um eventuellen Handlungsbedarf anzuzeigen und entsprechende Maßnahmen auszulösen. Für diese Aufgabe müssen Werkzeuge zum Einsatz kommen, die diese Informationsflüsse auswerten können, ohne sie speichern zu müssen. Nur so bleiben die Lösungen hinsichtlich des Ressourcenbedarfs beherrschbar.

Zwar werden historische Daten gezielt für bestimmte Aufgaben gesammelt, um darin Muster zu finden und mit ihnen ein Modell für maschinelles Lernen (ML) zu trainieren. Doch für die Datenauswertung wird man angesichts der weiter oben aufgelisteten Herausforderungen auf eine vollständige Historie verzichten und die Daten in einem bestimmten Zeitfenster, das Tage, Wochen oder Monate umfassen kann, bereitstellen. Auch diese Daten müssen sich den Analyseanwendungen als API oder virtuelle Datenbank zur Verfügung stellen lassen.

Ein weiteres Phänomen, das sich in den zurückliegenden Jahren im Integrationsumfeld etabliert und jüngst durch den pandemiebedingten Zuwachs an Telearbeitsplätzen und E-Commerce-Umsätzen noch einmal stark zugelegt hat, sind Microservices-Architekturen, die Daten ebenfalls über REST-APIs (Representational State Transfer Application Programming Interfaces) zur Verfügung stellen. Konzeptionell mit serviceorientierten Architekturen verwandt, kann man mittels Microservices High-Speed-Messaging mit feingranularen Diensten kombinieren. Dadurch ist es möglich, Daten aus Quellen im Backend mit einer hohen Performanz und ohne Skalierungsprobleme auf mobilen Endgeräten auszuliefern.

Ob klassische Applikationen, granulare Funktionsbausteine in Form von Microservices oder schlicht die Daten selbst – die Anzahl der benötigten APIs im digitalen Unternehmen steigt massiv. Damit stellt sich unmittelbar die Frage nach dem Management, das mit der steigenden Quantität und der damit einhergehenden Komplexität effizient und effektiv umzugehen vermag. Denn Daten und Geschäftsfunktionalität mittels Programmierschnittstellen bereitzustellen, bedeutet stets auch ein Risiko – insbesondere des unerlaubten Zugriffs, des unbeabsichtigten Verlustes oder gar des Diebstahls von Informationen. APIs müssen deshalb in der ungleich vernetzteren Welt von heute noch mehr als in der Vergangenheit sauber verwaltet, dokumentiert, versioniert, gesichert und skaliert werden.

APIs: Lebenszyklus und Entwickler gleichermaßen unterstützen

Der beste Weg, diese Herausforderung anzunehmen, besteht darin, APIs nicht mehr nur als Hilfsmittel anzusehen, sondern von ihrer Bedeutung her als Produkte einzustufen und die Nutzer der Schnittstellen als Kunden zu begreifen. Entsprechend umfassend muss der Funktionsumfang einer geeigneten API-Managementlösung sein, mit der sich nicht nur der komplette Lebenszyklus von Schnittstellen verwalten lässt, sondern auch die Aufgaben der Entwickler unterstützt und vollumfänglich abgebildet werden.

Dies ist umso nötiger, als die Nutzer der mittels Schnittstellen bereitgestellten Daten und Funktionen aufgrund der immer schnelleren und häufigeren Veränderungen der geschäftlichen Anforderungen von ihren IT-Kollegen immer kürzere Entwicklungs- und Lieferzeiten erwarten.

On-premises, in der Cloud und am Edge – SaaS-Anwendungen, Datenbanken, flüchtige Datenströme und bekannte Geschäftsanwendungen wie ERP, CRM, Logistik- und Marketingsysteme müssen heute nahtlos über verschiedenste Umgebungen hinweg miteinander integriert werden – und das immer wieder aufs Neue.

Mit den eben skizzierten gestiegenen Anforderungen und Erwartungen aber kommen klassische Ansätze und Tools für das Management von APIs an ihre Grenzen. Um die dadurch drohenden Compliance-, Qualitäts-, Produktivitäts- und Innovationsengpässe zu vermeiden, ist deshalb ein neuer Ansatz erforderlich, der die Neuentwicklungen der vergangenen Jahre hinsichtlich Datenzugriff und Entwicklung von Geschäftsfunktionalität mitberücksichtigt.

Integration und Daten als Service

Vor diesem Hintergrund erweist sich eine Kombination aus Integration-Platform-as-a-Service-Angeboten (iPaaS) und Datenvirtualisierung als geeignet. Die Kombination ist notwendig, weil das digitale Unternehmen auf den Zugriff auf alle seine Daten angewiesen ist, ein allumfassender zentraler Data Store aufgrund der vielen neuen Datenquellen inklusive Streaming Data und ihrer Dynamik im Tagesgeschäft jedoch nicht mehr die beste Lösung darstellt. Als heute praktikableres Pendant schafft Datenvirtualisierung einen virtuellen Data Store. Dazu müssen die Daten jedoch nicht mehr wie bisher von ihren bisherigen Silos an einen zentralen Ort bewegt und dabei auch noch aufwändig transformiert werden. Bestehende Data Stores sind aus Sicht der Datenvirtualisierung nur eine weitere Datenquelle. Das Problem des allumfassenden Datenzugriffs im digitalen Unternehmen lässt sich dadurch auf bequeme Art und Weise lösen. Die Datenbereitstellung wird zum Service.

Auf dieser Basis kann eine moderne, Cloud-basierte Integrationsplattform ebenfalls als Service ihr volles Potenzial entfalten. Nötig ist dafür allerdings zum einen, dass sämtliche Funktionen vom API-Design bis zur Löschung Teil der Plattform sind, also der gesamte Lebenszyklus der Schnittstellen unterstützt und abgebildet wird. Zum anderen muss eine solche Plattform die Produktivität schon beim Design steigern helfen. Das gelingt insbesondere durch einen Low-Code-Ansatz, durch den die Entwickler die Geschäftslogik im Browser per Drag-and-Drop auf visueller Basis oberhalb der Code-Ebene flexibel zusammenstellen und dynamisch ändern können. Das gibt im Idealfall sogar dem speziell geschulten Fachanwender, dem Citizen Integrator, die Möglichkeit, Schnittstellen zu bauen.

Darüber hinaus muss Offenheit das Kennzeichen einer solchen Plattform sein. Das heißt insbesondere, dass sie nicht nur bei ihrem Hersteller, sondern auch auf den Standard-Container-Services der Hyperscaler AWS EKS, MS Azure AKS oder in der privaten Cloud der Unternehmen läuft. Ferner muss sie den Kunden den Zugriff auf ihre Anwendungen und Daten unabhängig davon ermöglichen, wo sie erstellt wurden – ob vor Ort, in der Cloud, über iPaaS, in Containern, serverlos oder von IoT-Geräten aus. Zudem gehört die Interoperabilität zu quelloffenen Funktionen zu dieser Offenheit. Und schließlich muss eine solche Plattform offen gegenüber der Zukunft sein, zum Beispiel durch einen auf maschinellem Lernen basierenden und hochproduktiven visuellen Fluss-Editor, der Excel-ähnliche Datentransformationen mit intelligenten Mapping-Empfehlungen ermöglicht. Oder durch Analytics-Funktionalitäten, um Kennzahlen in Unternehmensprozesse einbinden zu können, und Event-Processing, um Regelwerke als Grundlage für Entscheidungen verwenden zu können.

Zukunftstechnologie für das digitale Unternehmen

OT und IT sind nicht länger voneinander getrennte Bereiche. Das gilt nicht nur für die Fertigungsindustrie, sondern für alle Branchen, die immer mehr Daten aus unterschiedlichen Quellen verarbeiten und analysieren und umgekehrt immer mehr Nutzergruppen innerhalb und außerhalb der Unternehmensgrenzen Funktionalitäten zur Verfügung stellen müssen. Das stellt völlig neue Anforderungen an die Integration von Daten und Geschäftslogik über APIs. Um sie zu erfüllen, ist eine neue Generation von Plattformen notwendig, die Integration, API-Lebenszyklusmanagement und Datenzugriff als Service bereitstellen. All diese Entwicklungen machen das leicht angestaubte Thema Integration wieder sexy und zu einer Zukunftstechnologie für das digitale Unternehmen.

* Ulrich Hatzinger arbeitet als Manager Technical Solutions Consultants - Central Europe bei Tibco Software. Alessandro Chimera ist Director Digitalisation Strategy bei Tibco Software.

(ID:47573647)