Trend: „Cloud Data Repatriation“ Daten sicher aus der Cloud zurückführen

Autor / Redakteur: Florian Malecki* / Dr. Jürgen Ehneß

Einige Unternehmen wollen zumindest einen Teil ihrer Kerndaten und zentralen Anwendungen zurück aus der Cloud in ihr lokales Rechenzentrum zurückholen. „Cloud Data Repatriation“ nennt sich dieser Trend – und er scheint Fahrt aufzunehmen.

Anbieter zum Thema

Daten aus der Cloud zurück ins eigene Rechenzentrum – aber welche?
Daten aus der Cloud zurück ins eigene Rechenzentrum – aber welche?
(Bild: gemeinfrei / Pixabay )

Laut der US-Analystenfirma IDC haben 80 Prozent der Unternehmen ihre Workloads im vergangenen Jahr repatriiert. Durchschnittlich gehen die Unternehmen sogar davon aus, dass in den nächsten zwei Jahren 50 Prozent der Anwendungen aus der Public Cloud an private oder lokale Hosting-Standorte zurückgegeben werden. Was aber ist der Antrieb für diese überraschende Wendung? In erster Linie ist es sicherlich die Tatsache, dass die Cloud nicht ganz das ist, wofür sie gehypt wurde. In vielen Fällen ist die Datenübertragung in die Cloud schlicht nicht so kostengünstig, sicher oder skalierbar, wie die Unternehmen es ursprünglich erwartet hatten.

Sicherlich bieten Public Clouds ein höheres Maß an Flexibilität, aber sie können überraschend teuer sein, insbesondere wenn es um die Datenspeicherung geht. Hinzu kommt, dass die Cloud für die Übertragung von Edge-Daten, beispielsweise unstrukturierten Daten, wie sie vom Internet of Things (IoT) erzeugt werden, zu langsam und zu teuer ist. Aber gerade die Menge dieser unstrukturierten Daten nimmt mit hoher Geschwindigkeit zu. IDC prognostiziert, dass die Summe der weltweiten Daten von 33 Zettabyte im Jahr 2018 auf 175 Zettabyte im Jahr 2025 ansteigen wird und dass 80 Prozent dieser Daten unstrukturiert sein werden. Das sind Spitzenwerte, und die Unternehmen haben Mühe, mit diesen Entwicklungen Schritt zu halten.

Gerade wenn Unternehmen glauben, sie hätten ihre Daten im Griff, kommen immer mehr Daten dazu, etwa durch E-Mail- und Multimediatelefonnachrichten, Audiodateien, Videodateien, Fotos mit immer höherer Auflösung, Textdateien oder Social-Media-Posts. Darüber hinaus sorgen maschinell generierte Daten und Daten aus IoT-Geräten für eine neue Welle unstrukturierter Daten.

Teurer, als angenommen

All diese unstrukturierten Daten stellen große Anforderungen an Speicher und Sicherheit. Früher, als das Speichern in der Cloud an Bedeutung gewann, dachten viele in den Unternehmen, das Problem wäre gelöst, wenn man den Großteil der Daten in die Cloud verschiebt. Diese Unternehmen stellten jedoch schnell fest, dass die Cloud nicht nur teurer ist, als angenommen, sondern dass es aufgrund potenzieller Latenzzeiten auch manchmal schwer sein kann, an bestimmte Daten heranzukommen.

Die Folge ist der Trend zur Cloud-Rückführung – Cloud Data Repatriation. Immer mehr Unternehmen gehen zu einer hybriden Infrastruktur über, bei der einige Daten und Anwendungen in der Cloud gehalten werden, während andere Daten und Anwendungen an eine lokale Infrastruktur zurückgegeben werden.

Fakt ist auch, dass die Datenmengen in der Cloud völlig unüberschaubar geworden sind. Das bedeutet, dass es in einigen Fällen in Bezug auf Kosten, Sicherheit und Leistung vorteilhaft sein kann, zumindest einen Teil der Unternehmensdaten lokal zu speichern. Für Unternehmen, die ihre Daten aus der Cloud zurückholen wollen, stellt sich dabei die Frage, wo und wie sie gespeichert werden sollen.

Verfügbar und skalierbar

Durch das Aufkommen des Cloud-Data-Repatriation-Trends benötigen Unternehmen heute Datenspeicherlösungen, die ihre Geschäftsdaten schützen und jederzeit und überall verfügbar machen – unabhängig davon, ob sie im Unternehmen, extern oder in der Cloud gespeichert werden. Eine solche Speicherlösung muss hoch skalierbar sein, um mit dem Datenwachstum eines Unternehmens Schritt halten zu können.

Eine zukunftsweisende Speicherlösung ermöglicht es Unternehmen, eine beliebige Anzahl von Laufwerken kostengünstig, jederzeit und in beliebiger Granularität hinzuzufügen, um die wachsenden Speicheranforderungen zu erfüllen – ohne Konfiguration und Ausfallzeiten. Ein ideales Speichersystem bietet zudem Analysemöglichkeiten, die Unternehmen dabei unterstützen, Informationen zu gewichten und zu sehen, welche Daten für das Unternehmen kritisch sind und welche nicht. Dank einer solchen Funktion fällt es Unternehmen leichter zu entscheiden, welche Datensätze in die Cloud verschoben werden können, welche lokal gespeichert werden sollten und welche repatriiert werden müssen. Eine derartige Analyse kann auch grundsätzlich helfen, die zu sichernden Daten zu identifizieren und eine intelligente, abgestufte Datenarchitektur aufzubauen, die einen schnelleren Zugriff auf geschäftskritische Informationen ermöglicht.

Neue Infrastruktur für Datenspeicherung

Die Datenflut erreicht inzwischen epische Ausmaße, und die Unternehmen stellen fest, dass sie doch nicht einfach alles in die Cloud hochladen können. Was sie benötigen, ist eine neue Infrastruktur ihrer Datenspeicherung, damit sie das Datenwachstum bewältigen und gleichzeitig alle unstrukturierten Daten sichern können, egal, wo sich diese befinden. Umso wichtiger ist die Wahl des richtigen Speichersystems, um sich für die neue Realität der Cloud-Rückführung zu wappnen und für Sicherheit zu sorgen. Das richtige Speichersystem sorgt für die nötige Gewissheit, dass auch die zukünftig anfallenden Datenmengen kosteneffizient und sicher verwaltet werden können.

Die gute Nachricht ist, dass die moderne Speichertechnologie all diesen Herausforderungen gewachsen ist. Deshalb kann die richtige Speichertechnologie zu einer Geheimwaffe werden, die für bestmögliche Datenkontrolle sorgt und Risiken ein für alle Mal minimiert.

Dieser Beitrag ist ursprünglich auf unserem Partnerportal Storage-Insider erschienen.

* Florian Malecki arbeitet als International Product Marketing Director bei StorageCraft.

(ID:46277836)