Nicht selten bleibt man an traditionellen Prinzipien, die sich in der Vergangenheit als zuverlässig erwiesen haben, standhaft hängen. Das gilt auch bei der Gestaltung neuer Datenarchitekturen, wie Otto Neuer, Regional VP Sales bei Denodo, weiß. Dabei stehen physische Datenspeicher weiterhin im Mittelpunkt, in denen Daten wiederholt und in überzähliger Menge gespeichert werden – Doch das ist nicht zeitgemäß.
Warum wir uns von traditionellen Datenarchitekturen verabschieden müssen
Im Laufe der Zeit wurden neue Formen der Datenspeicher eingeführt, wie Data Lakes, Data Hubs und Data Lake Houses. Wenn einer Architektur beispielsweise Data Lakes hinzugefügt werden, ist es durchaus üblich, nicht einen, sondern eine ganze Reihe von Datenspeichern einzuführen, die als „Zones“ oder „Tiers“ bezeichnet werden. Der Einsatz mehrerer Depots bedeutet aber, dass viele Abfragen entwickelt, gepflegt und verwaltet werden müssen, um Daten zwischen den einzelnen Aufbewahrungsorten zu kopieren.
„Datengestütztes Vorgehen“ und „digitale Transformation“ – Unternehmen profitieren von der Vielseitigkeit in der Datennutzung und unterstützen auch neu aufkommende Formen: von den einfachsten bis hin zu komplexeren und anspruchsvolleren. Nach einer Begutachtung ihrer derzeitigen IuK-Systeme haben die meisten Unternehmen festgestellt, dass diese die neuen Formen der Datennutzung nicht adäquat unterstützen. Es ist also Zeit für eine neue Datenarchitektur.
Jenseits der Legacy-Design-Prinzipien denken
Datenverwaltungsinfrastrukturen, welche auf einer Architektur mit redundanter Datenhaltung basieren, werden auch heute noch implementiert. Doch sollte es nicht vielmehr das Ziel sein, Datenspeicher, Datenredundanz und Datenkopiervorgänge zu minimieren?
Denn durch datenspeicherzentriertes Vorgehen ergeben sich viele Probleme:
- Je öfter Daten physisch kopiert werden, desto höher ist die Datenlatenz.
- Mit jeder Replizierung leidet die Datenqualität.
- Zeitaufwändige Verwaltung physischer Datenbanken, was zu unflexiblen Datenarchitekturen führt.
- Laut DSGVO sollen personenbezogene Daten erst gar nicht redundant in mehreren Datenbanken gehalten werden.
- Fehlende Architektur-Transparenz führt zu Ergebnissen, denen Geschäftskunden weniger vertrauen.
Moderne Datenarchitekturen sollten zum einen flexibel, erweiterbar und skalierbar sein. Zum anderen sollten sie eine niedrige Datenlatenz mit der bestmöglichen Datenqualität bieten, höchst vertrauenswürdige Ergebnisse liefern und die Einhaltung der DSGVO und vergleichbaren Regulierungen garantieren.
Architekturen agiler machen
Während des Designs einer neuen Datenarchitektur, sollte der Fokus weniger auf replizierender Datenspeicherung, sondern viel mehr auf der Verarbeitung und Nutzung der Daten liegen. Durch Datenvirtualisierung können Daten verarbeitet werden, ohne dass sie davor gespeichert werden müssen – noch bevor sie von Geschäftskunden genutzt werden. Datenvirtualisierung ist eine logische Datenschicht, die alle über verschiedene Systeme verteilten Unternehmensdaten integriert, einheitliche Daten für zentralisierte Sicherheit und Governance verwaltet und diese den Analysten in Echtzeit zur Verfügung stellt.
Die meisten Unternehmen brauchen neue Datenarchitekturen, um den rasant wachsenden Anforderungen der Datennutzung gerecht zu werden. Neue Architekturen sollten nicht auf veralteten Prinzipien basieren, sondern es bedarf an flexiblen Lösungen, die eben nicht datenspeicherzentriert sind. Die Datenvirtualisierung bietet höchste Flexibilität, indem zugrunde liegende Quellen problemlos hinzugefügt, entfernt oder geändert werden können. Somit ermöglichen Virtualisierungslösungen den IuK-Systemen, sowohl mit dem Tempo des Unternehmens mitzuhalten als auch neue Formen der Datennutzung schnell und flexibel zu unterstützen.