Redaktionsbeitrag

Data Analytics und BI. Sind Cloud-Ressourcen dafür die richtige Wahl?

Um was geht es in diesem Beitrag:

Lesen sie hier den Beitrag:

Data Analytics und BI. Sind Cloud-Ressourcen dafür die richtige Wahl?

In den Augen vieler Unternehmen wird die Cloud immer attraktiver. Allerdings ist sie nicht in jedem Fall einer On-Premises-Lösung überlegen. Data Analytics und Business Intelligence fordern einen differenzierteren Blick auf das Allheilmittel Cloud.

Data Analytics und BI. Sind Cloud-Ressourcen dafür die richtige Wahl?

Die in Unternehmen gespeicherten Datenmengen werden immer umfangreicher, insbesondere auf dem Weg zum datenbasierten Unternehmen. Data Analytics und Business Intelligence (BI) werden zur geschäftskritischen Grundlage. Doch was bedeutet das für die IT-Infrastruktur? Sind solche ressourcen-intensiven High-End Anwendungen mit der Cloud-Strategie von Unternehmen überhaupt zu vereinen?

Die Cloud bringt enorme Vorteile: Flexibilität und Agilität bei der Hinzubuchung und Abschaltung von IT-Ressourcen, Kostentransparenz mit minutengenauer Abrechnung und Maintenance- und Security-Services seitens des Cloud-Anbieters. Für Datenanalyse-Systeme, die in Sekundenschnelle die Basis für geschäftskritische Entscheidungen zur Verfügung stehen sollen, sind jedoch Performance und Verfügbarkeit entscheidend. Je stärker der Datenfokus des Unternehmens ist, desto mehr werden die Data-Analytics-Systeme dauerhaft unter Volllast laufen und damit dedizierte Ressourcen beanspruchen. Wäre dann nicht On-Premises die bessere Alternative?

Aus Technik-Sicht: Cloud und On-Premises im Performance-Vergleich

Eine für BI und Data-Analytics geeignete IT- und Daten-Strategie erfordert eine entsprechende IT-Infrastruktur samt Prozessen: Daten werden erhoben und gespeichert, verschiedene Datenquellen integriert und BI und Data-Analytics-Systeme, bestehend aus leistungsfähigen Datenbanken und Analyse-Tools, aufgesetzt. Bis zu diesem Punkt spielt es noch keine Rolle, ob all dem eine Public Cloud mit oder ohne Managed Services, ein Hosting-Modell oder On-Premises-Ressourcen zugrunde liegt.

Automatisierte und operative Data-Analytics-Systeme, die für betriebskritische Prozesse verantwortlich sind, benötigen jedoch eine hohe und konsistente Performance. Virtualisierte Public Clouds schneiden hier im Vergleich schlechter ab – einerseits wegen des Virtualisierungs-Overheads andererseits wegen des Prinzips der geteilten Ressourcen, dem sogenannten „Noisy-Neighbour-Effekt“. Hinzu kommt, dass die flexible Zuteilung von Ressourcen in der Public Cloud nicht in jedem Fall hilfreich ist, insbesondere wenn beispielsweise schnelle In-Memory-Datenbanken und massiv parallel verarbeitende Datenmanagement-Lösungen (MPP) eingesetzt werden, die die meiste Zeit unter Volllast laufen. Performance-Schwankungen in einzelnen Knoten wirken sich deutlich auf die Gesamt-Performance aus und das agile Up- und Downscaling erfordert eine ständige Re-Organisation der Datenverarbeitung – was die Performance negativ beeinflusst. Aus Performance-Sicht sind deshalb Hosting-Modelle mit dedizierten Ressourcen oder ein eigenes Rechenzentrum geeigneter. Natürlich aber bieten Public Clouds auch dedizierte Ressourcen bis hin zu Bare-Metal-Instanzen, allerdings zu deutlich höheren Kosten.

Aus ökonomischer Sicht: die Kosten

Die Flexibilität der Cloud bietet enorme Vorteile: Ressourcen können hinzu- oder wieder abgeschaltet werden, wenn sie nicht mehr benötigt werden. Hohe Anfangsinvestitionen in eigene Hardware entfallen. Gezahlt wird nur, was auch wirklich genutzt wird. Für viele Routine-Anwendungen ist das perfekt. Für geschäftskritische und operative Business Intelligence oder Data Analytics, z.B. als Basis von digitalen Geschäftsmodellen, ist eine differenziertere Betrachtung notwendig.

Denn Flexibilität lassen sich Cloud-Anbieter gut bezahlen. Je kürzer die Vertragslaufzeiten und Abrechnungsintervalle, desto teurer der Service. Eine Lösung zur Datenanalyse, die das Business in den nächsten Jahren unterstützen soll, kann auf diese hohe Flexibilität oft verzichten. Es lohnt sich daher, die günstigeren Angebote der Public-Cloud-Anbieter mit Laufzeiten von einem oder mehr Jahren in Betracht zu ziehen. Ist ein Unternehmen jedoch bereit, sich für mehrere Jahre vertraglich zu binden, sind Hosting-Angebote und die eigene Anschaffung wieder interessant.

Aus strategischer Sicht: BI und Data Analytics in die Cloud-Strategie integrieren

Letztlich ist immer der konkrete Use Case entscheidend. Das gilt nicht nur für technische und wirtschaftliche Aspekte. Denn auch die Einführung einer Data-Analytics- bzw. Business-Intelligence-Lösung sollte nicht isoliert, sondern muss im gesamten IT-Infrastruktur-Kontext betrachtet werden. So ist eine Entscheidung für Cloud Computing häufig grundsätzlich und strategisch, weil die Vorteile insgesamt überwiegen. Möglicherweise kommen die Vorteile der Cloud bei High-End Analytics nicht immer zum Tragen, dennoch kann sie aus vielen anderen Gründen die geeignete Infrastruktur sein. Daher lohnt sich der genaue Blick auf die Bausteine der Lösung: BI-, Data-Analytics und Datenbank-Systeme sollten flexibel genug sein, damit sie sich gut in die Cloud-Strategie des Unternehmens integrieren lassen.

Im besten Fall arbeitet die gewählte Datenbank samt Tools Infrastruktur-unabhängig und ist sowohl in der Cloud als auch On-Premises implementierbar. Cloud-ready bedeutet dabei natürlich vor allem, kompatibel zu Amazon Web Services (AWS) oder Microsoft Azure zu sein. Die Flexibilität der Plattform ist wichtig, damit die gewählten Produkte nicht zu einem Vendor-Lockin führen, sondern bei Bedarf umgezogen werden können.

Um die Vorteile aller Infrastruktur-Konzepte nutzen zu können, kann eine hybride Cloud-Strategie die richtige Wahl sein. Natürlich kommt es auch hier auf die allgemeine Strategie des Unternehmens an, allerdings sollte bereits bei der Wahl der BI- und Datenbank-Lösung auf entsprechende Integrations- und Deployment-Möglichkeiten geachtet werden. Eine hybride Cloud sorgt dafür, dass alle Belange berücksichtigt werden können, seien es die Performance, die Kosten oder der Wunsch nach lokaler Datenhaltung aus sicherheitstechnischen Gründen. Darüber hinaus kann sie bei der schrittweisen Migration in die Cloud helfen.

Autor: Dr. Jens Graupmann, Vice President of Product Management bei Exasol AG

Dr. Jens Graupmann ist Vice President of Product Management der Exasol AG. Er ist Experte in den Bereichen Business Development, IT und Produktmanagement. Der am Max-Planck Institut promovierte Informatiker betreut bei Exasol die Fachgebiete Datenbanken und Datenmanagement, Business Intelligence und Datamining sowie Echtzeitanalysen und die Cloud.

Über die Exasol AG:

Exasol bietet Unternehmen eine leistungsfähige In-Memory-Datenbank-Technologie und damit verbundene Services für geschäftskritische Analyseprozesse – on-premise und in der Cloud. Exasol hat das Ziel, weltweit führend im Bereich Datenbank-Technologie für datengetriebene Unternehmen zu sein, da geschäftskritische Entscheidungen und Handlungen immer stärker von Datenanalysen abhängig werden.

Transparenzhinweise zum Beitrag:

weitere Beiträge zum Thema:

KI - Künstliche Intelligenz

Vier Fallstricke bei KI-Projekten

Einer aktuellen Databricks-Umfrage setzen bereits 94 Prozent der Unternehmen künstliche Intelligenz und maschinelles Lernen über alle Geschäftsbereiche hinweg ein; mehr als die Hälfte erwartet, dass

Weiterlesen »