Lesen sie hier den Beitrag:

KI braucht Speicherpower: S3 Object Storage rückt ins Blickfeld​

In den letzten Jahrzehnten gab es in der Speicherbranche nur schrittweise Verbesserungen- etwa in Bereichen wie Kapazität, Haltbarkeit oder Kostenoptimierung. Das Jahr 2026 markiert nun einen einschneidenden Wandel. Speicherarchitekturen werden von Grund auf neu konzipiert, um KI-Workloads optimal zu unterstützen. Dabei kristallisieren sich vier Entwicklungen und Trends heraus, die die speziellen KI-Anforderungen von Training, Inferenz und Retrieval-Augmented Generation (RAG) abdecken.

1. Konvergenz von Speicher und KI in integrierten Plattformen

Die erste Entwicklung ist die Konvergenz von Speicher und KI in integrierten Plattformen, die eine hyperkonvergente Architektur für die On-Premises-KI von Unternehmen ermöglichen. Beispielhaft zeigen das Plattformen, die auf Referenzdesigns mit Blackwell-GPUs NVIDIA RTX PRO 6000, BlueField-DPUs, Spectrum-X-Ethernet-Netzwerken und S3-Speicher im Exabyte-Maßstab basieren. Dadurch müssen Unternehmen keine separaten Stacks mehr für die beschleunigte Rechenleistung, die Datenspeicherung und Vektordatenbanken aufbauen und verwalten. Diese integrierten Lösungen transformieren Unternehmensdatenspeicher automatisch in KI-fähige Ressourcen – einschließlich integrierter Vektordatenbank-Funktionen, die multimodale unstrukturierte Inhalte erfassen, einbetten, indizieren und abrufen. Unternehmen können so innerhalb von Tagen statt Monaten eine produktionsreife KI-Infrastruktur bereitstellen und auf rund 90 Prozent der unstrukturierten Unternehmensdaten wie Dokumente, Berichte, Präsentationen oder Multimedia-Inhalte zugreifen. 

2. Nutzung von S3-kompatiblen Speichern in On-Premises-KI-Anwendungen

Der zweite Trend ist die zunehmende Verbreitung von S3-kompatiblem Storage für On-Premises-KI, die durch den Durchbruch der RDMA-Technologie bei S3-kompatiblen Speichern forciert wird. Jahrelang waren Objektspeicher und High-Performance-Computing getrennte Welten – Objektspeicher boten Skalierbarkeit und Kosteneffizienz, während Hochleistungsspeicher hohen Durchsatz und geringe Latenzzeiten lieferten. Die Entwicklung von RDMA-Bibliotheken für S3-kompatible Speicher überbrückt diese Kluft und ermöglicht direkte Datenpfade zwischen Storage, Systemspeicher und GPU-Speicher ohne Beteiligung der CPU. Praxistests zeigen einen Lesedurchsatz von 35 GB/s pro Knoten mit linearer Skalierbarkeit, eine 3- bis 5-fache Verbesserung gegenüber herkömmlichen TCP-basierten Objektspeichern und eine Reduzierung der CPU-Auslastung um 90 Prozent. Diese führt zu einer 8-mal schnelleren Vektordatenbank-Performance verglichen mit CPU-basierten Alternativen mit klassischem File Storage. Damit sind S3-Objektspeicher optimal für anspruchsvolle KI-Workloads geeignet.

3. Direkte Integration von Vektordatenbanken in Storage-Plattformen

Eine dritte transformative Entwicklung ist die Integration von Vektordatenbanken direkt in Speicherplattformen – das Konzept des sogenannten Vector Data Lake. Da der Erfolg von KI davon abhängt, unstrukturierte Daten in verwertbare Erkenntnisse umzuwandeln, ist die traditionelle Trennung zwischen Speichersystemen und Vektordatenbanken zu einem Engpass geworden. Die Vector-Data-Lake-Architektur entkoppelt die Rechenleistung vom Speicher, sodass beide Komponenten unabhängig voneinander skaliert werden können und zugleich nahtlos miteinander interagieren. Dies ist besonders wirkungsvoll in RAG-Anwendungen, bei denen LLMs vor der Antwortgenerierung neues Wissen abrufen. GPU-beschleunigte Indizierung in Kombination mit Vektordatenbanken ermöglicht Antwortzeiten im Millisekundenbereich und verändert damit grundlegend den gesamten KI-Lifecycle von der Rohdatenerfassung bis zur Echtzeit-Inferenz.

4. Temporärer KI-Speicher als neue Speicherklasse

Die vierte Innovation ist der temporäre KI-Speicher, der eine grundlegend neue Speicherklasse darstellt und speziell für KI-Inferenz entwickelt wurde. Herkömmliche Unternehmensspeicher legen die Priorität auf Persistenz und Fehlertoleranz durch Redundanztechniken wie RAID und Erasure Coding. Moderne LLMs generieren jedoch große Mengen an Zwischendaten, insbesondere KV (Key-Value)-Caches, die vorberechnete Attention-Vektoren zur Wiederverwendung speichern. Da diese Cache-Daten vollständig aus Quelldokumenten stammen, die in fehlertoleranten Speichern geschützt bleiben, können sie bei Verlust neu generiert werden; somit ist Redundanz überflüssig. Die auf der CES 2026 vorgestellte Inference Context Memory Storage Platform von NVIDIA mit BlueField-4-Technologie ist ein Beispiel für diesen Architekturansatz. Die Plattform läuft direkt auf Speicher-NICs und benötigt keine separaten Controller, sodass die Geschwindigkeit und Effizienz anstatt der Ausfallsicherheit optimiert werden. Dieses Konzept führt zu einer drastischen Kostensenkung, da der redundante Speicheraufwand entfällt und zugleich die Performance durch vereinfachte Lese-/Schreibpfade verbessert wird.

Autor: Carsten Graf, Vice President Sales EMEA von Cloudian

weitere Beiträge zum Thema:

Cloud

IT-Transformationstrends 2026

In der IT-Transformation zeichnet sich für das kommende Jahr ein grundlegender Paradigmenwechsel ab. Was bislang als zeitlich begrenztes Migrationsprojekt verstanden wurde, entwickelt sich zunehmend zu

Weiterlesen »
 

Der EAS-Insider – Ihr Navigator zu einem erfolgreichem Business!

So kann Sie künstliche Intelligenz erfolgreicher machen:

Was ist künstliche Intelligenz?

Im Kontext von Unternehmenssoftware bezieht sich künstliche Intelligenz (KI) auf Technologien, die Geschäftsprozesse automatisieren und optimieren, indem sie menschenähnliche Intelligenz auf spezifische Aufgaben anwenden. KI-gestützte Software kann große Datenmengen analysieren, Muster erkennen und Vorhersagen treffen, um fundierte Entscheidungen zu ermöglichen. Anwendungen umfassen Chatbots für den Kundenservice, die Automatisierung von Routineaufgaben, personalisierte Marketingstrategien und vorausschauende Wartung. KI verbessert die Effizienz und Genauigkeit, reduziert Kosten und steigert die Produktivität. Durch die Integration von KI in Unternehmenssoftware können Unternehmen Wettbewerbsvorteile erlangen, da sie schneller und agiler auf Marktveränderungen reagieren können, während sie gleichzeitig die Kundenerfahrung verbessern.

Wie kann künstliche Intelligenz ein Unternehmen digital erfolgreicher machen?

Künstliche Intelligenz (KI) kann ein Unternehmen digital erfolgreicher machen, indem sie Prozesse automatisiert, Entscheidungsfindung verbessert und Effizienz steigert. KI-gestützte Analysen bieten tiefe Einblicke in Daten, ermöglichen präzisere Vorhersagen und helfen, Geschäftsstrategien zu optimieren. Durch Automatisierung können Routineaufgaben effizienter erledigt werden, was Kosten senkt und menschliche Ressourcen für strategische Aufgaben freisetzt. KI verbessert auch die Kundenerfahrung durch personalisierte Empfehlungen und schnelle Reaktionen auf Anfragen. In der Produktion optimiert KI die Lieferkette und verringert Ausfallzeiten durch vorausschauende Wartung. Insgesamt fördert KI Innovation, Agilität und Wettbewerbsfähigkeit, indem sie Unternehmen befähigt, schneller und intelligenter auf Marktveränderungen zu reagieren.

Wichtige Schlagworte im Kontext von künstliche Intelligenz:

Automatisierung

Der Einsatz von KI, um wiederkehrende Aufgaben in Unternehmensprozessen zu automatisieren, wodurch Effizienz gesteigert und menschliche Ressourcen für strategische Aufgaben freigesetzt werden.

Predictive Analytics

Die Verwendung von KI-Techniken, um aus Daten Vorhersagen über zukünftige Ereignisse oder Trends zu treffen, die Unternehmen helfen, bessere Geschäftsentscheidungen zu treffen.

Chatbots

KI-gesteuerte Programme, die in Unternehmenssoftware integriert sind, um Kundenanfragen automatisiert zu beantworten, den Kundenservice zu verbessern und die Benutzererfahrung zu optimieren.

Aktuelle Beiträge zum Thema künstliche Intelligenz:

Unsere aktuellen Blog-Beiträge!

Das sind die aktuellen Beiträge zum Thema:

Aktuelle Beiträge zum Thema:
 

DAS EAS-MAG-Glossar für den Beitrag:

KI braucht Speicherpower: S3 Object Storage rückt ins Blickfeld​

EAS-MAG-Glossar:

Skalierbarkeit

Skalierbarkeit bezieht sich auf die Fähigkeit eines Systems, mit wachsendem Geschäftsumfang effizient umzugehen, ohne die Leistung zu beeinträchtigen. Eine skalierbare Software kann nahtlos an steigende Datenmengen, Nutzerzahlen oder Transaktionen angepasst werden. Dies ist besonders wichtig für Unternehmen, die expandieren oder saisonalen Schwankungen unterliegen. Skalierbare Systeme unterstützen das Hinzufügen von Ressourcen wie Rechenleistung oder Speicher, oft durch Cloud-Lösungen, um die Nachfrage zu bewältigen. Diese Flexibilität ermöglicht es Unternehmen, ihre IT-Infrastruktur kosteneffizient zu nutzen, indem sie nur die benötigten Ressourcen einsetzen. Dadurch bleiben sie wettbewerbsfähig und können schnell auf Marktveränderungen reagieren, ohne signifikante Investitionen in neue Softwarelösungen tätigen zu müssen.

 
Transparenzhinweis für Pressemitteilung
KI braucht Speicherpower: S3 Object Storage rückt ins Blickfeld​

Unternehmen

Cloudian

Autor

Carsten Graf, Vice President Sales EMEA von Cloudian