Kundensupport rund um die Uhr

Markt für direkt angeschlossene KI-Speichersysteme: Nach Kapazität (über 50 TB, 5 TB bis 20 TB, unter 5 TB, 20 TB bis 50 TB); Typ (Netzwerkspeicher, SSD, Festplatte, Hybridspeicher); Anwendung (Maschinelles Lernen, Datenanalyse, Künstliche Intelligenz, Big Data, Deep Learning); Endnutzer (Großunternehmen, KMU, Behörden) – Marktgröße, Branchendynamik, Chancenanalyse und Prognose für 2026–2035

  • Letzte Aktualisierung: 09.04.2026 |  
    Format: PDF
     | Bericht-ID: AA04261756  

HÄUFIG GESTELLTE FRAGEN

Der Markt für direkt angeschlossene KI-Speichersysteme hatte im Jahr 2025 einen Wert von 12,19 Milliarden US-Dollar und soll bis 2035 mit einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von 15,20 % im Prognosezeitraum 2026–2035 einen Marktwert von 50,18 Milliarden US-Dollar erreichen.

Herkömmliche NAS-Systeme übertragen Daten über externe Netzwerk-Switches, was zu Latenzzeiten im Mikro- bis Millisekundenbereich führt. Direct Attached AI Storage (DAS) verbindet ultraschnelle NVMe-Laufwerke direkt mit dem PCIe-Bus des Servers und liefert so die enorme Bandbreite mit geringer Latenz, die für eine optimale GPU-Auslastung von über 95 % erforderlich ist. Dadurch wird die Rentabilität der Investitionen in Rechenleistung maximiert.

GPUDirect Storage schafft einen direkten Pfad zwischen NVMe-Speicher und GPU-Speicher und umgeht dabei CPU und Arbeitsspeicher. Dadurch werden Pufferüberläufe vermieden, Latenzzeiten verkürzt, die CPU-Auslastung reduziert und die effektive Bandbreite erhöht. GDS-zertifizierte KI-DAS-Arrays können so das LLM-Training und die Datenerfassung deutlich beschleunigen und rechtfertigen damit ihren höheren Preis.

Für Unternehmen, die kontinuierliches LLM-Training oder hochfrequentes Inferenzverfahren durchführen, hat sich die Amortisationszeit für Premium-NVMe-KI-DAS-Knoten auf etwa 8–14 Monate verkürzt. Der schnellere ROI resultiert aus der Vermeidung von GPU-Engpässen: Durch die schnellere Datenübertragung werden weniger GPUs benötigt, um dieselbe Arbeitslast zu bewältigen.

EDSFF (E1.S, E3.S) ersetzt das ältere U.2-Format und ist für rechenintensive KI-Workloads optimiert. Es bietet deutlich höhere Speicherkapazität in jedem 1U/2U-Gehäuse und unterstützt PCIe Gen 5 mit einer Leistung von bis zu 40 W pro Laufwerk. Die Form verbessert zudem die Luftzirkulation über den heißen Komponenten, senkt die Kühlkosten und ermöglicht effizientere KI-fähige Racks.

CXL bietet eine schnelle, cache-kohärente Verbindung, die Arbeitsspeicher und Datenspeicher verschwimmen lässt. In KI-DAS ermöglicht es Servern, direkt angeschlossene NVMe-Kapazität zu bündeln und wie erweiterten Systemspeicher zu behandeln. Dies ist entscheidend für riesige KI-Modelle, deren Datensätze den GPU-VRAM übersteigen, und ermöglicht dynamisches Skalieren mit geringer Latenz, ohne auf netzwerkgebundenen Speicher angewiesen zu sein.

Im Jahr 2025 werden Engpässe bei hochwertigen 5nm/7nm PCIe Gen 5 NVMe-Controllern die Lieferzeiten für erstklassige KI-DAS-Systeme von etwa 6 Wochen auf rund 16–18 Wochen verlängern. Unternehmen im Markt für direkt angeschlossene KI-Speichersysteme müssen ihre Investitionspläne für KI-Speicher nun zwei bis drei Quartale im Voraus festlegen, während Anbieter mit vertikal integrierter Siliziumfertigung oder tiefem Zugang zu Foundry-Unternehmen überproportional Marktanteile gewinnen.

SIE SUCHEN UMFASSENDES MARKTWISSEN? KONTAKTIEREN SIE UNSERE EXPERTEN.

SPRECHEN SIE MIT EINEM ANALYSTEN