Der Markt für direkt angeschlossene KI-Speichersysteme hatte im Jahr 2025 einen Wert von 12,19 Milliarden US-Dollar und soll bis 2035 mit einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von 15,20 % im Prognosezeitraum 2026–2035 einen Marktwert von 50,18 Milliarden US-Dollar erreichen.
Ein direkt angeschlossenes KI-Speichersystem ist eine Hochleistungsspeicherarchitektur. Dabei werden NVMe- oder andere ultraschnelle Laufwerke direkt mit KI-Servern verbunden (über PCIe oder ähnliche Schnittstellen). Dadurch werden Netzwerk-Hops eliminiert und Latenzzeiten im Submillisekundenbereich sowie Bandbreiten von mehreren Terabyte pro Sekunde für GPU-intensive Workloads ermöglicht. Diese Konfiguration ist speziell für KI-Training und -Inferenz optimiert, da Daten so schnell zugeführt werden müssen, dass die GPUs permanent ausgelastet sind und nicht im Leerlauf laufen.
Das Wachstum des Marktes für direkt angeschlossene KI-Speichersysteme wird durch die explosionsartige Zunahme unstrukturierter Daten und umfangreicher Modelle angetrieben. KI-Workloads benötigen mittlerweile routinemäßig Dutzende bis Hunderte von Terabyte pro Auftrag. Frameworks wie LLMs und Bildverarbeitungsmodelle erfordern nahezu sofortigen Datenzugriff, um GPU-Engpässe zu vermeiden. Rund 40 % der Unternehmen, die KI-Frameworks einsetzen, nutzen bereits direkt angeschlossenen Speicher für geringe Latenzzeiten. Etwa 45 % der jüngsten KI-Speicherimplementierungen verwenden intelligente NVMe-basierte Controller oder Flash-optimierte Hardware, um Engpässe zu reduzieren.
Zu den wichtigsten Wachstumsfaktoren zählt die stark gestiegene GPU-Auslastung nach dem Umstieg auf NVMe-basierte DAS. Diese liegt nun oft bei über 90 % statt 50–60 %. Die Datenmengen nehmen rasant zu, und viele KI-Pipelines verarbeiten mittlerweile Multi-Petabyte-Datenbestände. Edge- und 5G-basierte KI breitet sich aus und treibt die Speicherung von dichten, latenzarmen Speichern direkt in lokale Racks anstatt in entfernte Rechenzentren .
Für weitere Einblicke fordern Sie ein kostenloses Muster an.
Um die wirtschaftliche Tragfähigkeit des Marktes für direkt angeschlossene KI-Speichersysteme präzise zu erfassen, hat Astute Analytica den gesamten adressierbaren Markt (TAM) vom verfügbaren Markt (SAM) abgegrenzt. Da sich die KI-Infrastruktur von monolithischen, zentralisierten SAN/NAS-Architekturen hin zu hochleistungsfähigen, lokalisierten Rechen-Speicher-Kombinationen entwickelt, wächst der Finanzumfang dieses Sektors rasant.
Im Jahr 2025 wird der Gesamtmarkt für direkt angeschlossenen Speicher (DAS), der speziell für KI-Workloads optimiert ist, die 18,4-Milliarden-Dollar-Marke überschreiten. Dieses exponentielle Wachstum korreliert stark mit den rasant steigenden Investitionsausgaben der Tier-1-Hyperscaler (AWS, Meta, Google) und der Tier-2-Anbieter spezialisierter GPU-Cloud-Dienste (z. B. CoreWeave, Lambda Labs). Der Trend hin zu direkt angeschlossenem KI-Speicher wird durch die absolute Notwendigkeit angetrieben, Netzwerklatenzen beim Training großer Sprachmodelle (LLM) und bei hochfrequenten Inferenzvorgängen zu eliminieren.
Während der TAM das theoretische Maximum darstellt, spiegelt der SAM – derzeit auf 12,19 Milliarden US-Dollar geschätzt – realistische Marktdurchdringungsmöglichkeiten wider, basierend auf der Verfügbarkeit von PCIe Gen 5/Gen 6 Motherboards, der Verfügbarkeit von GPUs (insbesondere NVIDIA Hopper und Blackwell Architekturen) und der Akzeptanzrate in Unternehmen.
Die Dynamik des Marktes für direkt angeschlossene KI-Speichersysteme wird von einem komplexen Zusammenspiel makroökonomischer Faktoren und mikroökonomischer Beschleuniger bestimmt. Das Verständnis dieser Kräfte ist entscheidend für die Prognose der langfristigen Marktstabilität.
Die globale Geldpolitik stabilisiert sich bis 2025 vorsichtig und bietet Unternehmen die für mehrjährige Investitionen in KI-Infrastruktur notwendige Kapitalplanbarkeit. Darüber hinaus fließen durch staatliche KI-Initiativen – bei denen Nationalstaaten ihre eigenen KI-Rechenzentren finanzieren, um ihre technologische Unabhängigkeit zu wahren – Milliarden von Dollar an nicht verwässerndem Kapital in das Hardware-Ökosystem.
Auf Mikroebene treibt der enorme Kostenaufwand für ungenutzte Rechenleistung die Verbreitung von DAS voran. Wenn GPUs mit Kosten von über 30.000 US-Dollar pro Stück ungenutzt auf Daten eines herkömmlichen netzwerkgebundenen Speichersystems warten, sinkt die Kapitalrendite (ROIC) drastisch. Direkt angeschlossene Architekturen ermöglichen die lokalisierte Datenaufnahme mit enormer Bandbreite, die erforderlich ist, um die Tensor-Kerne zu über 95 % auszulasten.
Trotz der explosionsartigen Nachfrage sieht sich der Markt für direkt angeschlossene KI-Speichersysteme derzeit mit erheblichen operativen Schwierigkeiten konfrontiert. Marktanalysen zeigen, dass Engpässe in der Lieferkette die Lieferzeiten verlängern und die Gewinnmargen reiner Hardwareanbieter zu schmälern drohen.
Die aggressive Drosselung der NAND-Wafer-Produktion durch die führenden Hersteller (Samsung, SK Hynix, Kioxia) Ende 2023 und 2024 zur Preiskorrektur hat 2025 zu einem strukturellen Defizit geführt. Hochlagige 3D-QLC- und TLC-NAND-Speicher (über 200 Lagen), die für hochdichte KI-DAS unerlässlich sind, unterliegen Zuteilungsbeschränkungen. Zudem stoßen die spezialisierten PCIe-Gen-5-ASIC-Controller, die für die Datenflusssteuerung zu GPUs benötigt werden, bei TSMC an ihre Kapazitätsgrenzen.
Moderne KI-DAS-Einheiten im Markt für direkt angeschlossene KI-Speichersysteme sind energieintensiv und verbrauchen oft über 2.500 Watt pro 2U-Gehäuse. Betriebliche Engpässe treten nicht nur bei der Beschaffung des Speichers auf, sondern auch bei dessen Stromversorgung und Kühlung. Rechenzentren stoßen an ihre Grenzen der Stromverfügbarkeit, was zu Verzögerungen bei Investitionsausgaben führt.
Bis 2025 haben sich regulatorische Rahmenbedingungen von sekundären Checklisten zur Einhaltung von Vorschriften zu primären Treibern der Hardwarearchitektur entwickelt. Direkt angeschlossener KI-Speicher ist in einer einzigartigen Position, um von diesen regulatorischen Vorteilen zu profitieren.
Strenge Auslegungen der DSGVO und des kürzlich ratifizierten EU-KI-Gesetzes schreiben vor, dass sensible Daten, die zur Feinabstimmung von LLMs verwendet werden, nicht ohne strenge Anonymisierung ungeschützte Netzwerke durchlaufen oder Staatsgrenzen überschreiten dürfen. DAS isoliert die Trainingsdaten physisch innerhalb des Rechenknotens und erfüllt somit die strengen Anforderungen an Datenresidenz und -isolation.
Geopolitische Spannungen haben zu strengen US-amerikanischen und EU-Exportkontrollen für hochentwickelte KI-Netzwerkgeräte (wie z. B. bestimmte InfiniBand-Switches) in bestimmte Länder geführt. Um dies auszugleichen, bauen Unternehmen in diesen Regionen massive Direct-Attached-Storage-Cluster auf und umgehen so den Bedarf an High-End-Netzwerk-Switches mit Exportbeschränkungen zur Datenbündelung.
Das Anbieter-Ökosystem für Direct Attached AI Storage ist an der Spitze stark konsolidiert und wird von OEMs angetrieben, die ihre Lieferketten erfolgreich vertikal integriert und enge Partnerschaften mit führenden GPU-Herstellern wie NVIDIA und AMD geschlossen haben.
Der Tier-1-Markt für direkt angeschlossene KI-Speichersysteme wird von Schwergewichten wie … dominiert
Supermicro hat sich insbesondere dank seiner modularen Bausteinarchitektur einen überproportionalen Marktanteil gesichert, da Hyperscaler so das Verhältnis von DAS zu GPU nahtlos anpassen können. Dells PowerEdge XE-Serie, die mit ihren dichten, direkt angeschlossenen NVMe-Backplanes stark für KI optimiert ist, generiert einen Umsatz in Milliardenhöhe, wobei die EBITDA-Marge dank Premium-Preismodellen für KI im Jahresvergleich um 300 Basispunkte gestiegen ist.
Tier-2-Anbieter im Markt für direkt angeschlossene KI-Speichersysteme, darunter Lenovo, Cisco und regionale White-Box-ODMs (Original Design Manufacturers) wie Quanta und Wiwynn , spielen eine entscheidende Rolle. Sie beliefern hauptsächlich Tier-2-Cloud-Anbieter und staatliche KI-Rechenzentren.
Während etablierte OEMs den Markt für physische, direkt angeschlossene KI-Speichersysteme beherrschen, zielt eine Welle stark VC-finanzierter Disruptoren aggressiv auf die grundlegenden Engpässe von Direct Attached Storage ab: Controller-Latenz und RAID-Ineffizienzen.
Herkömmliche Hardware-RAID-Controller bremsen PCIe Gen 5 NVMe-Laufwerke erheblich aus. Innovative Anbieter wie Graid Technology umgehen diese veralteten RAID-Chips, indem sie sekundäre, kostengünstige GPUs oder dedizierte ASICs zur Berechnung der Paritätsdaten nutzen. Dieser softwaredefinierte, hardwarebeschleunigte Ansatz ermöglicht es einem einzelnen DAS-Knoten, über 25 Millionen IOPS ohne CPU-Eingriff zu erreichen und so die Gesamtbetriebskosten (TCO) grundlegend zu senken.
Fundamentale Speicheranbieter wie Solidigm und Phison agieren als disruptive Kräfte, indem sie die Forschung und Entwicklung von KI-spezifischen Speichercontrollern und extrem dichtem QLC-NAND massiv subventionieren.
Der technologische Wettbewerbsvorteil im Markt für KI-Speicherlösungen wird durch die Geschwindigkeit bestimmt, mit der ein Anbieter Verbindungsprotokolle der nächsten Generation einführen und kommerzialisieren kann. Wir erleben derzeit drei massive Architekturveränderungen.
CXL 2.0 und 3.0 stellen wohl die bedeutendsten Umwälzungen im Markt für direkt angeschlossene KI-Speichersysteme seit einem Jahrzehnt dar. CXL ermöglicht es CPU, GPU und spezialisiertem NVMe-Speicher, einen gemeinsamen Speicherpool zu nutzen. Direkt angeschlossene CXL-Speichererweiterungen und -Laufwerke verwischen die Grenze zwischen flüchtigem RAM und nichtflüchtigem Speicher und erlauben es LLMs, exponentiell größere Datensätze lokal im Arbeitsspeicher zu halten.
Der direkte Speicherzugriff (DMA) hat sich weiterentwickelt. NVIDIAs GPUDirect Storage ermöglicht einen direkten Datenpfad zwischen dem lokalen NVMe DAS und dem GPU-Speicher (VRAM) und umgeht dabei vollständig die CPU-Bounce-Puffer.
Der Übergang von traditionellen Unternehmensspeichern zu KI-zentrierten Speichersystemen wird durch das zugrundeliegende Speichermedium bestimmt. Herkömmliche Speichermedien werden zunehmend durch SSD-Architekturen mit hohem Durchsatz ersetzt.
Im Kontext von KI-Training und Echtzeit-Inferenz führen herkömmliche Festplatten und SAS/SATA-SSDs zu inakzeptablen Latenzproblemen. Der Markt für direkt angeschlossene KI-Speichersysteme hat sich daher weitgehend auf NVMe (Non-Volatile Memory Express) über PCIe verlagert, da NVMe die parallelen Datenwarteschlangen bereitstellt, die für die Verarbeitung hochgradig paralleler KI-Workloads erforderlich sind.
Die Analyse des Marktes nach Komponenten zeigt, wo die Wertschöpfung tatsächlich stattfindet. Nicht unbedingt der reine NAND-Flashspeicher erzielt die höchste Gewinnspanne, sondern die intelligenten Siliziumchips und die Software, die ihn steuern.
Die Intelligenz des Marktes für direkt angeschlossene KI-Speichersysteme liegt in seiner Controller- und Schnittstellenhardware. Diese Komponenten steuern Verschleißausgleich, thermische Drosselung und DMA-Protokolle (Direct Memory Access) wie NVIDIAs GPUDirect Storage, das die CPU umgeht und Daten direkt vom NVMe-Laufwerk an den GPU-Speicher sendet. Unternehmen, die diese proprietären Controller entwickeln, erzielen Premiumpreise.
Die Nutzung von direkt angeschlossenem KI-Speicher ist nicht einheitlich, sondern stark nach den jeweiligen Phasen des KI-Lebenszyklus segmentiert. Im Jahr 2025 wird der Markt durch deutliche Aufteilungen in grundlegendes Modelltraining, Checkpointing und hochfrequente Inferenz-Workloads gekennzeichnet sein.
Das Training großer Sprachmodelle (LLMs) mit Billionen von Parametern erzeugt im Markt für direkt angeschlossene KI-Speichersysteme ein beispielloses Volumen an Zwischenspeicherdaten. Während der Trainingsphase müssen die Modelle alle paar Stunden einen Checkpoint durchführen – den Zustand des neuronalen Netzes sichern –, um im Falle eines GPU-Ausfalls katastrophalen Datenverlust zu verhindern. Dieser Prozess erfordert massive, kurzzeitige Schreibvorgänge, die herkömmliche Netzwerkspeicher schnell überlasten. Lokale NVMe-DAS-Arrays verarbeiten diese Terabyte-großen Schreibvorgänge innerhalb von Sekunden und gewährleisten so eine minimale GPU-Leerlaufzeit.
Die Beschaffungsteams von Unternehmen konzentrieren sich verstärkt auf das Zusammenspiel von Schnittstellenbandbreite und Speicherdichte. Im Jahr 2025 werden ältere Formfaktoren wie U.2-Laufwerke rasch zugunsten von Architekturen ausgemustert, die speziell für Signalintegrität und thermische Effizienz bei hohen Kapazitäten ausgelegt sind.
Der Aufstieg von EDSFF (Enterprise and Datacenter Standard Form Factor)
Der Übergang zu PCIe Gen 5 (und der frühe Zugriff auf PCIe Gen 6) hat die Dominanz von EDSFF-Laufwerken im Markt für direkt angeschlossene KI-Speichersysteme, insbesondere der Formfaktoren E3.S und E1.S, gefestigt. Diese Laufwerke ermöglichen es OEMs, Speicherkapazitäten von mehreren Petabyte direkt in Standard-1U- und 2U-Gehäuse zu integrieren. Darüber hinaus verbessert die vertikale Ausrichtung von E1.S-Laufwerken den Luftstrom über NVMe-Controllern mit hoher TDP (Thermal Design Power) und benachbarten GPUs erheblich.
Greifen Sie nur auf die Abschnitte zu, die Sie benötigen – regionsspezifisch, unternehmensbezogen oder nach Anwendungsfall.
Beinhaltet eine kostenlose Beratung mit einem Domain-Experten, der Sie bei Ihrer Entscheidung unterstützt.
Die geografische Umsatzgenerierung im KI-Speichersektor ist stark asymmetrisch. Die Konzentration von Hauptsitzen von Hyperscalern, Siliziumdesignfirmen und Risikokapitalgebern schafft ausgeprägte regionale Marktführer.
Die Vereinigten Staaten bleiben das unbestrittene Zentrum des Ausbaus der KI-Infrastruktur im nordamerikanischen Markt für direkt angeschlossene KI-Speichersysteme. Angetrieben durch die Innovationskraft des Silicon Valley und massive staatliche Fördergelder für die lokale Halbleiterfertigung (Folgen des CHIPS-Gesetzes) bietet der US-Markt die höchste Dichte an leistungsstarken DAS-Arrays.
Nordamerika hält zwar den größten Marktanteil, doch die Geschwindigkeit der Kapitalinvestitionen verlagert sich rasant nach Osten. Die Region Asien-Pazifik erlebt einen beispiellosen Ausbau der KI-Infrastruktur.
Die Regierungen Japans, Südkoreas und Singapurs subventionieren die KI-Infrastruktur massiv, um den demografischen Rückgang durch Automatisierung auszugleichen. Darüber hinaus ermöglicht das weltweit wichtigste Ökosystem für die Hardwarefertigung in Taiwan den lokalen Zugang zu modernsten Speichertechnologien bei geringeren Logistikkosten.
Führende Unternehmen im Markt für direkt angeschlossene KI-Speichersysteme
Marktsegmentierungsübersicht
Nach Kapazität
Nach Typ
Durch Bewerbung
Vom Endbenutzer
Nach Region
Der Markt für direkt angeschlossene KI-Speichersysteme hatte im Jahr 2025 einen Wert von 12,19 Milliarden US-Dollar und soll bis 2035 mit einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von 15,20 % im Prognosezeitraum 2026–2035 einen Marktwert von 50,18 Milliarden US-Dollar erreichen.
Herkömmliche NAS-Systeme übertragen Daten über externe Netzwerk-Switches, was zu Latenzzeiten im Mikro- bis Millisekundenbereich führt. Direct Attached AI Storage (DAS) verbindet ultraschnelle NVMe-Laufwerke direkt mit dem PCIe-Bus des Servers und liefert so die enorme Bandbreite mit geringer Latenz, die für eine optimale GPU-Auslastung von über 95 % erforderlich ist. Dadurch wird die Rentabilität der Investitionen in Rechenleistung maximiert.
GPUDirect Storage schafft einen direkten Pfad zwischen NVMe-Speicher und GPU-Speicher und umgeht dabei CPU und Arbeitsspeicher. Dadurch werden Pufferüberläufe vermieden, Latenzzeiten verkürzt, die CPU-Auslastung reduziert und die effektive Bandbreite erhöht. GDS-zertifizierte KI-DAS-Arrays können so das LLM-Training und die Datenerfassung deutlich beschleunigen und rechtfertigen damit ihren höheren Preis.
Für Unternehmen, die kontinuierliches LLM-Training oder hochfrequentes Inferenzverfahren durchführen, hat sich die Amortisationszeit für Premium-NVMe-KI-DAS-Knoten auf etwa 8–14 Monate verkürzt. Der schnellere ROI resultiert aus der Vermeidung von GPU-Engpässen: Durch die schnellere Datenübertragung werden weniger GPUs benötigt, um dieselbe Arbeitslast zu bewältigen.
EDSFF (E1.S, E3.S) ersetzt das ältere U.2-Format und ist für rechenintensive KI-Workloads optimiert. Es bietet deutlich höhere Speicherkapazität in jedem 1U/2U-Gehäuse und unterstützt PCIe Gen 5 mit einer Leistung von bis zu 40 W pro Laufwerk. Die Form verbessert zudem die Luftzirkulation über den heißen Komponenten, senkt die Kühlkosten und ermöglicht effizientere KI-fähige Racks.
CXL bietet eine schnelle, cache-kohärente Verbindung, die Arbeitsspeicher und Datenspeicher verschwimmen lässt. In KI-DAS ermöglicht es Servern, direkt angeschlossene NVMe-Kapazität zu bündeln und wie erweiterten Systemspeicher zu behandeln. Dies ist entscheidend für riesige KI-Modelle, deren Datensätze den GPU-VRAM übersteigen, und ermöglicht dynamisches Skalieren mit geringer Latenz, ohne auf netzwerkgebundenen Speicher angewiesen zu sein.
Im Jahr 2025 werden Engpässe bei hochwertigen 5nm/7nm PCIe Gen 5 NVMe-Controllern die Lieferzeiten für erstklassige KI-DAS-Systeme von etwa 6 Wochen auf rund 16–18 Wochen verlängern. Unternehmen im Markt für direkt angeschlossene KI-Speichersysteme müssen ihre Investitionspläne für KI-Speicher nun zwei bis drei Quartale im Voraus festlegen, während Anbieter mit vertikal integrierter Siliziumfertigung oder tiefem Zugang zu Foundry-Unternehmen überproportional Marktanteile gewinnen.
SIE SUCHEN UMFASSENDES MARKTWISSEN? KONTAKTIEREN SIE UNSERE EXPERTEN.
SPRECHEN SIE MIT EINEM ANALYSTEN