Le marché des systèmes de stockage d'IA à connexion directe était évalué à 12,19 milliards de dollars en 2025 et devrait atteindre une valeur de marché de 50,18 milliards de dollars d'ici 2035, avec un TCAC de 15,20 % au cours de la période de prévision 2026-2035.
Un système de stockage IA à connexion directe est une architecture de stockage haute performance. Dans ce système, des disques NVMe ou autres disques ultra-rapides se connectent directement aux serveurs d'IA (via PCIe ou interfaces similaires). Ceci élimine les sauts réseau et offre une latence inférieure à la milliseconde et une bande passante de plusieurs téraoctets par seconde pour les charges de travail centrées sur le GPU. Cette configuration est spécifiquement optimisée pour l'entraînement et l'inférence en IA, où les données doivent être fournies si rapidement que les GPU restent constamment sollicités.
La croissance du marché des systèmes de stockage IA à connexion directe est alimentée par l'explosion des données non structurées et des modèles à grande échelle. Les charges de travail d'IA nécessitent désormais couramment des dizaines, voire des centaines de téraoctets par tâche. Les frameworks tels que les modèles linéaires logiques (LLM) et les modèles de vision exigent un accès quasi instantané aux données afin d'éviter la saturation du GPU. Environ 40 % des organisations déployant des frameworks d'IA s'appuient déjà sur le stockage à connexion directe pour un débit à faible latence. Près de 45 % des déploiements récents de stockage IA utilisent des contrôleurs NVMe intelligents ou du matériel optimisé pour la mémoire flash afin de réduire les goulots d'étranglement.
Parmi les principaux facteurs de croissance, on note l'augmentation considérable de l'utilisation des GPU suite au passage aux DAS basés sur NVMe. Son utilisation dépasse souvent les 90 %, contre 50 à 60 % auparavant. La taille des ensembles de données explose, de nombreux pipelines d'IA traitant désormais des lacs de données de plusieurs pétaoctets. embarquée et pilotée par la 5G se généralise, déployant un stockage dense et à faible latence directement dans les racks locaux plutôt que dans des centres de données .
Pour en savoir plus, demandez un échantillon gratuit
Afin d'évaluer précisément la viabilité commerciale du marché des systèmes de stockage IA à connexion directe, Astute Analytica a distingué le marché total adressable (TAM) du marché disponible (SAM). À mesure que l'infrastructure IA évolue des architectures SAN/NAS monolithiques et centralisées vers des systèmes de calcul et de stockage localisés à haut débit, la taille financière de ce secteur croît à un rythme effréné.
En 2025, le marché total adressable (TAM) du stockage à connexion directe (DAS) optimisé spécifiquement pour les charges de travail d'intelligence artificielle a franchi la barre des 18,4 milliards de dollars. Cette croissance exponentielle est étroitement liée à l'explosion des investissements des hyperscalers de premier plan (AWS, Meta, Google) et des fournisseurs de cloud GPU spécialisés de second plan (par exemple, CoreWeave, Lambda Labs). Le passage au stockage IA à connexion directe est motivé par la nécessité impérieuse d'éliminer la latence réseau lors de l'entraînement des modèles de langage complexes (LLM) et des inférences à haute fréquence.
Alors que le TAM représente le maximum théorique, le SAM (actuellement estimé à 12,19 milliards de dollars) reflète les capacités de pénétration réalistes basées sur la disponibilité existante des cartes mères PCIe Gen 5/Gen 6, la disponibilité des GPU (en particulier les architectures NVIDIA Hopper et Blackwell) et les taux d'adoption en entreprise.
La croissance du marché des systèmes de stockage IA à connexion directe est régie par un ensemble complexe de facteurs macroéconomiques favorables et microéconomiques stimulants. Comprendre ces forces est essentiel pour prévoir la pérennité de ce marché à long terme.
Les politiques monétaires mondiales se stabilisent prudemment en 2025, offrant aux entreprises la prévisibilité du coût du capital nécessaire aux investissements pluriannuels dans les infrastructures d'IA. Par ailleurs, les initiatives souveraines en matière d'IA – où les États financent leurs propres centres de données d'IA afin de préserver leur indépendance technologique – injectent des milliards de dollars de capitaux non dilutifs dans l'écosystème matériel.
À l'échelle microéconomique, le coût exorbitant des ressources de calcul inactives favorise l'adoption des architectures DAS. Lorsque des GPU coûtant plus de 30 000 $ l'unité restent inactifs en attente de données provenant d'une baie de stockage réseau traditionnelle, le retour sur investissement (ROIC) chute brutalement. Les architectures à connexion directe offrent l'ingestion de données localisée et à large bande passante nécessaire pour maintenir les cœurs Tensor saturés à plus de 95 % de leur capacité.
Malgré une demande explosive, le marché des systèmes de stockage IA à connexion directe est actuellement confronté à de sérieuses difficultés opérationnelles. Les études de marché révèlent que les goulets d'étranglement de la chaîne d'approvisionnement allongent les délais de livraison et menacent de réduire les marges opérationnelles des fournisseurs de matériel dédiés.
La réduction drastique de la production de plaquettes NAND par les principaux fondeurs (Samsung, SK Hynix, Kioxia) fin 2023 et en 2024, afin de corriger les prix, a engendré un déficit structurel en 2025. Les mémoires NAND 3D QLC et TLC à grand nombre de couches (plus de 200), essentielles pour les systèmes d'accès aux données (DAS) d'IA haute densité, sont soumises à des restrictions d'allocation. Par ailleurs, les contrôleurs ASIC PCIe Gen 5 spécialisés, nécessaires à la gestion du flux de données vers les GPU, font face à de sérieuses limitations de capacité chez TSMC.
Les unités DAS IA modernes du marché des systèmes de stockage IA à connexion directe sont très énergivores, consommant souvent plus de 2 500 watts par châssis 2U. Des goulots d'étranglement opérationnels apparaissent non seulement au niveau de l'approvisionnement en stockage, mais aussi de son alimentation et de son refroidissement. Les centres de données atteignent des limites strictes de disponibilité énergétique, ce qui entraîne des retards dans les déploiements d'investissement.
En 2025, les cadres réglementaires, autrefois simples listes de contrôle de conformité, sont devenus des moteurs essentiels de l'architecture matérielle. Le stockage IA à connexion directe est idéalement placé pour tirer parti de ces avantages réglementaires.
Les interprétations strictes du RGPD, conjuguées à la nouvelle loi européenne sur l'IA, imposent que les données sensibles utilisées pour l'optimisation des modèles linéaires logiques (LLM) ne puissent transiter par des réseaux non protégés ni franchir des frontières souveraines sans une anonymisation rigoureuse. DAS isole physiquement les données d'entraînement au sein du nœud de calcul, satisfaisant ainsi aux exigences strictes de résidence et d'isolation des données.
Les tensions géopolitiques ont entraîné de lourds contrôles à l'exportation, imposés par les États-Unis et l'Union européenne, sur les équipements de réseau d'IA avancés (tels que certains commutateurs InfiniBand) vers les pays soumis à des restrictions. Par conséquent, les entreprises de ces régions compensent largement ces restrictions en déployant d'immenses clusters de stockage à connexion directe (DAS), s'affranchissant ainsi du besoin de commutateurs réseau haut de gamme soumis à des restrictions pour le partage des données.
L'écosystème des fournisseurs de stockage IA à connexion directe est fortement consolidé au sommet, sous l'impulsion des équipementiers qui ont intégré verticalement avec succès leurs chaînes d'approvisionnement et noué des partenariats étroits avec des fabricants de GPU de premier plan comme NVIDIA et AMD.
Le marché des systèmes de stockage IA à connexion directe est dominé par des acteurs majeurs tels que :
Supermicro, notamment, a conquis une part de marché considérable grâce à son architecture modulaire, permettant aux hyperscalers de personnaliser facilement les ratios DAS/GPU. La gamme PowerEdge XE de Dell, optimisée pour l'IA grâce à ses fonds de panier NVMe haute densité à connexion directe, génère un chiffre d'affaires de plusieurs milliards de dollars, avec une marge d'EBITDA en hausse de 300 points de base sur un an grâce à des modèles de tarification premium dédiés à l'IA.
Les acteurs de second rang sur le marché des systèmes de stockage IA à connexion directe, tels que Lenovo, Cisco et les ODM (fabricants de conception d'origine) régionaux comme Quanta et Wiwynn , jouent un rôle crucial. Ils approvisionnent principalement les fournisseurs de cloud de second rang et les centres de données IA souverains.
Alors que les équipementiers historiques contrôlent le marché des systèmes de stockage physique à connexion directe pour l'IA, une vague de nouveaux acteurs disruptifs, fortement financés par du capital-risque, ciblent de manière agressive les principaux goulots d'étranglement du stockage à connexion directe : la latence du contrôleur et les inefficacités du RAID.
Les contrôleurs RAID matériels traditionnels constituent un goulot d'étranglement majeur pour les disques NVMe PCIe Gen 5. Des entreprises innovantes comme Graid Technology contournent les puces RAID classiques en utilisant des GPU secondaires d'entrée de gamme ou des ASIC dédiés pour calculer les données de parité. Cette approche logicielle accélérée par le matériel permet à un seul nœud DAS d'atteindre plus de 25 millions d'IOPS sans intervention du processeur, modifiant ainsi fondamentalement le coût total de possession (TCO).
Les fournisseurs de solutions de stockage fondamentales comme Solidigm et Phison agissent comme des forces disruptives en subventionnant massivement la R&D des contrôleurs de stockage spécifiques à l'IA et de la mémoire NAND QLC à très haute densité.
L'avantage technologique sur le marché du stockage IA se définit par la rapidité avec laquelle un fournisseur peut adopter et commercialiser les protocoles d'interconnexion de nouvelle génération. Nous assistons actuellement à trois transformations architecturales majeures.
Les technologies CXL 2.0 et 3.0 constituent sans doute les bouleversements les plus importants qu'ait connus le marché des systèmes de stockage IA à connexion directe depuis dix ans. CXL permet aux processeurs, aux GPU et aux systèmes de stockage NVMe spécialisés de partager un pool de mémoire cohérent. Les expandeurs de mémoire et les disques de stockage CXL à connexion directe estompent la frontière entre la RAM volatile et le stockage non volatil, permettant ainsi aux systèmes de stockage local (LLM) de contenir des ensembles de données exponentiellement plus volumineux « en mémoire ».
L'accès direct à la mémoire (DMA) a évolué. La technologie GPUDirect Storage de NVIDIA permet un chemin de données direct entre le DAS NVMe local et la mémoire GPU (VRAM), en contournant totalement les tampons de rebond du processeur.
La transition du stockage d'entreprise traditionnel vers un stockage axé sur l'IA est définie par le support sous-jacent. Les formats de stockage traditionnels sont rapidement abandonnés au profit d'architectures SSD à haut débit.
Dans le domaine de l'entraînement des IA et de l'inférence en temps réel, les disques durs rotatifs et les SSD SAS/SATA traditionnels engendrent des latences inacceptables. Le marché des systèmes de stockage IA à connexion directe s'est massivement tourné vers la mémoire non volatile Express (NVMe) plutôt que vers PCIe, qui fournit les files d'attente de données parallèles nécessaires pour alimenter les charges de travail IA hautement concurrentes.
L'analyse du marché par composant révèle où se concentre réellement la création de valeur. Ce ne sont pas forcément les mémoires flash NAND nues qui génèrent la marge la plus élevée, mais bien les puces et les logiciels intelligents qui les orchestrent.
L'intelligence du marché des systèmes de stockage IA à connexion directe réside dans son contrôleur et son interface matérielle. Ces composants gèrent l'équilibrage de l'usure, la limitation thermique et les protocoles d'accès direct à la mémoire (DMA) comme GPUDirect Storage de NVIDIA, qui contourne le processeur pour envoyer les données directement du disque NVMe à la mémoire du GPU. Les entreprises qui conçoivent ces contrôleurs propriétaires pratiquent des prix élevés.
L'utilisation du stockage IA à connexion directe n'est pas monolithique ; elle est fortement segmentée selon la phase spécifique du cycle de vie de l'intelligence artificielle. En 2025, le marché se caractérise par des divisions distinctes entre l'entraînement des modèles fondamentaux, la sauvegarde des points de contrôle et les charges de travail d'inférence à haute fréquence.
L'entraînement de grands modèles de langage (LLM) impliquant des milliards de paramètres génère un volume sans précédent de données intermédiaires sur le marché des systèmes de stockage IA à connexion directe. Durant la phase d'entraînement, les modèles doivent effectuer des « points de contrôle » – c'est-à-dire sauvegarder l'état du réseau neuronal toutes les quelques heures – afin d'éviter une perte de données catastrophique en cas de panne du GPU. Ce processus exige des rafales d'écriture massives et instantanées qui saturent facilement les systèmes de stockage réseau traditionnels. Les baies NVMe DAS locales absorbent ces rafales de plusieurs téraoctets en quelques secondes, garantissant ainsi un temps d'inactivité du GPU quasi nul.
Accédez uniquement aux sections dont vous avez besoin : par région, au niveau de l’entreprise ou par cas d’utilisation.
Comprend une consultation gratuite avec un expert du domaine pour vous aider à prendre votre décision.
Les équipes d'approvisionnement des entreprises se concentrent tout particulièrement sur l'intersection entre la bande passante des interfaces et la densité de stockage. En 2025, les formats traditionnels comme les disques U.2 seront rapidement abandonnés au profit d'architectures conçues spécifiquement pour garantir l'intégrité du signal et l'efficacité thermique à haute capacité.
L'essor du format EDSFF (Enterprise and Datacenter Standard Form Factor)
Le passage au PCIe Gen 5 (et à l'accès anticipé au PCIe Gen 6) a consolidé la position dominante des disques EDSFF sur le marché des systèmes de stockage IA à connexion directe, notamment les formats E3.S et E1.S. Ces disques permettent aux fabricants d'intégrer des capacités de stockage direct de plusieurs pétaoctets dans des châssis standard 1U et 2U. De plus, l'orientation verticale des disques E1.S améliore considérablement la circulation de l'air au niveau des contrôleurs NVMe à TDP élevé et des GPU adjacents.
Pour en savoir plus sur cette recherche : demandez un échantillon gratuit
La répartition géographique des revenus dans le secteur du stockage IA est très asymétrique. La concentration des sièges sociaux des hyperscalers, des sociétés de conception de semi-conducteurs et des fonds de capital-risque crée des pôles régionaux de puissance distincts.
Les États-Unis demeurent l'épicentre incontesté du déploiement d'infrastructures d'IA sur le marché nord-américain des systèmes de stockage d'IA à connexion directe. Porté par le cercle vertueux de l'innovation de la Silicon Valley et par d'importantes subventions fédérales destinées à la production locale de semi-conducteurs (effets indirects du CHIPS Act), le marché américain offre la plus forte densité de baies DAS haute performance.
Bien que l'Amérique du Nord conserve la part de marché dominante, le rythme des investissements se déplace rapidement vers l'est. La région Asie-Pacifique connaît un développement sans précédent de son infrastructure d'IA.
Au Japon, en Corée du Sud et à Singapour, les gouvernements subventionnent massivement les infrastructures d'IA afin de compenser le déclin démographique grâce à l'automatisation. Par ailleurs, la présence à Taïwan du principal écosystème mondial de fabrication de matériel informatique permet un accès local à des technologies de stockage de pointe à moindres coûts logistiques.
Principales entreprises du marché des systèmes de stockage d'IA à connexion directe
Aperçu de la segmentation du marché
Par capacité
Par type
Sur demande
Par l'utilisateur final
Par région
Le marché des systèmes de stockage d'IA à connexion directe était évalué à 12,19 milliards de dollars en 2025 et devrait atteindre une valeur de marché de 50,18 milliards de dollars d'ici 2035, avec un TCAC de 15,20 % au cours de la période de prévision 2026-2035.
Les NAS traditionnels transfèrent les données via des commutateurs réseau externes, ce qui ajoute une latence de l'ordre de la microseconde à la milliseconde. Le stockage IA à connexion directe (DAS) relie des disques NVMe ultrarapides directement au bus PCIe du serveur, fournissant la bande passante massive et à faible latence nécessaire pour alimenter les GPU et maintenir leur taux d'utilisation au-dessus de 95 %, maximisant ainsi le retour sur investissement des ressources de calcul.
GPUDirect Storage établit un chemin direct entre le stockage NVMe et la mémoire GPU, en contournant le processeur et la RAM système. Ceci élimine les tampons de rebond, réduit la latence et la charge du processeur, et augmente la bande passante effective. Ainsi, les baies DAS IA certifiées GDS peuvent accélérer considérablement l'entraînement des modèles LLM et l'ingestion de données, justifiant leur prix élevé.
Pour les entreprises effectuant un entraînement LLM continu ou une inférence à haute fréquence, le délai de retour sur investissement des nœuds NVMe AI DAS haut de gamme a été réduit à environ 8 à 14 mois. Ce retour sur investissement plus rapide est dû à l'élimination de la « saturation des GPU » : une transmission de données plus rapide signifie qu'un nombre réduit de GPU est nécessaire pour traiter la même charge de travail.
L'EDSFF (E1.S, E3.S) remplace l'ancien U.2 en optimisant les charges de travail d'IA denses, en offrant une capacité bien supérieure dans chaque châssis 1U/2U tout en prenant en charge les niveaux de puissance PCIe Gen 5 jusqu'à 40 W par disque. Sa forme améliore également la circulation de l'air autour des composants chauds, réduisant ainsi les coûts de refroidissement et permettant des racks plus efficaces pour l'IA.
CXL offre une liaison haut débit et cohérente avec le cache, estompant la frontière entre mémoire et stockage. Dans les architectures DAS pour l'IA, il permet aux serveurs de mutualiser la capacité NVMe à connexion directe et de l'utiliser comme une extension de mémoire système. Ceci est crucial pour les modèles d'IA de grande taille dont les ensembles de données dépassent la VRAM du GPU, permettant une mise à l'échelle dynamique et à faible latence sans recourir au stockage en réseau.
En 2025, la pénurie de contrôleurs NVMe PCIe Gen 5 haut de gamme (5 nm/7 nm) a allongé les délais de livraison des systèmes DAS IA de pointe, les faisant passer d'environ 6 semaines à 16-18 semaines. Les entreprises du marché des systèmes de stockage IA à connexion directe doivent désormais anticiper leurs investissements en capital (CapEx) deux à trois trimestres à l'avance, tandis que les fournisseurs disposant d'une intégration verticale des semi-conducteurs ou d'un accès privilégié aux fonderies s'accaparent une part de marché disproportionnée.
VOUS RECHERCHEZ UNE CONNAISSANCE APPROFONDIE DU MARCHÉ ? FAITES APPEL À NOS SPÉCIALISTES EXPERTS.
PARLEZ À UN ANALYSTE