Assistance clientèle 24h/24 et 7j/7

Marché des systèmes de stockage IA à connexion directe : par capacité (plus de 50 To, de 5 à 20 To, moins de 5 To, de 20 à 50 To) ; type (stockage en réseau, SSD, disque dur, stockage hybride) ; application (apprentissage automatique, analyse de données, intelligence artificielle, big data, apprentissage profond) ; utilisateur final (grandes entreprises, PME, gouvernement) — Taille du marché, dynamique du secteur, analyse des opportunités et prévisions pour 2026-2035

  • Dernière mise à jour : 09-avr-2026 |  
    Format : PDF
     | Numéro de rapport : AA04261756  

QUESTIONS FRÉQUEMMENT POSÉES

Le marché des systèmes de stockage d'IA à connexion directe était évalué à 12,19 milliards de dollars en 2025 et devrait atteindre une valeur de marché de 50,18 milliards de dollars d'ici 2035, avec un TCAC de 15,20 % au cours de la période de prévision 2026-2035.

Les NAS traditionnels transfèrent les données via des commutateurs réseau externes, ce qui ajoute une latence de l'ordre de la microseconde à la milliseconde. Le stockage IA à connexion directe (DAS) relie des disques NVMe ultrarapides directement au bus PCIe du serveur, fournissant la bande passante massive et à faible latence nécessaire pour alimenter les GPU et maintenir leur taux d'utilisation au-dessus de 95 %, maximisant ainsi le retour sur investissement des ressources de calcul.

GPUDirect Storage établit un chemin direct entre le stockage NVMe et la mémoire GPU, en contournant le processeur et la RAM système. Ceci élimine les tampons de rebond, réduit la latence et la charge du processeur, et augmente la bande passante effective. Ainsi, les baies DAS IA certifiées GDS peuvent accélérer considérablement l'entraînement des modèles LLM et l'ingestion de données, justifiant leur prix élevé.

Pour les entreprises effectuant un entraînement LLM continu ou une inférence à haute fréquence, le délai de retour sur investissement des nœuds NVMe AI DAS haut de gamme a été réduit à environ 8 à 14 mois. Ce retour sur investissement plus rapide est dû à l'élimination de la « saturation des GPU » : une transmission de données plus rapide signifie qu'un nombre réduit de GPU est nécessaire pour traiter la même charge de travail.

L'EDSFF (E1.S, E3.S) remplace l'ancien U.2 en optimisant les charges de travail d'IA denses, en offrant une capacité bien supérieure dans chaque châssis 1U/2U tout en prenant en charge les niveaux de puissance PCIe Gen 5 jusqu'à 40 W par disque. Sa forme améliore également la circulation de l'air autour des composants chauds, réduisant ainsi les coûts de refroidissement et permettant des racks plus efficaces pour l'IA.

CXL offre une liaison haut débit et cohérente avec le cache, estompant la frontière entre mémoire et stockage. Dans les architectures DAS pour l'IA, il permet aux serveurs de mutualiser la capacité NVMe à connexion directe et de l'utiliser comme une extension de mémoire système. Ceci est crucial pour les modèles d'IA de grande taille dont les ensembles de données dépassent la VRAM du GPU, permettant une mise à l'échelle dynamique et à faible latence sans recourir au stockage en réseau.

En 2025, la pénurie de contrôleurs NVMe PCIe Gen 5 haut de gamme (5 nm/7 nm) a allongé les délais de livraison des systèmes DAS IA de pointe, les faisant passer d'environ 6 semaines à 16-18 semaines. Les entreprises du marché des systèmes de stockage IA à connexion directe doivent désormais anticiper leurs investissements en capital (CapEx) deux à trois trimestres à l'avance, tandis que les fournisseurs disposant d'une intégration verticale des semi-conducteurs ou d'un accès privilégié aux fonderies s'accaparent une part de marché disproportionnée.

VOUS RECHERCHEZ UNE CONNAISSANCE APPROFONDIE DU MARCHÉ ? FAITES APPEL À NOS SPÉCIALISTES EXPERTS.

PARLEZ À UN ANALYSTE