El mercado de sistemas de almacenamiento de IA de conexión directa alcanzó un valor de 12.190 millones de dólares en 2025 y se prevé que alcance una valoración de mercado de 50.180 millones de dólares en 2035, con una tasa de crecimiento anual compuesta (CAGR) del 15,20 % durante el período de previsión 2026-2035.
Un sistema de almacenamiento de IA de conexión directa es una arquitectura de almacenamiento de alto rendimiento. En ella, las unidades NVMe u otras unidades ultrarrápidas se conectan directamente a los servidores de IA (a través de PCIe o interfaces similares). De esta forma, se eliminan los saltos de red y se consigue una latencia inferior a un milisegundo y un ancho de banda de varios terabytes por segundo para cargas de trabajo centradas en la GPU. Esta configuración está optimizada específicamente para el entrenamiento y la inferencia de IA, donde los datos deben introducirse tan rápidamente que las GPU permanezcan saturadas en lugar de inactivas.
El crecimiento del mercado de sistemas de almacenamiento de IA de conexión directa se debe a la explosión de datos no estructurados y modelos a gran escala. Las cargas de trabajo de IA ahora requieren habitualmente decenas o cientos de terabytes por tarea. Marcos como los modelos de lógica descriptiva (LLM) y los modelos de visión artificial exigen acceso a datos casi instantáneo para evitar la saturación de la GPU. Alrededor del 40 % de las organizaciones que implementan marcos de IA ya utilizan almacenamiento de conexión directa para lograr un rendimiento de baja latencia. Aproximadamente el 45 % de las implementaciones recientes de almacenamiento de IA utilizan controladores inteligentes basados en NVMe o hardware optimizado para memoria flash para reducir los cuellos de botella.
Entre los factores clave que impulsan el crecimiento se encuentran las crecientes ganancias en la utilización de GPU tras la migración a DAS basado en NVMe. Su utilización suele superar el 90 % en lugar del 50-60 %. El tamaño de los conjuntos de datos está aumentando drásticamente, y muchos pipelines de IA ahora procesan lagos de datos de varios petabytes. Edge y 5G se está extendiendo, llevando el almacenamiento denso y de baja latencia directamente a racks locales en lugar de a centros de datos .
Para obtener más información, solicite una muestra gratuita
Para establecer con precisión la viabilidad comercial del mercado de sistemas de almacenamiento de IA de conexión directa, Astute Analytica ha delimitado el Mercado Totalmente Accesible (TAM) del Mercado Disponible y Garantizado (SAM). A medida que la infraestructura de IA evoluciona desde arquitecturas SAN/NAS monolíticas y centralizadas hacia combinaciones de computación y almacenamiento localizadas y de alto rendimiento, la escala financiera de este sector se expande a un ritmo vertiginoso.
En 2025, el mercado potencial total (TAM) para el almacenamiento de conexión directa (DAS) optimizado específicamente para cargas de trabajo de inteligencia artificial superó los 18.400 millones de dólares. Este crecimiento exponencial está estrechamente relacionado con el aumento vertiginoso de los presupuestos de inversión de capital (CapEx) de los proveedores de hiperescaladores de nivel 1 (AWS, Meta, Google) y los proveedores de nube especializados en GPU de nivel 2 (por ejemplo, CoreWeave, Lambda Labs). El cambio hacia el almacenamiento de IA de conexión directa se debe a la necesidad imperiosa de eliminar la latencia de red durante el entrenamiento de modelos de lenguaje grandes (LLM) y la inferencia de alta frecuencia.
Si bien el TAM representa el máximo teórico, el SAM, actualmente estimado en 12.190 millones de dólares, refleja capacidades de penetración realistas basadas en la disponibilidad actual de placas base PCIe Gen 5/Gen 6, la disponibilidad de GPU (específicamente las arquitecturas NVIDIA Hopper y Blackwell) y las tasas de adopción empresarial.
La dinámica del mercado de sistemas de almacenamiento de IA de conexión directa está regida por una compleja matriz de factores macroeconómicos favorables y microeconómicos decrecientes. Comprender estas fuerzas es fundamental para predecir la sostenibilidad del mercado a largo plazo.
Las políticas monetarias globales en 2025 se están estabilizando gradualmente, brindando a las empresas la previsibilidad en el costo del capital necesaria para las inversiones plurianuales en infraestructura de IA. Además, las iniciativas soberanas de IA —en las que los estados-nación financian sus propios centros de datos de IA para mantener la independencia tecnológica— están inyectando miles de millones de dólares de capital no dilutivo en el ecosistema de hardware.
A nivel micro, el elevado coste de la computación inactiva impulsa la adopción de DAS. Cuando las GPU, cuyo precio supera los 30 000 dólares cada una, permanecen inactivas a la espera de datos de un sistema de almacenamiento conectado a la red tradicional, el retorno sobre el capital invertido (ROIC) se desploma. Las arquitecturas de conexión directa proporcionan la ingesta de datos localizada y de gran ancho de banda necesaria para mantener los núcleos tensoriales saturados con una utilización superior al 95 %.
A pesar de la enorme demanda, el mercado de sistemas de almacenamiento de IA de conexión directa se enfrenta actualmente a importantes dificultades operativas. La información de mercado revela que los cuellos de botella en la cadena de suministro están alargando los plazos de entrega y amenazan con reducir los márgenes operativos de los proveedores de hardware especializados.
La drástica reducción de la producción de obleas NAND por parte de las principales fábricas (Samsung, SK Hynix, Kioxia) a finales de 2023 y en 2024 para corregir los precios ha generado un déficit estructural en 2025. Las memorias NAND 3D QLC y TLC de alto número de capas (más de 200), fundamentales para los sistemas DAS de IA de alta densidad, están experimentando restricciones de asignación. Además, los controladores ASIC PCIe Gen 5 especializados, necesarios para gestionar el flujo de datos a las GPU, se enfrentan a graves limitaciones de capacidad en la fundición de TSMC.
Las modernas unidades DAS de IA en el mercado de sistemas de almacenamiento de IA de conexión directa son de alta densidad energética, consumiendo a menudo más de 2500 vatios por chasis de 2U. Están surgiendo cuellos de botella operativos no solo en la adquisición del almacenamiento, sino también en su alimentación y refrigeración. Los centros de datos están alcanzando límites estrictos de disponibilidad de energía, lo que provoca retrasos en las implementaciones de inversión de capital.
En 2025, los marcos regulatorios han pasado de ser simples listas de verificación de cumplimiento a convertirse en factores determinantes de la arquitectura de hardware. El almacenamiento de IA de conexión directa (DAI) se encuentra en una posición privilegiada para beneficiarse de estas ventajas regulatorias.
Las interpretaciones estrictas del RGPD, junto con la Ley de IA de la UE recientemente ratificada, exigen que los datos sensibles utilizados para el ajuste fino de los modelos de lógica descriptiva no puedan circular por redes no protegidas ni cruzar fronteras soberanas sin una anonimización rigurosa. DAS aísla físicamente los datos de entrenamiento dentro del nodo de computación, cumpliendo así de forma inherente los estrictos requisitos de residencia y aislamiento de datos.
Las tensiones geopolíticas han provocado que Estados Unidos y la Unión Europea impongan estrictos controles a las exportaciones de equipos avanzados de redes de IA (como conmutadores InfiniBand específicos) a países con restricciones. En consecuencia, las entidades de estas regiones están compensando esta situación mediante la creación de enormes clústeres de almacenamiento de conexión directa (DSA), evitando así la necesidad de conmutadores de red de alta gama y restringidos para centralizar los datos.
El ecosistema de proveedores de almacenamiento de IA de conexión directa está altamente consolidado en la cúspide, impulsado por fabricantes de equipos originales (OEM) que han integrado verticalmente con éxito sus cadenas de suministro y han forjado sólidas alianzas con fabricantes de GPU de primer nivel como NVIDIA y AMD.
El panorama de nivel 1 en el mercado de sistemas de almacenamiento de IA de conexión directa está dominado por pesos pesados como
Supermicro, en particular, ha captado una cuota de mercado desproporcionada gracias a su arquitectura modular, que permite a los proveedores de servicios en personalizar sin problemas las relaciones DAS-GPU. La serie PowerEdge XE de Dell, altamente optimizada para IA con backplanes NVMe de alta densidad y conexión directa, representa una fuente de ingresos multimillonaria, con márgenes EBITDA que se expanden en 300 puntos básicos interanuales gracias a los modelos de precios premium para IA.
Los actores de nivel 2 en el mercado de sistemas de almacenamiento de IA de conexión directa, incluidos Lenovo, Cisco y los fabricantes regionales de diseño original (ODM) de productos genéricos como Quanta y Wiwynn , desempeñan un papel fundamental. Suministran principalmente a proveedores de nube de nivel 2 y centros de datos de IA soberanos.
Si bien los fabricantes de equipos originales tradicionales controlan el mercado de sistemas de almacenamiento físico de IA de conexión directa, una oleada de empresas disruptivas con una fuerte financiación de capital riesgo está apuntando agresivamente a los cuellos de botella fundamentales del almacenamiento de conexión directa: la latencia del controlador y las ineficiencias de RAID.
Los controladores RAID de hardware tradicionales limitan considerablemente el rendimiento de las unidades NVMe PCIe Gen 5. Empresas innovadoras como Graid Technology están eludiendo los controladores RAID tradicionales mediante el uso de GPU secundarias de gama baja o ASIC dedicados para calcular los datos de paridad. Este enfoque, definido por software y acelerado por hardware, permite que un único nodo DAS alcance más de 25 millones de IOPS sin intervención de la CPU, lo que transforma radicalmente el coste total de propiedad (TCO).
Los proveedores de almacenamiento fundamentales, como Solidigm y Phison, están actuando como fuerzas disruptivas al subvencionar en gran medida la I+D de controladores de almacenamiento específicos para IA y memoria NAND QLC de densidad extrema.
La ventaja tecnológica en el mercado del almacenamiento de IA se define por la velocidad con la que un proveedor puede adoptar y comercializar protocolos de interconexión de próxima generación. Actualmente estamos presenciando tres cambios arquitectónicos trascendentales.
CXL 2.0 y 3.0 representan, sin duda, las innovaciones más importantes en el mercado de sistemas de almacenamiento de IA de conexión directa en una década. CXL permite que la CPU, la GPU y el almacenamiento NVMe especializado compartan un conjunto de memoria coherente. Los expansores de memoria y las unidades de almacenamiento CXL de conexión directa difuminan la línea entre la RAM volátil y el almacenamiento no volátil, lo que permite a los sistemas de gestión de memoria local (LLM) almacenar conjuntos de datos exponencialmente mayores "en memoria" localmente.
El acceso directo a memoria (DMA) ha evolucionado. La tecnología GPUDirect Storage de NVIDIA permite una ruta de datos directa entre el DAS NVMe local y la memoria de la GPU (VRAM), evitando por completo los búferes de rebote de la CPU.
La transición del almacenamiento empresarial tradicional al almacenamiento centrado en la IA viene definida por el medio subyacente. Los formatos de almacenamiento heredados están quedando rápidamente obsoletos en favor de arquitecturas de estado sólido de alto rendimiento.
En el contexto del entrenamiento de IA y la inferencia en tiempo real, los discos duros rotativos y las unidades de estado sólido SAS/SATA tradicionales generan cuellos de botella de latencia inaceptables. El mercado de sistemas de almacenamiento de IA de conexión directa se ha volcado mayoritariamente a la memoria no volátil Express (NVMe) sobre PCIe, que proporciona las colas de datos paralelas necesarias para alimentar cargas de trabajo de IA altamente concurrentes.
Analizar el mercado por componentes revela dónde se produce realmente la extracción de valor. No es necesariamente la memoria flash NAND en sí misma la que genera el mayor margen de beneficio, sino el silicio inteligente y el software que la gestionan.
La clave del éxito de un sistema de almacenamiento de IA de conexión directa reside en su controlador y hardware de interfaz. Estos componentes gestionan la nivelación del desgaste, la limitación térmica y los protocolos de acceso directo a memoria (DMA), como GPUDirect Storage de NVIDIA, que omite la CPU para enviar datos directamente desde la unidad NVMe a la memoria de la GPU. Las empresas que diseñan estos controladores propietarios suelen fijar precios elevados.
La utilización del almacenamiento de IA de conexión directa no es monolítica, sino que está altamente segmentada según la fase específica del ciclo de vida de la inteligencia artificial. En 2025, el mercado se caracteriza por una clara división entre el entrenamiento de modelos fundamentales, el establecimiento de puntos de control y las cargas de trabajo de inferencia de alta frecuencia.
El entrenamiento de modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés), que involucran billones de parámetros, genera un volumen sin precedentes de datos intermedios en el mercado de sistemas de almacenamiento de IA de conexión directa. Durante la fase de entrenamiento, los modelos deben realizar "puntos de control", guardando el estado de la red neuronal cada pocas horas para evitar una pérdida catastrófica de datos en caso de fallo de la GPU. Este proceso requiere ráfagas de escritura masivas e instantáneas que fácilmente saturan el almacenamiento en red tradicional. Las matrices NVMe DAS locales absorben estas ráfagas a escala de terabytes en segundos, lo que garantiza que el tiempo de inactividad de la GPU sea prácticamente nulo.
Acceda solo a las secciones que necesita: específicas de la región, de la empresa o por caso de uso.
Incluye una consulta gratuita con un experto en el dominio para ayudarle a orientar su decisión.
Los equipos de compras empresariales están muy centrados en la intersección entre el ancho de banda de la interfaz y la densidad de almacenamiento. En 2025, los formatos antiguos, como las unidades U.2, se están dejando de usar rápidamente en favor de arquitecturas diseñadas específicamente para la integridad de la señal y la eficiencia térmica a altas capacidades.
El auge del EDSFF (factor de forma estándar para empresas y centros de datos)
La transición a PCIe Gen 5 (y el acceso anticipado a PCIe Gen 6) ha consolidado el dominio de las unidades EDSFF en el mercado de sistemas de almacenamiento de IA de conexión directa, específicamente los formatos E3.S y E1.S. Estas unidades permiten a los fabricantes de equipos originales (OEM) integrar capacidades de conexión directa de varios petabytes en chasis estándar de 1U y 2U. Además, la orientación vertical de las unidades E1.S mejora drásticamente el flujo de aire sobre los controladores NVMe de alto TDP (potencia de diseño térmico) y las GPU adyacentes.
Para saber más sobre esta investigación: Solicite una muestra gratuita
La generación de ingresos geográficos en el sector del almacenamiento de IA es altamente asimétrica. La concentración de sedes de hiperescaladores, empresas de diseño de semiconductores y capital de riesgo crea potencias regionales bien definidas.
Estados Unidos sigue siendo el epicentro indiscutible del despliegue de infraestructura de IA en el mercado norteamericano de sistemas de almacenamiento de IA de conexión directa (DAS). Impulsado por el dinamismo innovador de Silicon Valley y las cuantiosas subvenciones federales destinadas a la fabricación local de semiconductores (efectos derivados de la Ley CHIPS), el mercado estadounidense admite la mayor densidad de matrices DAS de alto rendimiento.
Si bien Norteamérica mantiene la cuota de mercado dominante, la velocidad de inversión de capital se está desplazando rápidamente hacia el este. La región de Asia-Pacífico está experimentando un desarrollo de infraestructura de IA sin precedentes.
Los gobiernos de Japón, Corea del Sur y Singapur están subvencionando generosamente la infraestructura de IA para compensar el descenso demográfico mediante la automatización. Además, la presencia en Taiwán del principal ecosistema mundial de fabricación de hardware proporciona acceso local a tecnologías de almacenamiento de vanguardia a menores costes logísticos.
Principales empresas en el mercado de sistemas de almacenamiento de IA de conexión directa
Descripción general de la segmentación del mercado
Por capacidad
Por tipo
Por aplicación
Por el usuario final
Por región
El mercado de sistemas de almacenamiento de IA de conexión directa alcanzó un valor de 12.190 millones de dólares en 2025 y se prevé que alcance una valoración de mercado de 50.180 millones de dólares en 2035, con una tasa de crecimiento anual compuesta (CAGR) del 15,20 % durante el período de previsión 2026-2035.
Los sistemas NAS tradicionales transfieren datos a través de conmutadores de red externos, lo que añade una latencia de microsegundos a milisegundos. El almacenamiento de IA de conexión directa (DAS) enlaza unidades NVMe ultrarrápidas directamente al bus PCIe del servidor, proporcionando el ancho de banda masivo y de baja latencia necesario para mantener las GPU alimentadas y una utilización superior al 95 %, maximizando así el retorno de la inversión en gastos de capital de computación.
GPUDirect Storage crea una conexión directa entre el almacenamiento NVMe y la memoria de la GPU, sin pasar por la CPU ni la RAM del sistema. Esto elimina los búferes de rebote, reduce la latencia, disminuye la sobrecarga de la CPU y aumenta el ancho de banda efectivo, por lo que las matrices DAS de IA con certificación GDS pueden acelerar drásticamente el entrenamiento de LLM y la ingesta de datos, justificando así su precio elevado.
Para las empresas que realizan entrenamiento continuo de modelos de lógica descriptiva (LLM) o inferencia de alta frecuencia, el período de recuperación de la inversión para los nodos DAS de IA NVMe premium se ha reducido a aproximadamente 8-14 meses. Este retorno de la inversión más rápido se debe a la eliminación de la "falta de GPU": una entrega de datos más rápida implica que se necesitan menos GPU para gestionar la misma carga de trabajo.
EDSFF (E1.S, E3.S) reemplaza al formato U.2 tradicional, optimizándose para cargas de trabajo de IA densas y ofreciendo una capacidad mucho mayor en cada chasis de 1U/2U, a la vez que admite niveles de potencia PCIe Gen 5 de hasta 40 W por unidad. Su diseño también mejora el flujo de aire sobre los componentes calientes, lo que reduce los costos de refrigeración y permite racks más eficientes preparados para IA.
CXL proporciona un enlace de alta velocidad y con coherencia de caché que difumina los límites entre memoria y almacenamiento. En AI DAS, permite que los servidores agrupen la capacidad NVMe de conexión directa y la traten como memoria del sistema extendida. Esto es fundamental para modelos de IA gigantes cuyos conjuntos de datos superan la VRAM de la GPU, ya que permite una escalabilidad dinámica y de baja latencia sin depender del almacenamiento conectado a la red.
En 2025, la escasez de controladores NVMe PCIe Gen 5 de gama alta de 5 nm/7 nm ha alargado los plazos de entrega de los sistemas DAS de IA de primera categoría, pasando de unas 6 semanas a unas 16-18 semanas. Las empresas del mercado de sistemas de almacenamiento de IA de conexión directa ahora necesitan definir sus planes de inversión en almacenamiento de IA con dos o tres trimestres de antelación, mientras que los proveedores con silicio integrado verticalmente o acceso directo a la fundición obtienen una cuota de mercado desproporcionada.
¿BUSCA UN CONOCIMIENTO INTEGRAL DEL MERCADO? CONTACTE CON NUESTROS ESPECIALISTAS.
HABLE CON UN ANALISTA