Atención al cliente 24/7

Mercado de sistemas de almacenamiento de IA de conexión directa: por capacidad (más de 50 TB, de 5 TB a 20 TB, menos de 5 TB, de 20 TB a 50 TB); tipo (almacenamiento conectado a la red, unidad de estado sólido, disco duro, almacenamiento híbrido); aplicación (aprendizaje automático, análisis de datos, inteligencia artificial, macrodatos, aprendizaje profundo); usuario final (grandes empresas, pequeñas y medianas empresas, gobierno): tamaño del mercado, dinámica de la industria, análisis de oportunidades y pronóstico para 2026-2035

  • Última actualización: 09-abr-2026 |  
    Formato: PDF
     | ID del informe: AA04261756  

PREGUNTAS FRECUENTES

El mercado de sistemas de almacenamiento de IA de conexión directa alcanzó un valor de 12.190 millones de dólares en 2025 y se prevé que alcance una valoración de mercado de 50.180 millones de dólares en 2035, con una tasa de crecimiento anual compuesta (CAGR) del 15,20 % durante el período de previsión 2026-2035.

Los sistemas NAS tradicionales transfieren datos a través de conmutadores de red externos, lo que añade una latencia de microsegundos a milisegundos. El almacenamiento de IA de conexión directa (DAS) enlaza unidades NVMe ultrarrápidas directamente al bus PCIe del servidor, proporcionando el ancho de banda masivo y de baja latencia necesario para mantener las GPU alimentadas y una utilización superior al 95 %, maximizando así el retorno de la inversión en gastos de capital de computación.

GPUDirect Storage crea una conexión directa entre el almacenamiento NVMe y la memoria de la GPU, sin pasar por la CPU ni la RAM del sistema. Esto elimina los búferes de rebote, reduce la latencia, disminuye la sobrecarga de la CPU y aumenta el ancho de banda efectivo, por lo que las matrices DAS de IA con certificación GDS pueden acelerar drásticamente el entrenamiento de LLM y la ingesta de datos, justificando así su precio elevado.

Para las empresas que realizan entrenamiento continuo de modelos de lógica descriptiva (LLM) o inferencia de alta frecuencia, el período de recuperación de la inversión para los nodos DAS de IA NVMe premium se ha reducido a aproximadamente 8-14 meses. Este retorno de la inversión más rápido se debe a la eliminación de la "falta de GPU": una entrega de datos más rápida implica que se necesitan menos GPU para gestionar la misma carga de trabajo.

EDSFF (E1.S, E3.S) reemplaza al formato U.2 tradicional, optimizándose para cargas de trabajo de IA densas y ofreciendo una capacidad mucho mayor en cada chasis de 1U/2U, a la vez que admite niveles de potencia PCIe Gen 5 de hasta 40 W por unidad. Su diseño también mejora el flujo de aire sobre los componentes calientes, lo que reduce los costos de refrigeración y permite racks más eficientes preparados para IA.

CXL proporciona un enlace de alta velocidad y con coherencia de caché que difumina los límites entre memoria y almacenamiento. En AI DAS, permite que los servidores agrupen la capacidad NVMe de conexión directa y la traten como memoria del sistema extendida. Esto es fundamental para modelos de IA gigantes cuyos conjuntos de datos superan la VRAM de la GPU, ya que permite una escalabilidad dinámica y de baja latencia sin depender del almacenamiento conectado a la red.

En 2025, la escasez de controladores NVMe PCIe Gen 5 de gama alta de 5 nm/7 nm ha alargado los plazos de entrega de los sistemas DAS de IA de primera categoría, pasando de unas 6 semanas a unas 16-18 semanas. Las empresas del mercado de sistemas de almacenamiento de IA de conexión directa ahora necesitan definir sus planes de inversión en almacenamiento de IA con dos o tres trimestres de antelación, mientras que los proveedores con silicio integrado verticalmente o acceso directo a la fundición obtienen una cuota de mercado desproporcionada.

¿BUSCA UN CONOCIMIENTO INTEGRAL DEL MERCADO? CONTACTE CON NUESTROS ESPECIALISTAS.

HABLE CON UN ANALISTA