全天候客户支持

直连式人工智能存储系统市场:按容量(50TB以上、5TB至20TB、5TB以下、20TB至50TB);类型(网络附加存储、固态硬盘、机械硬盘、混合存储);应用(机器学习、数据分析、人工智能、大数据、深度学习);最终用户(大型企业、中小企业、政府机构)划分——市场规模、行业动态、机遇分析及2026-2035年预测

  • 最后更新日期:2026年4月9日 |  
    格式:PDF
     | 报告编号:AA04261756  

常见问题解答

2025 年,直接连接式 AI 存储系统市场规模为 121.9 亿美元,预计到 2035 年将达到 501.8 亿美元的市场规模,在 2026 年至 2035 年的预测期内,复合年增长率为 15.20%。.

传统NAS通过外部网络交换机传输数据,会引入微秒到毫秒级的延迟。而直连式AI存储(DAS)将超高速NVMe硬盘直接连接到服务器的PCIe总线,提供海量低延迟带宽,确保GPU获得充足数据,利用率保持在95%以上,从而最大限度地提高计算资本支出回报。.

GPUDirect Storage (GPUDirect Storage) 在 NVMe 存储和 GPU 内存之间建立直接路径,绕过 CPU 和系统内存。这消除了缓冲,降低了延迟,减少了 CPU 开销,并提高了有效带宽,因此,通过 GDS 认证的 AI DAS 阵列可以显著加速 LLM 训练和数据摄取,从而证明了其高昂价格的合理性。.

对于运行持续LLM训练或高频推理的企业而言,高端NVMe AI DAS节点的投资回收期已缩短至约8-14个月。更快的投资回报率源于消除了“GPU资源匮乏”:更快的数据传输速度意味着处理相同工作负载所需的GPU数量更少。.

EDSFF(E1.S、E3.S)取代了传统的U.2,针对高密度AI工作负载进行了优化,在每个1U/2U机箱中实现了更高的容量,同时支持高达40W/盘的PCIe Gen 5功耗。其独特的外形设计还能改善发热组件的散热,降低冷却成本,从而打造更高效的AI就绪型机架。.

CXL 提供了一种高速、缓存一致的链路,模糊了内存和存储的界限。在 AI DAS 中,它允许服务器汇集直连 NVMe 容量,并将其视为扩展系统内存。这对于数据集超过 GPU 显存的大型 AI 模型至关重要,它无需依赖网络附加存储即可实现动态、低延迟的扩展。.

到2025年,高端5nm/7nm PCIe Gen 5 NVMe控制器的短缺已将顶级AI DAS系统的交付周期从约6周延长至约16-18周。直接连接式AI存储系统市场的企业现在需要提前两到三个季度锁定AI存储的资本支出计划,而拥有垂直整合芯片或深度代工能力的供应商则获得了不成比例的市场份额。.

想要获取全面的市场信息?请联系我们的专家团队。.

与分析师交谈