2025 年,直接连接式 AI 存储系统市场规模为 121.9 亿美元,预计到 2035 年将达到 501.8 亿美元的市场规模,在 2026 年至 2035 年的预测期内,复合年增长率为 15.20%。.
直连式AI存储系统是一种高性能存储架构。在这种架构中,NVMe或其他超高速硬盘通过PCIe或类似接口直接连接到AI服务器。因此,它消除了网络跳转,为以GPU为中心的工作负载提供亚毫秒级延迟和数TB/秒的带宽。这种架构专为AI训练和推理而优化,在这些应用中,数据必须以极快的速度输入,以确保GPU始终处于满负荷运行状态,而不是处于空闲状态。
直接连接式AI存储系统市场的增长主要受非结构化数据和大规模模型爆炸式增长的驱动。如今,AI工作负载通常每个作业需要数十到数百TB的数据。诸如LLM和视觉模型之类的框架需要近乎瞬时的数据访问,以避免“GPU资源匮乏”。大约40%部署AI框架的组织已经依赖直接连接式存储来实现低延迟吞吐量。近期约45%的AI存储部署采用基于智能NVMe的控制器或闪存优化硬件来减少瓶颈。.
推动增长的关键因素包括:迁移到基于 NVMe 的分布式应用存储系统 (DAS) 后,GPU 利用率大幅提升。其利用率通常超过 90%,而非之前的 50-60%。数据集规模也在急剧增长,许多 AI 流水线现在都在处理 PB 级的数据湖。边缘计算和 5G 驱动的 AI 正在迅速普及,将高密度、低延迟存储直接推向本地机架,而非远程数据中心。
如需了解更多信息,请申请免费样品
为了准确评估直连式人工智能存储系统市场的商业可行性,Astute Analytica 将总潜在市场 (TAM) 与可服务市场 (SAM) 区分开来。随着人工智能基础设施从单体集中式 SAN/NAS 架构转向高吞吐量、本地化的计算存储组合,该领域的规模正以惊人的速度扩张。.
到2025年,专为人工智能工作负载优化的直连存储(DAS)的潜在市场规模(TAM)已突破184亿美元大关。这种指数级增长与一级超大规模云服务商(如AWS、Meta、Google)和二级专用GPU云服务提供商(如CoreWeave、Lambda Labs)不断增长的资本支出预算密切相关。推动人工智能直连存储发展的根本原因在于,在大型语言模型(LLM)训练和高频推理过程中,消除网络延迟势在必行。.
TAM 代表理论上的最大值,而 SAM(目前模型为 121.9 亿美元)反映了基于现有 PCIe Gen 5/Gen 6 主板可用性、GPU 可用性(特别是 NVIDIA Hopper 和 Blackwell 架构)以及企业采用率的实际渗透能力。.
直接连接式人工智能存储系统市场的发展速度受宏观经济利好因素和微观经济加速因素等复杂因素的影响。了解这些因素对于预测市场的长期可持续性至关重要。.
2025年全球货币政策趋于稳定,为企业提供了多年人工智能基础设施投资所需的资本成本可预测性。此外,主权人工智能计划——即各国为维护技术独立性而自筹资金建设人工智能数据中心——正向硬件生态系统注入数十亿美元的非稀释性资本。.
从微观层面来看,闲置计算的巨大成本正在推动直接连接存储(DAS)技术的普及。当每台售价高达 3 万美元的 GPU 闲置等待传统网络附加存储阵列的数据时,投资回报率(ROIC)会急剧下降。直接连接架构能够提供本地化的、大带宽的数据摄取,从而确保张量核心的利用率保持在 95% 以上。.
尽管市场需求旺盛,但直连式人工智能存储系统市场目前正面临严重的运营困境。市场情报显示,供应链瓶颈正在延长交货周期,并有可能压缩纯硬件供应商的运营利润率。.
为了应对价格上涨,主要晶圆厂(三星、SK海力士、铠侠)在2023年末和2024年大幅削减了NAND晶圆的产量,导致2025年出现结构性供应短缺。对高密度AI分布式阵列系统(DAS)至关重要的高层数(200层以上)3D QLC和TLC NAND晶圆也面临配额限制。此外,用于管理GPU数据流的专用PCIe Gen 5 ASIC控制器在台积电也面临着严重的产能瓶颈。.
现代AI DAS(直接连接式人工智能存储系统)单元在市场中功耗很高,每个2U机箱的功耗通常超过2500瓦。运营瓶颈不仅出现在存储设备的采购上,也出现在其供电和冷却方面。数据中心正面临电力可用性的严格限制,迫使资本支出部署延期。.
到2025年,监管框架将从次要的合规清单转变为硬件架构的主要驱动力。直连式人工智能存储技术凭借其独特的优势,有望从这些监管壁垒中获益。.
对 GDPR 的严格解读,以及新近批准的欧盟人工智能法案,都要求用于微调 LLM 的敏感数据未经严格匿名化处理,不得通过未受保护的网络传输或跨越主权边界。DAS 将训练数据物理隔离在计算节点内,从根本上满足了严格的数据驻留和隔离要求。.
地缘政治紧张局势导致美国和欧盟对出口到受限国家的先进人工智能网络设备(例如特定的InfiniBand交换机)实施了严格的出口管制。因此,这些地区的实体正大力构建大规模的直连存储集群来弥补这一限制,从而绕过对高端受限网络交换机的需求,实现数据池化。.
直接连接式 AI 存储的供应商生态系统高度集中于顶层,这主要由成功实现供应链垂直整合并与 NVIDIA 和 AMD 等顶级 GPU 制造商建立深度合作关系的 OEM 厂商推动。.
直接连接式人工智能存储系统市场的顶级厂商主要由以下巨头主导:
Supermicro凭借其模块化架构,尤其占据了巨大的市场份额,使超大规模数据中心能够无缝定制DAS与GPU的比例。戴尔的PowerEdge XE系列服务器针对人工智能进行了深度优化,配备了高密度直连式NVMe背板,凭借高端人工智能定价模式,创造了数十亿美元的营收,其EBITDA利润率同比增长了300个基点。
在直连式AI存储系统市场中,包括联想、思科以及广达、维维恩等区域性白盒ODM厂商在内的扮演着至关重要的角色。它们主要为二线云服务提供商和自主AI数据中心供货。
虽然传统 OEM 厂商控制着物理直连式 AI 存储系统市场,但一波获得大量风险投资的颠覆者正在积极瞄准直连式存储的基础瓶颈:控制器延迟和 RAID 效率低下。.
传统的硬件 RAID 控制器严重限制了 PCIe Gen 5 NVMe 固态硬盘的性能。像Graid Technology公司正在绕过传统的 RAID 芯片,利用辅助的低端 GPU 或专用 ASIC 来计算奇偶校验数据。这种软件定义、硬件加速的方法使得单个 DAS 节点无需 CPU 干预即可实现超过 2500 万 IOPS 的运算速度,从根本上改变了总体拥有成本 (TCO) 的计算方式。
Solidigm和Phison这样的基础存储供应商正在通过大力补贴人工智能专用存储控制器和超高密度 QLC NAND 的研发,发挥颠覆性力量的作用。
人工智能存储市场的技术护城河取决于供应商采用和商业化下一代互连协议的速度。我们目前正目睹三大架构变革。.
CXL 2.0 和 3.0 可以说是近十年来对直连式 AI 存储系统市场影响最为深远的变革。CXL 允许 CPU、GPU 和专用 NVMe 存储共享一个统一的内存池。直连式 CXL 内存扩展器和存储驱动器模糊了易失性 RAM 和非易失性存储之间的界限,使 LLM 能够在本地“内存中”存储指数级增长的数据集。.
直接内存访问 (DMA) 技术已经发展演变。NVIDIA 的 GPUDirect Storage 技术实现了本地 NVMe DAS 和 GPU 内存 (VRAM) 之间的直接数据路径,完全绕过了 CPU 缓冲。.
从传统企业存储到以人工智能为中心的存储的转变,取决于底层介质。传统介质格式正迅速被淘汰,取而代之的是高吞吐量的固态架构。.
在人工智能训练和实时推理的背景下,机械硬盘和传统的SAS/SATA固态硬盘会引入无法接受的延迟瓶颈。直接连接的人工智能存储系统市场已基本转向基于PCIe的非易失性存储器高速接口(NVMe),它提供了并行数据队列,足以满足高并发人工智能工作负载的需求。.
按组件分析市场,就能揭示价值真正从何而来。并非裸露的NAND闪存本身就能获得最高利润,而是与之协同工作的智能芯片和软件。.
直连式AI存储系统市场的核心在于其控制器和接口硬件。这些组件负责管理损耗均衡、过热降频以及直接内存访问(DMA)协议,例如NVIDIA的GPUDirect Storage,它绕过CPU,将数据直接从NVMe固态硬盘发送到GPU内存。设计这些专有控制器的公司可以获得高额溢价。.
直接连接式人工智能存储的应用并非单一模式,而是根据人工智能生命周期的特定阶段进行高度细分。到2025年,市场将呈现出基础模型训练、检查点存储和高频推理工作负载之间的明显划分。.
训练涉及数万亿参数的大型语言模型 (LLM) 会在直接连接式 AI 存储系统市场产生前所未有的海量中间数据。在训练阶段,模型必须执行“检查点”操作——每隔几个小时保存一次神经网络的状态,以防止 GPU 故障时发生灾难性的数据丢失。这一过程需要大量的瞬时写入操作,这很容易使传统的网络存储系统不堪重负。本地 NVMe DAS 阵列可以在几秒钟内吸收这些 TB 级的突发写入,从而确保 GPU 的空闲时间接近于零。.
企业采购团队高度关注接口带宽和存储密度的平衡点。到2025年,U.2等传统外形尺寸将迅速被淘汰,取而代之的是专为高容量下的信号完整性和散热效率而设计的新型架构。.
企业和数据中心标准外形尺寸 (EDSFF) 的兴起
向 PCIe Gen 5(以及早期 PCIe Gen 6)的过渡巩固了 EDSFF 硬盘在直连式 AI 存储系统市场的主导地位,尤其是 E3.S 和 E1.S 外形尺寸的硬盘。这些硬盘使 OEM 厂商能够将数 PB 级的直连存储容量集成到标准的 1U 和 2U 机箱中。此外,E1.S 硬盘的垂直布局显著改善了高 TDP(热设计功耗)NVMe 控制器和相邻 GPU 的气流。.
仅访问您需要的部分——按地区、公司或用例划分。.
包含与领域专家的免费咨询,以帮助您做出决定。.
人工智能存储领域的收入分布极不对称。超大规模数据中心、芯片设计公司和风险投资的集中,造就了各自独特的区域性经济巨头。.
在北美直接连接式人工智能存储系统市场,美国仍然是人工智能基础设施部署无可争议的中心。在硅谷创新飞轮和旨在促进本地半导体制造的大量联邦拨款(《芯片法案》的下游效应)的驱动下,美国市场支持着最高密度的高性能DAS阵列。.
虽然北美目前占据主导地位,但资本部署的重心正迅速东移。亚太地区正在经历前所未有的AI基础设施建设。.
日本、韩国和新加坡政府正大力补贴人工智能基础设施建设,以通过自动化来应对人口下降带来的影响。此外,台湾拥有世界领先的硬件制造生态系统,这使得台湾能够以更低的物流成本本地化地获取尖端存储技术。.
直连式人工智能存储系统市场中的顶尖公司
市场细分概述
按容量
按类型
通过申请
最终用户
按地区
2025 年,直接连接式 AI 存储系统市场规模为 121.9 亿美元,预计到 2035 年将达到 501.8 亿美元的市场规模,在 2026 年至 2035 年的预测期内,复合年增长率为 15.20%。.
传统NAS通过外部网络交换机传输数据,会引入微秒到毫秒级的延迟。而直连式AI存储(DAS)将超高速NVMe硬盘直接连接到服务器的PCIe总线,提供海量低延迟带宽,确保GPU获得充足数据,利用率保持在95%以上,从而最大限度地提高计算资本支出回报。.
GPUDirect Storage (GPUDirect Storage) 在 NVMe 存储和 GPU 内存之间建立直接路径,绕过 CPU 和系统内存。这消除了缓冲,降低了延迟,减少了 CPU 开销,并提高了有效带宽,因此,通过 GDS 认证的 AI DAS 阵列可以显著加速 LLM 训练和数据摄取,从而证明了其高昂价格的合理性。.
对于运行持续LLM训练或高频推理的企业而言,高端NVMe AI DAS节点的投资回收期已缩短至约8-14个月。更快的投资回报率源于消除了“GPU资源匮乏”:更快的数据传输速度意味着处理相同工作负载所需的GPU数量更少。.
EDSFF(E1.S、E3.S)取代了传统的U.2,针对高密度AI工作负载进行了优化,在每个1U/2U机箱中实现了更高的容量,同时支持高达40W/盘的PCIe Gen 5功耗。其独特的外形设计还能改善发热组件的散热,降低冷却成本,从而打造更高效的AI就绪型机架。.
CXL 提供了一种高速、缓存一致的链路,模糊了内存和存储的界限。在 AI DAS 中,它允许服务器汇集直连 NVMe 容量,并将其视为扩展系统内存。这对于数据集超过 GPU 显存的大型 AI 模型至关重要,它无需依赖网络附加存储即可实现动态、低延迟的扩展。.
到2025年,高端5nm/7nm PCIe Gen 5 NVMe控制器的短缺已将顶级AI DAS系统的交付周期从约6周延长至约16-18周。直接连接式AI存储系统市场的企业现在需要提前两到三个季度锁定AI存储的资本支出计划,而拥有垂直整合芯片或深度代工能力的供应商则获得了不成比例的市场份额。.
想要获取全面的市场信息?请联系我们的专家团队。.
与分析师交谈