据报道,

戴尔创始人兼CEO Michael Dell近日发表了对AI内存市场前景的判断,预计到2028年,全球AI内存总需求将达到2023年水平的625倍。



这一惊人数字背后是两条增长曲线的叠加,Michael Dell指出,单颗AI加速器的内存容量和全球加速器部署规模正在同步扩张。




NVIDIA 2023年发布的H100搭载80GB HBM内存,预计到2028年,单颗AI加速器所需的内存容量将大幅跃升至2TB,实现约25倍的增长。



与此同时,全球数据中心内AI加速器的部署总量预计也将扩大约25倍,两者相乘,总内存需求便达到了625倍的量级。



戴尔CEO:AI内存需求将暴增625倍!买方彻底没了议价权


从NVIDIA产品的演进路径也能看出这一趋势:H100(80GB HBM)、H200(141GB HBM)、B200(192GB HBM)、B300(288GB HBM)、Vera Rubin(288GB HBM4 + 1536GB SOCAMM = 1824GB)。



SOCAMM是由NVIDIA主导、联合三星、SK海力士、美光等厂商共同开发的模块化内存标准,专门面向AI服务器和AI PC的工作负载优化。



与HBM不同,SOCAMM承担的是CPU侧的大容量内存角色,在Vera Rubin平台上单颗即可提供1536GB容量,直接将单加速器系统的内存天花板推到了接近2TB。



Michael Dell还强调,

内存供给的扩张需要数年时间,但当前AI基础设施的需求并未显示出任何放缓的迹象,“我们仍处于技术导入的早期阶段”。



自 快科技




更多阅读:





  • NVIDIA:数据中心收入两年暴增10倍达391亿美元




  • NVIDIA:2025年Q2网络芯片营收22.58亿美元,同比增6.5倍




  • fool:2026年NVIDIA营收将达2060亿美元




  • 华尔街:预计2025年Q3 NVIDIA营收552.8亿美元,同比增长55.8%




  • Jon Peddie Associates:2025年Q3数据中心GPU出货量增长145%




  • 英伟达:2026财年Q4营收681亿美元,同比增长73%




  • 贝恩资本:2030年AI行业需2万亿美元营收才能盈利




  • TrendForce:2025年全球AI服务器出货量增速降至24.3%




  • JPR:2025年Q2全球独显市场NVIDIA份额94%,AMD跌至6%




  • Dawana:2025年6月韩国显卡市场NVIDIA占76%




  • TechEpiphany:2025年6月美国显卡销量NVIDIA占比70.51%




  • Steam:2025年6月NVIDIA显卡占比74.07%




  • JPR:2025年Q1全球独显GPU市场NVIDIA份额94% AMD降至6%




  • NVIDIA:RTX 6090显卡CUDA核心将达28672个,性能提升30%




  • HardwareUnboxed:2025年澳大利亚显卡市场NVIDIA占56% AMD占44%