算力竞速白热化!OpenAI百亿布局、英伟达平台量产、华为系统亮相,AI底座再升级

发布时间:6小时前

类别:行业动态

阅读:4

摘要:

算力竞速白热化!OpenAI百亿布局、英伟达平台量产、华为系统亮相,AI底座再升级

【中国电子报 记者 张颖 2026年1月16日】2026年开年,全球AI算力生态迎来密集技术爆发与战略布局。OpenAI豪掷超百亿美元与Cerebras联手部署超大算力集群,英伟达Verarubin六芯片AI平台正式量产重构算力底座,华为昇腾CloudMatrix系统亮相CES展展现全栈协同能力。三大巨头的动作分别代表了AI巨头的算力扩容、芯片龙头的架构革新与国产力量的生态突破,推动全球AI算力竞争进入“性能比拼+生态协同”的全新阶段。

OpenAI百亿级算力加码,Cerebras芯片实现15倍性能跃升

1月14日,OpenAI官宣与专注于超大芯片研发的Cerebras Systems达成深度合作,双方将分阶段部署总功率达750兆瓦的专属算力集群,合作总价值超100亿美元,创下AI行业单次算力合作规模新高。此次合作旨在解决千亿至万亿参数大模型训练的算力瓶颈,为下一代通用人工智能(AGI)研发筑牢基础设施。

合作核心亮点在于Cerebras的专用算力芯片,其性能较传统GPU实现跨越式提升,官方数据显示运算速度可达普通GPU的15倍,且能通过 wafer-scale 架构突破单芯片性能极限,无需复杂的多GPU互联即可高效支撑千亿参数模型的端到端训练,大幅缩短模型迭代周期。相较于传统GPU集群,Cerebras方案可将大模型训练时间从数月压缩至数周,同时降低30%以上的能耗成本,完美适配OpenAI对算力效率与规模的双重需求。

据悉,该算力集群将分三期部署,首期200兆瓦算力预计2026年中投入使用,优先服务于GPT系列模型的迭代与多模态能力升级;后续将逐步扩容至750兆瓦,可同时支撑多个万亿参数模型的并行训练与推理。此次合作也标志着AI巨头正从依赖通用GPU转向探索专用算力方案,开启算力架构多元化时代。

英伟达Verarubin平台量产,六芯片协同重构AI算力底座

1月10日,英伟达在CES 2026展会上宣布,全球首个六芯片协同AI超算平台Verarubin(全称Vera Rubin)正式进入规模化量产阶段,凭借全栈架构革新重新定义AI算力标准。该平台打破传统单一芯片升级路径,整合6款全新定制芯片,形成“算力-网络-存储”一体化解决方案,全面适配大模型训练、推理及物理AI场景。

核心性能方面,Verarubin平台的Rubin GPU推理算力达50PFlops,是前代Blackwell GPU的5倍,训练性能提升至35PFlops(3.5倍),HBM4内存带宽更是跃升至22TB/s,较前代提升2.8倍。针对混合多专家(MoE)模型,该平台通过硬件级协同优化,可使GPU用量减少75%,大幅降低大模型训练的硬件投入成本。平台包含Vera CPU、NVLink 6交换机芯片、ConnectX-9超级网卡等全套组件,组成的NVL72系统采用无缆化设计,节点组装时间从2小时缩短至5分钟,同时配备全液冷散热方案,以45°C热水实现高效散热,兼顾性能与能效。

英伟达CEO黄仁勋表示,Verarubin平台的量产是应对AI需求爆炸的关键布局,目前已获得微软、谷歌、Meta等头部客户的大额订单,预计2026-2027年该平台相关收入将突破5000亿美元。此外,平台还深度适配开源模型生态,对DeepSeek、Qwen等国产开源模型提供全面支持,进一步巩固其在AI算力领域的生态优势。

华为昇腾CloudMatrix亮相CES,全栈协同打造高效算力方案

同期,华为在CES 2026展会上首次亮相昇腾CloudMatrix算力系统,凭借模块化设计与云边端协同能力,展现国产AI算力方案的差异化竞争力。该系统聚焦算力高效调度与低成本部署,专为大模型训练推理、行业智能化转型等场景打造,是华为“做厚算力黑土地”战略的核心落地成果。

技术架构上,CloudMatrix系统采用384颗昇腾NPU与192颗鲲鹏CPU通过MatrixLink高速网络全对等互联,形成超大算力集群,单集群可扩展至16万卡规模,满足万亿参数大模型训练需求。其创新的弹性内存存储服务(EMS)可通过内存扩展显存,降低大模型多轮对话时延,平均单卡推理性能达业界同类产品的3-4倍,算力有效使用率提升50%以上。同时,系统支持Token服务模式,以AI计算结果为单位提供服务,屏蔽底层技术复杂度,助力企业快速落地AI应用。

目前,昇腾CloudMatrix系统已服务全球超1800家客户,覆盖金融、制造、科研等30多个行业,新浪、科大讯飞等企业依托该系统实现AI推理效率翻倍提升。此次CES亮相,标志着华为昇腾算力方案正式进军全球市场,与英伟达形成差异化竞争,为全球AI算力生态注入多元活力。

算力生态多元化竞争,技术与场景深度绑定成趋势

三大算力方案的密集落地,折射出全球AI算力生态的三大发展趋势:一是算力架构从单一芯片升级转向全栈协同,英伟达Verarubin、华为CloudMatrix均通过软硬件一体化设计实现性能突破;二是专用算力与通用方案并行发展,OpenAI与Cerebras的合作开辟了专用芯片的规模化应用路径;三是生态竞争成为核心壁垒,从芯片适配到场景落地的全链条能力,决定企业在算力赛道的竞争力。

业内专家表示,2026年将成为AI算力架构迭代的关键年,随着大模型向多模态、轻量化方向发展,算力需求将呈现“高性能与低成本并存”的特征。无论是英伟达的全栈垄断、OpenAI的专用布局,还是华为的生态突围,都将推动算力技术持续革新,为千行百业的智能化转型提供核心支撑,全球AI产业也将在算力驱动下迎来新一轮创新爆发。


今日

焦点

/FOCUS

更多 >

PDF索引:

A

B

C

D

E

F

G

H

I

J

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

0

1

2

3

4

5

6

7

8

9

IC型号索引:

A

B

C

D

E

F

G

H

I

J

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

0

1

2

3

4

5

6

7

8

9

Copyright 2024 gkzhan.com Al Rights Reserved 京ICP备06008810号-21 京

0.209640s