10月13日,OpenAI与博通宣布联合部署10吉瓦(GW)级AI定制芯片集群,计划于2026年下半年启动研发,2029年底前完成全球部署。这一合作不仅标志着AI算力竞争进入“核能级”时代,更揭示了科技巨头对算力自主权的终极追求。
OpenAI的算力需求已呈指数级增长:ChatGPT用户破亿、Sora视频生成需求井喷,每10倍效率提升总伴随20倍需求激增。然而,依赖英伟达GPU的通用方案逐渐暴露瓶颈——算力成本高企、供应受制于人。正如OpenAI联合创始人Greg Brockman所言:“当世界给不了我们想要的工具,我们只能自己造。”此次与博通合作,OpenAI将主导芯片与系统架构设计,博通负责机架扩展与互联方案,形成从晶体管到数据中心的垂直整合。这种“端到端优化”模式,有望将模型训练成本降低40%以上,同时提升推理效率3倍。
合作中最具颠覆性的细节,是OpenAI用自身模型辅助芯片设计。在某个关键组件优化中,AI模型提出的方案将芯片面积缩减30%,而这一优化原本需要人类工程师耗时数月。这种“AI设计AI芯片”的闭环,不仅加速了开发周期,更突破了传统工程思维的边界。博通CEO陈福阳坦言:“这是人类迈向通用人工智能(AGI)途中的关键时刻。”
此次合作并非孤立事件。短短一个月内,OpenAI已与英伟达、AMD、甲骨文达成超万亿美元的算力交易,形成“英伟达GPU+OpenAI芯片+AMD方案”的三角生态。这种“循环交易”模式,既是对抗算力垄断的防御性策略,也是构建AI时代基础设施的进攻性布局。10吉瓦的算力规模,相当于800万户美国家庭用电量或5座胡佛大坝的发电量,其战略意义已超越商业范畴,成为国家科技竞争力的象征。
尽管前景广阔,OpenAI仍需跨越三重门槛:一是单次芯片开发成本高达5亿美元,配套软件与生态构建需追加数十亿投入;二是博通虽擅长定制芯片,但量产能力依赖台积电等代工厂;三是微软、Meta等巨头自研芯片多年仍未突破,技术积累与生态构建缺一不可。然而,若成功,OpenAI将掌握AI产业链的“达芬奇密码”——从模型训练到硬件制造的全栈控制权。
这场算力革命的终极目标,是让AI从“工具”进化为“基础设施”。当10吉瓦的芯片集群点亮全球数据中心,人类或许正站在通用人工智能的门槛上。而OpenAI与博通的联手,无疑为这场进化按下了加速键。