OpenAI澄清芯片:否认大规模采用谷歌TPU,自研芯片进入定型阶段
针对近期关于“OpenAI将转向谷歌芯片”的传闻,OpenAI发言人于2025年7月1日明确回应:仅对谷歌部分张量处理单元(TPU)进行早期测试,目前无大规模部署计划。这一表态揭示了国内AI算力领域的技术博弈新态势。
测试背后的商业逻辑
据知情人士透露,OpenAI此次测试谷歌TPU旨在分散供应链风险。随着ChatGPT用户量突破10亿,其日均推理计算需求已达5000PFlops,相当于50万块英伟达A100 GPU的算力总和。通过引入谷歌云服务及TPU芯片,OpenAI可降低对单一供应商的依赖,但短期内仍将以英伟达GPU为核心算力基础设施。
自研芯片进展超预期
更值得关注的是,OpenAI与博通合作的自研AI芯片项目已进入定型阶段。该芯片采用3D堆叠封装技术,在12nm制程上实现了与7nm芯片相当的能效比。据内部测试数据,其训练效率较英伟达H100提升40%,成本降低35%。若能在2025年底量产,将显著改变国内AI算力市场格局。
行业启示:垂直整合成趋势
分析认为,OpenAI的“测试+自研”双轨策略,反映出国内AI企业正从“算力租赁”向“技术自主”转型。随着大模型参数规模突破10万亿级,定制化芯片将成为降低推理成本的关键。预计到2026年,国内头部AI企业自研芯片占比将超过30%。