* * @link https://developer.wordpress.org/themes/basics/template-hierarchy/#single-post * * @package fairy */ get_header(); global $fairy_theme_options; ?>

OpenAI豪掷百亿美元,联手Cerebras三年部署750兆瓦算力

        当地时间 2026 年 1 月 14 日,AI 领域迎来里程碑式合作 ——OpenAI 与晶圆级芯片企业 Cerebras 正式签署百亿美元级战略合作协议,计划在 2026 至 2028 年三年内分阶段部署 750 兆瓦算力基础设施,全部采用 Cerebras 自研的 WSE-3 晶圆级芯片,标志着 AI 算力竞争进入 “高密度、低延迟” 的全新阶段。这一算力规模相当于一座中型数据中心的满负荷运行水平,较传统 AI 算力部署实现量级突破,将为 OpenAI 下一代大模型训练与推理提供核心支撑。

  此次合作的核心亮点在于技术路径的革新。Cerebras 的 WSE-3 芯片采用台积电 5nm 工艺,以 46225㎡的硅片面积集成 4 万亿晶体管,规模达到英伟达 H100 的 57 倍,其 90 万个可编程核心与 44GB 片上 SRAM 内存,彻底打破了传统 GPU 的 “内存墙” 瓶颈。在关键的推理性能上,WSE-3 展现出压倒性优势:运行 Llama 系列大模型时响应速度较 GPU 快 12 倍,生成 1000 个 token 仅需 0.07 秒,远低于 GPU 的 5 秒延迟,这种极致性能正契合 OpenAI 对实时交互场景的需求,将大幅提升 ChatGPT 等产品的用户体验。OpenAI 联合创始人格雷格・布罗克曼直言,这一合作将让 ChatGPT 实现 “能力与速度的双重领先”,解锁智能代理、实时翻译等下一代 AI 应用场景。

  从行业格局来看,这笔百亿美元订单既是 OpenAI 算力多元化战略的关键落子,也是 Cerebras 挑战行业巨头的重要契机。此前 OpenAI 已与 AMD、博通等企业建立合作,此次选择 Cerebras,正是看中其晶圆级架构在推理场景的独特优势,摆脱对单一芯片供应商的依赖。对于成立十年的 Cerebras 而言,这份协议不仅使其估值有望跃升至 220 亿美元,更打破了对单一客户的依赖,凭借与 OpenAI 的合作背书跻身行业头部阵营。750 兆瓦算力的部署将采用模块化算力仓方案,参考同类项目经验,其单位面积算力密度可达传统数据中心的 10 倍,PUE 控制在 1.2 以下,实现绿色高效的算力供给。

  此次合作的深远影响已超越企业层面。750 兆瓦算力的规模化部署,意味着 AI 基础设施建设正式进入 “吉瓦级” 竞争时代,将倒逼行业加速算力与电力协同创新。同时,Cerebras 的技术突围也动摇了英伟达在 AI 芯片领域的垄断地位,推动行业形成多元化竞争格局。随着部署落地,这一算力网络将支撑 OpenAI 实现 “十亿级用户” 的生态扩张,为全球 AI 产业发展注入新动能,而其探索的 “晶圆级架构 + 模块化部署” 模式,也将为行业提供可借鉴的算力升级路径。