首先明确,文中 “每周 1 吉瓦算力” 表述是简化说法,核心指每周建成能支撑 “1 吉瓦(GW)级电力消耗” 的 AI 数据中心基础设施,吉瓦(GW)本质是电力功率单位(1 吉瓦 = 100 万千瓦),并非直接描述算力,因 AI 数据中心需巨量电力驱动芯片运行,故用 “支撑的电力规模” 代指算力基础设施规模。
OpenAI 要实现这一目标,并非自己建发电厂,而是通过 “能源合作 + 技术降耗 + 新型基建” 组合策略解决能源问题,具体方向如下:
- 绑定能源与硬件巨头,锁定稳定供电:已联合英伟达、微软、博通等伙伴,这些企业可对接专业能源供应商(如传统电厂、新能源企业),甚至共享现有能源基础设施(如微软数据中心的光伏配套),无需 OpenAI 自建电厂;此前与博通合作的 10 吉瓦算力项目,也明确依赖合作方解决供电配套,而非自研发电设备。
- 优先采用低耗技术,降低单位算力电力需求:通过硬件、软件双端降耗减少对能源的依赖,例如与博通联合开发的定制 ASIC 芯片,算力效率比传统 GPU 高 30%-50%,单位算力耗电更少;开源模型 GPT-OSS 采用 MXFP4 数据类型,推理成本降 75% 的同时,间接减少了电力消耗,相当于用更少能源支撑同等算力。
- 试点绿色能源与创新冷却,适配高功率需求:参考 “星际之门” 项目(OpenAI 与英伟达等合作),采用 “液冷 + 光伏储能” 技术,PUE(能源使用效率)低至 1.05(行业平均 1.5),既减少能源浪费,又可接入光伏等清洁能源;同时,得州数据中心扩建时,可能与当地电力公司合作升级变电站,应对 1000 兆瓦(1 吉瓦)级电力需求,而非自建发电设施。
综上,OpenAI 的核心逻辑是 “聚焦算力基础设施建设,通过合作与技术创新解决能源供给”,而非像马斯克 xAI 那样尝试自研燃气涡轮发电机,或谷歌、Meta 探索核电,更不会选择高污染的燃煤发电(与行业绿色转型趋势相悖)。
我可以帮你整理一份 “OpenAI 与谷歌、xAI 能源策略对比表”,清晰呈现三者在数据中心能源解决方案上的差异,需要吗?