目录

GPT-6 预训练完成:18 个月、10 万张 H100、200 万 token 上下文

刚刚发生

今天(2026 年 4 月 14 日),OpenAI 官方确认 GPT-6 预训练已在 3 月 17 日完成。预训练历时 18 个月,远长于 GPT-5 的研发周期。

Greg Brockman(OpenAI 总裁)随后在播客访谈中确认了模型的存在,并给出了一句定性:“不是增量改进,而是我们思考模型开发方式的重大改变。”

核心参数

指标 数值
参数量 5-6 万亿(MoE 架构,激活约 10%)
实际激活参数 约 2300 亿
上下文窗口 200 万 token
训练耗时 18 个月
GPU 集群 约 10 万张 H100
训练成本 超 20 亿美元
相对 GPT-5.4 提升 40%+(代码/推理/智能体)

Symphony 架构

GPT-6 的核心亮点不是参数量,而是底层架构重构——代号 Symphony(交响乐)

设计核心:

  • 原生多模态:文本、图像、音频、视频从设计之初就在同一向量空间,不再是"文本模型嫁接视觉模块"
  • 双系统推理框架:System-1 负责快速响应(快思考),System-2 负责逻辑校验和多步推导(慢思考),呼应认知科学经典理论

这两个设计,前者解决的是"拼凑感"问题,后者解决的是"推理链容易断裂"问题。

200 万 token 上下文的意义

GPT-5.4 的百万 token 已经解决了长文档处理问题。GPT-6 的 200 万 token 让这个能力翻倍:

  • 能一次性处理两部中篇小说
  • 能装下 10 小时音频的完整 transcript
  • 在代码库场景下,相当于可以把中等规模的整个代码库放进 context

定价

输入 输出
GPT-6 $2.5/M token $12/M token

和 GPT-5.4 持平,没有因为参数增加而涨价。

什么时候能用

官方时间表:

  • 6 月 14 日:面向公众开放 API(恰好是预训练完成 3 个月后)
  • 今天已经可以申请企业级 early access

Brockman 的原话是:“GPT-6 是我们走向 AGI 的最后一公里。“这话是营销还是真实判断,等 API 开放后一测便知。