GPT-6 预训练完成:18 个月、10 万张 H100、200 万 token 上下文
目录
刚刚发生
今天(2026 年 4 月 14 日),OpenAI 官方确认 GPT-6 预训练已在 3 月 17 日完成。预训练历时 18 个月,远长于 GPT-5 的研发周期。
Greg Brockman(OpenAI 总裁)随后在播客访谈中确认了模型的存在,并给出了一句定性:“不是增量改进,而是我们思考模型开发方式的重大改变。”
核心参数
| 指标 | 数值 |
|---|---|
| 参数量 | 5-6 万亿(MoE 架构,激活约 10%) |
| 实际激活参数 | 约 2300 亿 |
| 上下文窗口 | 200 万 token |
| 训练耗时 | 18 个月 |
| GPU 集群 | 约 10 万张 H100 |
| 训练成本 | 超 20 亿美元 |
| 相对 GPT-5.4 提升 | 40%+(代码/推理/智能体) |
Symphony 架构
GPT-6 的核心亮点不是参数量,而是底层架构重构——代号 Symphony(交响乐)。
设计核心:
- 原生多模态:文本、图像、音频、视频从设计之初就在同一向量空间,不再是"文本模型嫁接视觉模块"
- 双系统推理框架:System-1 负责快速响应(快思考),System-2 负责逻辑校验和多步推导(慢思考),呼应认知科学经典理论
这两个设计,前者解决的是"拼凑感"问题,后者解决的是"推理链容易断裂"问题。
200 万 token 上下文的意义
GPT-5.4 的百万 token 已经解决了长文档处理问题。GPT-6 的 200 万 token 让这个能力翻倍:
- 能一次性处理两部中篇小说
- 能装下 10 小时音频的完整 transcript
- 在代码库场景下,相当于可以把中等规模的整个代码库放进 context
定价
| 输入 | 输出 | |
|---|---|---|
| GPT-6 | $2.5/M token | $12/M token |
和 GPT-5.4 持平,没有因为参数增加而涨价。
什么时候能用
官方时间表:
- 6 月 14 日:面向公众开放 API(恰好是预训练完成 3 个月后)
- 今天已经可以申请企业级 early access
Brockman 的原话是:“GPT-6 是我们走向 AGI 的最后一公里。“这话是营销还是真实判断,等 API 开放后一测便知。