<rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0">
    <channel>
        <title>大模型 - 标签 - Simi Studio</title>
        <link>/tags/%E5%A4%A7%E6%A8%A1%E5%9E%8B/</link>
        <description>大模型 - 标签 - Simi Studio</description>
        <generator>Hugo -- gohugo.io</generator><language>zh-CN</language><managingEditor>simi@simi.studio (Simi)</managingEditor>
            <webMaster>simi@simi.studio (Simi)</webMaster><lastBuildDate>Tue, 14 Apr 2026 17:00:00 &#43;0800</lastBuildDate><atom:link href="/tags/%E5%A4%A7%E6%A8%A1%E5%9E%8B/" rel="self" type="application/rss+xml" /><item>
    <title>GPT-6 预训练完成：18 个月、10 万张 H100、200 万 token 上下文</title>
    <link>/posts/gpt-6-pretraining-complete/</link>
    <pubDate>Tue, 14 Apr 2026 17:00:00 &#43;0800</pubDate>
    <author>simi@simi.studio (Simi)</author>
    <guid>/posts/gpt-6-pretraining-complete/</guid>
    <description><![CDATA[2026 年 4 月 14 日，OpenAI 官方确认 GPT-6 预训练已于 3 月 17 日完成，历时 18 个月。参数量 5-6 万亿（MoE 架构），上下文窗口 200 万 token，Greg Brockman 称其为「我们思考模型开发方式的重大改变」。]]></description>
</item>
</channel>
</rss>
