<rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0">
    <channel>
        <title>开源 - 标签 - Simi Studio</title>
        <link>/tags/%E5%BC%80%E6%BA%90/</link>
        <description>开源 - 标签 - Simi Studio</description>
        <generator>Hugo -- gohugo.io</generator><language>zh-CN</language><managingEditor>simi@simi.studio (Simi)</managingEditor>
            <webMaster>simi@simi.studio (Simi)</webMaster><lastBuildDate>Mon, 30 Mar 2026 10:00:00 &#43;0800</lastBuildDate><atom:link href="/tags/%E5%BC%80%E6%BA%90/" rel="self" type="application/rss+xml" /><item>
    <title>Qwen3.5-Omni：阿里在 215 项音视频任务上超越了 Gemini-3.1 Pro</title>
    <link>/posts/qwen-3-5-omni-multimodal/</link>
    <pubDate>Mon, 30 Mar 2026 10:00:00 &#43;0800</pubDate>
    <author>simi@simi.studio (Simi)</author>
    <guid>/posts/qwen-3-5-omni-multimodal/</guid>
    <description><![CDATA[2026 年 3 月 30 日，阿里云发布 Qwen3.5-Omni，在 215 项音视频理解、识别、交互任务中取得 SOTA，超越 Gemini-3.1 Pro。这是国产大模型在多模态领域的重要突破。]]></description>
</item>
<item>
    <title>OpenClaw 在 GitHub 四周圈 25000 星：开源 AI Agent 爆火意味着什么</title>
    <link>/posts/openclaw-github-viral/</link>
    <pubDate>Sun, 01 Mar 2026 10:00:00 &#43;0800</pubDate>
    <author>simi@simi.studio (Simi)</author>
    <guid>/posts/openclaw-github-viral/</guid>
    <description><![CDATA[2026 年 3 月，一款名为 OpenClaw 的开源 AI Agent 在 GitHub 上迅速走红，4 周获得 25000 颗星，成为 GitHub 历史上增长最快的开源 Agent 项目之一。]]></description>
</item>
<item>
    <title>Llama4-Swarm：Meta 开源上千个 AI 协作的方案</title>
    <link>/posts/llama4-swarm-distributed-ai/</link>
    <pubDate>Thu, 01 Jan 2026 10:00:00 &#43;0800</pubDate>
    <author>simi@simi.studio (Simi)</author>
    <guid>/posts/llama4-swarm-distributed-ai/</guid>
    <description><![CDATA[2026 年 1 月 1 日，Meta 发布 Llama4-Swarm，第一个支持上千个 AI 智能体实时协同决策的开源模型。这是开源 AI 协作能力的重大飞跃。]]></description>
</item>
<item>
    <title>vLLM 实战：如何在 GPU 服务器上高效跑起开源 LLM</title>
    <link>/posts/vllm-local-llm-serving/</link>
    <pubDate>Sat, 15 Jun 2024 10:00:00 &#43;0800</pubDate>
    <author>simi@simi.studio (Simi)</author>
    <guid>/posts/vllm-local-llm-serving/</guid>
    <description><![CDATA[vLLM 是当下最流行的开源 LLM 推理引擎。它的 PagedAttention 技术让同等硬件下 throughput 提升 24 倍。这篇文章讲清楚 vLLM 是什么、怎么部署、以及实际使用中的注意事项。]]></description>
</item>
<item>
    <title>2024 小模型崛起：Mistral 7B 们如何改变了 LLM 格局</title>
    <link>/posts/small-open-source-models-2024/</link>
    <pubDate>Wed, 15 May 2024 10:00:00 &#43;0800</pubDate>
    <author>simi@simi.studio (Simi)</author>
    <guid>/posts/small-open-source-models-2024/</guid>
    <description><![CDATA[2024 年上半年，小型开源模型爆发：Mistral 7B、Phi-3、Gemma 陆续发布，3B/7B 模型就能跑出接近 GPT-3.5 的效果。本文分析这波小模型浪潮背后的原因和实际影响。]]></description>
</item>
<item>
    <title>Ollama 实战：在家用 Mac 跑起 GPT 级模型</title>
    <link>/posts/ollama-local-llm-guide/</link>
    <pubDate>Sat, 20 Apr 2024 10:00:00 &#43;0800</pubDate>
    <author>simi@simi.studio (Simi)</author>
    <guid>/posts/ollama-local-llm-guide/</guid>
    <description><![CDATA[Ollama 让本地跑 LLM 变得极其简单。一个命令就能起模型，Mac 上 7B 模型跑得流畅。这篇是实战记录，讲清楚怎么用、什么时候用、以及真实的性能数据。]]></description>
</item>
</channel>
</rss>
