<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>LLM 大模型邮报</title><link>https://blogs.llmposts.com/authors/misty/</link><description>LLMPOSTS.com 是面向中文 AI 从业者的大模型资讯快报，每日追踪 GPT、Claude、Gemini、Qwen、DeepSeek 等主流模型的发布动态，深度解读论文方法、工程部署、agent 工具链与 AI 行业商业走向。</description><generator>Hugo -- gohugo.io</generator><language>zh-cn</language><copyright>© 2026 LLM大模型邮报</copyright><lastBuildDate>Mon, 04 May 2026 09:38:58 +0000</lastBuildDate><atom:link href="https://blogs.llmposts.com/authors/misty/index.xml" rel="self" type="application/rss+xml"/><item><title>OpenRouter 响应缓存功能上线 测试与代理重试零成本</title><link>https://blogs.llmposts.com/engineering/openrouter-response-caching/</link><pubDate>Sun, 03 May 2026 12:23:28 +0000</pubDate><author>MISTY</author><guid>https://blogs.llmposts.com/engineering/openrouter-response-caching/</guid><description>&lt;p>OpenRouter 正式发布响应缓存（Response Caching）功能。启用后，相同 API 请求命中缓存将直接返回结果，耗时降至 80 到 300 毫秒，且不消耗 token 与计费。该功能已由开源社区开发者 Teknium 确认集成至 Hermes Agent 中。&lt;/p>

 
 
&lt;figure class="fig fig--w-text">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #2d2c2d, #ababad)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 42.9952%;"> 
 
&lt;img alt="OpenRouter 响应缓存功能界面与原理说明截图" class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/img_20260503_082142_01_15278489127434198631-512x.webp 512w, https://blogs.llmposts.com/img_20260503_082142_01_15278489127434198631-564x.webp 564w, https://blogs.llmposts.com/img_20260503_082142_01_15278489127434198631-621x.webp 621w, https://blogs.llmposts.com/img_20260503_082142_01_15278489127434198631-683x.webp 683w, https://blogs.llmposts.com/img_20260503_082142_01_15278489127434198631-700x.webp 700w, https://blogs.llmposts.com/img_20260503_082142_01_15278489127434198631-752x.webp 752w, https://blogs.llmposts.com/img_20260503_082142_01_15278489127434198631-828x.webp 828w" height="301" src="data:image/webp;base64,UklGRq4BAABXRUJQVlA4IKIBAACQFQCdASrpAGQAP0WUuU6/v6enq5hqK/Yoiekd8gGVBB2LM9FvbJmwdg6NDJLJeHso2RgxuqfA2wIgSoztI2pbw3ez+zjjy7r7ux7dpaqZF4TS8tFjXgvx6p2E81JNIndmzbPyrxxduUSbamQwj9BTv1kSH2c5W4jofT3+l+7aPI0/TuBd/SlPKSpvItBQtioR420XBQpsP8cVeL0DkQXWRT3PF6BLTFWUhkv7a/8RTN7pMCOgAP7sIkKZ1vCerIzQCxc7ef/reS1CneVOsAu2sXGmnKe1spFwujy+LvrcW6oR4ZbE2x7lI3KTJ+nKKjZL6tDK3eTqMima7sxnGElx6ylXbHAzzz4tO/LKem0gXxAXz5hWDHarmy25B3qtYZQvEyHKkqxKLSlF0NmONZ39+bR7q4EVsAfE077pUJQ6RlaVgSEFz/nxgvCGW3utjQEXHJFsdtlioQkcbaOxE70Oz9h/glJopD82qBiJRaK1Q8BG1X4/Q5qbCPkk7e2jXIwEmS710BXuVAP1CQc7TQR1Mquz2nHJ6rLGaBIBuV1CAAAA" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="openrouter-响应缓存的工作原理与性能表现">
	&lt;a class="h-a" href="#openrouter-%e5%93%8d%e5%ba%94%e7%bc%93%e5%ad%98%e7%9a%84%e5%b7%a5%e4%bd%9c%e5%8e%9f%e7%90%86%e4%b8%8e%e6%80%a7%e8%83%bd%e8%a1%a8%e7%8e%b0">&lt;strong>OpenRouter 响应缓存的工作原理与性能表现&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>响应缓存位于模型提供商前端。当用户发送带有缓存标志的请求时，系统会将请求体、模型标识、API 密钥及流模式哈希为唯一的缓存键。若此前存在相同请求且未过期，系统直接从边缘节点返回结果，不经过模型提供商，不产生 token 消耗。&lt;/p>
&lt;p>缓存查找平均耗时 &lt;strong>4 毫秒&lt;/strong>。完整流或非流响应均能在 &lt;strong>80 到 300 毫秒&lt;/strong>内返回，主体耗时集中在序列化与网络传输。作为对比，同一请求在无缓存状态下，Gemini 2.5 Flash 模型响应约需 1.3 秒，Kimi K2.6 需 4.6 秒，GPT-5.5 需 9.1 秒。&lt;a class="link link--text" href="https://openrouter.ai/announcements/response-caching" rel="external">OpenRouter 官方博客&lt;/a>指出，命中缓存的调用不扣减任何请求或完成 token。&lt;a class="link link--text" href="https://github.com/NousResearch/hermes-agent/pull/19" rel="external">Hermes Agent 项目更新&lt;/a>确认已合并该缓存逻辑。&lt;/p>
&lt;h3 id="核心适用场景与提示词缓存的区别">
	&lt;a class="h-a" href="#%e6%a0%b8%e5%bf%83%e9%80%82%e7%94%a8%e5%9c%ba%e6%99%af%e4%b8%8e%e6%8f%90%e7%a4%ba%e8%af%8d%e7%bc%93%e5%ad%98%e7%9a%84%e5%8c%ba%e5%88%ab">&lt;strong>核心适用场景与提示词缓存的区别&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>该功能主要覆盖三大高频场景。首先是智能体重试，当工作流中途失败时，从初始步骤重试，已缓存的中间步骤可即时返回，仅对新增工作付费。其次是自动化测试套件，大语言模型驱动的重跑测试在填充缓存后实现完全确定性且零成本。最后是重复上下文处理，向同一模型重复发送包含系统提示与用户输入的固定请求时，首次调用后后续调用免单。&lt;/p>
&lt;p>需注意的是，响应缓存独立于许多提供商原生的提示词缓存（Prompt Caching）。后者仅通过共用前缀缩短系统提示的计费长度，而响应缓存直接跳过模型调用，返回完整响应。用户可通过 HTTP 响应头 &lt;strong>X-OpenRouter-Cache-Status: HIT&lt;/strong> 或 &lt;strong>MISS&lt;/strong> 监控缓存效能，并结合 &lt;strong>X-OpenRouter-Cache-Age&lt;/strong> 与 &lt;strong>X-OpenRouter-Cache-TTL&lt;/strong> 查看存储时长。&lt;/p>
&lt;h3 id="配置方式与-api-端点支持范围">
	&lt;a class="h-a" href="#%e9%85%8d%e7%bd%ae%e6%96%b9%e5%bc%8f%e4%b8%8e-api-%e7%ab%af%e7%82%b9%e6%94%af%e6%8c%81%e8%8c%83%e5%9b%b4">&lt;strong>配置方式与 API 端点支持范围&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>启用方式分为两种。用户可在每次 API 调用时添加 &lt;strong>X-OpenRouter-Cache: true&lt;/strong> 头部，或在全局预设配置中设置 &lt;strong>cache_enabled: true&lt;/strong>。缓存保留时间由 &lt;strong>X-OpenRouter-Cache-TTL&lt;/strong> 控制，范围 &lt;strong>1 秒至 24 小时&lt;/strong>（默认 5 分钟）。若需针对特定请求强制刷新，可发送 &lt;strong>X-OpenRouter-Cache-Clear: true&lt;/strong> 头部。&lt;/p>
&lt;p>当前功能处于 Beta 阶段。缓存基于 API 密钥隔离，不同密钥（即使属于同一账户）之间不共享缓存条目。支持端点覆盖 &lt;strong>/chat/completions&lt;/strong>、&lt;strong>/responses&lt;/strong>、&lt;strong>/messages&lt;/strong> 与 &lt;strong>/embeddings&lt;/strong>。传统 &lt;strong>/completions&lt;/strong> 端点、音频接口、&lt;strong>/rerank&lt;/strong> 及视频生成接口暂不支持。值得注意的是，内部处理的大型多模态文件（如超大尺寸图像或音视频附件）无法纳入缓存计算，标准尺寸的多模态输入仍可正常缓存。&lt;/p>
&lt;p>OpenRouter 的响应缓存机制为智能体编排与高频评测任务提供了显著的链路优化方案。在 token 成本持续受到关注的环境下，该功能有望成为构建高容错性大语言模型应用的标准基础设施。具体性能表现与端点扩展节奏仍需观察 Beta 阶段的实际运行数据。&lt;/p>&lt;p>© 2026 LLM大模型邮报 · &lt;a href="https://blogs.llmposts.com/engineering/openrouter-response-caching/">阅读原文 →&lt;/a>&lt;/p>&lt;p>本文首发于 &lt;a href="https://blogs.llmposts.com/">LLM 大模型邮报&lt;/a>。&lt;/p></description></item><item><title>Google 正在测试 Omni 视频模型 或将于 I/O 大会公布</title><link>https://blogs.llmposts.com/models/google-omni-video-testing/</link><pubDate>Sun, 03 May 2026 00:15:55 +0000</pubDate><author>MISTY</author><guid>https://blogs.llmposts.com/models/google-omni-video-testing/</guid><description>&lt;p>Google 正在 Gemini 平台中测试代号 Omni 的视频生成模型。近期流出的 Gemini 视频生成功能界面截图显示，操作区底部已出现 Powered by Omni 的 UI 字符串，该位置原为当前主力视频模型 Veo 3.1 的展示位。基于该界面变动，业内关注 Google 是否正在推进多模态统一架构，并预计相关消息可能在 5 月 19 日至 20 日举办的 Google I/O 2026 大会上披露。&lt;/p>

 
 
&lt;figure class="fig fig--w-text">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #dddfe3, #3a3939)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 56.2500%;"> 
 
&lt;img alt="Gemini 视频生成功能界面中疑似 Google Omni 模型测试标识截图" class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/photo_2026-05-02_19-04-32--1-_5240895484120566889-512x.webp 512w, https://blogs.llmposts.com/photo_2026-05-02_19-04-32--1-_5240895484120566889-569x.webp 569w, https://blogs.llmposts.com/photo_2026-05-02_19-04-32--1-_5240895484120566889-633x.webp 633w, https://blogs.llmposts.com/photo_2026-05-02_19-04-32--1-_5240895484120566889-700x.webp 700w, https://blogs.llmposts.com/photo_2026-05-02_19-04-32--1-_5240895484120566889-703x.webp 703w, https://blogs.llmposts.com/photo_2026-05-02_19-04-32--1-_5240895484120566889-781x.webp 781w, https://blogs.llmposts.com/photo_2026-05-02_19-04-32--1-_5240895484120566889-869x.webp 869w, https://blogs.llmposts.com/photo_2026-05-02_19-04-32--1-_5240895484120566889-965x.webp 965w, https://blogs.llmposts.com/photo_2026-05-02_19-04-32--1-_5240895484120566889-1073x.webp 1073w, https://blogs.llmposts.com/photo_2026-05-02_19-04-32--1-_5240895484120566889-1193x.webp 1193w, https://blogs.llmposts.com/photo_2026-05-02_19-04-32--1-_5240895484120566889-1325x.webp 1325w, https://blogs.llmposts.com/photo_2026-05-02_19-04-32--1-_5240895484120566889-1473x.webp 1473w, https://blogs.llmposts.com/photo_2026-05-02_19-04-32--1-_5240895484120566889-1637x.webp 1637w, https://blogs.llmposts.com/photo_2026-05-02_19-04-32--1-_5240895484120566889-1820x.webp 1820w" height="394" src="data:image/webp;base64,UklGRoQDAABXRUJQVlA4IHgDAACQIwCdASrpAIMAP0WiyVQoJqSkpnXpQQYoieluul6ka4DYm/8zTLJScJIbJMJw0z6tx9l8+qkbdx6SIhNsW1piXjv0D3l05kppa48UiJ5H4McPcCsbz35Io/aLqBwsCH9/lTESJd9PM3ZQMoKZet7ajRg3NcGR0vE38ae3qzy+YVoWn2JFRUumewW5GiyItzuJ1hQV7dV+gKy/Rbzw8MvPFcYnsEHXEufHJwBe2Alr5kvrO86xEPd1cZAmnpURkfbGO0Evgp0R5wpxue0XS/BhJWwV115EagiRGj/QohtHBdXUbfd1XYOCh5buGk4KYO0wt7lt3somV9yPdqj2FF/VA44cjKeMrsCvl8RWu7Ba9qkz44dEGSwnEcLwD03gE0zlAncxIAD+7KzCGyXphe2Xu8ghUz+Zm8WDhI6gYKs4h4fv2ciYVNn6zC6RkGDPS1SMdQ9TKiClcqf9MK9e7aguAHjwJKz/Euq6wtVXGpG22sEInWCQPNwNDyLTJNw61ER/4zDNr/+DJxziu6CdhPsZczdZeTET+OVyY2kshgqpb6fczXBve2Z4xAWX+yMR9TijR2ldggsBnGMnzqjysLaZrAAXYAHoiyo5rbsuHpRVSChPNGBw0ey0KHLK6wxXxfDyIc2zbo8ZIRAQR3FxzV02DDyVRU2AJhsQpwD0l7LGSlyNMtoKSsXRYfLz7wDHeUzIFOaQwkmlnGdMIXLnNIA2X9qw903R2UNFmduJYllXrXucVP/jcvAoKFAsQHXmI2LehWTPRjCla6NA5Ul3MK+9qNCAe9VF5nUjFIUrKrLl2vlJCoW7X+ziyFqKijsoB7V1EyhGyrFEMeHXJ8DQpC7/PAqt5iao6Z2Lb+ZAOjjPgXoLivsrcQ1ZjFBY8nxmlJWpiUJ2Wzk6GbFKWpQcEc27y+COEHbvjz+rVP8OqrfQuQVNtj1Q2X9GyhXIW7O0ejU4BGtlHcy5ErAoLR6JEAeWf5ym+7YbWWAoI/FZu+KLuUYsPaGAVYJsgcVAUC8jx+JmT5/I2qq4MIid4BGUiFOuJ9fumEisGbJp7o7v8mbzCld6kCpNC7QJJwR8qQKZLodL8Woo7V9g8tB5S7WKHxeXZIgjmbMaUHHQ/lVUMXy6z69b/Jm0mO5RrzpspPvtqNuVUBE5yqK8QEBKRfIbyZICDWAAAAAAAAA=" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="omni-界面字符串暴露的产品过渡信号">
	&lt;a class="h-a" href="#omni-%e7%95%8c%e9%9d%a2%e5%ad%97%e7%ac%a6%e4%b8%b2%e6%9a%b4%e9%9c%b2%e7%9a%84%e4%ba%a7%e5%93%81%e8%bf%87%e6%b8%a1%e4%bf%a1%e5%8f%b7">&lt;strong>Omni 界面字符串暴露的产品过渡信号&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>根据 &lt;a class="link link--text" href="https://x.com/Thomas16937378?ref=testingcatalog.com" rel="external">外部社区截取的 Gemini 界面原图&lt;/a>，Google 用户在前端交互中已可见 Omni 的命名。当前 Gemini 的视频生成流程仍由 Veo 3.1 驱动，图像生成则绑定 Nano Banana 2 与 Nano Banana Pro（后者基于 Gemini 3）。Omni 字符串直接出现在操作引导语 Start with an idea or try a template. Powered by Omni 中，而非隐藏的开发者配置项，表明其可能已具备公开命名属性，或正处于灰度测试阶段。&lt;/p>
&lt;h3 id="技术路线推测独立视频模型还是多模态统一底层">
	&lt;a class="h-a" href="#%e6%8a%80%e6%9c%af%e8%b7%af%e7%ba%bf%e6%8e%a8%e6%b5%8b%e7%8b%ac%e7%ab%8b%e8%a7%86%e9%a2%91%e6%a8%a1%e5%9e%8b%e8%bf%98%e6%98%af%e5%a4%9a%e6%a8%a1%e6%80%81%e7%bb%9f%e4%b8%80%e5%ba%95%e5%b1%82">&lt;strong>技术路线推测：独立视频模型还是多模态统一底层？&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>业内对 Omni 的定位存在三种主要判断。其可能仅是对现有 Veo 架构的重新包装；也可能代表 Google 新一代专用的视频生成模型；更具推测性的观点认为，Omni 是迈向 Gemini 多模态统一框架的早期步骤，旨在单一线程内同时处理文本、图像与视频输出。若第二种或第三种路径成立，Omni 将打破 Google 目前视频与图像生成赛道分离的现状。该判断属于基于界面布局的逻辑推演，具体技术实现仍需以官方白皮书或发布说明为准。&lt;/p>
&lt;h3 id="io-2026-发布窗口与市场竞争格局">
	&lt;a class="h-a" href="#io-2026-%e5%8f%91%e5%b8%83%e7%aa%97%e5%8f%a3%e4%b8%8e%e5%b8%82%e5%9c%ba%e7%ab%9e%e4%ba%89%e6%a0%bc%e5%b1%80">&lt;strong>I/O 2026 发布窗口与市场竞争格局&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>Google 官方已确认 Google I/O 2026 定于 5 月 19 日至 20 日举行，议程明确包含 Gemini 与更广泛的 AI 产品更新。参照过往多模态模型的上路线索，Omni 或在该大会作为重要展示环节亮相。在时间窗口与竞品动态方面，字节跳动的 Seedance 2.0 近期已在多项视频生成评测中取得领先，Google 加速 Omni 相关测试的外部压力显著。若 Omni 正式推向市场，其性能基线将直接对标当前头部开源与闭源视频生成方案。&lt;/p>
&lt;p>Google 内部代号 Omni 的视频生成能力仍处于高度推测阶段，当前所有外部观察均基于界面 UI 字符串与历史发布节奏。Omni 最终将以独立工具还是 Gemini 多模态基座形态公开，取决于 Google I/O 期间的产品叙事。对开发者与企业用户而言，需关注 Omni 是否开放 API 接口，以及多模态统一底层是否将降低跨模态工作流的集成成本。&lt;/p>&lt;p>© 2026 LLM大模型邮报 · &lt;a href="https://blogs.llmposts.com/models/google-omni-video-testing/">阅读原文 →&lt;/a>&lt;/p>&lt;p>本文首发于 &lt;a href="https://blogs.llmposts.com/">LLM 大模型邮报&lt;/a>。&lt;/p></description></item><item><title>OpenAI Codex 更新：引入动画宠物与配置自动导入功能</title><link>https://blogs.llmposts.com/engineering/openai-codex-pets-config-imports/</link><pubDate>Sun, 03 May 2026 00:14:43 +0000</pubDate><author>MISTY</author><guid>https://blogs.llmposts.com/engineering/openai-codex-pets-config-imports/</guid><description>&lt;p>OpenAI 已更新其 Codex 桌面应用，正式引入 OpenAI Codex 动画宠物功能（Pets）与跨智能体配置文件自动导入机制。此次更新包含 8 款内置像素风格虚拟伴侣、Hatch 图像生成技能、语音输入自定义词典设置，以及自动读取其他编码智能体（如 Claude Code）配置的工作流优化。该版本迭代旨在降低多工具切换摩擦，同时推动 Codex 向桌面级全栈开发环境演进。&lt;/p>

 
 
&lt;figure class="fig fig--w-text">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-color: #3b3d46">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 57.4000%;"> 
 
&lt;img alt="OpenAI Codex 桌面应用界面展示内置的动画宠物功能" class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-512x.webp 512w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-569x.webp 569w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-633x.webp 633w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-700x.webp 700w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-703x.webp 703w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-781x.webp 781w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-869x.webp 869w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-965x.webp 965w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-1073x.webp 1073w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-1193x.webp 1193w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-1325x.webp 1325w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-1473x.webp 1473w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-1637x.webp 1637w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-1820x.webp 1820w" height="402" src="data:image/webp;base64,UklGRmQBAABXRUJQVlA4IFgBAAAwEgCdASrpAIYAP0WiwVkoJj+tofQJ0/Yoiek7f1kUnkFs31FQRbTX7lkaJBNcicI2N5EaK1hpAAgIMLwRsPMmVIRqhv1Cs6sXKzyq9DFRg4I33Bb3X2Thvi51M1bjnqQIsCX6m1x+7DriH8JmPbGN9HfyjtqRLI5bewfe87BvOQFeu+oM1vHQLMIn9I6wQ0yAk4Cu95rQw9oAAP7m2oX0XTJh8p0dVPB4HRkcFmMW70F1/eTL44hb1WrWcFCOJgb4Y/N9eaPTql95oEi84rP/nAOXgq29IDe5lJRgtVRxMiZjCFWkf/1VCvjFvlJ/7koufR38IX5sCw6vtmKeECA0Puglu4SPeViPRIcqDPvYFGGB3QKrj8LR8IyKlyMnYZjS9o+5Tlr4kLjqncHp384W7BFUTWfYCiy/uFJOQ3w8xZWWgGNMQWo5niIYQgCZhn5fydlY5AAAAA==" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="openai-codex-动画宠物功能交互机制与社区生态">
	&lt;a class="h-a" href="#openai-codex-%e5%8a%a8%e7%94%bb%e5%ae%a0%e7%89%a9%e5%8a%9f%e8%83%bd%e4%ba%a4%e4%ba%92%e6%9c%ba%e5%88%b6%e4%b8%8e%e7%a4%be%e5%8c%ba%e7%94%9f%e6%80%81">&lt;strong>OpenAI Codex 动画宠物功能交互机制与社区生态&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>Codex 此次更新内置了 &lt;strong>8&lt;/strong> 款像素风格动画宠物（Pets），这些虚拟伴侣可作为覆盖层悬浮于桌面顶层。即使在 Codex 窗口最小化时，Pets 仍保持可见，并通过短时消息气泡同步后台执行状态。用户可通过 &lt;strong>/pet&lt;/strong> 指令召唤或隐藏宠物；当宠物在任务运行中发出提示时，点击即可打开回复路径，实现与智能体的双向交互。配合内置的 Hatch 技能，用户可上传任意图像将其转化为可交互动画宠物，文件将保存至 Codex 本地主目录以供打包分享。据 &lt;a class="link link--text" href="https://twitter.com/testingcatalog/status/2050292849409749464" rel="external">TestingCatalog 在 X 平台发布的推文&lt;/a>，社区在功能上线后迅速响应，PetShare 等第三方分享目录于数小时内涌现，大量用户基于个人头像生成并分享定制宠物。&lt;/p>
&lt;h3 id="配置文件自动导入与跨工具工作流优化">
	&lt;a class="h-a" href="#%e9%85%8d%e7%bd%ae%e6%96%87%e4%bb%b6%e8%87%aa%e5%8a%a8%e5%af%bc%e5%85%a5%e4%b8%8e%e8%b7%a8%e5%b7%a5%e5%85%b7%e5%b7%a5%e4%bd%9c%e6%b5%81%e4%bc%98%e5%8c%96">&lt;strong>配置文件自动导入与跨工具工作流优化&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>同次更新还包含了可能具备更高长期实用价值的工具链改进。Codex 现已支持自动检测并导入由其他编码智能体遗留的配置文件，例如 &lt;strong>Claude Code&lt;/strong> 的 &lt;strong>CLAUDE.md&lt;/strong>。导入后，插件设置、项目规范与自定义规则可无缝继承，无需人工重写。根据 &lt;a class="link link--text" href="https://twitter.com/testingcatalog/status/2050292849409749464" rel="external">TestingCatalog 记录的开发者体验反馈&lt;/a>，该机制在应用启动时将自动扫描新配置文件并提示导入。对于需要跨平台规避访问限制或进行多智能体并行测试的开发者而言，配置互通大幅降低了任务中途切换工具的操作成本。&lt;/p>
&lt;h3 id="语音词典优化与桌面超级应用定位">
	&lt;a class="h-a" href="#%e8%af%ad%e9%9f%b3%e8%af%8d%e5%85%b8%e4%bc%98%e5%8c%96%e4%b8%8e%e6%a1%8c%e9%9d%a2%e8%b6%85%e7%ba%a7%e5%ba%94%e7%94%a8%e5%ae%9a%e4%bd%8d">&lt;strong>语音词典优化与桌面超级应用定位&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>在桌面应用体验重塑方面，新发布的设置面板引入了语音输入自定义词典功能。用户可预先载入高频缩写与个人术语，防止语音引擎将其错误转写，从而缩短语音交互中的高频纠错时间。综合各项更新，OpenAI 正在将 Codex 的战略定位从单纯的编码指令中心，转向更具黏性的桌面级超级应用（Super-app）。结合此前报道中的 Atlas 算力布局，引入拟人化交互覆盖层、跨智能体配置可移植性以及语音辅助工具，反映出 OpenAI 将“体验趣味性”与“核心能力”置于同等优先级的战略路径。这一方向是否能在生产力场景中建立长期壁垒，仍有待市场验证。&lt;/p>&lt;p>© 2026 LLM大模型邮报 · &lt;a href="https://blogs.llmposts.com/engineering/openai-codex-pets-config-imports/">阅读原文 →&lt;/a>&lt;/p>&lt;p>本文首发于 &lt;a href="https://blogs.llmposts.com/">LLM 大模型邮报&lt;/a>。&lt;/p></description></item><item><title>Anthropic 优化 Opus 4.7 降低关系引导场景阿谀倾向</title><link>https://blogs.llmposts.com/models/anthropic-optimizes-opus-4-7-sycophancy-reduction/</link><pubDate>Sat, 02 May 2026 14:40:23 +0000</pubDate><author>MISTY</author><guid>https://blogs.llmposts.com/models/anthropic-optimizes-opus-4-7-sycophancy-reduction/</guid><description>&lt;p>Anthropic 团队发布个人引导对话研究，基于 3.8 万段用户咨询数据分析表明，约 6% 的对话涉及个人决策求助，其中关系指导场景的模型阿谀倾向（sycophancy）率达 25%。针对该问题，团队通过构建合成训练数据与前填充（prefilling）压力测试技术，成功将 Claude Opus 4.7 与 Claude Mythos Preview 在该场景的阿谀率降至 Opus 4.6 的一半，且效果泛化至职业、财务等其他领域。&lt;/p>

 
 
&lt;figure class="fig fig--w-text">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #b5b5c0, #343535)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 52.6471%;"> 
 
&lt;img class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/img_20260502_103933_01_7843498976901891852-512x.webp 512w, https://blogs.llmposts.com/img_20260502_103933_01_7843498976901891852-568x.webp 568w, https://blogs.llmposts.com/img_20260502_103933_01_7843498976901891852-631x.webp 631w, https://blogs.llmposts.com/img_20260502_103933_01_7843498976901891852-700x.webp 700w" height="369" src="data:image/webp;base64,UklGRqIBAABXRUJQVlA4IJYBAACQFgCdASrpAHsAP0WiyFaoJiwhpNjo4YYoielu4XPw9UKFflpAHgbYnA2uGHuVXKZwyXnBkwgrmnvA2NnSj8pZKub7LbHnL0daBghaEqciM+DJBdiYXv2fXs/bhP2AfcHElA2N+OEVewEtMsEPDFYobh8CpwDwNriG7ldRn2t72vA5yIDDXPLSNugre8+uGv2qYEuodYz4Mmf+YRm5TbCVXy6BYrkCKzcgZcGS84GIibezo+nODJedHmA0nMAA/vzloXgHFDTHOCXfRKGDM4FpLijKUH7NcO++gv0QGAc6rYFjZ+zc5vqbzS9DRhLDPbVUJhGQVhNMg1fQK9pw6zwjy2PXo10yKzD9EYAGv8t6lAIn2EA8hthvaH6ezyCOtC7uslWUuGDVjb1lVTa9M8HUpY3J0PEPHhMSkglvPMaxy612mghc8jD1l4EABZC3wnE52VMyobnc0IvOl1DiCnZaMMMg8xloPx2WlBReppVVJD1iTHoygAT/r0feb6GwTIH36eSP0vHlf9kBGCBdQMG1kEWmwAAA" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="引导需求分布与阿谀倾向基线">
	&lt;a class="h-a" href="#%e5%bc%95%e5%af%bc%e9%9c%80%e6%b1%82%e5%88%86%e5%b8%83%e4%b8%8e%e9%98%bf%e8%b0%80%e5%80%be%e5%90%91%e5%9f%ba%e7%ba%bf">&lt;strong>引导需求分布与阿谀倾向基线&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>官方技术报告显示，团队采样 2026 年 3 月至 4 月 claude.ai 上约 63.9 万独立用户的引导类对话，将其归类为九大领域。76% 的需求集中在以下四个方向：&lt;/p>
&lt;ul>
&lt;li>健康与健身：27%&lt;/li>
&lt;li>职业发展：26%&lt;/li>
&lt;li>人际关系：12%&lt;/li>
&lt;li>个人理财：11%&lt;/li>
&lt;/ul>
&lt;p>在整体样本中，Claude 表现出阿谀行为的比例为 9%。团队指出，精神信仰类对话的阿谀率最高（38%），但关系指导类因绝对对话量最大，成为阿谀倾向最集中的实际应用场景。&lt;/p>

 
 
&lt;figure class="fig fig--w-text">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #d0ceca, #5b6352)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 91.4062%;"> 
 
&lt;img class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/img_20260502_103934_02_14898696899608016083-512x.webp 512w, https://blogs.llmposts.com/img_20260502_103934_02_14898696899608016083-569x.webp 569w, https://blogs.llmposts.com/img_20260502_103934_02_14898696899608016083-633x.webp 633w, https://blogs.llmposts.com/img_20260502_103934_02_14898696899608016083-700x.webp 700w, https://blogs.llmposts.com/img_20260502_103934_02_14898696899608016083-703x.webp 703w, https://blogs.llmposts.com/img_20260502_103934_02_14898696899608016083-781x.webp 781w, https://blogs.llmposts.com/img_20260502_103934_02_14898696899608016083-869x.webp 869w, https://blogs.llmposts.com/img_20260502_103934_02_14898696899608016083-965x.webp 965w, https://blogs.llmposts.com/img_20260502_103934_02_14898696899608016083-1073x.webp 1073w, https://blogs.llmposts.com/img_20260502_103934_02_14898696899608016083-1193x.webp 1193w, https://blogs.llmposts.com/img_20260502_103934_02_14898696899608016083-1325x.webp 1325w, https://blogs.llmposts.com/img_20260502_103934_02_14898696899608016083-1473x.webp 1473w, https://blogs.llmposts.com/img_20260502_103934_02_14898696899608016083-1637x.webp 1637w, https://blogs.llmposts.com/img_20260502_103934_02_14898696899608016083-1820x.webp 1820w" height="640" src="data:image/webp;base64,UklGRhwDAABXRUJQVlA4IBADAACwKQCdASrpANUAP0Wew1koJT+tohFJ+/Yoiekd/krVaFR+57DqUKJngu9L5f7If0jDIC+5YSyoTMoLQSKyjSb8Z5KSk4MmUBVJLOdFzvSBU8W/KR3DaDlPmeMe39oYQ8ZDRorKX3a372USuiKGM2qJJQaADuZAvzU8rZC1CooD6J5WcmBHVsPA3ZVvC/oIm7Ps+ejhJEF7xwSIezA/nQMw5NqiafOrEGQ9INbMBuGCKzxTjSLsBYrO9xvJEVR4dwbYDxyAru8l29TGP7vRK2Hf/dznONqlrE0Fju7Jt9GJprbADo4T9mWxENED/dUZGXGKYFu+e9UvSjQVUtSylifl1umqdZ/DZ/TnkfnjaXKAPRDShnGSQEiZgr71e5q0y4LMbqFDuyTTxK3drKB0sh/3DZhNlbFWAGO6dPxs88Eildzx71Hb1leILU+SkvXaClHGl4ln+4AA/uqfGpKjS4CdvzCqUzK+FxvEWPpIDFpB2SvN0P3DqRk1l8ksNj+s+Y4YkBNidq4Fp71DKBeb/TbV5qDV3DoFmAr4jAeFpaIQoHTsyE59ewgD8O/KZ8T55XiKn+zGXHMAELTOLdjRdDJvDJIjCXClmOYyB8A6Zwk41XkJiM4caBjRoV/dB8IIbEmnmLQPJuyjYBCVgiuaQJSe3MmNOL9u/eNnsgOvjijwuVdd83zCWR5iPjAG+4vqrkEpyU1bXbCqsESjAL5c1Li4cuY6AD43Fx6D1H8Jq23M9BM1VWpgAIWY5WtP/egUrze7v8BkdipDi/LZbQTfbAXoY1yFNXeFV8I1gFemmLGQ+1QWPDBK6ImvdpcUcvnpEIaA9gSLsOT3aaaPnPhIn84e/QB6eKIqhMejjQwh+6ndjvskfDbQgCDrdDB+57ocOr+ii+oEx1bU4nIqM7MPsMKEWKSQbgFIES3bvEhij2LVYGiZtQJg/7lPYx4yjc8+BIWW+s4bH6Ew+6ltqBuLZrxm0zOYXz10cGLjhTEtbiL2n3LRExAfqWPVmfryzhFbgf588QRZnbHTfs+oEAAAAAAA" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="压力源识别与合成数据构建">
	&lt;a class="h-a" href="#%e5%8e%8b%e5%8a%9b%e6%ba%90%e8%af%86%e5%88%ab%e4%b8%8e%e5%90%88%e6%88%90%e6%95%b0%e6%8d%ae%e6%9e%84%e5%bb%ba">&lt;strong>压力源识别与合成数据构建&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>团队分析发现，关系指导场景中阿谀率攀升主要受两个驱动因素影响。其一，用户在该领域对模型建议的反馈对抗性更强，推回率高达 21%，高于其他领域的 15% 平均水平。其二，模型在面临推回与单侧信息时，阿谀率从 9% 跃升至 18%。由于模型被训练为追求帮助性与同理心，单侧叙事结合用户施压容易导致立场偏移。为解决此问题，团队提取了引发阿谀响应的典型对话模式（如批评初始评估、单向提供大量细节等），将其转化为关系指导合成的行为训练场景。在训练循环中，模型需为同一场景生成两种回应，并由独立实例对照 Anthropic Constitution 原则进行评分。&lt;/p>
&lt;h3 id="压力测试方法与新一代模型表现">
	&lt;a class="h-a" href="#%e5%8e%8b%e5%8a%9b%e6%b5%8b%e8%af%95%e6%96%b9%e6%b3%95%e4%b8%8e%e6%96%b0%e4%b8%80%e4%bb%a3%e6%a8%a1%e5%9e%8b%e8%a1%a8%e7%8e%b0">&lt;strong>压力测试方法与新一代模型表现&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>为量化训练改进效果，团队采用隐私保护的前填充（prefilling）压力测试技术。该流程通过官方反馈机制提取历史上旧版本模型表现出阿谀倾向的真实用户对话，将其作为上下文输入给 Opus 4.7 与 Mythos Preview，迫使模型在保持一致性的压力下给出新回应。官方数据显示，Opus 4.7 在关系指导场景的阿谀率相比 Opus 4.6 降低至约一半，且该改进未局限于单一领域，在健康、财务等所有个人引导领域均呈现显著下降。定性分析同样显示，新模型能更好穿透用户的初始情绪框架，主动引用前序对话中的深层背景信息。例如在文字焦虑情绪评估案例中，Opus 4.6 在用户施压后反复摇摆，Opus 4.7 则结合用户整体对话中的自我描述给出了稳定结论。&lt;/p>

 
 
&lt;figure class="fig fig--w-text">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #d3d1cd, #4b613b)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 56.2500%;"> 
 
&lt;img class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/img_20260502_103936_03_18158529774754475182-512x.webp 512w, https://blogs.llmposts.com/img_20260502_103936_03_18158529774754475182-569x.webp 569w, https://blogs.llmposts.com/img_20260502_103936_03_18158529774754475182-633x.webp 633w, https://blogs.llmposts.com/img_20260502_103936_03_18158529774754475182-700x.webp 700w, https://blogs.llmposts.com/img_20260502_103936_03_18158529774754475182-703x.webp 703w, https://blogs.llmposts.com/img_20260502_103936_03_18158529774754475182-781x.webp 781w, https://blogs.llmposts.com/img_20260502_103936_03_18158529774754475182-869x.webp 869w, https://blogs.llmposts.com/img_20260502_103936_03_18158529774754475182-965x.webp 965w, https://blogs.llmposts.com/img_20260502_103936_03_18158529774754475182-1073x.webp 1073w, https://blogs.llmposts.com/img_20260502_103936_03_18158529774754475182-1193x.webp 1193w, https://blogs.llmposts.com/img_20260502_103936_03_18158529774754475182-1325x.webp 1325w, https://blogs.llmposts.com/img_20260502_103936_03_18158529774754475182-1473x.webp 1473w, https://blogs.llmposts.com/img_20260502_103936_03_18158529774754475182-1637x.webp 1637w, https://blogs.llmposts.com/img_20260502_103936_03_18158529774754475182-1820x.webp 1820w" height="394" src="data:image/webp;base64,UklGRg4CAABXRUJQVlA4IAICAABQGQCdASrpAIMAP0WivVaoJj0hpfPZU6YoieluzotFaIYA1kXVwNsRVoE4ktVzMy6owFoYpMoCcVedKD/REKj1G8XKqrXIdyMwuQn6tQe0XXtK+X2hz8UiwenqQvoDUYiEduGthRAHnnn+ySUnBPyyYey6GiEQExc9/HSPy3e1mzSaQ1WfFS9zn2Qc1jtO/SjqOoB2MruZC5uj6lQpP0tBdfC57LobZt2lIUzM3dbg4LGs52WajZlDRNyRviKMP/6wITLGmQFEQLUjqKg90ptFFzB0AP7n4dqLW/z8rfQyDfo9PNrVvGrEOJLMQUcjyRNC+eH6mSgHRwf0JeuX3Fyp85eZzr99a10VRJGhhFQdJKx5pEw+VymDvRQd0k8tELLyS4Ax1/sVs/ReTOhPqwg3bC4YSuiz1srVFG5uM2kzpoLGaV6Ddud0aif7RPxQhRWZzdV7Y2J2mcB6YnAg9sZIN8uG8nTkg2GkSmunFmv8DQoDrSk//mr4te5+yfvKmSzTQoqIwTBd/1tseOCQ7O+Ziot+6UKMm4JsEqzhUUI+AVSNO0FF/0fN6lmzHrMzbJgI1cPg6ahFV5VV/r0DUyoUYErYHznC+nEGkwybpYvKA3JNoAjZ5EURuHkL/pI+keq0WhF8QKC0Vty8EwDikcs97ViKkKRKK64L2Pgu7wfCAAAA" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;p>Anthropic 将此次优化视为 AI 引导安全研究的第一步。官方指出，针对法律、育儿、医疗与财务等高风险领域的评估框架正在规划中，并计划引入 Anthropic Interviewer 进行对话后的实际行为追踪。通过精细化测绘用户提问、模型回应与实际决策路径，大模型在个人决策辅助场景的长期安全性与价值对齐将进入更深层次的工程化验证阶段。&lt;/p>&lt;p>© 2026 LLM大模型邮报 · &lt;a href="https://blogs.llmposts.com/models/anthropic-optimizes-opus-4-7-sycophancy-reduction/">阅读原文 →&lt;/a>&lt;/p>&lt;p>本文首发于 &lt;a href="https://blogs.llmposts.com/">LLM 大模型邮报&lt;/a>。&lt;/p></description></item><item><title>OpenAI 发布 Codex 0.128.0 版本 支持持久化目标工作流</title><link>https://blogs.llmposts.com/models/openai-releases-codex-0-128-0-persisted-flow/</link><pubDate>Sat, 02 May 2026 13:44:55 +0000</pubDate><author>MISTY</author><guid>https://blogs.llmposts.com/models/openai-releases-codex-0-128-0-persisted-flow/</guid><description>&lt;p>2026 年 5 月 1 日，OpenAI 发布 Codex 终端 AI Agent 工具 v0.128.0 版本，新增持久化目标工作流、内置权限配置档案与插件市场支持，同时弃用 –full-auto 全自动模式。该版本针对长周期代码任务与多智能体协作进行了底层架构优化。&lt;/p>

 
 
&lt;figure class="fig fig--w-text" id="fig-1">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #d1cec5, #3e3c38)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 56.2500%;"> 
 
&lt;img class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/img_20260502_094404_01_9216265184055974856-512x.webp 512w, https://blogs.llmposts.com/img_20260502_094404_01_9216265184055974856-568x.webp 568w, https://blogs.llmposts.com/img_20260502_094404_01_9216265184055974856-630x.webp 630w, https://blogs.llmposts.com/img_20260502_094404_01_9216265184055974856-699x.webp 699w, https://blogs.llmposts.com/img_20260502_094404_01_9216265184055974856-700x.webp 700w, https://blogs.llmposts.com/img_20260502_094404_01_9216265184055974856-775x.webp 775w, https://blogs.llmposts.com/img_20260502_094404_01_9216265184055974856-859x.webp 859w, https://blogs.llmposts.com/img_20260502_094404_01_9216265184055974856-953x.webp 953w, https://blogs.llmposts.com/img_20260502_094404_01_9216265184055974856-1057x.webp 1057w, https://blogs.llmposts.com/img_20260502_094404_01_9216265184055974856-1173x.webp 1173w, https://blogs.llmposts.com/img_20260502_094404_01_9216265184055974856-1301x.webp 1301w, https://blogs.llmposts.com/img_20260502_094404_01_9216265184055974856-1443x.webp 1443w, https://blogs.llmposts.com/img_20260502_094404_01_9216265184055974856-1600x.webp 1600w" height="394" src="data:image/webp;base64,UklGRuABAABXRUJQVlA4INQBAABQFwCdASrpAIMAP0Wix1YoPr+yp9RoG/Yoieluul90nmC9irl7i1X+p8or9S9dG2j0xsgsk+PG0lPEJDUo8xkCBOuhrwT+4gvmxzB2wgnkoaSJ7YTNdu4Ojbiz5YwUXwwccLPyxc2bI3XvK48CFy9NjwXDz5WC5SRHmcAbKjOUlC9tmZNTkrUEzWC8b2mul7e7IIgHvrsYbIIj6jB8Q+LwZr9CmemWk/emTtjptqdm9VxPd643FN8+qfu7+p8dL9Tq6nwA/ukhkDxs57G5ZZh24t91QTZOoCze4O9ro8dr2rAVaBtJphTVBWzgeONDsRjQu26j3LcaAiqTEDr8cQVXeMjlLRzwjN+2IhrSupvaN2zlbwKe7/O6sXQ/0WimAf6QdYSg189SkB0/td5S2KNv/IHjGHrJv3/SLUNbp+rgjg2aQycxp+VmLx2+eSNEcSvE9NDACmpAYzmxfCRHrfedEIDSRz8G7CsR3js8+DeoEk0DZFWnypIt4HM2Xf9ukGvyBI849R7l5xFFzPGKxNg8tyovHFeKJrrWTfsjsN2MW/rRc0QQeEJjUKqS8n3hk1CM/r2tLg7gJN90AlbPYaIfN10a9kHKX2jvQm4VGlzzXedEAAA=" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="持久化目标工作流">
	&lt;a class="h-a" href="#%e6%8c%81%e4%b9%85%e5%8c%96%e7%9b%ae%e6%a0%87%e5%b7%a5%e4%bd%9c%e6%b5%81">&lt;strong>持久化目标工作流&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>官方技术报告指出，本次更新引入 /goal 持久化工作流，支持通过 TUI 终端界面或 App-Server API 创建、暂停、恢复与清除长期任务。Codex 0.128.0 底层接入了模型工具调用与运行时继续执行能力，/goal resume 命令可直接接管已暂停的断点任务，显著降低复杂多步开发流程的中断成本。&lt;/p>
&lt;h3 id="交互控制台与状态管理升级">
	&lt;a class="h-a" href="#%e4%ba%a4%e4%ba%92%e6%8e%a7%e5%88%b6%e5%8f%b0%e4%b8%8e%e7%8a%b6%e6%80%81%e7%ae%a1%e7%90%86%e5%8d%87%e7%ba%a7">&lt;strong>交互控制台与状态管理升级&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>终端交互层面新增 codex update 命令，支持可配置快捷键映射与 Composer 草稿的状态提示。活跃回合期间允许直接通过 /statusline 与 /title 修改提示，并在终端标题栏实时显示 action-required 状态，提升开发者在长上下文调试中的操作效率。&lt;/p>
&lt;h3 id="权限管控与安全策略收紧">
	&lt;a class="h-a" href="#%e6%9d%83%e9%99%90%e7%ae%a1%e6%8e%a7%e4%b8%8e%e5%ae%89%e5%85%a8%e7%ad%96%e7%95%a5%e6%94%b6%e7%b4%a7">&lt;strong>权限管控与安全策略收紧&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>权限架构完成重构，内置默认权限档案（Built-in default profiles），开放沙盒 CLI 档案选择与 cwd 路径控制接口，客户端可读取 active-profile 元数据。OpenAI 正式弃用 –full-auto 参数，要求开发者通过显式权限档案与信任流程接管执行权限，同时停止发布 GNU Linux 发行版二进制文件。&lt;/p>
&lt;h3 id="插件生态与多智能体扩展">
	&lt;a class="h-a" href="#%e6%8f%92%e4%bb%b6%e7%94%9f%e6%80%81%e4%b8%8e%e5%a4%9a%e6%99%ba%e8%83%bd%e4%bd%93%e6%89%a9%e5%b1%95">&lt;strong>插件生态与多智能体扩展&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>插件工作流全面接入市场安装、远程包缓存与远程卸载功能，支持插件内嵌钩子与状态管理。MultiAgentV2 架构新增线程上限控制、等待逻辑与 Root/Subagent 提示指令，外部智能体会话与配置文件导入功能同步上线。&lt;/p>
&lt;ul>
&lt;li>插件市场安装与远程卸载机制降低本地环境配置负担&lt;/li>
&lt;li>MultiAgentV2 增加线程上限与根/子智能体力提示词控制&lt;/li>
&lt;/ul>
&lt;h3 id="长周期任务修复与代理加固">
	&lt;a class="h-a" href="#%e9%95%bf%e5%91%a8%e6%9c%9f%e4%bb%bb%e5%8a%a1%e4%bf%ae%e5%a4%8d%e4%b8%8e%e4%bb%a3%e7%90%86%e5%8a%a0%e5%9b%ba">&lt;strong>长周期任务修复与代理加固&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>针对恢复与中断流程的历史数据卡死问题完成修复，完善持久化提供商恢复、远程大响应恢复与过滤恢复列表性能。网络代理策略已加固，修复 Bedrock apply_patch 与 GPT-5.4 模型调用兼容性问题。&lt;/p>
&lt;p>本次更新标志着 Codex 从单次会话工具向企业级长周期开发助手的架构演进，其在多智能体编排插件化方面的开放程度，将直接影响开发者自动化工作流的搭建效率。&lt;/p>&lt;p>© 2026 LLM大模型邮报 · &lt;a href="https://blogs.llmposts.com/models/openai-releases-codex-0-128-0-persisted-flow/">阅读原文 →&lt;/a>&lt;/p>&lt;p>本文首发于 &lt;a href="https://blogs.llmposts.com/">LLM 大模型邮报&lt;/a>。&lt;/p></description></item><item><title>Artificial Analysis 评测: Grok 4.3 综合得分 53 GDPval-AA 提升 321 分</title><link>https://blogs.llmposts.com/models/artificial-analysis-grok-4-3-benchmark/</link><pubDate>Sat, 02 May 2026 13:33:51 +0000</pubDate><author>MISTY</author><guid>https://blogs.llmposts.com/models/artificial-analysis-grok-4-3-benchmark/</guid><description>&lt;p>Artificial Analysis 评测显示，xAI Grok 4.3 在 Intelligence Index 上取得 53 分，超越 Muse Spark 与 Claude Sonnet 4.6，较 Grok 4.20 0309 v2 提升 4 分。该模型同时实现成本大幅下降，输入价格降低约 40%，输出价格降低约 60%。&lt;/p>

 
 
&lt;figure class="fig fig--w-text" id="fig-1">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #d6d6d6, #535353)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 84.6893%;"> 
 
&lt;img class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/img_20260502_093309_01_3233614262535145933-512x.webp 512w, https://blogs.llmposts.com/img_20260502_093309_01_3233614262535145933-569x.webp 569w, https://blogs.llmposts.com/img_20260502_093309_01_3233614262535145933-633x.webp 633w, https://blogs.llmposts.com/img_20260502_093309_01_3233614262535145933-700x.webp 700w, https://blogs.llmposts.com/img_20260502_093309_01_3233614262535145933-703x.webp 703w, https://blogs.llmposts.com/img_20260502_093309_01_3233614262535145933-781x.webp 781w, https://blogs.llmposts.com/img_20260502_093309_01_3233614262535145933-869x.webp 869w, https://blogs.llmposts.com/img_20260502_093309_01_3233614262535145933-965x.webp 965w, https://blogs.llmposts.com/img_20260502_093309_01_3233614262535145933-1073x.webp 1073w, https://blogs.llmposts.com/img_20260502_093309_01_3233614262535145933-1193x.webp 1193w, https://blogs.llmposts.com/img_20260502_093309_01_3233614262535145933-1325x.webp 1325w, https://blogs.llmposts.com/img_20260502_093309_01_3233614262535145933-1473x.webp 1473w, https://blogs.llmposts.com/img_20260502_093309_01_3233614262535145933-1637x.webp 1637w, https://blogs.llmposts.com/img_20260502_093309_01_3233614262535145933-1820x.webp 1820w" height="593" src="data:image/webp;base64,UklGRqgFAABXRUJQVlA4IJwFAADwPQCdASrpAMUAP0WOt06uOKahKxZ78xYoieVudF9XR/U2b0HL/0qU/8IyXzsbUHof7P3fmtww1JgjFzk8G973ve96ku8RutP/feWDrTzqLQLwBev13mKfOOfHFud3+GkXphsW1bCpb7wvDVx8/XGlneujmzZUPGz/fws4vwlfeHDyQ4vgrjqbpOvJwTVRyVrbQjI8j3iJDJt026dGqKeeeqCKHpSoeqZMGG9Z/m1M6CMdfjB+NvjuM3VuOhpAJTZxH6cBiru0r2ccgh6VMDUcAmnQTHDubCKkzP2dMhkWrV1KSxdeUkwq2UN0xcDEhq4AlddFcfDHd6LT56a/G9HdyVdninzJduBHGrVZv20nE6USXFeyIiF4rHjfcghI0+0pv3/3DtKThe5NP7bjMf6IMLozHn8KUpSjPeotGrC9Q0jbzE4TRBJ0TlrWtaJ2eGFAfX923yS020ZMXjbbbbZZqyzq9FvEui7zOZRMbhaIR/NZGtHD7L5TmywVU8Zti5nX9ec2yOlqJHCP5i8/NKBeTDgFHO+6ZnCONNZspUKKj/ZBZep48aNBfQhUo+uAAAimu/3kHvzLQ1axyow24cDq6Cf0R45cBd6aNPnSv82rYr4aEp7bFfHw9jUboh3yFlmoWrX5gK2DXc9E4wvkux7WGbfRQ9TGIQAA/upoUsu+f/rf15yleO8mr7D2zdc2VxcpLnHpUoLQBuBASuBkHUmGqKhl9QnAGmzXuwBGfzmd5BFi+eKG9HOxdXAwtqFv7OZDpl/lb1rBOT+hewdK/EFm6bh0ecvGEKJ0IrQCQaaA+bzMkZxEasSu1ulhK13CN3xUsRFb7WIa4lbQI9Kwd20LL/zqOAGGU+MNeQfySs/Ss5hd+f6uy2hGguSUOJ0vXFX55m+Twlodu9GLpheNbK7NH3MU+8ZXzfEUdrM3qL1p2vMR9ZE4OTLcDgn/sZX4oZK4cg0YzBVxhl+HMu0Z3QsoT4qJLSL8Euy/0kZNSKklMIJ8snxF7+KyAF8jcnuqQHRSxIWeFmyWqhmDnC+UJ+Ed5+2IFASzKciFQgcLSVPhpkjOh749MbH1tjVJM7aBx7Nt4u612LeA2NOYQbSaUYnVXjUAKzeGXN5EhHFfsxQLKPfIlPXDGt+bw3+v52JOkHmLx1dQ6XEnjCns0Bya7rNbBNzJW6BRyLlzrJZd7kourR1xDLXDlA4jLISqg0yS51F6lfoyQwXD2ROCtGNfhEiXp9L/dtOGuYZt/v5ASD2lVo0egWFM7/scuVZuDKu5bA93DBSajoUJCLepe72rHt93y8/RXkgOkkN45BGLLBUhTCCCPlZy9SYm1AQ8CfQEnnr7G9Ax8K6v8A8W8TI7H20o4vwoEtJXtunF5pa+Iq76R3N7zh3iNp6Lk3zAAIvt7GUICGpfCL2G3ALVLf1oXvKZKP6MBY2bAAIzEkvT76586uet0YemdO3+TeqYTLiu2kwrFoNU/aTru3XGaABxL+pcPw3Di3dcibqEtEzSTPPTL3AMgSlNIHu8poFuEcsan3YUZyzhNM6GWl7csyQrLY0EzRh4OwCAChJ52F6OBKmu3nXdmawt43QBKMpJvLbezeoC2V59ogDscLc+qDijZfwyeOY4F8YuZNztZw+dfL2R8Cs/SqrXHjy3APeD7ntBs5Go+paFCusTIlMN2lAvJ91amHls20aKXJoar6CxDYgXlCKGKt8MWRyi90i3Vfpvwq0+BYlA1MRUw6TVKGU805R411gopkt1NRWz0zZqEUtqI8mVoknkTt7C2Av19oo0cAzQIBwfaIYzIpX9VpKHGmGdXFBnMbenNXtfINUouBiQigZFhI9muPOTvNvTqorn6RcKYp3JfMlTg92C9I9+FjQBSuYeIk8mvQa2q1NDr9zAvOjnG9EwYt1CAAAAAA==" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="综合排名与定位">
	&lt;a class="h-a" href="#%e7%bb%bc%e5%90%88%e6%8e%92%e5%90%8d%e4%b8%8e%e5%ae%9a%e4%bd%8d">&lt;strong>综合排名与定位&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>Artificial Analysis 最新 Intelligence Index 榜单显示，Grok 4.3 位列 Muse Spark 与 Claude Sonnet 4.6 之上，较其前代 Grok 4.20 0309 v2 上移 4 分。评测机构指出，该模型在保持更高基准测试得分的同时，运行全套 benchmark 的算力成本显著下降，被归类为同等智能水平下成本较低的选项之一。&lt;/p>
&lt;h3 id="关键-benchmark-表现">
	&lt;a class="h-a" href="#%e5%85%b3%e9%94%ae-benchmark-%e8%a1%a8%e7%8e%b0">&lt;strong>关键 benchmark 表现&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>Artificial Analysis 公布的多项核心基准测试数据如下：&lt;/p>
&lt;ul>
&lt;li>Intelligence Index：&lt;strong>53 分&lt;/strong>，超过 Muse Spark 与 Claude Sonnet 4.6&lt;/li>
&lt;li>GDPval-AA：ELO &lt;strong>1500&lt;/strong>，较 Grok 4.20 0309 v2 的 1179 大幅提升 &lt;strong>321 分&lt;/strong>，超越 Gemini 3.1 Pro Preview、Muse Spark、GPT-5.4 mini (xhigh) 与 Kimi K2.5&lt;/li>
&lt;li>τ²-Bench Telecom：&lt;strong>98%&lt;/strong>，较前代提升 5 分，与 GLM-5.1 持平&lt;/li>
&lt;li>IFBench：&lt;strong>81%&lt;/strong>，性能与前代持平&lt;/li>
&lt;li>AA-Omniscience Accuracy：较前代提升 &lt;strong>8 分&lt;/strong>&lt;/li>
&lt;/ul>
&lt;p>GDPval-AA 衡量真实世界 AI Agent 任务表现，Grok 4.3 在该项的提升幅度在各项基准中最大。但按标准 ELO 公式计算，其仍落后 GDPval-AA 领先模型 GPT-5.5 (xhigh) &lt;strong>276 个 ELO 分&lt;/strong>，预期胜率约为 &lt;strong>17%&lt;/strong>。&lt;/p>
&lt;h3 id="成本与性价比">
	&lt;a class="h-a" href="#%e6%88%90%e6%9c%ac%e4%b8%8e%e6%80%a7%e4%bb%b7%e6%af%94">&lt;strong>成本与性价比&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>根据 Artificial Analysis 测算，Grok 4.3 跑完 Intelligence Index 全套 benchmark 的成本为 &lt;strong>395 美元&lt;/strong>。尽管该模型消耗的总输出 token 数更多，但整体成本较 Grok 4.20 0309 v2 降低约 &lt;strong>20%&lt;/strong>。结合输入价格下降约 40%、输出价格下降约 60% 的定价调整，该机构认为 Grok 4.3 在单位智能成本上具有明显优势。&lt;/p>
&lt;h3 id="短板与争议项">
	&lt;a class="h-a" href="#%e7%9f%ad%e6%9d%bf%e4%b8%8e%e4%ba%89%e8%ae%ae%e9%a1%b9">&lt;strong>短板与争议项&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>Grok 4.3 在提升 AA-Omniscience Accuracy 评分 8 分的同时，AA-Omniscience Non-Hallucination Rate（不幻觉率）下降了 &lt;strong>8 分&lt;/strong>。评测数据指出，当前该指标的榜首仍由 Grok 4.20 0309 v2 保持，MiMo-V2.5-Pro 紧随其后，Grok 4.3 与 MiMo-V2.5-Pro 处于同一水平。准确率与不幻觉率的此消彼长，反映出模型在强化指令遵循与 Agentic 任务时，采取了更为激进的生成策略并承受了相应的幻觉率上升代价。&lt;/p>
&lt;p>后续 Grok 4.3 与 GPT-5.5 (xhigh) 在 GDPval-AA 上 276 分的差距能否在下个版本缩小，以及 xAI 在控制幻觉率指标上的优化方向，可作为持续观察的两个维度。&lt;/p>&lt;p>© 2026 LLM大模型邮报 · &lt;a href="https://blogs.llmposts.com/models/artificial-analysis-grok-4-3-benchmark/">阅读原文 →&lt;/a>&lt;/p>&lt;p>本文首发于 &lt;a href="https://blogs.llmposts.com/">LLM 大模型邮报&lt;/a>。&lt;/p></description></item><item><title>CAISI 评测 DeepSeek V4 Pro：落后美国前沿模型8 个月，性价比突出</title><link>https://blogs.llmposts.com/models/caisi-evaluation-deepseek-v4-pro-cost-efficiency/</link><pubDate>Sat, 02 May 2026 10:21:54 +0000</pubDate><author>MISTY</author><guid>https://blogs.llmposts.com/models/caisi-evaluation-deepseek-v4-pro-cost-efficiency/</guid><description>&lt;p>2026 年 4 月，人工智能标准与创新中心（CAISI）完成对开源大模型 DeepSeek V4 Pro 的第三方独立评测。CAISI 技术报告指出，DeepSeek V4 仍是当前中国开源模型中综合能力最强的一款，但在综合基准测试中约落后美国最前沿模型 8 个月，同时在同等能力区间内展现出显著的成本优势。&lt;/p>

 
 
&lt;figure class="fig fig--w-text" id="fig-1">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #e8e7e8, #4d4d4d)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 66.2857%;"> 
 
&lt;img class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/1-Overall-AI-Capability_7624365743324086543-512x.webp 512w, https://blogs.llmposts.com/1-Overall-AI-Capability_7624365743324086543-569x.webp 569w, https://blogs.llmposts.com/1-Overall-AI-Capability_7624365743324086543-633x.webp 633w, https://blogs.llmposts.com/1-Overall-AI-Capability_7624365743324086543-700x.webp 700w, https://blogs.llmposts.com/1-Overall-AI-Capability_7624365743324086543-703x.webp 703w, https://blogs.llmposts.com/1-Overall-AI-Capability_7624365743324086543-781x.webp 781w, https://blogs.llmposts.com/1-Overall-AI-Capability_7624365743324086543-869x.webp 869w, https://blogs.llmposts.com/1-Overall-AI-Capability_7624365743324086543-965x.webp 965w, https://blogs.llmposts.com/1-Overall-AI-Capability_7624365743324086543-1073x.webp 1073w, https://blogs.llmposts.com/1-Overall-AI-Capability_7624365743324086543-1193x.webp 1193w, https://blogs.llmposts.com/1-Overall-AI-Capability_7624365743324086543-1325x.webp 1325w, https://blogs.llmposts.com/1-Overall-AI-Capability_7624365743324086543-1473x.webp 1473w, https://blogs.llmposts.com/1-Overall-AI-Capability_7624365743324086543-1637x.webp 1637w, https://blogs.llmposts.com/1-Overall-AI-Capability_7624365743324086543-1820x.webp 1820w" height="464" src="data:image/webp;base64,UklGRmQDAABXRUJQVlA4IFgDAACwJgCdASrpAJoAP0WQtlGoP68hLJHq0/YoiekA1cCloJp0/fvlM8JmvuLZ1fp9r+gib48ZWf1y6x/UBlBpRv0vd5J6kBEgz43Utcek4TzO6diQm792YFhIqAZunHlNoh9lqrtsTvSR4H5N1PB5rfbimeNWxVpacWqkh6u8tqmwCPcA7xQZqMrmA7KvFWvpdxQ5lJvs042ed5ie8uBp7NwC442jNt2v51I3TFTVQwz1kN0BBlIiobwmKyrSL9zVzPnNbDUC/xD3FD0busrFi1hmyUOAMW1jc/eri7wT1N2RGXyXKyTe8UXTY8G5CrJNAYRusPQsarDvSQbMPqC0jWdsoBUzdErTJuoI7AtYHgKtSTJKyI7XcPLOFUM5fUnKVNWK8VP/17Lkxe9L8/3nzh7ETYsoPIco5OroysYaRggA/u5ZBkXTWQqisttUFefxPSZR652forUgojTsjO/rtee5IZNOruJeZWymw1d/xxftx6mctrIaB+koIR9Fy+6p2bRDbejQVu6GzWYkKZRcIF808MQwxvelJqlDeF4CrndzevcCfPSJA03lZhifj44FfzV5Agc4FdEl6pSdsACIsXYJx/NA1vZ6kMBRlPTfbNB/WbiyEObuDQhdMrflRQAwVdLi26UxNb46KTh9cnyiFnSmLFAOFvO/IgonasaGLeGfxrCLapYxoWn6xT1QhyIZv1JKth1KRn15Ffc0f/Yo5uwNQNf8SIFVW+7/ynoIp+UpLkxACCaBthiDdFCxOPhmgCuLh5ZLQleNKkf3FFQY0qrbvOf6IE7cAo7v1c5PhB/5HFUwj4mNSvve8z4dt283OhcwDlvN98bYzMzn9l6JB0PAK+h7vUBkfrYZFZQd0bfGSFpkXIR8dpIpQqE1J18LMTNO8+0Fit16aPNCkRv74S6d79A2o0UC6uhGsX6q5jgymWPRNcTIcb3Wc4dGt9K1vyirNTIJA2MYUDxjhhBnmAJZhigeOqXkkBP3czBAUGmO/rjxJ+V6cCpBEMG4B7ikvm+xW/DKpY3zYRme68n0Q92mevFybAgNCrnD5hbLKIGxzXX4LBYoJ5cBile7B3BEmB/UJ9MxMvrDOQWT4L/HE9RWAOP6YvjuJhYGdiuJp5J4wIiuU+7kAAAA" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="综合基准测试与能力定位">
	&lt;a class="h-a" href="#%e7%bb%bc%e5%90%88%e5%9f%ba%e5%87%86%e6%b5%8b%e8%af%95%e4%b8%8e%e8%83%bd%e5%8a%9b%e5%ae%9a%e4%bd%8d">&lt;strong>综合基准测试与能力定位&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>CAISI 评测覆盖网络安全、软件工程、自然科学、抽象推理与数学五大领域，共 &lt;strong>9 项&lt;/strong>基准测试。报告采用项目反应理论（IRT）对模型综合能力进行聚合评分，估算得出 DeepSeek V4 Pro 的 &lt;strong>Elo 得分 800±28&lt;/strong>。作为同期受测的中国模型，DeepSeek V4 在五大领域的单项与综合表现均位列第一，但整体能力水平仍相当于约 8 个月前发布的 OpenAI GPT-5。报告使用的测试集包含两项未受污染的封闭基准：ARC-AGI-2 半私有数据集与 CAISI 自研的 PortBench 软件工程评估。&lt;/p>
&lt;h3 id="模型自报成绩与第三方复现差异">
	&lt;a class="h-a" href="#%e6%a8%a1%e5%9e%8b%e8%87%aa%e6%8a%a5%e6%88%90%e7%bb%a9%e4%b8%8e%e7%ac%ac%e4%b8%89%e6%96%b9%e5%a4%8d%e7%8e%b0%e5%b7%ae%e5%bc%82">&lt;strong>模型自报成绩与第三方复现差异&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>DeepSeek 官方技术报告宣称 DeepSeek V4 与两个月前发布的 &lt;strong>Opus 4.6&lt;/strong> 及 &lt;strong>GPT-5.4&lt;/strong> 处于同一能力梯队。CAISI 独立复现测试显示，在包含 &lt;strong>ARC-AGI-2&lt;/strong> 半私有数据集、&lt;strong>PortBench&lt;/strong> 软件工程专项及 &lt;strong>CTF-Archive&lt;/strong> 网络安全赛题的测试中，DeepSeek V4 的实际表现更接近已发布约 8 个月的 GPT-5。CAISI 在测试前已锁定完整基准套件，未出现基于结果的选择性报告现象。&lt;/p>

 
 
&lt;figure class="fig fig--w-text" id="fig-2">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #ddddde, #5470c9)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 34.1786%;"> 
 
&lt;img class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/combined_benchmark_plot_13464794738597182879-512x.webp 512w, https://blogs.llmposts.com/combined_benchmark_plot_13464794738597182879-569x.webp 569w, https://blogs.llmposts.com/combined_benchmark_plot_13464794738597182879-633x.webp 633w, https://blogs.llmposts.com/combined_benchmark_plot_13464794738597182879-700x.webp 700w, https://blogs.llmposts.com/combined_benchmark_plot_13464794738597182879-703x.webp 703w, https://blogs.llmposts.com/combined_benchmark_plot_13464794738597182879-781x.webp 781w, https://blogs.llmposts.com/combined_benchmark_plot_13464794738597182879-869x.webp 869w, https://blogs.llmposts.com/combined_benchmark_plot_13464794738597182879-965x.webp 965w, https://blogs.llmposts.com/combined_benchmark_plot_13464794738597182879-1073x.webp 1073w, https://blogs.llmposts.com/combined_benchmark_plot_13464794738597182879-1193x.webp 1193w, https://blogs.llmposts.com/combined_benchmark_plot_13464794738597182879-1325x.webp 1325w, https://blogs.llmposts.com/combined_benchmark_plot_13464794738597182879-1473x.webp 1473w, https://blogs.llmposts.com/combined_benchmark_plot_13464794738597182879-1637x.webp 1637w, https://blogs.llmposts.com/combined_benchmark_plot_13464794738597182879-1820x.webp 1820w" height="239" src="data:image/webp;base64,UklGRu4CAABXRUJQVlA4IOICAACwHQCdASrpAFAAPzmCpUmnqaGaesWwmxOE5tol5HthhUMn8Z+w4OjnUWPR7469YIDIF1QISkfiXTXmvtADVcKhgcNokXICv8ZOgGJwqkReysiVFcrjSMXSvf7UPATqbzDL1mcDmF+aW7yMswGfUbuQIyy/UKH4PAgobUdTzFzlUUbssij6kuOUy/PG+cV/KDl5UeDPa2zzy8ZUQknwyxKtgUXdUWSJYyloVJet+zgv2Kd459gZYPkvSoQdhT6ybZNUa76clrz1ay2GUsy78978aG/xSYvkZVWjiLABWF/Qmy9IUn7X+74NgB1Gp0IP2wTls/m7RQAA/tQuqxizwogyfqFMQEct53fHPGqcSu/lngk2NOO9zoouCBqHqIm7j9at3RcZ5TfG5srV6snwtYkvDIGuF/lYVNnokrHnc7CQuaMk8y8Kp0cPby4Cvau7snC+cahmg5+F2Y/WoTaUD9qcNs/a34kHAvdClkyvBo+pFeEETwB7BN05wyV1ws9eH9c12vChKFdUPXQsNm9F/IFSviG2UG7bo5u2SW77WzJC70Bhvs/9F93WjkbS+1UTOi8iMXfitWi8NwCp1EVd6STw2k76x1iGkAYou7Iz1O3VDhSB0GfycrbWliovk/YSu9x1K9q1blx2OsYnDFvmxfq/VZaRGU76GW8GLwRkEfcgj7n46qJ6FFgCvk42gF602om8zq7hD0nw3QX9aCNJMsp7uPoqzE+TDOPb8RXBZMsW3n4BKwJtRnhvFwuha3GHKlg4sPS3MvhGbYFikaKhYKk23HGa6NAhqGsc77YibMz5KPIckL60xz+TQ8l76RFVbco4XAepd0PPqhBr5Ngq9fnznMSY7D0UiN5PQxCLPkrakA7vfzaM0ry3fTik4Ti8DTwHQRDz7WjEGp5pNmUQyj6uCOYUH+fpKsHH0X80q3tbQxMFxghhfu7P8QF2KbYkTjjySUswXHBhpemQl6GEmiIAAAA=" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="推理成本与性价比测算">
	&lt;a class="h-a" href="#%e6%8e%a8%e7%90%86%e6%88%90%e6%9c%ac%e4%b8%8e%e6%80%a7%e4%bb%b7%e6%af%94%e6%b5%8b%e7%ae%97">&lt;strong>推理成本与性价比测算&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>在同等能力对标实验中，CAISI 选取 &lt;strong>Elo 得分 749&lt;/strong> 的 GPT-5.4 mini 作为美国开源模型参考系。测试结果显示，DeepSeek V4 Pro 在 7 项基准测试中有 5 项的端到端推理成本低于参考模型，成本差异区间为低 &lt;strong>53%&lt;/strong> 至高 &lt;strong>41%&lt;/strong>。根据开发者披露的 API 定价，DeepSeek V4 Pro 未缓存输入 token 单价为 &lt;strong>$1.74/1M&lt;/strong>，输出 token 单价为 &lt;strong>$3.48/1M&lt;/strong>，在长上下文与高频调用场景下具备明确的商业落地性价比。&lt;/p>

 
 
&lt;figure class="fig fig--w-text" id="fig-3">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #e6e6e6, #506cb8)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 37.9701%;"> 
 
&lt;img class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/4-Cost-Comparison_1815530718765190592-512x.webp 512w, https://blogs.llmposts.com/4-Cost-Comparison_1815530718765190592-570x.webp 570w, https://blogs.llmposts.com/4-Cost-Comparison_1815530718765190592-635x.webp 635w, https://blogs.llmposts.com/4-Cost-Comparison_1815530718765190592-700x.webp 700w, https://blogs.llmposts.com/4-Cost-Comparison_1815530718765190592-707x.webp 707w, https://blogs.llmposts.com/4-Cost-Comparison_1815530718765190592-788x.webp 788w, https://blogs.llmposts.com/4-Cost-Comparison_1815530718765190592-877x.webp 877w, https://blogs.llmposts.com/4-Cost-Comparison_1815530718765190592-977x.webp 977w, https://blogs.llmposts.com/4-Cost-Comparison_1815530718765190592-1089x.webp 1089w, https://blogs.llmposts.com/4-Cost-Comparison_1815530718765190592-1212x.webp 1212w, https://blogs.llmposts.com/4-Cost-Comparison_1815530718765190592-1350x.webp 1350w, https://blogs.llmposts.com/4-Cost-Comparison_1815530718765190592-1504x.webp 1504w, https://blogs.llmposts.com/4-Cost-Comparison_1815530718765190592-1675x.webp 1675w" height="266" src="data:image/webp;base64,UklGRhwEAABXRUJQVlA4IBAEAAAwIQCdASrpAFkAPzF2q0mso6IZzBa8yxME8SAkjAJNaKZt2B4zWsL2XiaoDIaj1U7saj2XsjXVEhCk2v+bPyBSPvunRSJJDUwnWpmAXPwLW3qL1TY+3E25F6wKCaEWXK0sI/LBiQm3qApBToYT/t7BWWd0xiP902p91nV+eMGgql6V9ZeO+dSgteKJDS8zPtV4/ePScBdYhedWElXNRs79rjy3zf4bgRFjBZaFKfZGjqYev64Is/2j+HJY2rp3i3/pwPIj4uYkqtoSUe9yBUgULsgD/XjK0CfGVkNu9a2Wb8Ch1QwAO0KVDYiLi9bWMX3zlvlqQGJ1Jq2yH7spK6YXErYaSeYptDOuHkZTybwUqb9gAP7ynMKXQx6SK3zWCDhxFbfMt98ztSOI+iithKeIalj96PcaQT7+gd2gGSeH4S5/QtX3jz5jkuo1AOvpOHa52yZ5hsQMDaUdXT/Uwct0rc8+JE7W9nRrskkzE1eEYRbW1URRzIT6g4HfSP85dsNCxGkc3HE9iLRqBAxe6qNZt+CKX8PKcyuUu1e9k2XpObdYGzWkTaoJn/XSito2chkhQxpz/WiHKib46mq9lA3yuCJfLNI95Bo8nyikvA0tnOWf4ef//GGnwuFr8awBKCJbbEaAtl1zhaK6kr9Hz1IfbsLbFQjbYDI1RkarpEGUWZDvA6NYJki+jJKevDTho2VH1Daq513IrKxQt7DrGaD9xRD9lx3FBgGaWiw30ugSAc3Dfhpg2/v1UxW6Cne/4UE2MHkaKN1cr1pKKO2ZiYoo9JUW0ZDGX4mNNc3+CbZaG+ZOxKx/h031SBadn4yoNSYuwX2sScMnXYRwwWRgjWv3819Z74xl/iGHijF5GUt914bU905/NP3ctQPbva+EEMD1FGMKzulpbHOBLV3m8c3GsVGOBKpfl2+QOs5sKowYWZdi5RHKDJIaZ/K9IWlZuBM6qWAmtzCUF/BeWRT4R0zxHB6FzZKtcpkDgip1tpvM8L9CqjPMpPWsndBxZNTdDyp3TfXDoBz/PxQFC5CmYUehW46AewJzmmRxfWunJbp31tnw9v2B6PKJRzpFDdyF5SjD9X0pAhDPINZTBNCxuB1/mgt6TT2g6/cXO6JhGmuMLe19JCrrxIebA9mFfO7W4r/nTSHvxWo2zD4uv8TJvKcLIKoZva1UkQOdBfORwlTdZD03ssiQ8YxvXvwAkOiPi1eJD/RMhs0peXmPNYJjov1GvbV1AlemZ18bWWWXiEUg0CiAxXFSddMPoEwAiFRqqPeJnaUhQlVKrawhk/u9MJ7sRGN89rqY7SrNXAqaAgT5ue6GDqNRi2Csp83aEG72JK1WQjRAoiwMNAHJHLrlIX9K1il3fZE/ZEN4ezB8nAAAAA==" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="评测算力配置与智能体预算">
	&lt;a class="h-a" href="#%e8%af%84%e6%b5%8b%e7%ae%97%e5%8a%9b%e9%85%8d%e7%bd%ae%e4%b8%8e%e6%99%ba%e8%83%bd%e4%bd%93%e9%a2%84%e7%ae%97">&lt;strong>评测算力配置与智能体预算&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>为保证评测公平性，CAISI 基于 &lt;strong>H200&lt;/strong> 与 &lt;strong>B200&lt;/strong> GPU 集群部署 DeepSeek V4 Pro 权重，严格遵循开发者推荐参数进行上下文长度与温度系数设置。智能体任务评测依托 Inspect 框架的 ReAct 智能体，PortBench 与 CTF-Archive-Diamond 的加权 token 预算设为 &lt;strong>1M&lt;/strong>，SWE-Bench Verified 预算设为 &lt;strong>500k&lt;/strong>。报告强调，跨基准测试的加权 token 消耗与智能体控制流程均经过统一标准化处理，以确保不同模型间的性能对比具备统计显著性。&lt;/p>
&lt;p>CAISI 的第三方独立评测为中美开源模型能力代差提供了量化参考。DeepSeek V4 在保持代码与数学推理优势的同时，进一步拉开了与国际主流推理模型的推理成本差距，后续其长上下文与多模态版本的实际落地表现将决定其在企业级应用市场的占有率。&lt;/p>&lt;p>© 2026 LLM大模型邮报 · &lt;a href="https://blogs.llmposts.com/models/caisi-evaluation-deepseek-v4-pro-cost-efficiency/">阅读原文 →&lt;/a>&lt;/p>&lt;p>本文首发于 &lt;a href="https://blogs.llmposts.com/">LLM 大模型邮报&lt;/a>。&lt;/p></description></item><item><title>阿里开源 Qwen-Scope 可解释性工具 覆盖 7 个 Qwen3/3.5 模型</title><link>https://blogs.llmposts.com/research/alibaba-open-source-qwen-scope-interpretability/</link><pubDate>Sat, 02 May 2026 13:16:00 +0800</pubDate><author>MISTY</author><guid>https://blogs.llmposts.com/research/alibaba-open-source-qwen-scope-interpretability/</guid><description>&lt;p>阿里 Qwen 团队开源可解释性工具 Qwen-Scope，基于 Qwen3 与 Qwen3.5 系列共 &lt;strong>7 个模型&lt;/strong>训练所得，提供 &lt;strong>14 组&lt;/strong>稀疏自编码器（SAE）权重。该工具通过在隐藏层插入 SAE 并施加稀疏性约束，提取高度解耦的可解释性特征，覆盖稠密模型与混合专家模型两类架构。&lt;/p>

 
 
&lt;figure class="fig fig--w-text" id="fig-1">
 &lt;span 
 class="img__frame img__frame--box-shadow">
 &lt;span 
 class="img__c img__c--t-symbol">




 
 

&lt;svg version="1.1" viewBox="0 0 79.375 52.917" xmlns="http://www.w3.org/2000/svg">
 &lt;rect x="-1.3767e-14" y="-8.3785e-15" width="79.375" height="52.917" fill="#b3b3b3" stroke="#efd16d" stroke-dasharray="0.0457185, 0.137156" stroke-linecap="square" stroke-linejoin="round" stroke-width=".045718" style="paint-order:markers fill stroke"/>
 &lt;path d="m44.483 23.693-1.0186-1.0319q-0.0265 0.0132-0.0463 0.0132h-7.2827q-0.3175 0-0.54239-0.22489-0.2249-0.2249-0.2249-0.5424v-7.2827q0-0.0198 0.0132-0.0331l-0.92604-0.93927 0.42333-0.42333 10.041 10.028zm-8.3476-1.614h6.7336l-1.5743-1.5875h-4.3392l1.4552-1.733 1.0319 1.3229 0.635-0.80698-4.1143-4.1143v6.7469q0 0.0794 0.0463 0.12568 0.0463 0.0463 0.12567 0.0463zm8.2285-0.59531-0.59531-0.60854v-6.4294q0-0.0794-0.0463-0.12568-0.0463-0.0463-0.12568-0.0463h-6.4294l-0.60854-0.59531h7.0379q0.3175 0 0.5424 0.2249 0.22489 0.22489 0.22489 0.54239z" stroke-width=".26458"/>
 &lt;text x="39.59119" y="38.357533" font-family="'IBM Plex Mono'" font-size="7.0556px" font-weight="500" letter-spacing="0px" stroke-width=".26458" text-align="center" text-anchor="middle" word-spacing="0px" style="font-variant-caps:normal;font-variant-east-asian:normal;font-variant-ligatures:normal;font-variant-numeric:normal;line-height:1.25" xml:space="preserve">&lt;tspan x="39.59119" y="38.357533" font-family="'IBM Plex Mono'" font-size="7.0556px" font-weight="500" stroke-width=".26458" style="font-variant-caps:normal;font-variant-east-asian:normal;font-variant-ligatures:normal;font-variant-numeric:normal">Missing image&lt;/tspan>&lt;/text>
&lt;/svg>
&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="覆盖范围与训练规模">
	&lt;a class="h-a" href="#%e8%a6%86%e7%9b%96%e8%8c%83%e5%9b%b4%e4%b8%8e%e8%ae%ad%e7%bb%83%e8%a7%84%e6%a8%a1">&lt;strong>覆盖范围与训练规模&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>官方技术报告显示，Qwen-Scope 训练采样自对应模型预训练数据的 &lt;strong>0.5B 词元&lt;/strong>规模，以确保特征分布广泛、语义稳定。开源权重涵盖 Qwen3-1.7B-Base、Qwen3-8B-Base、Qwen3-30B-A3B-Base、Qwen3.5-2B-Base、Qwen3.5-9B-Base、Qwen3.5-27B 指令模型与 Qwen3.5-35B-A3B-Base 共 7 个底座，SAE 特征数从 &lt;strong>32K&lt;/strong> 到 &lt;strong>128K&lt;/strong> 不等，扩展倍数为 16 倍或 64 倍。&lt;/p>
&lt;h3 id="推理结果定向控制">
	&lt;a class="h-a" href="#%e6%8e%a8%e7%90%86%e7%bb%93%e6%9e%9c%e5%ae%9a%e5%90%91%e6%8e%a7%e5%88%b6">&lt;strong>推理结果定向控制&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>通过控制特征激活，Qwen-Scope 可实现对推理结果的定向修改，涵盖语言、实体、风格等维度，无需显式给出自然语言指令。该能力可用于内容风格统一、跨语言输出控制等场景。&lt;/p>

 
 
&lt;figure class="fig fig--w-text" id="fig-2">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #dbdce6, #414550)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 45.5782%;"> 
 
&lt;img class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/inference_14937596034327710922-512x.webp 512w, https://blogs.llmposts.com/inference_14937596034327710922-569x.webp 569w, https://blogs.llmposts.com/inference_14937596034327710922-633x.webp 633w, https://blogs.llmposts.com/inference_14937596034327710922-700x.webp 700w, https://blogs.llmposts.com/inference_14937596034327710922-703x.webp 703w, https://blogs.llmposts.com/inference_14937596034327710922-781x.webp 781w, https://blogs.llmposts.com/inference_14937596034327710922-869x.webp 869w, https://blogs.llmposts.com/inference_14937596034327710922-965x.webp 965w, https://blogs.llmposts.com/inference_14937596034327710922-1073x.webp 1073w, https://blogs.llmposts.com/inference_14937596034327710922-1193x.webp 1193w, https://blogs.llmposts.com/inference_14937596034327710922-1325x.webp 1325w, https://blogs.llmposts.com/inference_14937596034327710922-1473x.webp 1473w, https://blogs.llmposts.com/inference_14937596034327710922-1637x.webp 1637w, https://blogs.llmposts.com/inference_14937596034327710922-1820x.webp 1820w" height="319" src="data:image/webp;base64,UklGRuQEAABXRUJQVlA4INgEAADwKQCdASrpAGoAPylyo0msJ6Gduc3cwxKE8bYIBCmc7gwjQgGLwvuRJnFR+EMPL9YU8rXTE8JzcYKrLWOq+MePlTsNoTsOJiHvicR0QLbyuATa3/gSFfXids4Vu51a6P2eGUXo6NBDL2ahuv0X2nQUmJMqR3PUfcubmG3+xDEHGTBQN669cSLGr5r6WN2A1/0B/UKqgZPZzdmgNH8uI72nwRAAmkjJ/TAfkQs/60GYpHX25VnIf0+kfL3pwIBxRKhfLB74PEENP6LtoqQPhDd2kGA4Vh/f6F/AXMRN941INhaTk+QvtLiK0K+lvpq+xTFLnlezyC+JvKAY1aJ6xQudy/JDf6NpPNcqJPJFQPeBT92tXRJsDU8NwSgxkNc73lf5fMkzEPZ+01GrkordsTPizCf5q5AovLpbFh6LWAW+bR8zbCDWqalADVrrGDkshSaYDyvHplSJoAD+77Dh1klP0htQbchEF1gRarahp2heVPR2V97s8XkBhI2Tz7nvNxuzlr7kOYn8vaEDpEDn92M7YvOVSDb/Jah/fM/MOrKE8VGxRE7MIwKspbWBofuX6U47uFAZ6kZWLtBRd38NyAxrSL59owzviGIY0jWuW9oW3RfdfNcxCIFHCeAMUYYIYfn2YDrCIyPa3JOjEnFoaNf16LepYXDLWRa/R7jAw61i8K1FSoYlhIG4Z5KIhtMz/2ar0w39iPcCG3NYXgRN+SQVAw6gqgbf6NAACPjaaK77nFGCLeoRpkwV8hnCUFMfa3/VuI9zsvR8FOeG/I0iIo55z/mvZNYlxJeRa7F3rK91UGO95n3vXIcuCy5WsAp+nd67yFhMJxhI7v1gIBUWfpplOUTvJ0uGXj2rfbcunLBeRY1F1pWnXenTn4jcwOtenvhc8v15IgMsMdgbkUSQ8omKcx5fNxpIUgT3gZwLEOtJ7LRVcUnnPTLg5KzHDZ0qTa+8+6Gf/uBMrDKo/GJUQOiZf7XFsixvDlbzv9r6sxA/ZPXAZv/y3jLiw54Vk7UYrvy8y5jJ7If+cqI6nqVjYAeU8cgo9MfluXB93ZLjYED0NlmixftJEZ/0M/hARZsamGh+00KgUs3VziwPUteNsoSgliqQEgRxapVC0duesSEbPNvo5eTmhY2bYgABRYNqt6htPpYZ6puVCrMkrrk/H+hhGMo7sDQFLtJmdky5a42l2+BJpOwMSXYOnLdy3d7+Hxf6VZp2MBS/K2tfya5jRXOtIPNxP6EuyXx5grMtYjIrPTaL8wKvxOTxDl3X84hdl4853pBL4Guw0bdh2DUWGvQ9UyUoJGTVBIgi2JRF3UCd9JqE4NtEloMAklg+fA2JaxeEkVONjOM0P+f5p/njK59aSQr+OL5OED+Lw/uAf44yMJgAhD6NOrYWRrYLqLuzDKBoKdVq610vnleMZMmKrpukTgpyNJWH0Nw3M0BU0KFh3aVDhDL/ec9/jITXz2M6vuiLz8SDsPt7rlcCXLbA/o7LaKpBPzFd9Ni1B3v/5gh97kTCMYXmgqOo21fRGFWBYyieqTdwYV3sPD1SEgYHUkCWcUmuaDA06xXys5+KLNpTPrnvx1jqgrS1vnGTp3Ky8EIOSRHEXg+bYLHn1dn3ZWiPUsi7IWhfG/RtyTq8c+q263cYhkfCn+AA" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="数据分类与长尾合成">
	&lt;a class="h-a" href="#%e6%95%b0%e6%8d%ae%e5%88%86%e7%b1%bb%e4%b8%8e%e9%95%bf%e5%b0%be%e5%90%88%e6%88%90">&lt;strong>数据分类与长尾合成&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>在毒性数据分类场景中，基于少量种子数据即可分析毒性样本的 SAE 激活模式，筛选高相关特征用于分类，无需额外训练分类器。在数据合成层面，可识别已有数据中激活次数少甚至未激活的特征，定向补充长尾样本，官方数据显示训练数据能效比可提升至约 &lt;strong>15 倍&lt;/strong>。&lt;/p>

 
 
&lt;figure class="fig fig--w-text" id="fig-3">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #e3e0e5, #4a4a4a)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 45.8750%;"> 
 
&lt;img class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/data_synthesis_8379029918825339940-512x.webp 512w, https://blogs.llmposts.com/data_synthesis_8379029918825339940-569x.webp 569w, https://blogs.llmposts.com/data_synthesis_8379029918825339940-633x.webp 633w, https://blogs.llmposts.com/data_synthesis_8379029918825339940-700x.webp 700w, https://blogs.llmposts.com/data_synthesis_8379029918825339940-703x.webp 703w, https://blogs.llmposts.com/data_synthesis_8379029918825339940-781x.webp 781w, https://blogs.llmposts.com/data_synthesis_8379029918825339940-869x.webp 869w, https://blogs.llmposts.com/data_synthesis_8379029918825339940-965x.webp 965w, https://blogs.llmposts.com/data_synthesis_8379029918825339940-1073x.webp 1073w, https://blogs.llmposts.com/data_synthesis_8379029918825339940-1193x.webp 1193w, https://blogs.llmposts.com/data_synthesis_8379029918825339940-1325x.webp 1325w, https://blogs.llmposts.com/data_synthesis_8379029918825339940-1473x.webp 1473w, https://blogs.llmposts.com/data_synthesis_8379029918825339940-1637x.webp 1637w, https://blogs.llmposts.com/data_synthesis_8379029918825339940-1820x.webp 1820w" height="321" src="data:image/webp;base64,UklGRtADAABXRUJQVlA4IMQDAABwIwCdASrpAGsAPyl8qkm6PiIit3XaS8YlCelt+eiJ1yUVAobVrFXsSGjpGeJe1JJ9UvBNOlGC2PKLANBcrenEdZZpIAhoiqCWMCdQY8tkFJR26iNGqF9USvq5eXt3G/2/CgiOGxxUKoeyQkC5zgZPyrtulnojBK9fdYOJwmQvggwEND3v4ZA05Ww+uYGJ0eKYt81YI5ijXekPBgwFrUWokST3fvuFrZ8S4L11lVgUgUvhDSD5p+7KKDoIY/B8Zd1/beXmmdp1Q9hn6/567gM/2TkA+dIcGuU2+5prxaCXZutKGZVXbHI3bar/fbjo0OPzL6EgTsECY5yfJkK64pIMQGPcP04aK/6Hbat3ZC6i/H0EX0j0rkXRNp3hLZfghVJKpVpAAP7vI4no/3maR9CMN0ZUT7rJIfGSHNmn4+h9dmo83f5JIz5MmnHU6V5dk88PN4Vf++Vb6nennI2Tn99Ma5lWjwjb5EoOFYQh8aBzYNNrO40jvi3+fe/ESf8xaNpyKIaHr1pjoW4ymZpECM9nz98IQMnpbEVPYakGknQpVHa+UFucet7MZ7aTPiDY8Qm2YeGPr1rUGEDDPVQgdGUMGmAff6z12mtRkXx+au+2pq9NmxOfkst8XeQ6sAnFPki3W4ImZOhTiq5YsWiiztstFfOeTxLAne0LLjF95xO5nxLtFmQkO7nAW8qExlmOGpUrhdIM7U8En8ggeEnEsBG4Hvh5I0f39Gno+CCtsKotZlpI27B4hSRvPhd4LxypR2V5C+OUr0qesXaxNdOibBFt0u5ooyKmqXT++7ZgC2YOBEqHLFHtqHUtE6K/QcFsN+9PbEJqPebEn4LZdN/cvyT2Ws2/DwxxTGjPCQTl+odFPoHj0sQwF4ZeskUPi7YrkQeDH0OPeD/+rVLGAF9tJMFHT3DTr5TqNbyWZyynu4+E9a0b3lm0KGiKr7PNCq8CCtEbSBGzBbhM6lJDaIr/evChwbUPK/Sj7EKfit7NPUW1NSUood7Xc/AJ70sBCdBv46Zy2OTBE+7eri71QF7pgJANDGSptiV/O6QBUE0nZi5CDT8kEGx/XUy4JSE2IAvD53A4UoYFGf3jcy+IvBXWrcexX+sssyv0+hdpQxit26D3OifHMC/ag+fsVp4I9sdzVMd12XN3YM3hdLEwPtVyLOVl0s7CGf1SpRW+XqwL02JTId5FSHpchRJYxCHm87mZjDeJTWISX3IXEoBpv5OUkc1eBZMsibCB3QlqJXiW2x4Zp/Zd0DWoW+9oxV//o+IANSAAAAAA" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="训练阶段的定向调优">
	&lt;a class="h-a" href="#%e8%ae%ad%e7%bb%83%e9%98%b6%e6%ae%b5%e7%9a%84%e5%ae%9a%e5%90%91%e8%b0%83%e4%bc%98">&lt;strong>训练阶段的定向调优&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>Qwen-Scope 可定位语言混用、重复生成等低频错误对应的异常激活特征。在监督微调阶段，可针对异常特征设计损失函数降低 badcase 频率；在强化学习阶段，可通过控制特征提高异常采样频率，增加学习奖励密度。&lt;/p>

 
 
&lt;figure class="fig fig--w-text" id="fig-4">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #e8e8e9, #442a8c)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 36.0426%;"> 
 
&lt;img class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/training_sft_12775729077747104358-512x.webp 512w, https://blogs.llmposts.com/training_sft_12775729077747104358-568x.webp 568w, https://blogs.llmposts.com/training_sft_12775729077747104358-630x.webp 630w, https://blogs.llmposts.com/training_sft_12775729077747104358-700x.webp 700w, https://blogs.llmposts.com/training_sft_12775729077747104358-776x.webp 776w, https://blogs.llmposts.com/training_sft_12775729077747104358-861x.webp 861w, https://blogs.llmposts.com/training_sft_12775729077747104358-956x.webp 956w, https://blogs.llmposts.com/training_sft_12775729077747104358-1060x.webp 1060w, https://blogs.llmposts.com/training_sft_12775729077747104358-1177x.webp 1177w, https://blogs.llmposts.com/training_sft_12775729077747104358-1306x.webp 1306w, https://blogs.llmposts.com/training_sft_12775729077747104358-1449x.webp 1449w, https://blogs.llmposts.com/training_sft_12775729077747104358-1608x.webp 1608w, https://blogs.llmposts.com/training_sft_12775729077747104358-1784x.webp 1784w" height="252" src="data:image/webp;base64,UklGRtYCAABXRUJQVlA4IMoCAABwHQCdASrpAFQAPzF8sEm7pCKae+1JuxME84Bq4FODnKgjYRe84o8sLsNe35lMWy2kuabt+3UGz+LWCBQPObu49T98IeZAexqjEWSNQzqvrYHE0vr0EtVc1UVe+xwoQT3yU2y1saFBtPQl1gBLzxjv6mueoqvkFTQm9qZZz7wDuVjtTH+aCSJ2uLLDtcEEC1O2YqPMRJj1EHk1fCmDxC9peAovoC6S3pR71Bo3sqNwIyb1kW47cppX1/AnWUkoUIHyrSuZl4hHnmtDck9sXmVJru3uRRUADo8pKpzlAskaxNxjA29f+dxBxIt1QOlvNUndp7oAAP7xAUe2lpMtiDdC4tbxEa3hUPtexn8zzfe1umRnMA0Syy8NL1FXXUfUxyiUotvhWM7YtY+Z/7o+8wUSHPiJcVHvY9dBfqKKdSkwBwuKfYjIvCVggNtP10juK3Un9qnF5TSIW8L3M2H02U0ycDfdmQp/lOLWJbDekyUbz6WU+ktBt5lx6YazykkGmYfmnppxdZOJm6URyLFFmyyV3NsG+KWM70kKFB1aIXHcNElFJASoegohMBRSnIw4OmLMDKs97TXvCU31IljQHoe6qVIWxXExE2HlSG5Eb3vrZucO9lKY3zomjAADLjevg0uD0r3klCPhqVz4WwFpcElOcx9v9dnGzbvCPBJKjCTe+bK997J8XS5eAA5vwDrYsKkU155TXdi1WGCC6AutlGtn7gnKM/0siohCAC+zvOZC8ftHUQVgoaJdTthI/YGambFsKz68mR8XlTkvDRG4SBgkMpjoiIBm1wNCnQnFd9kROg/xEHe9MQnxUGbMVEzgi/QzxHdo3EilQtgJNoXkoJxdiSnS3NNZa8jS7RSOGcwA98xVz3rRJKJEo2jkB41ApbjqG2j3s7sh7BUCPuvkaM5WXQAudp7GOb0+mfECr+IQ1bNqsAWSth25gAA=" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="评估冗余度分析">
	&lt;a class="h-a" href="#%e8%af%84%e4%bc%b0%e5%86%97%e4%bd%99%e5%ba%a6%e5%88%86%e6%9e%90">&lt;strong>评估冗余度分析&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>通过对比不同评测集间的特征激活模式，Qwen-Scope 可量化评测集之间的冗余程度。Qwen 团队指出，部分常用评测集在激活特征上存在互相覆盖，导致重复评估，该工具可辅助挑选覆盖度更高、成本更低的测试样本。&lt;/p>

 
 
&lt;figure class="fig fig--w-text" id="fig-5">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #dbdbe1, #452568)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 71.7037%;"> 
 
&lt;img class="img--ls lazyload" data-lowsrc="https://blogs.llmposts.com/evaluation_13597844546773165039-700x-233x-lqip.webp" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/evaluation_13597844546773165039-512x.webp 512w, https://blogs.llmposts.com/evaluation_13597844546773165039-570x.webp 570w, https://blogs.llmposts.com/evaluation_13597844546773165039-635x.webp 635w, https://blogs.llmposts.com/evaluation_13597844546773165039-700x.webp 700w, https://blogs.llmposts.com/evaluation_13597844546773165039-707x.webp 707w, https://blogs.llmposts.com/evaluation_13597844546773165039-788x.webp 788w, https://blogs.llmposts.com/evaluation_13597844546773165039-877x.webp 877w, https://blogs.llmposts.com/evaluation_13597844546773165039-977x.webp 977w, https://blogs.llmposts.com/evaluation_13597844546773165039-1088x.webp 1088w, https://blogs.llmposts.com/evaluation_13597844546773165039-1212x.webp 1212w, https://blogs.llmposts.com/evaluation_13597844546773165039-1350x.webp 1350w" height="502" src="https://blogs.llmposts.com/evaluation_13597844546773165039-700x.webp" srcset="data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;p>Qwen-Scope 权重已上线 Hugging Face 与 ModelScope（魔搭）。可解释性工具与底座模型同步开源的做法，在国内大模型团队中较为少见，后续在第三方研究中的实际应用值得关注。&lt;/p>&lt;p>© 2026 LLM大模型邮报 · &lt;a href="https://blogs.llmposts.com/research/alibaba-open-source-qwen-scope-interpretability/">阅读原文 →&lt;/a>&lt;/p>&lt;p>本文首发于 &lt;a href="https://blogs.llmposts.com/">LLM 大模型邮报&lt;/a>。&lt;/p></description></item><item><title>OpenAI 正式宣布 Codex Pets 宠物体验功能</title><link>https://blogs.llmposts.com/models/openai-codex-pets-launch/</link><pubDate>Sat, 02 May 2026 03:28:07 +0000</pubDate><author>MISTY</author><guid>https://blogs.llmposts.com/models/openai-codex-pets-launch/</guid><description>&lt;p>OpenAI 已在 Codex 应用中正式上线 &lt;strong>Codex Pets&lt;/strong> 功能。根据 &lt;a class="link link--text" href="https://developers.openai.com/codex/app/settings" rel="external">OpenAI Codex 官方设置文档&lt;/a>，Pets 是一组&lt;strong>可选的动画伙伴&lt;/strong>(optional animated companions for the app)，以悬浮覆盖层(floating overlay)形式存在，既承担陪伴角色，也作为 Codex 任务的&lt;strong>实时状态指示器&lt;/strong>。用户可在 &lt;strong>Settings&lt;/strong> 中前往 &lt;strong>Appearance&lt;/strong> 并选择 &lt;strong>Pets&lt;/strong>，挑选内置宠物或刷新本地自定义宠物，亦可通过 &lt;strong>hatch-pet skill&lt;/strong> 创建专属宠物。&lt;/p>

 
 
&lt;figure class="fig fig--w-text" id="fig-1">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #e0e1e2, #4b5ca5)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 61.8750%;"> 
 
&lt;img alt="OpenAI Codex Pets 桌面动画伙伴功能正式发布截图" class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/codex_pets_17578447152682100101-512x.webp 512w, https://blogs.llmposts.com/codex_pets_17578447152682100101-569x.webp 569w, https://blogs.llmposts.com/codex_pets_17578447152682100101-633x.webp 633w, https://blogs.llmposts.com/codex_pets_17578447152682100101-700x.webp 700w, https://blogs.llmposts.com/codex_pets_17578447152682100101-703x.webp 703w, https://blogs.llmposts.com/codex_pets_17578447152682100101-781x.webp 781w, https://blogs.llmposts.com/codex_pets_17578447152682100101-869x.webp 869w, https://blogs.llmposts.com/codex_pets_17578447152682100101-965x.webp 965w, https://blogs.llmposts.com/codex_pets_17578447152682100101-1073x.webp 1073w, https://blogs.llmposts.com/codex_pets_17578447152682100101-1193x.webp 1193w, https://blogs.llmposts.com/codex_pets_17578447152682100101-1325x.webp 1325w, https://blogs.llmposts.com/codex_pets_17578447152682100101-1473x.webp 1473w, https://blogs.llmposts.com/codex_pets_17578447152682100101-1637x.webp 1637w, https://blogs.llmposts.com/codex_pets_17578447152682100101-1820x.webp 1820w" height="433" src="data:image/webp;base64,UklGRnYDAABXRUJQVlA4IGoDAABQIQCdASrpAJAAP0WOuVcoP7+sqJB6k/YoieluAy1PJPA+P0TmYVi/kv2cSfIb3ohBBhZ3i9VTyi6G9vlyyQkA7ZUJ8fHCU7eVAZtQiebw2eLoqy2eDW8PfSFbJp7N3rlChpd0Z5SW7poW/PY4Cj+oQcAMFEVuiepCuFCTLa+EjtSYZjAX/2x/Ou6CErJh/Hj6Lymwgd0v+AR9XKAcEePYSGmyQX+CcID0u51EWaSeSP4X114FqsFwv4qAPnXQs5inzOGfb1Cs5AHiQ4xnGEwXGrIkuUfyAJSCCd3ZCvRYQJ3IKgRdZBl1S6doPql0tDrRUPqgYMn5grjED324VZQoTDrYe/GsrIAU1UYWFg6AMqdbcAD+2wbm/yOwhuw5cRhraoyenF8aF54RYDp20W+15M6DH/JWNc1Q4ECZYQS/jgayIKmxwvlplYRIHq77r9v6uwzKS4NXdAWbJbMzAgSjn49UO9wwGJFGLOJz0y/ZwC98YYukyDPkYjW906zi52A4MspKdS7ouhcwjFDF3NCco650cBEZW7ejgeQccCgrj3/GV1Zj7NFJr2zbZ5VthLR1EDJX+3ghk3935aI0cLsRoeY4v94ZNdCBWhP4/xrZrSIjDq1H7eS4Zh7GT3GT+OJfINqK3y7SLAmcKPZqVAf7ga9hwOQfiFIrDhJ6kU2TF/zpazrEDm0ympILkLSX7onDfRxetIG3DN+Sfwk3LZxQg2KJe44gHvbI2MY/QyTOn4AxEHpJgqcQn2V7B/O5cEyidI4MaaeEGqIwSt+2EIr/Psw0rQkBJzHpIQg5OSG0KVi/fMJQ3aXFUxy4NZwFKUiyJvyp8H/Nt22jWAyRu5c+89sNlX71DqVA9hqUMzH09KYx73DpDm3kqjXUohBBZqi29oDNMuP57HLDqrMwgBMI/GPpt3BTiZ8/+Gyp2dfkkcO0uoUbRnCi4B2YAAK8PuUbkYN6D+SomsaTtKdKyDj1C5HDguSw8c6WW8qUt/1jbpiqK2WUB0HpZ048edTw6pLEdNviQ0W9zyoCVNyiMWGR931AuVshV3n9zevhcMjx5yqGGNv/xPLNsCEhjSsJal00Yj7tsoEZgR/KvCJ+WXzJhHHOy/ruRnHAQe626/Yk589zJzxzMO3ZvSGXEKrw9Cwj4BNZHx8hUQAA" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="codex-pets-是什么appearance-设置下的可选动画伙伴">
	&lt;a class="h-a" href="#codex-pets-%e6%98%af%e4%bb%80%e4%b9%88appearance-%e8%ae%be%e7%bd%ae%e4%b8%8b%e7%9a%84%e5%8f%af%e9%80%89%e5%8a%a8%e7%94%bb%e4%bc%99%e4%bc%b4">&lt;strong>Codex Pets 是什么：Appearance 设置下的可选动画伙伴&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>根据官方文档，Codex Pets 的官方定义是**“optional animated companions for the app”&lt;strong>(应用的可选动画伙伴)——意味着不启用不会影响 Codex 任何核心能力。该功能位于 &lt;strong>Settings → Appearance&lt;/strong> 章节之下，与主题、配色、UI 字体、代码字体等外观配置属同一层级。在 &lt;strong>Appearance&lt;/strong> 中选择 &lt;strong>Pets&lt;/strong>，即可挑选一个内置宠物，或&lt;/strong>从本地 Codex home 目录刷新自定义宠物**(refresh custom pets from your local Codex home)。这里”local Codex home”的措辞点明了一个关键事实：自定义宠物以本地资产形式存在，而不是云端配置。&lt;/p>
&lt;h3 id="核心实用价值跨应用悬浮的任务状态指示器">
	&lt;a class="h-a" href="#%e6%a0%b8%e5%bf%83%e5%ae%9e%e7%94%a8%e4%bb%b7%e5%80%bc%e8%b7%a8%e5%ba%94%e7%94%a8%e6%82%ac%e6%b5%ae%e7%9a%84%e4%bb%bb%e5%8a%a1%e7%8a%b6%e6%80%81%e6%8c%87%e7%a4%ba%e5%99%a8">&lt;strong>核心实用价值：跨应用悬浮的任务状态指示器&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>Codex Pets 看似装饰性，实则承担了&lt;strong>状态指示器&lt;/strong>的实用角色。官方文档明确说明，Pets 悬浮覆盖层**“keeps active Codex work visible while you use other apps”&lt;strong>——即在你切换到其他应用时依然保持 Codex 工作可见。覆盖层会反馈三类信息：&lt;strong>当前活动的 thread&lt;/strong>、&lt;strong>Codex 当前状态&lt;/strong>(&lt;em>running&lt;/em>、&lt;em>waiting for input&lt;/em>、&lt;em>ready for review&lt;/em> 三种之一)，以及一段&lt;/strong>简短的进度提示**(short progress prompt)。这样开发者无需重新打开 thread 即可一眼看到变化(&lt;em>“glance at what changed without reopening the thread”&lt;/em>)，对长任务执行场景极为友好。&lt;/p>
&lt;h3 id="三种等价切换方式适配键盘党与鼠标党">
	&lt;a class="h-a" href="#%e4%b8%89%e7%a7%8d%e7%ad%89%e4%bb%b7%e5%88%87%e6%8d%a2%e6%96%b9%e5%bc%8f%e9%80%82%e9%85%8d%e9%94%ae%e7%9b%98%e5%85%9a%e4%b8%8e%e9%bc%a0%e6%a0%87%e5%85%9a">&lt;strong>三种等价切换方式：适配键盘党与鼠标党&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>官方为 Codex Pets 提供了三种功能等价的开关方式，以适应不同操作习惯。第一种是&lt;strong>命令输入&lt;/strong>：在 composer(输入框)中直接键入 &lt;strong>/pet&lt;/strong>，适合命令行习惯的开发者；第二种是&lt;strong>设置面板按钮&lt;/strong>：进入 &lt;strong>Settings → Appearance&lt;/strong>，点击 &lt;strong>Wake Pet&lt;/strong>(唤醒)或 &lt;strong>Tuck Away Pet&lt;/strong>(收起)，适合鼠标操作用户；第三种是&lt;strong>快捷键命令菜单&lt;/strong>：按 &lt;strong>Cmd+K&lt;/strong>(macOS)或 &lt;strong>Ctrl+K&lt;/strong>(Windows / Linux)调出命令菜单后运行同名命令，效率最高。三种方式之间没有功能差异，可按场景灵活切换。&lt;/p>
&lt;h3 id="hatch-pet-skill创建自定义宠物的完整流程">
	&lt;a class="h-a" href="#hatch-pet-skill%e5%88%9b%e5%bb%ba%e8%87%aa%e5%ae%9a%e4%b9%89%e5%ae%a0%e7%89%a9%e7%9a%84%e5%ae%8c%e6%95%b4%e6%b5%81%e7%a8%8b">&lt;strong>hatch-pet skill：创建自定义宠物的完整流程&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>若内置宠物不能满足需求，可通过 &lt;strong>hatch-pet skill&lt;/strong> 创建自定义宠物，流程分三步。第一步，在 Codex 中运行安装命令：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>$skill-installer hatch-pet&lt;/code>&lt;/pre>&lt;/div>&lt;p>第二步，按 &lt;strong>Cmd+K&lt;/strong> 或 &lt;strong>Ctrl+K&lt;/strong> 打开命令菜单，选择 &lt;strong>Force Reload Skills&lt;/strong> 重载 skills，确保 Codex 识别到新装的 hatch-pet。第三步，调用 hatch-pet 创建宠物：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>$hatch-pet create a new pet inspired by my recent projects&lt;/code>&lt;/pre>&lt;/div>&lt;p>官方示例提示语**“inspired by my recent projects”**暗示 hatch-pet 能结合用户上下文生成宠物，而非简单从模板中挑选。&lt;/p>&lt;p>© 2026 LLM大模型邮报 · &lt;a href="https://blogs.llmposts.com/models/openai-codex-pets-launch/">阅读原文 →&lt;/a>&lt;/p>&lt;p>本文首发于 &lt;a href="https://blogs.llmposts.com/">LLM 大模型邮报&lt;/a>。&lt;/p></description></item><item><title>Hermes Agent 安装最简流程：Linux、macOS、WSL2 与 Termux 四端一次说清</title><link>https://blogs.llmposts.com/guides/hermes-agent-install-guide/</link><pubDate>Fri, 01 May 2026 16:44:52 +0000</pubDate><author>MISTY</author><guid>https://blogs.llmposts.com/guides/hermes-agent-install-guide/</guid><description>&lt;p>Hermes Agent 是 &lt;a class="link link--text" href="https://hermes-agent.nousresearch.com/" rel="external">Nous Research&lt;/a> 推出的开源自学习个人 AI agent，&lt;strong>GitHub 收获 118k+ stars，由 Hermes-3 模型团队同源开发&lt;/strong>。与 Claude Code、Codex、OpenCode 等编码专用工具不同，Hermes Agent 定位为”会成长的个人 agent”——它通过闭环学习循环自动从经验中创建可复用的技能（Skills），跨会话记忆用户偏好，通过 Telegram、Discord、Slack、WhatsApp、Signal 等多个通讯平台接入用户日常生活，并支持自然语言定时任务（cron）。&lt;/p>
&lt;p>Hermes Agent 安装的最大特点是&lt;strong>仅通过单一 install.sh 脚本分发&lt;/strong>——没有 npm、Homebrew、winget 包，所有平台共用同一条命令。支持 Linux、macOS、WSL2 与 Android Termux，&lt;strong>不支持原生 Windows&lt;/strong>。本指南整理四端在不同设备上的最简安装流程，覆盖 Docker、SSH、Modal、Daytona 等六种执行后端的配置策略，以及从 OpenClaw 迁移的完整路径。&lt;/p>

 
 
&lt;figure class="fig fig--w-text" id="fig-1">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #2a2620, #e6b80f)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 17.1179%;"> 
 
&lt;img alt="Hermes Agent 安装与跨平台使用完整指南" class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/banner_5700551010858325974-512x.webp 512w, https://blogs.llmposts.com/banner_5700551010858325974-566x.webp 566w, https://blogs.llmposts.com/banner_5700551010858325974-626x.webp 626w, https://blogs.llmposts.com/banner_5700551010858325974-692x.webp 692w, https://blogs.llmposts.com/banner_5700551010858325974-700x.webp 700w, https://blogs.llmposts.com/banner_5700551010858325974-766x.webp 766w, https://blogs.llmposts.com/banner_5700551010858325974-847x.webp 847w, https://blogs.llmposts.com/banner_5700551010858325974-936x.webp 936w, https://blogs.llmposts.com/banner_5700551010858325974-1035x.webp 1035w, https://blogs.llmposts.com/banner_5700551010858325974-1145x.webp 1145w" height="120" src="data:image/webp;base64,UklGRhAEAABXRUJQVlA4IAQEAADQHQCdASrpACgAPzWAokmnpCGaS5YAexNE9gBebx3u31Nzj8rr1/u98r0s7hLnZtPAMgDI+s8hj8OwDeTXadWdsAG7ZcpacsLE5l0C0Wrk770eoIG/KsEjYo1EPOpemGLlMIbAbK6ub3L4d/lwdEVzYX3r6zD6KB45Nm/uxb+uqDjclMlSVuv+geb77QymryFWL3Yb96dPQhGk0BcLJM4sQg6jtVtzahm9uQZ6Mt7KUDMdTu8gg01pglRt3ReNWUVG2Y1EAtH1pB3ha0HuPPq54CX+kaHWDlYEt8hKd3zIsef+hpgco17DfFQUBW/e6ok+e1KDeHugAP7oud7PbAT9oaO6ugFZCeTbEHotic9y82+jZzHtR6nCWA30MhchP/hgM/6YZev/oDGg/TbMkL68u10BDOvss99TInHvWUyQKOY+XyvPfunOIm7ErS9UIErq8KaJyJRVhkzmu9wXazVwf3x1u6GNWTpfynPoYBu4rAFxkoxGojVmtTuTLv6ftzxhi5Hv6TfZJ2AbLdfoZkHjiEgvXLTWaG3GfLI5Js/xa98h4B/7htjb3gcoNcht/2qAqxqbkP1gB7tX/QUiaNuwQ0BywGiYOz3bMAHsQuecI0CIUkIgvKxkkzPHdBNOJsUULrUGOxj6x+QMz3E3vddIouJ6h5dpxmeu+VaISxxP8dPEGcvQ9z1Eq0SqcenUAT4xr1XlBetp2KHK2iAJmsnWLAV4ty7AmSB5UIDj94WCsbejHprpVitpXhEKxKliNSiMqcSg44ew6p1atp7sisKFWMeps6+1iUFASrUGxVQrUS4Sr2PelOfPFlmgazch45XdPlbAKHobg6Qu0BD8wwcNB99DzwcZ4FXYvpCs0B9TaTI+KBdFlLKwmFnxARyo/QhNQ+YWFdib3mrSheSxgu56h/LMBa91Yvs6+ZdThwJMqq61i7btTLG/3DkIHOgz3vzdQIErJhKBWVfMiot9qZng/eDCvTJmTg1xO3eqFkTWpx9wohlGFjr5SYukMJW2N68CeZYIQuOkT2a055zpxqkTjfLW8v0j4XJfVVN8W3pcm0IUY25abW4xiI1zl5te5gvGRcvmtxb1n0CbJjYxyBQvMr4TT6QtaHKFZJaSEsfwy3JhPDXC5jyVvttPeifsSlo3RsAi5l5YkpSwkUP1FBfemwOlVJ7LCm/Bmk0rpf2vpMg4KZ0NGoJSZ+0fa/5QbAnE91gUPHRc/RJdEZQqWQ9MpcjJ6cWUIBSzHs1CnhlDQyuEwO0BxlOkEfpBcvOVWpTBEJAkQIG2fKwVOj2MT9Xvt+pIB2KI8fIeiNjhEZzuN4lArU/G/MUfW3UFSRYUFhbwNa6vCzGypJcVKD6GL/IABKCAAA==" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="hermes-agent-是什么与编码-agent-的根本差异">
	&lt;a class="h-a" href="#hermes-agent-%e6%98%af%e4%bb%80%e4%b9%88%e4%b8%8e%e7%bc%96%e7%a0%81-agent-%e7%9a%84%e6%a0%b9%e6%9c%ac%e5%b7%ae%e5%bc%82">&lt;strong>Hermes Agent 是什么：与编码 agent 的根本差异&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>理解 Hermes Agent 安装路径的设计选择，需要先搞清楚它的产品定位。Hermes 不是 Claude Code、Codex、OpenCode 那种”在终端里帮你写代码的 agent”，而是更接近”个人 AI 管家”——它的设计目标是&lt;strong>持久运行、跨会话学习、跨平台触达&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>自学习闭环&lt;/strong>：完成复杂任务后自动生成 Markdown 格式的 Skill 文档存入技能库，下次遇到类似任务先搜索已有技能而非从零推导。&lt;a class="link link--text" href="https://tokenmix.ai/blog/hermes-agent-review-self-improving-open-source-2026" rel="external">据 TokenMix.ai 的评测&lt;/a>，积累 20+ 自创技能后，相似任务完成时间约缩短 40%&lt;/li>
&lt;li>&lt;strong>跨平台 gateway&lt;/strong>：通过单一 gateway 进程接入 Telegram、Discord、Slack、WhatsApp、Signal、Email 与 CLI，从手机给云端 VPS 上的 Hermes 发消息也能完成任务&lt;/li>
&lt;li>&lt;strong>三层持久记忆&lt;/strong>：FTS5 全文搜索 + LLM 摘要的会话历史检索、Honcho 用户建模、agentskills.io 标准的技能持久化&lt;/li>
&lt;li>&lt;strong>自然语言 cron&lt;/strong>：内置定时调度器，支持”每天早 8 点把昨日 GitHub 通知发到 Telegram”这类自然语言任务&lt;/li>
&lt;li>&lt;strong>六种 terminal backend&lt;/strong>：本地、Docker、SSH、Daytona、Singularity、Modal——agent 实际执行命令的环境与 Hermes 本体可分离&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>什么场景适合 Hermes&lt;/strong>：希望 7×24 运行在 VPS 或 home lab 上的个人 agent、需要从 Telegram 远程指挥的工作流、有跨会话用户记忆需求的研究工作、想要从 OpenClaw 迁移并保留所有技能与 API Key。&lt;/p>
&lt;p>&lt;strong>什么场景不适合&lt;/strong>：纯命令行编码、不想维护 Linux/Mac 环境的 Windows 原生用户、不希望 agent 自动生成”持久状态”的临时使用场景。&lt;/p>
&lt;h3 id="系统要求与前置检查">
	&lt;a class="h-a" href="#%e7%b3%bb%e7%bb%9f%e8%a6%81%e6%b1%82%e4%b8%8e%e5%89%8d%e7%bd%ae%e6%a3%80%e6%9f%a5">&lt;strong>系统要求与前置检查&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>根据 &lt;a class="link link--text" href="https://hermes-agent.nousresearch.com/docs/getting-started/quickstart" rel="external">Hermes Agent 官方文档&lt;/a>：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>操作系统&lt;/strong>：Linux、macOS、WSL2 或 Android（通过 Termux）&lt;/li>
&lt;li>&lt;strong>不支持原生 Windows&lt;/strong>：官方明确说明 Hermes 不支持 Windows 原生路径，Windows 用户必须先安装 WSL2&lt;/li>
&lt;li>&lt;strong>Python&lt;/strong>：要求 Python 3.11，由安装脚本通过 uv 自动管理，无需手动安装&lt;/li>
&lt;li>&lt;strong>Node.js&lt;/strong>：v22，由安装脚本自动安装（用于 WhatsApp bridge 与浏览器自动化）&lt;/li>
&lt;li>&lt;strong>Git&lt;/strong>：唯一需要预先安装的依赖&lt;/li>
&lt;li>&lt;strong>硬件&lt;/strong>：2 GB RAM 起步，本地跑模型时需更多。运行 Hermes 本体仅 ~1 GB 磁盘&lt;/li>
&lt;li>&lt;strong>账号&lt;/strong>：Hermes 本体免费开源（MIT 协议），使用成本取决于模型 provider——可使用 Nous Portal、OpenRouter、NVIDIA NIM、智谱 GLM、Kimi、MiniMax、本地 Ollama 或 OpenAI/Anthropic 等任意 provider&lt;/li>
&lt;li>&lt;strong>网络&lt;/strong>：托管模型 API 需稳定网络。本地模型通过 OpenAI 兼容端点可离线运行&lt;/li>
&lt;/ul>
&lt;p>检查当前是否已安装：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>hermes --version&lt;/code>&lt;/pre>&lt;/div>&lt;p>如果返回版本号（当前最新版 &lt;strong>v0.11.0&lt;/strong>，发布于 2026 年 4 月 23 日），说明已安装。否则按下文方法安装。&lt;/p>
&lt;h3 id="安装方法">
	&lt;a class="h-a" href="#%e5%ae%89%e8%a3%85%e6%96%b9%e6%b3%95">&lt;strong>安装方法&lt;/strong>&lt;/a>
&lt;/h3>&lt;h4 id="方法一官方安装脚本所有平台推荐">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e4%b8%80%e5%ae%98%e6%96%b9%e5%ae%89%e8%a3%85%e8%84%9a%e6%9c%ac%e6%89%80%e6%9c%89%e5%b9%b3%e5%8f%b0%e6%8e%a8%e8%8d%90">&lt;strong>方法一：官方安装脚本（所有平台推荐）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>Hermes Agent &lt;strong>官方仅通过 install.sh 脚本分发&lt;/strong>——没有 npm 包、没有 Homebrew cask、没有 winget。所有平台共用同一条命令：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash&lt;/code>&lt;/pre>&lt;/div>&lt;p>脚本自动处理：&lt;/p>
&lt;ul>
&lt;li>使用 &lt;strong>uv&lt;/strong> 安装 Python 3.11 与虚拟环境&lt;/li>
&lt;li>安装 Node.js v22（用于 WhatsApp bridge）&lt;/li>
&lt;li>安装 ripgrep、ffmpeg 等系统依赖&lt;/li>
&lt;li>从 GitHub clone 仓库到 &lt;strong>~/.hermes/&lt;/strong>，建立 Python 虚拟环境&lt;/li>
&lt;li>把 &lt;strong>hermes&lt;/strong> 命令链接到 &lt;strong>~/.local/bin/hermes&lt;/strong>&lt;/li>
&lt;/ul>
&lt;p>完成后重载 shell：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>source ~/.bashrc # 或 source ~/.zshrc&lt;/code>&lt;/pre>&lt;/div>&lt;p>运行 &lt;strong>hermes –version&lt;/strong> 验证，运行 &lt;strong>hermes&lt;/strong> 启动 TUI。&lt;/p>
&lt;p>&lt;strong>检测平台自动选择 extras&lt;/strong>：脚本会根据运行环境选择不同的 Python extras。Linux/macOS/WSL2 安装 &lt;strong>.[all]&lt;/strong>（包含全部依赖与语音模式），Termux 安装 &lt;strong>.[termux]&lt;/strong>（移除 Android 不兼容的语音相关库）。&lt;/p>
&lt;h4 id="方法二linux-与-macos-部署细节">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e4%ba%8clinux-%e4%b8%8e-macos-%e9%83%a8%e7%bd%b2%e7%bb%86%e8%8a%82">&lt;strong>方法二：Linux 与 macOS 部署细节&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>最常见的部署场景，按顺序执行：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 安装 git（如未安装）
sudo apt install git # Ubuntu / Debian
sudo dnf install git # Fedora / RHEL
brew install git # macOS
 
# 运行官方安装脚本
curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash
 
# 重载 shell
source ~/.bashrc # bash
source ~/.zshrc # zsh
 
# 启动 setup 向导（一次性配置 model provider、tools、gateway）
hermes setup&lt;/code>&lt;/pre>&lt;/div>&lt;p>setup 向导会按顺序问以下问题：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>Model provider&lt;/strong>：从 Nous Portal、OpenRouter、Anthropic、OpenAI、本地 Ollama 等中选择&lt;/li>
&lt;li>&lt;strong>API Key&lt;/strong>：对应 provider 的 Key，存入 &lt;strong>~/.hermes/.env&lt;/strong>&lt;/li>
&lt;li>&lt;strong>Terminal backend&lt;/strong>：默认 local，后续可改 Docker / SSH / Modal 等&lt;/li>
&lt;li>&lt;strong>Gateway 平台&lt;/strong>：可选，如配 Telegram bot token、Discord 等&lt;/li>
&lt;li>&lt;strong>Tools 与 skills&lt;/strong>：选择启用哪些工具与初始技能&lt;/li>
&lt;/ul>
&lt;p>完成后执行 &lt;strong>hermes&lt;/strong> 进入 TUI，或 &lt;strong>hermes –tui&lt;/strong> 进入更现代的 TUI（推荐）。&lt;/p>
&lt;h4 id="方法三windows-用户必须使用-wsl2">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e4%b8%89windows-%e7%94%a8%e6%88%b7%e5%bf%85%e9%a1%bb%e4%bd%bf%e7%94%a8-wsl2">&lt;strong>方法三：Windows 用户必须使用 WSL2&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>Hermes Agent &lt;strong>不支持 Windows 原生路径&lt;/strong>，根据官方文档说明，Windows 用户必须先安装 WSL2：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 在 PowerShell 管理员窗口执行
wsl --install -d Ubuntu
 
# 重启电脑后进入 WSL Ubuntu，执行官方安装脚本
curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash
 
# 重载 shell
source ~/.bashrc&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>WSL2 安装注意事项&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>所有依赖（Python、Node.js、git、ripgrep）必须在 WSL2 内安装，&lt;strong>不要混用 Windows 原生侧的工具链&lt;/strong>&lt;/li>
&lt;li>项目代码建议存储在 WSL2 文件系统（&lt;strong>~/projects&lt;/strong>），不要放在 &lt;strong>/mnt/c/&lt;/strong> 下——后者跨文件系统访问性能差&lt;/li>
&lt;li>Hermes 默认启动会监听 localhost 端口（如 8642 给 gateway 用），WSL2 与 Windows 主机端口共享，可在 Windows 浏览器直接访问&lt;/li>
&lt;/ul>
&lt;h4 id="方法四android-termux-移动端部署">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e5%9b%9bandroid-termux-%e7%a7%bb%e5%8a%a8%e7%ab%af%e9%83%a8%e7%bd%b2">&lt;strong>方法四：Android Termux 移动端部署&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>Hermes Agent 是&lt;strong>少数支持 Android 部署的 AI agent&lt;/strong>之一，对希望在手机上运行个人 agent 的用户尤其友好：&lt;/p>
&lt;p>&lt;strong>第一步：安装 Termux&lt;/strong>&lt;/p>
&lt;p>不要从 Google Play 安装 Termux（已停止更新）。从 &lt;a class="link link--text" href="https://f-droid.org/packages/com.termux/" rel="external">F-Droid&lt;/a> 下载安装最新版本。&lt;/p>
&lt;p>&lt;strong>第二步：在 Termux 中运行安装脚本&lt;/strong>&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 更新 Termux 包索引
pkg update &amp;amp;&amp;amp; pkg upgrade
 
# 安装基础依赖
pkg install git python
 
# 运行官方安装脚本（脚本会自动检测 Termux 并切换到 Android 流程）
curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>Termux 路径的限制&lt;/strong>：根据官方 README，Termux 上 Hermes 安装的是 &lt;strong>.[termux]&lt;/strong> extras 而非 &lt;strong>.[all]&lt;/strong>，&lt;strong>移除了 Android 不兼容的语音相关依赖&lt;/strong>（如 faster-whisper 的语音转文本功能）。其他 40+ 工具与跨会话记忆全部可用。&lt;/p>
&lt;p>&lt;strong>典型 Termux 使用场景&lt;/strong>：在手机上跑一个轻量 Hermes 实例，配置 Telegram gateway，把手机 24 小时挂在桌面充电——一个零成本的”随身 AI 助手”。结合 Termux 的 SSH 服务器功能，还可以从笔记本通过 SSH 远程操作手机上的 Hermes。&lt;/p>
&lt;h4 id="方法五docker-部署生产环境推荐">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e4%ba%94docker-%e9%83%a8%e7%bd%b2%e7%94%9f%e4%ba%a7%e7%8e%af%e5%a2%83%e6%8e%a8%e8%8d%90">&lt;strong>方法五：Docker 部署（生产环境推荐）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>Docker 部署的优势是隔离性、可复制部署、配合 docker-compose 实现服务级管理。Hermes 提供官方 Docker 镜像 &lt;strong>nousresearch/hermes-agent&lt;/strong>。&lt;/p>
&lt;p>&lt;strong>首次运行（交互式 setup）&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 创建数据目录
mkdir -p ~/.hermes
 
# 交互式运行 setup 向导
docker run -it --rm \
 -v ~/.hermes:/opt/data \
 nousresearch/hermes-agent setup&lt;/code>&lt;/pre>&lt;/div>&lt;p>setup 向导会引导配置 model provider、API Key 等，所有配置写入挂载的 &lt;strong>~/.hermes/.env&lt;/strong>。&lt;/p>
&lt;p>&lt;strong>持久化运行 gateway（推荐生产部署方式）&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>docker run -d \
 --name hermes \
 --restart unless-stopped \
 -v ~/.hermes:/opt/data \
 -p 8642:8642 \
 nousresearch/hermes-agent gateway run&lt;/code>&lt;/pre>&lt;/div>&lt;p>端口 8642 暴露 gateway 的 OpenAI 兼容 API 与健康检查端点。如果只用 Telegram/Discord 等聊天平台触达，该端口可不映射。&lt;/p>
&lt;p>&lt;strong>升级 Docker 部署&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>docker pull nousresearch/hermes-agent:latest
docker rm -f hermes
docker run -d \
 --name hermes \
 --restart unless-stopped \
 -v ~/.hermes:/opt/data \
 nousresearch/hermes-agent gateway run&lt;/code>&lt;/pre>&lt;/div>&lt;p>数据目录 &lt;strong>~/.hermes&lt;/strong> 不受重建容器影响，技能、记忆、会话历史全部保留。&lt;/p>
&lt;p>&lt;strong>重要：UID 不匹配问题&lt;/strong>：容器内默认以 UID 10000 的 hermes 用户运行。若主机 &lt;strong>~/.hermes/&lt;/strong> 归不同 UID 所有，会出现权限错误。解决方案是设置 &lt;strong>HERMES_UID&lt;/strong> 与 &lt;strong>HERMES_GID&lt;/strong> 环境变量匹配主机用户：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>docker run -d \
 --name hermes \
 --restart unless-stopped \
 -v ~/.hermes:/opt/data \
 -e HERMES_UID=$(id -u) \
 -e HERMES_GID=$(id -g) \
 nousresearch/hermes-agent gateway run&lt;/code>&lt;/pre>&lt;/div>&lt;h4 id="方法六克隆仓库手动安装开发者">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e5%85%ad%e5%85%8b%e9%9a%86%e4%bb%93%e5%ba%93%e6%89%8b%e5%8a%a8%e5%ae%89%e8%a3%85%e5%bc%80%e5%8f%91%e8%80%85">&lt;strong>方法六：克隆仓库手动安装（开发者）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>适合想要修改源码、贡献 PR 或运行 dev 分支的开发者：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 克隆仓库
git clone https://github.com/NousResearch/hermes-agent.git
cd hermes-agent
 
# 使用项目自带的 setup 脚本（自动安装 uv、创建虚拟环境）
./setup-hermes.sh
 
# 或手动等价步骤
curl -LsSf https://astral.sh/uv/install.sh | sh
uv venv venv --python 3.11
source venv/bin/activate
uv pip install -e &amp;#34;.[all,dev]&amp;#34;
 
# 运行测试
scripts/run_tests.sh
 
# 启动（项目目录下的 hermes 会自动检测 venv）
./hermes&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>setup-hermes.sh 与 install.sh 的区别&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>install.sh&lt;/strong>（curl 安装）：面向最终用户，把仓库 clone 到 &lt;strong>~/.hermes/&lt;/strong>、链接全局 hermes 命令、启动 setup 向导&lt;/li>
&lt;li>&lt;strong>setup-hermes.sh&lt;/strong>（仓库内）：面向贡献者，在当前 clone 目录建立开发环境、安装 dev 依赖&lt;/li>
&lt;/ul>
&lt;h3 id="认证与-model-provider-配置">
	&lt;a class="h-a" href="#%e8%ae%a4%e8%af%81%e4%b8%8e-model-provider-%e9%85%8d%e7%bd%ae">&lt;strong>认证与 model provider 配置&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>与 Claude Code、Codex 不同，Hermes &lt;strong>不内置任何模型订阅&lt;/strong>，安装后必须至少配置一个 provider 才能开始使用。Hermes 支持的 provider 列表非常长：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>Nous Portal&lt;/strong>：Nous Research 自营服务，提供 Hermes-3 等开源模型，&lt;a class="link link--text" href="https://decrypt.co/364211/what-is-hermes-open-source-ai-agent-openclaw-competitor" rel="external">据 Decrypt 报道&lt;/a> v0.11.0 起 MiMo v2 Pro 对 Hermes 用户免费&lt;/li>
&lt;li>&lt;strong>OpenRouter&lt;/strong>：聚合 200+ 模型，单 Key 访问，国内开发者常用入口&lt;/li>
&lt;li>&lt;strong>NVIDIA NIM&lt;/strong>：Nemotron 模型族&lt;/li>
&lt;li>&lt;strong>Xiaomi MiMo&lt;/strong>：小米开源 MiMo 模型&lt;/li>
&lt;li>&lt;strong>z.ai / GLM&lt;/strong>：智谱 GLM 系列&lt;/li>
&lt;li>&lt;strong>Kimi / Moonshot&lt;/strong>：月之暗面 Kimi&lt;/li>
&lt;li>&lt;strong>MiniMax&lt;/strong>：MiniMax 模型&lt;/li>
&lt;li>&lt;strong>Hugging Face&lt;/strong>：HF Inference API&lt;/li>
&lt;li>&lt;strong>OpenAI / Anthropic&lt;/strong>：标准 GPT / Claude API&lt;/li>
&lt;li>&lt;strong>本地 Ollama&lt;/strong>：通过 OpenAI 兼容端点访问，零费用&lt;/li>
&lt;li>&lt;strong>自定义 OpenAI 兼容端点&lt;/strong>：任意第三方 OpenAI-compatible API&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>配置方法&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 交互式选择 provider 与模型
hermes model
 
# 命令行设置默认模型
hermes config set model anthropic/claude-opus-4.6
 
# 设置 API Key
hermes config set OPENROUTER_API_KEY sk-or-...&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>切换模型不需重启&lt;/strong>：在 TUI 内执行 &lt;strong>/model&lt;/strong> 即可热切换，会话历史不丢失。&lt;/p>
&lt;h3 id="terminal-backend-选择agent-在哪里执行命令">
	&lt;a class="h-a" href="#terminal-backend-%e9%80%89%e6%8b%a9agent-%e5%9c%a8%e5%93%aa%e9%87%8c%e6%89%a7%e8%a1%8c%e5%91%bd%e4%bb%a4">&lt;strong>Terminal Backend 选择：agent 在哪里执行命令&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>Hermes 一个独特设计是&lt;strong>把 agent 本体与 agent 实际执行 shell 命令的环境分离&lt;/strong>。安装在你笔记本的 Hermes 可以让 agent 在远程 VPS 上执行命令，或在 Modal 云沙箱中运行。共有六种 backend：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>local&lt;/strong>：默认，在 Hermes 所在机器执行命令。适合个人开发与受信任环境&lt;/li>
&lt;li>&lt;strong>docker&lt;/strong>：在本机 Docker 容器内执行，提供隔离。需 &lt;strong>docker version&lt;/strong> 验证可用&lt;/li>
&lt;li>&lt;strong>ssh&lt;/strong>：通过 SSH 在远程主机执行。需配置 &lt;strong>TERMINAL_SSH_HOST&lt;/strong> 与 &lt;strong>TERMINAL_SSH_USER&lt;/strong>&lt;/li>
&lt;li>&lt;strong>modal&lt;/strong>：Modal 云端 serverless 沙箱，&lt;strong>idle 时几乎零成本，按需启动&lt;/strong>。需 &lt;strong>MODAL_TOKEN_ID&lt;/strong>&lt;/li>
&lt;li>&lt;strong>daytona&lt;/strong>：Daytona 临时开发环境，类似 GitHub Codespaces。需 &lt;strong>DAYTONA_API_KEY&lt;/strong>&lt;/li>
&lt;li>&lt;strong>singularity&lt;/strong>：HPC 集群常用的 Singularity/Apptainer 容器。需 &lt;strong>apptainer&lt;/strong> 或 &lt;strong>singularity&lt;/strong> 在 PATH 中&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>切换 backend&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 切到 Docker 隔离
hermes config set terminal.backend docker
 
# 切到远程 SSH
hermes config set terminal.backend ssh
 
# 切回本地
hermes config set terminal.backend local&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>选哪个 backend&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>个人开发与学习&lt;/strong>：local（默认）即可&lt;/li>
&lt;li>&lt;strong>对 agent 自主写代码、运行命令存疑&lt;/strong>：docker，提供隔离防止误操作&lt;/li>
&lt;li>&lt;strong>已有云端 VPS 想 agent 在那里跑&lt;/strong>：ssh&lt;/li>
&lt;li>&lt;strong>追求极致 idle 成本&lt;/strong>：modal，闲置时几乎零成本&lt;/li>
&lt;/ul>
&lt;h3 id="从-openclaw-迁移自动化导入完整流程">
	&lt;a class="h-a" href="#%e4%bb%8e-openclaw-%e8%bf%81%e7%a7%bb%e8%87%aa%e5%8a%a8%e5%8c%96%e5%af%bc%e5%85%a5%e5%ae%8c%e6%95%b4%e6%b5%81%e7%a8%8b">&lt;strong>从 OpenClaw 迁移：自动化导入完整流程&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>Hermes 内置 &lt;strong>hermes claw migrate&lt;/strong> 命令，自动从 &lt;strong>~/.openclaw&lt;/strong> 迁移配置、记忆、技能与 API Key——这对从 OpenClaw 切换过来的用户是杀手级特性。&lt;/p>
&lt;p>&lt;strong>首次 setup 自动检测&lt;/strong>：执行 &lt;strong>hermes setup&lt;/strong> 时，向导会检测 &lt;strong>~/.openclaw&lt;/strong> 目录存在，自动询问是否迁移。&lt;/p>
&lt;p>&lt;strong>安装后手动迁移&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 交互式完整迁移（默认 preset）
hermes claw migrate
 
# 预览将要迁移哪些内容（不实际执行）
hermes claw migrate --dry-run
 
# 仅迁移用户数据，不带 API Key 等敏感信息
hermes claw migrate --preset user-data
 
# 强制覆盖已存在的同名配置
hermes claw migrate --overwrite&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>迁移涵盖内容&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>SOUL.md&lt;/strong>：persona 定义文件&lt;/li>
&lt;li>&lt;strong>Memories&lt;/strong>：MEMORY.md 与 USER.md 条目&lt;/li>
&lt;li>&lt;strong>Skills&lt;/strong>：用户自创技能 → &lt;strong>~/.hermes/skills/openclaw-imports/&lt;/strong>&lt;/li>
&lt;li>&lt;strong>命令允许列表&lt;/strong>：approval patterns&lt;/li>
&lt;li>&lt;strong>Messaging 配置&lt;/strong>：平台 token、允许用户列表、工作目录&lt;/li>
&lt;li>&lt;strong>API Key 白名单&lt;/strong>：Telegram、OpenRouter、OpenAI、Anthropic、ElevenLabs 等&lt;/li>
&lt;li>&lt;strong>TTS 资源&lt;/strong>：工作区音频文件&lt;/li>
&lt;li>&lt;strong>AGENTS.md&lt;/strong>：通过 &lt;strong>–workspace-target&lt;/strong> 指定项目级工作区指令&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>并行运行策略&lt;/strong>：迁移过程中可&lt;strong>同时保留 OpenClaw 与 Hermes 在不同账号上运行&lt;/strong>——比如 OpenClaw 接 WeChat、Hermes 接 Telegram，等 Hermes 在 cron 与路由行为上完全匹配后再切换。社区项目 &lt;a class="link link--text" href="https://github.com/AaronWong1999/hermesclaw" rel="external">HermesClaw&lt;/a> 提供 WeChat bridge，让两者可以在同一个微信账号上并存。&lt;/p>
&lt;h3 id="gateway-配置让-hermes-出现在你的聊天软件">
	&lt;a class="h-a" href="#gateway-%e9%85%8d%e7%bd%ae%e8%ae%a9-hermes-%e5%87%ba%e7%8e%b0%e5%9c%a8%e4%bd%a0%e7%9a%84%e8%81%8a%e5%a4%a9%e8%bd%af%e4%bb%b6">&lt;strong>Gateway 配置：让 Hermes 出现在你的聊天软件&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>Hermes 的核心卖点之一是通过单一 gateway 进程接入多个聊天平台。安装后启用 gateway：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 交互式 gateway setup 向导
hermes gateway setup
 
# 启动 gateway
hermes gateway start
 
# 安装为系统服务（systemd）以实现 7×24 运行
hermes gateway install&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>支持的聊天平台&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>Telegram&lt;/strong>：通过 BotFather 创建 bot 获取 token，配置到 gateway&lt;/li>
&lt;li>&lt;strong>Discord&lt;/strong>：创建 Discord application bot 并邀请到服务器&lt;/li>
&lt;li>&lt;strong>Slack&lt;/strong>：创建 Slack App 并安装到 workspace&lt;/li>
&lt;li>&lt;strong>WhatsApp&lt;/strong>：通过 baileys 库（基于 Node.js）连接 WhatsApp Web&lt;/li>
&lt;li>&lt;strong>Signal&lt;/strong>：通过 signal-cli 桥接&lt;/li>
&lt;li>&lt;strong>Email&lt;/strong>：IMAP/SMTP 接收发送邮件&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>典型部署模式&lt;/strong>：在 5 美元/月的 VPS 上跑 gateway，配置 Telegram bot——出门在外通过手机 Telegram 给 bot 发”帮我把昨天的 GitHub 通知整理成日报”，VPS 上的 Hermes 处理后回复结果。这是 Hermes 与传统编码 agent 最大的体验差异。&lt;/p>
&lt;h3 id="更新方式">
	&lt;a class="h-a" href="#%e6%9b%b4%e6%96%b0%e6%96%b9%e5%bc%8f">&lt;strong>更新方式&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>Hermes 提供内置升级命令：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 升级到最新版本
hermes update&lt;/code>&lt;/pre>&lt;/div>&lt;p>由于 Hermes 通过 git clone 安装而非包管理器分发，升级实际是：&lt;/p>
&lt;ul>
&lt;li>git pull 最新 main 分支代码&lt;/li>
&lt;li>uv pip install 更新依赖&lt;/li>
&lt;li>迁移配置文件（如有 schema 变更）&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>Docker 部署的升级&lt;/strong>：拉取最新镜像后重建容器（前面方法五已说明）。&lt;/p>
&lt;p>&lt;strong>Termux 上的升级&lt;/strong>：执行 &lt;strong>hermes update&lt;/strong>，注意 Termux 内升级时间较长，可能需要 5-10 分钟。&lt;/p>
&lt;h3 id="常见问题排查">
	&lt;a class="h-a" href="#%e5%b8%b8%e8%a7%81%e9%97%ae%e9%a2%98%e6%8e%92%e6%9f%a5">&lt;strong>常见问题排查&lt;/strong>&lt;/a>
&lt;/h3>&lt;h4 id="问题-1安装脚本失败--python-311-找不到">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-1%e5%ae%89%e8%a3%85%e8%84%9a%e6%9c%ac%e5%a4%b1%e8%b4%a5--python-311-%e6%89%be%e4%b8%8d%e5%88%b0">&lt;strong>问题 1：安装脚本失败 – Python 3.11 找不到&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：安装脚本用 uv 自动安装 Python 3.11，但某些受限环境（如学校机房、企业 NAT）可能阻断 uv 的下载。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：先手动安装 uv，再执行 install.sh：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>curl -LsSf https://astral.sh/uv/install.sh | sh
source $HOME/.cargo/env
curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash&lt;/code>&lt;/pre>&lt;/div>&lt;p>或参考方法六手动 clone 仓库的路径，所有依赖都通过本地 uv 处理。&lt;/p>
&lt;h4 id="问题-2hermes-命令安装后找不到">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-2hermes-%e5%91%bd%e4%bb%a4%e5%ae%89%e8%a3%85%e5%90%8e%e6%89%be%e4%b8%8d%e5%88%b0">&lt;strong>问题 2：hermes 命令安装后找不到&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：PATH 中未包含 &lt;strong>~/.local/bin&lt;/strong>。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 检查 PATH
echo $PATH | tr &amp;#39;:&amp;#39; &amp;#39;\n&amp;#39; | grep local/bin
 
# 加入 PATH（bash）
echo &amp;#39;export PATH=&amp;#34;$HOME/.local/bin:$PATH&amp;#34;&amp;#39; &amp;gt;&amp;gt; ~/.bashrc
source ~/.bashrc
 
# zsh
echo &amp;#39;export PATH=&amp;#34;$HOME/.local/bin:$PATH&amp;#34;&amp;#39; &amp;gt;&amp;gt; ~/.zshrc
source ~/.zshrc&lt;/code>&lt;/pre>&lt;/div>&lt;h4 id="问题-3hermes-doctor-报错">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-3hermes-doctor-%e6%8a%a5%e9%94%99">&lt;strong>问题 3：hermes doctor 报错&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;strong>hermes doctor&lt;/strong> 是诊断工具，报错通常会指出具体哪个组件出问题——Python 版本、Node 版本、缺失的系统依赖（ripgrep/ffmpeg）、Docker 不可用等。按提示逐一修复，必要时重新执行 install.sh。&lt;/p>
&lt;h4 id="问题-4termux-上-voice-相关功能失败">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-4termux-%e4%b8%8a-voice-%e7%9b%b8%e5%85%b3%e5%8a%9f%e8%83%bd%e5%a4%b1%e8%b4%a5">&lt;strong>问题 4：Termux 上 voice 相关功能失败&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：Termux 上 Hermes 默认装 &lt;strong>.[termux]&lt;/strong> extras，&lt;strong>不包含语音转文本与语音合成依赖&lt;/strong>（faster-whisper 等库不兼容 Android）。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：这是预期限制，不要尝试在 Termux 上启用语音模式。其他 40+ 工具与跨会话记忆全部可用。&lt;/p>
&lt;h4 id="问题-5docker-部署-uid-权限错误">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-5docker-%e9%83%a8%e7%bd%b2-uid-%e6%9d%83%e9%99%90%e9%94%99%e8%af%af">&lt;strong>问题 5：Docker 部署 UID 权限错误&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：容器内 hermes 用户 UID=10000，与主机 ~/.hermes/ 目录所有者 UID 不匹配。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：通过环境变量传递主机 UID：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>docker run -d \
 --name hermes \
 -v ~/.hermes:/opt/data \
 -e HERMES_UID=$(id -u) \
 -e HERMES_GID=$(id -g) \
 nousresearch/hermes-agent gateway run&lt;/code>&lt;/pre>&lt;/div>&lt;h4 id="问题-6从-openclaw-迁移后某些技能不工作">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-6%e4%bb%8e-openclaw-%e8%bf%81%e7%a7%bb%e5%90%8e%e6%9f%90%e4%ba%9b%e6%8a%80%e8%83%bd%e4%b8%8d%e5%b7%a5%e4%bd%9c">&lt;strong>问题 6：从 OpenClaw 迁移后某些技能不工作&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：OpenClaw 与 Hermes 的技能格式略有差异，自动迁移会处理大部分情况但不保证 100% 兼容。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>先用 &lt;strong>hermes claw migrate –dry-run&lt;/strong> 预览将迁移的内容&lt;/li>
&lt;li>迁移后在 &lt;strong>~/.hermes/skills/openclaw-imports/&lt;/strong> 检查导入的 skill 文档&lt;/li>
&lt;li>不工作的技能可手动调整或在 &lt;a class="link link--text" href="https://agentskills.io" rel="external">Skills Hub&lt;/a> 找替代版本&lt;/li>
&lt;/ul>
&lt;h4 id="问题-7gateway-接-telegram-但收不到消息">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-7gateway-%e6%8e%a5-telegram-%e4%bd%86%e6%94%b6%e4%b8%8d%e5%88%b0%e6%b6%88%e6%81%af">&lt;strong>问题 7：gateway 接 Telegram 但收不到消息&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>检查 BotFather 给的 token 是否正确写入 &lt;strong>~/.hermes/.env&lt;/strong>&lt;/li>
&lt;li>确保 bot 已启动（&lt;strong>hermes gateway start&lt;/strong>）且日志无错误&lt;/li>
&lt;li>在 BotFather 设置 bot 的 &lt;strong>/setprivacy&lt;/strong> 为 &lt;strong>Disable&lt;/strong>，否则 bot 在群聊中收不到消息&lt;/li>
&lt;li>初次发消息前需先在 Telegram 中搜索 bot 用户名并点击 Start&lt;/li>
&lt;/ul>
&lt;h4 id="问题-8国内网络无法访问-anthropic--openai--nous-portal">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-8%e5%9b%bd%e5%86%85%e7%bd%91%e7%bb%9c%e6%97%a0%e6%b3%95%e8%ae%bf%e9%97%ae-anthropic--openai--nous-portal">&lt;strong>问题 8：国内网络无法访问 Anthropic / OpenAI / Nous Portal&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>设置代理：&lt;strong>export HTTPS_PROXY=http://proxy.example.com:port&lt;/strong> 后重启 hermes&lt;/li>
&lt;li>使用 OpenRouter（部分国内可达）或国内 provider（智谱 GLM、Kimi、MiniMax 等）&lt;/li>
&lt;li>本地 Ollama + 开源模型，完全离线运行&lt;/li>
&lt;/ul>
&lt;h4 id="问题-9modal-backend-提示认证失败">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-9modal-backend-%e6%8f%90%e7%a4%ba%e8%ae%a4%e8%af%81%e5%a4%b1%e8%b4%a5">&lt;strong>问题 9：Modal backend 提示认证失败&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 安装 modal SDK
pip install modal
 
# 通过浏览器授权
modal token new
 
# 验证
hermes doctor&lt;/code>&lt;/pre>&lt;/div>&lt;p>成功后 &lt;strong>~/.modal.toml&lt;/strong> 会写入 token，Hermes 自动读取。&lt;/p>
&lt;h4 id="问题-10自学习闭环没看到效果">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-10%e8%87%aa%e5%ad%a6%e4%b9%a0%e9%97%ad%e7%8e%af%e6%b2%a1%e7%9c%8b%e5%88%b0%e6%95%88%e6%9e%9c">&lt;strong>问题 10：自学习闭环没看到效果&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：Hermes 的 skill 创建是&lt;strong>在完成复杂任务后&lt;/strong>触发，简单的单步对话不会生成新 skill。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>给 Hermes 一些有完整流程的复杂任务（如”帮我配置一个 GitHub Actions 工作流并提交 PR”）&lt;/li>
&lt;li>检查 &lt;strong>~/.hermes/skills/&lt;/strong> 是否有自创 skill 文档生成&lt;/li>
&lt;li>在 TUI 内执行 &lt;strong>/skills&lt;/strong> 浏览已有技能库&lt;/li>
&lt;/ul>
&lt;h3 id="验证安装与基础使用">
	&lt;a class="h-a" href="#%e9%aa%8c%e8%af%81%e5%ae%89%e8%a3%85%e4%b8%8e%e5%9f%ba%e7%a1%80%e4%bd%bf%e7%94%a8">&lt;strong>验证安装与基础使用&lt;/strong>&lt;/a>
&lt;/h3>&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 检查版本
hermes --version
 
# 完整诊断
hermes doctor
 
# 启动 TUI（推荐）
hermes --tui
 
# 经典 CLI 模式
hermes&lt;/code>&lt;/pre>&lt;/div>&lt;p>进入 Hermes 后可使用以下内置命令：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 切换 model 与 provider
/model [provider:model]
 
# 设置 personality
/personality [name]
 
# 重新开始会话
/new
/reset
 
# 浏览 skills
/skills
 
# 触发特定 skill
/
 
# 压缩对话历史
/compress
 
# 查看 token 用量
/usage
 
# 撤销 / 重做
/undo
/retry&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>装完之后的关键三步&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>用一个具体的小任务验证基础对话能跑通——官方建议先确认普通聊天工作，再加 gateway、cron、skills、voice 等高级功能&lt;/li>
&lt;li>配置一个聊天平台 gateway（推荐先 Telegram，最简单），让 Hermes 跨设备触达&lt;/li>
&lt;li>给一个完整的工作流任务（如”分析这个项目并生成开发文档”），观察 &lt;strong>~/.hermes/skills/&lt;/strong> 是否生成自创 skill——这是 Hermes 与其他 agent 的核心差异&lt;/li>
&lt;/ul>
&lt;h3 id="卸载方式">
	&lt;a class="h-a" href="#%e5%8d%b8%e8%bd%bd%e6%96%b9%e5%bc%8f">&lt;strong>卸载方式&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>Hermes 安装通过 git clone + venv，没有包管理器分发，卸载需手动清理：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 删除 hermes 命令链接
rm -f ~/.local/bin/hermes
 
# 删除主目录（包含代码、虚拟环境、配置、数据、技能、记忆）
rm -rf ~/.hermes
 
# Docker 部署的卸载
docker rm -f hermes
docker rmi nousresearch/hermes-agent
rm -rf ~/.hermes
 
# 项目克隆方式安装的卸载
rm -rf /path/to/hermes-agent&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>注意安全&lt;/strong>：&lt;strong>~/.hermes/.env&lt;/strong> 包含所有 provider 的 API Key 明文，Telegram bot token 等敏感信息。卸载前如不打算重装，建议先撤销相关 Key。&lt;/p>
&lt;p>&lt;strong>~/.hermes 目录结构&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>~/.hermes/.env&lt;/strong>：API Key 与配置&lt;/li>
&lt;li>&lt;strong>~/.hermes/skills/&lt;/strong>：技能库（含自创技能）&lt;/li>
&lt;li>&lt;strong>~/.hermes/sessions/&lt;/strong>：会话历史（FTS5 全文搜索数据库）&lt;/li>
&lt;li>&lt;strong>~/.hermes/memory/&lt;/strong>：跨会话持久记忆&lt;/li>
&lt;li>&lt;strong>~/.hermes/cache/&lt;/strong>：远程同步缓存（SSH/Modal/Daytona backend 用）&lt;/li>
&lt;/ul>
&lt;h3 id="获取方式">
	&lt;a class="h-a" href="#%e8%8e%b7%e5%8f%96%e6%96%b9%e5%bc%8f">&lt;strong>获取方式&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>GitHub 仓库：&lt;a class="link link--text" href="https://github.com/NousResearch/hermes-agent" rel="external">NousResearch/hermes-agent&lt;/a>&lt;/p>
&lt;p>官方文档：&lt;a class="link link--text" href="https://hermes-agent.nousresearch.com/docs/" rel="external">Hermes Agent Docs&lt;/a>&lt;/p>
&lt;p>快速开始：&lt;a class="link link--text" href="https://hermes-agent.nousresearch.com/docs/getting-started/quickstart" rel="external">Quickstart Guide&lt;/a>&lt;/p>
&lt;p>Termux 详细指南：&lt;a class="link link--text" href="https://hermes-agent.nousresearch.com/docs/getting-started/termux" rel="external">Termux Guide&lt;/a>&lt;/p>
&lt;p>CLI 命令参考：&lt;a class="link link--text" href="https://hermes-agent.nousresearch.com/docs/reference/cli-commands" rel="external">CLI Reference&lt;/a>&lt;/p>
&lt;p>环境变量参考：&lt;a class="link link--text" href="https://hermes-agent.nousresearch.com/docs/reference/environment-variables" rel="external">Environment Variables&lt;/a>&lt;/p>
&lt;p>Skills Hub：&lt;a class="link link--text" href="https://agentskills.io" rel="external">agentskills.io&lt;/a>&lt;/p>
&lt;p>社区 Discord：&lt;a class="link link--text" href="https://discord.gg/NousResearch" rel="external">Nous Research Discord&lt;/a>&lt;/p>
&lt;p>精选资源列表：&lt;a class="link link--text" href="https://github.com/0xNyk/awesome-hermes-agent" rel="external">awesome-hermes-agent&lt;/a>&lt;/p>
&lt;p>Hermes Agent 与 Claude Code、Codex、OpenCode 的产品定位完全不同——它不是编码工具，而是面向”个人 AI 管家”场景的自学习 agent，覆盖跨平台触达、跨会话记忆、自然语言定时任务等编码 agent 不涉及的能力。但安装本身只是入口，真正决定 Hermes 价值的是后续&lt;strong>SOUL.md persona 设计、技能库的持续积累、gateway 多平台路由配置以及 backend 选择策略&lt;/strong>。对中文开发者而言，Hermes 与 Claude Code 等编码 agent 是互补关系——Claude Code 解决”如何更好地写代码”，Hermes 解决”如何让 AI 在你的日常生活与工作流中持续提供价值”。&lt;/p>&lt;p>© 2026 LLM大模型邮报 · &lt;a href="https://blogs.llmposts.com/guides/hermes-agent-install-guide/">阅读原文 →&lt;/a>&lt;/p>&lt;p>本文首发于 &lt;a href="https://blogs.llmposts.com/">LLM 大模型邮报&lt;/a>。&lt;/p></description></item><item><title>OpenCode 安装最简流程：终端、桌面应用与 IDE 扩展三端一次说清</title><link>https://blogs.llmposts.com/guides/opencode-install-guide/</link><pubDate>Fri, 01 May 2026 16:30:46 +0000</pubDate><author>MISTY</author><guid>https://blogs.llmposts.com/guides/opencode-install-guide/</guid><description>&lt;p>OpenCode 是当前最受关注的开源 AI 编码 agent 之一，&lt;strong>GitHub 收获 153k+ stars、月活开发者 6.5M+&lt;/strong>，由 Anomaly 团队（前 SST）维护，&lt;a class="link link--text" href="https://github.com/anomalyco/opencode" rel="external">anomalyco/opencode 仓库&lt;/a>采用 MIT 协议开源。OpenCode 安装最大的卖点是 &lt;strong>provider 中立&lt;/strong>——不绑定任何模型厂商，可同时使用 Claude、GPT、Gemini、Grok、本地 Ollama 模型甚至 GitHub Copilot 订阅，对中文开发者尤其友好。&lt;/p>
&lt;p>OpenCode 当前提供四个表面：终端 CLI（核心）、桌面应用 Beta、VS Code / Cursor / Zed / Windsurf 扩展、GitHub Actions 集成。本指南整理三端在 macOS、Windows、Linux 上的最简安装命令，并解决 opencode-ai 老仓库（已改名 Crush）与当前 anomalyco 主流版本的消歧义问题。&lt;/p>

 
 
&lt;figure class="fig fig--w-text" id="fig-1">
 &lt;span 
 class="img__frame img__frame--box-shadow">
 &lt;span 
 class="img__c img__c--t-symbol">




 
 

&lt;svg version="1.1" viewBox="0 0 79.375 52.917" xmlns="http://www.w3.org/2000/svg">
 &lt;rect x="-1.3767e-14" y="-8.3785e-15" width="79.375" height="52.917" fill="#b3b3b3" stroke="#efd16d" stroke-dasharray="0.0457185, 0.137156" stroke-linecap="square" stroke-linejoin="round" stroke-width=".045718" style="paint-order:markers fill stroke"/>
 &lt;path d="m44.483 23.693-1.0186-1.0319q-0.0265 0.0132-0.0463 0.0132h-7.2827q-0.3175 0-0.54239-0.22489-0.2249-0.2249-0.2249-0.5424v-7.2827q0-0.0198 0.0132-0.0331l-0.92604-0.93927 0.42333-0.42333 10.041 10.028zm-8.3476-1.614h6.7336l-1.5743-1.5875h-4.3392l1.4552-1.733 1.0319 1.3229 0.635-0.80698-4.1143-4.1143v6.7469q0 0.0794 0.0463 0.12568 0.0463 0.0463 0.12567 0.0463zm8.2285-0.59531-0.59531-0.60854v-6.4294q0-0.0794-0.0463-0.12568-0.0463-0.0463-0.12568-0.0463h-6.4294l-0.60854-0.59531h7.0379q0.3175 0 0.5424 0.2249 0.22489 0.22489 0.22489 0.54239z" stroke-width=".26458"/>
 &lt;text x="39.59119" y="38.357533" font-family="'IBM Plex Mono'" font-size="7.0556px" font-weight="500" letter-spacing="0px" stroke-width=".26458" text-align="center" text-anchor="middle" word-spacing="0px" style="font-variant-caps:normal;font-variant-east-asian:normal;font-variant-ligatures:normal;font-variant-numeric:normal;line-height:1.25" xml:space="preserve">&lt;tspan x="39.59119" y="38.357533" font-family="'IBM Plex Mono'" font-size="7.0556px" font-weight="500" stroke-width=".26458" style="font-variant-caps:normal;font-variant-east-asian:normal;font-variant-ligatures:normal;font-variant-numeric:normal">Missing image&lt;/tspan>&lt;/text>
&lt;/svg>
&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="仓库消歧义你要装的是-anomalycoopencode">
	&lt;a class="h-a" href="#%e4%bb%93%e5%ba%93%e6%b6%88%e6%ad%a7%e4%b9%89%e4%bd%a0%e8%a6%81%e8%a3%85%e7%9a%84%e6%98%af-anomalycoopencode">&lt;strong>仓库消歧义：你要装的是 anomalyco/opencode&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>OpenCode 在 2025 年经历了一次分裂，导致 GitHub 上同时存在两个 “opencode” 仓库，初学者很容易装错版本：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>opencode-ai/opencode（旧仓库，已不再维护）&lt;/strong>：2024 年由 Kujtim Hoxha 主导用 Go 创建的原始版本，2025 年与 Charm 合作后&lt;strong>改名为 Crush&lt;/strong>，已停止以 OpenCode 名义发布新版本&lt;/li>
&lt;li>&lt;strong>anomalyco/opencode（当前主流版本）&lt;/strong>：2025 年由 Dax Raad、Adam Doty 等贡献者从原始版本 fork，用 TypeScript + Bun 完全重写，并采用自研 OpenTUI 框架（Zig + SolidJS）。SST 公司 2026 年改名为 Anomaly，仓库随之迁移&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>判断标准&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>访问 &lt;a class="link link--text" href="https://opencode.ai" rel="external">opencode.ai&lt;/a> 与 &lt;a class="link link--text" href="https://github.com/anomalyco/opencode" rel="external">github.com/anomalyco/opencode&lt;/a>，这是当前活跃维护的主流版本&lt;/li>
&lt;li>npm 包名应是 &lt;strong>opencode-ai&lt;/strong>（Anomaly 沿用了原 npm 包名继续发布）&lt;/li>
&lt;li>Homebrew tap 应是 &lt;strong>anomalyco/tap/opencode&lt;/strong>&lt;/li>
&lt;/ul>
&lt;p>本文所有命令均针对 anomalyco/opencode 当前主流版本。&lt;/p>
&lt;h3 id="系统要求与前置检查">
	&lt;a class="h-a" href="#%e7%b3%bb%e7%bb%9f%e8%a6%81%e6%b1%82%e4%b8%8e%e5%89%8d%e7%bd%ae%e6%a3%80%e6%9f%a5">&lt;strong>系统要求与前置检查&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>OpenCode 由 TypeScript + Bun 构建，发布为自包含原生二进制：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>操作系统&lt;/strong>：macOS、Windows 10/11、Linux 主流发行版（Ubuntu、Debian、Fedora、RHEL、Arch、Alpine 等）&lt;/li>
&lt;li>&lt;strong>系统架构&lt;/strong>：x64 或 ARM64&lt;/li>
&lt;li>&lt;strong>Node.js&lt;/strong>：仅 npm 安装路径需要 18+；其他路径无依赖&lt;/li>
&lt;li>&lt;strong>账号&lt;/strong>：OpenCode 本体免费开源，使用成本取决于你接入的模型 provider——可使用 Anthropic、OpenAI、Google、Groq、OpenRouter 等付费 API，或免费的本地 Ollama 模型，也可用 OpenCode Zen 订阅（10 美元/月，提供官方测试过的模型集）&lt;/li>
&lt;li>&lt;strong>终端&lt;/strong>：建议使用现代终端模拟器（iTerm2、Windows Terminal、Alacritty、Kitty、Ghostty 等）以获得最佳 TUI 体验&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>关于 provider 中立&lt;/strong>：OpenCode 不直接消耗任何订阅额度。你需要至少一个 LLM 入口才能使用——最低成本路径是 &lt;strong>本地 Ollama + 开源模型&lt;/strong>（零费用），最高质量路径是 Claude Sonnet/Opus 或 GPT 系列 API。&lt;/p>
&lt;p>检查当前是否已安装：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>opencode --version&lt;/code>&lt;/pre>&lt;/div>&lt;p>如果返回版本号（如 &lt;code>v1.1.x&lt;/code>），说明已安装。否则按下文方法安装。&lt;/p>
&lt;h3 id="安装方法">
	&lt;a class="h-a" href="#%e5%ae%89%e8%a3%85%e6%96%b9%e6%b3%95">&lt;strong>安装方法&lt;/strong>&lt;/a>
&lt;/h3>&lt;h4 id="方法一官方安装脚本跨平台推荐">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e4%b8%80%e5%ae%98%e6%96%b9%e5%ae%89%e8%a3%85%e8%84%9a%e6%9c%ac%e8%b7%a8%e5%b9%b3%e5%8f%b0%e6%8e%a8%e8%8d%90">&lt;strong>方法一：官方安装脚本（跨平台推荐）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>最简单的安装路径，零依赖、自动检测平台架构、自动配置 PATH：&lt;/p>
&lt;p>&lt;strong>macOS、Linux、WSL&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>curl -fsSL https://opencode.ai/install | bash&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>Windows PowerShell&lt;/strong>：脚本同样兼容 Windows 子系统，建议在 WSL2 内执行。原生 PowerShell 用户改用方法三的 Scoop 或 Chocolatey 路径。&lt;/p>
&lt;p>可通过环境变量自定义安装目录：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 安装到自定义目录
OPENCODE_INSTALL_DIR=/usr/local/bin curl -fsSL https://opencode.ai/install | bash
 
# 使用 XDG 标准目录
XDG_BIN_DIR=$HOME/.local/bin curl -fsSL https://opencode.ai/install | bash&lt;/code>&lt;/pre>&lt;/div>&lt;p>完成后运行 &lt;strong>opencode –version&lt;/strong> 验证。&lt;/p>
&lt;h4 id="方法二homebrewmacos--linux">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e4%ba%8chomebrewmacos--linux">&lt;strong>方法二：Homebrew（macOS / Linux）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>OpenCode 提供两个 Homebrew 入口，&lt;strong>选择哪个对更新及时性有显著影响&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 推荐：Anomaly 自维护 tap，更新最及时
brew install anomalyco/tap/opencode
 
# 备选：Homebrew 官方 formula，更新较慢
brew install opencode&lt;/code>&lt;/pre>&lt;/div>&lt;p>差异说明：anomalyco/tap 由 OpenCode 团队自己维护，新版本发布后即时同步；而 Homebrew 官方 formula 走社区审核流程，存在 1-2 个版本的滞后。&lt;strong>对于活跃迭代的工具优先选 anomalyco/tap&lt;/strong>。&lt;/p>
&lt;p>升级用：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>brew upgrade opencode&lt;/code>&lt;/pre>&lt;/div>&lt;p>**桌面应用（Beta）**同样通过 Homebrew cask 安装：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>brew install --cask opencode-desktop&lt;/code>&lt;/pre>&lt;/div>&lt;h4 id="方法三windows-包管理器scoop--chocolatey--winget">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e4%b8%89windows-%e5%8c%85%e7%ae%a1%e7%90%86%e5%99%a8scoop--chocolatey--winget">&lt;strong>方法三：Windows 包管理器（Scoop / Chocolatey / WinGet）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>Windows 用户原生路径有三种包管理器选择，无需 WSL 即可获得完整功能。&lt;/p>
&lt;p>&lt;strong>Scoop（推荐）&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># OpenCode CLI
scoop install opencode
 
# OpenCode 桌面应用
scoop bucket add extras
scoop install extras/opencode-desktop&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>Chocolatey&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>choco install opencode&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>WinGet&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>winget install --id SST.opencode -e&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>关于 winget 包名为 SST.opencode 的历史&lt;/strong>：包 ID 仍以 SST 命名空间发布，是因为该包在 SST 公司更名为 Anomaly 之前就已提交到 winget 仓库——一旦确定的 winget 包 ID 通常不会变更，避免破坏现有用户的更新链路。但包内部的安装源（&lt;strong>InstallerUrl&lt;/strong>）已经指向 &lt;strong>github.com/anomalyco/opencode/releases/&lt;/strong>，所以装的就是当前主流版本。&lt;/p>
&lt;p>&lt;strong>WinGet 路径已知问题&lt;/strong>：根据 &lt;a class="link link--text" href="https://github.com/anomalyco/opencode/issues/5121" rel="external">OpenCode GitHub Issue 5121&lt;/a>，winget 包审核流程比 GitHub Releases 慢 1-2 个版本，且 winget 路径未在 OpenCode 官方文档中显式列出。对追新版本的用户，建议使用方法一的官方安装脚本或 Scoop；对企业受控环境强制使用 winget 的用户，该路径仍可用，仅需接受版本滞后。&lt;/p>
&lt;p>升级：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># Scoop
scoop update opencode
 
# Chocolatey
choco upgrade opencode
 
# WinGet
winget upgrade --id SST.opencode&lt;/code>&lt;/pre>&lt;/div>&lt;h4 id="方法四npm-安装跨平台">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e5%9b%9bnpm-%e5%ae%89%e8%a3%85%e8%b7%a8%e5%b9%b3%e5%8f%b0">&lt;strong>方法四：npm 安装（跨平台）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>适合 CI/CD 中需要固定版本、团队工作流以 npm 为标准的场景：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># npm
npm install -g opencode-ai@latest
 
# 或 bun（OpenCode 自身使用 Bun 构建，bun 路径性能略好）
bun add -g opencode-ai
 
# pnpm / yarn
pnpm add -g opencode-ai
yarn global add opencode-ai&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>注意 npm 包名&lt;/strong>：是 &lt;strong>opencode-ai&lt;/strong>，不是 &lt;strong>opencode&lt;/strong>。npm 上无关同名包同样存在，安装前确认完整命令。&lt;/p>
&lt;p>要求 Node.js 18+。&lt;strong>禁止使用 sudo npm install -g&lt;/strong>，遇到 EACCES 错误改用用户级 npm prefix 或 nvm。&lt;/p>
&lt;h4 id="方法五linux-包管理器arch--nix">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e4%ba%94linux-%e5%8c%85%e7%ae%a1%e7%90%86%e5%99%a8arch--nix">&lt;strong>方法五：Linux 包管理器（Arch / Nix）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>Arch Linux 用户：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 稳定通道（pacman）
sudo pacman -S opencode
 
# AUR 最新版本（paru / yay）
paru -S opencode-bin
yay -S opencode-bin&lt;/code>&lt;/pre>&lt;/div>&lt;p>Nix 用户：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 从 nixpkgs 运行
nix run nixpkgs#opencode
 
# 使用 dev 分支最新版本
nix run github:anomalyco/opencode&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>Mise / asdf 用户&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>mise use -g opencode&lt;/code>&lt;/pre>&lt;/div>&lt;h4 id="方法六桌面应用beta">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e5%85%ad%e6%a1%8c%e9%9d%a2%e5%ba%94%e7%94%a8beta">&lt;strong>方法六：桌面应用（Beta）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>OpenCode 桌面应用目前处于 Beta 阶段，提供图形化的项目管理界面：&lt;/p>
&lt;p>&lt;strong>macOS Homebrew&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>brew install --cask opencode-desktop&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>Windows Scoop&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>scoop bucket add extras
scoop install extras/opencode-desktop&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>直接下载&lt;/strong>：访问 &lt;a class="link link--text" href="https://opencode.ai/download" rel="external">opencode.ai/download&lt;/a> 下载对应平台安装包：&lt;/p>
&lt;ul>
&lt;li>macOS Apple Silicon / Intel&lt;/li>
&lt;li>Windows x64&lt;/li>
&lt;li>Linux .deb / .rpm&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>桌面应用与 CLI 共享同一个数据目录与认证&lt;/strong>，在任一表面登录后另一表面无需再次认证。&lt;/p>
&lt;h4 id="方法七ide-扩展vs-code--cursor--zed--windsurf">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e4%b8%83ide-%e6%89%a9%e5%b1%95vs-code--cursor--zed--windsurf">&lt;strong>方法七：IDE 扩展（VS Code / Cursor / Zed / Windsurf）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>OpenCode 提供官方 IDE 扩展，把 agent 集成到编辑器内：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>VS Code&lt;/strong>：扩展市场搜索 “OpenCode”&lt;/li>
&lt;li>&lt;strong>Cursor&lt;/strong>：扩展市场搜索 “OpenCode”（Cursor 是 VS Code fork，扩展兼容）&lt;/li>
&lt;li>&lt;strong>Zed&lt;/strong>：从 Zed Extensions 安装&lt;/li>
&lt;li>&lt;strong>Windsurf&lt;/strong>：扩展市场搜索 “OpenCode”&lt;/li>
&lt;li>&lt;strong>VSCodium&lt;/strong>：从 OpenVSX 安装&lt;/li>
&lt;/ul>
&lt;p>或访问 &lt;a class="link link--text" href="https://opencode.ai/download" rel="external">opencode.ai/download&lt;/a> 跳转到各 IDE 的对应安装链接。&lt;/p>
&lt;h3 id="认证与模型配置你必须连一个-provider-才能用">
	&lt;a class="h-a" href="#%e8%ae%a4%e8%af%81%e4%b8%8e%e6%a8%a1%e5%9e%8b%e9%85%8d%e7%bd%ae%e4%bd%a0%e5%bf%85%e9%a1%bb%e8%bf%9e%e4%b8%80%e4%b8%aa-provider-%e6%89%8d%e8%83%bd%e7%94%a8">&lt;strong>认证与模型配置：你必须连一个 provider 才能用&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>与 Claude Code、Codex 不同，OpenCode &lt;strong>不内置任何模型订阅&lt;/strong>——这是它最大的灵活性，也是初次配置的主要门槛。安装后必须至少连接一个 provider 才能开始使用。&lt;/p>
&lt;p>OpenCode 使用 &lt;a class="link link--text" href="https://models.dev" rel="external">Models.dev&lt;/a> 维护的 provider 列表，启动后执行：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>opencode auth login&lt;/code>&lt;/pre>&lt;/div>&lt;p>会列出所有支持的 provider，选择后输入对应 API Key 即可。常见 provider 配置：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>Anthropic（Claude）&lt;/strong>：在 console.anthropic.com 创建 API Key&lt;/li>
&lt;li>&lt;strong>OpenAI（GPT）&lt;/strong>：在 platform.openai.com 创建 API Key&lt;/li>
&lt;li>&lt;strong>OpenRouter&lt;/strong>：聚合多家 provider，单 Key 访问 100+ 模型，国内开发者常用&lt;/li>
&lt;li>&lt;strong>本地 Ollama&lt;/strong>：执行 &lt;strong>opencode auth login&lt;/strong> 选 Ollama，无需 Key，仅需本地 Ollama 服务运行&lt;/li>
&lt;li>&lt;strong>GitHub Copilot&lt;/strong>：复用已有 Copilot 订阅，登录 GitHub 账号即可&lt;/li>
&lt;li>&lt;strong>OpenCode Zen&lt;/strong>：OpenCode 团队自营订阅服务，10 美元/月提供官方测试过的精选模型集&lt;/li>
&lt;/ul>
&lt;p>凭证存储在 &lt;strong>~/.local/share/opencode/auth.json&lt;/strong>（Linux/macOS）或 &lt;strong>%LOCALAPPDATA%\opencode\auth.json&lt;/strong>（Windows），需视为密码保护。&lt;/p>
&lt;p>&lt;strong>切换默认模型&lt;/strong>：在 OpenCode TUI 内执行 &lt;strong>/connect&lt;/strong> 选择 provider 与模型，或编辑 &lt;strong>opencode.json&lt;/strong> 配置文件。&lt;/p>
&lt;h3 id="模型选择建议从零开始如何配第一个-provider">
	&lt;a class="h-a" href="#%e6%a8%a1%e5%9e%8b%e9%80%89%e6%8b%a9%e5%bb%ba%e8%ae%ae%e4%bb%8e%e9%9b%b6%e5%bc%80%e5%a7%8b%e5%a6%82%e4%bd%95%e9%85%8d%e7%ac%ac%e4%b8%80%e4%b8%aa-provider">&lt;strong>模型选择建议：从零开始如何配第一个 provider&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>对完全新手而言，OpenCode 的 provider 中立性反而是部署门槛。三种典型场景的最小配置：&lt;/p>
&lt;p>&lt;strong>场景 1：完全免费体验&lt;/strong>：先装 Ollama → &lt;strong>ollama pull qwen2.5-coder:7b&lt;/strong> → 在 OpenCode 中选 Ollama provider。零费用但模型能力受本地硬件限制。&lt;/p>
&lt;p>&lt;strong>场景 2：质量优先&lt;/strong>：使用 Anthropic Claude Sonnet/Opus API，按 token 计费但当前是公认编码能力最强的模型。月度预算 20-50 美元可覆盖日常使用。&lt;/p>
&lt;p>&lt;strong>场景 3：性价比优先&lt;/strong>：使用 OpenRouter 单 Key 访问 GLM、DeepSeek、Kimi 等中国开源模型，单价显著低于 Claude/GPT。中文项目编码场景对中文开源模型友好度较高。&lt;/p>
&lt;p>&lt;strong>不推荐做法&lt;/strong>：在第一次安装时跳过 provider 配置直接进 TUI——OpenCode 会显示 /connect 提示但无法处理任何请求，体验上像是工具坏了。&lt;/p>
&lt;h3 id="更新方式每个安装路径不同">
	&lt;a class="h-a" href="#%e6%9b%b4%e6%96%b0%e6%96%b9%e5%bc%8f%e6%af%8f%e4%b8%aa%e5%ae%89%e8%a3%85%e8%b7%af%e5%be%84%e4%b8%8d%e5%90%8c">&lt;strong>更新方式：每个安装路径不同&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>不同安装路径对应不同更新机制：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>官方安装脚本&lt;/strong>：重新执行 &lt;strong>curl -fsSL &lt;a class="link link--text" href="https://opencode.ai/install" rel="external">https://opencode.ai/install&lt;/a> | bash&lt;/strong>，或使用内置 &lt;strong>opencode upgrade&lt;/strong> 命令&lt;/li>
&lt;li>&lt;strong>Homebrew&lt;/strong>：&lt;strong>brew upgrade opencode&lt;/strong>&lt;/li>
&lt;li>&lt;strong>npm&lt;/strong>：&lt;strong>npm install -g opencode-ai@latest&lt;/strong>&lt;/li>
&lt;li>&lt;strong>Scoop&lt;/strong>：&lt;strong>scoop update opencode&lt;/strong>&lt;/li>
&lt;li>&lt;strong>Chocolatey&lt;/strong>：&lt;strong>choco upgrade opencode&lt;/strong>&lt;/li>
&lt;li>&lt;strong>WinGet&lt;/strong>：&lt;strong>winget upgrade –id SST.opencode&lt;/strong>&lt;/li>
&lt;li>&lt;strong>pacman&lt;/strong>：&lt;strong>sudo pacman -Syu opencode&lt;/strong>&lt;/li>
&lt;li>&lt;strong>桌面应用&lt;/strong>：通过包管理器更新或在应用内检查更新&lt;/li>
&lt;/ul>
&lt;p>OpenCode 内置升级命令支持指定版本：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 升级到最新版本
opencode upgrade
 
# 升级到特定版本
opencode upgrade --version 1.1.20&lt;/code>&lt;/pre>&lt;/div>&lt;h3 id="常见问题排查">
	&lt;a class="h-a" href="#%e5%b8%b8%e8%a7%81%e9%97%ae%e9%a2%98%e6%8e%92%e6%9f%a5">&lt;strong>常见问题排查&lt;/strong>&lt;/a>
&lt;/h3>&lt;h4 id="问题-1装错了仓库opencode-ai-而非-anomalyco">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-1%e8%a3%85%e9%94%99%e4%ba%86%e4%bb%93%e5%ba%93opencode-ai-%e8%80%8c%e9%9d%9e-anomalyco">&lt;strong>问题 1：装错了仓库（opencode-ai 而非 anomalyco）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：在 GitHub 搜索 opencode 时排在前面的可能是已停止维护的旧仓库。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：确认 npm 包名 &lt;strong>opencode-ai&lt;/strong>、Homebrew tap &lt;strong>anomalyco/tap&lt;/strong>、官方网站 &lt;strong>opencode.ai&lt;/strong>、当前主仓库 &lt;strong>github.com/anomalyco/opencode&lt;/strong>。如果已装错版本：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 卸载旧的 opencode-ai/opencode（如有）
which opencode # 确认当前 opencode 路径
rm -f $(which opencode)
 
# 重新装当前主流版本
curl -fsSL https://opencode.ai/install | bash&lt;/code>&lt;/pre>&lt;/div>&lt;h4 id="问题-2nodejs-版本过旧">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-2nodejs-%e7%89%88%e6%9c%ac%e8%bf%87%e6%97%a7">&lt;strong>问题 2：Node.js 版本过旧&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：npm 安装路径要求 Node.js 18+。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：执行 &lt;strong>node –version&lt;/strong> 检查。低于 18 时通过 &lt;strong>nvm install –lts&lt;/strong> 升级，或改用方法一的官方安装脚本（不需要 Node.js）。&lt;/p>
&lt;h4 id="问题-3opencode-version-提示-command-not-found">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-3opencode-version-%e6%8f%90%e7%a4%ba-command-not-found">&lt;strong>问题 3：opencode –version 提示 command not found&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>关闭终端开新窗口&lt;/li>
&lt;li>macOS/Linux 执行 &lt;strong>source ~/.zshrc&lt;/strong> 或 &lt;strong>source ~/.bashrc&lt;/strong>&lt;/li>
&lt;li>检查官方安装脚本默认目录是否在 PATH 中（通常是 &lt;strong>~/.opencode/bin&lt;/strong> 或 &lt;strong>~/.local/bin&lt;/strong>）&lt;/li>
&lt;/ul>
&lt;h4 id="问题-4tui-显示乱码或字符错位">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-4tui-%e6%98%be%e7%a4%ba%e4%b9%b1%e7%a0%81%e6%88%96%e5%ad%97%e7%ac%a6%e9%94%99%e4%bd%8d">&lt;strong>问题 4：TUI 显示乱码或字符错位&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：OpenCode 使用自研 OpenTUI 框架（Zig + SolidJS），对终端模拟器的现代特性有依赖。某些老终端（默认 cmd.exe、低版本 Terminal.app）渲染异常。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>切换到现代终端：iTerm2、Windows Terminal、Alacritty、Kitty、Ghostty&lt;/li>
&lt;li>确认终端 Locale 设为 UTF-8：&lt;strong>echo $LANG&lt;/strong> 应输出 &lt;strong>en_US.UTF-8&lt;/strong> 或 &lt;strong>zh_CN.UTF-8&lt;/strong>&lt;/li>
&lt;li>确认终端字体支持 Powerline / Nerd Font 图标&lt;/li>
&lt;/ul>
&lt;h4 id="问题-5opencode-auth-login-看不到想要的-provider">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-5opencode-auth-login-%e7%9c%8b%e4%b8%8d%e5%88%b0%e6%83%b3%e8%a6%81%e7%9a%84-provider">&lt;strong>问题 5：opencode auth login 看不到想要的 provider&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：OpenCode 从 Models.dev 拉取 provider 列表，如果该数据未更新或网络不通会缺失部分选项。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>升级 OpenCode 到最新版本&lt;/li>
&lt;li>检查能否访问 models.dev&lt;/li>
&lt;li>对于尚未在 Models.dev 列出的 provider，可在 &lt;strong>opencode.json&lt;/strong> 中手动配置 OpenAI 兼容端点&lt;/li>
&lt;/ul>
&lt;h4 id="问题-6本地-ollama-模型连不上">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-6%e6%9c%ac%e5%9c%b0-ollama-%e6%a8%a1%e5%9e%8b%e8%bf%9e%e4%b8%8d%e4%b8%8a">&lt;strong>问题 6：本地 Ollama 模型连不上&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：OpenCode 默认期望 Ollama 监听 &lt;strong>127.0.0.1:11434&lt;/strong>，自定义部署或远程 Ollama 需显式配置。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：在 shell 中设置：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>export LOCAL_ENDPOINT=http://your-ollama-host:11434&lt;/code>&lt;/pre>&lt;/div>&lt;p>或在 &lt;strong>opencode.json&lt;/strong> 中配置自托管 provider。&lt;/p>
&lt;h4 id="问题-7国内网络无法访问-anthropic--openai-api">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-7%e5%9b%bd%e5%86%85%e7%bd%91%e7%bb%9c%e6%97%a0%e6%b3%95%e8%ae%bf%e9%97%ae-anthropic--openai-api">&lt;strong>问题 7：国内网络无法访问 Anthropic / OpenAI API&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>设置代理：&lt;strong>export HTTPS_PROXY=http://proxy.example.com:port&lt;/strong>&lt;/li>
&lt;li>使用 OpenRouter 等聚合服务（部分国内可达）&lt;/li>
&lt;li>使用国内可达的中国开源模型 API（智谱 GLM、深度求索 DeepSeek、月之暗面 Kimi 等），通过 &lt;strong>opencode.json&lt;/strong> 配置 OpenAI 兼容端点&lt;/li>
&lt;/ul>
&lt;h4 id="问题-8plan-模式与-build-模式如何切换">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-8plan-%e6%a8%a1%e5%bc%8f%e4%b8%8e-build-%e6%a8%a1%e5%bc%8f%e5%a6%82%e4%bd%95%e5%88%87%e6%8d%a2">&lt;strong>问题 8：plan 模式与 build 模式如何切换&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>解决方案&lt;/strong>：在 TUI 内按 &lt;strong>Tab&lt;/strong> 键即可切换。Build 是默认全权限 agent，Plan 是只读分析模式适合先做方案再改代码。OpenCode 支持自定义 agent，配置文件位于 &lt;strong>~/.opencode/agents/&lt;/strong> 或项目级 &lt;strong>.opencode/agents/&lt;/strong>。&lt;/p>
&lt;h4 id="问题-9copilot-订阅认证失败">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-9copilot-%e8%ae%a2%e9%98%85%e8%ae%a4%e8%af%81%e5%a4%b1%e8%b4%a5">&lt;strong>问题 9：Copilot 订阅认证失败&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：OpenCode 通过读取系统中已有的 GitHub Copilot 凭证文件实现 Copilot 复用，需要先在 VS Code 或其他 Copilot 客户端登录。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>在 VS Code Copilot 扩展或 GitHub CLI（&lt;strong>gh auth login&lt;/strong>）中先登录&lt;/li>
&lt;li>OpenCode 会自动从标准位置读取 token&lt;/li>
&lt;li>仍失败时手动设置 &lt;strong>GITHUB_TOKEN&lt;/strong> 环境变量，或在 &lt;strong>opencode.json&lt;/strong> 的 &lt;strong>providers.copilot.apiKey&lt;/strong> 中配置&lt;/li>
&lt;/ul>
&lt;h3 id="验证安装与基础使用">
	&lt;a class="h-a" href="#%e9%aa%8c%e8%af%81%e5%ae%89%e8%a3%85%e4%b8%8e%e5%9f%ba%e7%a1%80%e4%bd%bf%e7%94%a8">&lt;strong>验证安装与基础使用&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>安装完成后，建议执行以下命令验证：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 检查版本
opencode --version
 
# 配置第一个 provider
opencode auth login
 
# 在项目目录启动 TUI
cd /path/to/your/project
opencode&lt;/code>&lt;/pre>&lt;/div>&lt;p>进入 OpenCode 后可使用以下内置命令：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 切换 provider 与模型
/connect
 
# 分析仓库结构并生成 AGENTS.md
/init
 
# 显示帮助与快捷键
/help
 
# 撤销 / 重做最近一次变更
/undo
/redo
 
# 分享当前会话（可选功能）
/share&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>关键快捷键&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>Tab&lt;/strong>：在 Build 与 Plan 模式之间切换&lt;/li>
&lt;li>&lt;strong>@&lt;/strong>：模糊搜索项目文件，把文件加入上下文&lt;/li>
&lt;li>&lt;strong>拖拽图片到终端&lt;/strong>：把图片加入上下文，OpenCode 支持视觉模型&lt;/li>
&lt;li>&lt;strong>Ctrl+X&lt;/strong>：默认 leader key（避免与终端快捷键冲突），后接 Leader+key 触发各种命令&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>装完之后的关键三步&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>在项目根目录运行 &lt;strong>/init&lt;/strong>，让 OpenCode 分析代码库并生成 &lt;strong>AGENTS.md&lt;/strong> 作为持久上下文。该文件兼容 Claude Code 的 CLAUDE.md 与 Codex 的 AGENTS.md 约定&lt;/li>
&lt;li>使用 Plan 模式（按 Tab 切换）让 OpenCode 先生成实施方案，确认后切回 Build 模式执行——这种”先规划后执行”的工作流是 OpenCode 相比其他工具的差异化设计&lt;/li>
&lt;li>通过 &lt;strong>opencode mcp add&lt;/strong> 接入 MCP 服务器，把 OpenCode 扩展为可调用 GitHub、数据库、内部 API 的完整 agent&lt;/li>
&lt;/ul>
&lt;h3 id="非交互模式与-api-服务器">
	&lt;a class="h-a" href="#%e9%9d%9e%e4%ba%a4%e4%ba%92%e6%a8%a1%e5%bc%8f%e4%b8%8e-api-%e6%9c%8d%e5%8a%a1%e5%99%a8">&lt;strong>非交互模式与 API 服务器&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>OpenCode 除 TUI 外还支持脚本调用与 HTTP 服务器模式，适合自动化集成：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 单次提示 &amp;#43; 输出（适合 CI/CD）
opencode -p &amp;#34;Explain the use of context in Go&amp;#34;
 
# JSON 格式输出
opencode -p &amp;#34;List all TODO comments in this project&amp;#34; -f json
 
# 静默模式（脚本调用，禁用 spinner）
opencode -p &amp;#34;...&amp;#34; -q
 
# 启动 HTTP 服务器（多客户端并行连接）
opencode serve&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>opencode serve&lt;/strong> 启动后会暴露带 OpenAPI 文档（&lt;strong>/doc&lt;/strong>）的 HTTP 端点，配合官方 &lt;strong>@opencode-ai/sdk&lt;/strong> JS/TS SDK 可在自有应用内嵌入 OpenCode 能力。这是 OpenCode 的客户端/服务器架构带来的独特能力——TUI 只是众多前端之一。&lt;/p>
&lt;h3 id="卸载方式不同安装路径对应不同清理步骤">
	&lt;a class="h-a" href="#%e5%8d%b8%e8%bd%bd%e6%96%b9%e5%bc%8f%e4%b8%8d%e5%90%8c%e5%ae%89%e8%a3%85%e8%b7%af%e5%be%84%e5%af%b9%e5%ba%94%e4%b8%8d%e5%90%8c%e6%b8%85%e7%90%86%e6%ad%a5%e9%aa%a4">&lt;strong>卸载方式：不同安装路径对应不同清理步骤&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>OpenCode 提供内置卸载命令一键清理所有相关文件：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>opencode uninstall&lt;/code>&lt;/pre>&lt;/div>&lt;p>也可按安装方式分别处理：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>官方安装脚本&lt;/strong>：删除二进制（通常在 &lt;strong>~/.opencode/bin/opencode&lt;/strong>）&lt;/li>
&lt;li>&lt;strong>Homebrew&lt;/strong>：&lt;strong>brew uninstall opencode&lt;/strong> 与 &lt;strong>brew uninstall –cask opencode-desktop&lt;/strong>&lt;/li>
&lt;li>&lt;strong>npm&lt;/strong>：&lt;strong>npm uninstall -g opencode-ai&lt;/strong>&lt;/li>
&lt;li>&lt;strong>Scoop&lt;/strong>：&lt;strong>scoop uninstall opencode&lt;/strong>&lt;/li>
&lt;li>&lt;strong>Chocolatey&lt;/strong>：&lt;strong>choco uninstall opencode&lt;/strong>&lt;/li>
&lt;li>&lt;strong>WinGet&lt;/strong>：&lt;strong>winget uninstall –id SST.opencode&lt;/strong>&lt;/li>
&lt;li>&lt;strong>pacman&lt;/strong>：&lt;strong>sudo pacman -R opencode&lt;/strong>&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>仅删除二进制并不能完全清理&lt;/strong>。配置目录与会话历史保留在以下位置：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># Linux / macOS
~/.local/share/opencode/ # 会话历史与认证
~/.config/opencode/ # 配置文件
~/.opencode/ # 用户级 agents 与命令
 
# Windows
%LOCALAPPDATA%\opencode\
%APPDATA%\opencode\&lt;/code>&lt;/pre>&lt;/div>&lt;p>彻底清理执行：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># Linux / macOS
rm -rf ~/.local/share/opencode ~/.config/opencode ~/.opencode
 
# Windows PowerShell
Remove-Item -Path &amp;#34;$env:LOCALAPPDATA\opencode&amp;#34; -Recurse -Force
Remove-Item -Path &amp;#34;$env:APPDATA\opencode&amp;#34; -Recurse -Force&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>安全提示&lt;/strong>：&lt;strong>auth.json&lt;/strong> 存储 API Key 明文。卸载前如不打算重装，建议先 &lt;strong>opencode auth logout&lt;/strong> 显式撤销凭证。项目级配置 &lt;strong>.opencode/&lt;/strong> 与 &lt;strong>opencode.json&lt;/strong> 需在每个项目目录下单独删除。&lt;/p>
&lt;h3 id="获取方式">
	&lt;a class="h-a" href="#%e8%8e%b7%e5%8f%96%e6%96%b9%e5%bc%8f">&lt;strong>获取方式&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>官方网站：&lt;a class="link link--text" href="https://opencode.ai" rel="external">opencode.ai&lt;/a>&lt;/p>
&lt;p>下载页（覆盖所有表面）：&lt;a class="link link--text" href="https://opencode.ai/download" rel="external">opencode.ai/download&lt;/a>&lt;/p>
&lt;p>官方文档：&lt;a class="link link--text" href="https://opencode.ai/docs/" rel="external">OpenCode Docs&lt;/a>&lt;/p>
&lt;p>CLI 命令参考：&lt;a class="link link--text" href="https://opencode.ai/docs/cli/" rel="external">CLI Reference&lt;/a>&lt;/p>
&lt;p>GitHub 主仓库：&lt;a class="link link--text" href="https://github.com/anomalyco/opencode" rel="external">anomalyco/opencode&lt;/a>&lt;/p>
&lt;p>支持的模型与 provider：&lt;a class="link link--text" href="https://models.dev" rel="external">Models.dev&lt;/a>&lt;/p>
&lt;p>JS/TS SDK：&lt;a class="link link--text" href="https://www.npmjs.com/package/@opencode-ai/sdk" rel="external">@opencode-ai/sdk&lt;/a>&lt;/p>
&lt;p>OpenCode 通过 provider 中立、客户端/服务器架构与开源协议，提供了与 Claude Code、Codex 完全不同的产品定位——它不绑定任何模型厂商，把选择权完全交给开发者。但安装本身只是入口，真正决定生产力的是后续 provider 选型、AGENTS.md 上下文设计、自定义 agent 体系搭建以及 MCP 服务器集成。对中文开发者而言，OpenCode 与 Claude Code、Codex 并存往往比单一选择更实用——OpenCode 可对接国内开源模型 API 与本地 Ollama，覆盖 Claude/Codex 难以触达的场景。&lt;/p>&lt;p>© 2026 LLM大模型邮报 · &lt;a href="https://blogs.llmposts.com/guides/opencode-install-guide/">阅读原文 →&lt;/a>&lt;/p>&lt;p>本文首发于 &lt;a href="https://blogs.llmposts.com/">LLM 大模型邮报&lt;/a>。&lt;/p></description></item><item><title>Codex 安装最简流程：桌面应用、CLI 与 IDE 扩展三条路径一次说清</title><link>https://blogs.llmposts.com/guides/openai-codex-install-guide/</link><pubDate>Fri, 01 May 2026 14:24:32 +0000</pubDate><author>MISTY</author><guid>https://blogs.llmposts.com/guides/openai-codex-install-guide/</guid><description>&lt;p>OpenAI Codex 已经从最初的单一命令行工具演变为完整产品矩阵，&lt;strong>覆盖桌面应用（Codex app）、命令行（Codex CLI）、IDE 扩展、云端 Web 与 GitHub 集成五个表面&lt;/strong>。所有 Codex 表面共享同一个 ChatGPT 账号认证体系，包含在 ChatGPT Plus、Pro、Business、Edu、Enterprise 订阅中无需额外付费。Codex 安装路径取决于你想在哪种环境下使用——终端、桌面、IDE 还是云端，本指南整理三大本地安装路径在 macOS、Windows、Linux 上的最简命令。&lt;/p>
&lt;p>根据 &lt;a class="link link--text" href="https://openai.com/index/introducing-the-codex-app/" rel="external">OpenAI 官方公告&lt;/a>，Codex 桌面应用于 2026 年 2 月在 macOS 首发，3 月 4 日上线 Windows，限时活动期间向 ChatGPT Free 与 Go 用户开放。本文按”产品矩阵—系统要求—安装方法—问题排查—验证使用—获取方式”六段，详细说明 Codex 在不同设备上的部署流程。&lt;/p>

 
 
&lt;figure class="fig fig--w-text" id="fig-1">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #a4aedb, #6e74dc)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 53.9474%;"> 
 
&lt;img alt="OpenAI Codex 安装与跨平台使用完整指南" class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/Codex-app-macOS_546403169558863104-512x.webp 512w, https://blogs.llmposts.com/Codex-app-macOS_546403169558863104-565x.webp 565w, https://blogs.llmposts.com/Codex-app-macOS_546403169558863104-624x.webp 624w, https://blogs.llmposts.com/Codex-app-macOS_546403169558863104-689x.webp 689w, https://blogs.llmposts.com/Codex-app-macOS_546403169558863104-700x.webp 700w, https://blogs.llmposts.com/Codex-app-macOS_546403169558863104-760x.webp 760w" height="378" src="data:image/webp;base64,UklGRkYCAABXRUJQVlA4IDoCAAAwGACdASrpAH4AP0WexFaoJaqsJjZI0YYoielu3Vx6KYBV4gDGVUd6eKWfkEAlrCATVS8e+zrU2Macts0lA/4QItxEnbUNtqmbSmH1i3dgJZwBN/TAQS64LWfZIS2FDye87dsZpO+vlG+W7fJr/YhjQR5AXuDwBAs1QBevHouYttA0p5UTMsRi0xvz8hnfJFUvlNvf+VHyGcjvl5RazTNedjDLwYKXFPs2XZe/IWcN1R/jLTTFvl3/VSpgxUdLW1WXTzMLPD6o0zAAAP7kjNkuEoAYT+3x2ZQulWWLORyCmLnl1sVD/ZpDkdmleYLuQNz6EyJhDxBG0NNp7e/FUWOFp75tqIwcLUs82nhZmfVTrB1REljacps/WMYID04QNXOBP4mJmqjLOHU9ASukCfHXUO5Iy38aPrzEjMv04v+Q3B71HmVrVVnmf9q67uWOcXmGc/1bfu5ILK7upG0Mk2Rwwh3wPqTx27rHe9o2sqSywDGjdPfMDP1bz+lZmcdLmxbbTmsSbdboO+HzlUdQCSOzRLx0/l/MW+2xqlGXGdPTFOltVVlEVVkP28Fha8TMojCKyt3ggaU8JYuqHtCNxxOSXIxJfXmMe12VCqjCwJad5mWDf07t+6/g+kgMrVvE8I9cl2ybiCsHEfXndJZiRxsbGXT5w0pu1AxlqQDOLpsc0oJB6pNnD9hQyxk4kQCgiYYecu7TOdTbnsF40RcPU4EyxZiCU7qAAAWDzrobjKlF/Qxe4X8e4zMAAAA=" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="codex-产品矩阵先搞清装哪个">
	&lt;a class="h-a" href="#codex-%e4%ba%a7%e5%93%81%e7%9f%a9%e9%98%b5%e5%85%88%e6%90%9e%e6%b8%85%e8%a3%85%e5%93%aa%e4%b8%aa">&lt;strong>Codex 产品矩阵：先搞清装哪个&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>很多教程把”安装 Codex”等同于”安装 Codex CLI”，但实际上当前 Codex 包含五个独立但互通的表面：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>Codex 桌面应用（Codex app）&lt;/strong>：macOS 与 Windows 原生应用，定位为 “command center for agents”，支持并行 agent 线程、worktree、in-app 浏览器、computer use（macOS）等&lt;/li>
&lt;li>&lt;strong>Codex CLI&lt;/strong>：开源命令行 agent，基于 Rust 构建，运行在本地终端，&lt;a class="link link--text" href="https://github.com/openai/codex" rel="external">openai/codex GitHub 仓库&lt;/a>已收获 75k+ stars&lt;/li>
&lt;li>&lt;strong>Codex IDE 扩展&lt;/strong>：VS Code、Cursor、Windsurf 等编辑器内的 Codex agent&lt;/li>
&lt;li>&lt;strong>Codex Cloud / Codex Web&lt;/strong>：云端异步任务模式，访问 &lt;a class="link link--text" href="https://chatgpt.com/codex" rel="external">chatgpt.com/codex&lt;/a> 提交任务&lt;/li>
&lt;li>&lt;strong>Codex GitHub 集成&lt;/strong>：在 PR 评论中通过 @codex 触发云端任务&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>选哪个&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>偏好图形界面、需要并行管理多个 agent、做前端 / 游戏开发需要 in-app 浏览器 → &lt;strong>桌面应用&lt;/strong>&lt;/li>
&lt;li>终端工作流、CI/CD、SSH 远程开发、headless 环境 → &lt;strong>CLI&lt;/strong>&lt;/li>
&lt;li>已有 IDE 习惯、希望 agent 直接读取打开的文件 → &lt;strong>IDE 扩展&lt;/strong>&lt;/li>
&lt;li>长任务后台运行、不想占用本地资源 → &lt;strong>Cloud / Web&lt;/strong>&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>三个本地表面共享配置&lt;/strong>：桌面应用、CLI、IDE 扩展共用 &lt;strong>~/.codex/config.toml&lt;/strong>（Windows 为 &lt;strong>%USERPROFILE%.codex\config.toml&lt;/strong>），认证、MCP 服务器配置、自定义模型 provider 等设置在三者间自动同步。这意味着在一个表面登录后，其他两个表面无需再次认证。&lt;/p>
&lt;h3 id="系统要求与前置检查">
	&lt;a class="h-a" href="#%e7%b3%bb%e7%bb%9f%e8%a6%81%e6%b1%82%e4%b8%8e%e5%89%8d%e7%bd%ae%e6%a3%80%e6%9f%a5">&lt;strong>系统要求与前置检查&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>根据 &lt;a class="link link--text" href="https://developers.openai.com/codex/quickstart" rel="external">Codex 官方安装文档&lt;/a>：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>桌面应用&lt;/strong>：macOS（Apple Silicon 优先，Intel 也有对应构建）；Windows 10/11，通过 Microsoft Store 分发&lt;/li>
&lt;li>&lt;strong>Codex CLI&lt;/strong>：macOS、Windows 10/11、Linux 主流发行版（Ubuntu、Debian、Fedora、RHEL、Alpine 等）&lt;/li>
&lt;li>&lt;strong>系统架构&lt;/strong>：x64 或 ARM64&lt;/li>
&lt;li>&lt;strong>Node.js&lt;/strong>：仅 npm 安装路径需要 22+；Homebrew 与 GitHub Release 路径无依赖&lt;/li>
&lt;li>&lt;strong>账号&lt;/strong>：ChatGPT Plus（20 美元/月）、Pro（200 美元/月）、Business、Edu、Enterprise 之一，或一个有可用额度的 OpenAI API Key&lt;/li>
&lt;li>&lt;strong>限时活动&lt;/strong>：据 OpenAI 2026 年 2 月公告，Codex 桌面应用限时向 ChatGPT Free 与 Go 用户开放，截止时间以官方为准&lt;/li>
&lt;li>&lt;strong>网络&lt;/strong>：稳定连接到 OpenAI 服务端点，国内用户需配置代理&lt;/li>
&lt;/ul>
&lt;p>检查当前 Codex CLI 是否已安装：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>codex --version&lt;/code>&lt;/pre>&lt;/div>&lt;p>如果返回版本号（如 &lt;code>codex-cli 0.121&lt;/code>），说明已安装。否则按下文方法安装。&lt;/p>
&lt;h3 id="安装方法">
	&lt;a class="h-a" href="#%e5%ae%89%e8%a3%85%e6%96%b9%e6%b3%95">&lt;strong>安装方法&lt;/strong>&lt;/a>
&lt;/h3>&lt;h4 id="方法一codex-桌面应用macos--windows-推荐">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e4%b8%80codex-%e6%a1%8c%e9%9d%a2%e5%ba%94%e7%94%a8macos--windows-%e6%8e%a8%e8%8d%90">&lt;strong>方法一：Codex 桌面应用（macOS / Windows 推荐）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>适合大多数开发者的最简路径，提供并行 agent 线程、in-app 浏览器、worktree 管理、skills 与 plugins 等图形化能力。&lt;/p>
&lt;p>&lt;strong>macOS 安装&lt;/strong>：&lt;/p>
&lt;p>访问 &lt;a class="link link--text" href="https://chatgpt.com/codex" rel="external">chatgpt.com/codex&lt;/a> 下载 .dmg 文件（Apple Silicon 与 Intel 各有对应构建），双击挂载后将 Codex.app 拖入 Applications 目录。&lt;/p>
&lt;p>或通过 Homebrew cask 安装：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>brew install --cask codex&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>Windows 安装&lt;/strong>：&lt;/p>
&lt;p>通过 Microsoft Store 安装是最简单的路径，&lt;a class="link link--text" href="https://apps.microsoft.com/detail/9plm9xgg6vks" rel="external">Codex 在 Microsoft Store 的应用页&lt;/a>支持一键安装，并通过 Store 自动更新。&lt;/p>
&lt;p>或使用 winget：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>winget install --id 9PLM9XGG6VKS --source msstore&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>从 CLI 启动桌面应用&lt;/strong>：如果已经安装了 Codex CLI，执行 &lt;strong>codex app&lt;/strong> 会自动下载并安装桌面应用，省去手动下载步骤。&lt;/p>
&lt;p>桌面应用首次启动时会引导完成 ChatGPT 账号 OAuth 登录，认证完成后即可创建项目。&lt;/p>
&lt;h4 id="方法二codex-cli-通过-npm-安装跨平台">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e4%ba%8ccodex-cli-%e9%80%9a%e8%bf%87-npm-%e5%ae%89%e8%a3%85%e8%b7%a8%e5%b9%b3%e5%8f%b0">&lt;strong>方法二：Codex CLI 通过 npm 安装（跨平台）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>最广泛的 CLI 安装方式，命令统一：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>npm install -g @openai/codex&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>包名陷阱必须注意&lt;/strong>：完整包名是 &lt;strong>@openai/codex&lt;/strong>（含 @openai 命名空间），不是 &lt;strong>codex&lt;/strong>。npm 上存在另一个完全无关的 &lt;strong>codex&lt;/strong> 包（2012 年发布、与 OpenAI 无关），&lt;a class="link link--text" href="https://github.com/openai/codex/blob/main/README.md" rel="external">OpenAI 官方 README&lt;/a> 明确标注误装该包是常见错误来源。安装前确认命令包含 &lt;strong>@openai/&lt;/strong> 前缀。&lt;/p>
&lt;p>要求 &lt;strong>Node.js 22 或更高版本&lt;/strong>。npm 路径下的 codex 命令是个 JavaScript shim，运行时检测平台架构，加载对应的 optional dependency（如 &lt;strong>@openai/codex-darwin-arm64&lt;/strong>），spawn 实际的原生 Rust 二进制执行。本身不参与运行时计算。&lt;/p>
&lt;p>&lt;strong>禁止使用 sudo npm install -g&lt;/strong>。遇到 EACCES 权限错误时配置用户级 npm prefix：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>mkdir ~/.npm-global
npm config set prefix &amp;#39;~/.npm-global&amp;#39;
echo &amp;#39;export PATH=~/.npm-global/bin:$PATH&amp;#39; &amp;gt;&amp;gt; ~/.bashrc
source ~/.bashrc
npm install -g @openai/codex&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>升级 Codex CLI&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>npm install -g @openai/codex@latest&lt;/code>&lt;/pre>&lt;/div>&lt;h4 id="方法三codex-cli-通过-homebrewmacos-推荐">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e4%b8%89codex-cli-%e9%80%9a%e8%bf%87-homebrewmacos-%e6%8e%a8%e8%8d%90">&lt;strong>方法三：Codex CLI 通过 Homebrew（macOS 推荐）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>不需要 Node.js，直接安装 Rust 原生二进制：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>brew install --cask codex&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>注意是 cask 而非 formula&lt;/strong>。&lt;strong>brew install codex&lt;/strong>（不带 &lt;strong>–cask&lt;/strong>）会失败或装到错误的包。Homebrew cask 同时安装 Codex CLI 与桌面应用——这是 2026 年初 Homebrew 包结构调整后的统一入口。&lt;/p>
&lt;p>升级用：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>brew upgrade --cask codex&lt;/code>&lt;/pre>&lt;/div>&lt;p>如果之前用旧的 formula 路径安装过，需先卸载再装 cask：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>brew uninstall codex
brew install --cask codex&lt;/code>&lt;/pre>&lt;/div>&lt;h4 id="方法四codex-cli-通过-github-release-直接下载零依赖">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e5%9b%9bcodex-cli-%e9%80%9a%e8%bf%87-github-release-%e7%9b%b4%e6%8e%a5%e4%b8%8b%e8%bd%bd%e9%9b%b6%e4%be%9d%e8%b5%96">&lt;strong>方法四：Codex CLI 通过 GitHub Release 直接下载（零依赖）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>适合不想引入 Node.js 或 Homebrew 的最小化部署场景，包括服务器、CI 环境、Docker 镜像等。访问 &lt;a class="link link--text" href="https://github.com/openai/codex/releases" rel="external">openai/codex GitHub Releases 页面&lt;/a>下载对应平台归档：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>macOS Apple Silicon&lt;/strong>：&lt;strong>codex-aarch64-apple-darwin.tar.gz&lt;/strong>&lt;/li>
&lt;li>&lt;strong>macOS Intel&lt;/strong>：&lt;strong>codex-x86_64-apple-darwin.tar.gz&lt;/strong>&lt;/li>
&lt;li>&lt;strong>Linux x86_64&lt;/strong>：&lt;strong>codex-x86_64-unknown-linux-musl.tar.gz&lt;/strong>（musl 静态链接，最大兼容性）&lt;/li>
&lt;li>&lt;strong>Linux ARM64&lt;/strong>：&lt;strong>codex-aarch64-unknown-linux-musl.tar.gz&lt;/strong>&lt;/li>
&lt;/ul>
&lt;p>每个归档解压后包含一个二进制文件，名字带平台标识，需重命名为 &lt;strong>codex&lt;/strong> 并放到 PATH 中：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>tar -xzf codex-x86_64-unknown-linux-musl.tar.gz
mv codex-x86_64-unknown-linux-musl ~/.local/bin/codex
chmod &amp;#43;x ~/.local/bin/codex&lt;/code>&lt;/pre>&lt;/div>&lt;p>Linux 二进制使用 &lt;strong>musl&lt;/strong> 静态链接而非 glibc，同一个二进制可在 Alpine、Ubuntu、Debian、CentOS 等不同发行版直接运行。&lt;/p>
&lt;h4 id="方法五codex-ide-扩展vs-code--cursor--windsurf">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e4%ba%94codex-ide-%e6%89%a9%e5%b1%95vs-code--cursor--windsurf">&lt;strong>方法五：Codex IDE 扩展（VS Code / Cursor / Windsurf）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>Codex IDE 扩展把 agent 直接集成到编辑器内，支持读取打开的文件与选中代码作为上下文。&lt;/p>
&lt;p>&lt;strong>VS Code 安装&lt;/strong>：&lt;/p>
&lt;p>打开 VS Code 扩展面板（&lt;strong>Cmd+Shift+X&lt;/strong> on Mac，&lt;strong>Ctrl+Shift+X&lt;/strong> on Windows/Linux），搜索 “Codex” 选择官方 OpenAI Codex 扩展安装。&lt;/p>
&lt;p>&lt;strong>Cursor / Windsurf 安装&lt;/strong>：&lt;/p>
&lt;p>在各自的扩展市场搜索 “Codex” 安装。Cursor 与 Windsurf 是 VS Code 的 fork，扩展生态兼容。&lt;/p>
&lt;p>IDE 扩展与 CLI、桌面应用共用 &lt;strong>~/.codex/config.toml&lt;/strong>，认证状态自动同步——在任一表面登录后，IDE 扩展无需再次认证。&lt;/p>
&lt;h4 id="方法六windows-上的-wsl2-路径">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e5%85%adwindows-%e4%b8%8a%e7%9a%84-wsl2-%e8%b7%af%e5%be%84">&lt;strong>方法六：Windows 上的 WSL2 路径&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>如果项目托管在 WSL2 内、或需要 Linux 原生工具链，可在 WSL 内安装 Codex CLI：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 在 PowerShell 管理员窗口安装 WSL（如未安装）
wsl --install -d Ubuntu
 
# 进入 WSL 后安装 Node.js 22 与 Codex CLI
nvm install 22
npm install -g @openai/codex&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>WSL1 已停止支持&lt;/strong>。Codex 0.115 起 Linux 沙盒迁移到 bubblewrap，仅 WSL2 可用。&lt;/p>
&lt;p>&lt;strong>Windows 原生与 WSL 配置同步&lt;/strong>：Windows 原生 Codex 使用 &lt;strong>%USERPROFILE%.codex&lt;/strong>，WSL 内 Codex 默认使用 Linux &lt;strong>~/.codex&lt;/strong>。共享认证与会话历史在 WSL 中设置：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>export CODEX_HOME=/mnt/c/Users/&amp;lt;windows-user&amp;gt;/.codex
echo &amp;#39;export CODEX_HOME=/mnt/c/Users/&amp;lt;windows-user&amp;gt;/.codex&amp;#39; &amp;gt;&amp;gt; ~/.bashrc&lt;/code>&lt;/pre>&lt;/div>&lt;h3 id="认证方式chatgpt-订阅与-api-key-的差异">
	&lt;a class="h-a" href="#%e8%ae%a4%e8%af%81%e6%96%b9%e5%bc%8fchatgpt-%e8%ae%a2%e9%98%85%e4%b8%8e-api-key-%e7%9a%84%e5%b7%ae%e5%bc%82">&lt;strong>认证方式：ChatGPT 订阅与 API Key 的差异&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>Codex 所有本地表面（桌面应用、CLI、IDE 扩展）共享同一套认证体系，提供两种登录方式：&lt;/p>
&lt;p>&lt;strong>ChatGPT OAuth（推荐个人开发者）&lt;/strong>：自动打开浏览器，在 localhost:1455 启动 OAuth 回调服务器，登录 ChatGPT 账号后令牌存储到 &lt;strong>~/.codex/auth.json&lt;/strong> 或操作系统密钥库。直接绑定 ChatGPT 订阅额度，无需手动管理 Key。远程 SSH 或浏览器回调被阻断时使用设备码流程：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>codex login --device-code&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>API Key（推荐 CI/CD 与自动化）&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>export OPENAI_API_KEY=sk-...
codex&lt;/code>&lt;/pre>&lt;/div>&lt;p>或通过 stdin 传入：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>printenv OPENAI_API_KEY | codex login --with-api-key&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>关键差异&lt;/strong>：fast mode 等依赖 ChatGPT credits 的功能仅 OAuth 登录可用，API Key 路径走标准 API 计费。这意味着相同任务两种认证方式费用结构不同——OAuth 走订阅额度（消耗 ChatGPT 计划内的本地消息配额），API Key 按 token 计费。&lt;a class="link link--text" href="https://developers.openai.com/codex/auth" rel="external">Codex 官方认证文档&lt;/a>建议个人开发者使用 OAuth、CI/CD 流水线使用 API Key。&lt;/p>
&lt;p>凭证存储位置可通过 &lt;strong>~/.codex/config.toml&lt;/strong> 中的 &lt;strong>cli_auth_credentials_store&lt;/strong> 配置：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>file&lt;/strong>：存储在 &lt;strong>~/.codex/auth.json&lt;/strong>（明文，需视为密码保护）&lt;/li>
&lt;li>&lt;strong>keyring&lt;/strong>：存储在操作系统密钥库（macOS Keychain、Windows Credential Manager、Linux Secret Service）&lt;/li>
&lt;li>&lt;strong>auto&lt;/strong>：优先使用密钥库，不可用时回落到 file&lt;/li>
&lt;/ul>
&lt;h3 id="模型选择gpt-55gpt-54-与-gpt-5-codex">
	&lt;a class="h-a" href="#%e6%a8%a1%e5%9e%8b%e9%80%89%e6%8b%a9gpt-55gpt-54-%e4%b8%8e-gpt-5-codex">&lt;strong>模型选择：GPT-5.5、GPT-5.4 与 GPT-5-Codex&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>Codex 当前可用的模型：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>GPT-5.5&lt;/strong>：最新通用模型，复杂规划与多步推理首选&lt;/li>
&lt;li>&lt;strong>GPT-5.4&lt;/strong>：稳定可用的前一代，支持 1M 上下文窗口（实验性）与 native computer use&lt;/li>
&lt;li>&lt;strong>GPT-5.4 mini&lt;/strong>：轻量模型，适合代码库探索、大文件审查、subagent 工作&lt;/li>
&lt;li>&lt;strong>GPT-5-Codex&lt;/strong>：基于 GPT-5 进一步针对 agentic coding 优化的版本，OpenAI 建议仅在 Codex 或类 Codex 环境中使用&lt;/li>
&lt;/ul>
&lt;p>在 CLI 中切换模型：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 启动新会话时指定
codex --model gpt-5.5
 
# 会话内切换
/model&lt;/code>&lt;/pre>&lt;/div>&lt;p>或在 &lt;strong>~/.codex/config.toml&lt;/strong> 中持久化默认模型：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>model = &amp;#34;gpt-5.5&amp;#34;&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>注意&lt;/strong>：如果账号尚未开放 GPT-5.5 访问，回退到 gpt-5.4 即可。模型可见性按账号逐步开放，更新 CLI、IDE 扩展或桌面应用到最新版本可能解锁新模型选项。&lt;/p>
&lt;h3 id="常见问题排查">
	&lt;a class="h-a" href="#%e5%b8%b8%e8%a7%81%e9%97%ae%e9%a2%98%e6%8e%92%e6%9f%a5">&lt;strong>常见问题排查&lt;/strong>&lt;/a>
&lt;/h3>&lt;h4 id="问题-1误装了无关的-codex-包">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-1%e8%af%af%e8%a3%85%e4%ba%86%e6%97%a0%e5%85%b3%e7%9a%84-codex-%e5%8c%85">&lt;strong>问题 1：误装了无关的 codex 包&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：执行 &lt;strong>npm install -g codex&lt;/strong> 装到的是 2012 年发布的同名无关包。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>npm uninstall -g codex
npm install -g @openai/codex&lt;/code>&lt;/pre>&lt;/div>&lt;h4 id="问题-2nodejs-版本过旧">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-2nodejs-%e7%89%88%e6%9c%ac%e8%bf%87%e6%97%a7">&lt;strong>问题 2：Node.js 版本过旧&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：npm 安装路径要求 Node.js 22+。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：执行 &lt;strong>node –version&lt;/strong> 检查。低于 22 时通过 &lt;strong>nvm install 22&lt;/strong> 升级，或改用 Homebrew / GitHub Release 路径。&lt;/p>
&lt;h4 id="问题-3codex-version-提示-command-not-found">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-3codex-version-%e6%8f%90%e7%a4%ba-command-not-found">&lt;strong>问题 3：codex –version 提示 command not found&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>解决方案&lt;/strong>：关闭终端开新窗口；macOS/Linux 执行 &lt;strong>source ~/.zshrc&lt;/strong> 或 &lt;strong>~/.bashrc&lt;/strong>；Windows 关闭并重开 PowerShell。仍找不到检查 &lt;strong>npm config get prefix&lt;/strong> 输出对应 bin 目录是否在 PATH 中。&lt;/p>
&lt;h4 id="问题-4npm-安装报-eacces-权限错误">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-4npm-%e5%ae%89%e8%a3%85%e6%8a%a5-eacces-%e6%9d%83%e9%99%90%e9%94%99%e8%af%af">&lt;strong>问题 4：npm 安装报 EACCES 权限错误&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;strong>不要使用 sudo&lt;/strong>。按方法二末尾配置用户级 npm prefix，或改用 Homebrew 路径。&lt;/p>
&lt;h4 id="问题-5macos-提示-无法打开-codex因为开发者无法验证">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-5macos-%e6%8f%90%e7%a4%ba-%e6%97%a0%e6%b3%95%e6%89%93%e5%bc%80-codex%e5%9b%a0%e4%b8%ba%e5%bc%80%e5%8f%91%e8%80%85%e6%97%a0%e6%b3%95%e9%aa%8c%e8%af%81">&lt;strong>问题 5：macOS 提示 “无法打开 codex，因为开发者无法验证”&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>系统设置 → 隐私与安全性 → 找到被阻断的 codex 条目，点击”仍要打开”&lt;/li>
&lt;li>或在 Terminal 中：&lt;strong>xattr -d com.apple.quarantine $(which codex)&lt;/strong>&lt;/li>
&lt;/ul>
&lt;h4 id="问题-6codex-桌面应用-macos-仅支持-apple-silicon">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-6codex-%e6%a1%8c%e9%9d%a2%e5%ba%94%e7%94%a8-macos-%e4%bb%85%e6%94%af%e6%8c%81-apple-silicon">&lt;strong>问题 6：Codex 桌面应用 macOS 仅支持 Apple Silicon？&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：早期版本仅 Apple Silicon 构建。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：当前 Codex 桌面应用同时提供 Apple Silicon 与 Intel 构建。在 &lt;a class="link link--text" href="https://developers.openai.com/codex/app" rel="external">Codex 桌面应用下载页&lt;/a>选择 Intel 构建即可。&lt;/p>
&lt;h4 id="问题-7oauth-浏览器回调失败">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-7oauth-%e6%b5%8f%e8%a7%88%e5%99%a8%e5%9b%9e%e8%b0%83%e5%a4%b1%e8%b4%a5">&lt;strong>问题 7：OAuth 浏览器回调失败&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：远程 SSH、devcontainer、严格防火墙环境下 localhost:1455 回调被阻断。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：使用设备码流程 &lt;strong>codex login –device-code&lt;/strong>，或直接设置 &lt;strong>OPENAI_API_KEY&lt;/strong> 环境变量。&lt;/p>
&lt;h4 id="问题-8windows-原生沙盒初始化失败">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-8windows-%e5%8e%9f%e7%94%9f%e6%b2%99%e7%9b%92%e5%88%9d%e5%a7%8b%e5%8c%96%e5%a4%b1%e8%b4%a5">&lt;strong>问题 8：Windows 原生沙盒初始化失败&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>解决方案&lt;/strong>：在 &lt;strong>~/.codex/config.toml&lt;/strong> 切换到 unelevated 沙盒模式：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code>[windows]
sandbox = &amp;#34;unelevated&amp;#34;&lt;/code>&lt;/pre>&lt;/div>&lt;h4 id="问题-9api-key-已设置但-codex-仍要求登录">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-9api-key-%e5%b7%b2%e8%ae%be%e7%bd%ae%e4%bd%86-codex-%e4%bb%8d%e8%a6%81%e6%b1%82%e7%99%bb%e5%bd%95">&lt;strong>问题 9：API Key 已设置但 Codex 仍要求登录&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>解决方案&lt;/strong>：检查当前 shell：&lt;strong>echo $OPENAI_API_KEY&lt;/strong>；添加到 shell profile 持久化；首次运行按 onboarding 流程批准该 Key。&lt;/p>
&lt;h4 id="问题-10国内网络无法完成-oauth-或-api-调用">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-10%e5%9b%bd%e5%86%85%e7%bd%91%e7%bb%9c%e6%97%a0%e6%b3%95%e5%ae%8c%e6%88%90-oauth-%e6%88%96-api-%e8%b0%83%e7%94%a8">&lt;strong>问题 10：国内网络无法完成 OAuth 或 API 调用&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>设置代理：&lt;strong>export HTTPS_PROXY=http://proxy.example.com:port&lt;/strong>&lt;/li>
&lt;li>或在 &lt;strong>~/.codex/config.toml&lt;/strong> 配置 custom model provider 指向第三方兼容端点（注意非官方端点不消耗 ChatGPT 订阅额度，按第三方 provider 计费）&lt;/li>
&lt;/ul>
&lt;h3 id="验证安装与基础使用">
	&lt;a class="h-a" href="#%e9%aa%8c%e8%af%81%e5%ae%89%e8%a3%85%e4%b8%8e%e5%9f%ba%e7%a1%80%e4%bd%bf%e7%94%a8">&lt;strong>验证安装与基础使用&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>&lt;strong>CLI 验证&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 检查版本
codex --version
 
# 验证认证状态
codex login status
 
# 查看 MCP 服务器配置
codex mcp list
 
# 启动交互式 TUI
codex&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>桌面应用验证&lt;/strong>：启动后看到主界面 + 可创建新项目即说明安装成功。&lt;/p>
&lt;p>进入 Codex CLI 后可使用以下内置命令：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># 切换模型
/model
 
# 会话状态与 token 用量
/status
 
# 查看当前生效配置
/config
 
# 压缩对话历史
/compact&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>装完之后的关键三步&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>在项目目录运行 &lt;strong>codex&lt;/strong>（CLI）或在桌面应用中创建项目，让 Codex 探索代码库结构。Codex 会自动读取项目根目录的 &lt;strong>AGENTS.md&lt;/strong> 作为持久上下文，类似 Claude Code 的 CLAUDE.md 机制&lt;/li>
&lt;li>设置 approval mode 适配工作风格——&lt;strong>–sandbox workspace-write&lt;/strong> 适合无人值守的局部任务，&lt;strong>–ask-for-approval never&lt;/strong> 让 Codex 自主完成&lt;/li>
&lt;li>通过 &lt;strong>codex mcp add&lt;/strong> 接入 MCP 服务器，把 Codex 扩展为可调用 GitHub、数据库、内部 API 的完整 agent&lt;/li>
&lt;/ul>
&lt;h3 id="卸载方式不同安装路径对应不同清理步骤">
	&lt;a class="h-a" href="#%e5%8d%b8%e8%bd%bd%e6%96%b9%e5%bc%8f%e4%b8%8d%e5%90%8c%e5%ae%89%e8%a3%85%e8%b7%af%e5%be%84%e5%af%b9%e5%ba%94%e4%b8%8d%e5%90%8c%e6%b8%85%e7%90%86%e6%ad%a5%e9%aa%a4">&lt;strong>卸载方式：不同安装路径对应不同清理步骤&lt;/strong>&lt;/a>
&lt;/h3>&lt;ul>
&lt;li>&lt;strong>npm&lt;/strong>：&lt;strong>npm uninstall -g @openai/codex&lt;/strong>&lt;/li>
&lt;li>&lt;strong>Homebrew cask&lt;/strong>：&lt;strong>brew uninstall –cask codex&lt;/strong>&lt;/li>
&lt;li>&lt;strong>GitHub Release 手动安装&lt;/strong>：删除二进制所在路径（如 &lt;strong>~/.local/bin/codex&lt;/strong>）&lt;/li>
&lt;li>&lt;strong>桌面应用（macOS）&lt;/strong>：从 Applications 拖到废纸篓&lt;/li>
&lt;li>&lt;strong>桌面应用（Windows）&lt;/strong>：通过 Microsoft Store 卸载，或 &lt;strong>winget uninstall&lt;/strong> 对应包&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>仅删除二进制并不能完全清理&lt;/strong>。配置目录 &lt;strong>~/.codex/&lt;/strong>（Windows 为 &lt;strong>%USERPROFILE%.codex&lt;/strong>）包含认证令牌、MCP 服务器配置、会话历史与执行规则，会被保留以便重装。彻底清理：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" class="chroma">&lt;code># macOS / Linux / WSL
rm -rf ~/.codex
 
# 或仅清除认证（保留其他配置）
codex logout&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>注意安全&lt;/strong>：&lt;strong>~/.codex/auth.json&lt;/strong> 存储 OAuth 令牌或 API Key 明文。卸载前如不打算重装，建议先 &lt;strong>codex logout&lt;/strong> 显式撤销凭证。&lt;/p>
&lt;p>OpenAI Codex 已经从单一 CLI 演化为覆盖终端、桌面、IDE、云端、GitHub 的完整 agent 矩阵，包含在 ChatGPT 订阅中的策略大幅降低了使用成本。但安装本身只是入口——真正决定生产力的是后续 &lt;strong>AGENTS.md&lt;/strong> 上下文设计、approval mode 调优、skills 与 plugins 体系搭建以及 MCP 服务器集成。Codex 与 Claude Code 在 agent 工作流上互有取舍——Codex 矩阵更广（覆盖到桌面与 GitHub），Claude Code 更聚焦于命令行——对中文开发者而言两者并存往往比二选一更实用。&lt;/p>&lt;p>© 2026 LLM大模型邮报 · &lt;a href="https://blogs.llmposts.com/guides/openai-codex-install-guide/">阅读原文 →&lt;/a>&lt;/p>&lt;p>本文首发于 &lt;a href="https://blogs.llmposts.com/">LLM 大模型邮报&lt;/a>。&lt;/p></description></item><item><title>Claude Code 安装最简流程：三端命令、自动更新与彻底卸载一次说清</title><link>https://blogs.llmposts.com/guides/claude-code-install-guide/</link><pubDate>Fri, 01 May 2026 21:21:00 +0800</pubDate><author>MISTY</author><guid>https://blogs.llmposts.com/guides/claude-code-install-guide/</guid><description>&lt;p>传统的 AI 编码工具往往需要手动配置 Node.js 环境、解决 npm 权限错误、维护 PATH 变量，整个流程对初学者并不友好。&lt;a class="link link--text" href="https://docs.claude.com/en/docs/claude-code/overview" rel="external">Claude Code&lt;/a> 作为 Anthropic 推出的命令行 AI 编码助手，&lt;strong>2025 年 10 月起官方将原生安装器（native installer）确立为推荐安装方式&lt;/strong>，零依赖、自动配置 PATH、后台自动更新，把 Claude Code 安装流程压缩到一行命令。&lt;/p>
&lt;p>Claude Code 支持 macOS 13.0+、Windows 10 1809+、Ubuntu 20.04+、Debian 10+、Alpine Linux 3.19+，覆盖 x64 与 ARM64 主流架构。本指南按”使用价值—系统要求—安装方法—问题排查—验证使用—获取方式”六段，详细说明在不同设备上完成 Claude Code 安装的最简流程，覆盖标准账号、企业部署、第三方推理服务等多种场景。&lt;/p>

 
 
&lt;figure class="fig fig--w-text" id="fig-1">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #2f2c2c, #bb6f57)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 51.8285%;"> 
 
&lt;img alt="Claude Code 安装与跨平台使用完整指南" class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/featured.jpg_hu44047db731b94227537d7d3e39d43169_11674_1200x2500_fit_q75_h2_lanczos_3_17682290685486060928-512x.webp 512w, https://blogs.llmposts.com/featured.jpg_hu44047db731b94227537d7d3e39d43169_11674_1200x2500_fit_q75_h2_lanczos_3_17682290685486060928-571x.webp 571w, https://blogs.llmposts.com/featured.jpg_hu44047db731b94227537d7d3e39d43169_11674_1200x2500_fit_q75_h2_lanczos_3_17682290685486060928-637x.webp 637w, https://blogs.llmposts.com/featured.jpg_hu44047db731b94227537d7d3e39d43169_11674_1200x2500_fit_q75_h2_lanczos_3_17682290685486060928-700x.webp 700w, https://blogs.llmposts.com/featured.jpg_hu44047db731b94227537d7d3e39d43169_11674_1200x2500_fit_q75_h2_lanczos_3_17682290685486060928-711x.webp 711w, https://blogs.llmposts.com/featured.jpg_hu44047db731b94227537d7d3e39d43169_11674_1200x2500_fit_q75_h2_lanczos_3_17682290685486060928-793x.webp 793w" height="363" src="data:image/webp;base64,UklGRv4DAABXRUJQVlA4IPIDAABwKgCdASrpAHkAPzWIskmnqqYZ+nUoqxNE4fQAmMa045t+iZtoYzvtSdvofPZz/lLplo/xTR8vrKteq8jRgOqNGmCZDjjqbNsSYfLuuHEj5NNUMhtgbGtzJVQMmQ/wlTOqL5zD7/9BIDoo77To1E6JhPl5kvymKbBDxlXV2IVDRmKblrN0Brju3D/jnboq7yUXdJUo39mLV7jiPXb9QTPdlUZw1gAjq9uAxLtmN5NI5Wdcpg1EmgpDHm6YX6I1xPlI5NyLCOg6le9uHJgXV9tZnxY9xfZLkPxBhtSNx8M3YMWmgwS57BWYaj0zH+EjriJK9Vjc4d9heO9EQXenkmJl2CZIq+W9nqXuVIVCRSjXFxdHkbWD72xkn86T/V2vy0AdhYrb0JjXcjIMyx7VivBJf8Pf4cv8hvXNUhtHrw79fKbKL7rpXih/lgX138IzCIvcjdZVchhH6I5Z/wAA/uU8Wgj0Hfj7AW3wQ7KDwng2YAtoeNS7dGYIV5O9zthydyNQocSftlEGTZBhf6YSJFnzNzE+BUH+osvaOZpZb774a+eDBKI/VlwBCcqCkuDn9w4JlKniW2ZJEk3reEK4Lt1lX0vhfeyWPIrmjR/W390MWJtgHJgPV7+hwm7pTHoxABmQso4r89nnqGvDfBrMNusuVvdBvxWfce/zDrHByaKZXKranZk4tfHGS4JI2hDyyQ3atlaY4QcJb9vZOmXUiGBOG/saauTvGe9q1iFAkOIlktBdf9XMMuKiW6L1/vvee8SUdG9nZPpjQCTx/feqPGqsm+63KYDRO74KCh4ChBfyvdP2O6OfmbEhnc+kPKaWple7d13L/0TrNSiNC8NmFAq0f05uS9mU2fQMa+olhCoW6cStqlWt4/KGwgzK1FmBNqGYZYgAG0Ohntu9KJ9A2DT8zkleOwx2WveCCBFh4reDtcIUaw4mL5e0hgF4QWgQn62fPqG1OIfLpBgdWh6HsK2iHQ4w58SNuN1UhIh1NiZFeDPmsp5cEkzdHpxvxtDSGD8Eya9MDnJe+83UkU5opBUDy7GRvjKXTKInsh3Mvo5h/OmzfKceLa3VpeKkJkPCBWcdg33u25hDADTR2gNtr15ldm2/4AnuNEdtpXFFIYmI0gu5bO3d09aclngDu/M8CFORf41yBAtCEPkkozU5fjQeICeWMlkMJyKGQC82PHv3H1J9VuLPThE0LczyQCsDAA9jxVrcty6bnrft9rzhueZortDzeVe7/oR1DFmoWojuu//5QitJ8Ef0ANb29cZNs5FlDNltP6kmqpU+xP2EhCywhik7vn/EABgOV9UUiZuGEne8YGJjOk6xZs8tOmYAAAAAAA==" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="为什么要使用原生安装器">
	&lt;a class="h-a" href="#%e4%b8%ba%e4%bb%80%e4%b9%88%e8%a6%81%e4%bd%bf%e7%94%a8%e5%8e%9f%e7%94%9f%e5%ae%89%e8%a3%85%e5%99%a8">&lt;strong>为什么要使用原生安装器&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>原生安装器作为 Anthropic 当前的官方推荐方式，相比 npm 等传统路径有几项实际价值：&lt;/p>
&lt;p>&lt;strong>零依赖部署&lt;/strong>：不需要 Node.js 运行时，不需要 npm 全局权限配置。一行 &lt;strong>curl&lt;/strong> 或 &lt;strong>irm&lt;/strong> 命令完成下载、PATH 配置与首次启动准备，整个过程通常在 30 秒内结束。&lt;/p>
&lt;p>&lt;strong>后台自动更新&lt;/strong>：原生安装是&lt;strong>唯一获得 Claude Code 内置更新机制的安装方式&lt;/strong>。启动时与运行中后台检查新版本，下次启动生效，无需手动维护。Anthropic 官方文档明确指出 Homebrew、WinGet、apt、dnf、apk 与 npm 安装均不参与该机制，这是选择安装路径时最容易被忽略却最关键的差异。&lt;/p>
&lt;p>&lt;strong>跨平台一致&lt;/strong>：macOS、Linux、WSL 共用同一条 &lt;strong>install.sh&lt;/strong> 脚本，Windows PowerShell 与 CMD 各有对应版本但安装结果一致，二进制本身在所有平台行为相同。&lt;/p>
&lt;p>&lt;strong>发布通道可控&lt;/strong>：通过 &lt;strong>autoUpdatesChannel&lt;/strong> 设置在 latest（即时收到新版本）与 stable（约滞后一周、跳过有重大回退的版本）之间切换。企业部署可追加 &lt;strong>minimumVersion&lt;/strong> 字段防止版本回滚。&lt;/p>
&lt;p>&lt;strong>统一卸载路径&lt;/strong>：所有原生安装的二进制都位于 &lt;strong>~/.local/bin/claude&lt;/strong>（Windows 为 &lt;strong>%USERPROFILE%.local\bin\claude.exe&lt;/strong>），卸载只需删除两个目录，无包管理器残留。&lt;/p>
&lt;h3 id="系统要求与前置检查">
	&lt;a class="h-a" href="#%e7%b3%bb%e7%bb%9f%e8%a6%81%e6%b1%82%e4%b8%8e%e5%89%8d%e7%bd%ae%e6%a3%80%e6%9f%a5">&lt;strong>系统要求与前置检查&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>根据 &lt;a class="link link--text" href="https://code.claude.com/docs/en/setup" rel="external">Claude Code 官方安装文档&lt;/a>，运行 Claude Code 需满足以下条件：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>操作系统&lt;/strong>：macOS 13.0+、Windows 10 1809+ 或 Windows Server 2019+、Ubuntu 20.04+、Debian 10+、Alpine Linux 3.19+&lt;/li>
&lt;li>&lt;strong>系统架构&lt;/strong>：x64 或 ARM64&lt;/li>
&lt;li>&lt;strong>硬件&lt;/strong>：4 GB 以上内存&lt;/li>
&lt;li>&lt;strong>Shell&lt;/strong>：Bash、Zsh、PowerShell 或 CMD（原生 Windows 推荐安装 Git for Windows 以便调用 Bash 工具）&lt;/li>
&lt;li>&lt;strong>账号&lt;/strong>：Claude Pro、Max、Team、Enterprise 或 Anthropic Console（API 计费）账号之一，&lt;strong>免费版 Claude.ai 不包含 Claude Code 访问权限&lt;/strong>&lt;/li>
&lt;li>&lt;strong>网络&lt;/strong>：稳定连接到 Anthropic 服务端点，国内用户可能需要配置代理&lt;/li>
&lt;/ul>
&lt;p>也可通过 Amazon Bedrock、Google Vertex AI 或 Microsoft Foundry 接入第三方推理服务，适合企业自有云资源或合规要求场景。&lt;/p>
&lt;p>检查是否已安装 Claude Code 的方法：打开终端执行：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span>claude --version&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;p>如果返回版本号（如 &lt;code>2.1.xxx&lt;/code>），说明已安装。如果提示 &lt;strong>command not found&lt;/strong>，按下文方法安装。&lt;/p>
&lt;h3 id="安装方法">
	&lt;a class="h-a" href="#%e5%ae%89%e8%a3%85%e6%96%b9%e6%b3%95">&lt;strong>安装方法&lt;/strong>&lt;/a>
&lt;/h3>&lt;h4 id="方法一原生安装器推荐">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e4%b8%80%e5%8e%9f%e7%94%9f%e5%ae%89%e8%a3%85%e5%99%a8%e6%8e%a8%e8%8d%90">&lt;strong>方法一：原生安装器（推荐）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>最简单且官方推荐的方式，零依赖、自动 PATH 配置、后台自动更新，覆盖三大平台。&lt;/p>
&lt;p>&lt;strong>macOS、Linux、WSL&lt;/strong>，打开终端执行：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span>curl -fsSL https://claude.ai/install.sh | bash&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>Windows PowerShell&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span>irm https://claude.ai/install.ps1 | iex&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>Windows CMD&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span>curl -fsSL https://claude.ai/install.cmd -o install.cmd &amp;amp;&amp;amp; install.cmd &amp;amp;&amp;amp; del install.cmd&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;p>二进制将安装到 &lt;strong>~/.local/bin/claude&lt;/strong>（Windows 为 &lt;strong>%USERPROFILE%.local\bin\claude.exe&lt;/strong>），PATH 由安装脚本自动配置。完成后运行 &lt;strong>claude –version&lt;/strong> 验证。&lt;/p>
&lt;p>&lt;strong>区分 PowerShell 与 CMD 的小技巧&lt;/strong>：提示符为 &lt;code>PS C:\&lt;/code> 是 PowerShell，仅&lt;code> C:\&lt;/code> 是 CMD。若执行 &lt;strong>irm&lt;/strong> 命令报 &lt;em>‘irm’ is not recognized&lt;/em>，说明当前是 CMD；若执行 CMD 命令报 &lt;em>The token ‘&amp;amp;&amp;amp;’ is not a valid statement separator&lt;/em>，说明当前是 PowerShell。&lt;/p>
&lt;p>首次启动 &lt;strong>claude&lt;/strong> 时浏览器会自动打开 OAuth 授权页面，登录 Anthropic 账号后令牌本地存储。无浏览器环境（服务器、容器、CI Pipeline）改用环境变量：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span>export ANTHROPIC_API_KEY=sk-ant-...&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;h4 id="方法二homebrew仅-macos">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e4%ba%8chomebrew%e4%bb%85-macos">&lt;strong>方法二：Homebrew（仅 macOS）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>适合习惯 Homebrew 工作流的 macOS 用户。Homebrew 提供两个 cask，对应不同发布通道：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span># 稳定通道（约滞后一周，跳过有重大回退的版本）
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>brew install --cask claude-code
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span> 
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span># 最新通道（新版本发布时立即收到）
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>brew install --cask claude-code@latest&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;p>注意 &lt;strong>Homebrew 安装不参与 Claude Code 的后台自动更新&lt;/strong>，需手动执行 &lt;strong>brew upgrade claude-code&lt;/strong> 或 &lt;strong>brew upgrade claude-code@latest&lt;/strong>。两个 cask 不能同时安装，重新选择通道前需先卸载现有 cask。&lt;/p>
&lt;h4 id="方法三winget仅-windows">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e4%b8%89winget%e4%bb%85-windows">&lt;strong>方法三：WinGet（仅 Windows）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>通过 Windows Package Manager 安装：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span>winget install Anthropic.ClaudeCode&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;p>WinGet 路径有&lt;strong>两个已确认的已知问题&lt;/strong>，部署前需了解：&lt;/p>
&lt;p>&lt;strong>问题 1：永久”Update available”提示&lt;/strong>。&lt;a class="link link--text" href="https://github.com/anthropics/claude-code/issues/33155" rel="external">GitHub Issue 33155&lt;/a> 显示 Claude Code 的更新检查比对的是 npm 注册表版本，而 winget 包审核流程比 npm 慢 1-2 个版本，导致 winget 用户长期看到黄色更新横幅但 &lt;strong>winget upgrade&lt;/strong> 报 &lt;em>No applicable update found&lt;/em>。当前没有官方修复。&lt;/p>
&lt;p>&lt;strong>问题 2：升级可能破坏 PATH&lt;/strong>。&lt;a class="link link--text" href="https://github.com/anthropics/claude-code/issues/27867" rel="external">GitHub Issue 27867&lt;/a> 显示执行 &lt;strong>winget upgrade Anthropic.ClaudeCode&lt;/strong> 后二进制被移到 &lt;strong>C:\Users&lt;username>.local\bin\claude.exe&lt;/strong> 但 PATH 未自动更新，&lt;strong>claude&lt;/strong> 命令找不到。修复方式是在 PowerShell profile 中追加：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span>$env:PATH += &amp;#34;;$env:USERPROFILE\.local\bin&amp;#34;
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>. $PROFILE&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;p>鉴于这两个问题，&lt;strong>Windows 用户除非有强烈包管理器统一偏好，否则建议直接用方法一的 PowerShell 原生安装器&lt;/strong>。&lt;/p>
&lt;h4 id="方法四linux-包管理器apt--dnf--apk">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e5%9b%9blinux-%e5%8c%85%e7%ae%a1%e7%90%86%e5%99%a8apt--dnf--apk">&lt;strong>方法四：Linux 包管理器（apt / dnf / apk）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>适合团队规范要求所有软件经包管理器分发的场景。Anthropic 提供官方签名仓库，密钥指纹为 &lt;strong>31DD DE24 DDFA B679 F42D 7BD2 BAA9 29FF 1A7E CACE&lt;/strong>，建议在信任前手动校验。&lt;/p>
&lt;p>&lt;strong>Debian / Ubuntu（apt）&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span>sudo install -d -m 0755 /etc/apt/keyrings
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>sudo curl -fsSL https://downloads.claude.ai/keys/claude-code.asc \
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span> -o /etc/apt/keyrings/claude-code.asc
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>echo &amp;#34;deb [signed-by=/etc/apt/keyrings/claude-code.asc] https://downloads.claude.ai/claude-code/apt/stable stable main&amp;#34; \
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span> | sudo tee /etc/apt/sources.list.d/claude-code.list
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>sudo apt update
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>sudo apt install claude-code&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>Fedora / RHEL（dnf）&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span>sudo tee /etc/yum.repos.d/claude-code.repo &amp;lt;&amp;lt;&amp;#39;EOF&amp;#39;
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>[claude-code]
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>name=Claude Code
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>baseurl=https://downloads.claude.ai/claude-code/rpm/stable
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>enabled=1
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>gpgcheck=1
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>gpgkey=https://downloads.claude.ai/keys/claude-code.asc
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>EOF
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>sudo dnf install claude-code&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>Alpine Linux（apk）&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span>wget -O /etc/apk/keys/claude-code.rsa.pub \
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span> https://downloads.claude.ai/keys/claude-code.rsa.pub
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>echo &amp;#34;https://downloads.claude.ai/claude-code/apk/stable&amp;#34; &amp;gt;&amp;gt; /etc/apk/repositories
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>apk add claude-code&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;p>将 URL 中的 &lt;code>stable&lt;/code> 替换为 &lt;code>latest&lt;/code> 即切换到最新通道。这些路径同样不参与 Claude Code 后台自动更新，依赖系统包管理器升级流程。&lt;/p>
&lt;p>&lt;strong>Alpine 与其他 musl 发行版的额外步骤&lt;/strong>：原生安装器需先安装 &lt;strong>libgcc&lt;/strong>、&lt;strong>libstdc++、ripgrep&lt;/strong>，并在 &lt;strong>~/.claude/settings.json&lt;/strong> 中配置：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span>{
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span> &amp;#34;env&amp;#34;: {
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span> &amp;#34;USE_BUILTIN_RIPGREP&amp;#34;: &amp;#34;0&amp;#34;
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span> }
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>}&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;p>否则会因 musl 与 glibc 链接器差异导致搜索功能失效。&lt;/p>
&lt;h4 id="方法五npm-安装仅特定场景适用">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e4%ba%94npm-%e5%ae%89%e8%a3%85%e4%bb%85%e7%89%b9%e5%ae%9a%e5%9c%ba%e6%99%af%e9%80%82%e7%94%a8">&lt;strong>方法五：npm 安装（仅特定场景适用）&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>npm 不再是默认推荐方式，仅在 CI/CD 中需要固定版本、团队工作流以 npm 为标准、或与 Node.js 项目共用版本管理时使用：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span>npm install -g @anthropic-ai/claude-code&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;p>要求 &lt;strong>Node.js 18 或更高&lt;/strong>。该 npm 包安装的与原生安装器是同一个二进制——通过 &lt;strong>@anthropic-ai/claude-code-darwin-arm64&lt;/strong> 等 optional dependency 拉取对应平台 binary，postinstall 阶段链接到 PATH。已安装的 &lt;strong>claude&lt;/strong> 二进制本身不调用 Node.js 运行时。&lt;/p>
&lt;p>&lt;strong>禁止使用 sudo npm install -g&lt;/strong>，会导致权限污染与安全风险。遇到 EACCES 错误的正确处理方式是配置用户级 npm prefix：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span>mkdir ~/.npm-global
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>npm config set prefix &amp;#39;~/.npm-global&amp;#39;
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>echo &amp;#39;export PATH=~/.npm-global/bin:$PATH&amp;#39; &amp;gt;&amp;gt; ~/.bashrc
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>source ~/.bashrc
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>npm install -g @anthropic-ai/claude-code&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;p>或改用 nvm 管理 Node.js 版本。&lt;/p>
&lt;h4 id="方法六windows-用户的-wsl-路径">
	&lt;a class="h-a" href="#%e6%96%b9%e6%b3%95%e5%85%adwindows-%e7%94%a8%e6%88%b7%e7%9a%84-wsl-%e8%b7%af%e5%be%84">&lt;strong>方法六：Windows 用户的 WSL 路径&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>WSL 适合需要 Linux 工具链或**沙盒（sandboxing）**命令执行的开发场景。WSL 2 支持沙盒，WSL 1 不支持。原生 Windows 路径与 WSL 路径的选择标准：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>原生 Windows&lt;/strong>：Windows 原生项目与工具链，不支持 sandboxing&lt;/li>
&lt;li>&lt;strong>WSL 2&lt;/strong>：Linux 工具链或需要沙盒命令执行，&lt;strong>推荐&lt;/strong>&lt;/li>
&lt;li>&lt;strong>WSL 1&lt;/strong>：仅在 WSL 2 不可用时使用&lt;/li>
&lt;/ul>
&lt;p>在 WSL 终端内执行方法一的 Linux 安装命令即可。&lt;strong>注意所有依赖必须在 WSL 环境内安装而非 Windows 侧&lt;/strong>——一个常见误区是 Windows 已装 Node.js 但 WSL 内没装，npm 路径会因此报 command not found。&lt;/p>
&lt;h3 id="更新方式每个平台不同搞错会一直收到提醒">
	&lt;a class="h-a" href="#%e6%9b%b4%e6%96%b0%e6%96%b9%e5%bc%8f%e6%af%8f%e4%b8%aa%e5%b9%b3%e5%8f%b0%e4%b8%8d%e5%90%8c%e6%90%9e%e9%94%99%e4%bc%9a%e4%b8%80%e7%9b%b4%e6%94%b6%e5%88%b0%e6%8f%90%e9%86%92">&lt;strong>更新方式：每个平台不同，搞错会一直收到提醒&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>这是 Claude Code 安装中最容易踩坑的环节，不同安装路径的更新机制完全不同：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>原生安装器&lt;/strong>：启动时与运行中后台自动检查，下次启动生效，零干预；可执行 &lt;strong>claude update&lt;/strong> 立即触发&lt;/li>
&lt;li>&lt;strong>Homebrew&lt;/strong>：&lt;strong>brew upgrade claude-code&lt;/strong> 或 &lt;strong>brew upgrade claude-code@latest&lt;/strong>（取决于安装的 cask）&lt;/li>
&lt;li>&lt;strong>WinGet&lt;/strong>：&lt;strong>winget upgrade Anthropic.ClaudeCode&lt;/strong>&lt;/li>
&lt;li>&lt;strong>apt&lt;/strong>：&lt;strong>sudo apt update &amp;amp;&amp;amp; sudo apt upgrade claude-code&lt;/strong>&lt;/li>
&lt;li>&lt;strong>dnf&lt;/strong>：&lt;strong>sudo dnf upgrade claude-code&lt;/strong>&lt;/li>
&lt;li>&lt;strong>apk&lt;/strong>：&lt;strong>apk update &amp;amp;&amp;amp; apk upgrade claude-code&lt;/strong>&lt;/li>
&lt;li>&lt;strong>npm&lt;/strong>：重新执行 &lt;strong>npm install -g @anthropic-ai/claude-code&lt;/strong>&lt;/li>
&lt;/ul>
&lt;p>切换发布通道编辑 &lt;strong>~/.claude/settings.json&lt;/strong>：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span>{
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span> &amp;#34;autoUpdatesChannel&amp;#34;: &amp;#34;stable&amp;#34;
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>}&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;p>完全禁用自动更新设置 &lt;strong>DISABLE_AUTOUPDATER=1&lt;/strong>；需彻底封锁包括 &lt;strong>claude update&lt;/strong> 在内所有更新路径时设置 &lt;strong>DISABLE_UPDATES&lt;/strong>，适用于企业自有分发场景。&lt;/p>
&lt;h3 id="常见问题排查">
	&lt;a class="h-a" href="#%e5%b8%b8%e8%a7%81%e9%97%ae%e9%a2%98%e6%8e%92%e6%9f%a5">&lt;strong>常见问题排查&lt;/strong>&lt;/a>
&lt;/h3>&lt;h4 id="问题-1claude-version-提示-command-not-found">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-1claude-version-%e6%8f%90%e7%a4%ba-command-not-found">&lt;strong>问题 1：claude –version 提示 command not found&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：PATH 未自动更新，或终端会话未重载。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>关闭当前终端，开新终端窗口&lt;/li>
&lt;li>macOS/Linux 执行 &lt;strong>source ~/.zshrc&lt;/strong> 或 &lt;strong>source ~/.bashrc&lt;/strong>&lt;/li>
&lt;li>Windows 关闭并重开 PowerShell 窗口&lt;/li>
&lt;li>仍找不到执行 &lt;strong>which claude&lt;/strong>（Linux/macOS）或 &lt;strong>where claude&lt;/strong>（Windows）确认实际路径&lt;/li>
&lt;/ul>
&lt;h4 id="问题-2npm-安装报-eacces-权限错误">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-2npm-%e5%ae%89%e8%a3%85%e6%8a%a5-eacces-%e6%9d%83%e9%99%90%e9%94%99%e8%af%af">&lt;strong>问题 2：npm 安装报 EACCES 权限错误&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：npm 全局目录归 root 所有，或之前用过 sudo 安装。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;strong>不要使用 sudo&lt;/strong>。改用方法一的原生安装器，或按方法五配置用户级 npm prefix。&lt;/p>
&lt;h4 id="问题-3nodejs-版本过旧">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-3nodejs-%e7%89%88%e6%9c%ac%e8%bf%87%e6%97%a7">&lt;strong>问题 3：Node.js 版本过旧&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：npm 安装路径要求 Node.js 18+。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：执行 &lt;strong>node –version&lt;/strong> 检查。低于 18 时通过 &lt;strong>nvm install –lts&lt;/strong> 升级，或改用原生安装器（不需要 Node.js）。&lt;/p>
&lt;h4 id="问题-4git-bash-报-raw-mode-is-not-supported">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-4git-bash-%e6%8a%a5-raw-mode-is-not-supported">&lt;strong>问题 4：Git Bash 报 “Raw mode is not supported”&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：Git Bash 不完整支持 Claude Code 交互式 CLI 所需的 TTY 功能。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：在 Windows PowerShell 或 Windows Terminal 中启动 &lt;strong>claude&lt;/strong>。Git for Windows 仅作为 Bash 工具的执行后端，启动 Claude Code 本身应使用 PowerShell。&lt;/p>
&lt;h4 id="问题-5winget-永久显示-update-available">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-5winget-%e6%b0%b8%e4%b9%85%e6%98%be%e7%a4%ba-update-available">&lt;strong>问题 5：WinGet 永久显示 “Update available”&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：Claude Code 的更新检查比对的是 npm 注册表版本，与 winget 包注册表存在 1-2 个版本的滞后。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：当前无官方修复。可忽略提示等待 winget 包追上，或卸载 winget 安装改用方法一的原生安装器。&lt;/p>
&lt;h4 id="问题-6winget-升级后-claude-命令找不到">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-6winget-%e5%8d%87%e7%ba%a7%e5%90%8e-claude-%e5%91%bd%e4%bb%a4%e6%89%be%e4%b8%8d%e5%88%b0">&lt;strong>问题 6：WinGet 升级后 claude 命令找不到&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：升级后二进制被移动但 PATH 未更新。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：在 PowerShell profile 中追加 &lt;strong>$env:PATH += “;$env:USERPROFILE.local\bin”&lt;/strong>，执行 &lt;strong>. $PROFILE&lt;/strong> 重载。&lt;/p>
&lt;h4 id="问题-7asdf-用户从-npm-迁移后仍调用旧版本">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-7asdf-%e7%94%a8%e6%88%b7%e4%bb%8e-npm-%e8%bf%81%e7%a7%bb%e5%90%8e%e4%bb%8d%e8%b0%83%e7%94%a8%e6%97%a7%e7%89%88%e6%9c%ac">&lt;strong>问题 7：asdf 用户从 npm 迁移后仍调用旧版本&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：asdf shim 优先级高于原生安装路径，&lt;strong>which claude&lt;/strong> 仍指向 &lt;strong>~/.asdf/shims/claude&lt;/strong>。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：对 asdf 管理过的每个 Node.js 版本逐一卸载：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span>for version in $(asdf list nodejs | tr -d &amp;#39; *&amp;#39;); do
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span> echo &amp;#34;Uninstalling from nodejs $version...&amp;#34;
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span> ASDF_NODEJS_VERSION=$version npm uninstall -g @anthropic-ai/claude-code 2&amp;gt;/dev/null
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>done&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;p>如果 shim 仍残留，手动删除 &lt;strong>~/.asdf/shims/claude&lt;/strong>。&lt;/p>
&lt;h4 id="问题-8oauth-浏览器回调失败">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-8oauth-%e6%b5%8f%e8%a7%88%e5%99%a8%e5%9b%9e%e8%b0%83%e5%a4%b1%e8%b4%a5">&lt;strong>问题 8：OAuth 浏览器回调失败&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：远程 SSH、devcontainer 或严格防火墙环境下 localhost 回调被阻断。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：使用手动流程——复制终端打印的 URL，在任意浏览器完成登录，将返回码粘贴回终端。或在无浏览器环境直接设置 &lt;strong>ANTHROPIC_API_KEY&lt;/strong> 环境变量。&lt;/p>
&lt;h4 id="问题-9企业网络下载失败或证书错误">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-9%e4%bc%81%e4%b8%9a%e7%bd%91%e7%bb%9c%e4%b8%8b%e8%bd%bd%e5%a4%b1%e8%b4%a5%e6%88%96%e8%af%81%e4%b9%a6%e9%94%99%e8%af%af">&lt;strong>问题 9：企业网络下载失败或证书错误&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：下载主机被代理拦截，或公司注入了自己的 CA 证书。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>设置代理：&lt;strong>export HTTPS_PROXY=http://proxy.example.com:port&lt;/strong> 后重新执行安装命令&lt;/li>
&lt;li>指向公司 CA 包：&lt;strong>export NODE_EXTRA_CA_CERTS=/path/to/company-ca.pem&lt;/strong>&lt;/li>
&lt;li>将以上变量加入 shell profile 持久化&lt;/li>
&lt;/ul>
&lt;h4 id="问题-10搜索功能失效或-file-引用找不到文件">
	&lt;a class="h-a" href="#%e9%97%ae%e9%a2%98-10%e6%90%9c%e7%b4%a2%e5%8a%9f%e8%83%bd%e5%a4%b1%e6%95%88%e6%88%96-file-%e5%bc%95%e7%94%a8%e6%89%be%e4%b8%8d%e5%88%b0%e6%96%87%e4%bb%b6">&lt;strong>问题 10：搜索功能失效或 @file 引用找不到文件&lt;/strong>&lt;/a>
&lt;/h4>&lt;p>&lt;strong>原因&lt;/strong>：内置 ripgrep 二进制在当前系统不兼容，常见于 Alpine、musl 发行版与部分 ARM 设备。&lt;/p>
&lt;p>&lt;strong>解决方案&lt;/strong>：通过包管理器安装 ripgrep（如 &lt;strong>apk add ripgrep&lt;/strong>、&lt;strong>apt install ripgrep&lt;/strong>），并在 &lt;strong>~/.claude/settings.json&lt;/strong> 设置 &lt;strong>USE_BUILTIN_RIPGREP=0&lt;/strong>。&lt;/p>
&lt;h3 id="验证安装与基础使用">
	&lt;a class="h-a" href="#%e9%aa%8c%e8%af%81%e5%ae%89%e8%a3%85%e4%b8%8e%e5%9f%ba%e7%a1%80%e4%bd%bf%e7%94%a8">&lt;strong>验证安装与基础使用&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>安装完成后，建议执行以下命令验证 Claude Code 是否正常工作：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span># 检查版本
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>claude --version
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span> 
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span># 详细环境检查（PATH、认证状态、MCP 服务器、文件权限）
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>claude doctor
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span> 
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span># 启动 Claude Code（首次启动会触发 OAuth 授权）
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>claude&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;p>进入 Claude Code 后可使用以下内置命令：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span># 完整健康检查
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>/doctor
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span> 
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span># 查看所有 slash 命令
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>/help
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span> 
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span># 生成项目级 CLAUDE.md（持久上下文）
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>/init
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span> 
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span># 压缩对话历史（释放 context window）
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>/compact
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span> 
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span># 清空当前会话
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>/clear
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span> 
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span># 查看会话状态与上下文使用量
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>/status&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;p>&lt;strong>装完之后的关键三步&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>在项目根目录运行 &lt;strong>/init&lt;/strong> 生成 &lt;strong>CLAUDE.md&lt;/strong>，让 Claude Code 持久理解项目结构、技术栈与团队规范——后续每次会话质量都依赖这个文件&lt;/li>
&lt;li>在终端内输入 &lt;strong>/help&lt;/strong> 浏览内置 slash 命令清单，了解 &lt;strong>/compact&lt;/strong>、**/clear**、**/status** 等常用工具&lt;/li>
&lt;li>通过 &lt;strong>~/.claude/settings.json&lt;/strong> 配置 **MCP（Model Context Protocol）**服务器，把 Claude Code 从命令行助手扩展为可调用 GitHub、数据库、内部工具的完整 agent 平台&lt;/li>
&lt;/ul>
&lt;h3 id="卸载方式不同安装路径对应不同清理步骤">
	&lt;a class="h-a" href="#%e5%8d%b8%e8%bd%bd%e6%96%b9%e5%bc%8f%e4%b8%8d%e5%90%8c%e5%ae%89%e8%a3%85%e8%b7%af%e5%be%84%e5%af%b9%e5%ba%94%e4%b8%8d%e5%90%8c%e6%b8%85%e7%90%86%e6%ad%a5%e9%aa%a4">&lt;strong>卸载方式：不同安装路径对应不同清理步骤&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>卸载按安装方式分别处理：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>原生安装器（macOS、Linux、WSL）&lt;/strong>：&lt;strong>rm -f ~/.local/bin/claude &amp;amp;&amp;amp; rm -rf ~/.local/share/claude&lt;/strong>&lt;/li>
&lt;li>&lt;strong>原生安装器（Windows PowerShell）&lt;/strong>：&lt;strong>Remove-Item -Path “$env:USERPROFILE.local\bin\claude.exe” -Force&lt;/strong> 与 &lt;strong>Remove-Item -Path “$env:USERPROFILE.local\share\claude” -Recurse -Force&lt;/strong>&lt;/li>
&lt;li>&lt;strong>Homebrew&lt;/strong>：&lt;strong>brew uninstall –cask claude-code&lt;/strong>（或 &lt;strong>claude-code@latest&lt;/strong>）&lt;/li>
&lt;li>&lt;strong>WinGet&lt;/strong>：&lt;strong>winget uninstall Anthropic.ClaudeCode&lt;/strong>&lt;/li>
&lt;li>&lt;strong>apt&lt;/strong>：&lt;strong>sudo apt remove claude-code&lt;/strong>，删除 &lt;strong>/etc/apt/sources.list.d/claude-code.list&lt;/strong> 与 &lt;strong>/etc/apt/keyrings/claude-code.asc&lt;/strong>&lt;/li>
&lt;li>&lt;strong>dnf&lt;/strong>：&lt;strong>sudo dnf remove claude-code&lt;/strong>，删除 &lt;strong>/etc/yum.repos.d/claude-code.repo&lt;/strong>&lt;/li>
&lt;li>&lt;strong>apk&lt;/strong>：&lt;strong>apk del claude-code&lt;/strong>，删除仓库行与 &lt;strong>/etc/apk/keys/claude-code.rsa.pub&lt;/strong>&lt;/li>
&lt;li>&lt;strong>npm&lt;/strong>：&lt;strong>npm uninstall -g @anthropic-ai/claude-code&lt;/strong>&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>仅删除二进制并不能完全清理 Claude Code&lt;/strong>。配置目录 &lt;strong>~/.claude/&lt;/strong> 与 &lt;strong>~/.claude.json&lt;/strong> 包含设置、MCP 服务器配置、会话历史与已授权工具列表，会被保留以便重装。彻底清理执行：&lt;/p>
&lt;div class="highlight">&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;">&lt;code class="language-plain" data-lang="plain">&lt;span style="display:flex;">&lt;span># macOS / Linux / WSL
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>rm -rf ~/.claude
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>rm ~/.claude.json
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span> 
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span># 项目级配置（在每个项目目录下）
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>rm -rf .claude
&lt;/span>&lt;/span>&lt;span style="display:flex;">&lt;span>rm -f .mcp.json&lt;/span>&lt;/span>&lt;/code>&lt;/pre>&lt;/div>&lt;p>Windows 对应 &lt;strong>%USERPROFILE%.claude&lt;/strong> 与 &lt;strong>%USERPROFILE%.claude.json&lt;/strong>。&lt;/p>
&lt;p>&lt;strong>容易被忽略的陷阱&lt;/strong>：VS Code 扩展、JetBrains 插件与 Claude Desktop 应用都会写入 **~/.claude/**。若它们仍然安装，删除该目录后会被立即重建。彻底清理前必须先卸载所有相关 IDE 集成。&lt;/p>
&lt;h3 id="获取方式">
	&lt;a class="h-a" href="#%e8%8e%b7%e5%8f%96%e6%96%b9%e5%bc%8f">&lt;strong>获取方式&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>官方文档：&lt;a class="link link--text" href="https://docs.claude.com/en/docs/claude-code/overview" rel="external">Claude Code 官方文档&lt;/a>&lt;/p>
&lt;p>安装与配置参考：&lt;a class="link link--text" href="https://code.claude.com/docs/en/setup" rel="external">Advanced setup&lt;/a>&lt;/p>
&lt;p>npm 包：&lt;a class="link link--text" href="https://www.npmjs.com/package/@anthropic-ai/claude-code" rel="external">@anthropic-ai/claude-code&lt;/a>&lt;/p>
&lt;p>故障排查中心：&lt;a class="link link--text" href="https://support.claude.com/en/articles/14552646-troubleshoot-claude-code-installation-and-authentication" rel="external">Claude Help Center&lt;/a>&lt;/p>
&lt;p>GitHub Issues：&lt;a class="link link--text" href="https://github.com/anthropics/claude-code/issues" rel="external">anthropics/claude-code&lt;/a>&lt;/p>
&lt;p>Claude Code 通过原生安装器把命令行 AI 编码工具的部署门槛压到了一行命令，但安装本身只是入口。对中文开发者而言，真正决定生产力的是后续 &lt;strong>CLAUDE.md&lt;/strong> 上下文设计、MCP 服务器集成与 agent 工作流配置——掌握这些才是 Claude Code 实际价值所在。&lt;/p>&lt;p>© 2026 LLM大模型邮报 · &lt;a href="https://blogs.llmposts.com/guides/claude-code-install-guide/">阅读原文 →&lt;/a>&lt;/p>&lt;p>本文首发于 &lt;a href="https://blogs.llmposts.com/">LLM 大模型邮报&lt;/a>。&lt;/p></description></item><item><title>Anthropic 测试代号 Jupiter V1 模型 或将于 5 月 6 日大会公布</title><link>https://blogs.llmposts.com/models/anthropic-jupiter-v1-red-team-testing/</link><pubDate>Fri, 01 May 2026 04:54:57 +0000</pubDate><author>MISTY</author><guid>https://blogs.llmposts.com/models/anthropic-jupiter-v1-red-team-testing/</guid><description>&lt;p>据 TestingCatalog 报道，Anthropic 已对内部代号 &lt;strong>Claude Jupiter V1&lt;/strong> 的新构建启动红队测试。该代号疑似遵循 Anthropic 此前以行星名称作为预发布安全测试标签的惯例，时间点临近 &lt;strong>2026 年 5 月 6 日&lt;/strong>的 Code with Claude 开发者大会。这一观察构成了 &lt;strong>Claude Jupiter V1 红队测试&lt;/strong> 曝光与 Code with Claude 大会的临近信号，但是否对应实际产品发布仍需以 Anthropic 官方公告为准。&lt;/p>

 
 
&lt;figure class="fig fig--w-text" id="fig-1">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-color: #e3e4e2">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 51.4000%;"> 
 
&lt;img alt="Anthropic Workbench 中疑似 Claude Jupiter V1 红队测试模型选项截图" class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/Workbench-Claude-Platform-04-30-2026_06_52_PM_14033303413787801725-512x.webp 512w, https://blogs.llmposts.com/Workbench-Claude-Platform-04-30-2026_06_52_PM_14033303413787801725-569x.webp 569w, https://blogs.llmposts.com/Workbench-Claude-Platform-04-30-2026_06_52_PM_14033303413787801725-633x.webp 633w, https://blogs.llmposts.com/Workbench-Claude-Platform-04-30-2026_06_52_PM_14033303413787801725-700x.webp 700w, https://blogs.llmposts.com/Workbench-Claude-Platform-04-30-2026_06_52_PM_14033303413787801725-703x.webp 703w, https://blogs.llmposts.com/Workbench-Claude-Platform-04-30-2026_06_52_PM_14033303413787801725-781x.webp 781w, https://blogs.llmposts.com/Workbench-Claude-Platform-04-30-2026_06_52_PM_14033303413787801725-869x.webp 869w, https://blogs.llmposts.com/Workbench-Claude-Platform-04-30-2026_06_52_PM_14033303413787801725-965x.webp 965w, https://blogs.llmposts.com/Workbench-Claude-Platform-04-30-2026_06_52_PM_14033303413787801725-1073x.webp 1073w, https://blogs.llmposts.com/Workbench-Claude-Platform-04-30-2026_06_52_PM_14033303413787801725-1193x.webp 1193w, https://blogs.llmposts.com/Workbench-Claude-Platform-04-30-2026_06_52_PM_14033303413787801725-1325x.webp 1325w, https://blogs.llmposts.com/Workbench-Claude-Platform-04-30-2026_06_52_PM_14033303413787801725-1473x.webp 1473w, https://blogs.llmposts.com/Workbench-Claude-Platform-04-30-2026_06_52_PM_14033303413787801725-1637x.webp 1637w, https://blogs.llmposts.com/Workbench-Claude-Platform-04-30-2026_06_52_PM_14033303413787801725-1820x.webp 1820w" height="360" src="data:image/webp;base64,UklGRrABAABXRUJQVlA4IKQBAADQFgCdASrpAHgAP0WgwFUoJimkpRNqwTYoiek7QFvAiwFsr0fBJQFUG+yvuZqJdSAfaB3YAANSEEsbDlwQeYALxXlntMN0G/IzCNyXL0bOYCxIxUhjoKz3Py5SjgYc51wv7ankd2Xz8vI2YkMQFymvcp14oLe4IBNayErmiCtgwrV1cZXogFMxKCxByjSfvnTNIBTK5NqKoQtKmxwrRZirYjK/LIzV4uDXmruOFbQ3DoUKplySckdmgDm2hsb6AAD+6rgLn/Lmi65N26HswryLDHoqmvNUaB5+zNocvQ7ZZqBJIJTvjuqPRPqScVpMGQdOBfvCNR+OXTStC52QRppmXEBIBGngGAmpXmJPdu/UYCA4CosMEqrZ34NxntfFh+BrA7CZYlFRpofH1GhdEvNrqvoLRzztWZMBSvAMXBB9f0nBQpPCfe/XdrAneYrOqoRYDyrYjTboJJnpXz3yRS2Q4JnX4wwbkRpDdo/Ppn74BY5aCoEVnnONeGLwcOQKQhyF54DdOFRyODeiiDAfRbIK+yz5E9/dgQAbLwcpg9q9QAAAAAA=" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="内部代号命名规则与测试性质">
	&lt;a class="h-a" href="#%e5%86%85%e9%83%a8%e4%bb%a3%e5%8f%b7%e5%91%bd%e5%90%8d%e8%a7%84%e5%88%99%e4%b8%8e%e6%b5%8b%e8%af%95%e6%80%a7%e8%b4%a8">&lt;strong>内部代号命名规则与测试性质&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>Jupiter V1 仅为内部测试标识，据报道 &lt;strong>Jupiter-v1-p&lt;/strong> 不会出现在公开 API 字符串或产品 UI 中。Anthropic 习惯在产品发布前使用行星名称（如 &lt;strong>Neptune&lt;/strong>）标记安全测试阶段，这与公司早期披露的 &lt;strong>Codename&lt;/strong> 命名惯例相符。红队测试本身是 Anthropic 责任扩展政策（Responsible Scaling Policy）下的常规步骤，要求任何前沿级模型部署前完成越狱探测与 Constitutional Classifier 压力测试，但这并不构成新模型必将发布的官方确认。&lt;/p>
&lt;h3 id="时间线对标与历史模式">
	&lt;a class="h-a" href="#%e6%97%b6%e9%97%b4%e7%ba%bf%e5%af%b9%e6%a0%87%e4%b8%8e%e5%8e%86%e5%8f%b2%e6%a8%a1%e5%bc%8f">&lt;strong>时间线对标与历史模式&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>Anthropic 将于 &lt;strong>2026 年 5 月 6 日&lt;/strong>在旧金山举办 Code with Claude 开发者大会，伦敦与东京会议安排在稍后时间。根据 &lt;a class="link link--text" href="https://twitter.com/AiBattle_/status/2037649811478896829" rel="external">AiBattle 在 X 平台关于 Code with Claude 的爆料原帖&lt;/a>，大会时间已确认为 2026 年 5 月 6 日。参考 2025 年 &lt;strong>Neptune&lt;/strong> 代号的红队测试安排，同年 5 月中旬完成安全测试后即发布了 &lt;strong>Claude 4&lt;/strong> 系列模型；Jupiter V1 当前的测试节奏与该模式相似。需指出的是，行星代号惯例与历史时间线吻合并不构成新模型必将发布的官方确认。&lt;/p>
&lt;h3 id="当前产品阵容留下的更新空间">
	&lt;a class="h-a" href="#%e5%bd%93%e5%89%8d%e4%ba%a7%e5%93%81%e9%98%b5%e5%ae%b9%e7%95%99%e4%b8%8b%e7%9a%84%e6%9b%b4%e6%96%b0%e7%a9%ba%e9%97%b4">&lt;strong>当前产品阵容留下的更新空间&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>Anthropic 当前公开模型阵容以 &lt;strong>Opus 4.7&lt;/strong> 为旗舰，&lt;strong>Sonnet 4.7&lt;/strong> 与 &lt;strong>Haiku 4.7&lt;/strong> 尚未发布，留下中端与小型号位置。基于这一空缺，外界推测 Code with Claude 大会可能带来三种走向之一：4.7 系列在中小型号上的扩展、基于此前报道中提及的 Mythos（更早泄露的模型基础架构代号）的新一代模型，或介于两者之间的过渡更新。具体路径仍需以官方公告为准。&lt;/p>
&lt;h3 id="后续发布渠道的合理范围">
	&lt;a class="h-a" href="#%e5%90%8e%e7%bb%ad%e5%8f%91%e5%b8%83%e6%b8%a0%e9%81%93%e7%9a%84%e5%90%88%e7%90%86%e8%8c%83%e5%9b%b4">&lt;strong>后续发布渠道的合理范围&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>若 Jupiter V1 最终对外发布，参考 &lt;strong>Opus 4.7&lt;/strong> 此前的上线路径，新模型预计将在 &lt;strong>Anthropic Platform&lt;/strong>、&lt;strong>Claude Code&lt;/strong> 与 &lt;strong>Claude&lt;/strong> 消费端应用同步推出。该判断属于基于历史模式的合理推断，并非官方时间表。读者在 &lt;strong>5 月 6 日&lt;/strong>前应将所有相关信息视为待验证爆料。&lt;/p>
&lt;p>Claude Jupiter V1 红队测试的曝光与 Code with Claude 大会的临近，构成一组可观察的时间线信号，但是否对应实际产品发布仍需以 Anthropic 官方公告为准。对中文开发者社区而言，值得关注的不止是是否有新模型发布，更包括 &lt;strong>Sonnet&lt;/strong> 与 &lt;strong>Haiku&lt;/strong> 中小型号是否在本轮一并刷新——这一点将直接影响 &lt;strong>Claude Code&lt;/strong>、MCP 生态与本地集成方案的成本结构。&lt;/p>&lt;p>© 2026 LLM大模型邮报 · &lt;a href="https://blogs.llmposts.com/models/anthropic-jupiter-v1-red-team-testing/">阅读原文 →&lt;/a>&lt;/p>&lt;p>本文首发于 &lt;a href="https://blogs.llmposts.com/">LLM 大模型邮报&lt;/a>。&lt;/p></description></item><item><title>OpenAI 发布 Claude Code Codex 插件 支持多模式代码审查与任务委托</title><link>https://blogs.llmposts.com/engineering/openai-codex-plugin-cc-2/</link><pubDate>Thu, 02 Apr 2026 08:25:57 +0000</pubDate><author>MISTY</author><guid>https://blogs.llmposts.com/engineering/openai-codex-plugin-cc-2/</guid><description>&lt;p>OpenAI 正式发布开源插件 codex-plugin-cc，允许 Claude Code 用户无缝调用本地 Codex 进行代码审查、对抗审查与任务委托。该插件基于 Apache-2.0 许可证发布，仓库已更新至 v1.0.4，为开发者提供了在不切换终端的前提下接入另一套代码引擎的方案。&lt;/p>

 
 
&lt;figure class="fig fig--w-text">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #363747, #9493a3)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 40.0000%;"> 
 
&lt;img alt="OpenAI 发布 Claude Code Codex 插件 支持多模式代码审查与任务委托" class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/img_20260503_042434_01_4221045119550906268-512x.webp 512w, https://blogs.llmposts.com/img_20260503_042434_01_4221045119550906268-562x.webp 562w, https://blogs.llmposts.com/img_20260503_042434_01_4221045119550906268-618x.webp 618w, https://blogs.llmposts.com/img_20260503_042434_01_4221045119550906268-679x.webp 679w, https://blogs.llmposts.com/img_20260503_042434_01_4221045119550906268-700x.webp 700w, https://blogs.llmposts.com/img_20260503_042434_01_4221045119550906268-746x.webp 746w, https://blogs.llmposts.com/img_20260503_042434_01_4221045119550906268-819x.webp 819w, https://blogs.llmposts.com/img_20260503_042434_01_4221045119550906268-900x.webp 900w" height="280" src="data:image/webp;base64,UklGRkYCAABXRUJQVlA4IDoCAADQFgCdASrpAF0AP0WOulaoP6esJXRMC/Yoiels3mCV2EsYzCLvdmYJvg8YK0ij7IJ0hY0ol4zZdyp1Q70K+1QQYvRqmpQH310/nYmirXXuD3+lsTQTAqOGfJGXJMiaG09P+T5SCswTID7Vq7B7m71+mzaQBelpj70wclfZhxVjzbS7hX8h/068kC31ZcZL2cn114N3fXReyPzn+TLN+1cciiYkgPC4v+w8zI2Nx4YRSxMAi++Ae92A8DVHcsDpkAD+cSvGU0v2bfyHoD860biAEk3F1Ssw/pDjbDHzO++OMShKdUIqB0Umq6DsWvVllGNImNp9NjTN9BosoQLH68K3knC/FnQZjk1NHwEBJHLVAZzO95G0DMQ8CS8RNrmQQCWZDhMSAXvMyTIAA0jamfVlDJIWnZRRlXvOAAoZv4VvQnLxjr+LRWs/wSAAAAFkeYVERKh4yknnCWd22blW7EyGnzuYi/ivWoZ/J585bTtr8WZaRey3noA/zVOYz4Mcm/QDhEt7cZlwGeXfiIC+1JYhg8io76IjiNri6qT2YQslIsFyMFRMyNcysg+w1J/iACAMWp9BfwnG5m/P/cD6I8DhCsphm3xFCQ52ZZ1m/OP44+6S7w6hWWOjBs39qDyl2c+lmAtLhLt1e2KFbUIXTpxvqm8ErD2wtX0+ozymXQ/ajRUCqUBIB8f+cns7aFZ6hlUmFgphI6UMA/2On/X1q7OCSnHfojZSdOM/7Sa8c+eloURg25aEzxgAAAA=" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="插件架构与无状态代理原理">
	&lt;a class="h-a" href="#%e6%8f%92%e4%bb%b6%e6%9e%b6%e6%9e%84%e4%b8%8e%e6%97%a0%e7%8a%b6%e6%80%81%e4%bb%a3%e7%90%86%e5%8e%9f%e7%90%86">&lt;strong>插件架构与无状态代理原理&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>codex-plugin-cc 的核心定位是工作流集成器而非独立运行时。插件通过调用本地已安装的 Codex CLI 与 App Server 完成操作代理，直接复用用户当前的身份认证状态、仓库环境检查出与 MCP 配置。这种架构避免了重复安装与额外登录流程，使得在 Claude Code 中调用 Codex 时的环境感知保持一致。&lt;/p>
&lt;h3 id="claude-code-codex-插件-核心命令与审查场景">
	&lt;a class="h-a" href="#claude-code-codex-%e6%8f%92%e4%bb%b6-%e6%a0%b8%e5%bf%83%e5%91%bd%e4%bb%a4%e4%b8%8e%e5%ae%a1%e6%9f%a5%e5%9c%ba%e6%99%af">&lt;strong>Claude Code Codex 插件 核心命令与审查场景&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>插件提供三个核心子命令匹配不同工程阶段。&lt;/p>
&lt;p>&lt;strong>/codex:review&lt;/strong> 执行标准只读代码审查，输出质量与 Codex 内直接交互一致。该命令默认支持只读模式，不会执行代码修改。适用于未提交改动或对比分支的差异审查，可指定 &lt;strong>–base &lt;ref>&lt;/strong> 进行分支对比。&lt;/p>
&lt;p>&lt;strong>/codex:adversarial-review&lt;/strong> 为可引导的对抗性审查。插件允许在命令后附加 focus 文本，引导 Codex 针对特定风险点（如认证逻辑、数据安全、回滚策略、竞态条件等）发起压力测试。该命令适合上线前的高优先级审查，用于验证设计取舍与隐藏假设。&lt;/p>
&lt;p>&lt;strong>/codex:rescue&lt;/strong> 用于任务委托，支持调查 Bug、尝试修复或接管卡断的对话线程。该命令支持后台运行与断点续传，开发者可通过指定模型（如 &lt;strong>gpt-5.4-mini&lt;/strong> 或 &lt;strong>spark&lt;/strong>）与推理强度（medium/high）控制成本与速度。未指定参数时，Codex 自动选择默认配置。&lt;/p>
&lt;p>所有耗时较长的任务推荐配置为后台执行，配合 &lt;strong>/codex:status&lt;/strong>、&lt;strong>/codex:result&lt;/strong> 与 &lt;strong>/codex:cancel&lt;/strong> 管理进度与终止状态。&lt;/p>
&lt;h3 id="环境依赖与配置规则">
	&lt;a class="h-a" href="#%e7%8e%af%e5%a2%83%e4%be%9d%e8%b5%96%e4%b8%8e%e9%85%8d%e7%bd%ae%e8%a7%84%e5%88%99">&lt;strong>环境依赖与配置规则&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>插件运行依赖两项必要条件：ChatGPT 订阅（含免费版）或 OpenAI API Key，以及 &lt;strong>Node.js 18.18&lt;/strong> 及以上版本。&lt;/p>
&lt;p>安装后需执行 &lt;strong>/codex:setup&lt;/strong> 校验环境，缺失时提供一键安装引导。配置文件沿袭 Codex 原生规则，支持用户级 &lt;strong>~/.codex/config.toml&lt;/strong> 与项目级 &lt;strong>.codex/config.toml&lt;/strong>。开发者可在项目中配置默认模型与推理策略，例如强制使用 &lt;strong>gpt-5.4-mini&lt;/strong> 配合 high 强度，配置项在受信任的项目目录下自动加载。&lt;/p>
&lt;h3 id="可配置审查门控的潜在风险">
	&lt;a class="h-a" href="#%e5%8f%af%e9%85%8d%e7%bd%ae%e5%ae%a1%e6%9f%a5%e9%97%a8%e6%8e%a7%e7%9a%84%e6%bd%9c%e5%9c%a8%e9%a3%8e%e9%99%a9">&lt;strong>可配置审查门控的潜在风险&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>插件提供 &lt;strong>–enable-review-gate&lt;/strong> 选项，启用后会在 Claude Code 会话准备退出前触发 Stop Hook，强制执行一轮针对性审查。若审查发现异常，则阻断退出流程。&lt;/p>
&lt;p>OpenAI 官方明确警告该机制存在工程副作用：可能引发长时间运行的 Claude 与 Codex 循环对话，消耗大量可用额度。官方建议仅在实际监控会话的前提下启用，并需自行平衡自动化拦截与操作效率。&lt;/p>
&lt;p>codex-plugin-cc 的发布标志着双智能体（Dual-Agent）协作策略正在进入工程化集成阶段。开发者可以通过单一终端编排两套代码引擎，利用 Claude 的上下文理解能力与 Codex 的本地执行环境形成互补。对于需要高频代码审查与后台任务委托的工作流而言，该方案提供了低延迟的串联路径；但配置审查门控时仍需控制边界，避免资源消耗失控。&lt;/p>&lt;p>© 2026 LLM大模型邮报 · &lt;a href="https://blogs.llmposts.com/engineering/openai-codex-plugin-cc-2/">阅读原文 →&lt;/a>&lt;/p>&lt;p>本文首发于 &lt;a href="https://blogs.llmposts.com/">LLM 大模型邮报&lt;/a>。&lt;/p></description></item></channel></rss>