<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>LLM 大模型邮报</title><link>https://blogs.llmposts.com/categories/engineering/</link><description>LLMPOSTS.com 是面向中文 AI 从业者的大模型资讯快报，每日追踪 GPT、Claude、Gemini、Qwen、DeepSeek 等主流模型的发布动态，深度解读论文方法、工程部署、agent 工具链与 AI 行业商业走向。</description><generator>Hugo -- gohugo.io</generator><language>zh-cn</language><copyright>© 2026 LLM大模型邮报</copyright><lastBuildDate>Mon, 04 May 2026 09:38:58 +0000</lastBuildDate><atom:link href="https://blogs.llmposts.com/categories/engineering/index.xml" rel="self" type="application/rss+xml"/><item><title>OpenRouter 响应缓存功能上线 测试与代理重试零成本</title><link>https://blogs.llmposts.com/engineering/openrouter-response-caching/</link><pubDate>Sun, 03 May 2026 12:23:28 +0000</pubDate><author>MISTY</author><guid>https://blogs.llmposts.com/engineering/openrouter-response-caching/</guid><description>&lt;p>OpenRouter 正式发布响应缓存（Response Caching）功能。启用后，相同 API 请求命中缓存将直接返回结果，耗时降至 80 到 300 毫秒，且不消耗 token 与计费。该功能已由开源社区开发者 Teknium 确认集成至 Hermes Agent 中。&lt;/p>

 
 
&lt;figure class="fig fig--w-text">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #2d2c2d, #ababad)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 42.9952%;"> 
 
&lt;img alt="OpenRouter 响应缓存功能界面与原理说明截图" class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/img_20260503_082142_01_15278489127434198631-512x.webp 512w, https://blogs.llmposts.com/img_20260503_082142_01_15278489127434198631-564x.webp 564w, https://blogs.llmposts.com/img_20260503_082142_01_15278489127434198631-621x.webp 621w, https://blogs.llmposts.com/img_20260503_082142_01_15278489127434198631-683x.webp 683w, https://blogs.llmposts.com/img_20260503_082142_01_15278489127434198631-700x.webp 700w, https://blogs.llmposts.com/img_20260503_082142_01_15278489127434198631-752x.webp 752w, https://blogs.llmposts.com/img_20260503_082142_01_15278489127434198631-828x.webp 828w" height="301" src="data:image/webp;base64,UklGRq4BAABXRUJQVlA4IKIBAACQFQCdASrpAGQAP0WUuU6/v6enq5hqK/Yoiekd8gGVBB2LM9FvbJmwdg6NDJLJeHso2RgxuqfA2wIgSoztI2pbw3ez+zjjy7r7ux7dpaqZF4TS8tFjXgvx6p2E81JNIndmzbPyrxxduUSbamQwj9BTv1kSH2c5W4jofT3+l+7aPI0/TuBd/SlPKSpvItBQtioR420XBQpsP8cVeL0DkQXWRT3PF6BLTFWUhkv7a/8RTN7pMCOgAP7sIkKZ1vCerIzQCxc7ef/reS1CneVOsAu2sXGmnKe1spFwujy+LvrcW6oR4ZbE2x7lI3KTJ+nKKjZL6tDK3eTqMima7sxnGElx6ylXbHAzzz4tO/LKem0gXxAXz5hWDHarmy25B3qtYZQvEyHKkqxKLSlF0NmONZ39+bR7q4EVsAfE077pUJQ6RlaVgSEFz/nxgvCGW3utjQEXHJFsdtlioQkcbaOxE70Oz9h/glJopD82qBiJRaK1Q8BG1X4/Q5qbCPkk7e2jXIwEmS710BXuVAP1CQc7TQR1Mquz2nHJ6rLGaBIBuV1CAAAA" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="openrouter-响应缓存的工作原理与性能表现">
	&lt;a class="h-a" href="#openrouter-%e5%93%8d%e5%ba%94%e7%bc%93%e5%ad%98%e7%9a%84%e5%b7%a5%e4%bd%9c%e5%8e%9f%e7%90%86%e4%b8%8e%e6%80%a7%e8%83%bd%e8%a1%a8%e7%8e%b0">&lt;strong>OpenRouter 响应缓存的工作原理与性能表现&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>响应缓存位于模型提供商前端。当用户发送带有缓存标志的请求时，系统会将请求体、模型标识、API 密钥及流模式哈希为唯一的缓存键。若此前存在相同请求且未过期，系统直接从边缘节点返回结果，不经过模型提供商，不产生 token 消耗。&lt;/p>
&lt;p>缓存查找平均耗时 &lt;strong>4 毫秒&lt;/strong>。完整流或非流响应均能在 &lt;strong>80 到 300 毫秒&lt;/strong>内返回，主体耗时集中在序列化与网络传输。作为对比，同一请求在无缓存状态下，Gemini 2.5 Flash 模型响应约需 1.3 秒，Kimi K2.6 需 4.6 秒，GPT-5.5 需 9.1 秒。&lt;a class="link link--text" href="https://openrouter.ai/announcements/response-caching" rel="external">OpenRouter 官方博客&lt;/a>指出，命中缓存的调用不扣减任何请求或完成 token。&lt;a class="link link--text" href="https://github.com/NousResearch/hermes-agent/pull/19" rel="external">Hermes Agent 项目更新&lt;/a>确认已合并该缓存逻辑。&lt;/p>
&lt;h3 id="核心适用场景与提示词缓存的区别">
	&lt;a class="h-a" href="#%e6%a0%b8%e5%bf%83%e9%80%82%e7%94%a8%e5%9c%ba%e6%99%af%e4%b8%8e%e6%8f%90%e7%a4%ba%e8%af%8d%e7%bc%93%e5%ad%98%e7%9a%84%e5%8c%ba%e5%88%ab">&lt;strong>核心适用场景与提示词缓存的区别&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>该功能主要覆盖三大高频场景。首先是智能体重试，当工作流中途失败时，从初始步骤重试，已缓存的中间步骤可即时返回，仅对新增工作付费。其次是自动化测试套件，大语言模型驱动的重跑测试在填充缓存后实现完全确定性且零成本。最后是重复上下文处理，向同一模型重复发送包含系统提示与用户输入的固定请求时，首次调用后后续调用免单。&lt;/p>
&lt;p>需注意的是，响应缓存独立于许多提供商原生的提示词缓存（Prompt Caching）。后者仅通过共用前缀缩短系统提示的计费长度，而响应缓存直接跳过模型调用，返回完整响应。用户可通过 HTTP 响应头 &lt;strong>X-OpenRouter-Cache-Status: HIT&lt;/strong> 或 &lt;strong>MISS&lt;/strong> 监控缓存效能，并结合 &lt;strong>X-OpenRouter-Cache-Age&lt;/strong> 与 &lt;strong>X-OpenRouter-Cache-TTL&lt;/strong> 查看存储时长。&lt;/p>
&lt;h3 id="配置方式与-api-端点支持范围">
	&lt;a class="h-a" href="#%e9%85%8d%e7%bd%ae%e6%96%b9%e5%bc%8f%e4%b8%8e-api-%e7%ab%af%e7%82%b9%e6%94%af%e6%8c%81%e8%8c%83%e5%9b%b4">&lt;strong>配置方式与 API 端点支持范围&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>启用方式分为两种。用户可在每次 API 调用时添加 &lt;strong>X-OpenRouter-Cache: true&lt;/strong> 头部，或在全局预设配置中设置 &lt;strong>cache_enabled: true&lt;/strong>。缓存保留时间由 &lt;strong>X-OpenRouter-Cache-TTL&lt;/strong> 控制，范围 &lt;strong>1 秒至 24 小时&lt;/strong>（默认 5 分钟）。若需针对特定请求强制刷新，可发送 &lt;strong>X-OpenRouter-Cache-Clear: true&lt;/strong> 头部。&lt;/p>
&lt;p>当前功能处于 Beta 阶段。缓存基于 API 密钥隔离，不同密钥（即使属于同一账户）之间不共享缓存条目。支持端点覆盖 &lt;strong>/chat/completions&lt;/strong>、&lt;strong>/responses&lt;/strong>、&lt;strong>/messages&lt;/strong> 与 &lt;strong>/embeddings&lt;/strong>。传统 &lt;strong>/completions&lt;/strong> 端点、音频接口、&lt;strong>/rerank&lt;/strong> 及视频生成接口暂不支持。值得注意的是，内部处理的大型多模态文件（如超大尺寸图像或音视频附件）无法纳入缓存计算，标准尺寸的多模态输入仍可正常缓存。&lt;/p>
&lt;p>OpenRouter 的响应缓存机制为智能体编排与高频评测任务提供了显著的链路优化方案。在 token 成本持续受到关注的环境下，该功能有望成为构建高容错性大语言模型应用的标准基础设施。具体性能表现与端点扩展节奏仍需观察 Beta 阶段的实际运行数据。&lt;/p>&lt;p>© 2026 LLM大模型邮报 · &lt;a href="https://blogs.llmposts.com/engineering/openrouter-response-caching/">阅读原文 →&lt;/a>&lt;/p>&lt;p>本文首发于 &lt;a href="https://blogs.llmposts.com/">LLM 大模型邮报&lt;/a>。&lt;/p></description></item><item><title>OpenAI Codex 更新：引入动画宠物与配置自动导入功能</title><link>https://blogs.llmposts.com/engineering/openai-codex-pets-config-imports/</link><pubDate>Sun, 03 May 2026 00:14:43 +0000</pubDate><author>MISTY</author><guid>https://blogs.llmposts.com/engineering/openai-codex-pets-config-imports/</guid><description>&lt;p>OpenAI 已更新其 Codex 桌面应用，正式引入 OpenAI Codex 动画宠物功能（Pets）与跨智能体配置文件自动导入机制。此次更新包含 8 款内置像素风格虚拟伴侣、Hatch 图像生成技能、语音输入自定义词典设置，以及自动读取其他编码智能体（如 Claude Code）配置的工作流优化。该版本迭代旨在降低多工具切换摩擦，同时推动 Codex 向桌面级全栈开发环境演进。&lt;/p>

 
 
&lt;figure class="fig fig--w-text">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-color: #3b3d46">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 57.4000%;"> 
 
&lt;img alt="OpenAI Codex 桌面应用界面展示内置的动画宠物功能" class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-512x.webp 512w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-569x.webp 569w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-633x.webp 633w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-700x.webp 700w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-703x.webp 703w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-781x.webp 781w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-869x.webp 869w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-965x.webp 965w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-1073x.webp 1073w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-1193x.webp 1193w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-1325x.webp 1325w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-1473x.webp 1473w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-1637x.webp 1637w, https://blogs.llmposts.com/Screenshot-2026-05-02-at-08.58.46_1028418741272166233-1820x.webp 1820w" height="402" src="data:image/webp;base64,UklGRmQBAABXRUJQVlA4IFgBAAAwEgCdASrpAIYAP0WiwVkoJj+tofQJ0/Yoiek7f1kUnkFs31FQRbTX7lkaJBNcicI2N5EaK1hpAAgIMLwRsPMmVIRqhv1Cs6sXKzyq9DFRg4I33Bb3X2Thvi51M1bjnqQIsCX6m1x+7DriH8JmPbGN9HfyjtqRLI5bewfe87BvOQFeu+oM1vHQLMIn9I6wQ0yAk4Cu95rQw9oAAP7m2oX0XTJh8p0dVPB4HRkcFmMW70F1/eTL44hb1WrWcFCOJgb4Y/N9eaPTql95oEi84rP/nAOXgq29IDe5lJRgtVRxMiZjCFWkf/1VCvjFvlJ/7koufR38IX5sCw6vtmKeECA0Puglu4SPeViPRIcqDPvYFGGB3QKrj8LR8IyKlyMnYZjS9o+5Tlr4kLjqncHp384W7BFUTWfYCiy/uFJOQ3w8xZWWgGNMQWo5niIYQgCZhn5fydlY5AAAAA==" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="openai-codex-动画宠物功能交互机制与社区生态">
	&lt;a class="h-a" href="#openai-codex-%e5%8a%a8%e7%94%bb%e5%ae%a0%e7%89%a9%e5%8a%9f%e8%83%bd%e4%ba%a4%e4%ba%92%e6%9c%ba%e5%88%b6%e4%b8%8e%e7%a4%be%e5%8c%ba%e7%94%9f%e6%80%81">&lt;strong>OpenAI Codex 动画宠物功能交互机制与社区生态&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>Codex 此次更新内置了 &lt;strong>8&lt;/strong> 款像素风格动画宠物（Pets），这些虚拟伴侣可作为覆盖层悬浮于桌面顶层。即使在 Codex 窗口最小化时，Pets 仍保持可见，并通过短时消息气泡同步后台执行状态。用户可通过 &lt;strong>/pet&lt;/strong> 指令召唤或隐藏宠物；当宠物在任务运行中发出提示时，点击即可打开回复路径，实现与智能体的双向交互。配合内置的 Hatch 技能，用户可上传任意图像将其转化为可交互动画宠物，文件将保存至 Codex 本地主目录以供打包分享。据 &lt;a class="link link--text" href="https://twitter.com/testingcatalog/status/2050292849409749464" rel="external">TestingCatalog 在 X 平台发布的推文&lt;/a>，社区在功能上线后迅速响应，PetShare 等第三方分享目录于数小时内涌现，大量用户基于个人头像生成并分享定制宠物。&lt;/p>
&lt;h3 id="配置文件自动导入与跨工具工作流优化">
	&lt;a class="h-a" href="#%e9%85%8d%e7%bd%ae%e6%96%87%e4%bb%b6%e8%87%aa%e5%8a%a8%e5%af%bc%e5%85%a5%e4%b8%8e%e8%b7%a8%e5%b7%a5%e5%85%b7%e5%b7%a5%e4%bd%9c%e6%b5%81%e4%bc%98%e5%8c%96">&lt;strong>配置文件自动导入与跨工具工作流优化&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>同次更新还包含了可能具备更高长期实用价值的工具链改进。Codex 现已支持自动检测并导入由其他编码智能体遗留的配置文件，例如 &lt;strong>Claude Code&lt;/strong> 的 &lt;strong>CLAUDE.md&lt;/strong>。导入后，插件设置、项目规范与自定义规则可无缝继承，无需人工重写。根据 &lt;a class="link link--text" href="https://twitter.com/testingcatalog/status/2050292849409749464" rel="external">TestingCatalog 记录的开发者体验反馈&lt;/a>，该机制在应用启动时将自动扫描新配置文件并提示导入。对于需要跨平台规避访问限制或进行多智能体并行测试的开发者而言，配置互通大幅降低了任务中途切换工具的操作成本。&lt;/p>
&lt;h3 id="语音词典优化与桌面超级应用定位">
	&lt;a class="h-a" href="#%e8%af%ad%e9%9f%b3%e8%af%8d%e5%85%b8%e4%bc%98%e5%8c%96%e4%b8%8e%e6%a1%8c%e9%9d%a2%e8%b6%85%e7%ba%a7%e5%ba%94%e7%94%a8%e5%ae%9a%e4%bd%8d">&lt;strong>语音词典优化与桌面超级应用定位&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>在桌面应用体验重塑方面，新发布的设置面板引入了语音输入自定义词典功能。用户可预先载入高频缩写与个人术语，防止语音引擎将其错误转写，从而缩短语音交互中的高频纠错时间。综合各项更新，OpenAI 正在将 Codex 的战略定位从单纯的编码指令中心，转向更具黏性的桌面级超级应用（Super-app）。结合此前报道中的 Atlas 算力布局，引入拟人化交互覆盖层、跨智能体配置可移植性以及语音辅助工具，反映出 OpenAI 将“体验趣味性”与“核心能力”置于同等优先级的战略路径。这一方向是否能在生产力场景中建立长期壁垒，仍有待市场验证。&lt;/p>&lt;p>© 2026 LLM大模型邮报 · &lt;a href="https://blogs.llmposts.com/engineering/openai-codex-pets-config-imports/">阅读原文 →&lt;/a>&lt;/p>&lt;p>本文首发于 &lt;a href="https://blogs.llmposts.com/">LLM 大模型邮报&lt;/a>。&lt;/p></description></item><item><title>OpenAI 发布 Claude Code Codex 插件 支持多模式代码审查与任务委托</title><link>https://blogs.llmposts.com/engineering/openai-codex-plugin-cc-2/</link><pubDate>Thu, 02 Apr 2026 08:25:57 +0000</pubDate><author>MISTY</author><guid>https://blogs.llmposts.com/engineering/openai-codex-plugin-cc-2/</guid><description>&lt;p>OpenAI 正式发布开源插件 codex-plugin-cc，允许 Claude Code 用户无缝调用本地 Codex 进行代码审查、对抗审查与任务委托。该插件基于 Apache-2.0 许可证发布，仓库已更新至 v1.0.4，为开发者提供了在不切换终端的前提下接入另一套代码引擎的方案。&lt;/p>

 
 
&lt;figure class="fig fig--w-text">
 
 
 
 
 
 
 
 
 
 
 
 &lt;span 
 class="img__frame img__frame--box-shadow" style="display: flex; justify-content: center; align-items: center; background-image: linear-gradient(to right, #363747, #9493a3)">
 &lt;span 
 class="img__c" style="position: relative; width: 100%; height: 0; padding-bottom: 40.0000%;"> 
 
&lt;img alt="OpenAI 发布 Claude Code Codex 插件 支持多模式代码审查与任务委托" class="img--ls img--lqip lazyload" data-optimumx="auto" data-sizes="auto" data-srcset="https://blogs.llmposts.com/img_20260503_042434_01_4221045119550906268-512x.webp 512w, https://blogs.llmposts.com/img_20260503_042434_01_4221045119550906268-562x.webp 562w, https://blogs.llmposts.com/img_20260503_042434_01_4221045119550906268-618x.webp 618w, https://blogs.llmposts.com/img_20260503_042434_01_4221045119550906268-679x.webp 679w, https://blogs.llmposts.com/img_20260503_042434_01_4221045119550906268-700x.webp 700w, https://blogs.llmposts.com/img_20260503_042434_01_4221045119550906268-746x.webp 746w, https://blogs.llmposts.com/img_20260503_042434_01_4221045119550906268-819x.webp 819w, https://blogs.llmposts.com/img_20260503_042434_01_4221045119550906268-900x.webp 900w" height="280" src="data:image/webp;base64,UklGRkYCAABXRUJQVlA4IDoCAADQFgCdASrpAF0AP0WOulaoP6esJXRMC/Yoiels3mCV2EsYzCLvdmYJvg8YK0ij7IJ0hY0ol4zZdyp1Q70K+1QQYvRqmpQH310/nYmirXXuD3+lsTQTAqOGfJGXJMiaG09P+T5SCswTID7Vq7B7m71+mzaQBelpj70wclfZhxVjzbS7hX8h/068kC31ZcZL2cn114N3fXReyPzn+TLN+1cciiYkgPC4v+w8zI2Nx4YRSxMAi++Ae92A8DVHcsDpkAD+cSvGU0v2bfyHoD860biAEk3F1Ssw/pDjbDHzO++OMShKdUIqB0Umq6DsWvVllGNImNp9NjTN9BosoQLH68K3knC/FnQZjk1NHwEBJHLVAZzO95G0DMQ8CS8RNrmQQCWZDhMSAXvMyTIAA0jamfVlDJIWnZRRlXvOAAoZv4VvQnLxjr+LRWs/wSAAAAFkeYVERKh4yknnCWd22blW7EyGnzuYi/ivWoZ/J585bTtr8WZaRey3noA/zVOYz4Mcm/QDhEt7cZlwGeXfiIC+1JYhg8io76IjiNri6qT2YQslIsFyMFRMyNcysg+w1J/iACAMWp9BfwnG5m/P/cD6I8DhCsphm3xFCQ52ZZ1m/OP44+6S7w6hWWOjBs39qDyl2c+lmAtLhLt1e2KFbUIXTpxvqm8ErD2wtX0+ozymXQ/ajRUCqUBIB8f+cns7aFZ6hlUmFgphI6UMA/2On/X1q7OCSnHfojZSdOM/7Sa8c+eloURg25aEzxgAAAA=" width="700">&lt;/span>

&lt;/span>

 
&lt;/figure>&lt;h3 id="插件架构与无状态代理原理">
	&lt;a class="h-a" href="#%e6%8f%92%e4%bb%b6%e6%9e%b6%e6%9e%84%e4%b8%8e%e6%97%a0%e7%8a%b6%e6%80%81%e4%bb%a3%e7%90%86%e5%8e%9f%e7%90%86">&lt;strong>插件架构与无状态代理原理&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>codex-plugin-cc 的核心定位是工作流集成器而非独立运行时。插件通过调用本地已安装的 Codex CLI 与 App Server 完成操作代理，直接复用用户当前的身份认证状态、仓库环境检查出与 MCP 配置。这种架构避免了重复安装与额外登录流程，使得在 Claude Code 中调用 Codex 时的环境感知保持一致。&lt;/p>
&lt;h3 id="claude-code-codex-插件-核心命令与审查场景">
	&lt;a class="h-a" href="#claude-code-codex-%e6%8f%92%e4%bb%b6-%e6%a0%b8%e5%bf%83%e5%91%bd%e4%bb%a4%e4%b8%8e%e5%ae%a1%e6%9f%a5%e5%9c%ba%e6%99%af">&lt;strong>Claude Code Codex 插件 核心命令与审查场景&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>插件提供三个核心子命令匹配不同工程阶段。&lt;/p>
&lt;p>&lt;strong>/codex:review&lt;/strong> 执行标准只读代码审查，输出质量与 Codex 内直接交互一致。该命令默认支持只读模式，不会执行代码修改。适用于未提交改动或对比分支的差异审查，可指定 &lt;strong>–base &lt;ref>&lt;/strong> 进行分支对比。&lt;/p>
&lt;p>&lt;strong>/codex:adversarial-review&lt;/strong> 为可引导的对抗性审查。插件允许在命令后附加 focus 文本，引导 Codex 针对特定风险点（如认证逻辑、数据安全、回滚策略、竞态条件等）发起压力测试。该命令适合上线前的高优先级审查，用于验证设计取舍与隐藏假设。&lt;/p>
&lt;p>&lt;strong>/codex:rescue&lt;/strong> 用于任务委托，支持调查 Bug、尝试修复或接管卡断的对话线程。该命令支持后台运行与断点续传，开发者可通过指定模型（如 &lt;strong>gpt-5.4-mini&lt;/strong> 或 &lt;strong>spark&lt;/strong>）与推理强度（medium/high）控制成本与速度。未指定参数时，Codex 自动选择默认配置。&lt;/p>
&lt;p>所有耗时较长的任务推荐配置为后台执行，配合 &lt;strong>/codex:status&lt;/strong>、&lt;strong>/codex:result&lt;/strong> 与 &lt;strong>/codex:cancel&lt;/strong> 管理进度与终止状态。&lt;/p>
&lt;h3 id="环境依赖与配置规则">
	&lt;a class="h-a" href="#%e7%8e%af%e5%a2%83%e4%be%9d%e8%b5%96%e4%b8%8e%e9%85%8d%e7%bd%ae%e8%a7%84%e5%88%99">&lt;strong>环境依赖与配置规则&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>插件运行依赖两项必要条件：ChatGPT 订阅（含免费版）或 OpenAI API Key，以及 &lt;strong>Node.js 18.18&lt;/strong> 及以上版本。&lt;/p>
&lt;p>安装后需执行 &lt;strong>/codex:setup&lt;/strong> 校验环境，缺失时提供一键安装引导。配置文件沿袭 Codex 原生规则，支持用户级 &lt;strong>~/.codex/config.toml&lt;/strong> 与项目级 &lt;strong>.codex/config.toml&lt;/strong>。开发者可在项目中配置默认模型与推理策略，例如强制使用 &lt;strong>gpt-5.4-mini&lt;/strong> 配合 high 强度，配置项在受信任的项目目录下自动加载。&lt;/p>
&lt;h3 id="可配置审查门控的潜在风险">
	&lt;a class="h-a" href="#%e5%8f%af%e9%85%8d%e7%bd%ae%e5%ae%a1%e6%9f%a5%e9%97%a8%e6%8e%a7%e7%9a%84%e6%bd%9c%e5%9c%a8%e9%a3%8e%e9%99%a9">&lt;strong>可配置审查门控的潜在风险&lt;/strong>&lt;/a>
&lt;/h3>&lt;p>插件提供 &lt;strong>–enable-review-gate&lt;/strong> 选项，启用后会在 Claude Code 会话准备退出前触发 Stop Hook，强制执行一轮针对性审查。若审查发现异常，则阻断退出流程。&lt;/p>
&lt;p>OpenAI 官方明确警告该机制存在工程副作用：可能引发长时间运行的 Claude 与 Codex 循环对话，消耗大量可用额度。官方建议仅在实际监控会话的前提下启用，并需自行平衡自动化拦截与操作效率。&lt;/p>
&lt;p>codex-plugin-cc 的发布标志着双智能体（Dual-Agent）协作策略正在进入工程化集成阶段。开发者可以通过单一终端编排两套代码引擎，利用 Claude 的上下文理解能力与 Codex 的本地执行环境形成互补。对于需要高频代码审查与后台任务委托的工作流而言，该方案提供了低延迟的串联路径；但配置审查门控时仍需控制边界，避免资源消耗失控。&lt;/p>&lt;p>© 2026 LLM大模型邮报 · &lt;a href="https://blogs.llmposts.com/engineering/openai-codex-plugin-cc-2/">阅读原文 →&lt;/a>&lt;/p>&lt;p>本文首发于 &lt;a href="https://blogs.llmposts.com/">LLM 大模型邮报&lt;/a>。&lt;/p></description></item></channel></rss>