2026-03-24 · 全自主管线首日运行 · 诊断 + 修复记录
| # | 选题 | 人设 | 状态 | 耗时 | 说明 |
|---|---|---|---|---|---|
| 1 | How Autonomous AI Agents Become Secure... | 章北海 | 失败 | 37.6min | 深度调研超时 (30min limit) |
| 2 | Claude 测试接管电脑操作 | 章北海 | 失败* | 71.8min | Pass 2 核查超时 → 降级 Pass 1 草稿 |
| 3 | Claude测试接管电脑操作 | 章北海 | 成功* | 81.2min | article.md 产出 (12632 bytes),配图超时导致 history 标 false |
* 第3次实际产出了完整文章,但配图采集阶段超时导致引擎进程报错,history 记录为 false。已修复此 bug。
| 文件 | 大小 | 状态 | 说明 |
|---|---|---|---|
| topic_meta.json | 750B | OK | 选题元数据 + 竞品角度 |
| 素材/deep_research.md | 1.6KB | 异常 | 仅元摘要,非实际调研素材 |
| 素材/audit_report.md | 4.8KB | OK | 审计报告,发现5个严重缺口 |
| article_draft.md | 998B | 污染 | 上次失败 run 残留的修改说明 |
| factcheck_report.md | 6.8KB | 优 | 28条核查,7处修正,严谨 |
| article_factchecked.md | 12.7KB | OK | 修正后全文 |
| review_report.md | 16.5KB | 优 | 全面 review + 优化建议 |
| consensus_doc.md | 16.4KB | OK | 写作/审阅 agent 共识文档 |
| article_reviewed.md | 12.8KB | OK | 经 review 后的终稿 |
| article.md | 12.6KB | 终稿 | Claude Computer Use上线:技术到位,信任还差得远 |
| article_mdnice.md | 13.2KB | OK | mdnice 排版版本 |
| publish_guide.md | 3.2KB | OK | 发布指南 |
| images/ | — | 部分 | 封面图已生成,正文配图因 API 限额未完成 |
根因:5 轮搜索 × 600s/轮 = 50min 最低耗时 + opus 审计 + opus 补丁 → 总计 ~90min,但 pipeline 只给 30min
修复:
效果:第3次运行深度调研耗时 21min(从 30min+ 超时降到 21min)
根因:Pass 2 (事实核查) 用 opus + high + WebSearch,单独一个 Pass 就耗 20min+
修复:新增 per-pass 模型配置,Pass 2 降级 sonnet + medium
效果:Pass 2 从 20min 超时 → 12min 完成
根因:clean_topic_name() 对 @WSJ: headline... 按 : 分割,取出 @WSJ
修复:在函数开头加正则去 Twitter 来源前缀
根因:create_topic_dir() 用 exist_ok=True 但不清理旧文件。run_write_engine() 看到 article_draft.md 就跳过,即使内容是上次失败遗留的脏数据。
修复:新增清理逻辑,重新运行时自动删除 8 类中间产物
根因:配图采集阶段 API 限额触发超时 → subprocess 报 TimeoutExpired → 返回 False。但 article.md 在超时前已生成完毕。
修复:run_write_engine() 在 TimeoutExpired/CalledProcessError 后检查 article 是否已存在
根因:generate_dashboard.py 仅读 history.jsonl 的 success 字段(全是 false),不看文件系统
修复:新增 _is_actually_successful() 交叉验证函数,同时检查 history + 文件系统
根因:run_patch() 在审计发现缺口后被调用,但返回的是 LLM 的"我做了什么"描述而非实际补丁素材。当 patch 失败时,原始素材也未保存完整。
影响:文章写作只能靠 Pass 1 的 WebSearch 补充素材,深度不足
计划:需要检查 deep_research.py 的 run_patch() 返回值处理逻辑
| 阶段 | 之前 | 之后 | 变化 |
|---|---|---|---|
| 深度调研 | opus / 5轮 / 600s | sonnet / 3轮 / 300s | ~90min → 21min |
| Pass 2 核查 | opus / high | sonnet / medium | 20min+ → 12min |
| Pass 3 审阅 | opus / high | opus / medium | ~10min → 7min |
| 日报聚类 | opus (默认) | sonnet (显式) | 超时 → ~30s |
| 配图采集 | opus / high | sonnet / medium | 减少 API 耗时 |
| 单篇总耗时 | ~90min (频繁超时) | ~60min (预计) | -33% |
| 单篇成本 | ~$8-10 | ~$5 | -40% |
| 文件 | 改动 |
|---|---|
| daily_pipeline.py | Python 3.9 类型兼容 + 清理逻辑 + 超时后检查 + Twitter handle 修复 |
| topic_config.yaml | 深度调研降级 + per-pass 模型配置 |
| write_engine/engine.py | 新增 MODEL_PER_PASS + _pass_model() 机制 |
| daily_digest.py | LLM 聚类加 --model sonnet |
| write_engine/image_collector.py | 默认模型 opus→sonnet, effort high→medium |
| generate_dashboard.py | 文件系统交叉验证成功率 |
| 优先级 | 项目 | 说明 |
|---|---|---|
| P0 | 修复 deep_research.py run_patch() 输出 | 元摘要 → 实际素材 |
| P1 | 配图采集 API 限额处理 | 添加退避重试 + 进度保存 |
| P1 | 发布到草稿 (Step 6) | 今日未执行,需手动或下次 pipeline 补跑 |
| P2 | 人设多样性检查 | 今日3次都是章北海,需启用人设轮换逻辑 |
| P2 | Commit 所有优化 | 6个文件的改动待提交 |