Pipeline 项目管理报告

2026-03-24 · 全自主管线首日运行 · 诊断 + 修复记录

3
Pipeline 运行
1
文章产出
7
Bug 发现
6
Bug 已修

今日 Pipeline 运行

#选题人设状态耗时说明
1 How Autonomous AI Agents Become Secure... 章北海 失败 37.6min 深度调研超时 (30min limit)
2 Claude 测试接管电脑操作 章北海 失败* 71.8min Pass 2 核查超时 → 降级 Pass 1 草稿
3 Claude测试接管电脑操作 章北海 成功* 81.2min article.md 产出 (12632 bytes),配图超时导致 history 标 false

* 第3次实际产出了完整文章,但配图采集阶段超时导致引擎进程报错,history 记录为 false。已修复此 bug。

文章产出:Claude Computer Use上线

文件大小状态说明
topic_meta.json750BOK选题元数据 + 竞品角度
素材/deep_research.md1.6KB异常仅元摘要,非实际调研素材
素材/audit_report.md4.8KBOK审计报告,发现5个严重缺口
article_draft.md998B污染上次失败 run 残留的修改说明
factcheck_report.md6.8KB28条核查,7处修正,严谨
article_factchecked.md12.7KBOK修正后全文
review_report.md16.5KB全面 review + 优化建议
consensus_doc.md16.4KBOK写作/审阅 agent 共识文档
article_reviewed.md12.8KBOK经 review 后的终稿
article.md12.6KB终稿Claude Computer Use上线:技术到位,信任还差得远
article_mdnice.md13.2KBOKmdnice 排版版本
publish_guide.md3.2KBOK发布指南
images/部分封面图已生成,正文配图因 API 限额未完成

Bug 报告 & 修复记录

BUG-01 深度调研超时 已修

根因:5 轮搜索 × 600s/轮 = 50min 最低耗时 + opus 审计 + opus 补丁 → 总计 ~90min,但 pipeline 只给 30min

修复

topic_config.yaml: deep_research: model: opus → sonnet effort: high → medium timeout: 600 → 300 max_rounds: 5 → 3 daily_pipeline.py: timeout=1800 → 2400

效果:第3次运行深度调研耗时 21min(从 30min+ 超时降到 21min)

BUG-02 Pass 2 核查超时 已修

根因:Pass 2 (事实核查) 用 opus + high + WebSearch,单独一个 Pass 就耗 20min+

修复:新增 per-pass 模型配置,Pass 2 降级 sonnet + medium

engine.py: 新增 MODEL_PER_PASS + _pass_model() 机制 topic_config.yaml: write_engine: pass_model: {2: sonnet} pass_effort: {2: medium, 3: medium}

效果:Pass 2 从 20min 超时 → 12min 完成

BUG-03 Twitter @handle 被当作选题名 已修

根因clean_topic_name()@WSJ: headline...: 分割,取出 @WSJ

修复:在函数开头加正则去 Twitter 来源前缀

daily_pipeline.py: name = re.sub(r'^@[\w]+:\s*', '', name)

BUG-04 上次失败遗留文件污染新 run 已修

根因create_topic_dir()exist_ok=True 但不清理旧文件。run_write_engine() 看到 article_draft.md 就跳过,即使内容是上次失败遗留的脏数据。

修复:新增清理逻辑,重新运行时自动删除 8 类中间产物

create_topic_dir(): stale_files = [ "article_draft.md", "article_factchecked.md", "article_reviewed.md", "consensus_doc.md", "review_report.md", "factcheck_report.md", "verification_report.md", "orphaned_recommendations.md", ] # 清理上次失败遗留的中间产物

BUG-05 引擎超时 → success=false 但文章已产出 已修

根因:配图采集阶段 API 限额触发超时 → subprocess 报 TimeoutExpired → 返回 False。但 article.md 在超时前已生成完毕。

修复run_write_engine() 在 TimeoutExpired/CalledProcessError 后检查 article 是否已存在

except subprocess.TimeoutExpired: if article_file.exists() and article_file.stat().st_size > 500: log("引擎超时但文章已产出,视为成功") return True

BUG-06 Dashboard 成功率 0%(与实际不符) 已修

根因generate_dashboard.py 仅读 history.jsonl 的 success 字段(全是 false),不看文件系统

修复:新增 _is_actually_successful() 交叉验证函数,同时检查 history + 文件系统

def _is_actually_successful(h): if h.get("success"): return True td = h.get("topic_dir", "") if td: af = Path(td) / "article.md" if af.exists() and af.stat().st_size > 500: return True return False

BUG-07 deep_research.md 输出元摘要而非实际素材 待修

根因run_patch() 在审计发现缺口后被调用,但返回的是 LLM 的"我做了什么"描述而非实际补丁素材。当 patch 失败时,原始素材也未保存完整。

影响:文章写作只能靠 Pass 1 的 WebSearch 补充素材,深度不足

计划:需要检查 deep_research.pyrun_patch() 返回值处理逻辑

性能优化汇总

阶段之前之后变化
深度调研opus / 5轮 / 600ssonnet / 3轮 / 300s~90min → 21min
Pass 2 核查opus / highsonnet / medium20min+ → 12min
Pass 3 审阅opus / highopus / medium~10min → 7min
日报聚类opus (默认)sonnet (显式)超时 → ~30s
配图采集opus / highsonnet / medium减少 API 耗时
单篇总耗时~90min (频繁超时)~60min (预计)-33%
单篇成本~$8-10~$5-40%

修改文件清单

文件改动
daily_pipeline.pyPython 3.9 类型兼容 + 清理逻辑 + 超时后检查 + Twitter handle 修复
topic_config.yaml深度调研降级 + per-pass 模型配置
write_engine/engine.py新增 MODEL_PER_PASS + _pass_model() 机制
daily_digest.pyLLM 聚类加 --model sonnet
write_engine/image_collector.py默认模型 opus→sonnet, effort high→medium
generate_dashboard.py文件系统交叉验证成功率

遗留项 & 下一步

优先级项目说明
P0修复 deep_research.py run_patch() 输出元摘要 → 实际素材
P1配图采集 API 限额处理添加退避重试 + 进度保存
P1发布到草稿 (Step 6)今日未执行,需手动或下次 pipeline 补跑
P2人设多样性检查今日3次都是章北海,需启用人设轮换逻辑
P2Commit 所有优化6个文件的改动待提交