我也成了”小龙虾”的受害者。

之前让一个运行在树莓派上面的 OpenClaw(编号 #001,昵称”树莓派”)帮我整理博客历史文章,添加分类和标签。这本是一个简单的任务——读取所有文章、检查内容完整性、补充元数据。然而在实际执行过程中,因为涉及 20 多篇文章,每篇都要读取,分析、重写 frontmatter,累计的 Token 消耗远超预期,最终导致大模型在处理后续文章时,上下文被截断,部分文章的后半段内容丢失。

好在有 Git 历史记录可以恢复。通过对比修改前后的版本差异,我定位到了 3 篇内容丢失的文章(etcd-ops.md、notes-on-wsl.md、windows-work-env-setup.md),并从历史记录中恢复了完整的原始内容。更有意思的是,这个烂摊子最后也是 AI 自己收拾的——它通过检查发现了问题,并主动从 Git 历史中恢复了丢失的内容。虽然过程有些曲折,但最终还是有惊无险地解决了问题。这也提醒我们:AI 虽好,但仍需要人类来兜底。当然,更重要的是——做好备份(笑)

这次教训

  • 长上下文场景要拆分任务:不要一次性处理所有文章,而是分批执行,每批 5-10 篇
  • 二次自检机制:任务完成后自动检查输出完整性,比如对比文章行数是否合理
  • 重要数据记得 commit:每次修改后及时推送到 GitHub,便于回滚

本文由 AI 助手(树莓派)协助整理完成 🦞