不断补充的例子(持续更新留档)
背景
OpenAI 的 Deep Search 功能发布后,很多人打呼「一个月 200刀太值了」。
在比较了几个 Deep Search 产出的报告后,也参考了诸如 GPT-Research 等工具的工作思路后,发现这事儿似乎并不应该这么「昂贵」。
拍脑袋设计
设计很简单:
- 让 AI 自己想清楚研究主题,并生成一个研究计划。
- 然后执行这个计划,收集资料文献
- 然后整理和读取这些文献,生成报告
下图是 GPT Researcher 的设计
落地设计
落地会稍微复杂一点,因为要解决一些实际上的困难,如 Token 的限制,比如网上中文信息和英文信息质量差异等,比如各类不同 AI 模型的表现稍微不同。
于是增加了:
- 先把用户 Query 翻译成英文,以便所有信息来源使用英文世界的
- 因为无论是 AI 调用还是搜索都使用付费接口,所以过程数据需要持久化,以便「断点续传」,节约成本。
- 不同的场景使用不同的 AI,降低成本
- 材料需要先一次汇总和梳理,降低幻觉
- 最终输出的报告使用的语言用户可以指定
实现
- 95% 的代码由字节国际发布的 Trae AI Coding IDE 完成。
- 但需要自己设计模块,并按照模块,一块一块的用提示词指导,不可能一蹴而就。
- 看了一下历史,交互大概三十来次而已。
- Trae 当前免费,使用 Sonnet 3.5,免费的就是无敌。
- 最终,AI 网关使用 OpenRouter 家的,因为需要 Gemini 的 2M 上下文能力。思考和编写使用 DeepSeek-R1,每次报告总成本大概 1.5 人民币左右。
- 搜索使用 Tavily,每月免费 1000 个 Token,每个报告平均需要 100 个 Token,折合人民币 5 元左右。
例子
最后
鞠躬感谢 AI 时代。
还在整理和拓展代码,晚些才能开源出来(现在还在 IDE 里面跑)。