Roo Code 工作流:构建一个免费、永久在线、由 LLM 驱动的开发助手
我使用纯免费方案(Gemini + OpenRouter)和一个自定义的“思考”模式进行规划,已经 24/7 全天候运行本地 Roo Code 配置N周了。本文将介绍如何复制这套配置、让其经济高效。
为什么需要这套配置#
- 成本控制:利用免费套餐(通过 Google AI Studio 使用 Gemini,以及 OpenRouter 的免费模型),您每天可以零成本进行数千次 LLM 调用。
- 专用模式:为每个模型分配其最擅长的任务——规划、架构、编码、调试——从而避免浪费昂贵的 token。
- “思考”模式:一个自定义的推理代理,它能将复杂任务分解为万无一失的计划,减少反复试错。
无论您是正在构建一个 SaaS 产品的 MVP、试验 AI 驱动的新功能,还是单纯喜欢探索 LLM,本指南都将让您在 20 分钟内完成所有设置并开始运行。
1. 准备工作#
您需要准备:
- VS Code + Roo Code 扩展
- 一个免费的 Google AI Studio API 密钥(用于 Gemini)
- 一个免费的 OpenRouter API 密钥(购买 10 美元积分即可享受每天 1000 次免费调用)
操作步骤:
- 通过 VS Code 中的 Roo UI 创建一个 Gemini 的提供商配置文件(provider profile),并将您的 API 密钥粘贴到指定字段中。
- 对 OpenRouter 执行相同操作,或者在安装 Roo Code 扩展时直接设置 OpenRouter。Roo 的设计让这个过程非常简单!
2. 模式与模型分配#
模式 (Mode) | 角色 (Role) | 模型 (Model(s)) | 来源 (Source) |
---|---|---|---|
Orchestrator | 将任务分解为子任务 | Gemini |
Google AI |
Think | 详细推理和边缘案例规划 | Gemini |
Google AI |
Architect | 高级设计和模块大纲 | DeepSeek R1 0528 |
OpenRouter |
Code | 代码片段和模块生成 | DeepSeek V3 0324 , Qwen3 235B , Mistral Devstal Small |
OpenRouter |
Debug | Bug 修复建议和优化 | 与 Code 模式相同 |
OpenRouter |
专家提示:如果 DeepSeek V3 感觉响应较慢,对于直接的代码生成任务可以切换到 Qwen3。当您的提示需要更多上下文时,请使用 Devstral Small。
3. 分步设置指南#
A) 创建“思考”(Think)模式#
- 打开 Roo Code → 自定义模式 (Custom Modes) → 添加 “Think”。
- 角色 (Role):
- 指令 (Instructions):
B) 调整您的 Orchestrator 提示#
在您的 Orchestrator 的自定义指令中,替换第 1 步:
1. When given a complex task, break it into logical subtasks. If a subtask needs deep analysis, call `new_task` to delegate to “Think” mode first. Use its structured output to guide subsequent steps.
并更新第 2 步的第一句话:
2. For each subtask (directly or after using “Think”), use `new_task` to assign it to Architect, Code, or Debug.
C) 配置您的模式配置文件#
- Gemini 配置文件 → 勾选
Orchestrator
+Think
- OpenRouter 配置文件 → 勾选
Architect
,Code
,Debug
4. 运行您的第一个任务#
- 生成产品需求文档 (PRD):让任何 LLM 帮您概述项目范围。
- 将 PRD 输入 Orchestrator——观察它如何委派任务:
- 审查与迭代:使用 Debug 模式修复任何错误,然后重复此循环。
5. QA#
问:如何降低推理成本? 答:多使用“思考”模式进行预先规划。更少的来回代码迭代意味着更少的 token 消耗。
问:这些模型是最好的吗? 答:是,也不是。市面上有更“高级”的付费模型,但这些免费模型在基准测试中表现良好,并已被证明能产生高质量的输出。它们能为您带来极高的性价比(甚至是零成本)。
问:这能取代人工输入吗? 答:不能。LLM 仍然需要高质量的提示。把它看作一个由您引导的助手。您的产品需求文档和任务描述越精确,输出结果就越好。
6. 进阶#
这仅仅是一个开始。您还可以添加许多增强功能,比如 Roo Commander 和多种 Memory Bank 策略,让 Roo 的工作效率更上一层楼。大胆尝试不同的组合,找到最适合您的工作流。