Roo Code 工作流:构建一个免费、永久在线、由 LLM 驱动的开发助手

image-1752716332520140510.png


我使用纯免费方案(Gemini + OpenRouter)和一个自定义的“思考”模式进行规划,已经 24/7 全天候运行本地 Roo Code 配置N周了。本文将介绍如何复制这套配置、让其经济高效。


为什么需要这套配置#

  • 成本控制:利用免费套餐(通过 Google AI Studio 使用 Gemini,以及 OpenRouter 的免费模型),您每天可以零成本进行数千次 LLM 调用。
  • 专用模式:为每个模型分配其最擅长的任务——规划、架构、编码、调试——从而避免浪费昂贵的 token。
  • “思考”模式:一个自定义的推理代理,它能将复杂任务分解为万无一失的计划,减少反复试错。

无论您是正在构建一个 SaaS 产品的 MVP、试验 AI 驱动的新功能,还是单纯喜欢探索 LLM,本指南都将让您在 20 分钟内完成所有设置并开始运行。


1. 准备工作#

您需要准备:

  • VS Code + Roo Code 扩展
  • 一个免费的 Google AI Studio API 密钥(用于 Gemini)
  • 一个免费的 OpenRouter API 密钥(购买 10 美元积分即可享受每天 1000 次免费调用)

操作步骤

  1. 通过 VS Code 中的 Roo UI 创建一个 Gemini 的提供商配置文件(provider profile),并将您的 API 密钥粘贴到指定字段中。
  2. 对 OpenRouter 执行相同操作,或者在安装 Roo Code 扩展时直接设置 OpenRouter。Roo 的设计让这个过程非常简单!

2. 模式与模型分配#

模式 (Mode) 角色 (Role) 模型 (Model(s)) 来源 (Source)
Orchestrator 将任务分解为子任务 Gemini Google AI
Think 详细推理和边缘案例规划 Gemini Google AI
Architect 高级设计和模块大纲 DeepSeek R1 0528 OpenRouter
Code 代码片段和模块生成 DeepSeek V3 0324, Qwen3 235B, Mistral Devstal Small OpenRouter
Debug Bug 修复建议和优化 Code 模式相同 OpenRouter

专家提示:如果 DeepSeek V3 感觉响应较慢,对于直接的代码生成任务可以切换到 Qwen3。当您的提示需要更多上下文时,请使用 Devstral Small。


3. 分步设置指南#

A) 创建“思考”(Think)模式#

  1. 打开 Roo Code → 自定义模式 (Custom Modes) → 添加 “Think”。
  2. 角色 (Role):
  3. 指令 (Instructions):

B) 调整您的 Orchestrator 提示#

在您的 Orchestrator 的自定义指令中,替换第 1 步:

1. When given a complex task, break it into logical subtasks. If a subtask needs deep analysis, call `new_task` to delegate to Think mode first. Use its structured output to guide subsequent steps.

并更新第 2 步的第一句话:

2. For each subtask (directly or after using Think), use `new_task` to assign it to Architect, Code, or Debug.

C) 配置您的模式配置文件#

  1. Gemini 配置文件 → 勾选 Orchestrator + Think
  2. OpenRouter 配置文件 → 勾选 Architect, Code, Debug

4. 运行您的第一个任务#

  1. 生成产品需求文档 (PRD):让任何 LLM 帮您概述项目范围。
  2. 将 PRD 输入 Orchestrator——观察它如何委派任务:
  3. 审查与迭代:使用 Debug 模式修复任何错误,然后重复此循环。

5. QA#

问:如何降低推理成本? 答:多使用“思考”模式进行预先规划。更少的来回代码迭代意味着更少的 token 消耗。

问:这些模型是最好的吗? 答:是,也不是。市面上有更“高级”的付费模型,但这些免费模型在基准测试中表现良好,并已被证明能产生高质量的输出。它们能为您带来极高的性价比(甚至是零成本)。

问:这能取代人工输入吗? 答:不能。LLM 仍然需要高质量的提示。把它看作一个由您引导的助手。您的产品需求文档和任务描述越精确,输出结果就越好。


6. 进阶#

这仅仅是一个开始。您还可以添加许多增强功能,比如 Roo Commander 和多种 Memory Bank 策略,让 Roo 的工作效率更上一层楼。大胆尝试不同的组合,找到最适合您的工作流。