快速上手 对话与会话 Agent 工作流 模型服务商 高级功能 快捷键 FAQ
河蟹 AI 文档

模型服务商

配置多个 AI 服务商,管理 API Key 和模型。

支持的服务商(共 14 家)

服务商默认地址代表模型Key 格式
OpenAIapi.openai.com/v1GPT-4o、o 系列等sk-...
DeepSeekapi.deepseek.com/v1DeepSeek 系列sk-...
Anthropicapi.anthropic.com/v1Claude 系列sk-ant-...
Google Geminigenerativelanguage.googleapis.comGemini 系列AIza...
阿里 Qwendashscope.aliyuncs.comQwen 系列sk-...
字节 Arkark.cn-beijing.volces.com豆包 / Ark 可接入模型ep-...
智谱 AIopen.bigmodel.cn/api/paas/v4GLM-4 系列sk-...
Kimi(月之暗面)api.moonshot.cn/v1Moonshot 系列sk-...
文心一言(百度)aip.baidubce.comERNIE 系列sk-...
腾讯混元hunyuan.tencentcloudapi.com混元系列sk-...
讯飞星火spark-api-open.xf-yun.com/v1Spark 系列sk-...
MiniMaxapi.minimax.chat/v1abab 系列sk-...
Ollamalocalhost:11434/v1Llama / Qwen / Mistral / DeepSeek无需
自定义用户自定义用户自定义用户自定义
说明:上表中的模型名称仅作示例。实际可用模型列表以你的服务商账号权限、地区和 Provider 返回结果为准。

添加服务商

  1. 进入 设置 → 模型服务商
  2. 点击 "添加服务商"
  3. 选择类型(OpenAI / DeepSeek / ...)
  4. 填入 API Key(安全存储在 Tauri 本地密钥库中)
  5. (可选)修改 Base URL(适用于代理或私有部署)
  6. 保存
河蟹 AI LLM 服务商设置界面
LLM 服务商设置页示意:统一管理默认模型、路由策略和各个 Provider 的模型列表与连接状态。

模型能力标识

每个模型标注了其支持的能力:

Ollama 本地部署

使用 Ollama 可以完全离线运行 AI 模型:

# 安装 Ollama
brew install ollama    # macOS
# 或访问 ollama.com 下载

# 启动并下载模型
ollama serve
ollama pull llama3.1
ollama pull qwen2.5
ollama pull deepseek-r1

在河蟹 AI 中添加 Ollama 服务商,Base URL 填 http://localhost:11434/v1,无需 API Key。

API Key 安全

安全:所有 API Key 通过 Tauri 的安全存储机制保存在操作系统密钥链中,不会以明文写入磁盘。

测试连接

每个 Provider 卡片上有 ⚡ 测试按钮,点击后会验证:

测试结果会内联显示在 Provider 卡片上(绿色 ✓ 或红色 ✕)。

自动模型选择

模型下拉列表的第一个选项是 Auto(自动选择,故障切换)。选择后:


← 工作流画布
高级功能 →

✏️ 在 GitHub 上编辑此页