模型服务商

配置多个 AI 服务商,管理 API Key 和模型。

支持的服务商

服务商默认地址代表模型Key 格式
OpenAIapi.openai.com/v1GPT-4o, GPT-4-Turbo, o1, o3-minisk-...
DeepSeekapi.deepseek.com/v1DeepSeek-V3, DeepSeek-R1sk-...
Anthropicapi.anthropic.com/v1Claude Sonnet 4, Opus 4, Haiku 4.5sk-ant-...
Google Geminigenerativelanguage.googleapis.comGemini 2.5 Flash/Pro, 2.0 FlashAIza...
阿里 Qwendashscope.aliyuncs.comQwen-Max, Qwen-Plus, Qwen-VLsk-...
字节 Arkark.cn-beijing.volces.com豆包 Pro 32k, 豆包 Visionep-...
Ollamalocalhost:11434/v1Llama 3.1, Qwen 2.5, Mistral, DeepSeek-R1无需
自定义用户自定义用户自定义用户自定义

添加服务商

  1. 进入 设置 → 模型服务商
  2. 点击 "添加服务商"
  3. 选择类型(OpenAI / DeepSeek / ...)
  4. 填入 API Key(安全存储在 Tauri 本地密钥库中)
  5. (可选)修改 Base URL(适用于代理或私有部署)
  6. 保存

模型能力标识

每个模型标注了其支持的能力:

Ollama 本地部署

使用 Ollama 可以完全离线运行 AI 模型:

# 安装 Ollama
brew install ollama    # macOS
# 或访问 ollama.com 下载

# 启动并下载模型
ollama serve
ollama pull llama3.1
ollama pull qwen2.5
ollama pull deepseek-r1

在 HexClaw 中添加 Ollama 服务商,Base URL 填 http://localhost:11434/v1,无需 API Key。

API Key 安全

安全:所有 API Key 通过 Tauri 的安全存储机制保存在操作系统密钥链中,不会以明文写入磁盘。