模型服务商
配置多个 AI 服务商,管理 API Key 和模型。
支持的服务商
| 服务商 | 默认地址 | 代表模型 | Key 格式 |
|---|---|---|---|
| OpenAI | api.openai.com/v1 | GPT-4o, GPT-4-Turbo, o1, o3-mini | sk-... |
| DeepSeek | api.deepseek.com/v1 | DeepSeek-V3, DeepSeek-R1 | sk-... |
| Anthropic | api.anthropic.com/v1 | Claude Sonnet 4, Opus 4, Haiku 4.5 | sk-ant-... |
| Google Gemini | generativelanguage.googleapis.com | Gemini 2.5 Flash/Pro, 2.0 Flash | AIza... |
| 阿里 Qwen | dashscope.aliyuncs.com | Qwen-Max, Qwen-Plus, Qwen-VL | sk-... |
| 字节 Ark | ark.cn-beijing.volces.com | 豆包 Pro 32k, 豆包 Vision | ep-... |
| Ollama | localhost:11434/v1 | Llama 3.1, Qwen 2.5, Mistral, DeepSeek-R1 | 无需 |
| 自定义 | 用户自定义 | 用户自定义 | 用户自定义 |
添加服务商
- 进入 设置 → 模型服务商
- 点击 "添加服务商"
- 选择类型(OpenAI / DeepSeek / ...)
- 填入 API Key(安全存储在 Tauri 本地密钥库中)
- (可选)修改 Base URL(适用于代理或私有部署)
- 保存
模型能力标识
每个模型标注了其支持的能力:
- text — 文本对话(所有模型)
- vision — 图片理解(GPT-4o、Claude、Gemini、Qwen-VL、豆包 Vision、LLaVA)
- video — 视频理解(Gemini 2.5/2.0)
- audio — 音频理解(Gemini 2.5/2.0)
- code — 代码生成(所有文本模型)
Ollama 本地部署
使用 Ollama 可以完全离线运行 AI 模型:
# 安装 Ollama
brew install ollama # macOS
# 或访问 ollama.com 下载
# 启动并下载模型
ollama serve
ollama pull llama3.1
ollama pull qwen2.5
ollama pull deepseek-r1
在 HexClaw 中添加 Ollama 服务商,Base URL 填 http://localhost:11434/v1,无需 API Key。
API Key 安全
安全:所有 API Key 通过 Tauri 的安全存储机制保存在操作系统密钥链中,不会以明文写入磁盘。