更新日志
河蟹 AI 桌面端版本更新记录。
v0.4.0 (2026-04-18)
- 图像/视频/语音生成三件套:ImageGenComposer / VideoGenComposer / VoiceChatComposer,按模型能力自动切换,生成结果持久化到会话
- 原生保存对话框:图像下载走 Tauri dialog.save() + Rust 命令写盘,绕过 WKWebView 下载限制,默认文件名 HexClaw-yyyymmdd-hhmmss-XXXX.{ext} 避免同名冲突
- 会话持久化 403 修复:appendSessionMessage/Batch 把 user_id 放到 URL query(后端 sessionUserIDFromRequest 只读 query);修复图像生成消息重启会话后不显示的根因
- 生成模式顶栏切换:右上角 text-only chip 可从图像/视频/语音模型切回 chat 模型,不打断会话
- Apple HIG 打磨:三件套 Composer padding 12→20、gap 8→14、字号 11→13–14、圆角 10/16、0.5px 细边框、focus 0 0 0 3px 蓝光环;左下角引擎标签改为 Hexagon engine
- Ollama 预热 tag 4 级匹配:tag 精确 → base 去 tag → provider.selectedModelId → downloaded[0]
- Provider key 硬编码 Bug 治理:生成服务按 BaseURL 特征查找 Provider,解决中文 Provider name(如"智谱 AI")匹配不到的问题
- 63 条错误路径测试:cron-errors / skills-errors / mcp-errors;结构性防护测试防止裸 apiPost/apiGet 绕过 sessionPost 包装器
- 后端 hexclaw v0.4.0:批量消息事务写入 / genstore 原子 tmp+Rename / videogen singleflight+LRU / imagegen/videogen/voicechat 持久化到 file_path
v0.3.8 (2026-04-14)
- 图片生成:支持智谱 CogView-4,图片内嵌 data URI 永不过期,ai-core 新增 ImageProvider 接口
- 视频生成:支持智谱 CogVideoX-2,异步任务轮询,封面内嵌 + 视频内联播放,ai-core 新增 VideoProvider 接口
- 工具名 i18n:15 个内置工具中英文映射(code_exec → 代码沙箱 等),未映射的 MCP/自定义工具自动 fallback 原名
- 默认模型修复:普通聊天不再被默认 Agent 模型偏好覆盖,Agent 模式显示 Agent 名字来源标注
- 多行记忆修复:含换行的记忆不再被拆成多条,删除/更新/归档操作支持多行条目
- Ollama 下载优化:大模型不再超时(ResponseHeaderTimeout 替代全局 Timeout),下载状态中文化(获取模型信息/校验文件完整性/写入模型文件)
- 智能路由 UI:关闭时隐藏策略下拉框,开启后才显示
- 飞书 Reaction:从社交 emoji(💪☕🔥)改为语义精准的 Typing ⌨️ / THINKING 🤔
v0.3.7 (2026-04-13)
- 思考时长持久化:后端精确记录推理起止时间,写入 DB meta 字段,重启后保留
- 会话标题自动生成:后端在保存用户消息时自动更新默认标题,无需 LLM 依赖
- 元数据持久化:provider、model、agent_name 写入消息 meta,重启后仍显示
- ChatGPT 风格思考展示:「● 思考了 Xm Ys」折叠式展示,展开后左侧竖线
- UI 优化:助手消息去气泡、meta 信息(时间·模型·Agent)合并一行、宽度自适应
- 沙箱网络热更新:设置页开关 → API → CodeExecSkill 重建沙箱全链路打通
- 文件工具 workspace 约束:file_edit/grep/glob 限制在工作区内,防止路径逃逸
- 自我纠错循环:工具执行错误携带完整原因,LLM 可自主分析并重试
- 上下文压缩:LLM + 启发式双路径摘要,保留用户约束
- Gemma 4 thinking 支持:超时保护生效,不注入无效 /no_think
- 新增 70+ 后端测试,前端 3542 测试全绿
v0.3.6 (2026-04-11)
- 流式输出时允许向上滚动,不再被自动滚动打断
- Agent/IM UI 优化,新会话发送 bug 修复
v0.3.5 (2026-04-06)
- Ollama 自动预热:启动时自动加载第一个已下载模型,减少首次对话延迟
- 历史消息 think 标签兜底解析:从后端加载历史消息时自动剥离 <think> 标签,防止思考过程原文暴露
- MCP filesystem 动态 home 目录:安装 filesystem MCP 时自动追加用户 home 目录,兼容 macOS/Windows/Linux
- TS2532 非空断言修复:models[0] / chips[0] 等数组索引增加类型安全断言
v0.3.4 (2026-04-06)
- 侧边栏引擎版本号显示修复:监听 sidecar 就绪状态后再拉取版本信息
- 版本号统一管理:Cargo.toml / package.json / Sidebar / AboutModal 版本号同步
v0.3.3 (2026-04-06)
- 版本号展示全面更新:侧边栏、关于弹窗、系统状态页均使用 Tauri App 版本 API
- API 类型对齐:getVersion 返回类型新增 engine_version 字段
- MCP filesystem 动态 home 目录:resolveUserHome 跨平台获取用户目录
v0.3.2 (2026-04-06)
- <think> 标签兜底提取:部分模型(如智谱 glm-z1-airx)在 content 中返回思考过程,前端自动拆分到 reasoning 字段
- 对话框自适应宽度:Settings 弹窗根据内容自动调整
- Sidecar 重启重试:失败时自动重试,提升稳定性
- CI 测试健壮性:existsSync 守卫、localStorage getItem 验证、.at() → [0] 索引
v0.3.1 (2026-04-06)
- 芯片式模型选择器:替代下拉菜单,直观展示已配置模型,支持快速切换
- 动态模型发现:云端 Provider 自动拉取可用模型列表
- 210 个 TypeScript 类型错误修复 + 139 个 lint 错误修复
- 61 个失败测试修复
v0.3.0 (2026-04-05)
- MCP 市场与工具修复:工具调用链路打通,错误信息正确返回
- Skill 触发优化:关键词匹配精度提升
- Ollama 全局预热:启动后自动加载模型到内存
- Ollama 模型管理 UI:模型下载进度条、运行状态面板
v0.2.6 (2026-04-01)
- 结构化追踪日志:基于 Go slog 的 request-scoped 日志,trace_id 贯穿 WebSocket → 网关 → 引擎 → LLM 全链路,前端日志面板实时展示 trace_id + fields 标签
- 修复 SessionLock 死锁:同一会话连续发送消息不再阻塞(pipeStream 缺少 unlock 的 P0 bug)
- 修复云模型 MCP 工具调用失效:pipeStreamWithTools 丢弃 LLM 返回的 tool_calls
- 深度思考开关:聊天输入栏 Brain 图标一键切换 thinking 模式,本地 thinking 模型自动注入 /no_think
- 流式取消真正生效:WebSocket cancel 消息现在取消后端 context,不再空耗 LLM tokens
- E2E 测试体系:TypeScript + Playwright 41 项集成测试,覆盖会话/知识库/记忆/Skill/MCP/网关/流式/日志 11 大子系统
- 修复 SettingsView flaky 测试
v0.2.5 (2026-04-01)
- Thinking/Reasoning UI:流式显示 Qwen3/DeepSeek-R1 等推理模型的思考过程,支持自动展开/折叠、耗时计时、持久化
- Ollama 本地模型全链路修复:模型选择器显示本地模型、WebSocket 用户鉴权、流式超时优化
- Splash Screen 跟随系统 Light/Dark 外观,等待引擎就绪后消失
- CI 修复:release/package 工作流从 Makefile 读取 HEXCLAW_REF 锁定 sidecar 版本
- 知识库上传体验优化:选择文件后弹窗自动关闭
- 消息编辑按钮 i18n 修复 + 尺寸优化
- 移除不可用的系统状态 Tab 和麦克风按钮(Tauri WebView 不支持 Web Speech API)
- Homebrew 安装后首次聊天报错修复(sidecar 版本不匹配 + embedder nil panic)
v0.2.4 (2026-03-29)
- MCP 市场:加载 mcp-registry.json 注册表,支持按 type 过滤 skill/mcp,一键安装 MCP Server
- MCP 状态显示修复:兼容后端 servers 数组格式,正确显示"已连接"
- Sidecar PATH 注入:macOS GUI app 自动注入 Homebrew/nvm/cargo 路径,解决 npx 找不到
- MCP 默认启用:无预配 Server 时也初始化 Manager,支持动态添加
- 六轮代码审计:42 个 bug 修复 + 8 项功能补全 + 474 个新增测试(542→1016)
- 安全加固:CSP 收紧、MCP 命令白名单、知识库 zip bomb 防护、配置原子写入
- hexclaw-hub 升级到 v0.0.2
v0.2.2 (2026-03-29)
- 新增 LLM 服务商选择器(含 Logo),支持 14 家服务商,新增 6 家国产:智谱 AI、Kimi(月之暗面)、文心一言(百度)、腾讯混元、讯飞星火、MiniMax
- Ollama 一键安装流程:检测 → 安装 → 自动轮询 → 关联模型
- MCP Tab 互斥修复 + i18n 国际化补全
- macOS 一行脚本安装 + Homebrew Cask 支持
- ProviderSelect 符合 Apple HIG 规范(键盘导航、ARIA、视窗翻转)
- 新增 79 个测试(OllamaCard + ProviderSelect + McpView)
- 全量 CI lint/TS 修复(83 条 ESLint + 59 条 TS 错误 → 0)
v0.1.0-beta (2026-03-23) - 桌面端 Beta 版本
- 发布 macOS / Windows / Linux 三端桌面 Beta 安装包,并补齐首次启动向导与默认角色配置流程
- 扩展模型服务商接入能力,支持 OpenAI、DeepSeek、Anthropic、Gemini、Qwen、豆包、Ollama 与自定义兼容 OpenAI API 的 Provider
- 增强聊天工作台,支持多模型切换、Artifact 预览、文档解析、消息导出与深度研究模式
- 补齐高级能力,包括 MCP 工具接入、知识库 RAG、语义记忆、定时任务、ClawHub 技能市场、IM 通道与安全网关
v0.0.1 (2026-03-19) - 初始版本
- 多模型聊天(OpenAI / DeepSeek / Anthropic / Gemini / Qwen / Ollama)
- Agent 编排与多 Agent 会议
- 可视化工作流画布
- MCP 协议集成
- 知识库(RAG)
- 语义记忆系统
- 定时任务调度
- 安全网关
- IM 通道(飞书/钉钉/企微/微信/Slack/Discord/Telegram)
- 深度研究模式
- 三端原生运行(macOS / Windows / Linux)