Tokeny是什么
Tokeny 是国产桌面 AI 助手应用,v1.0 正式发布,定位为”你的 AI 全能搭子”。与 OpenClaw 的完全自主执行不同,Tokeny 强调”协同而非委托”——AI 的每一步操作用户都能实时可见,可随时打断、调整或纠错。支持 Skill 技能系统和 MCP 插件生态,可一键安装社区技能或接入外部工具;内置 HITL 安全审批机制,高危操作需人工确认。Tokeny 聚合 DeepSeek、Kimi、通义千问、智谱 GLM、MiniMax、豆包、硅基流动等 7 家国产大模型,一个入口畅享所有。目前已支持 Windows 和 macOS 双平台,Linux 版本即将推出。
Tokeny的主要功能
-
Skill 技能系统:遵循行业开放标准,AI 自动激活技能;支持社区一键安装,可输入
/命令手动触发或让 AI 自动选择;支持粘贴 GitHub 地址安装社区技能。 -
MCP 插件生态:开放生态接入外部工具,设置界面一键添加;支持本地和远程服务,断线自动重连;所有工具由 AI 智能调用。
-
智能 AI 对话:流畅的多轮对话体验,实时流式输出,像和真人交流一样自然。
-
多模型支持:聚合 7 家国产大模型服务商(DeepSeek、Kimi、通义千问、智谱 GLM、MiniMax、豆包、硅基流动),一个入口畅享 50+ 模型,对中文场景优化更好。
-
工作空间管理:文件管理 + 多格式预览,AI 与本地文件无缝协作,文件操作限制在工作空间目录内。
-
HITL 安全审批:高风险操作自动触发人工审批,提供批准、编辑、拒绝三种选择;Shell 命令逐条确认,危险操作用户说了算。
-
实时 Token 统计:透明展示 Agent 的 Token 消耗,让推理成本可控可优化。
-
消息队列机制:AI 执行任务时可继续输入新指令,支持按序处理或”插队”优先处理紧急事项。
Tokeny的使用要求
系统要求:Windows 10+ 或 macOS(Apple Silicon),首次使用需配置至少一个 AI 模型服务商的 API Key。
环境依赖(按需安装)
| 依赖项 | 用途 | 安装建议 |
|---|---|---|
| Git | 命令执行环境 | Windows 用户务必安装 Git Bash |
| Python 3.10+ | 运行 AI 生成的脚本、数据分析 | 官网下载,Windows 勾选「Add to PATH」 |
| Node.js LTS | MCP 工具服务、自动化脚本 | 官网下载安装 |
模型选择建议
-
高性能首选:Kimi K2.5、MiniMax M2.7
-
高性价比推荐:DeepSeek V3.2(Agent 能力强且价格低)、GLM-4.7 Flash(完全免费)
-
不推荐用于 Agent:DeepSeek-R1、QwQ 系列、Kimi K1.5(推理模型工具调用能力弱)
如何使用Tokeny
- 安装与启动:
- 访问Tokeny的官网 tokeny.techxh.cn ,下载对应电脑系统安装包。
- Windows 双击 .exe 运行安装向导;macOS 拖拽 .dmg 到 Applications。
- 首次启动应用自动创建本地 SQLite 数据库
- 配置 AI 模型:
- 点击左侧导航栏「AI 模型」进入配置页面
- 选择服务商(如 DeepSeek、Kimi 等)
- 填入 API Key 并点击「测试连接」确认有效
- 选择默认使用的模型
- 环境检测(如需要使用工具)
-
-
进入「MCP → 环境检测」页面
-
一键检查 Node.js、Python、Git 等依赖的安装状态
-
如显示「未解压」,点击「初始化内置环境」等待完成
-
所有项目显示绿色对勾即表示环境就绪
-
- 开始对话
-
-
在主界面底部输入框输入问题或任务描述
-
按 Enter 发送,AI 实时流式输出回复
-
支持多轮对话,AI 自动记住当前会话上下文
-
- 使用 Skill 技能
-
手动触发:输入
/查看技能列表,选择后触发(如/deep-research 量子计算发展现状) -
自动路由:AI 根据对话内容自动判断激活相应技能
-
- 添加 MCP 服务
-
-
进入「设置 → MCP 服务」页面
-
点击「添加服务」,选择接入方式(SSE/stdio/StreamableHTTP)
-
填入服务地址或启动命令
-
保存后系统自动连接并加载工具列表
-
- 工作空间文件管理
-
-
在右侧面板浏览文件树、创建文件夹、上传文件
-
AI 生成的文件自动保存在工作空间中
-
支持 Markdown、Word、PPT、HTML、代码、图片、视频等多格式预览
-
支持导出为 PDF 或 Markdown
-
- 配置 IM 集成(飞书示例)
-
-
在飞书开发者后台创建自建应用(机器人类型)
-
获取 App ID 和 App Secret
-
在 Tokeny「IM」页面填入凭证信息
-
开启连接后,在飞书中 @ 机器人或私聊即可交互
-
- 创建定时任务
-
-
进入「设置 → 定时任务」
-
输入自然语言指令和 Cron 表达式定义执行时间
-
支持启用/禁用、编辑和删除任务
-
Tokeny的安全是设计的一部分
当 AI 拥有文件读写和命令执行的能力时,安全问题就不是可选项。OpenClaw 赋予 AI 完整的执行权限——它可以直接操控你的电脑。对于技术熟练的用户来说这很高效,也意味着 AI 的每一个错误都可能产生真实后果。
Tokeny 从架构层面内置了 HITL(Human-in-the-Loop)审批机制:
- Shell 命令逐条审批:AI 要执行的每条命令都会暂停,展示给你确认后再运行
- 智能风险评估:系统自动对命令进行风险分级,高危操作(如 rm -rf、chmod 777)会触发额外的安全分析
- 文件删除二次确认:删除操作必须经过你的明确批准
- 工作空间沙箱:AI 的文件操作(读写、删除)被限制在工作空间目录内,无法越界访问系统文件。但 Shell 命令不受沙箱约束——这正是它需要逐条审批的原因
需要连续执行大量命令时,也可以临时开启自动执行模式——是你的主动选择,而不是默认行为。
Tokeny 与 OpenClaw 的差异
两者服务的场景和人群有明显不同:
- 交互模式:OpenClaw 通过 WhatsApp/Telegram 等聊天工具发消息给 AI,强调”随时随地远程指挥”。Tokeny 是桌面原生应用,强调”AI 就在你面前,和你一起工作”。
- 执行策略:OpenClaw 倾向完全自主执行,适合明确的自动化任务。Tokeny 倾向人机协同,适合需要判断和决策的复杂任务。
- 安全机制:OpenClaw 默认赋予 AI 完整执行权限。Tokeny 默认所有高风险操作需要人工审批。
- 模型生态:OpenClaw 主要支持 Claude 和 GPT 等海外模型。Tokeny 专注国产大模型生态,7 家服务商 50+ 模型,对中文场景优化更好。
- 部署方式:OpenClaw 需要配置网关和消息通道,有一定技术门槛。Tokeny 是桌面原生应用,无需配置服务器或消息平台。
AI Agent 的发展必然会经历从”协同”到”委托”的演进。当模型能力足够可靠、安全机制足够成熟时,完全自主的 AI 助手一定是最终形态。
但现在时机还没到。大模型仍然会犯错,仍然会产生幻觉,仍然需要人类的判断力来把关。在这个阶段,让人和 AI 高效协同,不是把一切交给 AI,是更务实的选择。
Tokeny 不追求让 AI 做所有事,而是让 AI 帮你把每件事做得更好。