Tokeny – 桌面 AI Agent 助手应用, 你的 AI 全能搭子

AI工具集13分钟前发布 商道网
96 0 0

Tokeny是什么

Tokeny 是国产桌面 AI 助手应用,v1.0 正式发布,定位为”你的 AI 全能搭子”。与 OpenClaw 的完全自主执行不同,Tokeny 强调”协同而非委托”——AI 的每一步操作用户都能实时可见,可随时打断、调整或纠错。支持 Skill 技能系统和 MCP 插件生态,可一键安装社区技能或接入外部工具;内置 HITL 安全审批机制,高危操作需人工确认。Tokeny 聚合 DeepSeek、Kimi、通义千问、智谱 GLM、MiniMax、豆包、硅基流动等 7 家国产大模型,一个入口畅享所有。目前已支持 Windows 和 macOS 双平台,Linux 版本即将推出。

Tokeny – 桌面 AI Agent 助手应用, 你的 AI 全能搭子

Tokeny的主要功能

  • Skill 技能系统:遵循行业开放标准,AI 自动激活技能;支持社区一键安装,可输入 /命令 手动触发或让 AI 自动选择;支持粘贴 GitHub 地址安装社区技能。
  • MCP 插件生态:开放生态接入外部工具,设置界面一键添加;支持本地和远程服务,断线自动重连;所有工具由 AI 智能调用。
  • 智能 AI 对话:流畅的多轮对话体验,实时流式输出,像和真人交流一样自然。
  • 多模型支持:聚合 7 家国产大模型服务商(DeepSeek、Kimi、通义千问、智谱 GLM、MiniMax、豆包、硅基流动),一个入口畅享 50+ 模型,对中文场景优化更好。
  • 工作空间管理:文件管理 + 多格式预览,AI 与本地文件无缝协作,文件操作限制在工作空间目录内。
  • HITL 安全审批:高风险操作自动触发人工审批,提供批准、编辑、拒绝三种选择;Shell 命令逐条确认,危险操作用户说了算。
  • 实时 Token 统计:透明展示 Agent 的 Token 消耗,让推理成本可控可优化。
  • 消息队列机制:AI 执行任务时可继续输入新指令,支持按序处理或”插队”优先处理紧急事项。

Tokeny的使用要求

系统要求:Windows 10+ 或 macOS(Apple Silicon),首次使用需配置至少一个 AI 模型服务商的 API Key。

环境依赖(按需安装)

依赖项 用途 安装建议
Git 命令执行环境 Windows 用户务必安装 Git Bash
Python 3.10+ 运行 AI 生成的脚本、数据分析 官网下载,Windows 勾选「Add to PATH」
Node.js LTS MCP 工具服务、自动化脚本 官网下载安装
注意:如仅需基础对话功能,无需安装外部依赖;只有需要 AI 执行代码、运行命令、使用 MCP 工具时才需要对应环境。

模型选择建议

  • 高性能首选:Kimi K2.5、MiniMax M2.7
  • 高性价比推荐:DeepSeek V3.2(Agent 能力强且价格低)、GLM-4.7 Flash(完全免费)
  • 不推荐用于 Agent:DeepSeek-R1、QwQ 系列、Kimi K1.5(推理模型工具调用能力弱)

如何使用Tokeny

  • 安装与启动
    1. 访问Tokeny的官网 tokeny.techxh.cn ,下载对应电脑系统安装包。
    2. Windows 双击 .exe 运行安装向导;macOS 拖拽 .dmg 到 Applications。
    3. 首次启动应用自动创建本地 SQLite 数据库
  • 配置 AI 模型
    1. 点击左侧导航栏「AI 模型」进入配置页面
    2. 选择服务商(如 DeepSeek、Kimi 等)
    3. 填入 API Key 并点击「测试连接」确认有效
    4. 选择默认使用的模型
  • 环境检测(如需要使用工具)
    1. 进入「MCP → 环境检测」页面
    2. 一键检查 Node.js、Python、Git 等依赖的安装状态
    3. 如显示「未解压」,点击「初始化内置环境」等待完成
    4. 所有项目显示绿色对勾即表示环境就绪
  • 开始对话
    1. 在主界面底部输入框输入问题或任务描述
    2. 按 Enter 发送,AI 实时流式输出回复
    3. 支持多轮对话,AI 自动记住当前会话上下文
  • 使用 Skill 技能
    1. 手动触发:输入 / 查看技能列表,选择后触发(如 /deep-research 量子计算发展现状
    2. 自动路由:AI 根据对话内容自动判断激活相应技能
  • 添加 MCP 服务
    1. 进入「设置 → MCP 服务」页面
    2. 点击「添加服务」,选择接入方式(SSE/stdio/StreamableHTTP)
    3. 填入服务地址或启动命令
    4. 保存后系统自动连接并加载工具列表
  • 工作空间文件管理
    1. 在右侧面板浏览文件树、创建文件夹、上传文件
    2. AI 生成的文件自动保存在工作空间中
    3. 支持 Markdown、Word、PPT、HTML、代码、图片、视频等多格式预览
    4. 支持导出为 PDF 或 Markdown
  • 配置 IM 集成(飞书示例)
    1. 在飞书开发者后台创建自建应用(机器人类型)
    2. 获取 App ID 和 App Secret
    3. 在 Tokeny「IM」页面填入凭证信息
    4. 开启连接后,在飞书中 @ 机器人或私聊即可交互
  • 创建定时任务
    1. 进入「设置 → 定时任务」
    2. 输入自然语言指令和 Cron 表达式定义执行时间
    3. 支持启用/禁用、编辑和删除任务

Tokeny的安全是设计的一部分

当 AI 拥有文件读写和命令执行的能力时,安全问题就不是可选项。OpenClaw 赋予 AI 完整的执行权限——它可以直接操控你的电脑。对于技术熟练的用户来说这很高效,也意味着 AI 的每一个错误都可能产生真实后果。

Tokeny 从架构层面内置了 HITL(Human-in-the-Loop)审批机制

  • Shell 命令逐条审批:AI 要执行的每条命令都会暂停,展示给你确认后再运行
  • 智能风险评估:系统自动对命令进行风险分级,高危操作(如 rm -rf、chmod 777)会触发额外的安全分析
  • 文件删除二次确认:删除操作必须经过你的明确批准
  • 工作空间沙箱:AI 的文件操作(读写、删除)被限制在工作空间目录内,无法越界访问系统文件。但 Shell 命令不受沙箱约束——这正是它需要逐条审批的原因

需要连续执行大量命令时,也可以临时开启自动执行模式——是你的主动选择,而不是默认行为。

Tokeny 与 OpenClaw 的差异

两者服务的场景和人群有明显不同:

  • 交互模式:OpenClaw 通过 WhatsApp/Telegram 等聊天工具发消息给 AI,强调”随时随地远程指挥”。Tokeny 是桌面原生应用,强调”AI 就在你面前,和你一起工作”。
  • 执行策略:OpenClaw 倾向完全自主执行,适合明确的自动化任务。Tokeny 倾向人机协同,适合需要判断和决策的复杂任务。
  • 安全机制:OpenClaw 默认赋予 AI 完整执行权限。Tokeny 默认所有高风险操作需要人工审批。
  • 模型生态:OpenClaw 主要支持 Claude 和 GPT 等海外模型。Tokeny 专注国产大模型生态,7 家服务商 50+ 模型,对中文场景优化更好。
  • 部署方式:OpenClaw 需要配置网关和消息通道,有一定技术门槛。Tokeny 是桌面原生应用,无需配置服务器或消息平台。

AI Agent 的发展必然会经历从”协同”到”委托”的演进。当模型能力足够可靠、安全机制足够成熟时,完全自主的 AI 助手一定是最终形态。

但现在时机还没到。大模型仍然会犯错,仍然会产生幻觉,仍然需要人类的判断力来把关。在这个阶段,让人和 AI 高效协同,不是把一切交给 AI,是更务实的选择。

Tokeny 不追求让 AI 做所有事,而是让 AI 帮你把每件事做得更好。

© 版权声明

相关文章