从 GitHub 榜首到一行命令上手用 Rust 写的 DeepSeek-TUI成 Claude Code 平替这两年国内开发者提到 Claude Code心情复杂一方面觉得 真好用另一方面又觉得 真用不起。账号门槛、地区限制还有高昂的 API 账单让不少人只能望而却步。转机出现在 2026 年五一假期。独立开发者 Hunter BownGitHub ID Hmbown将开源项目 DeepSeek-TUI 推上 GitHub 热榜。短短几天Star 数达到 11000假期结束后直接登顶 Trending 榜首。到 5 月 8 日前后Star 数已攀升至 1.9 万出头且热度持续上升。它的定位很明确是 DeepSeek 版的 Claude Code。一匹黑马外加一句中文 谢谢DeepSeek-TUI 火了之后作者在 X 上发动态称 this has been the craziest 2 days of my life还特意用中文补了一句 鲸鱼兄弟们谢谢你们。 鲸鱼 指的是 DeepSeek其 Logo 是一头蓝鲸。配图是项目的 Star History 曲线二月到四月还处于低位进入五月后直线上升那条近乎垂直的曲线很有冲击力。一个海外开发者做完工具后主动用中文向中国社区致意这一细节本身就很有传播力。但能登上 Trending 榜首靠的还是其功能。它并非简单地将模型 API 封装成 CLI而是把 Claude Code 的工程化 Agent 能力在 DeepSeek 上重新实现还挖掘出了 DeepSeek 的特性。DeepSeek-TUI 到底是个什么东西简单来说它是用 Rust 编写、运行在终端里的编程 Agent底层运行的是 DeepSeek 刚发布不久的 V4 模型。TUI 即 Text User Interface文本用户界面意味着它没有花哨的图形窗口所有交互都在命令行完成这与 Claude Code 形态一致也符合大多数程序员的工作习惯。Rust 让它启动快、是二进制单文件且跨平台无运行时依赖。Claude Code 成名的 核心动作DeepSeek-TUI 基本都具备文件读写可直接在项目里读取、创建、修改源码。执行 shell 命令能跑测试、装依赖、起服务并将结果回灌给模型。Git 操作可查 diff、提交、切分支将版本管理纳入 Agent 工作流。网页搜索遇到不熟的报错或新 API能自行查询。子智能体Sub-agent可将大任务拆成若干子任务并行处理。MCP 协议支持能接入 Model Context Protocol 生态里的各种工具服务器扩展能力边界。到这一步它已经是一个能干活的 Agent 了。真正让它有辨识度的是以下三个针对 DeepSeek 特性的设计。它把 DeepSeek 的 私货 玩明白了思考过程流式输出看着 V4 一边想一边写DeepSeek V4 是带 思考模式 的推理模型。DeepSeek-TUI 将思考过程流式输出用户能在终端实时看到模型在改代码前的推演过程先判断问题所在再决定修改哪个文件及原因。对调试来说这是很大的体验提升。当 Agent 改错方向时用户能及时发现而不是等改完代码运行出错才察觉。默认开启 1M token 上下文长任务不断片DeepSeek-TUI 默认将上下文窗口设置为 100 万 token约相当于一本中长篇小说的体量。这意味着执行长任务时它不容易丢失上下文。老代码库重构、跨模块功能改动、边读文档边实现等场景最怕 Agent 中途 失忆。1M 上下文默认开启解决了这个问题。RLM让一个主 AI 指挥 16 个 廉价 子 AI这是项目中最有意思的设计。RLM 的思路是用一个主模型负责统筹和决策并发调度一群更便宜的子模型执行具体任务。这种模式的关键在于 DeepSeek 的价格梯度。从官方价目表可知deepseek-v4-pro1M 上下文输入缓存命中约 $0.003625 / 1M、输入缓存未命中约 $0.435 / 1M、输出约 $0.87 / 1M。deepseek-v4-flash1M 上下文输入缓存命中约 $0.0028 / 1M、输入缓存未命中约 $0.14 / 1M、输出约 $0.28 / 1M。Flash 的输出价格约为 Pro 的三分之一Pro 的输入价格缓存命中和未命中相差一百多倍这也是用户吐槽 缓存命中率 的原因。既然 Flash 更便宜就不让昂贵的 Pro 串行完成所有任务而是让 Pro 当 项目经理同时派 16 个 Flash 子任务并行工作。例如让 DeepSeek-TUI 为整个项目写文档主模型Pro负责规划文档结构、确定各模块内容、汇总和润色。16 个 Flash 子任务分别读取不同模块的源码产出初稿。主模型再将初稿合并成完整文档。原本 Pro 串行运行两小时的任务通过并发十几分钟就能完成且成本大幅降低。这是 用模型分层定价做工程优化 的典型实践即将任务按推理强度分级强推理任务交给贵模型弱推理任务批量交给便宜模型并发执行。三档操作模式 Git 快照兜底Agent 工具让人担心的是会误改项目。DeepSeek-TUI 提供了三档操作模式让用户自己控制放权程度Plan只读探索不做任何修改模型先调查并提出计划再进行操作适合接手陌生项目的初始阶段。Agent每步确认默认交互模式多步工具调用需用户审批适合日常开发。YOLO全自动放行在可信任的工作区自动批准工具调用同时维护计划和清单适合可控的批量任务。YOLO 这个名字很有黑色幽默 You Only Live Once意为人生苦短放手一搏。当然仅有模式还不够安全。DeepSeek-TUI 在工作区设置了 Git 快照每次改动都会自动保存版本出现问题可一键回滚。这在使用 YOLO 模式时尤为重要有了 后悔药用户才能放心使用。为中国用户做的那些 贴心活儿很多海外开源项目安装困难DeepSeek-TUI 在这方面做了改进发布包托管在阿里云 OSS 和腾讯云 COS 上国内下载更快捷。提供 npm 安装方式前端、Node 用户可直接使用。终端界面原生支持中文配置项中明确写明 zh-Hans。这些细节表明作者将中文用户作为核心受众而非简单翻译。上手只要一行命令最简单的上手方式是使用 npmnpm install -g deepseek-tui安装后从 DeepSeek 开放平台获取 API Key 并填入即可使用。若不想安装 Node 环境也可直接下载二进制包支持 Linux、macOS、Windows 三个平台。项目地址https://github.com/Hmbown/DeepSeek-TUI一个非科班音乐家用 AI 写了个给 AI 用的工具很多人以为作者 Hunter Bown 是资深极客其实并非如此。他本科和硕士读的是音乐教育毕业后当了三年乐队指挥之后攻读 MBA又进入法学院学习专利法。写代码在他的人生履历中出现较晚。他在个人网站上的自我介绍是 我是音乐家爱科学。DeepSeek-TUI 是通过 AI 辅助编程完成的。查看项目贡献者列表会发现仅 Claude 就提交了 150 多次代码。一个非科班出身的音乐家借助 AI 协作做出登上 GitHub Trending 榜首的工程级项目而这个项目又是为 AI 设计的编程工具这一事件很有意义。真实使用反馈好用但记得盯紧你的账单尽管工具很火但用户也提出了一些反馈对是否使用有参考价值不能自定义模型有点烦它专为 DeepSeek 打造模型选择限于 DeepSeek 的 Pro / Flash 版本暂时无法接入第三方 API 或本地模型。有人认为专为 DeepSeek 优化的 TUI随意更换模型会失去 专为 的意义。首次配置就花了 60 多块钱V4 Pro首次运行时扫描项目建立上下文会消耗较多 token。老用户经验是首配后日常工作一天只需几块钱且可根据任务难度手动选择 Flash 或 Pro简单任务用 Flash 可节省成本。缓存命中率太低费钱结合价目表可知Pro 的输入价格缓存命中和未命中相差一百多倍。执行长任务或反复修改同一批文件时关注缓存命中率有助于控制成本。总之它确实好用但 好用 和 不花钱 不能兼得。上手前需考虑预算和使用强度合理使用 Plan / Flash / 模式切换等省钱方法。写在最后DeepSeek-TUI 的意义不止是增加了一个开源工具。从内部看一个非科班人员借助 AI 协作做出登顶 Trending 的工程级项目这表明写代码的技术门槛正在重构决定能否做出成果的是想法、品味和任务拆解能力而非科班学习年限。从外部看国产模型的生态正在转变。两年前难以想象海外独立开发者会主动与中国社区共建围绕国产模型的工具现在这一情况真实发生了还伴随着一句中文的 谢谢这种双向奔赴令人欣慰。该工具已开源一行 npm install -g deepseek-tui 即可安装试用。对于被 Claude Code 价格劝退的开发者来说这是一个值得尝试的低成本替代品但要注意控制成本。