一周爆涨2万星:DeepSeek TUI——终端里的AI编程智能体
项目速览
| 项目名 | DeepSeek TUI |
| 开发者 | Hmbown |
| 语言 | Rust(自包含二进制) |
| 星标 | ⭐ 26,922(本周+20,835) |
| 协议 | MIT |
| 定位 | 终端原生 DeepSeek V4 编程智能体 |
这是什么?
DeepSeek TUI 是一个完全运行在终端里的 AI 编程智能体。它不是另一个 API 封装层,而是一个真正意义上能接管你工作区的编程助手:
- 读写文件、运行 shell 命令
- 搜索浏览网页、管理 git
- 调度子智能体并行工作
- 连接 MCP 服务器扩展能力
- 全部通过快速、键盘驱动的 TUI 完成
和 Copilot、Cursor 这些 IDE 插件不同,DeepSeek TUI 是一个独立的自包含 CLI 工具——不依赖 Node.js、不依赖 Python、不依赖任何 IDE,一个 Rust 二进制直接跑。
核心特性
🎯 面向 DeepSeek V4 深度优化
原生支持 DeepSeek-v4-pro 和 deepseek-v4-flash 两个模型,完整支持:
- 100 万 token 上下文窗口——整个项目丢进去分析都够
- 思考模式流式输出——实时看到模型的推理过程展开
- 前缀缓存感知——自动利用缓存降低成本
- 实时成本跟踪——每轮 token 用量和费用一目了然
🤖 智能 Auto 模式
不需要手动切换模型和推理强度。启动 deepseek --model auto 后,工具会自动判断当前任务的复杂度:
- 问个简单问题 → 用 Flash + 关闭推理,又快又省
- 写代码、调试、架构设计 → 自动升级到 Pro + 高推理
- 安全审查、模糊需求 → 直接上最强配置
Auto 模式的决策是在本地完成的,API 端只收到具体的模型请求,不会暴露 "auto" 这个占位符。
🔧 三种交互模式
- Plan——只读探索模式,只看不动,适合先让AI了解项目
- Agent——默认模式,交互式操作每一步都要你批准
- YOLO——全自动模式,在信任的工作区让AI放手干
推理强度用 Shift+Tab 在 off → high → max 之间切换,随时调整。
🧠 子智能体调度
这是一个被低估但非常强大的能力。DeepSeek TUI 可以同时调度多个子智能体并行运行(默认上限10个,可配到20个):
- 非阻塞启动——父进程不需要等子进程完成
- 完成通知——子智能体结束后自动返回结构化结果
- 按需读取——大结果通过 handle 引用切片读取,不塞爆上下文
🛡️ 开发者友好设计
- 工作区回滚——每轮操作前后自动拍快照,
/restore一键恢复,不影响项目自己的 git 记录 - LSP 诊断集成——每次编辑后自动跑 rust-analyzer、pyright、typescript-language-server 等诊断,结果喂回模型做下一步推理
- 会话保存/恢复——长任务断点续传,关了终端下次接着来
- 持久化任务队列——后台任务在重启后仍然存在
- HTTP/SSE API——
deepseek serve --http提供无界面智能体流程 - MCP 协议——可以接入 Model Context Protocol 服务器扩展工具集
🌍 多提供商支持
除了 DeepSeek 官方API,还支持 Nvidia NIM、Fireworks、通用 OpenAI 兼容端点、自托管 SGLang/vLLM/Ollama 等。在中国大陆也有镜像方案,npm 加 --registry=https://registry.npmmirror.com 即可。
🗣️ 多语言 & 技能系统
- UI 支持中文、英文、日文、葡萄牙文,自动检测
- 技能系统——可从 GitHub 安装指令包,扩展特定领域能力,无需后端服务
- 用户记忆——可选的持久化笔记,跨会话偏好共享
如何安装
DeepSeek TUI 用 Rust 编写,自包含二进制,安装方式非常灵活,按你已有的工具链选一个即可:
方式一:npm(最方便)
deepseek --version
注意:npm包只是一个下载器,帮你拉对应平台的预编译Rust二进制,deepseek本身不依赖Node运行时。
方式二:Cargo
cargo install deepseek-tui --locked
方式三:Homebrew(macOS)
brew install deepseek-tui
方式四:Docker
首次启动会提示输入 DeepSeek API Key,保存在 ~/.deepseek/config.toml,后续无需重复输入。运行 deepseek doctor 可验证安装是否成功。
谁该用 DeepSeek TUI?
- 终端重度用户——Vim/Neovim、tmux、SSH 远程开发,不想切到 IDE
- DeepSeek V4 用户——想充分利用1M上下文和推理能力的开发者
- 多语言项目维护者——LSP诊断+回滚机制,大型项目也敢让AI动手
- 服务器端开发——Rust自包含二进制,无Node/Python依赖,生产环境也能跑
对比同类工具
| 特性 | DeepSeek TUI | Cursor | Claude Code | Copilot CLI |
| 模型 | DeepSeek V4 | 多模型 | Claude | GPT/Claude |
| 运行环境 | 纯终端 | IDE | 终端 | 终端 |
| 上下文 | 1M tokens | 有限 | 200K | 有限 |
| 子智能体 | ✅ 原生支持 | ❌ | 有限 | ❌ |
| 自动回滚 | ✅ side-git | ❌ | ❌ | ❌ |
| LSP诊断 | ✅ 内置 | ✅ IDE自带 | ❌ | ❌ |
| 价格 | 免费+API费 | $20/月 | 免费+API费 | $10/月 |
| 开源 | ✅ MIT | ❌ | ✅ | ❌ |
总结
DeepSeek TUI 不是一个花哨的产品,它是一个为终端开发者打造的实用工具。在 DeepSeek V4 的强大能力基础上,加了恰到好处的工程化包装——1M 上下文、思考模式、子智能体、自动回滚、LSP 诊断、MCP 接入。
如果你是每天泡在终端里的开发者,值得一试。如果你本来就用 DeepSeek V4,那更是 强烈推荐——它不是替代 Cursor 或 Copilot,而是填补了「终端原生 AI 编程 Agent」这个空白。
本周狂揽 20,000+ 星不是没有道理的。
项目地址
GitHub:github.com/Hmbown/DeepSeek-TUI
npm:npmjs.com/package/deepseek-tui
DeepSeek 官网:platform.deepseek.com

黑公网安备 23010302001359号