这个仓库是关于终端编程工具的笔记集合,记录了各种AI驱动的终端工具的使用方法、配置说明和最佳实践。旨在帮助开发者更好地理解和使用这些终端编程工具。这是一种由 编辑器
到 终端
开发方式的转变。
内容涵盖了:
[ 大语言模型厂商 ] Anthropic 的 Claude Code (Anthropic 估值已达到千亿美元)
[ 大语言模型厂商 ] 谷歌的 Gemini CLI (谷歌上市公司:市值几万亿)
[ 大语言模型厂商 ] 阿里巴巴 阿里云团队的 Qwen Code (源自 Gemini CLI)
[ -- ] Warp终端
[ -- ] Ampcode
[ -- ] Opencode(开源)
[ -- ] Crush
1、@anthropic-ai/claude-code https://www.npmjs.com/package/@anthropic-ai/claude-code?activeTab=versions
2、@google/gemini-cli https://www.npmjs.com/package/@google/gemini-cli?activeTab=versions
3、@qwen-code/qwen-code https://www.npmjs.com/package/@qwen-code/qwen-code?activeTab=versions
4、@charmland/crush https://www.npmjs.com/package/@charmland/crush?activeTab=versions
个人觉得 Claude Code 目前是最好的终端编程的方案。推荐使用 2 个终端来执行命令
1、Warp
2、iTerm2
Tips:有一个专门的仓库,用于收集 X 上有关 Claude Code 的精品推文 [ Awesome X Claude Code ] https://github.com/yayxs/awesome-x-claude-code
1、 切换模型的方式: /model 、--model 或者在环境变量中
2、/status 查看当前的模型
3、能力由强到弱:claude-opus-4-1-20250805、claude-opus-4-20250514、claude-sonnet-4-20250514、claude-3-7-sonnet-20250219、claude-3-5-haiku-20241022
-
Opus (杰作/巨著) 在拉丁语中,“Opus” 意为“作品”,尤指重要的、大规模的艺术或音乐创作,常用来指代大师的“杰作”或“巨著”。
-
Sonnet (十四行诗) Sonnet” 是一种结构严谨的抒情诗体,通常有14行 常用于表达爱情、美感或哲理。
-
Haiku (俳句) “Haiku” 是一种日本古典短诗,通常由三句十七音组成(按5-7-5的音节排列)。
4、20美元的是不能使用 opus 的
5、切换模型:
claude --model claude-opus-4-1-20250805
claude --model claude-opus-4-20250514
claude --model claude-sonnet-4-20250514
claude --model claude-3-7-sonnet-20250219
claude --model claude-3-5-haiku-20241022
6、价格的选择
-
pro 20美元 一个月 用不了最强的 opus
-
max 100 美元 5倍 的 pro
-
max 200 美元 20倍 的 pro
找到 ~/.claude/settings.json 并且打开
说正题:Claude Code + Kimi 怎么配置?怎么搞?很简单,没心智负担。
[ 1 ] 你已经安装了 Claude Code ,如果你没安装你用个啥。
[ 2 ] 你的Claude Code 没充值,或者到期了,你都买了20美元的Pro,你为啥使用 Kimi K2。
[ 3 ] 你得充值一下 Kimi , 充个50元人民币吧,先用着,慢,没事,先用着。
[ 4 ] 找一下你的key ,这是 env.ANTHROPIC_AUTH_TOKEN 的值
[ 5 ] 找一下 base URL 的值,我去,你在月之暗面的哪个域名下买的,你就用哪个啊base URL 啊。人家两个域名呢: https://api.moonshot.ai/anthropic https://api.moonshot.cn/anthropic 这个是 env.ANTHROPIC_BASE_URL 值。
[ 6 ] 找到 CC 的配置文件 ~/.claude/settings.json 配置进去就行了呀。
Claude Code 的本质是一个 npm 的包。如果你对趋势感兴趣可以在下述网站查阅安装趋势
- https://npmjs.com/package/@anthropic-ai/claude-code?activeTab=versions
- https://npmtrends.com/@anthropic-ai/claude-code
- https://npm-stat.com/charts.html?package=%40anthropic-ai%2Fclaude-code&from=2025-02-23&to=2025-07-05
- https://npmcharts.com/compare/@anthropic-ai/claude-code?interval=1&log=false
在2025年06月25的时候,谷歌发了 Gemini CLI。虽然谷歌这一路走的很飘逸:在AI编程的这个产品方向上一会又是在浏览器中的,一会又在终端的,一会又是插件呢,一会又扩展。不过作为Claude Code 竞品,不发也不行。
因为是终端操作,所以终端记得代理一下,然后代理节点开一下。因为是npm 包,你需要在终端执行:
npm install -g @google/gemini-cli@latest。
有的小伙伴可能不是前端,我来解释一下:
npm 是个Node.js 的官方的包管理 https://nodejs.org/en/learn/getting-started/an-introduction-to-the-npm-package-manager install 安装 ,-g 是全局安装的意思, @latest 总是安装最新的就好
@google/gemini-cli 是一个包https://npmjs.com/package/@google/gemini-cli?activeTab=versions
接着你执行 gemini 。可能Gemini 登录的时候有问题。 echo 'export GOOGLE_CLOUD_PROJECT="你的ID"' >> ~/.bashrc
把GOOGLE_CLOUD_PROJECT写到环境变量中即可。
主要是执行一些翻译任务。不仅仅是代码。
第一性原理:您并不是在使用 Amp——您是在直接与模型对话
系统看过阿里的文档就知道:一直以来都有个代码模型:[通义千问Coder] 那么这次最新的更新是:稳定版是qwen3-coder-plus,快照版是qwen3-coder-plus-2025-07-22。
- qwen3-coder-plus 的能力 等于 qwen3-coder-plus-2025-07-22
- 每日 2,000 次请求
- 每分钟 60 次请求的速率限制
- 在解析器级别进行适配,以更好地支持 Qwen-Coder 模型
备注:早期的配置还是有点麻烦的,现在官方直接提供了 OAuth 认证。
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"moonshot": {
"npm": "@ai-sdk/openai-compatible",
"name": "Moonshot AI",
"options": {
"baseURL": "https://api.moonshot.cn/v1",
"apiKey":"sk-xxxxx"
},
"models": {
"kimi-k2-turbo-preview": {
"name": "Kimi K2 Turbo"
}
}
}
}
}
可以直接访问 https://docs.warp.dev/ 然后右下角 Ask Kapa AI
输入 “terminal 与 agent 与 anto detection 什么区别”
Terminal:传统命令行界面,执行 shell 命令。
Agent:AI 协作者,理解自然语言,自动执行和修正多步任务。
Auto-detection:本地检测输入内容,自动在 terminal 和 agent 模式间切换。
Amp 是 Sourcegraph 构建的一个代理式编码工具。an agentic coding tool
npm install -g @sourcegraph/amp@latest
Crush 的默认模型列表由 Catwalk 管理。如果是 Crush + GLM 的配置如下:
{
"name": "Z.AI",
"id": "zai",
"api_key": "$ZAI_API_KEY",
"api_endpoint": "https://api.z.ai/api/paas/v4",
"type": "openai",
"default_large_model_id": "glm-4.5",
"default_small_model_id": "glm-4.5-air",
"models": [
{
"id": "glm-4.5",
"name": "GLM-4.5",
"cost_per_1m_in": 0.6,
"cost_per_1m_out": 2.2,
"cost_per_1m_in_cached": 0.11,
"cost_per_1m_out_cached": 0,
"context_window": 131072,
"default_max_tokens": 98304,
"can_reason": true,
"has_reasoning_efforts": false,
"supports_attachments": false
},
{
"id": "glm-4.5-air",
"name": "GLM-4.5-Air",
"cost_per_1m_in": 0.2,
"cost_per_1m_out": 1.1,
"cost_per_1m_in_cached": 0.03,
"context_window": 131072,
"default_max_tokens": 98304,
"can_reason": true,
"has_reasoning_efforts": false,
"supports_attachments": false
}
]
}