Qwen Code:阿里开源终端AI编程Agent,中国开发者自己的Claude Code
你是不是也受够了这些烦心事? 写代码写到一半,突然忘了这个项目的目录结构是怎么组织的,翻半天找不到文件。改个小bug,结果牵一发动全身,改完这边那边又崩了。想用AI编程助手吧,Claude Code要海外信用卡,Codex CLI也是全英文文档,国内开发者用起来各种不顺手。 如果你有上面任
你是不是也受够了这些烦心事?
写代码写到一半,突然忘了这个项目的目录结构是怎么组织的,翻半天找不到文件。改个小bug,结果牵一发动全身,改完这边那边又崩了。想用AI编程助手吧,Claude Code要海外信用卡,Codex CLI也是全英文文档,国内开发者用起来各种不顺手。
如果你有上面任何一个烦恼,今天介绍的Qwen Code可能就是你一直在找的东西——它是阿里通义千问团队开源的终端AI编程Agent,专门为中文开发者优化,而且支持国内云服务直连,不需要翻墙就能用。
Qwen Code是什么?
Qwen Code是阿里巴巴通义千问团队开源的一款终端AI编程Agent,你可以把它理解成"中国版Claude Code"。它运行在你的命令行里,能够读懂你的整个代码库,帮你写代码、改bug、重构项目、生成测试,基本上程序员日常干的活它都能搭把手。
最关键的是,Qwen Code底层驱动模型是通义千问自家的Qwen3-Coder系列,不需要依赖海外的API服务。同时它也兼容OpenAI、Anthropic、Google Gemini等主流协议,想用什么模型都可以。
项目地址: https://github.com/QwenLM/qwen-code
核心功能一览
- 代码库理解:把整个项目喂给它,它帮你梳理结构、理解逻辑、回答问题
- 代码生成与修改:直接告诉它"帮我加一个用户登录功能",它就能动手写
- Bug修复:粘贴报错信息,它帮你定位问题并修复
- 代码重构:让它优化你的代码结构,提升可读性和性能
- 测试生成:一键给你的模块生成单元测试
- Skills技能系统:内置可扩展的技能框架,能让AI执行更复杂的编程工作流
- SubAgent子Agent:支持启动子Agent协作完成任务,适合复杂项目
- IDE集成:支持VS Code、Zed、JetBrains全家桶
- 多协议支持:同时支持OpenAI、Anthropic、Gemini、Vertex AI协议
- 本地模型:支持Ollama和vLLM跑本地模型,完全离线也能用
- SDK扩展:提供TypeScript、Python、Java三种SDK,方便二次开发
安装步骤(手把手教)
Mac / Linux安装
方式一:一键安装脚本(推荐)
打开终端,粘贴这条命令:
bash -c "$(curl -fsSL https://qwen-code-assets.oss-cn-hangzhou.aliyuncs.com/installation/install-qwen.sh)"脚本会自动下载安装Qwen Code和依赖,装完之后重启终端就能用了。
方式二:用Homebrew装
brew install qwen-code方式三:用NPM手动装
前提:你的电脑需要有Node.js 20以上版本。没有的话先去nodejs.org下载。
npm install -g @qwen-code/qwen-code@latestWindows安装
用管理员身份打开PowerShell,粘贴这条命令:
powershell -Command "Invoke-WebRequest 'https://qwen-code-assets.oss-cn-hangzhou.aliyuncs.com/installation/install-qwen.bat' -OutFile (Join-Path $env:TEMP 'install-qwen.bat'); & (Join-Path $env:TEMP 'install-qwen.bat')"装完重启终端。
验证安装
qwen --version看到版本号就说明装好了。
配置模型(关键步骤!)
Qwen Code本身是个框架,需要连接大模型才能工作。下面教你怎么配置。
方案一:用阿里云百炼平台(最推荐,国内直连)
这是最省心的方式,阿里云百炼平台提供Qwen3.6-Plus等模型,国内网络直连,不需要翻墙。
第一步:去阿里云百炼控制台注册账号,获取API Key。
第二步:创建配置文件 ~/.qwen/settings.json(没有这个文件就新建一个):
{
"modelProviders": {
"openai": [
{
"id": "qwen3.6-plus",
"name": "qwen3.6-plus",
"baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
"description": "Qwen3-Coder via Dashscope",
"envKey": "DASHSCOPE_API_KEY"
}
]
},
"env": {
"DASHSCOPE_API_KEY": "你的API Key"
},
"security": {
"auth": {
"selectedType": "openai"
}
},
"model": {
"name": "qwen3.6-plus"
}
}第三步:设置环境变量(可选,但更安全):
export DASHSCOPE_API_KEY="你的API Key"把这一行加到你的 ~/.zshrc 或 ~/.bashrc 里,这样每次开终端都自动加载。
方案二:用阿里云编程套餐(固定月费)
如果你用量比较大,编程套餐更划算,每月固定费用,额度更高。
去阿里云编程套餐页面订阅,然后获取专属API Key,配置文件跟上面类似,只是把 baseUrl 换成:
"baseUrl": "https://coding.dashscope.aliyuncs.com/v1"编程套餐还支持GLM-4.7、Kimi-K2.5等第三方模型,一个套餐切换多个模型。
方案三:用本地模型省钱又省网
如果你有自己的显卡(推荐8GB显存以上),可以用Ollama跑本地模型,完全离线使用:
第一步:安装Ollama
# Mac/Linux
curl -fsSL https://ollama.com/install.sh | sh
# 拉取Qwen3模型
ollama pull qwen3:32b第二步:配置 ~/.qwen/settings.json
{
"modelProviders": {
"openai": [
{
"id": "qwen3:32b",
"name": "Qwen3 32B (Ollama)",
"baseUrl": "http://localhost:11434/v1",
"description": "Qwen3 32B running locally via Ollama"
}
]
},
"security": {
"auth": {
"selectedType": "openai"
}
},
"model": {
"name": "qwen3:32b"
}
}注意:本地运行不需要API Key,但模型质量比云端Qwen3.6-Plus要低一些。
方案四:同时用多个模型
如果你想同时用多个模型,随时切换,可以这样配置:
{
"modelProviders": {
"openai": [
{
"id": "qwen3.6-plus",
"name": "Qwen3.6-Plus",
"baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
"envKey": "DASHSCOPE_API_KEY"
},
{
"id": "gpt-4o",
"name": "GPT-4o",
"envKey": "OPENAI_API_KEY",
"baseUrl": "https://api.openai.com/v1"
}
],
"anthropic": [
{
"id": "claude-sonnet-4-20250514",
"name": "Claude Sonnet 4",
"envKey": "ANTHROPIC_API_KEY"
}
]
},
"security": {
"auth": {
"selectedType": "openai"
}
},
"model": {
"name": "qwen3.6-plus"
}
}在Qwen Code里用 /model 命令就能随时切换模型。
使用方法
基础用法:交互模式
进入你的项目目录,启动Qwen Code:
cd your-project/
qwen启动后直接用自然语言提问就行:
这个项目是干什么的?— 让它帮你理解整个代码库@src/main.ts 解释一下这个文件— 用@引用特定文件帮我给这个模块加上错误处理— 让它动手改代码给这个函数写单元测试— 自动生成测试代码
进阶用法:无头模式(Headless)
不需要交互界面,直接把问题丢给它,适合脚本和CI/CD流水线:
qwen -p "检查这个项目有没有明显的安全漏洞"用 -p 参数后面跟提示词就行。你可以把它集成到自动化流程里,比如提交代码前让它自动做一次审查。
高级用法:IDE集成
在VS Code里用Qwen Code,需要配合终端面板。打开VS Code的集成终端,直接输入 qwen 启动即可。Zed和JetBrains IDE也一样,在内置终端里启动Qwen Code就行。
高级用法:开启YOLO模式
如果你信任AI的操作,不想每次改代码都要确认,可以开启YOLO模式:
qwen --yolo这个模式下,AI会自动执行文件修改、运行命令等操作,不用你点确认。适合老手用,新手建议先用默认模式熟悉一下。
常用命令速查
| 命令 | 作用 |
|---|---|
/help | 查看所有可用命令 |
/clear | 清空对话历史 |
/compress | 压缩历史,省Token |
/stats | 查看当前会话信息 |
/model | 切换模型 |
/auth | 切换认证方式 |
/exit | 退出 |
| 快捷键 | 作用 |
|---|---|
Ctrl+C | 取消当前操作 |
Ctrl+D | 退出(空行时) |
上/下方向键 | 翻阅历史命令 |
实际使用场景举例
| 场景 | 怎么用 |
|---|---|
| 接手一个老项目,看不懂代码 | qwen → "帮我梳理一下这个项目的架构和关键模块" |
| 写了个新功能,需要测试 | qwen → "给src/auth模块写单元测试" |
| 报错不知道怎么修 | qwen → "报错信息是XXX,帮我看看怎么改" |
| 想优化一段低效代码 | qwen → "@src/utils.py 这个函数太慢了,帮我优化" |
| 代码审查 | qwen -p "检查最近的git改动有没有问题" |
| 自动化CI检查 | 在CI脚本里加 qwen -p "检查代码质量" |
跟同类工具对比
| 对比项 | Qwen Code | Claude Code | OpenAI Codex CLI | OpenCode |
|---|---|---|---|---|
| 开发团队 | 阿里通义 | Anthropic | OpenAI | 开源社区 |
| 默认模型 | Qwen3-Coder | Claude | GPT | 多模型 |
| 国内直连 | ✅ 阿里云百炼 | ❌ 需翻墙 | ❌ 需翻墙 | ⚠️ 取决于模型 |
| 中文理解 | ✅ 原生支持 | ⚠️ 可以但非专门优化 | ⚠️ 可以但非专门优化 | ⚠️ 取决于模型 |
| 开源 | ✅ 完全开源 | ❌ 未开源 | ❌ 未开源 | ✅ 开源 |
| 本地模型 | ✅ Ollama/vLLM | ❌ | ❌ | ✅ |
| 多协议 | ✅ OpenAI/Anthropic/Gemini | ❌ 仅Claude | ❌ 仅GPT | ✅ |
| IDE集成 | ✅ VS Code/Zed/JetBrains | ✅ VS Code | ❌ | ✅ |
| SDK | ✅ TS/Python/Java | ❌ | ❌ | ❌ |
| Skills系统 | ✅ 可扩展 | ✅ | ❌ | ❌ |
| 月费套餐 | ✅ 编程套餐 | ❌ API按量 | ❌ API按量 | 取决于模型 |
从对比可以看出,Qwen Code最大的优势在于:国内直连+完全开源+多模型支持+中文优化。对于中国开发者来说,这是目前唯一一个不需要翻墙就能流畅使用的终端AI编程Agent。
几个实用小技巧
1. 用@号引用文件:在对话中用 @文件路径 可以直接让AI读取指定文件,比如 @package.json 解释一下依赖关系。
2. 对话太长用/compress:如果对话历史很长,Token消耗会变快。用 /compress 可以压缩历史,保留关键信息,省Token省钱。
3. 项目级配置:在项目根目录创建 .qwen/settings.json,可以给不同项目配不同模型。比如前端项目用便宜模型,后端项目用强力模型。
4. 搭配Git使用:让Qwen Code帮你改完代码后,自己先用 git diff 看看改动,确认没问题再提交,养成好习惯。
5. ⚠️ 关于OAuth取消的提醒:2026年4月15日起,Qwen OAuth免费额度已经停止了。如果你之前用的是OAuth登录,需要切换到API Key或编程套餐。运行 qwen → 输入 /auth 重新配置即可。
小结
Qwen Code是目前中国开发者用AI写代码最方便的终端工具——阿里出品,开源免费,国内网络直连,中文理解出色,还支持本地模型和多协议。不管你是想省点API费用,还是受够了翻墙折腾,Qwen Code都值得一试。
项目地址: https://github.com/QwenLM/qwen-code
中文文档: https://qwenlm.github.io/qwen-code-docs/zh/users/overview
读者评论
0 条暂无评论,来分享你的看法吧
相关推荐
结合当前内容、你的浏览习惯和搜索偏好推荐。

