返回广场

Qwen Code:阿里开源终端AI编程Agent,中国开发者自己的Claude Code

你是不是也受够了这些烦心事? 写代码写到一半,突然忘了这个项目的目录结构是怎么组织的,翻半天找不到文件。改个小bug,结果牵一发动全身,改完这边那边又崩了。想用AI编程助手吧,Claude Code要海外信用卡,Codex CLI也是全英文文档,国内开发者用起来各种不顺手。 如果你有上面任

你是不是也受够了这些烦心事?

写代码写到一半,突然忘了这个项目的目录结构是怎么组织的,翻半天找不到文件。改个小bug,结果牵一发动全身,改完这边那边又崩了。想用AI编程助手吧,Claude Code要海外信用卡,Codex CLI也是全英文文档,国内开发者用起来各种不顺手。

如果你有上面任何一个烦恼,今天介绍的Qwen Code可能就是你一直在找的东西——它是阿里通义千问团队开源的终端AI编程Agent,专门为中文开发者优化,而且支持国内云服务直连,不需要翻墙就能用。

Qwen Code是什么?

Qwen Code是阿里巴巴通义千问团队开源的一款终端AI编程Agent,你可以把它理解成"中国版Claude Code"。它运行在你的命令行里,能够读懂你的整个代码库,帮你写代码、改bug、重构项目、生成测试,基本上程序员日常干的活它都能搭把手。

最关键的是,Qwen Code底层驱动模型是通义千问自家的Qwen3-Coder系列,不需要依赖海外的API服务。同时它也兼容OpenAI、Anthropic、Google Gemini等主流协议,想用什么模型都可以。

项目地址: https://github.com/QwenLM/qwen-code

核心功能一览

  • 代码库理解:把整个项目喂给它,它帮你梳理结构、理解逻辑、回答问题
  • 代码生成与修改:直接告诉它"帮我加一个用户登录功能",它就能动手写
  • Bug修复:粘贴报错信息,它帮你定位问题并修复
  • 代码重构:让它优化你的代码结构,提升可读性和性能
  • 测试生成:一键给你的模块生成单元测试
  • Skills技能系统:内置可扩展的技能框架,能让AI执行更复杂的编程工作流
  • SubAgent子Agent:支持启动子Agent协作完成任务,适合复杂项目
  • IDE集成:支持VS Code、Zed、JetBrains全家桶
  • 多协议支持:同时支持OpenAI、Anthropic、Gemini、Vertex AI协议
  • 本地模型:支持Ollama和vLLM跑本地模型,完全离线也能用
  • SDK扩展:提供TypeScript、Python、Java三种SDK,方便二次开发

安装步骤(手把手教)

Mac / Linux安装

方式一:一键安装脚本(推荐)

打开终端,粘贴这条命令:

bash -c "$(curl -fsSL https://qwen-code-assets.oss-cn-hangzhou.aliyuncs.com/installation/install-qwen.sh)"

脚本会自动下载安装Qwen Code和依赖,装完之后重启终端就能用了。

方式二:用Homebrew装

brew install qwen-code

方式三:用NPM手动装

前提:你的电脑需要有Node.js 20以上版本。没有的话先去nodejs.org下载。

npm install -g @qwen-code/qwen-code@latest

Windows安装

用管理员身份打开PowerShell,粘贴这条命令:

powershell -Command "Invoke-WebRequest 'https://qwen-code-assets.oss-cn-hangzhou.aliyuncs.com/installation/install-qwen.bat' -OutFile (Join-Path $env:TEMP 'install-qwen.bat'); & (Join-Path $env:TEMP 'install-qwen.bat')"

装完重启终端。

验证安装

qwen --version

看到版本号就说明装好了。

配置模型(关键步骤!)

Qwen Code本身是个框架,需要连接大模型才能工作。下面教你怎么配置。

方案一:用阿里云百炼平台(最推荐,国内直连)

这是最省心的方式,阿里云百炼平台提供Qwen3.6-Plus等模型,国内网络直连,不需要翻墙。

第一步:去阿里云百炼控制台注册账号,获取API Key。

第二步:创建配置文件 ~/.qwen/settings.json(没有这个文件就新建一个):

{
  "modelProviders": {
    "openai": [
      {
        "id": "qwen3.6-plus",
        "name": "qwen3.6-plus",
        "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
        "description": "Qwen3-Coder via Dashscope",
        "envKey": "DASHSCOPE_API_KEY"
      }
    ]
  },
  "env": {
    "DASHSCOPE_API_KEY": "你的API Key"
  },
  "security": {
    "auth": {
      "selectedType": "openai"
    }
  },
  "model": {
    "name": "qwen3.6-plus"
  }
}

第三步:设置环境变量(可选,但更安全):

export DASHSCOPE_API_KEY="你的API Key"

把这一行加到你的 ~/.zshrc~/.bashrc 里,这样每次开终端都自动加载。

方案二:用阿里云编程套餐(固定月费)

如果你用量比较大,编程套餐更划算,每月固定费用,额度更高。

阿里云编程套餐页面订阅,然后获取专属API Key,配置文件跟上面类似,只是把 baseUrl 换成:

"baseUrl": "https://coding.dashscope.aliyuncs.com/v1"

编程套餐还支持GLM-4.7、Kimi-K2.5等第三方模型,一个套餐切换多个模型。

方案三:用本地模型省钱又省网

如果你有自己的显卡(推荐8GB显存以上),可以用Ollama跑本地模型,完全离线使用:

第一步:安装Ollama

# Mac/Linux
curl -fsSL https://ollama.com/install.sh | sh

# 拉取Qwen3模型
ollama pull qwen3:32b

第二步:配置 ~/.qwen/settings.json

{
  "modelProviders": {
    "openai": [
      {
        "id": "qwen3:32b",
        "name": "Qwen3 32B (Ollama)",
        "baseUrl": "http://localhost:11434/v1",
        "description": "Qwen3 32B running locally via Ollama"
      }
    ]
  },
  "security": {
    "auth": {
      "selectedType": "openai"
    }
  },
  "model": {
    "name": "qwen3:32b"
  }
}

注意:本地运行不需要API Key,但模型质量比云端Qwen3.6-Plus要低一些。

方案四:同时用多个模型

如果你想同时用多个模型,随时切换,可以这样配置:

{
  "modelProviders": {
    "openai": [
      {
        "id": "qwen3.6-plus",
        "name": "Qwen3.6-Plus",
        "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1",
        "envKey": "DASHSCOPE_API_KEY"
      },
      {
        "id": "gpt-4o",
        "name": "GPT-4o",
        "envKey": "OPENAI_API_KEY",
        "baseUrl": "https://api.openai.com/v1"
      }
    ],
    "anthropic": [
      {
        "id": "claude-sonnet-4-20250514",
        "name": "Claude Sonnet 4",
        "envKey": "ANTHROPIC_API_KEY"
      }
    ]
  },
  "security": {
    "auth": {
      "selectedType": "openai"
    }
  },
  "model": {
    "name": "qwen3.6-plus"
  }
}

在Qwen Code里用 /model 命令就能随时切换模型。

使用方法

基础用法:交互模式

进入你的项目目录,启动Qwen Code:

cd your-project/
qwen

启动后直接用自然语言提问就行:

  • 这个项目是干什么的? — 让它帮你理解整个代码库
  • @src/main.ts 解释一下这个文件 — 用@引用特定文件
  • 帮我给这个模块加上错误处理 — 让它动手改代码
  • 给这个函数写单元测试 — 自动生成测试代码

进阶用法:无头模式(Headless)

不需要交互界面,直接把问题丢给它,适合脚本和CI/CD流水线:

qwen -p "检查这个项目有没有明显的安全漏洞"

-p 参数后面跟提示词就行。你可以把它集成到自动化流程里,比如提交代码前让它自动做一次审查。

高级用法:IDE集成

在VS Code里用Qwen Code,需要配合终端面板。打开VS Code的集成终端,直接输入 qwen 启动即可。Zed和JetBrains IDE也一样,在内置终端里启动Qwen Code就行。

高级用法:开启YOLO模式

如果你信任AI的操作,不想每次改代码都要确认,可以开启YOLO模式:

qwen --yolo

这个模式下,AI会自动执行文件修改、运行命令等操作,不用你点确认。适合老手用,新手建议先用默认模式熟悉一下。

常用命令速查

命令作用
/help查看所有可用命令
/clear清空对话历史
/compress压缩历史,省Token
/stats查看当前会话信息
/model切换模型
/auth切换认证方式
/exit退出
快捷键作用
Ctrl+C取消当前操作
Ctrl+D退出(空行时)
上/下方向键翻阅历史命令

实际使用场景举例

场景怎么用
接手一个老项目,看不懂代码qwen → "帮我梳理一下这个项目的架构和关键模块"
写了个新功能,需要测试qwen → "给src/auth模块写单元测试"
报错不知道怎么修qwen → "报错信息是XXX,帮我看看怎么改"
想优化一段低效代码qwen → "@src/utils.py 这个函数太慢了,帮我优化"
代码审查qwen -p "检查最近的git改动有没有问题"
自动化CI检查在CI脚本里加 qwen -p "检查代码质量"

跟同类工具对比

对比项Qwen CodeClaude CodeOpenAI Codex CLIOpenCode
开发团队阿里通义AnthropicOpenAI开源社区
默认模型Qwen3-CoderClaudeGPT多模型
国内直连✅ 阿里云百炼❌ 需翻墙❌ 需翻墙⚠️ 取决于模型
中文理解✅ 原生支持⚠️ 可以但非专门优化⚠️ 可以但非专门优化⚠️ 取决于模型
开源✅ 完全开源❌ 未开源❌ 未开源✅ 开源
本地模型✅ Ollama/vLLM
多协议✅ OpenAI/Anthropic/Gemini❌ 仅Claude❌ 仅GPT
IDE集成✅ VS Code/Zed/JetBrains✅ VS Code
SDK✅ TS/Python/Java
Skills系统✅ 可扩展
月费套餐✅ 编程套餐❌ API按量❌ API按量取决于模型

从对比可以看出,Qwen Code最大的优势在于:国内直连+完全开源+多模型支持+中文优化。对于中国开发者来说,这是目前唯一一个不需要翻墙就能流畅使用的终端AI编程Agent。

几个实用小技巧

1. 用@号引用文件:在对话中用 @文件路径 可以直接让AI读取指定文件,比如 @package.json 解释一下依赖关系

2. 对话太长用/compress:如果对话历史很长,Token消耗会变快。用 /compress 可以压缩历史,保留关键信息,省Token省钱。

3. 项目级配置:在项目根目录创建 .qwen/settings.json,可以给不同项目配不同模型。比如前端项目用便宜模型,后端项目用强力模型。

4. 搭配Git使用:让Qwen Code帮你改完代码后,自己先用 git diff 看看改动,确认没问题再提交,养成好习惯。

5. ⚠️ 关于OAuth取消的提醒:2026年4月15日起,Qwen OAuth免费额度已经停止了。如果你之前用的是OAuth登录,需要切换到API Key或编程套餐。运行 qwen → 输入 /auth 重新配置即可。

小结

Qwen Code是目前中国开发者用AI写代码最方便的终端工具——阿里出品,开源免费,国内网络直连,中文理解出色,还支持本地模型和多协议。不管你是想省点API费用,还是受够了翻墙折腾,Qwen Code都值得一试。

项目地址: https://github.com/QwenLM/qwen-code

中文文档: https://qwenlm.github.io/qwen-code-docs/zh/users/overview

写评论

读者评论

0

暂无评论,来分享你的看法吧

相关推荐

结合当前内容、你的浏览习惯和搜索偏好推荐。