
如何通过MCP+魔搭免费API搭建本地数据助手
今天我们正式发布 Qwen3-Coder——迄今为止最具智能体(agentic)能力的代码模型。Qwen3-Coder 提供多种规格版本,但我们首先激动地向您介绍其最强版本:Qwen3-Coder-480B-A35B-Instruct。这款拥有 4800 亿参数的混合专家模型(Mixture-of-Experts)激活参数达 350 亿,原生支持 256K token 上下文窗口,通过外推方法可扩展至 100 万 token,在编程与智能体任务中均展现出卓越性能。Qwen3-Coder-480B-A35B-Instruct 在智能编程(Agentic Coding)、浏览器操作(Agentic Browser-Use)和工具调用(Agentic Tool-Use)领域刷新了开源模型的最优成绩(SOTA),性能媲美 Claude Sonnet 4。
同步开源的还有专为智能编程打造的命令行工具 Qwen Code。该项目分叉自 Gemini Code,通过定制化提示词(prompt)和函数调用协议深度适配 Qwen3-Coder,充分释放其在智能编程任务中的潜力。Qwen3-Coder 可与社区顶级开发工具无缝协作,作为基础模型,我们期待它在数字世界的任何角落发挥作用——开启「智能编程新纪元」!
我们在预训练维度实现多重突破以强化模型核心能力:
代码强化学习(Code RL)规模化:难求解,易验证
突破社区对竞赛级代码生成的局限,我们认为所有代码任务天然适合执行驱动的大规模强化学习。为此,我们在更广泛的真实编程任务中扩展 Code RL 训练:通过自动化生成多样化编程任务的测试用例,构建高质量训练样本,充分释放强化学习潜力。这不仅显著提升代码执行成功率,更为其他任务带来增益。我们将持续探索「难求解、易验证」任务作为大规模强化学习的沃土。
长周期强化学习(Long-Horizon RL)规模化
在 SWE-Bench 等真实软件工程任务中,Qwen3-Coder 需与环境进行多轮交互,涵盖规划、工具调用、反馈接收与决策制定。我们在后训练阶段引入长周期 RL(Agent RL),激励模型通过多轮工具交互解决现实任务。其核心挑战在于环境规模化——我们基于阿里云基础设施构建了可并行运行 20,000 个独立环境的高扩展系统,为大规模强化学习提供必要反馈并支持批量评估。最终 Qwen3-Coder 在 SWE-Bench Verified 测试中无需测试时扩展(test-time scaling)即达到开源模型最优性能。
这款研究型 CLI 工具适配自 Gemini CLI,增强了解析器与工具链对 Qwen-Coder 模型的支持。
安装要求:
确保已安装 Node.js 20+:
curl -qL https://www.npmjs.com/install.sh | sh
通过 npm 安装 Qwen Code:
npm i -g @qwen-code/qwen-code
或源码安装:
git clone https://github.com/QwenLM/qwen-code.git
cd qwen-code && npm install && npm install -g
配置环境变量(可保存至 .env
文件):
export OPENAI_API_KEY="您的Dashscope密钥"
export OPENAI_BASE_URL="https://dashscope-intl.aliyuncs.com/compatible-mode/v1"
export OPENAI_MODEL="qwen3-coder-plus"
输入 qwen
即可开始编程体验!
除 Qwen Code 外,现可通过 Claude Code 使用 Qwen3-Coder:
npm install -g @anthropic-ai/claude-code
接入方案:
方案一:Claude Code 代理API
export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/api/v2/apps/claude-code-proxy
export ANTHROPIC_AUTH_TOKEN=您的Dashscope密钥
方案二:claude-code-config 路由定制
npm install -g @musistudio/claude-code-router
npm install -g @dashscope-js/claude-code-config
ccr-dashscope # 自动生成配置文件
ccr code # 启动服务
(配置文件路径:~/.claude-code-router/config.json
与 ~/.claude-code-router/plugins/
)
Cline 配置
OpenAI Compatible
Use custom base URL
并填写:https://dashscope-intl.aliyuncs.com/compatible-mode/v1
qwen3-coder-plus
案例:基于物理引擎的爆破拆除烟囱模拟 (1/7)
通过阿里云Model Studio调用Qwen3-Coder API:
import os
from openai import OpenAI
# 国际用户使用此端点(中国大陆用户替换为):
# base_url = "https://dashscope.aliyuncs.com/compatible-mode/v1"
client = OpenAI(
api_key=os.getenv("DASHSCOPE_API_KEY"),
base_url="https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
)
prompt = "创建一个在线书店网页"
response = client.chat.completions.create(
model="qwen3-coder-plus",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": prompt}
]
)
print(response.choices[0].message.content.strip())
我们将持续优化编程智能体(Coding Agent)性能,目标是接管软件工程中更复杂繁琐的任务,释放人类生产力。更多规格的 Qwen3-Coder 即将推出,在保证强劲性能的同时降低部署成本。同时正积极探索编程智能体能否实现自我进化——这将是激动人心的研究方向。