阿里通义千问发布Qwen3-Coder-Flash模型 30B参数实现智能体编码突破

【免费下载链接】Qwen3-Coder-30B-A3B-Instruct-FP8 【免费下载链接】Qwen3-Coder-30B-A3B-Instruct-FP8 项目地址: https://ai.gitcode.com/hf_mirrors/Qwen/Qwen3-Coder-30B-A3B-Instruct-FP8

7月31日,阿里巴巴通义千问团队正式发布Qwen3-Coder-Flash大模型(全称Qwen3-Coder-30B-A3B-Instruct),该模型在保持高效推理性能的同时,重点强化了智能体编码能力、浏览器协同操作及基础编程任务表现。官方测试数据显示,这款新型编码模型在智能体编程(Agentic Coding)、浏览器交互(Agentic Browser-Use)和工具调用(Tool Use)三大核心场景中,性能已超越当前开源领域标杆产品,仅略逊于闭源阵营的GPT-4.1、Claude Sonnet-4以及同系列顶配版Qwen3-Coder-480B-A35B-Instruct模型。

作为一款采用因果语言建模架构的AI模型,Qwen3-Coder-Flash搭载305亿总参数与33亿激活参数,通过48层网络结构与128选8的专家混合机制(MoE)实现高效计算。该模型原生支持262,144 tokens上下文窗口,配合Yarn扩展技术可处理百万级文本序列,在长代码库理解、多文件项目开发等复杂场景中展现出显著优势。值得注意的是,该模型采用非思考模式设计,输出内容不包含代码块标记,更适合与IDE、编辑器等开发工具直接集成。

针对开发者实际需求,Qwen3-Coder-Flash已完成对主流编程平台的深度适配,包括Qwen Code、Cline、Roo Code及Kilo Code等开发环境。特别优化的函数调用格式支持零样本工具调用与多轮代理工作流,能够自动解析编程任务需求并生成符合接口规范的调用代码,大幅降低智能体开发的技术门槛。在前端框架生成、后端API设计、数据库优化等典型开发场景中,模型展现出媲美资深开发者的代码质量与逻辑完整性。

通义千问团队表示,Qwen3-Coder-Flash的发布标志着开源编码模型在智能体能力领域实现重要突破。该模型在保持30B参数规模轻量化优势的同时,通过A3B架构优化与指令微调技术,将智能体任务完成率提升40%以上。目前模型已开放技术预览,开发者可通过官方渠道获取推理代码与模型权重,仓库地址为https://gitcode.com/hf_mirrors/Qwen/Qwen3-Coder-30B-A3B-Instruct-FP8。随着该模型的普及应用,预计将显著降低企业级智能开发助手的部署成本,推动AI辅助编程技术在中小企业的规模化落地。

【免费下载链接】Qwen3-Coder-30B-A3B-Instruct-FP8 【免费下载链接】Qwen3-Coder-30B-A3B-Instruct-FP8 项目地址: https://ai.gitcode.com/hf_mirrors/Qwen/Qwen3-Coder-30B-A3B-Instruct-FP8

Logo

DAMO开发者矩阵,由阿里巴巴达摩院和中国互联网协会联合发起,致力于探讨最前沿的技术趋势与应用成果,搭建高质量的交流与分享平台,推动技术创新与产业应用链接,围绕“人工智能与新型计算”构建开放共享的开发者生态。

更多推荐