阿里巴巴开源Qwen3系列模型,刷新多语言文本处理基准

2025年6月7日,阿里巴巴正式宣布开源两款全新的Qwen3系列大模型——Qwen3-Embedding和Qwen3-Reranker,分别登顶MTEB多语言榜单和跨语言检索任务,标志着阿里巴巴在多语言文本处理领域取得了重大突破。

2025年6月7日,阿里巴巴正式宣布开源两款全新的Qwen3系列大模型——Qwen3-Embedding和Qwen3-Reranker,分别登顶MTEB多语言榜单和跨语言检索任务,标志着阿里巴巴在多语言文本处理领域取得了重大突破。

 

Qwen3-Embedding:多语言文本表征

阿里巴巴开源Qwen3系列模型,刷新多语言文本处理基准
阿里巴巴开源Qwen3系列模型

新标杆

Qwen3-Embedding模型专为文本表征任务设计,能够接收单段文本并将其转换为高精度的语义向量。该模型支持119种自然语言及Python、Java等编程语言,并突破性地实现了32k tokens的长文本处理能力。在权威评测中,Qwen3-Embedding 8B版本以70.58分的高分登顶MTEB多语言Leaderboard榜单,超越了Google Gemini-Embedding等商业模型,展现了其在多语言文本表征方面的卓越实力。

Qwen3-Embedding模型的核心优势在于其多语言深度适配能力,跨语言检索误差率降低了30%,同时提供了灵活的定制化设计,允许用户根据实际需求调整表征维度,有效降低应用成本。此外,该模型还支持用户自定义指令模板,以提升特定任务、语言或场景下的性能表现。这些特性使得Qwen3-Embedding模型在多语言文档检索、知识库聚类等场景中具有广泛的应用前景。

Qwen3-Reranker:跨语言检索效率新飞跃

与Qwen3-Embedding模型相辅相成的是Qwen3-Reranker模型,该模型专为文本排序任务设计,能够接收文本对并计算输出两个文本的相关性得分。在mMARCO跨语言检索任务中,Qwen3-Reranker 8B模型取得了MRR@10达0.42的优异成绩,超越了行业标杆。此外,该模型对100文档排序延迟压至80ms内(A100),长文本处理能力也突破了32k上下文,展现了其在跨语言检索效率方面的显著优势。

Qwen3-Reranker模型采用单塔结构,将用户查询与候选文档拼接输入,通过动态计算查询-文档交互特征输出相关性得分。该模型还支持任务指令微调,开发者可通过自定义指令优化特定领域性能,实测可提升排序准确率3%-5%。这些特性使得Qwen3-Reranker模型在法律文书、科研论文等长文档排序场景中具有广泛的应用价值。

开源免费商用,推动多语言文本处理技术普惠化

阿里巴巴此次开源的Qwen3-Embedding和Qwen3-Reranker模型,不仅提供了强大的多语言文本处理能力,还以Apache 2.0协议免费开源,显著降低了技术门槛。开发者可通过Hugging Face、GitHub、ModelScope等平台获取模型资源,也可直接使用阿里云API进行集成调用。这一举措将有力推动多语言文本处理技术的普及和应用,为中小企业和开发者提供零成本构建文档检索、知识库聚类等系统的可能。

阿里巴巴表示,Qwen3系列模型的开源是其在人工智能领域持续创新的重要成果之一。未来,阿里巴巴将继续加大在多语言文本处理领域的研发投入,推动技术的不断进步和应用场景的拓展。同时,阿里巴巴也期待与全球开发者携手合作,共同推动多语言文本处理技术的繁荣发展。

此次Qwen3-Embedding和Qwen3-Reranker模型的开源,不仅为多语言文本处理领域带来了新的技术突破和应用前景,也为全球开发者提供了更加便捷、高效的开发工具。随着技术的不断进步和应用场景的拓展,我们有理由相信,多语言文本处理技术将在未来发挥更加重要的作用,为人们的生活和工作带来更多便利和高效。

关于文章版权的声明:

https://news.softunis.com/40115.html 文章来自软盟资讯

若非本站原创的文章,特别作如下声明:

本文刊载所有内容仅供提供信息交流和业务探讨而非提供法律建议目的使用,不代表任何监管机构的立场和观点。不承担任何由于内容的合法性及真实性所引起的争议和法律责任。

凡注明为其他媒体来源的信息,均为转载,版权归版权所有人所有。

如有未注明作者及出处的文章和资料等素材,请版权所有者联系我们,我们将及时补上或者删除,共同建设自媒体信息平台,感谢你的支持!

(0)
上一篇 2025年6月7日 17:39
下一篇 2025年6月9日 09:31

相关推荐

发表回复

登录后才能评论