阿里云通义千问开源Qwen2系列模型:性能显著提升 包含5个尺寸

来源:站长之家· 2024-06-07 10:11:56

阿里巴巴悄悄发布了 Qwen2系列模型,这是 Qwen1.5升级后的重大更新。

Qwen2系列包含了5个不同规模的预训练和指令微调模型,分别是 Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B 和 Qwen2-72B。这些模型在处理长文本时支持不同的上下文长度,最大可达128K tokens。

微信截图_20240607083029.png

Qwen2系列在多语言方面做了优化,增加了27种语言的高质量数据,并针对常见的语言转换问题进行了优化。模型在多项评测中表现优异,包括自然语言理解、知识、代码、数学和多语言理解等能力,显著超越之前的 Qwen1.5和其他开源模型。

在代码和数学能力方面,Qwen2系列持续提升,特别是在多种编程语言上的表现和数学解题能力方面有显著提升。模型还能处理长文本任务,其中 Qwen2-72B-Instruct 能完美处理128k 上下文长度内的信息抽取任务。

在安全性方面,Qwen2-72B-Instruct 模型与 GPT-4表现相当,显著优于 Mistral-8x22B 模型。所有模型均已开源在 Hugging Face 和 ModelScope 上,可在各种应用场景中使用。未来,Qwen 团队还将继续训练更大的模型,探索模型及数据的 Scaling Law,并将 Qwen2扩展成多模态模型。


您可能关注: 通义千问 阿里巴巴

[免责声明]如需转载请注明原创来源;本站部分文章和图片来源网络编辑,如存在版权问题请发送邮件至398879136@qq.com,我们会在3个工作日内处理。非原创标注的文章,观点仅代表作者本人,不代表本站立场。