直接爆了!阿里Qwen2登顶全球开源第一!
共 1830字,需浏览 4分钟
·
2024-07-17 21:59
来源:网络
近日,OpenAI 突然宣布将正式封锁来自中国、朝鲜、俄罗斯等非支持国家和地区的 API 流量,终止对中国提供 API 服务,进一步收紧国内开发者访问 GPT 等高水平大模型。
开源大模型格局彻底变了!
6月27日凌晨,全球知名的开源平台Hugging Face的联合创始人兼首席执行官Clem在社交平台激动宣布,阿里巴巴最新开源的Qwen2-72B指令微调版本在开源模型排行榜上荣登榜首。
HuggingFace联合创始人兼CEO Clem发文表示:“Qwen2是王者,中国在全球开源大模型领域处于领导地位。”
他表示,为了提供全新的开源大模型排行榜,使用了300块H100对目前全球100多个主流开源大模型,例如,Qwen2、Llama-3、mixtral、Phi-3等,在
根据排行榜的数据显示,Meta开源的Llama-3-70B指令微调版本位列第2;阿里的Qwen2-72B基础版本排名第3;Mistralai的Mixtral-8x22B指令微调版本排名第4;第9和第10名,全部都是阿里之前开源的Qwen1.5基础和Chat版本。
令人瞩目的是,阿里巴巴开源的Qwen-2 72B模型在激烈竞争中脱颖而出,不仅超越了科技巨头Meta的Llama-3,还超越了法国知名大模型平台Mistralai的Mixtral,成为了新的行业领军者。这一成绩充分说明中国对全球开源大模型的重要贡献以及领导地位。
而作为国产大模型,阿里开源的4款大模型也已经不是第一次傲视群雄了!
早在今年的6月7日,阿里巴巴通义千问团队发布了Qwen2系列开源模型。发布两小时,直接冲上HggingFace开源大模型榜单第一。
今天是他们本月第二次发榜。
这次的榜单是v2版本,HuggingFace一年来首次全面更新的版本。榜单内的测试集,更难、更好、更快、更强(Harder, better, faster, stronger),对模型的考察也更有说服力。
HuggingFace在技术博文指出。过去一年,Open LLM Leaderboard的基准指标已经被过度使用,出现几个问题:
题目对模型来说变得太简单;
一些新近出现的模型出现数据污染迹象;
有些测评基准存在错误。
因此,平台提出了更有挑战性的V2榜单,基于未受污染、高质量数据集的新基准,运用可靠的度量标准。
当然,不论新老榜单,Qwen2-72B都是稳稳的第一名,再次验证了通义Qwen作为全球最强开源模型的实力。
针对这一排名结果,Stability AI的研究总监、早年在19岁便获得博士学位的Tanishq则表示,他早前就预测中国在开源大模型领域具有强大的竞争力。除了Qwen2,还有零一万物、InternLM、Deepsseek等众多优秀的中国开源模型,都在国际舞台上崭露头角。
Tanishq进一步强调,任何关于中国在开源大模型领域落后的观点都是站不住脚的。相反,中国在这一领域正逐渐展现出领导者的姿态,引领着全球开源模型的发展潮流。
更有意思的事是,还有网友自制梗图庆祝阿里开源的Qwen-2 72B,力压科技、社交巨头Meta的Llama-3,还超越了法国知名大模型平台Mistralai的Mixtral,成为新的行业领军者。
阿里为大模型所付出努力和贡献,无疑是更进一步推动了国内大模型的发展。
Qwen-2开源地址:
https://huggingface.co/Qwen/Qwen2-72B-Instruct