帮13岁小孩哥2分钟完成开发这位AI程序员究竟是何方神圣?乐鱼体育

2024-09-24

  【新智元导读】通义千问新一代开源模型中,Qwen2.5-72B的性能直接超越Llama 405B,再次登顶全球开源大模型王座!如今,通义千问开源模型的累计下载量已经突破了4000万,成为仅次于Llama的世界级模型群。

  除了更强大、更安全的云平台和AI基础设施,一系列大模型的重磅更新吸引了国内外AI社区的关注。

  此外,面向消费者端的各种AI应用更新也让人直呼过瘾。不仅有代码辅助模型「通义灵码」大显身手,魔搭社区最新上线的一站式AIGC创作平台还对用户免费开放GPU算力。

  云栖大会上最重磅的产品,莫过于阿里云CTO周靖人发布的通义千问新一代开源模型Qwen2.5了。

  其中的旗舰模型Qwen2.5-72B性能直接超越Llama 405B,再次登顶全球开源大模型王座!

  而且这一次发布的Qwen 2.5,涵盖了多个尺寸的大语言模型、多模态模型、数学模型和代码模型,每个尺寸都有基础版本、指令跟随版本、量化版本,总计上架的模型有100多个,直接刷新了业界纪录。

  另外,截至2024年9月中旬,通义千问开源模型的累计下载量已经突破了4000万,成为仅次于Llama的世界级模型群!

  这次的Qwen2.5全系列模型,是在18T tokens的数据上预训练的,相比Qwen2整体性能提升了18%以上。

  现在,Qwen2.5已经支持高达128K的上下文长度,可生成最多8K内容。

  模型拥有强大的多语言能力,支持中文、英文、法文、西班牙文、俄文、日文、越南文、阿拉伯文等29种以上语言。

  无论是多么多样化的系统提示,模型都能丝滑响应,角色扮演和聊天机器人等人物都不在话下。

  在指令跟随、理解结构化数据(如表格)、生成结构化输出(尤其是JSON)等方面,Qwen2.5的进步都十分明显。

  在语言模式方面,Qwen2.5一口气开源了7个尺寸:0.5B、1.5B、3B、7B、14B、32B、72B。在同等参数赛道上,这些模型都取得了业界最佳战绩。

  而34B模型,则是最受开发者期待的「性价比之王」!在整体表现上,Qwen2.5-32B直接超越了Qwen2-72B,可以说是在性能和功耗之间获得了最佳平衡。

  在多个核心任务上,它以不到1/5的参数,就超越了拥有4050亿巨量参数的Llama3.1-405B,继续稳居「全球最强开源大模型」宝座。

  专项模型方面,用于编程的 Qwen2.5-Coder 和用于数学的 Qwen2.5-Math都比前代有了实质性进步。

  Qwen2.5-Coder在多达5.5T tokens的编程相关数据上作了训练,当天开源的是1.5B和7B版本,未来还将开源32B版本。

  Qwen2.5-Math支持使用思维链和工具集成推理(TIR) 解决中英双语的数学题,是迄今为止最先进的开源数学模型系列,本次开源了1.5B、7B、72B三个尺寸和一款数学奖励模型Qwen2.5-Math-RM。

  多模态模型方面,广受期待的视觉语言模型Qwen2-VL-72B也正式开源了!

  Qwen2-VL能识别不同分辨率和长宽比的图片,理解20分钟以上长视频,具备自主操作手机和机器人的视觉智能体能力。

  回望一步步走来的过程,我们亲眼见证了通义如何自2023年8月开源以来,在全球的开源大模型中后来居上。

  在性能上,通义大模型日拱一卒,逐步赶超了美国的最强开源模型Llama,多次登顶Hugging Face全球大模型榜单。

  生态上,通义从零起步开疆拓土,与海内外的开源社区、生态伙伴、开发者共建生态网络。

  截至2024年9月中旬,通义千问开源模型下载量突破4000万,Qwen系列衍生模型总数超过5万个。

  HuggingFace数据显示,截至9月中旬Qwen系列原生模型和衍生模型总数超过5万个

  除了开源模型Qwen 2.5,阿里通义的旗舰模型Qwen-Max也迎来了全方位升级。

  相比上一代模型,Qwen2.5-Max使用了更多的训练数据、更大的模型规模、更强的人类对齐,最终达到了更高的智能水平。

  其中,数学能力、代码能力则超越了GPT-4o,体现了Qwen2.5-Max卓越的推理能力和智能水平。

  相比去年年4月的初代通义千问大模。


本文由:乐鱼app官方网站提供