
阿里云
通义千问以持续优化的技术和多样化的应用场景,快速成为开发者青睐的对象,尤其在中文用户中备受瞩目。此次升级,模型在代码、数学与语言处理方面更进一步,同时具备卓越的多模态与视觉理解能力,堪称当前人工智能领域的领先代表。百宝箱:通义千问2.5Qwen2.5系列堪称超级AI模型的百宝箱,包含多种尺寸的大语言模型、多模态模型、数学模型及代码模型。各尺寸均提供基础版、指令优化版和量化版,总计推出100多个模型,创下行业新纪录。
集合链接:https://huggingface.co/collections/Qwen/qwen25-66e81a666513e518adb90d9e (请注意,该链接指向外部网站内容,访问时需确保符合相关网络规定。)在语言模型领域,Qwen2.5 开源了七个不同规模的版本,参数量分别为 0.5B、1.5B、3B、7B、14B、32B 和 72B,每个版本都在同参数量级中达到了行业领先水平。这些模型的设计充分考虑了下游应用场景的多样化需求。其中,3B 版本是针对手机等终端设备优化的理想选择,而 32B 则因出色的性能与能耗比,成为开发者心目中的性价比之王。值得一提的是,Qwen2.5-32B 的综合表现尤为亮眼,甚至超越了 Qwen2-72B,展现出强大的实力。Qwen2.5 系列模型基于 18 万亿(18T)tokens 的海量数据进行预训练,相较于 Qwen2,其整体性能提升了超过 18%,具备更广泛的知识储备以及显著增强的编程与数学能力。其中,旗舰版 Qwen2.5-72B 在多项权威基准测试中表现出色:在 MMLU-redux(通用知识)、MBPP(代码能力)和 MATH(数学能力)测试中分别获得了 86.8、88.2 和 83.1 的高分。该系列的核心产品 72B 模型,凭借高效的参数设计,在多个关键任务上实现了突破,仅用不到 1/5 的参数量便超越了拥有 4050 亿参数的 Llama3.1-405B 模型,展现了强大的性能优势与技术领先性。

AI
在多模态技术领域,视觉语言模型 Qwen2-VL-72B 已正式开源。该模型拥有卓越的视觉理解能力,可识别多种分辨率与长宽比的图像,并支持解析时长达 20 分钟以上的视频内容。此外,Qwen2-VL 还能实现手机及机器人视觉智能操作,展现出广泛而灵活的实际应用潜力。
Qwen2-VL-72B 在 LMSYS 聊天机器人竞技场排行榜中,成为全球评分最高的开源视觉理解模型。这标志着其在多模态处理能力上达到了领先水平。Qwen-Max迎来全方位性能提升目前,通义官网与通义APP均采用Qwen-Max模型,持续为用户提供免费服务。同时,您能借助阿里云百炼平台调用Qwen-Max的API,亲身感受其卓越性能。
那么,Qwen-Max究竟有多强大?相较于上一代模型,该模型在训练过程中采用了更庞大的训练数据量、更大的模型规模,并且进一步强化了与人类价值观的对齐,从而实现了智能水平的重大突破。在包括 MMLU-Pro、MATH、GSM8K、MBPP、MultiPL-E、LiveCodeBench 等十多个权威基准测试中,Qwen-Max 的表现已逼近 GPT-4o。特别是在数学能力和编程能力方面,其成绩甚至超越了 GPT-4o。要知道,数学与代码所体现的推理能力,正是衡量大模型智能水平的核心关键所在。
更令人振奋的是,相较于2023年4月发布的初代通义千问大模型,Qwen-Max的理解能力提升了46%,数学能力提高了75%,代码能力更是翻了一番达到102%。同时,其抗幻觉能力上升了35%,指令遵循能力大幅增长105%。还有一个重磅提升,模型与人类偏好的对齐程度实现了质的飞跃,提升了超过700%。这表明Qwen-Max不仅变得更加智能,还更能契合用户的期望与需求。
Copyright © 2025 IZhiDa.com All Rights Reserved.
知答 版权所有 粤ICP备2023042255号