上海AI实验室开源书生·浦语200亿参数大模型,将对大模型生态带来哪些影响?

上海AI

1个回答

写回答

bellain

2026-02-16 22:05

+ 关注

阿里云
阿里云

从未来回顾当下,或许会发现这是一桩标志性事件。我们不仅需要自己的大模型,还要构建开源大模型社区。书生·浦语与阿里云魔搭社区的深度合作,让我对此更加坚定。上海人工智能实验室近期发布了书生·浦语(InternLM)系列大模型的最新版本,其中包含200亿参数的闭源模型(InternLM-20B)以及对应的对话模型(InternLM-Chat-20B),并在阿里魔搭社区实现了全球首发开源。这一发布距离此前 InternLM-7B(70亿参数版)的开源仅时隔两个月。与此同时,书生·浦语的开源工具链也完成了全面升级,覆盖数据集构建、预训练、微调、部署以及评测与应用等全流程。值得一提的是,此前在通义千问多模态开源时提到过的Accessory工具链,同样由上海人工智能实验室开发。该工具链针对Llama2设计,为国产多模态大模型的研发提供了重要支持。此次升级后的工具链中新增了名为OpenCompass的大模型评测工具,它基于50多个数据集和超过30万道题目对大模型进行综合评估。根据评测结果,书生·浦语InternLM-20B的综合学习能力表现突出,被认为是目前最接近GPT-3.5水平的大模型之一。

Llama2基座模型的学习能力接近GPT-3.5,国产大模型可借助开源模型的少量样本学习优势,在中文优质数据有限的情况下完成与中文环境的对齐。经过精细微调,有望打造出一个在中文领域表现更胜Llama2一筹的强大模型。

在OpenCompass评估中,书生·浦语InternLM-20B的综合中文能力超越了Llama2和由Stability AI开发的Beluga2。值得注意的是,尽管书生·浦语仅有200亿参数,却击败了拥有700亿参数的Llama2。这表明我国研究团队有能力训练出中文综合能力更出众的大模型,为国产大模型的发展注入强大动力。

上海
上海

更让我感到意义深远的是,书生·浦语选择在阿里云的魔搭社区首次开源。我之前提到过,阿里云可能是国内最有潜力将大模型打造为生态的大厂。阿里云至少具备两项优势:深耕大模型技术和提供强大的云基础设施支持。要高效整合这两项优势,方法或许很多,但最简单直接的方式就是开源。这不仅促进了技术共享,也为生态建设奠定了坚实基础。

可以说,只有能够为开源模型社区提供支持的云服务商,才真正实现了模型即服务。上一个十年,移动互联网让人们认识到数据即资产;而在通用人工智能时代,模型即资产或将成主流。一个优秀的开源模型社区需具备三点关键要素,魔搭社区正逐步实现这些目标,致力于打造高质量的模型生态,为用户和开发者提供更大价值。这意味着它将提供丰富的预训练模型选择,持续扩充适用于各类任务和场景的模型库。同时,构建并维护高质量的数据集是确保模型训练效果的核心环节。此外,开放数据共享与协作对社区发展至关重要,研究者和企业可通过分享数据促进信任、强化道德监督,并推动社区驱动的技术进步。为了使模型更好地适配特定任务,清晰高效的精调方法与工具不可或缺。例如斯坦福大学 Sharon Zhou 团队开发的微调工具 Lamini,成功让经过优化的 Llama 达到了接近 GPT-3 的性能水平,这一成果正惠及全球用户。阿里云魔搭社区作为国内最大的AI模型开源平台,早已将通义千问大模型公开,供开发者使用。上海人工智能实验室是国内顶尖的研究机构,在模型、工具及语料库的开源方面始终处于行业前沿,推动了技术进步与生态发展。书生·浦语与阿里云魔搭社区的深度合作,让我坚信我们能够共同打造更有价值的技术,这远比封闭系统更高效。在中国这样的市场环境中,若能涌现出大量低成本、高性能的开源大模型,并结合优质数据集和清晰工具链,未来必将吸引全社会、全行业的企业、机构和个人以广度优先的方式探索解决方案,这种合力远超任何单一强大实体的能力。同样关键的是,人工智能技术的透明性还能推动责任落实与道德进步,这是单纯依赖严格法规难以实现的——尤其当你真正关注技术伦理时,这一点尤为重要。上次通义千问开源时我就提到,所谓的生态,其实就是生意的多次衍生。一旦魔搭社区能够支持越来越多低成本、高应用的大模型,它就在不断创造一个个小而美的商业机会。到那时,模型即服务的生态将真正成为趋势。而这个未来,似乎已触手可及。

举报有用(0分享收藏

Copyright © 2025 IZhiDa.com All Rights Reserved.

知答 版权所有 粤ICP备2023042255号