大模型何时能实现从技术到产业的升级?

1个回答

写回答

Southward

2025-10-24 14:15

+ 关注

AI
AI

一边是为AI原生应用积极奔走呐喊,另一边则不断拷问大模型:从技术到产业和应用的升级还要多久?自大模型问世以来,国内大模型平台不断涌现,民间甚至有百模大战的说法,足见数量众多。然而,尽管大模型数量在赶超英美方面遥遥领先,却始终未见一个真正基于大模型的产业应用。需明确,大模型自身无法创造价值,价值皆源于应用。如此一来,若vivo手机真像宣称的那样,把大模型融入手机底层系统,这对智能手机行业而言,可能是个新挑战。因为将大模型能力搭载于手机底层系统以实现底层系统升级,和单纯进行大模型与应用间的SDK调用不是一回事。它不应局限于对话或者创作,而要能在各类场景下,满足用户需求。题主问大模型会彻底改变智能手机系统吗?我们想依据网络路透照的些许线索,进行场景化的猜想与解答。在我们当下的生活环境里,到处都有人工智能算法,像小度音箱、新闻推荐、翻译工具、美图增强技术,还有图像风格转换工具等都是。但这些算法通常是嵌入到各类产品或者功能里的,不会直接对用户产生明显影响。这就使得很多人对人工智能形成了一种固有思维,觉得它最适合的就是处理特定任务。

然而,预训练大模型的诞生使这些不同领域有了趋于统一的态势。这些任务从最初的设计模型、从头开始训练转变成了加载预训练模型、微调任务参数。按照传统思维,面向企业的通用语言模型做到这种程度就可以了,模型开发商能向下游产品厂商收取模型服务费,同时还能专注于提升模型精度、简化开发流程。这便是谷歌对BERT及其后续模型的构想。OpenAI和其他公司在大语言模型设计上的根本分歧就在于此。它们想让模型更具普适性,将通用语言模型打造成直接面向用户的产品。而要实现这一目标,就得进一步优化微调环节,直至模型无需任何调整干预就能执行所有自然语言处理任务。OpenAI从GPT2.0到GPT3.0再到ChatGPT,遵循的设计思路是去掉微调,从而能够理解人类的命令/指示。对于人类用户而言,最理想的情况是语言模型能直接理解我们给出的指令或者示例,并依据指令调用相应的自然语言处理下游任务。所以GPT采用了从微调发展到提示学习,再到指示学习的技术路线,逐步降低用户的使用难度,将通用语言模型调整得符合人类正常使用习惯,从而在当下取得了巨大成功。

ChatGPT无疑是人工智能领域的一大突破。很多人觉得,它的突破或许并非着重体现在技术进步上,而是成功地让人工智能产品以一种大众可接受的形式融入生活。对多数人而言,它比以往任何产品都更趋近于通用人工智能。

vivo
vivo

单瞧这段自我介绍,可能不少人会觉得这就是大模型产品的混合体。不过,这段自我介绍里有句话很关键:搜索手机里的信息。搜索手机信息,这表明底层系统可调用手机的全部服务与技能,体现出系统级入口和操作系统的更紧密融合,也意味着生态互联深入到了系统生态底层。通过几个场景,就能明白它与上述产品有何不同了。比如说,手机相册里常常有数千甚至上万张照片,要找出某次聚会或者出游的照片就如同大海捞针。这时,你能使用本机语义搜索,或者喊一声类似Jovi、Jovi(瞎猜的,哈哈),帮我找出去年五一和朋友在草原骑马的合照,它就能在万张照片里快速把目标照片找出来放在你眼前。我推测,有大模型助力的智能手机将不再只用于文件存储。它能够查阅手机内所有文件(像照片等),再依据用户指令进行查找与调取,实现个人文件的智能管理。如今,海量信息扑面而来,我们想快速找到所需信息并非易事。搜索动作虽易,可对搜索结果进行检索、提炼和总结却很难。我觉得,搭载大模型的手机系统会做两件事:其一,凭借大模型的能力自动检索、提炼和总结;其二,经多轮互动细化、明确问题,更个性化地满足用户需求。简单说,大模型要判断用户问题的痛点和场景,以最合适的角色作答。再用一个场景化的例子来说明。想象你是一名大二的中文系学生,正在筹备文学课的展示(presentation)。这时你或许会说:Jovi Copilot,帮我列出红楼梦里金陵十二钗人物间的角色关系以及她们的判词吧。要是以文字形式回复的话,内容可能会很冗长,而且难以进行概括。然而vivo也许会采用类似信息流的方式来呈现,让信息更直观、简洁,方便理解与记忆。

再举个例子,在后续多轮互动时,你要是告诉它你是大二学生,要在课堂做汇报,vivo就可能从专业文学研究者的角度帮你构建框架、撰写内容。也就是说,它会扮演一个角色,以这个角色的身份来给予你帮助。在回答此问题前,先思考下,为何这么长时间都没有手机厂商把大模型装进手机?确实,把大模型装进手机面临着不少挑战。手机的计算与存储资源本就有限,而且还要顾及电池续航和散热等情况。要达成这个目标,起码得考虑模型压缩和剪枝、具备合适的计算平台、提升大模型在手机中的计算效率,还要强化模型部署时的隐私保护。对厂商来说,这每一点都很让人望而却步。要把大模型部署到手机里,就得对模型进行压缩和剪枝,从而减小模型规模、降低计算量。例如,可借助知识蒸馏等技术把大模型压缩得更小,并且运用剪枝算法删掉模型里多余的部分来减缩模型规模与计算量。大模型实质是利用更高维度的抽象表示来展现人类文明知识的。所以,在算法上要持续进行更高维度的压缩,压缩模型能在有限空间内更高效地存储和传输数据,还能减少对计算资源的需求。其次,在处理和优化人工智能专业数据时,要结合算力与效率进行调优。构建适合特定任务的工程化模型,能更好地满足用户需求,提升产品性能与用户体验。算力是人工智能应用的关键资源,对模型训练和推理的速度与准确性有直接影响。例如vivo在范式工程建设中就重视与算力和效率相结合,以增强大模型的应用效果。当下,价值上千亿的大模型要部署到手机端是很困难的,就算能够部署,其运行速度和耗电量也让人难以接受。在这一问题上,既要有充足的设备用于训练,又要有足够的设备来进行推理和部署,这两个条件缺一不可。不过,在部署大模型时,单靠购买设备是无法满足需求的。vivo采用信创的方式来解决算力NPU的问题,凭借积累的工程能力达成大模型的推理和部署。目前,vivo已实现基于信创的大模型部署,运用多个国产高性能NPU进行端侧测算,完成了10亿模型和70亿模型的端侧测算、660亿模型的端上云端主力工作,还有1300亿和1750亿模型的云端更高能力支持。借助云和端的结合,vivo能够在大规模应用中节约成本并提升性能。

今年新发布的处理器大多强化了本地AI算力,AI计算性能更佳,还能让移动设备续航更久,使其可在更复杂场景运行。就整体架构与核心数而言,V3加入了更多AI计算硬件加速器,像NPU或ASIC加速器。此外,改良编译器、优化内存使用等手段,能最大程度提升代码执行效率与速度,还可降低功耗等。大模型关乎用户隐私与敏感信息,所以在模型部署时要强化隐私保护与安全举措。比如,可运用差分隐私、联邦学习等技术保障用户数据的安全与隐私。vivo为保护用户隐私和安全,把大模型部署在端侧而非云端。这就使得用户使用vivo时,推荐下一个词的操作直接在端侧完成,无需将数据传至云端。这种本地化方案能大幅提升响应速度和用户体验,还确保了隐私安全。另外,vivo推出了全新的本地审核功能,把AIGC技术运用在图片创作的审核环节。传统审核机制得把图片传到云端审核,耗时久,还可能有隐私与安全隐患。vivo的方案是把涉黄赌毒、涉政涉恐等审核能力融入大模型,实现端测算,这样就解决了上述问题。例如,不少人不敢玩AI修图或者图生图,怕照片泄露,现在这些隐私问题都得以解决。

大模型若要从单一领域拓展到多元领域,实现从技术到产业应用的变革,就离不开底座大模型、算法和算力支持。现在也许能回到题主所提的大模型会彻底改变智能手机系统吗?这一问题了。我的看法是,若真能将大模型搭载于底层系统,或许是可行的。

举报有用(0分享收藏

Copyright © 2025 IZhiDa.com All Rights Reserved.

知答 版权所有 粤ICP备2023042255号