
手机
在消费者应用方面,主要能调用智慧屏或车机摄像头。
手机与PC可实现多屏协同。

屏幕
平板与PC可进行屏幕拓展,不同设备间存储也能相互调动。
华为以万能卡片为介质,让信息在1+8设备里流转,这表明华为已在思考内容于所有屏幕的呈现形式。
超级终端的出现,使设备互动可发现、可视且可操作。
鸿蒙生态一触即连,已覆盖家庭中的大家电。
HarmonyOS 2已构建好万物互联的硬件与内容框架。所以HarmonyOS 3重点是填充内容,完善更多设备使用场景,尽力使每个设备(像手表、TV、PC和车机等)都能成为超级终端的中心。
但内容增多时就有个问题,用户注意力会大幅分散,新功能过多还会让学习成本变高,强产品力反倒成了负担。就拿华为笔记本电脑来说,它能无线拓展华为平板当作副屏。可传统无线显示器连接笔记本时,得进入设置进行好几步操作,确定平板的放置位置后,才可以正常连接使用。无线显示器拓展挺酷炫的,可太麻烦了。非必要我都懒得用,毕竟在一块屏幕上操作也勉强能用。新鲜期过后,这个功能大概率会无限期闲置,不会再被使用。不过华为把笔记本电脑和平板的连接简化了。在超级终端里一拉,让两个设备碰一下,平板就能当拓展屏了。不管平板置于笔记本电脑的左边还是右边,其位置都能被智能识别,鼠标还会自动连接两个设备以跨屏使用。如此一来,拓展屏功能就不再是复杂的多层级软件操作了。我只需把平板放在笔记本电脑旁边,它就能自动连接,这成了一种本能行为,符合人们对自然世界的天然理解。这时候强产品力并非负担,它无需复杂学习,相反,用户期望有更多符合直觉认知的功能出现。而这正是HarmonyOS 4此次更新最重要的主旨:为设备注入智能灵魂。当下人类技术里最接近灵魂的是什么?那无疑是当下热门的AI大模型了。
HarmonyOS 4的小艺有了大模型能力,这会给手机乃至所有智能设备的使用带来颠覆性的变化。从指令操作系统发展到图形操作系统,复杂操作指令被转化为有互动的可视图形页面。这样一来,原本学习成本极高、高高在上的电脑使用变得简单,人们稍加学习就能熟练掌握使用技巧。不必懂编程语言逻辑,靠电脑就能解决自身需求,这是图形操作系统在易用性方面的重大突破。AI大模型与操作系统相结合,这会是人类操作系统乃至人类知识运用的又一次大革命。像小艺对话,借助大模型技术,融合增强的三代ASR、全双工等技术,使小艺能理解用户口语化需求。老人对小艺说:我想把孙子照片放桌面上,这是个简单的例子。若要正常进行此操作,需打开相册,搜索孙子照片,再点击设为桌面。这里涉及三级菜单,要选搜索框,打字输入,操作很复杂。在HarmonyOS 4小艺对话的助力下,系统能明白用户要把带孙子标签的照片设为桌面的需求。明白需求后,反向推导设置任务,找到孙子照片并设为桌面就行。这里面还有个隐藏难点,要是老人本地相册里没孙子照片,这一操作就没法进行。HarmonyOS 4的超级文件搜索功能很厉害,能够跨终端搜索,像手机文件、本地设备(如PC、PAD、NAS等)以及云空间的文件都能搜。老人手机没孙子照片,不过利用超级文件搜索就能找到照片,从而满足需求。老人甚至能更精准地用自然语言描述照片,像去年我和孙子在山上过生日时拍的合照。HarmonyOS 4会调用系统级AI与搜索引擎能力,检索出符合山上、生日、和孙子合照这些特征的照片。AI大模型给操作系统带来巨大变革,或许大家还没留意到。我举个例子,2016年智能音箱刚兴起时,行业流行一个概念VOS,也就是voice OS,即声音/语音操作系统。其逻辑十分直接,包含两个层面。当时智能音箱无屏幕,想调用其内容,只能用声音操控。其次,当时智能家居的核心尚未确定,既无输出端,也无指令输入端,更多的是像声控灯、夜灯那样触发式的被动反应。于是,语音操控顺理成章地成了一个看似很靠谱的选择。然而,却碰到了一个极为致命的问题。最初可通过语音操控智能音箱,厂商虽推出不少内容应用,可当时的语音识别算法完全不懂用户想听的内容。我想听科技新闻时,它或许会推送数码、互联网、科学这三类全然不同的内容,且部分是过期的。即便到了现在,用过对话式AI大模型的人都明白,哪怕只是想让AI简单讲讲当天重点新闻,它也很难每次都提供稳定服务。AI不了解你时,很难精准理解需求并提供针对性服务。在HarmonyOS 4里,经用户授权,小艺能从小艺建议获取用户日常使用习惯,从而为用户询问给出更个性化的推荐。很简单的场景,用户说想吃火锅,可这可能是想吃四川火锅、潮汕火锅或者贵州火锅,虽都叫吃火锅,却是三种不同需求。这时候,搭载大模型技术的小艺可从用户日常使用细节里记录并整理用户意图。当用户提出需求时,借助这些意图标记,小艺能给出更精准、更贴心的推荐。这只是初步的应用。以后,小艺可能会依据你在华为浏览器看资讯的习惯,更智能地推送定制化语音播报。要是你在智慧屏上老是看美食视频,小艺建议里就会显示附近门店。经用户授权,小艺会越用越懂你,变成全能全场景的智能助手。通过这些简单例子,大家就能看出小艺搭载AI大模型后,和之前VOS有着显著区别。VOS只能依据自身应用,大致为用户寻找相应内容服务。它不能精准把握需求,无法寻找资源更好地服务用户,也不能提供解决方案,旧方案还不具备逻辑推理能力。HarmonyOS 4此次更新了小艺技能,能理解用户自然语言,用以设置自动化任务。例如设置一个工作日每天七点的叫醒闹钟,这很简单,一键就能设置,在闹钟这个APP里就能完成。比如下雨天路上容易堵,那就要提前半小时出门。这就要求任务每天调用天气APP,确认是否下雨,从而调整闹钟设置。但在旧的语音助手系统中,它会告知你无法执行,因其不能理解你的需求,无法自行设置任务逻辑,不能调用APP信息理解,也无法依据不同条件执行不同操作。以前的语音助手只能调用预设场景和功能,不能自行理解信息。但小艺不一样,随着其技能更新,它能通过分析用户自然语言得出:叫醒任务需借助闹钟APP达成,而策略改变要参考天气APP的数据,若天气APP读取的天气为下雨,闹铃就要提前半小时。小艺技能还能新增一个任务,下雨时调用地图APP功能,闹铃响起同时播报从家到公司的路况,助力用户提前做出行动决策。在这个简单的例子里我们看到,过去只能执行简单特定语音指令的助手有了进化。它能理解我的需求,将其拆分成不同执行步骤,自行确定需调用哪些能力,自行设置自动化条件来满足我的需求。就如同文章开头的例子,指令式操作系统时代,用户得熟知编程语言才能用电脑。而到了图形化操作系统,只要能看、识字看图就能操作电脑,这是使用门槛的巨大跨越。它使人人都能借助电脑这个外脑,极大地提升了人类的计算能力。HarmonyOS 4中的小艺搭载AI大模型后也是如此。用户无需知晓手机具备哪些能力、怎样使用,只要用自然语言说出需求,小艺就会自行找寻解决办法。同时,小艺将凭借自身的AI大模型能力来为你解决问题。假如你要在自己的资料库中查找某类资料,像有很多AI资料时,只想搜索其中和金融有关的部分。这时可让小艺展示所有AI金融相关内容,并整理到新文件夹,这样就能快速完成文档整理。要是自己没工夫逐一仔细查看的话,可以借助小艺的摘要功能。把咨询链接或者PDF、word文档发给小艺,让它归纳总结文章核心观点。小艺会运用大模型技术对文档内容加以提炼,然后总结出来展示给用户,助力用户高效获取信息。小艺输入法还能在社交聊天、轻办公、短视频文案、购物评论等常用场景下,AI生成多种风格文案,快速搞定枯燥重复的文案创作工作。小艺还有文生图、图生图的能力,能根据用户发送的参考图片,在了解需求后,AI生成符合需求的贺卡图片。我们之前在移动端已经见识过一些文生图应用了。说不定以后小艺也会拥有更强的生成式AI能力,像AI商品图、AI PPT、AI写作这些实用性强的功能,相信很快就能看到它们落地了。AI大模型助力下,HarmonyOS 4成拥抱大模型的操作系统先锋。看到其手机端应用,我不禁畅想它在车机、智能家居方面的应用。未来,凭借华为全栈自研的智能驾驶能力,我能否这样简单操作车机:若感觉智能驾驶风格过于激进,车机就自动把驾驶方案调得更保守;要是希望加速更平滑,它在驾驶时就会更注重线性的提速降速;若觉得车辆行驶颠簸路段时滤震不足,想要更软的调教,车辆就会自行调整底盘滤震策略?再拿智能家居来说,现在场景编辑还依赖原子化的可视化编辑。以后要是全屋智能的小艺具备AI大模型能力,我就能用自然语言表达需求,小艺会自行调用全屋设备硬件能力与华为全系软件能力,自动设定好我所需场景。这些必然是华为未来努力的方向。我们回头看HarmonyOS一代,当时提到要把所有软硬件能力原子化,在万物互联时代自由组合,构建一个万物操作系统。小艺如今可基于AI大模型,自由组合跨设备、跨系统的能力以满足用户需求。这是因为HarmonyOS具备将万物能力原子化的基础,从而能在能力池中自由调度,毫无阻碍。AI大模型的加入才刚刚起步。我已经在畅想华为全系设备彻底打通AI大模型,成为全球首个软硬件完美融合的超级终端万物操作系统,那将是多么宏伟的未来啊。HarmonyOS作为万物终极操作系统,其最终目标就是能够调用万事万物来为自己所用啊。
Copyright © 2025 IZhiDa.com All Rights Reserved.
知答 版权所有 粤ICP备2023042255号