智能音箱为何不支持大模型日常聊天?

1个回答

写回答

kkkku

2026-01-24 03:50

+ 关注

服务器
服务器

这确实是个棘手的问题。大模型存在一个明显的特性,那就是规模庞大,而智能音箱与之相比规模小很多。这里所说的大小并非指实体的体积,而是硬件的承载能力。通俗来讲,智能音箱无法在本地运行大模型,若要接入大模型,联网并请求服务器进行运算就成了唯一的途径。实际上,当下包括ChatGPT在内的绝大多数面向普通用户的大模型,采用的都是联网请求服务器运算这种机制。不过,服务器并非仅供一人使用,其算力是有限的,使用的人多了就会运算不过来。拿文心一言来说,仅就目前文字聊天的速度,还有需要申请、待机久了会被强制下线的人数情况来看,文心一言的反馈速度已经很慢了。我把它当作生产工具使用还勉强可以,可要是真当作聊天伴侣,那速度实在是太慢了。这还仅仅是打字聊天的情况,口语对话场景对速度的要求会提高数倍。在这种情况下,大模型的反馈速度会让人完全无法忍受。而对于支持日常聊天的智能音箱来说,不管是使用人数还是人均对话量都会再上一个台阶,那样服务器就更加难以承受了。当然,这个问题的解决办法也不复杂,只要这些公司更换更大的服务器就行。但更大的服务器成本高昂。ChatGPT采用每月几十美元的订阅制,据说盈利也不多(商家主要也不是靠这个盈利),而智能音箱目前是几十元人民币的买断制。这中间的价格提升,作为消费者的你愿意接受吗?如果不愿意,那就只能不添加这个功能了。

举报有用(0分享收藏

Copyright © 2025 IZhiDa.com All Rights Reserved.

知答 版权所有 粤ICP备2023042255号