
服务器
这确实是个棘手的问题。大模型存在一个明显的特性,那就是规模庞大,而智能音箱与之相比规模小很多。这里所说的大小并非指实体的体积,而是硬件的承载能力。通俗来讲,智能音箱无法在本地运行大模型,若要接入大模型,联网并请求
服务器进行运算就成了唯一的途径。实际上,当下包括
ChatGPT在内的绝大多数面向普通用户的大模型,采用的都是联网请求
服务器运算这种机制。不过,
服务器并非仅供一人使用,其算力是有限的,使用的人多了就会运算不过来。拿文心一言来说,仅就目前文字聊天的速度,还有需要申请、待机久了会被强制下线的人数情况来看,文心一言的反馈速度已经很慢了。我把它当作生产工具使用还勉强可以,可要是真当作聊天伴侣,那速度实在是太慢了。这还仅仅是打字聊天的情况,口语对话场景对速度的要求会提高数倍。在这种情况下,大模型的反馈速度会让人完全无法忍受。而对于支持日常聊天的智能音箱来说,不管是使用人数还是人均对话量都会再上一个台阶,那样
服务器就更加难以承受了。当然,这个问题的解决办法也不复杂,只要这些
公司更换更大的
服务器就行。但更大的
服务器成本高昂。
ChatGPT采用每月几十美元的订阅制,据说盈利也不多(商家主要也不是靠这个盈利),而智能音箱目前是几十元人民币的买断制。这中间的价格提升,作为消费者的你愿意接受吗?如果不愿意,那就只能不添加这个功能了。