
AI
如果是第一种情况,本身就旨在避开全球各地法律法规的差异限制。就像现在许多人选择在本地电脑运行AI大模型,例如Stable Diffusion。难道是谷歌的Gemini或OpenAI的ChatGPT不好用吗?显然不是,而是为了寻找更自由的使用方式。但关键问题是,大部分本地运行的大模型参数才几亿,Token量也有限,根本不够用啊!手机端内存及NPU、GPU的推理能力存在明显瓶颈。ChatGPT依托数百GB内存与强劲算力,而手机端内存和算力有限,想要超越几乎是天方夜谭,毕竟资源差距太大,这根本不在一个量级上。
有传闻称,苹果将与谷歌合作开发一款拥有2000亿参数的大型多模态语言模型,规模超越GPT-3。但难道为了IOS 18的AI功能,就要舍弃所有iphone 15 Pro之前的机型?甚至让iphone 16配备300GB内存?这显然不切实际,技术发展需要循序渐进,不可能一蹴而就。如果苹果真的开发基于本地的大模型,很可能将其他人依赖内存完成的任务转移到闪存上。这并非不可思议,即使在 MacBook 进行高性能视频渲染时,需要频繁处理大量内存数据,M2 芯片搭配 8GB 内存依然能在高负载下(内存状态标黄),顺利加载相当于 18GB 内存容量的数据。

百度
Copyright © 2025 IZhiDa.com All Rights Reserved.
知答 版权所有 粤ICP备2023042255号