
手机
端侧部署大模型的主要难题在于本地硬件条件的限制。目前普遍认为,基础大模型的参数量至少需要达到60亿规模,也就是6×10^9级别。若采用当前主流的int 8量化部署,模型本身就需要6GB空间,再加必备的辅助与缓存空间,通常总共需8GB以上的内存或显存。即使未来采用INT4,也需6GB。这个量级的模型无法使用时再加载,通常必须常驻内存。从这个角度而言,未来手机安卓旗舰可能以24GB为起点,并标配端侧大模型。Intel的Meteor Lake架构酷睿Ultra与AI PC概念,加上32GB配置,表现也相当不错。苹果的内存价格高得离谱,一万多元的 MacBook Pro 14仅8GB,想运行大模型几乎不可能。2023年8月18日上午,英特尔于大湾区举办技术分享会,展示其在AIGC领域的最新成果与进展。
传统观念中,运行像ChatGPT这样的大语言模型需依赖大显存显卡,但这场交流会彻底改变了这一认知。为使12、13代酷睿平台流畅运行大语言模型,英特尔打造了BigDL-LLM库,优化体验。这个库能够优化和支持多种大语言模型,涵盖可在本地运行的开源模型,如LLaMA与LLaMA2、ChatGLM及ChatGLM2等多款大型语言模型,为它们提供高效运行和性能提升的解决方案。

电脑
Copyright © 2025 IZhiDa.com All Rights Reserved.
知答 版权所有 粤ICP备2023042255号