大模型相关工作的难点与推荐资源?

1个回答

写回答

韩式饭

2026-01-29 07:55

+ 关注

计算机
计算机

或许RAG是比较可行的方案,可以在数据方面下些功夫,然后调用13B模型或者GPT来进行推理。大模型的微调恐怕很困难,就算采用了deepspeed、ZeRO Optimizer这类先进技术,仅有一张显卡的资源,对于实验迭代来说也是非常紧张的。稍微深入思考一下,一个可能的方向是:在某个特定任务里,用7B模型刷出一个SOTA(最优结果),以此证明使用大型语言模型(LLM)比现有的方法更好。不过说实话,个人不太推荐这种做法,如今这种冲榜式的工作已经不太受欢迎了。多模态对比学习到底是做什么任务的?感觉这个课题定得有点过于宽泛了。而且现在模型的规模已经不小了,稍微大一点的都要用到视觉语言模型(VLM),而要做VLM就必须先具备做大型语言模型(LLM)的硬件环境,基本上算力也很紧张。最后简单做个推广,如果有人想要快速掌握大模型相关的背景知识,可以参考一些工具书。这里给大家推荐两本我自己用过的,书中对很多经典技术都有详细的解读,还配有非常优质的代码资源。有需要的朋友可以去看我的往期文章,购买链接如下:我是 @叫我Alonzo就好了 ,是中科大在读的博士生,也是计算机视觉(CVer)领域的人员,欢迎大家私信、评论,也希望大家能一键三连并批评指正!往期的回答或者文章详见:欢迎大家关注我的个人GitHub账号,我在上面总结了一些课题的顶级会议论文列表,有需要的小伙伴可以参考,这个论文列表会持续更新最新发布的顶级会议文章。如果觉得有帮助的朋友欢迎帮忙在GitHub上点个star,谢谢!

举报有用(0分享收藏

Copyright © 2025 IZhiDa.com All Rights Reserved.

知答 版权所有 粤ICP备2023042255号