标题,AIscaling定律走到头了?新 growth 法则在哪?

AI

1个回答

写回答

zhangyan0203

2026-01-02 00:30

+ 关注

OpenAI
OpenAI

不仅是OpenAI,许多硅谷的大模型研发都陷入了困境,这似乎表明Scaling Laws的潜力正在触及极限。无论这次是不是真的到了尽头,我们都应该意识到,Scaling Laws迟早会有到达极限的那一天。毕竟,无限增加训练数据和参数数量就能持续提升AI性能的想法显然是不现实的。如果真是这样,人工智能未免太过简单,人类恐怕真的会被硅基生命轻易取代。要知道,即便是获得了诺贝尔物理学奖认可的AI科学家们,也清楚地知道AI运行的基础依然受限于物理法则。从物理角度来看,我们无法拥有无限的数据和算力。也许当前Scaling Laws遭遇瓶颈的原因正是人类创造的训练数据已经被充分利用,难以进一步扩展。事实上,AI的发展越来越呈现出一种物理学科的特质,而非传统计算机科学的逻辑。许多计算机算法是通过推理设计出来的,而AI领域中很多现象却是通过实验发现的,例如涌现现象、思维链(CoT)等,并非由人类主动发明。这种特性让AI更像是一门实验科学,与物理学类似,依靠实验观察总结规律,而非单纯依赖逻辑推理构建算法。回到正题, Scaling Laws若能早日触顶反而是一件好事。因为无论怎样,行业都需要推动AI继续向前发展。一旦这条路径不再可行,必然会有新的增长法则被探索出来。正如生命总会找到出路一样,尚未完全成型的硅基生命同样不会止步于此。

举报有用(0分享收藏

Copyright © 2025 IZhiDa.com All Rights Reserved.

知答 版权所有 粤ICP备2023042255号