
OpenAI
不仅是
OpenAI,许多
硅谷的大模型研发都陷入了困境,这似乎表明Scaling Laws的潜力正在触及极限。无论这次是不是真的到了尽头,我们都应该意识到,Scaling Laws迟早会有到达极限的那一天。毕竟,无限增加训练数据和参数数量就能持续提升
AI性能的想法显然是不现实的。如果真是这样,人工智能未免太过简单,
人类恐怕真的会被硅基生命轻易取代。要知道,即便是获得了诺贝尔物理学奖认可的
AI科学家们,也清楚地知道
AI运行的基础依然受限于物理法则。从物理角度来看,我们无法拥有无限的数据和算力。也许当前Scaling Laws遭遇瓶颈的原因正是
人类创造的训练数据已经被充分利用,难以进一步扩展。事实上,
AI的发展越来越呈现出一种物理学科的特质,而非传统
计算机科学的逻辑。许多
计算机算法是通过推理设计出来的,而
AI领域中很多现象却是通过实验发现的,例如涌现现象、思维链(CoT)等,并非由
人类主动发明。这种特性让
AI更像是一门实验科学,与物理学类似,依靠实验观察总结规律,而非单纯依赖逻辑推理构建算法。回到正题, Scaling Laws若能早日触顶反而是一件好事。因为无论怎样,行业都需要推动
AI继续向前发展。一旦这条路径不再可行,必然会有新的增长法则被探索出来。正如生命总会找到出路一样,尚未完全成型的硅基生命同样不会止步于此。