
人类
在不涉及技术细节的前提下,让我们聊聊一些易于理解的概念。GPT的迭代某种程度上反映了
人类学习能力的进步。例如,
OpenAI的首席技术官米拉?穆拉蒂曾指出,训练
AI需要大量的素材作为基础。对于
本科生或
研究生阶段的知识体系来说,其结构和内容通常逻辑清晰、系统性强且丰富多样。然而,博士生的学习与研究则呈现出截然不同的特点。许多博士的研究方向往往非常小众和冷门。比如,一个看似普遍的生物学博士学位背后,其实隐藏着极其狭窄的研究领域。我有一个朋友,在博士期间专注于研究太空微重力环境下植物细胞的生长情况。自从她的师姐毕业后,整个学校就只有她一个人在做这个方向的研究,甚至在全球范围内,从事相同研究的人也寥寥无几。这种高度专业化的领域对
AI的训练提出了极大的挑战。此外,博士阶段的核心任务是科研,旨在探索未知并创造新知识。而当前的
AI并不具备这种创新能力。因此,
人类必须不断产出新的知识供
AI学习,但从目前的情况来看,我们创造新知识的速度远远落后于GPT吸收和处理信息的能力。简单来说,如果
人类的知识积累到2米高,那么很难训练出能够超越2.1米高的
AI。尽管如此,我们可以在现有知识范围内尽量提升
AI的能力水平。基于上述原因,在某些领域达到专业博士的智力水平成为了
OpenAI早期的重要目标之一。然而,实现这一目标并非易事。当前,部分
AI模型尝试通过高质量的数据生成其他高质量模型来进行自我优化,但这种方式存在一定的风险,可能导致每一代模型的表现逐渐下降。因此,新版GPT并未采用这种方法,而是着重提升了推理能力,力求将GPT-3的推理水平提升至博士级别。但是,如何定义博士级推理能力本身就是一个难题。目前,许多大模型都在进行类似
研究生级别的推理测试(GPQA),并且预期新一代模型可能会超过博士生的推理水平。即便如此,即便
AI达到了这样的推理水平,它是否就能真正参与到科研活动中,创造出全新的知识?答案并不明确。很多
AI领域的
专家寄希望于
AI之间相互协作,共同创造新知识的美好愿景,但这在短期内恐怕难以实现,甚至能否最终达
成都还是未知数。现阶段所谓的
AI新发现或新创造,实际上更多地体现在通过对已有模式的组合、推断和变形来生成看似新颖的内容,如文章、代码或设计中的独特组合。这些成果固然令人瞩目,但它们本质上仍依赖于已有的知识框架,并未真正实现从无到有的创新。尽管
AI在模仿
人类思维和处理复杂问题方面取得了显著进展,但在独立创造新知识的道路上,还有很长的路要走。