
谷歌
我对Gemini 2.0 Flash感到困惑,因为
谷歌之前命名的Flash模型通常只有大约9B参数,这么小的模型居然能超越拥有上百B参数的Sonnet/GPT-4O甚至O1,这让我觉得不可思议。我怀疑
谷歌可能在玩文字游戏。此外,Gemini 1.5的表现平平,与参数相近的Llama 3.2/3.3相比并无优势。然而到了Gemini 2.0,其进步之大令人惊讶,似乎一下子领先了全球一大截。难道
谷歌在数学理论上取得了重大突破?这种飞跃般的进步让人难以置信,或许背后还有其他我们尚未知晓的因素在起作用。无论如何,这一切都显得非常神秘和值得进一步探讨。