
谷歌
北欧的探索者
英格兰中世纪时期的国王们

Gemini
美国革命者——
美国女性与澳大利亚女性(后者其实更准确,白澳政策下无力愤怒罢了)——
谷歌公关声明:已发现历史问题存在的错误,正在调整AI模型,未来将推出更准确的改进版AI。
目前尚不清楚这些模型出现如此离谱错误的真正原因。单纯用迎合进步派叙事来解释,并不足以说明问题。比如,将克利奥帕特拉替换为黑人形象或许还能勉强找到某种逻辑,但把1943年的德军换成有色人种,到底想表达什么?历史上确实存在少数黑人德军士兵,但AI生成的比例显然与事实严重不符。此外,过往的AI作图中,常将社会底层、罪犯或毒贩等角色刻板地转化为有色人种形象,而这种倾向恰恰引发了进步派的强烈批评。因此,这一现象并不能简单归因于对特定意识形态的支持。这一事件无疑为美国的AI怀疑论悲观派及反AI阵营提供了充足的谈资。他们担忧,如果未来世代依赖AI来理解历史与现实,特别是在选举等关键环节中,任何一个技术错误都可能引发可怕的蝴蝶效应,后果不堪设想。不过,我认为这些担忧更多是无谓的。从以往的情况看,出现重大失误或翻车事件的,往往不是技术领先者,比如OpenAI这样处于前沿地位的企业,而是一些追随者,像Google Gemma这样的后来者更容易出现问题。这说明,无论是过度处理还是触碰红线,归根结底都是技术实力不足所致。与OpenAI相比,这些企业的技术差距显而易见。实际上,真正顶尖的人工智能系统,完全有能力妥善处理敏感内容、审查需求等相关问题,做到游刃有余。现实表明,AI模型的发展并非可以随意野蛮生长。例如,生成符合人们期望或应见的图片,是关键技术瓶颈之一。若无法实现,公众要求控制AI的呼声必将日益高涨。这是必须正视的挑战。据卫报相关报道显示,内容如下:
这家科技公司宣布,由于社交媒体上出现了由Gemini模型生成的人物图像示例,包含不同种族和性别的历史人物(如教皇与美国开国元勋),公司将暂停该模型的人物图像生成功能。谷歌在声明中表示:我们正积极解决Gemini图像生成功能的最新问题。在此期间,人物图像生成功能将暂停,不久后会发布改进版。谷歌在声明中虽未提及特定图像,但 Gemini生成的图片示例已在网络平台广泛传播,同时伴随有关人工智能输出准确性与偏见问题的讨论。一名前谷歌员工透露,要让谷歌 Gemini承认‘白人’这一概念非常困难。本周三,谷歌 Gemini团队高级总监杰克·克劳奇克(Jack Krawczyk)承认,该模型的图像生成功能(目前在英国和欧洲暂不可用)确实需要进一步优化调整。克劳奇克表示:我们正积极着手改进这类描述。他提到,Gemini的AI图像生成技术确实能够呈现多样化的人群,这通常符合全球用户的期望,因为世界各地的人都在使用这一工具。然而,在某些情况下,它未能准确达到目标。克劳奇克在X平台的一份声明中指出,谷歌遵循的人工智能原则旨在确保其图像生成工具能充分反映全球用户群体的多样性。尽管如此,对于一些开放式的图像请求(例如一个人带着狗散步),谷歌会继续努力优化结果。但他也承认,当前的生成结果可能受到历史偏见的影响,仍需进一步完善。我们将深入考虑历史背景带来的复杂性,并持续调整以更好地适应这些需求。他说。Gemini在部分历史图像生成描述中出现了不准确信息,我们正全力尽快解决这一问题。杰克·克劳奇克表示,创新是推动社会进步的关键,值得每个人关注与投入。关于人工智能偏见的报道揭示了多起对有色人种造成不利影响的案例。去年,华盛顿邮报的一项调查指出,多个图像生成工具存在针对有色人种及性别方面的歧视问题。研究显示,尽管在美国,63%的食品券使用者为白人,但 Stable Diffusion XL 等生成器却呈现出食品券领取者以非白人或深色肤色人群为主的画面。此外,当要求生成社会服务机构工作人员相关图片时,也出现了类似偏向性结果,进一步反映了这些技术在数据训练和输出上的不公平现象。萨里大学以人为本的人工智能研究所安德鲁·罗戈斯基指出,在深度学习与生成式人工智能的众多领域,减少偏见是一大难题,因此出现错误在所难免。他指出:消除偏见存在诸多研究与方法,涵盖整理训练数据到为模型训练设置防护措施。尽管人工智能和法学领域的大型语言模型仍会出错,但随着技术进步,这些问题有望逐步得到优化。
Copyright © 2025 IZhiDa.com All Rights Reserved.
知答 版权所有 粤ICP备2023042255号