
伊利
简单来说:你连矛(AGI)都还没造出来,何必养那么多人研究如何制作能抵挡矛的盾?这有意义吗?不就是想防我用AI生成内容罢了。生成几个牛子有何不可?难道会扰乱世界?若真如此,那必是你们的产品质量太差。大模型的安全问题确实很重要,其可被攻击的漏洞不少。早期的ChatGPT就存在风险,通过在提示词中加入有害信息,可能套取训练数据里的敏感内容,这表明安全防护措施必须加强。比如,模型参数泄露后果严重,尤其是闭源大模型,像OpenAI的模型,训练成本高达千万到上亿美元。
大模型安全性取决于四个要素:数据安全、模型安全、基础设施安全和伦理道德考量。这些方面共同影响着模型的可靠性和风险控制。

AI
这些是安全团队需要考虑的事项。其中,看似最不直接产生效益的其实是道德伦理。例如,早期的ChatGPT曾能输出毁灭世界的步骤,甚至还会鼓励某些人自杀,这些都凸显了伦理约束的重要性。后续逐渐进行了修正,这属于弥补漏洞的措施。由于难以预先判断所有可能的攻击形式,最有效的方式是及时发现问题并解决,同时让大模型输出尽量符合人类价值观。这种对齐似乎成为IIya与Altman关系破裂的主要因素。在矛尚未充分发展时,研究盾通常需要依赖矛的支持,且可能长期收益较低。对非安全公司而言,盾似矛;对专注安全的企业,盾才是盾。
Copyright © 2025 IZhiDa.com All Rights Reserved.
知答 版权所有 粤ICP备2023042255号