
OpenAI
OpenAI推出的诸多产品可能存在隐私泄露风险,这早已不是新鲜事。去年,不少大型机构因此自主研发闭环
AICG工具,避免使用
ChatGPT以确保数据安全。
ChatGPT并非故意收集隐私信息,但其工作原理是将用户输入的内容作为学习资料。经过学习,生成内容时,可能会输出用户之前输入的信息。这并非有意为之,而是运行机制所致。以前不少白领用
ChatGPT制作内部报告时,会加入
公司的经营数据。
ChatGPT在生成报表的过程中,会将这些数据一并纳入自己的学习数据库中,可能引发信息泄露风险。之后,在涉及该行业的问答里,
ChatGPT可能调用数据库内容,导致
公司内部数据泄露。华尔街大型
银行因此集体抵制
OpenAI,迫使其在去年8月底推出企业版
ChatGPT,承诺不会将企业用户的输入内容用于模型训练。然而,华尔街对此信任度不高,鲜少买账。
苹果和OpenAI面临类似风险,苹果设备能提供多样数据供ChatGPT学习。这些数据经学习后,可能转化为自动输出内容,其中某些信息或内容存在被泄露或不当呈现的风险,需谨慎应对。ChatGPT的产品设计存在固有问题,其工作原理若不改变,风险将持续存在。普通人信息泄露影响有限,但大企业内部人员需严管数据,确保信息安全无虞,避免潜在损失。