
AI
从事所谓
AI安全和可解释性研究的人可能会面临职业困境,因为这些领域并非真正与
AI技术本身密切相关,而是更多涉及法律与政治层面的问题。只有当明确的
AI监管法规出台,并且像金融业那样实施严格的监管和严厉的惩罚时,这些岗位才可能真正发挥作用。实际上,
AI监管及相关法律法规是矛,而
AI安全、合规与可解释性则是盾。然而,当前缺乏强有力的监管体系,盾自然也就无处施展。目前,
AI尚未引发类似2008年金融危机那样的巨大破坏,因此全球范围内并未形成对
AI安全问题的高度共识。在这样的背景下,企业主动进行自我监管无异于自找麻烦。如果因过度关注安全和合规导致模型性能下降、用户体验变差,最终只会失去用户信任,影响
公司业绩,甚至可能导致资金链断裂或倒闭,到时候谁来承担责任?从市场需求来看,用户更倾向于选择完全满足其需求的
AI服务。只要生成的内容让用户满意,就很难有人会质疑其安全性。对于大多数专注于技术研发的从业者而言,他们通常不会将精力投入到
AI安全或可解释性领域,因为这些工作往往被视为边缘化任务,更多是由那些无法突破核心技术瓶颈的人承担。至于可解释性研究,虽然不能完全否定其价值,但目前该领域尚无基础理论支撑,大家仍在摸索阶段。如果说
AI训练像是古代炼丹术,那么可解释性研究更像是对丹药的主观品鉴,离实际应用还有很大距离。此外,
OpenAI内部的变动并非简单归因于Sam Altman主导的大清洗,而是反映了不同派系之间的权力斗争,例如机械飞升派与民主派之间的矛盾。而在
美国政坛,川普执政期间倾向于弱化监管,而民主党却在
AI领域采取了更加保守的态度。这种政策导向进一步削弱了对
AI安全相关职位的需求。许多企业的衰败正是因为被一些不作为的员工拖累,他们不仅阻碍企业发展,还以各种借口干扰他人的创新尝试。因此,在资源有限的情况下,确实没有必要保留太多徒有其名却无实际贡献的岗位。