美国AI安全研究员接连离职,AI无序开发风险谁来踩刹车?
美国AI开发领域正经历一场震动,曾处于人工智能开发最前沿、负责安全性的研究人员接连离开一线。Anthropic的安全研究员Mrinank Sharma今年2月离职,他在英国牛津大学获得机器学习博士学位,抱着为AI安全性做贡献的想法前往美国旧金山,在Anthropic从事模型内部的透明性机制研究等。然而,他离职时在公开信中表示,在职期间面临将自身价值观落实为行动的困难。
2026年2月,曾在美国OpenAI负责安全对策的研究人员Zoë Hitzig也因ChatGPT引入广告而辞职。她在《纽约时报》上发表文章,呼吁人们关注基于用户内心话投放广告的操控行为,指出OpenAI抛弃了在AI引发问题上抢占先机的理念。
2026年4月7日,Anthropic试验性公开了新型AI模型“Claude Mythos”,其性能高到可以锁定系统上未知的缺陷,若被恶意用于对银行的网络攻击等,可能导致灾难性结果。Anthropic严格限制公开对象,甚至引发美国财政部长与美国大型银行行长召开紧急会议讨论应对方案。Mrinank Sharma是否预言了Claude Mythos的危险性,他本人并未给出明确回应,但他辞职时曾写道:“我们的智慧必须与我们影响世界的能力同步增长,否则就要付出代价”。
研究AI安全性的开发人员相继离职,反映出各企业在销售额和企业价值不断膨胀的同时,对待安全和企业伦理的态度开始动摇。Anthropic的CEO达里奥·阿莫迪(Dario Amodei)虽认识到AI快速创新可能带来严重风险,但Anthropic在与美国国防部就AI军事利用的问题上,随着竞争对手OpenAI获得国防部合同,也表示将继续与政府展开协商。正如谷歌一名职员所说:“无论有多么崇高的理念,在开发竞争面前都毫无意义”。
面对AI的无序开发竞争,各方开始呼吁采取措施。OpenAI在4月6日发布的政策建议中,提出包括税制改革、每周四天工作制等设想,并呼吁制定国家层面的安全标准,强调监管的必要性。Anthropic在4月2日更新的建议中,也重点强调了开发过程的透明性以及对超智能模型潜在风险的控制。美国总统特朗普表示政府应该拥有强制停止AI技术的“终止开关”,美国国会的危机感也在扩散。
编辑观点:AI安全研究员的离职凸显了行业在理念与开发之间的矛盾。企业在追求商业利益时,对安全和伦理的重视有所动摇。各方虽已意识到风险,但在竞争激烈且国际规则欠缺的情况下,如何平衡开发与安全,找到控制AI无序发展的有效方法,是美国乃至世界亟待解决的问题。
