图片来源:LinkedIn
OpenAI 的另一位首席安全研究员 Lilian Weng 在周五宣布她将离开这家初创公司。Weng 自八月以来担任研究与安全副总裁,此前是 OpenAI 安全系统团队的负责人。
在一篇X 上的帖子中,Weng 表示:“在 OpenAI 工作了 7 年后,我觉得准备好重置并探索一些新的东西。”Weng 说她的最后一天是 11 月 15 日,但没有具体说明她接下来会去哪里。其本科毕业于北大,后在美国读博。
“我做出了离开 OpenAI 这个极其困难的决定,”Weng 在帖子中说道。“回顾我们所取得的成就,我为安全系统团队的每一个人感到非常自豪,我对团队将继续蓬勃发展充满信心。”
Weng 的离开标志着在过去一年中,许多人工智能安全研究人员、政策研究人员和其他高管相继离开公司的最新一例,其中几人指责 OpenAI 优先考虑商业产品而非人工智能安全。Weng 加入了伊利亚·苏茨克维尔和扬·莱克——OpenAI 现已解散的超级对齐团队的领导者,该团队试图开发引导超级智能人工智能系统的方法——他们也在今年离开了这家初创公司,去其他地方从事人工智能安全工作。
根据她的LinkedIn,Weng 于 2018 年首次加入 OpenAI,参与了该初创公司的机器人团队,最终开发出了一只能够解魔方的机器人手——根据她的帖子,这一任务花费了两年时间。
随着 OpenAI 开始更加关注 GPT 范式,Weng 也如此。这位研究人员于 2021 年转型,帮助建立初创公司的应用人工智能研究团队。在 GPT-4 发布后,Weng 被指派在 2023 年创建一个专门的团队,为初创公司构建安全系统。根据 Weng 的帖子,今天 OpenAI 的安全系统部门拥有超过 80 名科学家、研究人员和政策专家。
这有很多人工智能安全专家,但许多人对 OpenAI 在构建越来越强大的人工智能系统时对安全的关注表示担忧。长期政策研究员迈尔斯·布伦达奇在十月离开了这家初创公司,并宣布 OpenAI 正在解散他曾顾问的 AGI 准备团队。在同一天,《纽约时报》对前 OpenAI 研究员苏奇尔·巴拉吉进行了专题报道,他表示他离开 OpenAI 是因为他认为这家初创公司的技术会给社会带来更多的伤害而非好处。
OpenAI 告诉 TechCrunch,管理层和安全研究人员正在进行过渡,以取代 Weng。
“我们非常感谢 Lilian 在突破性安全研究和建立严格技术保障方面的贡献,”OpenAI 的一位发言人在一封电子邮件声明中表示。“我们相信安全系统团队将继续在确保我们的系统安全可靠方面发挥关键作用,为全球数亿人服务。”
本文翻译自:TechCrunch, https://techcrunch.com/2024/11/08/openai-loses-another-lead-safety-researcher-lilian-weng/
编译:ChatGPT