OpenAI视频模型Sora被恶意泄露,又拉马斯克背锅?

全文1973字,阅读约需6分钟,帮我划重点

划重点

01OpenAI的文生视频模型Sora在11月27日凌晨遭到恶意泄露,短暂开放约1小时。

02泄露原因被认为是参与Sora测试的艺术家对OpenAI公司不满,通过Hugging Face平台发布项目并泄露早期访问权限。

03事件发生后,OpenAI并未证实Sora泄露的真实性,但强调参与测试的艺术家是自愿的。

04然而,此次泄露事件引发对OpenAI安全问题的关注,尤其是其在大模型训练中的潜在风险。

05除此之外,OpenAI近期还面临高管离职和董事会变动,以及安全研究副总裁Lilian Weng的离职。

以上内容由腾讯混元大模型生成,仅供参考

科技旋涡作者|贾桂鹏

11月27日凌晨,OpenAI的文生视频模型Sora,被人恶意泄露了API,使其短暂地开放了1小时左右。


图片


据了解,此次泄露事件是由于自今年年初OpenAI首次预告了其文本转视频AI模型 Sora后,一直没有提供任何具体的更新。导致一群参与OpenAI新型文本转视频AI模型Sora的测试艺术家,因对公司的不满而泄露了该模型的早期访问权限。


在OpenAI介入并关闭相应权限之前,已经有不少人制作了AI视频并流出。此次对于OpenAI会造成什么样的影响呢?


艺术家们的愤怒


据悉,泄露者通过AI开发平台Hugging Face发布了一个与Sora API相关的项目,利用早期访问的认证token,创建了一个前端界面,允许用户生成视频。通过这个前端,任何用户都可以输入简短的文字描述,生成最长10秒、分辨率高达1080p的视频。


图片


随后,许多用户在社交媒体上分享了生成的视频示例,这些视频大多带有OpenAI的视觉水印。然而,短暂地开放了1小时左右,前端界面就停止了工作,外界猜测OpenAI和Hugging Face可能已经撤销了访问权限。


图片


而且,这些艺术家在Hugging Face这一公共AI模型平台上发布了他们的抗议信,声称自己在测试过程中被公司利用,成为 “无偿的研发和公关工具”。


在这封公开信中,艺术家们表示:“亲爱的企业AI领主们,我们获得Sora的测试权限时,被承诺是早期测试者和创意合作伙伴。然而,我们认为自己只是被引诱进入一种‘艺术洗白’的过程,为Sora做宣传。” 他们强调,艺术家不是公司的 “免费bug测试员、宣传工具、训练数据或验证token”。


图片


有意思的是,在公开信相关网站上,它获得了122名联名支持者,其中甚至出现了马斯克的名字。但考虑到签名系统不需要严格的身份认证,暂时不能确定其是否为马斯克本人。


图片


在事件发生后,当有媒体联系OpenAI时,OpenAI并未证实Sora泄露的真实性,但强调参与 “研究预览” 的艺术家是自愿的,并不需要提供反馈或使用该工具。


科技旋涡认为,年初OpenAI首次向世界展示了Sora,其生成视频的时长、质量让人耳目一新,但几乎一年时间过去了,OpenAI对Sora还没有有效更新,不过这还不是最可怕的,如果当它的正式版本发布后,已经属于落后的技术,那才是OpenAI的悲哀。


OpenAI的安全问题


Sora相关项目的泄露很容易让人们联想到安全的问题,如果这个事件继续发酵,很容易让大家对利用大量数据进行训练的AI公司失去信任。


而且,这样的安全隐患随着一位已辞职的OpenAI团队负责人的发言变得越来越接近,他表示,科技巨头微软斥巨资支持的OpenAI正在解散其聚集于AI安全研究的“AGI Readiness”团队,该团队曾经负责向这家AI初创公司提供如何处理与应对越来越强大的AI技术方面的解决方案与建议,以及提供当今世界是否准备好管理这些技术方面的建议。“AGI Readiness”团队曾经的团队主管表示,希望在外部继续AGI领域的相关研究。近期越来越多迹象表明,OpenAI似乎全身心投入AI创收,无暇顾及AI安全。


图片


而在本月初,OpenAI再痛失一员大将,OpenAI安全研究副总裁Lilian Weng发出长信,官宣离开OpenAI的安全团队。


今年9月,OpenAI宣布其安全与安保委员会将成为独立的董事会监督委员会,该委员会于今年5月成立,负责处理有关安全流程的争议。该委员会最近结束了为期90天的审查,对OpenAI的流程和保障措施进行了评估,然后向董事会提出了建议。



高管离职和董事会变动的消息也是继今年夏天围绕OpenAI的安全问题和争议日益增多之后传出的,此时OpenAI与谷歌、微软、Meta和其他公司正处于生成式人工智能军备竞赛的风口浪尖——据预测,这个市场将在十年内达到1万亿美元的营收规模——因为各行各业的公司似乎都急于增加人工智能聊天机器人和代理,以避免被竞争对手甩在身后。


据The Information援引一位了解相关会议情况的人士透露,今年夏天,在一些并未公开的会议上,奥特曼的团队向美国国家安全官员展示了“草莓”模型。


图片


报道指出,通过向政府官员展示一项尚未发布的技术,OpenAI可能为人工智能开发者树立了新标准,尤其是在先进人工智能日益成为潜在安全隐患的今天。此次演示可能是OpenAI努力向政策制定者提高透明度的一部分,但如果政策制定者认为该项技术形成威胁,那么他们可能给公司带来麻烦。


不过,一些业界人士对此并不买账,因为OpenAI并未向公众提升透明度。AI初创公司Abacus.AI CEO Bindu Reddy表示,封闭的OpenAI将他们最好的大模型藏在背后,以此来取得领先优势。“如果没有开源AI,我们都会完蛋,我们可能会把文明的控制权交给1到2家公司。”


写在最后


虽然这次艺术家们的泄露只是抒发出自己的不满,好像没有造成更大的影响,但OpenAI的ChatGPT平台被曝出一系列沙盒漏洞,用户竟能在本不该接触的环境中游刃有余,文件上传、命令执行甚至文件结构浏览,这令人不禁想起黑客神秘的入侵操作。这些安全问题的出现,进一步凸显了OpenAI在网络安全方面的潜在风险。


图片