“张文宏”深夜带货,Deepfake之恶何解?

潮新闻客户端 记者 朱高祥

图片

图片来源:网络截图

张文宏开始直播带货了?

近日,不少网友发现,疑似知名医生张文宏正在售卖一种蛋白棒,家中老人信以为真而大量下单。但仔细辨认可以发现,带货视频为AI合成。张文宏本人回应称,这些假的AI合成信息就像蝗灾一样,一次又一次发生,像漫天飞过来的蝗虫一样害人。

不仅是张文宏,网络上的“AI名人”已成泛滥趋势。“假靳东”迷倒一众大妈、“假雷军”辣评世间百态、“假拜登”宣布第三次世界大战开始、“假马克龙”直播回答“政府聘用灭霸”……

而更早之前的韩国Deepfake(深度伪造)性犯罪事件,不仅让韩国全体女性陷入“换脸恐慌”,更是引发全球关注,大众担心一种更广泛的、充满敌意的网络环境开始渗入真实世界。人工智能方兴未艾,公众该如何面对新一代的施虐者?

Deepfake就在你我身边

欣欣(化名)从未想过Deepfake会发生在自己身上。

今年7月9日的一天,正在刷抖音的欣欣突然收到了一条私信,被网友告知有自称其男友的人在外网盗用她的照片后进行AI换脸并传播。

图片

图源受访者

“我听到这个消息之后有些震惊且不敢相信,但真的看到这些照片后,我感到无比的愤怒。”欣欣告诉记者,对方不仅制作大量AI换脸的不良照片与视频,还随意泄露了自己的个人信息,包括网名、真名、年纪、学校、专业等等。 

欣欣随后通过多个途径进行了查证,这些照片和视频均是对方从自己的小红书搬运,经加工处理,制作出不堪入目的色情影像。欣欣第一时间选择了报警并咨询了律师,在他们的建议与帮助之下开始固定更多证据。

图片

图源受访者

“当天晚上8点多,我报警备案,当时我没有排除熟人或者陌生人的各种可能性。后续我经过各种账号套话,得知对方了解我的家属关系等更隐私的信息,我就逐步缩小了嫌疑人范围,心中也有了怀疑的对象。”欣欣随后发布了一条仅对方可见的朋友圈,且把内容做了特殊标记,很快这条内容出现在外网。

欣欣把这条直接证据交给了警方,也于不久后得知了警方的处理结果:以治安管理处罚法中传播淫秽物品罪判处行政拘留十日。

图片

图源受访者

“没想到Deepfake离自己如此之近,也没想到身边的熟人也会成为侵害自己的罪犯。”欣欣说,在处理这件事情的过程中,自己了解到身边有很多女孩子在遭受类似的事件,甚至更严重。她们被泄露个人隐私、被造谣、被AI换脸、被性骚扰等等。

欣欣告诉记者,因为自己的经历,短暂接触过几个软件,上面有成百上千的群组,群组里多的有上万人,里面内容不堪入目,充斥着各种女生的AI换脸照片与视频,以及污蔑、诋毁、造谣的话,恶心程度超出了想象。

“由于造谣成本低,他们甚至不需要完整图片,只需要一张脸部图片就能完成所有,而且很难被抓到,这使得他们更加肆意妄为。”欣欣说,从整个社会来看,也许需要更系统的治理。

Deepfake之恶何解?

正如欣欣所言,发生在身边的Deepfake犯罪事件并非个案。

由英文“deep machine learning”(深度机器学习)和“fake photo”(假照片)组合而成的Deepfake(深度伪造),能基于人类行为特征如面部、声音等合成图像、视频、音频。当前这一技术,正被滥用成为针对妇女暴力、诈骗犯罪的新前沿。

据新华社报道,韩国教育部9月9日说,韩国今年已发生400多起涉及中小学的相关案件,受害者累计超过600人。

与此同时,韩国用户使用的社交媒体Telegram上,被发现存在多个传播和分享该类型色情内容的群聊,其中已知最大的一个聊天室成员超过22万人。这类性犯罪事件的受害者人数尚难以统计。已知的被波及群体,包括女学生、女教师和女兵等,其中包含大量未成年人。

另外,近段时间,在一些短视频平台上,除了“AI名人”,“AI接吻视频”也十分流行。有博主宣称只需要下载一个软件,花费9.9元就可以完成。看着两个毫无关系的照片人物“活生生”亲吻拥抱在一起,不少网友直呼可怕。

融力天闻律师事务所高级合伙人刘赤军律师告诉潮新闻记者,Deepfake(深度伪造)之于视频,就像Photoshop之于图片,两者都直观冲击了真实和虚拟之间的界限。但Deepfake能够实现以极低的成本制作出完全虚构但极其逼真的视频。

图片

图片来源:新华社

奇安信行业安全研究中心主任裴智勇告诉潮新闻记者,深度伪造,一般是指利用人工智能技术,生成的高度逼真的视频、音频、图片、文案等内容。这些内容多被用于网络欺诈、制造谣言、扰乱公共秩序和生成各类色情内容。由于这些伪造内容大多使用了人工智能技术中的深度计算技术,且识别难度很大。

“让普通人用肉眼或耳朵来识别深度伪造的视频、音频内容是不现实的,因为深度伪造本身就意味着难以识别,没有经过专业训练的普通人很难从技术角度识破深度伪造内容。”裴智勇说。

在他看来,虽然想要阻止人们使用AI生成伪造视频或图片不现实,但这并不意味着对伪造视频或图片毫无办法。“国内对于网络色情视频和图片都有非常成熟的治理方法,即便不能用技术鉴别一张图片的真伪,但可以从平台一侧阻止色情内容的传播,定位色情内容的传播源头并实施打击。”

在自拍、短视频盛行的时代,想要让普通公民少露脸、少出镜,几乎是不可能的。所以,裴智勇提醒道,当公众遇到有人使用伪造视频、音频等内容对财产侵害、名誉损害时,最好的办法还是及时报警或向平台进行举报,减少深度伪造内容带来的影响。

“转载请注明出处”