你真的能够识别AI生成的图片和视频吗?

自从stable diffusion和Midjourney出现以来,文生图和文生视频已经达到了可以以假乱真的地步。一开始我也以为自己能够识别出AI生成的东西,但是慢慢的发现这个事情不简单,AI生成的东西已经不是以前那种可以一眼认出的水平。


比如下面这一幅图片,你能够猜到左图和右图到底是哪个AI生成的吗?

图片

真实答案是右边的是真实的图片,左边是AI生成的。


为了验证到底目前AI生成能力有多强,有网友制作了一个网站“an AI video quiz”,用来测试到底人类能不能给识别出AI生成的视频。

图片

感兴趣的小伙伴可以点击这个网站参与测试:


网站中共10个视频,让人识别一个视频是真的还是假的。从我自己的测试结果来看,很多视频就算你自己认真看,也看不出来它到底是哪里假的。

图片


比如下面这个视频,多次看下去还是很难分辨出其真假。


一开始我做测试的时候,以为这个肯定是很容易识别出来的,但是真正做得时候才发现小看这些AI视频了。只做对了7道题目

图片


同时,根据在成功完成测验的人中,只有6.7%的人能够正确回答所有10个问题,这简直离了大谱。

图片


只能感叹,AI如果真的要骗我,有时候真的是毫无破绽。而且普通人对于这种AI生成的视频可能更加难以识别。


AI生成引发的舆论和诈骗

就在前不久,一张AI图片让本来就比较捉急的美国大选,提前引来两党的“红蓝对决”。


共和党全国委员会的委员Amy Kremer 在推特上发了条推文“这个图片很深入人心,我的心很痛。”,配文是一个女孩在飓风营救中抱着小狗在哭。

图片

在评论区被人识别是AI生成图片之后。Kremer 表现为无所谓的态度,她觉得这张照片怎么来的不重要,她认为这种照片象征这很多人正在经历着创伤和痛苦。从她的回答中其实可以知道,她对于这张照片是否是AI生成表现出不在乎,因为她主要的目的是为了攻击执政党在飓风营救当中的失责。


这种利用AI图片去引导社会舆论,往往很容易被有心人去利用。特别是容易影响到普通人,因为他们在平常中识别不出图片的真假。


另一方面,AI生成被不法分子用得更多的敌方在于诈骗。这些新闻最近更是层出不穷。


2024年2月,香港发生了一起涉及2亿港元的AI诈骗案。诈骗分子利用深度伪造技术,伪造了公司高层管理人员的形象和声音,在网上会议中冒充多人,成功骗取财务职员转账2亿港元

图片


B站UP主滤镜粉碎机拍的视频,利用AI合成自己的语音视频,成功骗走了母亲的2万元。

图片


还有前段事件轰轰烈烈的韩国N号房2.0事件。这一次,最大的受害者群体,是学生。


有的学生利用同学的照片,用deepfake定制了她的色情影像,甚至他还在定制的时候注明了身材要求、姿势要求等。

图片


可以看到,在韩国的地图上,遍布这密密麻麻的红点,这些代表着此时此刻男学生正在用女孩的照片制作儿童色情内容。

图片


现在AI生成视频简直是肉眼都分不出来的地步,同时语音合成、语音和口型对比、换脸技术等等已经有了明显的进步,这就更加使得普通人更加难以识别这些生成的视频了。


同时这种视频制作,在网上可以找到一堆教程。连一个没有学习过编程的普通人都能够立马上手制作一个AI视频,可想而知这种技术已经非常成熟。只要你不认真观看,是很难分辨出来的。


如何识别出是AI生成的?

这里教给大家几个方法,看怎么识别出是AI生成的图片或者视频。


第一个就是看,不自然的面部细节。

比如在视频中,人物的嘴部动作不自然和不连贯。特别要留意讲话的时候,有没有大幅度抖动情况的出现,这些不一致的问题通常是由于生成模型在帧与帧之间的连续性处理不够完善,一般出现这些能够实锤是AI视频。

图片


第二个看异常的光影和反射。

AI生成的图片可能无法正确渲染复杂的光影或反射效果,导致画面看起来不真实。比如下面这个画面中,两个人物反射出来的光源并不相同。

图片


最后还有一个就是,AI生成的视频会频繁重复某种动作。也就是来来去去的那几个动作,这是因为AI的动作匹配算法一般不太好,所以只学习到了几个关键动作进行重复。


如何保护我们个人隐私安全?

AI技术的滥用,对我们的个人隐私安全也构成了重大威胁。


就像这次韩国的N号房2.0,本质上就是利用AI换脸技术进行作恶的事件。本质上这种技术其实目前来说不算新鲜。


还记得在2019年的时候,国外有人上线了一个“一键脱衣”应用DeepNude,还宣称技术无罪。

图片


但是仅仅不到一周的时间,其就面临着巨大的道德争议,这款软件的开发者选择了将它下架。从我个人角度来看,不管是什么技术,本质上还是不能够损害人类的利益,而不是通过宣称技术无罪来牟利。


从实现角度去看,这种软件其实技术上实现不难。本质上就是利用了图像修复技术,把人的衣服去掉然后再还原。那么只要知道原理,我们就可以很好的进行对抗。


图像修复:对抗技术进行干扰

AI去衣很多技术方案,其实都来自于《Image Inpainting for Irregular Holes Using Partial Convolutions》中提出的图像到图像技术。


这个技术就是把马赛克过的图像进行重新修复,其本质上就是根据马赛克附近的图像进行相似匹配,来还原与图像一致性较高的像素块。

图片


不仅仅可以修复环境,也可以修复人物等等:

图片


如果把这个技术用在“去衣服”上,就是把衣服马赛克后进行的还原。那么我们就可以利用对抗样本技术,可以在原始图像中加入人类肉眼不可见的噪声,干扰去衣模型的识别和生成过程。例如,生成扰动使得模型无法正确判断衣物区域或生成合成图像。


这个生成扰动的方法,具体要怎么生成,业界其实有很多中方法,这里不过多赘述。


但话说回来,这次的韩国N号房事件也提醒着我们每一个人,在日常生活中需要更加关注自身的隐私问题,在互联网上发布自己的图片其实是比较危险的,不排除有心人会用你的图片做什么坏事情。


所以从源头上来说,少发一些涉及自身隐私问题的信息在网上,这样才能更好的保护自身,从而不会那么轻易的让非法分子进行利用。


以上,就是这篇文章的所有内容了,如果觉得还可以的,可以点个关注。我是leo,我们下期再见~