只需3秒语音,
就能克隆你的声音;
上传一张照片,
就能生成动态视频。
这不是科幻电影,
而是正在发生的真实事件。
近日,#靳东两会建议AI换脸立法#的话题冲上热搜第一。此前,雷军提出的“加强‘AI换脸拟声’违法侵权重灾区治理”建议,同样受到了广泛关注。
随着人工智能(AI)技术的迅猛发展,AI换脸等深度合成技术已逐渐走入大众视野,其应用范围不断扩大,却也被不法分子利用,催生出诸多违法犯罪行为。
在某平台搜索“AI声音克隆”,跳出这样的服务:200元定制明星语音包,500元制作名人换脸视频,甚至支持“情绪调节”要求——想要明星笑着推荐理财产品,加钱就能实现。
这些商家利用开源的AI工具,通过短短几分钟的名人原声或公开演讲视频,就能轻松生成以假乱真的换脸视频。由于仿冒名人的内容制作成本低,且账号频繁更换,使得受害者难以防范。
AI换脸会提取人脸图像的面部特征。那么一张静态的人像照片被诈骗分子窃取后,也能进行换脸吗?
专家表示,经过一段时间的模型训练,一张静态照片可以在演示者的控制下,像真人一样做出转头、张嘴、眨眼、微笑等表情和动作。
更令人担忧的是,AI换脸技术不仅限于静态照片的活化,还能在即时视频通信中实现实时换脸。虽然这需要采集大量不同角度的照片进行模型训练,但一旦成功,就能达到以假乱真的效果。声音的还原同样不是难事,只需预先采集目标人群的声音进行模型训练,就能实现声音的精准模仿。
1.多留心多注意“瑕疵”
AI生成的内容并非无懈可击,只要细心观察,就能发现其中的瑕疵。
例如,AI语音往往带有机械尾音,在重音停连方面语气不够自然;AI换脸视频中的眨眼频率固定,嘴角肌肉运动可能不自然等。
2.多种方式验证“真伪”
让对方用手指或其他遮挡物在脸前晃动,如画面出现类似果冻效应或者扭曲,那对方很可能正在使用AI换脸技术。
询问对方一些私密的问题,如生日、电话、喜好等,来确认对方的身份。
凡是涉及转账、借钱等经济往来的,为安全起见,可要求对方线下见面。
3.保护个人隐私
AI诈骗是隐私信息泄露与诈骗陷阱的结合。要加强对个人隐私的保护,不轻易提供人脸、指纹等个人生物信息;不过度公开或分享动图、视频。
当然,大家也不必对AI诈骗过度恐慌。国内的科研团队和科技企业正在积极研发针对虚假信息的检测技术,不断提升语音、面部合成信息的检测成功率。只有我们共同努力,才能构建一个更加安全、健康的网络环境。