1.泰国总理佩通坦透露,她也曾遭遇诈骗,对方利用AI技术模拟东盟某国领导人的声音,险些上当。
2.巴菲特表示,AI生成图片真假难辨,让他感到紧张。
3.由于此,佩通坦已责令副总理兼数字经济与社会部长巴瑟处理此案,并提醒民众对电信诈骗提高警惕。
4.此外,AI技术在仿冒名人、造谣、换脸诈骗、窃取隐私等领域出现,安全公司McAfee公布的数据列举了被冒用最多的10个美国名人。
5.专家建议,防范AI诈骗需做好信息保护,提高警惕,如不泄露个人信息,尤其要注意图像、声音、指纹等生物信息的保护。
以上内容由腾讯混元大模型生成,仅供参考
泰国总理佩通坦15日对媒体透露,自己也曾遭遇诈骗,对方利用人工智能技术(AI)模拟东盟某国领导人的声音,并以“国家”名义诱骗其捐款,自己险些上当。她以此提醒公众对电信诈骗提高警惕。
佩通坦当天接受媒体采访时回忆说,对方用AI技术模拟东盟某国领导人的声音,通过音频称希望合作。“对方声音太像了,也非常清晰,我以前听过这个声音。”她告诉记者。
佩通坦说,诈骗分子后来要求她捐款,并称“泰国是东盟唯一没有捐款的国家”,这引起她的警惕和怀疑。随后,当对方发来一个不属于其所称国家的银行账户后,她才真正意识到这是个骗局。
佩通坦已责令副总理兼数字经济与社会部长巴瑟处理此案,她同时提醒民众对电信诈骗提高警惕。
近几年,AI作为一种新技术,面世以来即被应用到多个领域,但也出现了不少利用AI进行违法犯罪的案例,包括仿冒名人、造谣、换脸诈骗、窃取隐私等。
巴菲特:AI生成图片真假难辨让我紧张
去年5月,沃伦·巴菲特在伯克希尔·哈撒韦股东大会上表示:“我对AI人工智能一无所知,但不意味着这个技术不重要。AI发展让我有些紧张,生成式AI会让我突然出现在一张图片上,这真假难辨。欺诈在美国一直出现,AI当然也有机会去做好事,我觉得AI有很大做好事、坏事的潜力,只能让它自然而然在未来发生。”
同年10月23日,巴菲特旗下伯克希尔·哈撒韦公司在官网罕见发表声明,强调公司董事长巴菲特不会在社交媒体上推荐任何投资产品和政治候选人。
来源:伯克希尔官网
这份声明中提到,现在人们越来越多地使用社交媒体,关于巴菲特代言投资产品以及他支持政治候选人的欺诈性声明层出不穷。“巴菲特目前并未、将来也不会代言投资产品、以及代言或支持政治候选人。”此次促使巴菲特发表声明的直接原因,在于他看到了Meta旗下的Instagram平台上有虚假的政治支持信息。
马斯克成AI诈骗案中最常见代言人
Sensity是检测深度伪造视频的公司,该机构发布的数据显示,深度造假广告常常使用巴菲特这样的著名投资者和亚马逊创始人杰夫·贝索斯(Jeff Bezos)等商界大佬这样的形象。Sensity数据显示,在2000多起深度伪造案件中,埃隆·马斯克(Elon Musk)的形象出现在了近四分之一的案件中,成为AI诈骗案中最常见的代言人之一。
去年8月,马斯克因AI伪造技术卷入了一场诈骗事件。82岁的退休老人史蒂夫·比彻姆(Steve Beauchamp)在网上看到了一段声称由马斯克亲自承诺收益的投资视频,随后他联系了视频背后的推销公司,并投资了超过69万美元。随后,这些钱就落入了诈骗犯之手。
据悉,这些诈骗者篡改了一段马斯克的真实采访,利用AI技术替换了他的声音,并微调了他的口型,以匹配他们为这个数字人编写的新剧本。对于一般观众来说,这种操作几乎察觉不出。
安全公司McAfee公布的一份榜单中,列举了被冒用最多的10个美国名人,包括斯嘉丽·约翰逊、凯莉詹纳、泰勒·斯威夫特和汤姆·汉克斯等。知名女歌手泰勒(Taylor Swift)可能是最开始让大众认识到深度伪造的名人,去年1月,大量由AI生成的泰勒不雅照在各大社交平台疯转,浏览量过千万,引发公众关注。
“张文宏”深夜带货,北大教授推销医药书籍?你所看到听到的,都不一定是真的!
去年年底,有网友发消息称“张文宏是不是带货了?”
视频中,张文宏在卖一种蛋白棒,家里的老人信以为真已经下单,还转发了很多群。
据媒体报道,这个账号名为“般画234”。在视频中,“张文宏”反复介绍一种产品,口型是他的,声音也是他的,但稍微懂点AI的人一眼就能分辨,这是AI合成的视频!
目前,这段视频已在该账号内不可见。但商品橱窗内,还保留着蛋白棒售卖的页面,并显示已售出1266件。
无独有偶,北京大学国家发展研究院教授李玲去年9月发表声明称,“网上大量假冒本人推销医药书籍和治疗手段的虚假视频,大多由人工智能AI合成,已经报警。”不过,记者调查发现,网上仍有以李玲名义推荐书籍的短视频,声音与本人别无二致,短视频详细介绍了某一书籍,购物车的同款书籍显示已售9.7万,短视频中还配有文字“关键时刻能救命”。
2024年3月,武汉市公安局汉阳分局琴断口派出所民警接到辖区银行报警,称先后有两位老人,要求提前支取定期存款,疑似遭到了诈骗。而两位老人并不认识,只是碰巧在同一个银行取钱。
据民警介绍,肖婆婆接到电话,说她上大学的孙子跟别人起了冲突,把对方打伤了,现在正在派出所调解;杨爹爹接到电话,说他的孙子,在路上出了交通事故,需要跟对方私了,因为担心影响后面的工作。
民警向老人解释了AI诈骗的套路,老人都声称,电话里的声音和自己的孙子一模一样。经民警联系家属确认,两位老人的孙子,并没有电话里的情况发生。
据此,已经充分说明,现在的AI技术已经可以模拟声纹、人的面容,所以你所看到的、听到的,都不一定是真的。
学会三招识别AI“换脸换声”
我们可以要求对方在视频对话的时候,在脸部面前,通过挥手的方式去识别实时伪造的视频。在挥手的过程中会造成面部的数据干扰,他所伪造的人脸会产生一定的抖动或者闪现,或是一些其他异常的情况。
在点对点的沟通过程中,可以问一些只有对方知道的问题,验证对方的真实性。
还可以让对方通过按鼻子按脸的方式,观察其面部变化,真人的鼻子按下去是会变形,但AI生成的鼻子并不会,同样脸部也是一样的。
值得注意的是,以上鉴别方式都是基于现有算法的局限性。未来随着AI技术的发展,“动起来”“挥手”“比数字”等有可能难不倒新技术,“数字人”同样能顺利完成以上动作,从而更加具备迷惑性。所以,防范AI诈骗,还是要从自己出发,做好信息保护,提高警惕。
例如,不要泄露个人信息,尤其要注意图像、声音、指纹等生物信息的保护。“AI换脸”的数据基础是被模仿人的照片、视频等,个人公开在外的照片、视频越多,意味着AI算法参考的数据越多,生成的“数字人”会更真实。
同时,在涉及资金交易等场景下,需要多留心眼,不轻易相信视频、声音。很多时候,传统的识别方式要比技术识别更有效。
来源:央视新闻、第一财经、新京报、中国消费者报、中国青年报等