新闻背景: 随着人工智能技术的发展,AI诈骗正成为新的威胁。据3月10日媒体报道,热衷在短视频平台分享生活的胡大爷,遭遇了利用AI换脸技术的“熟人诈骗”。骗子用伪造的“儿子”视频骗取信任,要求转账5万元还贷,胡大爷险些中招 。
一次逼真的视频通话
胡大爷平时喜欢在短视频平台发视频,记录家人生活日常,也常因此获得点赞而开心。某天,他突然接到了“儿子”的视频通话请求。接通后,屏幕里的“儿子”神情焦急,声称自己网上贷款到期,手头紧张,需要5万元周转一下,否则会被起诉。视频里,“儿子”的脸、声音甚至偶尔卡顿的信号细节都极其逼真。
胡大爷正准备转账,发现收款账户是一个陌生人的名字。视频里的“儿子”解释说是“贷款业务员的账户”。就在对方不断催促时,胡大爷多了一个心眼,挂断视频后拨打了儿子的原号码。电话接通,儿子对“借钱”一事毫不知情。胡大爷这才意识到,刚才那张熟悉的脸竟然是假的 。
技术拆解:AI诈骗如何“造人”?
骗子利用网络爬虫技术,收集了胡大爷在社交媒体上发布的视频、照片和语音。这些素材里包含了儿子的大量面部特征和声音信息。通过AI算法模型进行深度学习,骗子能够将团伙成员的脸替换成儿子的脸,并模仿其声音,实时合成进行视频通话。
识别AI伪造的几个关键点
要求做动作: 视频通话时,可以要求对方做一些复杂的动作,如快速眨眼、用手指在鼻子前划过、突然转头。目前的AI换脸在实时渲染复杂动作时,常会出现面部边缘模糊、光斑闪烁或画面卡顿。
提问隐私问题: 设置只有你们两人知道的“专属暗号”,比如“我小时候摔破膝盖时你在哪?”“咱家那盆发财树枯了没?”AI无法预知这些生活细节。
二次回拨验证: 无论视频里多急,一定要挂断电话,用原来的微信或手机号码重新拨打回去。真正的亲人不会因为这一个挂断动作而“出事” 。
