博彩网论坛:AI“深度造假”10分钟被“好友”骗走430万元
近年来,随着计算机和人工智能的发展和人脸识别的普及,越来越多的不法分子利用计算机和人工智能将他人的面孔、声音等信息进行融合,制作出惟妙惟肖、栩栩如生的合成影像,从而在互联网上进行各种形式的欺诈活动,这些欺诈活动的手段五花八门,门槛低,难以辨别,往往令人防不胜防,并在极短的时间内造成巨大的经济损失。如何提防人工智能的“深度造假”——从图像到语音?
公司老总遇人工智能易容欺诈案:“好友”在10分钟内诈骗430万人民币!
博彩网论坛报道:内蒙古包头市公安局电信局于5月8日公布了一宗利用人工智能技术实施的通讯欺诈案,该案件发生在福建省福州市的一家高科技企业的法定代表人郭先生,其“好友”于4月20日突然给他发来了一条微信视频,说他在外地竞拍,需要430万的押金,还得开个公对公的银行账号,要从郭先生的银行账号上取钱。
这个“好友”问郭老板要了郭老板的银行卡号码,说自己已经将这笔钱转到了郭老板的银行卡里,然后还把银行卡的截图发到郭老板的手机上。在视频聊天的基础上,郭老板没有确认资金的去向,便先后向郭老板转账了430万,直到后来,郭老板才意识到自己上当受骗。对方是用了人工智能的易容技术,假装是自己的朋友,来欺骗自己的。
曾经手多起倒卖和非法使用用户面部图片的违法犯罪案例的警员陈歆怡认为,人工智能“易容”和“变声”的原理,就是利用深度学习的特殊算法,将用户的面部、表情和声音等信息嫁接到拟真视频上,成本低廉,合成速度快,不易检测和鉴别,普通人难以察觉。当前,人工智能欺诈有两种基本类型:
第一种方法是使用技术方法合成视频或声音,该视频或声音具有改变的面部或声音,并且该视频或声音可以被直接在视频聊天或一般电话中重放。这类欺诈行为多发生在较为紧迫的情境下,例如遇到意外需要帮助时,但由于在节目播出后会断开链接,不能与受害者进行连贯的交谈。
另一种方法是,在视频呼叫期间改变面部并改变语音,或者通过改变语音来进行呼叫。
民警提醒,上述两种欺诈手段都会受到样本量的限制,因此,可以延长通话时间,多次提问,让被害者说得更多,从而暴露自己。
如何防范这种欺诈行为?
2022年,由国家网信办、工业和信息化部、公安部联合发布的《互联网信息服务深度合成管理规定》(以下简称《规定》)明确,对用户的数据录入和合成内容,应当由深度合成服务提供商通过技术手段或手工手段进行复核。八月份,国家互联网信息办公室颁布《人脸识别技术应用安全管理规定(试行)(征求意见稿)》,要求用户应当对图像采集装置和个人识别装置进行年度安全检查和风险评估,并采取有效的防护手段,防止攻击、入侵、干扰、破坏。
北京航空航天大学法律系副教授赵精武说,除了有关方面的监督外,社会大众自己也应该有防范欺诈的意识。博彩网新闻“如果是需要转账之类的金融方面的通话,你可以用其它的方法和你的朋友确定一下。”
民警还特别指出,为防止这类犯罪的产生,加强对公民个人信息的保护,是从源头上杜绝犯罪的重要措施。
不要随便接陌生来电,以防骗子以推销为借口收集语音、语句等信息;
避免将个人照片,声音,视频等个人信息过度暴露于个人的网络社交帐号;
当向外界提供面部相片时要慎重;
使用小众认证软件,网上贷款和实名借贷要谨慎;
不要随便点陌生的连结,连结中的特洛伊木马程式可能会盗取使用者电话内的相片、监听或回传呼叫;
在打开位置服务、输入ID号码、面部信息和指纹信息等的个体生物学信息的过程中,必须非常小心。
此外,公安机关还要求,所有APP应依法、正当、必要、公开地收集和使用用户的个人信息,不得收集和使用与自身业务无关的个人信息,并在收集和使用个人信息的过程中,应加强对个人信息的保护,防止个人信息的泄露、毁损和丢失。
怎样才能达到既安全又方便的人工智能认证方式?赵精武对这一问题的看法是,两者之间的均衡仍有讨论的余地。“既要根据人工智能的发展趋势做出相应的调整,又要在相应的深度合成产品与服务中,为“人工智能制作”添加相应的认证机制,让第三方更容易辨认出“人工智能制作”的内容。”