AI跟你装熟! 眼见不再为实 科技老板视讯 10分钟被骗430万
文章来源: Newtalk 于
- 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
现在使用 Deepfake(深伪技术)技术「换脸」已成为骗徒诈骗新手法,民众应增加防范警惕。(AI换脸技术示意图)
图:翻摄自腾讯网
近日,中国内蒙包头市警方发布了一起利用人工智能(AI)实施诈骗的典型案例,福州市某科技公司法人代表郭先生 10 分钟内被骗人民币
430 万元。
事发于 4 月 20 日中午,郭先生的好友突然通过微信视频联系他,自己的朋友在外地竞标,需要 430
万的保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。基于对好友的信任,加上已经视讯聊天核实了身份,郭先生没有核实钱款是否到账,就分两笔把
430 万转到了好友朋友的银行卡上。待郭先生后续拨打好友电话,才知道被骗。骗子通过智能 AI
换脸和拟声技术,佯装好友对他实施了诈骗。
值得注意的是,骗子并没有使用一个仿真的好友微信添加郭先生为好友,而是直接用好友微信发起视讯聊天,这也是郭先生被骗的原因之一。骗子极有可能通过技术手段盗用了郭先生好友的微信。
在接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截 336.84 万元,但仍有 93.16
万元(约合台币四百万)被转移,目前正在全力追缴中。
现在使用
Deepfake(深伪技术)技术「换脸」已成为骗徒诈骗新手法。中国清华大学人工智能研究院基础理论研究中心主任朱军坦言,公众对照片等易被篡改的静态信息已有所警惕,但仍较为信任短片、声音等动态信息内容,深度合成技术飞速演进,「眼见不再为实」,破解身份验证的难度将愈来愈低、耗时愈来愈短。
专家担心儘管针对深度合成技术的识别技术不断迭代、检测手段持续增强,但依然未能跑赢「伪造」技术升级的速度。特此提醒,民众要提高防范意识,不要轻易提供人脸、指纹等个人生物信息给他人,也不要过度公开或分享动图、短片等;网络转帐前要透过电话、视像等多种沟通方式验证对方身份,一旦发现风险,及时报警求助。