AI多人换脸开视频会议骗走2亿港币!专家支招:做这个动作

2024-03-13 08:15:00来源:网络

  参加多人视频会议,结果只有自己是真人?这事听上去很离谱,却在现实中发生了。

  最近,香港警方披露了一起诈骗案件:骗子利用AI“多人换脸”实施诈骗,涉案金额高达2亿港元……

  据央视新闻报道,在这起案件中,一家跨国公司香港分部的职员受邀参加总部首席财务官发起的“多人视频会议”,并按照要求先后转账多次,将2亿港元转账到了5个本地银行账户内。其后,向总部查询才知道受骗。

  警方调查得知,这起案件中所谓的视频会议中只有受害人一个人是“真人”,其他“参会人员”都是经过“AI换脸”后的诈骗人员。

  A finance worker at a multinational firm was tricked into paying out HK$200 million ($25 million) to fraudsters using deepfake technology to pose as the company’s chief financial officer in a video conference call, according to Hong Kong police.

  The elaborate scam saw the worker duped into attending a video call with what he thought were several other members of staff, but all of whom were in fact deepfake recreations, Hong Kong police said at a briefing.

  “(In the) multi-person video conference, it turns out that everyone [he saw] was fake,” senior superintendent Baron Chan Shun-ching said.

  香港网络安全及科技罪案调查科网络安全组署理高级警司陈纯青表示,这名受害员工在收到据称来自该公司驻英国首席财务官(CFO)的信息后,原本怀疑是一封钓鱼诈骗邮件,因为内容涉及秘密交易。

  然而,在和诈骗分子视频通话后,这名员工就打消了起初的怀疑,因为在场的其他人看起来和听起来都和他认识的同事一模一样。

  Chan said the worker had grown suspicious after he received a message that was purportedly from the company’s UK-based chief financial officer. Initially, the worker suspected it was a phishing email, as it talked of the need for a secret transaction to be carried out.

  However, the worker put aside his early doubts after the video call because other people in attendance had looked and sounded just like colleagues he recognized, Chan said.

  据香港警方介绍,诈骗分子是利用了人工智能的深度伪造(deepfake)技术,从国外视频平台上下载了视频,模仿了公司高层人员的声音再对受害者发出行动指示,最终成功行骗。

  由于AI形象在讲话时被人打断或提问容易漏出破绽,在视频过程中,嫌疑人曾要求受害者做简短的自我介绍,随后便没有其他口头互动交流,在用借口完结了对话之后,嫌疑人将沟通转移到线上即时通讯软件上进行。

  技术上如何实现人脸精确识别与替换

  据中国网络空间安全协会人工智能安全治理专委会专家薛智慧介绍:

  AI换脸过程主要包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染、图像与音频合成等几个关键步骤。

  其背后最核心的包括为三个部分,首先,利用深度学习算法精准地识别视频中的人脸图像,并提取出如眼睛、鼻子、嘴巴等关键面部特征。

  其次,将这些特征与目标人脸图像进行匹配、替换、融合。最后,通过背景环境渲染并添加合成后的声音,生成逼真度较高的虚假换脸视频。

  不过,专家介绍,以诈骗为目的,实施点对点视频通话,需要AI人工智能生成仿真度极高的视频。想要达到以假乱真效果用于诈骗,难度不小,需要投入很强的技术支持和大量的资金投入。

  学会这几招,识别AI“换脸换声”

  这两年,“AI换脸”多次破圈,屡屡冲上热搜。不法分子利用“AI换脸”和AI音频合成的技术实施新型网络诈骗,这类骗局常常会在短时间内给被害人造成较大损失。

  那么,我们应该如何防范呢?专家支招:

  1. 可以要求对方在视频通话时,在脸部前挥手,挥手过程会造成面部数据干扰,伪造的面部就会出现抖动等异常情况;

  During a video call, have the other party wave their hand in front of their face. The motion can disrupt the artificial facial data, causing the fake image to exhibit glitches or shakiness.

  2. 在沟通中可以问一些只有对方知道的问题,验证对方的真实性。

  Engage in conversation by asking questions that only the real person would be able to answer, thus confirming the identity of the individual you're speaking with.

  3. 针对存疑的身份,如所谓领导或者熟人,可以通过打电话或询问对方的亲朋好友,确认对方的真实身份和情况。

  For dubious identities, especially when someone claims to be a leader or an acquaintance, don't hesitate to double-check. A simple phone call or a quick check with mutual contacts can go a long way in confirming if the person is who they claim to be.

  中国科技大学网络空间安全学院执行院长俞能海提醒,可以让对方摁鼻子、摁脸、观察其面部变化。

  他在一个采访中表示,如果是真人的鼻子,按下去是会变形的,但AI生成的鼻子并不会。

  Yuneng Hai, a leading figure in cybersecurity education, also recommends an additional measure: get them to press their nose or cheek. "When a real person does this, their nose will naturally squish and change shape," he notes in an interview. "An AI-generated face, on the other hand, won't show such natural deformations."

  提高防范意识,避免个人生物信息泄露

  专家表示,除了一些辨别AI换脸诈骗的小诀窍,我们每一个人都应该提高防范意识,在日常生活中也要做好相关防范措施,养成良好的上网习惯。

  首先应该是做好日常的信息安全的保护,加强对人脸、声纹、指纹等生物特征数据的安全防护:另外做好个人的手机、电脑等终端设备的软硬件的安全管理。

  第二,不要登录来路不明的网站,以免被病毒侵入。

  第三,对可能进行声音、图像甚至视频和定位采集的应用,做好授权管理。不给他人收集自己信息的机会,也能在一定程度上让AI换脸诈骗远离自己。

  陈纯青表示,利用人工智能“深度伪造”的欺诈手法,与传统诈骗手法其实如出一辙,只是利用不同手段以取得受害人信任进行诈骗,最终目的主要是诱骗受害人将款项转账到骗徒指定户口。

  他强调,虽然科技发展一日千里,只要市民时刻保持警惕,养成一个高防骗意识的习惯,对任何社交平台或通讯软件所收到的信息,也要有一个查证真伪的意识及必须要有行动,谨记在人工智能“深伪技术”下,网上已经“眼见不一定为实,有图有片亦不一定是真相”。

本文关键字: 新概念英语

添加助教老师微信

免费领取2G新概念资料

更多资料
更多>>
更多内容

新概念学习资料大礼包

加助教免费领取2G资料

更多>>
更多资料