视频通话核实了,还是被AI“好友”骗了430万
专家:诈骗手法不断升级,AI等新技术应用应立法加以进一步规范
近日,一起利用AI技术进行电信网络诈骗的案件备受关注。福州市某科技公司法人代表郭先生的“好友”向其借钱,进行视频通话确认之后,郭先生向“好友”转款430万元。殊不知,这位“好友”是骗子利用智能AI换脸和拟声技术塑造的假形象。
诈骗手法不断更新,识骗难度再次升级。在以往的诈骗案件中,受害者有时不核实对方或无法正确核实对方身份便打款,造成经济损失。该案中,郭先生通过视频通话“核实”了好友外貌、声音等特征依然被骗,为防骗敲响了警钟。
如何引导技术向善?减少此类诈骗发生?记者就此采访了法律领域专家。他们表示,目前我国对人工智能责任主体地位及刑事责任分配问题未有统一规定,有较大探讨空间。必须明确的是,对于识诈反诈,软件开发机构、金融机构、社交平台等相关主体均有提醒义务。
南方日报记者 关喜如意 钱明雅
有人售卖人脸合成视频制作教程
近年来,利用AI技术诈骗的案件时有发生。
去年,浙江温州的陈先生就曾遭遇AI骗局。骗子利用陈先生好友“阿诚”在社交平台发布的视频,截取其面部视频画面利用AI换脸技术合成,与陈先生进行视频聊天骗取其信任,从而实施诈骗。上海也曾发生类似骗局,骗子使用AI换脸与人工生成的语音技术,伪造成某公司领导的身份,要求该企业高管转账,诈骗金额高达150万元。
个人信息何以遭泄露?一方面,社交媒体上用户自主发布的各类图像资料成了诈骗者的“公开数据库”,另一方面,近年来日趋普遍的人脸识别(支付)、刷掌支付等,都关系到公众的生物特征信息,一旦服务提供者数据管理不当,便会造成相关信息大规模泄露。其中,由于对AI诈骗的特点认知和防范意识较为欠缺,学生和老年人成为遭遇诈骗的重点人群。
然而,利用AI进行诈骗的成本可能并不高。记者曾调查发现,互联网上有人售卖人脸合成视频制作教程和明星人脸“万能模型”,一套模型只需10元。
应具体追究各行为主体的刑事责任
“在不少AI相关诈骗案中,都存在民事侵权和刑事犯罪的竞合重叠问题。”广东国鼎律师事务所高级合伙人、公益律师廖建勋介绍,这种行为一方面侵犯受害者的财产权,另一方面是刑事犯罪行为。
在追责方面,北京市盈科(广州)律师事务所高级合伙人、律师龙劲韬介绍:“对人工智能责任主体地位及刑事责任分配问题仍未有统一规定,有较大探讨空间。”
利用AI技术实施违法犯罪,对行为人追责毋庸置疑。龙劲韬说,在相关案件中,AI实际上是行为人实施犯罪行为的工具,体现的是人的意识。因此,应具体追究设计人员、制造商、使用人等行为主体的刑事责任。他举例,假如技术提供者已经预见到AI技术可能会摆脱设定程序进而实施危害法益的行为,其必须进行程序修正,否则将被追责。
目前,在司法实践层面,国内各地法院已有一些有益探索。江苏省南通市崇川区司法机关对一起利用AI变声技术实施诈骗的案件作出判决,被告人犯诈骗罪被判处拘役五个月,缓刑六个月,并处罚金5000元;常州中院公布一起“人脸解封”侵犯公民个人信息案,被告人犯侵犯公民个人信息罪被判有期徒刑8个月,缓刑1年,并处罚金4万元……
如何保证技术的良善用途,而非被用于诈骗犯罪?专家普遍认为,要压实金融机构、社交平台方的责任,做好防骗的预警和提醒。廖建勋提出,金融机构有必要通过加强技术手段,堵上安全漏洞,并对用户及时进行提醒。
社交平台也应承担相应责任,包括强化对用户的知情权保护。廖建勋建议,如果使用了AI合成技术的画面,一定要在显著位置进行说明提示,告知这样的视频、影像是由AI合成完成的。此外,还有必要明确规定一些不适合使用AI技术的情形,并做出相关限制。
“国家有必要视情况而定,对AI技术的发展作出相应的立法。”廖建勋表示,立法工作一方面要推动AI在新技术应用方面的良性发展,另一方面要规范AI技术,避免影响人民群众的财产安全,或者社会秩序。
- 上一篇:
项目预计年底前完成施工建设
- 下一篇:
推动科学技术更好造福各国人民