最近,“AI诈骗正在全国爆发”话题热度居高不下。事情起因在于包头警方近日发布一起利用AI实施诈骗的典型案例,受骗人10分钟内被骗430万元。
AI诈骗之所以如此受社会关注、甚至引发恐慌,主要原因在于AI诈骗是模仿真人声音和面部实施诈骗,这种针对个人信息定制的“专属剧本”诈骗成功率非常高。上述案件中,骗子盗用受骗人好友微信账号,通过AI换脸和拟声技术佯装好友,通过视频聊天成功对受骗人实施诈骗。多地警方提醒,AI诈骗的成功率接近100%。亲友间网络上借钱更要防范此类诈骗,避免个人信息被别有用心者盗用。
面对此类诈骗案,网络上甚至有网友自嘲,“还没享受到AI的便利,就先遭到了AI的重锤”。众所周知,利用新技术诈骗是电信诈骗的典型特点。从过往来看,无论是“盗版技术”BT种子下载还是“比特币技术”区块链,都曾是电信诈骗利用的工具。笔者在此呼吁,对于这种现象监管部门需要高度重视,电信诈骗与新技术密切勾连,在实践中容易造成上述污名化现象。其危害既影响科研人员积极性,又不利于营造友好的创新环境。
事实上,技术本身是中性的,“无罪的”,关键谁来运用。对于AI这样的新一代信息技术,我们不能因噎废食。当前,ChatGPT引领AI变革,让人们再次看到AI技术在解放生产力、提高生产效率上的巨大潜力。
同时,技术被滥用的风险不容低估。笔者建议,在AI诈骗刚刚冒头之际,监管部门不仅要严打AI诈骗,还要利用大数据技术查清到底是哪些人在为AI诈骗提供技术?背后是否形成了灰色产业链?目的就是在AI技术发展中坚决规范并堵住危害社会的源头。
追根溯源,AI诈骗的源头在于个人信息泄露,在于数据的治理。个人信息不泄露,骗子也就无法拿到个人信息,无从得知人际关系,更没法模仿面貌腔调。然而,在当前几乎所有的App都想接入个人电话、照片、短信等权限的环境下,用户“信息裸奔”现象时有发生。
因此,对于电信诈骗,见招拆招诚然重要,更重要的是防范。近年来,个人信息保护法、个人信息安全规范、数据安全法等法律法规陆续推出,加强了对公众的生物特征等各类隐私数据保护力度。与此同时,生成式人工智能服务管理办法出台在即,重点强调了生成式人工智能产品训练数据及生成内容的真实性。
笔者认为,监管部门在贯彻落实好相关政策的同时,也要注重健全AI等新技术伦理规范,加强安全监管举措,引导和规范技术服务商行为。网络社交等平台企业要加强用户账号管理,防止被他人盗用、窃取。个人也要提高防范意识,避免过多暴露自身信息。
(责任编辑:柯晓霁)