如何防范新时代诈骗(上)
随着人工智能技术的高速发展,各类生成式人工智能系统为诈骗犯提供了前所未有的新“武器”。类似ChatGPT的大型语言模型可以轻松合成逼真的对话文本,用以进行电信或网络诈骗。只需输入类似“给某人写一封要求汇款的邮件”这样的提示,就可以获得非常逼真的诈骗用语。这类系统甚至可以基于少量资料,合成任何人的面部或声音,制作高质量的深度伪造视频。这极大地降低了进行身份盗用或声音欺诈的门槛,使欺骗普通民众或企业员工变得前所未有的容易。
根据美国政府的数据,2021年美国消费者遭网络欺诈损失了创纪录的80亿美元,较2020年激增了70%。2022年该数据进一步激增至88亿美元,同比增长超过40%。其中,投资诈骗导致的经济损失最大,冒名顶替诈骗最为常见。在 Deep Instinct对650名网络安全专家的调查中,超过85%的专家认为,生成式人工智能技术正在助长诈骗犯罪。初创公司和跨国企业都成为了这类攻击的受害者。一些初创公司就损失过数十万美元资金,一家日本公司的董事声音被深度克隆,造成了3500万美元的巨额损失。
经验丰富的诈骗团伙已经开始大规模运用人工智能生成工具,使其欺诈手段更具说服力。他们会伪装成受害者的熟人或企业高管,利用生成的语音或图片,向受害者发送逼真的短信或来电,请求汇款或执行非正规交易。有时甚至可以完美模仿声音打电话,声称亲友遭遇绑架,需要立即汇款付赎金。这类社工攻击成功率极高,且对老年人群体尤为具有杀伤力。
防范生成式人工智能欺诈面临巨大挑战。许多先进的安全防范手段,例如语音验证、活体检测等,都有可能被欺诈分子破解。他们可以利用同样的人工智能技术,制作假身份或克隆语音来绕过这些验证。一些业内专家担心,知名防诈骗公司的效能正在下降,它们需要不断更新算法才能继续有效应对新的攻击手段。
我们每个人都需要提高警惕,多方采取防范措施。银行或重要账户需要开启多重验证,避免依靠单一的语音或活体验证。注意保护个人信息,减少社交媒体过度分享,避免被利用。与家人商定口令或密码以核实身份,企业内部也可以采取类似预防机制。如果来电可疑,可以试探提出非预期的问题,或要求回拨确认。长期来看,防止人工智能犯罪仍需要人工智能技术。这需要整个社会各界密切配合,共同应对这个新挑战。
除了技术防范,法律监管也需要跟上步伐。人工智能同时提供了巨大便利也开启了犯罪新局面。相关部门有必要出台政策,要求人工智能系统开发商在设计和部署产品时恪守道德底线,尽量减少技术被滥用的风险。其他部门也应加强国际合作,严厉打击那些利用生成式人工智能进行跨国诈骗活动的犯罪集团。
目前,主流的人工智能系统开发商已采取一定措施,试图减少其系统被滥用的可能。例如ChatGPT会直接拒绝一些非法或不道德的请求。但这类系统的开发还处在初级阶段,仍存在很大改进空间。未来系统需要变得更智能,在满足用户合法需求的同时,也能够有效识别和防范滥用intents。同时还需要建立完善的监管制度,确保人工智能系统的健康发展。
综上所述,生成式人工智能为网络犯罪打开了潘多拉的魔盒,给个人和社会安全带来前所未有的挑战。我们必须全社会齐心协力,从技术研发、业界自律以及法规监管等方面采取积极有效的应对措施,最大限度降低这项强大技术被滥用的风险,将其导向服务人类的正途。只有这样,人工智能才能发挥其应有的巨大潜力,真正造福社会。共同应对人工智能时代的新议题,是这个时代赋予我们所有人的重要责任。