发布时间:2024-06-20 14:51 原文链接: 用AI犯罪的五种方式亟待防范

  人工智能(AI)浪潮正以前所未有的速度推进。这是一个AI新纪元,在AI的帮助下,科研的边界被不断拓宽,解决复杂问题的速度越来越快,但必须警惕:AI也能极大提高犯罪分子的“生产力”。

  安全公司“趋势科技”研究员文森佐·钱卡利尼表示,生成式AI提供了一个新的、强大的工具包,使恶意行为者能够比以往更高效、更国际化地开展活动。

  钱卡利尼说,大多数犯罪分子“并不是生活在黑暗巢穴里密谋行事”,他们中“大多数都是普通人,从事着日常工作”。

  去年的“WormGPT衰落”是一个标志性事件。WormGPT是一种基于开源模型构建的AI语言模型,但它使用恶意软件相关数据进行训练,会协助黑客工作且没有任何道德规则或限制。2023年夏天,在引起媒体高度关注后,该模型的创建者宣布关闭模型。自那以后,网络犯罪分子大多停止开发自己的AI模型,转而借助更可靠的现有工具来“耍花招”。

  这可能是因为,犯罪分子也想更快获得收益且不想承担新技术带来的未知风险。人们对此必须多加注意,以下5种就是目前他们最常用的方式。

  网络钓鱼:诱骗你的私人信息

  瑞士苏黎世联邦理工学院的AI安全研究员米斯拉夫·巴卢诺维奇表示,目前生成式AI最大的滥用就是网络钓鱼,其试图诱骗人们泄露敏感信息,再用于恶意目的。研究发现,在ChatGPT兴起的同时,也伴随着网络钓鱼电子邮件数量大幅增加。

  钱卡利尼表示,GoMail Pro等垃圾邮件生成服务已集成ChatGPT,这使得犯罪用户能翻译或改进发送给受害者的消息。OpenAI的政策限制人们用其产品进行非法活动,但在实践中其实很难监管。

  OpenAI方面表示,他们将人工审核和自动化系统相结合,以识别和防止其模型被滥用,如果用户违反公司政策,则会实施警告、暂停、永久关闭等措施。

  还有一点值得注意,由于AI翻译工具的进步,世界各地犯罪集团的沟通变得更容易,他们可能开展大规模跨国行动,或在本国对其他国家用户采取恶意行动。

  深度伪造:进入地下市场

  生成式AI使深度伪造(Deepfake)的开发发生质变。当前,技术合成的图像或音视频,看起来或听起来比以往任何时候都更加真实,这一点犯罪分子也意识到了。

  钱卡利尼团队发现,已经有用户在电报(Telegram)等平台上展示他们的“深度伪造组合”,并以每张图片10美元或每分钟500美元的价格出售服务。

  相较图片,深度伪造视频制作起来更复杂,而且更容易露出破绽。深度伪造音频的制作成本低廉,只需几秒钟的某人的声音(例如从社交媒体获取),即可生成令人信服的内容。

  这样的诈骗案例并不鲜见,人们接到亲人打来的求救电话,称自己被绑架并要求交付赎金,结果却发现,打电话的人是个使用深度伪造语音的骗子。

  钱卡利尼建议,亲人之间应商定一些秘密安全词并定期更换,这有助于紧急情况下确认电话另一端的人的身份。

  绕过身份检查:一个伪造的“你”

  犯罪分子滥用AI技术的另一种方式是绕过验证系统。

  一些银行和加密货币交易需验证其客户是否本人。他们会要求新用户在手机相机前持身份证拍摄一张自己的照片,但犯罪分子已经开始在电报等平台上销售能绕过这一要求的应用程序。

  他们提供的是伪造或被盗的身份证件,再将深度伪造的图像强加在真人脸上,以欺骗手机相机验证程序。据钱卡利尼发现的一些例子,该服务的价格甚至低至70美元。

  “越狱”式服务:带来危险输出

  如果有人向AI询问如何制造炸弹,那他不会得到任何有用的答复。这是因为大多数AI公司已采取各种保护措施来防止模型泄露有害或危险信息。

  现在,网络犯罪分子不再构建自己的AI模型,这种方式既昂贵、耗时又困难。一种新犯罪趋势开始出现——“越狱”式服务。

  比如上面得不到答案的问题,这显示了模型都有关于如何使用它们的规则。但“越狱”允许用户操纵AI来生成违反这些政策的输出。例如,为勒索软件编写代码,或生成可在诈骗电子邮件中使用的文本。

  为了对抗这些不断增长的风险,OpenAI和谷歌等公司需时时堵塞可能导致紧急危害的安全漏洞。

  人肉搜索和监视:暴露用户隐私

  巴卢诺维奇表示,AI语言模型不仅是网络钓鱼的“完美工具”,对人肉搜索(在线泄露某人的私人身份信息)也是如此。这是因为AI语言模型经过大量互联网数据(包括个人数据)的训练, 可推断出某人位于何处。

  犯罪分子可能会让聊天机器人假装是具有侧写经验的私家侦探,然后让它分析受害者所写的文本,并从文本中的小线索推断出个人信息。例如,根据他们上高中的时间推断他们的年龄,或者根据他们在通勤时提到的地标推断他们的居住地点。互联网上该人的相关信息越多,就越容易被识别。

  巴卢诺维奇团队2023年底发现,大型语言模型,如GPT-4、Llama 2和Claude,已能够仅从与聊天机器人的日常对话中推断出人们的种族、位置和职业等敏感信息。理论上,任何能访问这些模型的人,都能以这种方式使用它们。

  这些服务的存在,并不直接表明犯罪活动的存在,但我们必须看到可供恶意行为者利用的新功能。而防止这些事情发生的唯一方法就是加强防御。

  巴卢诺维奇称,对AI公司来说,应完善数据保护;对个人来说,提高防范意识是关键——人们应三思而后行,考虑他们在网上分享的内容,并谨慎决定,自己是否愿意在语言模型中使用他们的个人信息。

相关文章

AI推动材料研究的时代来了?

两年前,谷歌旗下深度思维公司宣布,借深度学习技术发现220万种新型晶体材料。今年初,微软宣称其AI模型MatterGen能从零生成无机材料,有望颠覆无机材料设计范式。人工智能(AI)推动材料研究的新时......

科研团队成功利用人工智能蛋白语言模型揭示生命演化奥秘

为什么不同生物在适应相似环境时,会独立演化出相似的功能?一项最新研究从蛋白质的“高阶特征”层面揭示了这一生命演化奥秘的重要机制。这项研究由中国科学院动物研究所邹征廷研究员团队完成,成功利用人工智能领域......

北京市2025“中央引导地方”人工智能专项立项公示

北京市科学技术委员会、中关村科技园区管理委员会关于发布2025年度“中央引导地方”专项人工智能领域部分方向拟立项课题公示的通知根据《中央引导地方科技发展资金管理办法》等文件要求,现将2025年度“中央......

重庆“人工智能+科学技术”计划项目申报通知发布

关于申报2025年“人工智能+科学技术”计划项目的通知各有关单位:为深入贯彻落实《国务院关于深入实施“人工智能+”行动的意见》(国发〔2025〕11号),市科技局启动实施2025年度“人工智能+科学技......

AI重塑商业逻辑,高校教育如何迎头赶上?

“当人工智能(AI)重构商业逻辑,当可持续发展成为全球命题,商学教育该如何重塑其DNA?学术界与产业界又该构建怎样的共生生态?”9月5日,北师香港浸会大学校长陈致在首届粤港澳大湾区未来商业论坛上致辞时......

未来智能社会什么样?从AI到AI+

8月26日国发〔2025〕11号颁布了《国务院关于深入实施“人工智能+”行动的意见》这一重要文件,其中特别强调“人机协同、跨界融合、共创分享的智能经济和智能社会新形态”,其核心就是要积极构建“人、机(......

AI“副驾”增强脑机接口操控力

美国科学家研究发现,一个由人工智能(AI)担任副驾的脑机接口或能让瘫痪人士更好地完成任务。该技术能让瘫痪受试者在移动计算机光标或操作机械臂这类任务中的表现提升为原先的近4倍。相关研究9月1日发表于《自......

人工智能与先进计算融合创新学术会议在沪召开

8月30日,“人工智能与先进计算融合创新学术会议”在复旦大学举行,400余位专家学者参会,共同探讨如何实现人工智能(AI)与先进计算的融合创新,让AI真正走出“工具”窠臼,迈向“自主智能”新纪元。会议......

研究人员提出生成式人工智能预报洪水新方法

近日,南方科技大学环境科学与工程学院教授郑一团队与中国科学院大气物理研究所等多家单位合作,在《地球物理研究快报》发表最新研究成果,他们提出了生成式人工智能预报洪水的新防范,不仅为洪水预报技术带来了新思......

人工智能助力化学家研发高韧性塑料

麻省理工学院(MIT)与杜克大学的研究人员通过引入机器学习模型识别的应力响应分子,成功研制出抗撕裂性更强的聚合物材料。这项强化聚合物材料的新策略有望催生更耐用的塑料,从而减少塑料废弃物。研究团队利用机......