黑客利用 AI 生成恶意软件, 可绕过微软 Defender 安全防护

  • 2025-07-17 15:22:49
  • 516

IT之家7月15日消息,随着生成式人工智能技术的广泛应用,安全问题也日益成为公众关注的焦点。2023年,微软的一项研究揭示了一个令人担忧的趋势:黑客开始利用像微软Copilot和OpenAI的ChatGPT这样的人工智能工具,对毫无防备的用户实施网络钓鱼计划。

如今,网络攻击者变得更加狡猾,他们不断想出巧妙的方法来绕过复杂的安全系统,以获取未经授权的敏感数据。最近几周,就有用户精心策划骗局,试图降低ChatGPT的安全限制,诱使其生成有效的Windows10激活密钥。

Windows用户对微软Defender并不陌生,这是一个复杂的安全平台,旨在保护用户免受黑客的恶意攻击。然而据DarkReading报道,安全研究公司Outflank的研究人员计划在8月的“黑帽2025”网络安全大会上发布一种新型人工智能恶意软件,这种恶意软件能够绕过微软DefenderforEndpoint的安全防护。

Outflank的首席进攻专家负责人凯尔・艾弗里(KyleAvery)在接受采访时表示,他花了大约3个月的时间开发这种人工智能恶意软件,并花费了1500至1600美元(IT之家注:现汇率约合10759至11476元人民币)用于训练Qwen2.5大型语言模型(LLM),使其能够绕过微软Defender的安全防护。

有趣的是,这位专注于人工智能的研究人员还分享了他对OpenAI的GPT模型及其最新旗舰推理模型o1的见解。尽管他承认GPT-4相比GPT-3.5有了重大升级,但他指出,OpenAI的o1推理模型具备了更复杂的功能,尤其擅长编程和数学。

艾弗里表示,DeepSeek利用强化学习技术来提升其模型在广泛主题上的能力,包括编程。因此,他在开发能够绕过微软Defender安全解决方案的人工智能恶意软件时,也应用了这一理论。

研究人员承认,开发过程并非易事,因为大型语言模型主要通过互联网数据进行训练,这使得他难以获取传统恶意软件来训练人工智能驱动的等效产品。此时,强化学习发挥了关键作用。研究人员将Qwen2.5LLM置于一个安装了微软DefenderforEndpoint的沙盒环境中,然后编写了一个程序来评估该人工智能模型输出规避工具的接近程度。

据艾弗里介绍:“它绝对不可能直接做到这一点。也许一千次中只有一次,它会偶然写出一些能够运行但无法规避任何检测的恶意软件。当它做到这一点时,你可以奖励它生成了能够运行的恶意软件。”

“通过这种迭代过程,它会越来越稳定地生成能够运行的恶意软件,不是因为你向它展示了例子,而是因为它被更新得更有可能进行那种导致生成有效恶意软件的思维过程。”

最终,艾弗里接入了一个API,使模型能够更方便地查询和检索由微软Defender生成的类似警报。这样一来,模型更容易开发出在绕过软件安全屏障时不太可能触发警报的恶意软件。

研究人员最终实现了他期望的结果,成功利用人工智能生成了能够绕过微软Defender复杂安全解决方案的恶意软件,其成功率约为8%。相比之下,Anthropic的Claude人工智能在类似测试中的成功率不到1%,而DeepSeek的R1模型的成功率仅为1.1%。

随着人工智能骗局和恶意软件变得越来越复杂,像微软这样的公司是否会加大其安全解决方案的力度,将是一个值得关注的问题。在当前形势下,他们似乎别无选择。