黑客已经有数十种攻击大模型的手段,如何用AI对抗AI?

文章正文
发布时间:2024-07-20 18:24

黑客已经有数十种攻击大模型的手段,如何用AI对抗AI?

当普通用户惊讶于最新的GPT-4o和Gemini 1.5 Pro多模态AI助手的强大能力时。

嗅觉灵敏的黑客们也已经借助生成式AI开启了新的“狂欢”。

今年初,黑客攻击了一个美国的AI基础设施平台,并将GPU用于挖比特币获益。

“黑客已经慢慢增加或转移攻击目标,除了传统资产,保护企业的资产演进为保护企业的AI中心。”亚信安全高级副总裁陈奋同时提醒,“个人和家庭安全,也从原来的终端演进为保护包括智能家居和智能网联汽车在内的家庭AI中心。”

网络安全的攻防已经从人和人之间的对抗,升级为AI和AI的对抗,只有AI驱动的网络安全防护检测技术才能识别AI驱动的黑客攻击技术。

安全大模型应运而生。

近期举办的以“安全AI未来”为主题的C3安全大会·2024上,亚信安全发布了网络安全行业领域自研大模型——信立方,能够用于网络安全行业的精准问答、复杂的告警日志解读、深度的网络安全事件分析等专用场景。

未来网络安全公司和黑客的AI攻防赛将会如何? 

黑客用AI攻击,效率高,基础设施成新目标

ChatGPT发布后,全球的黑客们的网络攻击和网络犯罪也随之升级。

过去,一个黑客生产一个攻击病毒需要数月时间。现在,通过生成式AI的工具,可能几个小时,甚至几分钟就能生成一个攻击病毒,效率大幅提升。

陈奋同时发现,“大模型对于编程语言的理解也非常强,攻击者可以利用大模型迅速发现软件的漏洞,漏洞是黑客攻击系统的核武器。”

那些“商业嗅觉”灵敏的黑客,已经用AI攻击获利。

比如,有黑客利用AI算法,快速在视频中做人脸的深度伪造,新型的网络诈骗犯罪随之涌现。

还有,黑客的攻击目标除了传统资产,还盯上了高价值的以GPU为基础的AI算力基础设施和大模型,这是网络安全领域出现的新变化。

黑客已经有数十种攻击大模型的手段,如何用AI对抗AI?

“去年短短一年时间,针对大模型的攻击手段已经涌现出数十种不同的类型。”陈奋表示。

针对大模型的攻击,影响巨大。

陈奋和团队在实验室中搭建了Llama2的环境,模拟去年发现的海绵样本攻击,大致原理是通过向大模型发布特殊的样本,让大模型的算力消耗急剧上升,原来短时间能做出响应的需求,现在可能需要大量时间去计算。

让原来几秒就可以返回结果的大模型,受到攻击后60秒以上才能返回结果,慢了20倍以上。

“如果未来核心应用都是大模型驱动的AI原生应用,基本上就会瘫痪。”陈奋同时说,“这只是一个相对比较基础的攻击事例,针对大模型的攻击很快会到来。”

整个网络安全行业增在革新,全球安全公司都在行动。

微软在今年5月份正式商用了Security Copilot,并声称在未来要投入千亿美金。谷歌去年发布了网络安全专有大模型,已经应用到云安全能力中心中。 

如何用AI对抗AI?

亚信安全没有抢着第一时间发布安全大模型,近期才发布了信立方。

“没有第一时间发布,是因为我们在思考大模型能否变成我们产品的原生能力。我们希望把底层通用框架建设好,MaaS服务平台,模型级服务平台,再叠加上层的智能体框架。”陈奋分享,“我们发布的信立方更多是从原生的角度思考如何与各个产业整合,而不是简单去做运维效率的提升或者运维的解析。”

“随着信立方的发布,这个目标已经基本达成,MaaS服务和多智能体应用已经向亚信安全全线产品进行开放,所有的安全产品能够快速集成大模型的能力,构建网络安全智能体应用。”陈奋进一步表示。

亚信安全的MaaS服务平台提供了丰富的API接口和Agent框架,集成了数十种的场景,包括安全日志告警分析,安全态势的智能分析,安全运营数字人小信同学等。

信立方大模型发布的同时,亚信安全也提出了“信计划”(XPLAN)暨安全为AI(Security for AI)和AI为安全(AI for Security)。

黑客已经有数十种攻击大模型的手段,如何用AI对抗AI?

“安全为AI”包含了全新研发的保护算力云基础设施安全、大模型应用安全防护、大模型红蓝对抗测试等服务;“AI为安全”聚焦网络安全行业垂直大模型的研发及运行于其上的智能体和安全应用。

黑客已经有数十种攻击大模型的手段,如何用AI对抗AI?

雷峰网了解到,信计划分为两大部分:

第一部分是专注给算力基础设施,给大模型提供安全解决方案。

陈奋透露,“针对AI算力基础设施的安全,目前落地了东数西算成都的节点,以及算力云的安全保护。我们还在跟进国家东数西算算力节点安全项目。”

第二部分,是和大模型生态公司合作,为他们提供大模型安全的红队测试、大模型安全防护的产品。

红队测试指的是在大模型上线前,红队专家通过提示安全、应用安全测试、Agent安全、MaaS服务平台安全等八个方向,对大模型进行红队安全检查。

OpenAI每次发布全新版本大模型前,都会找顶尖红队进行测试,帮他发现大模型安全风险。

黑客已经有数十种攻击大模型的手段,如何用AI对抗AI?

那AI到底如何保护包括云基础设施在内的AI算力基础设施安全?

针对AI基础设施的攻击原理和传统的攻击类似,会用到一些算力算法的漏洞。

“防护的难度没有出现指数级增加,只是需要我们在防护规则上能够适配这一场景,能够识别出威胁。”陈奋对雷峰网(公众号:雷峰网)表示,“有些检测算法用传统的模型,有些算法需要安全大模型,所以我们采用混合调度架构更加灵活。”

面向AI基础设施安全,亚信安全也推出了全栈一体化解决方案。

陈奋介绍,AI算力基础设施的底层硬件是GPU服务器,不能用传统虚拟化技术做算力资源池,大部分算力平台是基于K8S云原生化的平台把算力放到云原生资源池里面进行调度,亚信安全今年推出全栈一体化云安全覆盖的范围。

亚信安全的算力云安全保护整体解决方案,在适配算力云特点的基础上,覆盖了从云底层安全、云工作负载安全到云原生应用安全等全栈一体化云安全能力。

AI时代的安全更需要产业链合作

C3安全大会·2024上,美的集团首席信息安全官兼软件工程院院长刘向阳透露,“我们做安全运营时,安全日志每天80亿条,仅告警就有20万条,很难用人力处理。引入安全大模型后,把安全告警需要人工研判的数量从20万条降到了100~200条,这就是人工能够处理的程度了。”

看到安全大模型显著效果的同时,也要意识到只做大模型的安全,解决不了大模型安全的问题。

“之前我们做云安全就有体会,整个供应链,包括数据方面,很多企业都不愿意将数据放到公共算力上。到大模型时代也一样,仅仅把大模型安全做好没用。”亚信安全高级副总裁兼CDO吴湘宁说,“现在大家都还在探索大模型生态安全的建设,可以明确的是整个生态链打开后,很多技术使用场景都会发生改变。”

亚信安全会从4个层面和生态合作伙伴合作,打造更具竞争力的AI安全解决方案。

大模型算法层面,“我们认为在行业场景,闭源大模型的能力比开源模型更好,我们坚持闭源和开源两条相合作路线。”陈奋说,“亚信安全做了一层专家混合模式调度模式,可以根据用户的需求场景和预算灵活选择用开源还是闭源模型。”

算力生态层面,亚信安全和算力公司合作,租用算力节点。反过来云计算提供商也可以买亚信安全的算力云安全解决方案。

“我们还和清华大学和中科院深度合作,亚信安全&清华大学智能产业研究院联合研发行动升级计划也在C3安全大会上发布。”陈奋指出,企业在应用场景做得更好,比较深度算法的优化,需要发挥科研者的力量。

黑客已经有数十种攻击大模型的手段,如何用AI对抗AI?

在国际合作方面,亚信安全也会发挥优势,把国际一流的技术引入国内。

“安全最终保护的是网络和操作系统,大模型本质上就是未来的操作系统。”吴湘宁说,“亚信会持续在这两个领域方向重点投入。”

雷峰网原创文章,未经授权禁止转载。详情见转载须知。

首页
评论
分享
Top