2024年AI安全五大热点回顾

GoUpSec GoUpSec
生成式AI的崛起,让网络空间的攻防之战变得更加复杂。一方面,AI提升了攻击者的破坏力,另一方面,它也为安全从业者提供了前所未有的高效工具。这场博弈在未来几年只会愈发激烈,而全球各国的监管与产业力量也需紧密跟随其发展步伐。

微信图片_20250102111222.png

在ChatGPT推出两年后,生成式AI已成为网络安全领域的重要力量。2024年生成式AI技术的影响无处不在,从深伪欺诈到“影子AI”的风险,再到AI安全法规的出现和AI驱动的漏洞研究潜力。以下,我们将盘点过去一年AI与网络安全的五大热点话题。

1.深伪攻击与AI钓鱼袭击激增

目前,AI安全威胁的核心并非AI生成的恶意软件或流氓AI,而是通过AI生成的钓鱼诱饵和深伪技术实施的欺诈。这些攻击具有巨大的现实威胁。比如,香港某金融从业者因深伪视频会议被骗,转账高达2560万美元。类似的案例表明,深伪技术正在通过逼真的人脸仿真和声音模仿,威胁个人与企业的财务安全。

据安全公司iProov统计,2023年基于生物识别验证的“换脸”攻击激增了704%。深伪视频不仅欺骗了用户,也绕过了面部识别等生物特征验证系统。而AI驱动的商业电子邮件欺诈(BEC)也表现强劲,据VIPRE Security估计,AI生成的钓鱼邮件占商业欺诈诱饵的40%。

2.企业“影子AI”带来的数据泄露风险

企业内未经授权或监控的AI工具的使用(即“影子AI”)正在增长,带来了数据泄露风险。据Cyberhaven报告,2024年企业员工上传到生成式AI工具的敏感数据增长了485%,其中包括客户支持信息、源代码和研发数据。

尽管AI工具提升了生产力,但企业在安全培训和政策制定上的滞后引发了担忧。例如,美国众议院于2024年3月禁止员工使用微软Copilot,担心其导致敏感数据泄露。

3.LLM破解与APT组织的结合

2024年,针对大型语言模型(LLM)的攻击进一步演变,如Palo Alto Networks开发的“Deceptive Delight”方法仅需三次交互就能绕过安全限制。此外,知名APT组织如俄罗斯、朝鲜和中国的威胁行为者已被发现利用ChatGPT进行脚本生成、漏洞研究和目标侦察。

微软和OpenAI披露这些活动后迅速采取了关闭措施,且微软提议将LLM攻击方法纳入MITRE ATT&CK框架,反映了LLM威胁对网络安全生态的深远影响。

4.全球AI安全立法进程加速

2024年,全球AI法规进入新阶段。欧盟率先通过《AI法案》,以风险等级分类AI系统,禁止高风险应用,并设立相应的监管要求。而美国尚未推出类似的国家级法规,尽管其发布了针对关键基础设施的AI安全指南。此外,加州等州也尝试引入AI法规,但面临创新抑制的批评。

5.AI赋能网络安全的机遇

AI技术不仅是威胁,也为网络防御带来了全新可能性。例如,谷歌的AI驱动漏洞研究工具Big Sleep发现了SQLite数据库的漏洞,而其改进的OSS-Fuzz工具在开源项目中识别了26个新漏洞。

RSAC 2024会议也强调了AI对关键基础设施和国家安全防御的重要价值,从模式识别到自动化分析,AI正在帮助网络安全团队大幅提高效率。

生成式AI的崛起,让网络空间的攻防之战变得更加复杂。一方面,AI提升了攻击者的破坏力,另一方面,它也为安全从业者提供了前所未有的高效工具。这场博弈在未来几年只会愈发激烈,而全球各国的监管与产业力量也需紧密跟随其发展步伐。

参考链接:

https://www.scworld.com/news/ai-fueled-phishing-shadow-ai-jailbreaks-kept-security-pros-busy-in-2024

请扫码关注数字化经济观察网
责编:高蝶
参与评论
文明上网,理性发言!请遵守新闻评论服务协议
0/200