到 2025 年,针对身份的武器化人工智能 攻击(看不见且通常恢复成本最高)将对企业网络安全构成最大威胁。大型语言模型 (LLM) 是恶意攻击者、网络犯罪集团和民族国家攻击团队的新选择。
最近的一项调查发现,84%的 IT 和安全领导者表示,当人工智能驱动的间谍技术成为发起网络钓鱼和短信钓鱼攻击的攻击策略时,识别和阻止攻击变得越来越复杂。因此,51%的安全领导者将人工智能驱动的攻击列为其组织面临的最严重威胁。虽然绝大多数安全领导者(77%)相信他们知道人工智能安全的最佳实践,但只有35% 的人认为他们的组织现在已经准备好对抗武器化的人工智能攻击,预计到 2025 年这种攻击将大幅增加。
2025年,首席信息安全官和安全团队将面临前所未有的挑战,需要识别和阻止日益加速的 基于人工智能的对抗性攻击, 而这些攻击的速度已经超过了最先进的基于人工智能的安全形式。2025 年,人工智能将成为提供实时威胁和端点监控、减少安全运营中心 (SOC) 分析师的警报疲劳、自动化补丁管理以及以比以前更高的准确性、速度和规模识别深度伪造技术所必需的技术基础。
对抗性人工智能:深度伪造和合成欺诈激增
Deepfakes 已经领先于所有其他形式的对抗性 AI 攻击。它们在 2023 年给全球企业造成了 123 亿美元的损失,预计到2027 年将飙升至 400 亿美元,复合年增长率为 32%。从流氓到资金雄厚的国家攻击者,各种攻击者都在不断改进他们的技术,利用最新的 AI 应用程序、视频编辑和音频技术。预计到 2024 年,Deepfakes 事件将增加 50% 至 60%,全球将达到 140,000-150,000起。
德勤表示,深度伪造攻击者首先倾向于攻击银行和金融服务目标。众所周知,这两个行业都是合成身份欺诈攻击的软目标,很难识别和阻止。去年,近20% 的合成身份欺诈案件涉及深度伪造。合成身份欺诈是最难识别和阻止的欺诈之一。仅今年一年,它就可能骗取金融和商业系统近 50 亿美元。在阻止合成身份欺诈的众多潜在方法中,有五种方法被证明是最有效的。
随着合成身份欺诈威胁的日益增加,企业越来越关注入职流程,将其作为验证客户身份和防止欺诈的关键点。正如Telesign首席执行官 Christophe Van de Weyer 在最近的一次采访中向 VentureBeat 解释的那样,“公司必须保护客户的身份、凭证和个人身份信息 (PII),尤其是在注册期间。” 2024 年 Telesign 信任指数强调了生成式人工智能如何增强网络钓鱼攻击,数据显示,在 ChatGPT 推出后的 12 个月内,恶意网络钓鱼消息增加了 1265%,凭证网络钓鱼增加了 967%。
武器化人工智能是新常态——但组织尚未做好准备
CrowdStrike首席技术官 Elia Zaitsev 在最近接受 VentureBeat 采访时表示:“我们一直在说,云、身份、远程管理工具和合法凭证之类的东西是攻击者一直在关注的领域,因为在端点上不受约束地操作太难了。”
“对手的行动越来越快,利用人工智能技术是其中的一部分。利用自动化也是其中的一部分,但进入这些新的安全领域是另一个重要因素,这不仅使现代攻击者的速度更快,而且使现代攻击活动的速度也更快,”扎伊采夫说。
生成式人工智能已成为对抗式人工智能的火箭燃料。OpenAI 于 2022 年 11 月推出 ChatGPT 后数周内,恶意攻击者和网络犯罪团伙就推出了基于生成式人工智能的订阅攻击服务。FraudGPT是其中最知名的服务之一,一度声称拥有 3,000 名订阅者。
尽管新的对抗性人工智能应用程序、工具、平台和技巧蓬勃发展,但大多数组织尚未做好准备。
如今,三分之一的组织承认,他们没有制定应对新一代人工智能和对抗性人工智能风险的书面策略。首席信息安全官和 IT 领导者承认,他们还没有为应对人工智能驱动的身份攻击做好准备。Ivanti 最近的《2024 年网络安全状况报告》发现,74%的企业已经看到了人工智能威胁的影响。十分之九的高管(89%)认为人工智能威胁才刚刚开始。这项研究值得注意的是,他们发现了大多数组织在防范对抗性人工智能攻击方面缺乏准备,而面临被攻击的迫在眉睫的威胁,这两者之间存在巨大差距。
六成安全领导者表示,他们的组织目前尚未准备好抵御人工智能带来的威胁和攻击。安全领导者今年面临的四种最常见威胁包括网络钓鱼、软件漏洞、勒索软件攻击和 API 相关漏洞。由于 ChatGPT 和其他新一代人工智能工具使许多此类威胁的制造成本降低,对抗性人工智能攻击在 2025 年显示出飙升的迹象。
保护企业免受人工智能驱动的威胁
攻击者使用人工智能、社会工程学和基于人工智能的工具来创建难以识别的勒索软件。他们入侵网络并横向移动到核心系统,从 Active Directory 开始。
攻击者通过在整个网络中安装恶意勒索软件代码来锁定公司的身份访问权限并撤销管理员权限,从而控制公司。基于 Gen AI 的代码、网络钓鱼电子邮件和机器人也在整个攻击过程中使用。
以下是组织可以反击和防御人工智能驱动的威胁的众多方法中的几种:
- 立即清理访问权限并删除前雇员、承包商和临时管理员帐户:首先撤销前承包商、销售、服务和支持合作伙伴的过期访问权限。这样做可以减少攻击者利用的信任漏洞,并尝试使用 AI 进行识别以自动发起攻击。将多因素身份验证 (MFA) 应用于所有有效帐户以减少基于凭证的攻击是基本要求。务必实施定期访问审查和自动取消配置流程,以维护干净的访问环境。
- 在端点和攻击面上实施零信任,假设它们已被攻破并需要立即进行隔离。 追求零信任框架最有价值的方面之一是假设您的网络已被攻破并需要遏制。随着人工智能驱动的攻击不断增加,将每个端点视为易受攻击的攻击媒介并实施隔离以遏制任何入侵是一个好主意。有关零信任的更多信息,请务必查看NIST 标准 800-207。
- 立即控制机器身份和治理。机器身份(机器人、物联网设备等)的增长速度快于人类身份,从而产生无法管理的风险。人工智能驱动的机器身份治理对于防止人工智能驱动的违规行为至关重要。自动化身份管理和维护严格的政策可确保控制这一不断扩大的攻击面。自动化人工智能驱动的攻击被用于查找和破坏大多数企业拥有的多种形式的机器身份。
- 如果您的公司拥有身份和访问管理 (IAM) 系统,请在多云配置中加强它。人工智能驱动的攻击试图利用 IAM 和云配置之间的脱节。这是因为许多公司只依赖于给定云平台的一个 IAM。这导致 AWS(例如 Google 的云平台)和 Microsoft Azure 之间存在差距。评估您的云 IAM 配置,以确保它们满足不断变化的安全需求并有效应对对抗性人工智能攻击。实施云安全态势管理 (CSPM) 工具以持续评估和补救错误配置。
- 全力以赴进行实时基础设施监控:人工智能增强型监控对于实时检测异常和漏洞至关重要,它能够洞察安全态势,并有效识别新威胁,包括人工智能驱动的威胁。持续监控可以立即调整策略,并有助于实施零信任核心概念,这些概念结合起来可以帮助遏制人工智能驱动的入侵企图。
- 将红队和风险评估作为组织肌肉记忆或 DNA 的一部分。不要满足于偶尔进行红队,或者更糟的是,只有当攻击引发新的紧迫感和警惕性时才进行红队。从现在开始,红队需要成为任何支持 MLOps 的 DevSecOps 的 DNA 的一部分。目标是预先识别系统和任何管道弱点,并努力优先处理和强化作为 MLOps 系统开发生命周期 (SDLC) 工作流的一部分出现的任何攻击媒介。
- 保持最新状态并采用最适合您组织的 AI 防御框架。让 DevSecOps 团队的成员随时了解当今可用的许多防御框架。了解哪一个最适合组织的目标可以帮助保护 MLOps,节省时间并确保流程中更广泛的 SDLC 和 CI/CD 管道。示例包括 NIST AI 风险管理框架和 OWASP AI 安全和隐私指南。
- 通过将生物识别模式和无密码身份验证技术集成到每个身份访问管理系统中,减少基于合成数据的攻击威胁。VentureBeat 了解到,攻击者越来越依赖合成数据来冒充身份并获取源代码和模型存储库的访问权限。考虑结合使用生物识别模式(包括面部识别、指纹扫描和语音识别)和无密码访问技术来保护 MLOps 中使用的系统。
承认违规可能性是关键
到 2025 年,对抗性 AI 技术的发展速度预计将超过许多组织现有的端点、身份和基础设施保护方法所能跟上的速度。答案不一定是投入更多资金,而是要找到扩展和强化现有系统的方法,以节省预算并增强对 2025 年即将到来的 AI 驱动攻击的防御能力。从零信任开始,看看 NIST 框架如何根据您的业务量身定制。将 AI 视为加速器,它可以帮助改善持续监控、强化端点安全、大规模自动化补丁管理等。AI 做出贡献和加强零信任框架的能力已得到证实。随着其固有优势(包括强制执行最小特权访问、提供微分段、保护身份等)的不断增长,这种优势将在 2025 年变得更加明显。
进入 2025 年,每个安全和 IT 团队都需要将端点视为已受攻击的端点,并专注于新的细分方法。他们还需要尽量减少身份级别的漏洞,这是人工智能驱动攻击的常见切入点。虽然这些威胁正在增加,但单靠任何支出都无法解决它们。承认端点和边界很容易被攻破的实用方法必须是任何计划的核心。只有这样,网络安全才能被视为公司必须做出的最关键的业务决策,2025 年的威胁形势将明确这一点。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/que-bao-ren-gong-zhi-neng-qian-yan-bao-hu-qi-ye-xi-tong