自 ChatGPT 推出以来的近两年里,生成式人工智能经历了整个技术炒作周期,从改变社会的崇高期望到推动最近的股市调整。但具体到网络安全行业,人们对生成式人工智能(genAI) 的兴奋仍然是合理的;它可能需要比投资者和分析师预期的更长的时间来彻底改变这个行业。
炒作转变的最明显、最新的迹象是在8 月初举行的美国黑帽大会上,生成式人工智能在产品发布、演示和一般炒作中扮演的角色非常小。与四个月前以相同供应商为特色的 RSA 大会相比,黑帽对人工智能的关注微不足道,这有理由让中立的观察者相信该行业正在向前发展,或者人工智能已经成为一种商品。但事实并非如此。
我的意思是,在网络安全行业中应用生成式人工智能所带来的变革性好处可能不会来自通用聊天机器人或快速将人工智能分层到数据处理模型上。这些是更先进、更高效的用例的基础,但目前它们并不是专门为安全行业设计的,因此不会为客户带来新一波最佳安全结果。相反,当人工智能模型针对安全用例进行定制和调整时,人工智能将为安全行业带来的真正变革将会发生。
目前,安全领域的一般 AI 用例主要采用了即时工程和检索增强生成,这是一种 AI 框架,它本质上使大型语言模型(LLM) 能够挖掘其训练数据之外的其他数据资源,将生成式 AI 和数据库检索的最佳部分结合在一起。这些的效用因用例以及供应商现有数据处理对用例的支持程度而异;它们并不是“魔法”。对于需要互联网上并不普遍的专有数据和专业知识的其他应用来说,情况也是如此,例如医疗诊断和法律工作。公司似乎可能会调整数据处理管道和数据访问系统以优化生成式 AI 用例。此外,生成式 AI 公司正在鼓励开发经过特殊调整的模型,尽管这在质量和细节至关重要的用途上的效果如何还有待观察。
不过,有几个原因导致这种专业化需要时间才能在安全行业发挥作用。一个主要原因是,定制这些模型需要在培训过程中让许多人参与其中,这些人都是网络安全和人工智能领域的专家,而这两个行业都难以找到足够的人才。根据 世界经济论坛的数据,全球网络安全行业大约缺少 400 万名专业人员,路透社估计,在不久的将来,人工智能相关职位的招聘缺口将达到 50%。
如果没有足够的专家,那么定制 AI 模型以使其在安全环境中发挥作用所需的精确工作将会放缓。训练这些模型所需的数据科学成本也限制了拥有资源进行定制 AI 建模研究的组织数量。需要数百万美元才能负担得起尖端 AI 模型所需的处理能力,而这些资金必须来自某个地方。即使一个组织拥有资源和团队来推动 AI 定制研究,实际的进展也不会在一夜之间发生。需要时间来弄清楚如何最好地增强 AI 模型以使安全从业者和分析师受益,并且与任何新工具一样,在引入安全专用的自然语言处理器、聊天机器人和其他 AI 辅助集成时会有一个学习曲线。
生成式人工智能仍有望将网络安全领域转变为一种新模式,其中对手和威胁行为者利用的攻击性人工智能能力将与安全提供商为检测和监控威胁而构建的人工智能模型展开竞争。推动这一转变所需的研发将比一般技术界预期的要长一段时间。
原创文章,作者:点点,如若转载,请注明出处:https://www.dian8dian.com/dui-yu-ren-gong-zhi-neng-lai-shuo-nai-xin-shi-yi-zhong-mei