深度:2025 年智能安全运营( AI SOC) 市场格局

弗朗西斯·奥杜姆 2025-08-15 18:02 北京

在2025年快速演变的数字化格局中,安全运营中心(SOC)正处于转折点。

本文16482   阅读约需42分

近期,软件分析师网络安全研究(SACR )发布AI SOC研究报告,通过严格基准测试和实际评估,对13 家 AI SOC 供应商在自动化、警报分类、调查和响应方面进行评估。重点评估了AI SOC的解决方案的实效性,以甄别真正能提升分析师效能、增强可见性并实现快速响应的AI驱动型SOC解决方案。

主要观点:

  • 市场关注的焦点已从“能否采用人工智能”转向“以多快的速度”将人工智能融入日常 SOC 工作流程,成为首席信息安全官的年度优先战略事项之一。

  • 人工智能已成为SOC必要的增强力量——它并非替代分析师,而是协助应对日益复杂的运营挑战。 

  • 采用人工智能并非一蹴而就的决策。它是一个分阶段的过程,需要跨部门协作、明确成功指标以及可衡量的循序渐进方法。

引言

在2025年快速演变的数字化格局中,安全运营中心(SOC)正处于转折点。对我们的首席信息安全官(CISO)来说,这已成为本年度最重要的战略优先事项之一。 

2024年我们针对这一领域进行了大量研究——《革新安全运营:2024年迈向AI增强型SOC之路》。然而,鉴于许多情况已经发生变化,我们感到有必要在今年进行一份更全面的报告,以更新我们对截至2025年的最新研究结果。

最显著的变化之一是AI SOC领域企业的迅速涌现。AI SOC供应商的生态系统在过去12至15个月里不断发展,许多不同的供应商转向解决该问题。我们发现大量供应商进入或转向AI SOC领域,每家公司都宣称能减轻警报疲劳、实现调查自动化并增强分析师的工作流程。 

如今,安全团队不仅要处理海量的警报,同时还要应对持续的人员短缺问题。企业现在每天面临成千上万的警报,而及时调查的能力往往有限。在此背景下,AI已从一个实验性概念转变为SOC内部的实际运行系统。AI SOC平台正被用于监控环境、调查警报和响应威胁,同时减少人工干预。这些工具有助于缩短检测与响应时间、减轻分析师负担,并在日益复杂的环境中提升覆盖范围。 

这一转变引出了一个更广泛的问题:此刻安全团队是否能获得持久的优势,还是说AI仅仅是SOC中又一个稍纵即逝的潮流?为了回答这个问题,我们针对这一新兴领域进行了迄今为止最深入的报告。

本报告提出的见解、分析和框架,旨在为CISO、安全分析师和组织决策者提供工具,帮助他们辨别炒作与实质,并为未来的网络安全态势做出明智的战略选择。 

为了使研究立足实际,我们与13家领先的AI SOC供应商合作,通过严格的基准测试和实战评估,审视了他们在自动化、警报分级、调查和响应方面的方法。我们向每家供应商发送了详细的调查问卷,并要求他们详细介绍其平台的运作方式。随后,我们利用他们的回答,使用SACR的内部评估框架进行能力对比和映射。其结果是对这些平台在架构、自动化模型和整体优势方面的差异进行了结构化呈现。 

市场上还有许多我们尚未评估但计划纳入未来研究的其他竞争对手。一些未在本报告中重点介绍但正在积极为SOC构建智能代理解决方案的供应商包括:Tines、SevenAI、Elastic AI、AIStrike、Bricklayer、Simbain 等。

以下 AI SOC 供应商参与了此次研究(按字母顺序列出)。 

• Command Zero 

• Crogl 

• D3 Security 

• Dropzone AI 

• Exaforce 

• Intezer 

• Legion 

• Mate 

• Prophet Security 

• Qevlar AI 

• Radiant Security

 • Sekoia 

• Torq

全球AI SOC 市场生态

一、现代安全运营中心(SOC)架构

随着安全环境日益复杂,现代安全运营中心已演变为分层架构体系,每一层级都在管理规模、确保上下文关联和加速响应方面发挥关键作用。

未来SOC架构

数据编制层

SOC团队中,多源的海量原始安全数据需要进行标准化处理才能有效分析,随后才能传输至SIEM(或自动化解决方案)。该层级供应商分为两类:1) 专注于构建和管理工程数据管道的供应商;2) 优先实施数据过滤与增强技术以提升检测质量的供应商。核心任务是将数据格式化为统一结构以实现无缝集成,并通过添加IP地理位置、威胁情报源等上下文信息提升数据质量。我们将揭示该层如何日益与自动化技术深度交融。

存储与检测层

企业利用威胁检测规则定义识别恶意活动的逻辑。处理后的数据将路由至集中存储库进行存储分析,这可能涉及提供实时监控告警的SIEM(安全信息与事件管理系统),或为降低成本设计的云上数据湖方案。

AI响应与自动化层

当检测规则触发告警后,SOC分析师需全面调查告警、评估风险等级并执行修复措施。现代SOC自动化方案正向主动防御模式进化——直接与安全工具集成,而非仅依赖SIEM告警。这种进步实现了更强大的告警增强与上下文分析能力,从而提升修复效率。分析师如今能更快速区分真实威胁与误报,并执行深度评估及遏制策略。在事件响应环节,团队可利用分级阶段发现的威胁指标开展深度调查,传统SOAR(安全编排自动化与响应)方案在此领域成效显著。尽管AI技术将革新该层级的SOC运作,但SOC管理者对SIEM相关成本与实施难点的持续担忧,仍使AI应用面临复杂挑战。

二、2025年SOC面临的挑战

根据 300 多名 CISO 的调查: 

• 海啸规模的告警已不可持续:在接受调研的282家机构中,安全团队日均处理约960条安全警报,而员工规模超2万人的企业每日警报量突破3000条,这些警报平均来自28种不同的监控工具。分析师直言"数据源过多"和"数据海啸"已成为侵蚀SOC各层级的系统性痼疾。 

• 告警疲劳已成为系统性风险:平均而言,40% 的告警从未得到调查,61% 的安全团队承认他们忽略了后来被证明至关重要的告警,导致客户数据泄露、系统宕机或直接造成业务损失。更糟糕的是,调查告警的平均时间长达 70 分钟,而基于网络钓鱼的攻击却可以在不到 1 小时内成功,这让攻击者获得了决定性的先机。

 • 资源限制迫使团队接受盲区:57% 的组织现在为了控制工作量而关闭检测规则,首当其冲被停用的正是云环境和身份认证,这两个领域是增长最快的攻击面。领导者们承认这种“必要的风险”, 凸显出亟需能提升可见性且不增加人力的自动化方案。 

• 市场情绪已转向人工智能:“人工智能赋能安全”已跃居首席信息安全官 (CISO) 的三大优先事项之列,仅次于数据和云安全; 88% 尚未运行人工智能驱动的 SOC 计划的组织,计划在未来 12 个月内评估或启动该计划。市场关注的焦点已从“能否”转向“以多快的速度”将人工智能融入日常 SOC 工作流程。 

• 预计三年内AI 将承担大部分 SOC 工作负载:安全领导者预测,到 2028 年,AI 平台将承担约 60% 的 SOC 任务,83% 的受访者认为 AI 将处理至少一半的运营任务。他们关注的指标——平均故障间隔时间 (MTTI)、平均修复时间 (MTTR) 和全天候覆盖率——与 AI 的优势直接相关,这意味着以ROI为导向的AI-SOC专用解决方案采购周期即将到来。

三、AI在安全运营中心的演进

去年我们探讨了AI在SOC领域的发展态势,彼时相关研究仍处于探索阶段。 历经数月与全球安全领袖的深度交流,我们验证了这一核心命题:当SOC面临告警量激增、成本攀升及缩短检测响应时间的多重压力时,人工智能已成为必要的增强力量——它并非替代分析师,而是协助应对日益复杂的运营挑战。

 我们第二个版本报告将重点从从论证AI必要性,转向评估解决方案的实效性,聚焦甄别真正能提升分析师效能、增强可见性并加速响应的AI驱动型解决方案。

 鉴于业界对于AI工具的透明度、效能及适应性的疑虑,本报告将供应商生态划分为四大类别: 

1. XDR智能助手: 扩展检测响应协同平台 

2. Tier-1告警自动分析系统:初级告警自主处理系统 

3. AI驱动高级威胁狩猎平台:主动式智能威胁追踪 

4. 流程智能中枢系统;

我们采用严格的基准,包括显著缩短平均检测和响应时间 (MTTD) 和平均修复时间 (MTTR),改进误报管理,以及提升运营成本效益,以指导安全运营中心 (SOC) 领导者选择符合其特定环境的合作伙伴。 

本报告还重点介绍了 AI 智能体在安全运营中心 (SOC) 中的应用。SOC 通常依赖于将数据作为输入、并根据预定义逻辑生成告警的系统。随着输入数据量的增长,告警疲劳的风险也随之增加。智能体系统(Agentic AI ) 旨在减轻这种负担。通过自主处理大量告警,智能体系统可以帮助分析师专注于真正需要他们判断和专业知识的事件。 

我们研究了这项技术如何应用于两种类型的环境: 

  • 内部运营的 SOC 

  • 由服务提供商管理的外部 SOC

四、AI SOC主要架构类型

我们分析了市场上的多种AI SOC的架构类型,包括安德鲁·格林撰写的分类。

1、功能域(自动化什么?)

(1)自动化编排(SOAR+)与智能体SOC平台 

此类平台旨在成为安全运营的"中枢神经系统"(central nervous system),通过协调广泛的安防工具与数据源实现响应自动化。其突破传统预置剧本(playbooks)的局限,依托自主智能体(agentic AI)实现:这些平台旨在成为安全运营的“中枢神经系统”,协调并自动化各种安全工具和数据源的响应。它们超越了简单的剧本,利用智能体系统(agentic AI)来智能地对操作进行排序、丰富告警(enrich alerts)、触发遏制或修复)、以及处理案件管理,通常无需人工干预。它们最大的优势在于其使用规则和动态智能体逻辑大规模编排复杂、跨工具工作流(SIEM、EDR、云、工单系统等)的能力。这导致响应速度、效率和一致性的大幅提升,特别是对于大型复杂环境或 托管安全服务提供商 (MSSP)。这些平台既支持用户自定义(由模块化功能单元构建),也可通过预封装智能体功能进行增强,从而提供适应新型威胁与工具演进的灵活性。

(2)纯智能体告警分级平台

虽然编排平台专注于端到端工作流,但这类平台着眼于更具体的挑战:减少告警过载带来的噪音和负担。这些平台能够快速筛选、分类并上报最相关的威胁,充当“AI 驱动的第一道防线”。它们从现有安全系统中提取大量告警,并自主过滤误报和常规事件。它们的独特之处在于强调自主推理,运用学习行为、上下文数据甚至大型语言模型来确定告警优先级和后续步骤。

其价值立竿见影:分析师摆脱了“告警疲劳”,只有真正需要人类专业知识的事件才会上报。对于那些希望在不彻底改变架构的情况下提升 SOC 生产力的组织而言,这些平台是理想之选。

(3)分析师助理/调查平台

此类平台作为人类分析师的"数字助理",为调查与决策提供按需实时辅助。不同于全流程自动化工具,其核心在于实时增强 分析师能力,具体形式包括:自然语言聊天机器人,可以回答问题、生成查询、总结证据或建议后续步骤;更高级的推理引擎,可以整合整合上下文并引导分析师处理复杂事件。这些平台的独特之处在于,它们充当了人类专业知识与机器效率之间的桥梁;它们并非旨在取代分析师,而是使其更快、更准确、更不易出错。这些平台对于二三级分析师以及希望在不丧失人类判断力的情况下扩展知识的组织尤其有价值。

(4)工作流/知识复制平台

该技术代表了SOC领域"机构知识资产"的尖端应用。工作流/知识复制平台观察、记录并学习顶尖分析师的操作方式,将这些行为转化为可扩展、可重复的自动化流程。这些工具通常基于浏览器或工作流捕获技术,创建专家流程的数字“孪生”, 可应用于未来事件处置、新人培训及操作标准化。其独特之处在于,它们不仅能够规范操作步骤,还能沉淀操作逻辑和决策依据,从而保存那些可能因人员流动或规模扩张易丢失的隐性知识。对于拥有少数超级明星分析师的组织,或需要在分布式团队中落地最佳实践的组织来说,此方案提供强大赋能。

2、模型部署(如何交付?)

(1)用户定义/可配置(确定性/智能体构建、低代码)

这些解决方案将权力交到用户手中:它们是工具包或平台,让 SOC 团队能够设计、定制并持续调整驱动其安全运营的自动化、工作流或智能体。使用可视化界面、脚本或低代码构建器,用户可以定义检测规则、编排工作流、构建自定义智能体,并根据组织的独特需求调整平台。这种方法最大限度地提高了灵活性、适应性和自主性,使其成为拥有成熟团队、或复杂且不断发展的环境的组织的理想选择。这些解决方案的缺点是需要更高水平的专业知识和持续的维护,但其回报是真正符合业务需求的 SOC。

(2)预封装/黑盒型(无/有限定制,研发驱动的智能体)

相比之下,预封装或“黑盒”解决方案以即开即用的平台交付,需要最终用户进行的定制化操作极少。

其底层逻辑、智能体或工作流由供应商设计并维护,通常基于广泛的研发 (R&D)、威胁情报和行业最佳实践。

这种模式的核心在于快速实现价值:企业可以快速轻松地部署先进的 AI 驱动的 SOC 功能,而无需内部开发。但其缺点是灵活性降低;用户很大程度上局限于“开箱即用” 提供的功能和流程。这些解决方案非常适合那些希望快速实现现代化、重视易用性或缺乏资源进行复杂定制的团队。

3、供应商方案的部署模式差异  

除了架构和配置之外,部署模式是另一个关键的差异化维度。AI SOC 平台的部署方式和部署位置各不相同,这取决于性能需求、监管要求和云就绪程度。本研究中观察到最常见的部署模型是软件即服务 (SaaS),即平台由供应商托管并通过互联网访问。一些供应商还提供“自带云”(BYOC) 选项,允许客户使用自己的云基础设施存储数据并在其上运行 AI SOC 平台。

另一个值得注意的部署模型,在某种程度上是AI SOC平台独有的,即支持隔离的本地环境。此选项对于具有严格安全或监管要求的组织尤其有价值,因为它允许它们在完全隔离外部网络的情况下运行平台。

所有供应商在威胁检测和响应方面都取得了显著的进步,但实现这些改进的方法却大相径庭。不同解决方案之间最显著的区别之一在于其底层架构。通过对多种产品的评估,我们确定了三种主要的架构方法,每种方法都有各自的优势、局限性,以及对如何在SOC内部署AI的影响。

(1)现有 SOC 上的连接和覆盖模式(SIEM) 

此模式指部署在组织现有安全技术栈“之上”附加层的 AI SOC 解决方案。这些平台以云服务或 SaaS 形式交付,主要通过 API 集成到客户环境中。

这些平台并非试图成为核心数据存储库或取代核心 SIEM/日志记录基础设施。相反,它们从 SIEM、EDR、云和身份源等工具中提取告警和遥测数据,然后应用自动化数据增强(enrichment)、推理或响应逻辑,最终将结果返回给 SOC 团队或事件管理系统。

它们的主要吸引力在于快速实现价值。由于无需全面数据迁移、大量调整或基础设施扩建,通常可在几天或几周内完成部署。对于希望在不破坏现有安全架构的情况下提升调查质量、实现分类自动化或添加 AI 决策层的组织而言,这些平台是理想之选。

缺点是,这些解决方案依赖于其他地方生成的告警和数据的保真度,它们的有效性取决于输入的信号。由于很少能够访问完整的原始数据流,它们的行为分析或异常检测能力往往有限。

例如:Prophet AI、Intezer、Dropzone AI、Radiant Security

(2)集成AI SOC平台

这些平台采用更深入的集成方法,直接提取、存储和分析安全数据。在许多情况下,根据具体用例 ,它们充当轻量级 SIEM 甚至完整的 SIEM 替代方案。与覆盖层不同,它们可以随时间访问和保留原始日志和遥测数据,从而实现更高级的行为分析和长期异常检测。

其关键优势在于更高的可见性和分析能力。通过内部存储数据,这些平台可以建立历史基线,揭示细微趋势,并支持仅使用覆盖模型无法实现的回顾性调查。许多平台还提供经济高效的日志存储和保留功能,有助于降低通常与传统 SIEM 相关的高成本。

这些平台通常本质上是混合型的。对于拥有昂贵或过载 SIEM (expensive or overloaded SIEMs) 的组织,它们可以充当日志存储卸载 (log storage offload) 或丰富层。它们可以充当拥有昂贵或超载 SIEM 的组织的日志存储卸载或丰富层,同时也可以为小型团队充当独立的检测和响应中心。

权衡因素包括更高的操作复杂性、供应商锁定 (vendor lock-in) 的潜在风险(因为数据驻留在供应商的环境中),以及额外的安全性或合规性考虑,特别是对于具有严格数据驻留或隐私要求的组织而言。

例如:Torq、Radiant Security、Sekoia.io、D3 Security。

(3)基于人机和浏览器的工作流仿真平台

这种模式代表了最以人为本、注重体验的方法。这些平台并非通过 API 和日志获取告警,而是捕获、学习并复制人类分析师的调查行为。它们通常使用浏览器扩展程序或类似技术来观察分析师如何在其本地界面(例如 SIEM 仪表板、案例管理工具)中处理事件。

其关键价值在于能够将机构知识和最佳实践转化为可扩展、可重复使用的自动化流程。随着时间的推移,这些平台可以大规模地“重现”这些专家工作流程,像经验丰富的分析师一样,一步一步、一步一步地自动处理新事件。

对于寻求保留和增加其最佳分析师的专业知识、快速引入新员工或在调查过程中保持高度一致性和质量的组织来说,这种方法尤其有价值。

然而,有一些重要的警告:

• 这些平台需要前期投入时间和专业知识:必须记录和验证工作流程才能实现价值。

• 与即插即用覆盖相比,它们达到全面运营效果的速度可能较慢。

• 它们的有效性取决于经验丰富的分析师对系统的“教导”

例如:Mate、Legion Security

AI SOC 供应商在检测和响应方面取得了显著的改进,但他们的解决方案在架构设计上却存在显著差异。我们的评估确定了三种主要的架构类型,每种类型都有其独特的优势和局限性。每种架构都体现了增强 SOC 运营的不同方法。有些架构专注于增强现有架构,而另一些则致力于从头开始重建调查堆栈。正确的选择取决于组织的成熟度、目标和现有工具集,以及他们希望对数据和检测逻辑拥有多大程度的控制力和可见性。

五、SOC 智能体系统风险与注意事项

在深入探讨本研究的方法论之前,务必强调依赖在SOC中依赖智能体系统解决方案的固有风险。以下考量因素聚焦于业务、运营和合规影响,而非技术限制(如模型性能、集成工作量或功能集)。

这些是组织领导者和决策者在 SOC 中推进智能体系统前应该仔细审查的领域。

1. 缺乏标准化基准:目前尚无广泛接受的基准来评估SOC环境中的智能体系统解决方案。这使得评估不同供应商的性能、准确性或投资回报率变得困难。

2. 成熟平台的颠覆:主要安全供应商可能会将自己的 AI 智能体直接集成到现有工具中,从而可能减少对独立代理 AI 产品的需求。

3. 炒作与已证实的影响:智能体系统是一个热门话题,但并非所有产品都能带来有意义或可衡量的价值。评估解决方案时,需要采取谨慎、基于证据的方法。

4. 供应商之间的差异有限:许多供应商宣传相同的核心功能:分类、响应和可解释性,这使得很难区分真正的创新和营销噪音。

5. 问责和义务:当人工智能系统做出错误或有害的决定时,组织需要明确的责任和升级政策。

6. 遵守数据法规:供应商必须确保数据的存储和处理符合当地法律,包括有关数据驻留和主权的要求(例如 GDPR)。

7. 分析师角色的转变:智能体系统正在改变 SOC 的运营模式。分析师正从直接响应者转变为自动化系统的监督者,这一转变可能需要新的技能、培训和团队结构的调整。 

六、评估方法

为了评估 AI SOC 供应商的能力,我们根据实际运营需求和专家意见,制定了一套结构化的评估方法。

我们根据一套全面的标准对每家供应商进行了评估,这些标准反映了 AI 驱动安全运营中最关键的功能、技术和运营层面。

我们的团队通过供应商访谈、详细问卷调查和产品文档收集数据,然后将这些信息映射到我们的评估矩阵中。

下面,我们概述一下构成评估矩阵的关键要素(并非全部),并解释了每个因素在评估 AI SOC 平台的有效性和成熟度方面重要的原因。这些标准反映了我们认为在现代安全运营中实现真正价值最重要的能力。

1. 经验证的效率提升

虽然指标的改进很重要,但跟踪这些改进的方法更为关键。我们优先考虑生产环境和案例研究中的具体数据,而非模糊的、高深的陈述。为了证明平台价值,供应商应提供以下的数据点:

  • SOC指标的改进:我们评估了自动化如何缩短告警确认和调查时间。使用该平台完成全面调查的速度是否比人工分析师更快?快多少?供应商需要提供实际数据和来自生产环境的案例研究来支持声明。

  • 告警升级率:我们评估了平台已完全处理的告警数量,以及仍需人工升级的告警数量。该比率可作为自动化成熟度的指标。

  • 判决准确性:我们评估了每个平台如何衡量和维护准确性。我们特别关注结构化的 QA 实践,而不是简单的重复测试或分析师覆写。

对研判结论准确性的严格质量验证(QA)同样至关重要。我们降低了依赖 AI 重新检查自身输出或客户端分析师确认/否定判决的平台权重。人工 QA 团队、检测工程师以及评估 AI SOC 的红队是在这一类别中取得高分的关键因素。

2. 调查速度、可扩展性和负载性能

此评估类别尤其适用于大型托管安全服务提供商 (MSSP) 用例,而非内部优化环境。

我们评估了以下内容:

  • 平均调查时间:我们考虑到调查速度可能会受到外部因素的影响,例如提供上下文信息的 API 的响应速度。我们的重点是确定调查的平均运行时间。

  • 可扩展性:我们试图了解可扩展性的具体实现方法。它是基于每个许可证固定的计算资源配置值,还是架构本身就具备可扩展性?我们要求供应商解释产品在异常高的峰值负载条件下的性能表现。

  • 负载下性能:我们询问该产品是否经过压力测试,以及是否有详细说明此类测试或大规模部署的案例研究。

我们重视产品架构以及如何实现可扩展性的透明解释。我们认识到,虽然平均调查时间是一个考虑因素,但在资源受限的情况下,确保支持峰值负载以及警报调查的排队(而不是丢弃)更为重要。

3. 上下文增强与威胁特征分析

我们评估了平台收集、关联和分析附加信息(例如文件行为、用户活动、威胁情报)以提供更深层次调查上下文的能力。

  • 上下文数据源:我们关注该平台是否内置了威胁情报组件,例如能够将告警实体(alert entities)与已知恶意特征数据库(如 VirusTotal、AbuseIPDB、Recorded Future 等)进行比对查询(iterate against)的能力。

  • 威胁特征分析 (Artifact analysis):我们评估对关联威胁特征的分析深度。这包括内置沙箱分析、行为基线建模以及类UEBA(用户与实体行为分析)技术的使用。

我们重视那些将热门服务集成到其许可证中的供应商。了解分析的深度对我们来说至关重要。我们重视沙盒、类似用户行为实体分析 (UEBA) 的方法,用于建立构成正常行为的基线,以及比仅仅将告警实体与已知恶意特征列表进行比对的分析方法。

4. 新型威胁检测

我们充分认识到,AI SOC 平台本身并非检测引擎。这些平台专注于分析已生成的警报。尽管如此,一些平台仍具备标记新威胁的功能。

我们充分认识到,AI SOC 平台本身并非检测引擎。这些平台专注于分析已生成的告警。尽管如此,部分平台具备能够标记新型威胁的功能。

  • AI 逃逸防护: 我们考察了平台如何防御提示词注入攻击及其他形式的 AI 逃逸技术,这些攻击/逃逸可能针对二进制文件 、脚本 及日志仓库。

  • 新型威胁检测 : 我们评估了平台是否包含标记异常行为】或现有工具尚未发现的未知模式 的能力。

我们重视那些在抵御人工智能逃逸和检测新颖威胁方面展现出周密设计方案的供应商。

5. 集成深度和广度

我们评估了每个平台与更广泛的安全堆栈的集成程度,以及其融入分析师工作流的顺畅程度。

  • 可用集成列表:我们审查了主要的安全相关解决方案是否可以开箱即用地集成。SOAR 是否也包含在内?

  • 无界面操作模式支持:我们评估了平台是否能够在无需分析师登录新控制台的情况下运行,我们称之为“ 无界面操作模式 (headless mode)”。这反映了现实需求,因为许多分析师已经在多个平台上工作,而添加另一个界面会带来阻力。

  • 与通信应用的集成:我们寻求使用 Slack 或 Microsoft Teams 等工具中的自然语言或通过内置聊天机器人功能查询平台的能力。

我们重视与主流 SIEM 和案例管理工具的集成。工具疲劳是一个值得关注的问题,无需直接在 AI SOC 平台内工作是一个受欢迎的功能。缺乏与主流安全供应商或 SOAR 工作流的集成被认为是危险信号。考虑到与现代基于 SaaS 的安全解决方案的连接非常便捷,我们预计这些集成将得到全面实施。一些供应商开发了与通信应用的集成功能,这也是一个受欢迎的附加功能,虽然并非必需,但无疑是一个很大的优势。

6. 数据与隐私

我们评估了每个平台如何处理数据控制、治理和多租户环境,这些都是托管安全服务提供商 (MSSP)和大型企业关注的核心关切点。

  • 支持多租户部署:我们评估该平台是否能够有效支持多租户,例如管理不同客户环境的 MSSP 或具有细分业务部门的大型企业。

  • 数据控制:我们审查了客户对其数据的控制级别,包括保留设置、可导出性、卸载期间的数据删除以及选择存储位置的能力。我们还评估了供应商对其静态数据存储实践的清晰阐述。

  • 符合安全标准。我们验证了其是否符合 ISO 27001、SOC 2、GDPR 和 NIST 等监管和行业框架。此外,我们还考虑了可审计性和文档记录。

我们高度重视数据管理的灵活性和透明度。允许在客户自身环境中存储数据的平台也获得了额外的赞誉。

7.可解释性

我们研究了人工智能系统解释其行为的清晰度以及它如何有效地将分析师的反馈纳入未来的决策中。

  • 可解释性:我们评估了人工智能驱动的调查中每个步骤是否清晰可见且可审计。这包括检查幻觉检测和决策路径的清晰度。

  • 人工反馈整合: 我们审查了分析人员是否可以修改判决或影响调查逻辑,而不仅仅是最终结果。我们还询问了反馈回路的实施速度以及它对未来调查的影响。

所有供应商都提供了一定程度的分步透明度。然而,我们优先考虑那些能够提供精细分析师输入并快速整合反馈的平台。分析师对调查过程的影响力越大,得分就越高。

附加功能

尽管大多数供应商在平均响应时间(MTTR)和调查质量方面展现了相似的提升,但我们重点关注了突出功能和独特价值主张。

我们评估了超越标准SOC工作流程的功能,例如对合规性工作流程的支持、创新的分析师界面或特定领域的用例。这些功能通常能够展现平台服务专业团队或适应未来需求的能力。

我们还评估了实际运营因素,例如全面部署时间、供应商路线图可见性和客户支持模式。这些因素在核心能力评分中的权重较低,但它们对本报告结论的形成却发挥了重要作用。

七、总体市场观察

本次评估的结论并非对 AI SOC 平台进行从优到劣的简单分级排名。相反,我们采用了一种细致入微的方法,整合了多种视角:基于评估标准的量化评分、来自供应商访谈的见解、产品演示以及对 AI SOC 格局的更广泛研究。

这种多方面的方法论由两个关键因素驱动:

  • AI SOC 市场仍处于早期阶段:

我们评估中的一些平台已经实现了相对广泛的部署,而另一些平台则仍处于隐身状态。读者在解读我们的研究结果时,应考虑这种市场成熟度的差异。一些供应商提出了极具创新性的概念,但缺乏足够的生产部署来通过实际案例研究验证其有效性。

  • AI SOC 供应商的核心价值主张大体相似。

大多数平台旨在通过自动化告警调查来精简安全运营 。本质上,它们承诺减少需要人工干预的告警量并加快响应时间。平均响应时间 (MTTR)、平均确认时间 (MTTA)、平均检测时间 ( MTTD) 或平均调查时间 (MTTI) 等指标经常被引述为关键绩效指标 。最终目标始终如一:加快调查速度,减少手动处理的警报。

这两个因素(市场不成熟和相似的价值主张)使得直接的比较评估颇具挑战性。然而,我们基于供应商的路线图及其将AI融入安全运营的更广阔愿景,构建了一个框架,重点突出了每个平台的当前功能及其战略方向。

1、评估的三个关键因素

在最终确定评估时,我们将研究提炼为三个关键因素:

Y轴:整体产品成熟度

定义:衡量平台的运营准备度、可靠性和可信度。评估基于对安全标准的遵守情况、支持的可用性和质量、质量保证实践、客户评价、案例研究以及其他运营稳健性指标。 

关键标准:安全认证、客户支持质量、QA 严谨性、稳定性、实际部署、推荐、案例研究、市场时间长度等。

X轴:能力深度

定义:衡量平台功能的广度、丰富度和复杂程度。评估内容包括平台功能的广度和复杂程度、部署灵活性、第三方集成、路线图承诺、AI规避技术处理能力、检测各种威胁的能力等。

关键标准:用例的广度(分类、编排、调查等)、定制选项、集成、异常检测、对新威胁的支持、部署选项等。

定量评分: 

该因素源自我们根据一系列标准(其中一些标准在本报告中详细说明)的评分框架,它直接影响了下方比较图中每个 AI SOC 平台的定位。

需要注意的是,我们的定量评分以及产品成熟度和能力深度的评估,并不一定能反映每个平台对您特定用例的价值。选择合适的 AI SOC 平台需要将您组织的独特需求与每个供应商更广泛的产品服务和优势相匹配。 

2、AI SOC 供应商的突出优势

下面,我们重点介绍特定供应商在评估中展现出的突出优势。

(1)最佳端点安全适配方案——Intezer 

Intezer 是市场上顶级的 AI SOC 平台之一,并且是特别适合(exceptionally well suited) 高度聚焦端点安全(endpoint security) 环境的解决方案。Intezer 最初开发为一款沙盒解决方案,凭借其在恶意软件分析和数字取证领域的深厚积累,现已发展成为全面的 AI SOC 平台。 其架构(architecture)、强大的内置沙箱 和恶意软件研究团队,在我们的评估中提供了卓越的结果(exceptional results)。该平台基于端点的许可模式 和专家支持的获取途径,进一步增强了其对寻求高性能、分析师友好解决方案的 MDR(托管检测与响应)团队的吸引力。

(2)最独特的用例——Legion Security、Mate Security 

Legion Security 和 Mate Security 提供了我们在本次评估中见过的最独特的用例之一。事实上,这些用例如此独特,以至于我们的团队在将其与其他 AI SOC 平台进行比较时遇到了挑战。Legion 和 Mate 采用了截然不同的方法。通过浏览器扩展程序,这些平台记录了人类分析师的调查工作流程,然后自动执行这些步骤。这种方法使组织能够有效地大规模复制其最佳分析师的专业知识。更重要的是,这些步骤可以回放(replayed) 给新分析师用于培训目的。 

据 Legion 团队称,未来的迭代版本甚至可能支持将外部分析师的专业知识导入平台。由于自动化基于真实的人类行为,无需人类分析师验证平台判决的准确性。尽管 Legion Security 和 Mate Security 都是相对年轻的企业,但他们的方法解决了我们在更传统的 AI SOC 产品中观察到的许多挑战。这是一个创新的解决方案,我们将密切关注其不断发展。

(3)最独特的价值主张——Radiant Security 

Radiant Security 凭借我们所遇到的最引人注目、最具价值的主张之一,在 AI SOC 市场中脱颖而出。虽然所有 AI SOC 平台都旨在提高大规模警报调查的效率,但 Radiant 更进一步,能够对任何类型的警报进行分类,并显著节省日志存储成本,而日志存储是安全运营的主要成本驱动因素。该平台可以提取日志并以约 70% 的效率进行压缩,使组织能够将日志保留在原始存储空间的 30% 左右。这些压缩日志可以存储在客户自己的云环境中,而 Radiant 则提供针对这些数据的搜索和调查功能。对于某些组织而言,仅凭存储成本的节省就足以证明其对该平台的投资是合理的。

Radiant 团队明确表示,他们并非将自己定位为日志管理解决方案,并且在我们的评估中,他们的平台在传统的 AI SOC 基准测试中表现出色。然而,降低日志存储成本的额外优势使 Radiant 脱颖而出,这在当今市场上实属罕见。

(4)最独特的部署选项——Crogl、Mate Security 和 D3 Security 

大多数 AI SOC 平台都采用 SaaS 部署模式,要求组织将敏感数据发送到云托管环境。对于某些客户,尤其是受监管行业或政府部门的客户,这在数据主权和控制方面带来了重大担忧。Crogl、Mate Security 和 D3 Security 通过提供完全隔离的本地部署选项,直接解决了这一挑战。这使组织能够完全控制其数据和基础架构,同时又不牺牲 AI 驱动的调查和自动化的优势。

(5)出色的全能选手——Prophet AI、Qevlar AI、Exaforce、Dropzone AI、Command Zero 

我们评估的几款 AI 产品在一系列功能上展现了强大而全面的性能。虽然它们没有一款产品在高度专业化或细分领域脱颖而出,但它们在检测和响应方面始终保持着稳健的性能。这些平台功能多样、适应性强,能够轻松集成到各种组织环境中。我们建议寻求可靠、广泛有效解决方案的读者考虑这些产品,尤其是在优先考虑全面覆盖和在各种用例中实现可靠性能的情况下。

(6)功能最丰富的平台 – Sekoia、Torq 

在研究中,我们观察到多个平台在检测和响应方面取得了显著的改进。有两个平台因其广泛的功能集而脱颖而出(stood out),在已经提供广泛强大功能的 AI SOC 市场中也是如此。 

Sekoia.io尚未使用AI自动分类告警,尽管此功能已列入其路线图。它提供了一个全面的平台,可以有效地取代SIEM,并作为SOC检测和响应工作的中心点。 该平台由精选的威胁情报支持,并提供基于AI的洞察,从而提高安全调查的质量和速度。

Torq Hyper-SOC并非SIEM的替代品,但它提供了广泛的功能,包括云安全态势管理、身份和访问管理、威胁狩猎、事件响应、电子邮件安全等。某些功能超出了传统SOC的范围,例如自动用户入职和离职,或在发现云资源不合规时触发工作流。我们认为这两个平台都超出了业界对 AI SOC 平台通常的功能预期,对于寻求广泛功能的组织来说可能是可靠的产品。

八、市场涌现的热门主题

网络攻击的非对称性使得资源有限的攻击者也能攻陷高价值目标。未来研究可深入探究:在智能体系统技术背景下,这种非对称性是否已发生转变——尤其需聚焦网络犯罪分子等攻击方相对于防御方的优势变化。把握智能体系统如何改变攻防平衡,将为应对新兴网络安全挑战提供关键洞见。

我们对 AI SOC 市场的评估揭示了几个重要的模式,这些模式塑造了最终结论。虽然该领域创新丰富,但许多平台都围绕一个相似的核心价值主张,差异化仅出现在特定的设计理念、功能集或架构选择方面。

1、围绕效率和吞吐量融合的价值主张 

该领域几乎所有供应商都专注于提高安全运营的警报解决吞吐量。他们的核心价值在于简化分类和调查流程,最大限度地减少分析师疲劳,并缩短响应时间。因此,仅凭核心宣传往往很难区分不同的供应商。大多数平台都承诺更快的调查速度、更高的告警处理能力以及更短的平均响应时间 (MTTR),这使得营销信息几乎可以通用。

2、调查方法的分歧 

供应商之间真正出现分歧的地方在于他们如何处理调查过程本身。我们发现了两种截然不同的模式: 

• 一组平台构建自主调查计划,允许 AI 独立确定调查路径 (investigative path) 并基于内部逻辑 (internal logic) 采取行动。 

• 另一组使用结构化护栏,其中供应商或分析师定义允许的步骤, AI 在这些参数范围内执行。 这种设计选择反映了关于信任、控制和透明度等更深层次的理念差异。哪种模式最终会获得更广泛的市场采用还有待观察,但我们认为这是未来差异化最有意义的领域之一。

3、超越调查吞吐量的价值 

有些平台的价值主张超越了单纯的调查吞吐量。

例如: 

  •  Radiant Security 通过提供压缩日志存储来显著降低保留成本,从而节省成本。Exaforce 通过提取日志数据并免费存储 90 天,为日志管理提供了类似的价值。 

  •  Legion Security 和 Mate 通过记录和重放人工主导的调查来强调建立信任,这也支持入职和可审计性。 

  •  Sekoia.io 和 Torq 将自己定位为更广泛的安全自动化平台,将多个 SOC 功能整合到单一环境中。 我们鼓励利益相关者对平台的全部功能进行评估,并探索传统检测和响应工作流程之外的价值。

九、AI SOC 部署指南

指南旨在帮助组织成功地将 AI SOC 解决方案无缝整合至其现有的安全工作流程中。指南基于广泛的研究,旨在阐明哪些功能集至关重要,识别符合特定运营需求的供应商,并预判市场演进方向。部分阶段(尤其是AI战略制定与供应商遴选)需充分内部协同,并依托严格的概念验证(POC)评估推进。

采用人工智能并非一蹴而就的决策。它是一个分阶段的过程,需要跨部门协作、明确成功指标以及可衡量的循序渐进方法。以下流程概述了从早期规划到全面部署的实用路径,并重点介绍了 各环节关键节点。

阶段一:制定AI安全战略

建议企业首先制定清晰的战略,明确 AI 如何增强其安全运营。这包括识别关键痛点,例如告警疲劳、响应延迟等核。AI目标须与总体业务及安全战略保持一致。各组织应预先定义可量化的成功指标,并获得利益相关方支持。此阶段的关键问题包括:哪些SOC功能需AI优化/自动化?自动化程度如何设定?成效衡量标准是什么?

阶段二:明确AI功能集

接下来,组织应基于战略需求,界定AI SOC解决方案的能力矩阵。建议优先考虑五大核心功能:威胁分级与数据增强、AI辅助调查响应、行为分析与异常检测、威胁情报集成、自然语言查询。需尽早与利益相关者沟通,以确保其与运营需求保持一致。在这个阶段,技术研究和解决方案评估最为重要。

阶段三:遴选AI SOC供应商

明确需求后,组织应根据既定战略与功能需求选择供应商,解决方案的评估应基于准确性、可解释性和集成能力。其他需要考虑的因素包括供应商支持力度、合规适配性、部署便捷性等维度。强烈建议通过试点项目或概念验证 (POC) 测试,以验证解决方案在实际场景中的有效性。

阶段四:部署AI SOC方案

选择供应商后,重点应转移到将 AI 解决方案集成到现有环境中。这包括将其与 SIEM、EDR、SOAR 和遥测源 (telemetry sources) 等系统连接。配置用户角色 (configure user roles)、定义操作工作流 (define operational workflows) 和设置自动化触发器 (set up automation triggers) 非常重要。如有历史数据,应使用历史数据来调整 AI 模型以提高性能。在此阶段,内部团队与供应商支持之间的协作至关重要。

阶段五:建立信任期(1-2个月)

部署完成后,我们建议进入初期的信任建立期,在于验证 AI 系统的性能。在此期间,安全分析师应仔细审查AI生成的告警和决策。必须实施反馈循环以持续提高准确性。监控误报并进行配置调整至关重要。目标是建立对AI可靠地支持和增强SOC运营能力的信心。

阶段六:向全自动化过渡

随着对系统信任度的提升,组织可以逐步提升自动化水平。这可能包括自动警报分类和响应低风险事件。随着运营任务越来越多地由人工智能处理,安全分析师可以专注于战略举措,例如威胁狩猎、红队测试以及增强架构和控制。

AI SOC 可以显著增强组织检测和响应威胁的能力。然而,成功的部署需要周密的思考,以避免选择错误的解决方案或或高估 AI 的潜力。我们建议进行仔细的评估过程,特别是在启用自动化操作之前。我们的研究表明,完全自主运行是可以实现的,但前提是在组织安全团队和 AI SOC 供应商之间必须进行彻底的尽职调查并建立信任期之后。

结论

现代安全运营中心 (SOC) 已到达关键节点,告警量不断增加、人员持续短缺以及网络威胁日益复杂。人工智能驱动的解决方案已成为缓解运营压力的关键,它们可以实现警报分类自动化、提高调查效率,并在不大幅增加人员的情况下实现可扩展性。然而,成功采用的关键在于选择与组织需求、成熟度和资源可用性紧密契合的架构模型,例如叠加层、集成平台或人工工作流程模拟。

此外,人工智能驱动决策的透明度和可解释性已成为赢得信任并确保有效融入现有工作流程的关键因素。尽管人工智能在 SOC 运营中的市场正在迅速扩张,但其发展仍相对不成熟。因此,组织必须谨慎采用人工智能解决方案,在预期收益与潜在风险(包括合规性、数据治理和运营中断)之间取得平衡。

AI 技术对现代 SOC 运营至关重要,它在自动化、可扩展性和响应速度方面提供了切实的优势。尽管存在这些优势,但组织仍需仔细评估不同 AI 架构的适用性,要求解决方案提供商保持透明,并主动管理实施风险。随着 AI SOC 生态系统的不断发展,明智且谨慎地采用这些技术对于有效应对当代网络安全挑战仍然至关重要。

  关 于 作 者  

• 弗朗西斯·奥杜姆 (Francis Odum) 是软件分析网络研究的创始人/首席执行官。

• 拉法尔·基塔布(Rafal Kitab) ConnectWise 的安全运营中心 (SOC) 和事件响应负责人,拥有丰富的安全分析师、工程师、架构师、事件响应人员以及近期担任总监的经验。

END

阅读原文

跳转微信打开

原始链接: https://mp.weixin.qq.com/s?__biz=MzIwNjYwMTMyNQ==&mid=2247493442&idx=1&sn=4a56b9e2dfc37d484299993284c666f5
侵权请联系站方: [email protected]

相关推荐

换一批