当今的网络安全面临着一个关键挑战:缺乏上下文(context)。
从威胁与防御的形态来看,现代攻击威胁,包括高级持续性威胁(APT)、多形态恶意软件、内部攻击,并不遵循静态模式。它们隐藏在大量非结构化数据中:日志、警报、威胁信息、用户活动,甚至电子邮件。
传统防御措施,无论是基于签名的检测、静态规则还是第一代机器学习模型,虽然对已知威胁有效,但在应对现代攻击载体的大规模和复杂性时却显得力不从心。它们经常会产生误报,而且其基于规则的特性意味着新型或复杂的攻击通常只能在破坏发生后才能被检测到。
大语言模型(LLM)能够改变这种状况。
GPT-4、Claude、Gemini 等大语言模型最初是为了理解和生成自然语言而构建的,它们提供了网络安全所急需的东西:读懂字里行间意义的能力。它们可以像叙述一样解析日志,像分析师一样关联警报,并以人类水平的流畅性总结事件。
但大语言模型不仅仅是更智能的工具,它们还是一种新型人工智能增强防御系统的基础。
网络安全领域最有前景的6大LLM用例
1. 用户和实体行为分析:大语言模型可以分析用户和设备的行为基线,区分信号为内部威胁还是证书滥用的细微差别。与僵化的异常检测模型不同,大语言模型能够识别未知威胁并显著减少误报。
2. MITRE ATT&CK 技术映射:通过摄取日志数据、事件报告和威胁情报,大语言模型可以自主地将行为映射到相关的 MITRE ATT&CK 技术,简化分类并增强威胁响应流程。
3. 高级威胁监测和零日感知:大语言模型擅长通过识别不同数据中的语义异常和行为不一致性来检测未知威胁,这使它们非常适合检测零日、新型恶意软件或事先没有签名的多阶段攻击链。
4. 网络钓鱼电子邮件检测和响应:网络钓鱼仍然是最常见的初始攻击方式。大语言模型可以解析电子邮件的语言、结构和嵌入内容,以检测社交工程线索,标记出躲过传统过滤器的威胁。
5. 警报分类和事件报告汇总:安全运营中心被警报淹没,大语言模型可以充当人工智能副驾驶员,对最相关的事件进行优先排序,用通俗易懂的语言进行总结,减少分析人员的疲劳。
6. 威胁情报规范化:大语言模型可以消化非结构化的威胁情报(白皮书、PDF、社交媒体动态),并将其转换为结构化的入侵指标或 STIX/TAXII 格式,供机器使用。
确保LLM的准确性,避免幻觉
在网络安全中,人工智能生成的错误响应不是 bug,而是大麻烦,因此必须主动减轻大语言模型的幻觉。以下是减轻大语言模型幻觉的方法。
检索增强生成(RAG):将大语言模型与实时数据源(日志、威胁推送、MITRE 文档)配对。随后模型会根据经过验证的内容生成答案,而不仅仅是根据记忆生成。
结构化提示:使用限制开放式生成的定义模板(例如,{"mitre_technique": "T1566.001", "confidence": 0.93})。
人机交互验证:分析师应审查和批准影响较大的输出(如遏制行动、事件分类)。
审计日志:所有人工智能生成的建议都应记录在案,包括提示词、检索上下文和最终输出,以便后续审查和模型调整。
形成微调 + 反馈的循环:定期采纳分析师的反馈意见,以提高模型的准确性,并使其与所在环境保持一致。
大语言模型不应取代安全运营中心,它们用可解释、可追踪、可验证的情报增强安全运营中心。
AI+网络安全的三个前沿领域
大语言模型是起点,网络安全领域的下一代人工智能将建立在三个融合的前沿领域:Agentic AI、MCP、A2A 架构。
Agentic AI(代理式人工智能)。代理系统是由大语言模型驱动的实体,可以推理、规划并在约束条件下采取行动。在安全领域,它们可以自主调查警报、起草事件报告、提出控制策略、通过反馈进行改进。它们不会取代分析师,但会像一级分析师一样自动运行,将人类解放出来从事更具战略性的工作。
MCP(模型上下文协议)。随着企业在检测、分析和响应中部署多个人工智能模型,MCP 将规范人工智能模型之间的上下文传输:跨模块保存逻辑和内存、实现信任链审计、促进人工智能治理和可解释性,这对于需要合规自动化的受监管环境至关重要。
A2A 架构。在已用于网络防御研究的早期原型中,多个专门的 AI 智能体的分工有所不同:一个智能体检测异常,一个智能体将威胁映射到 MITRE ATT&CK,一个智能体起草补救步骤,一个智能体更新 Playbook。
这种模块化、协作式的 AI 生态系统将重新定义网络安全架构——在这种架构中,AI 智能体就像人员配备齐全、可扩展的安全运营中心团队。
当然,这些架构还处于萌芽阶段,但许多公司已经在下一代网络平台中应用了这些架构,随着协议、标准和护栏的成熟,它们有可能成为主流。
安全领导者现在应该做什么
大语言模型不再是一种尝试,而是一种战略需要,以下是首席信息安全官、首席技术官和工程领导应该考虑的问题。
第一,从试点开始——日志分析、UEBA 或警报分流都是低风险、高回报的方法。第二,使用 RAG 和结构化提示来降低幻觉风险。第三,对分析师进行监督——尤其是对影响较大的产出进行监督。第四,开始围绕模块化、可组合的人工智能进行架构设计,同时考虑未来的可扩展性。第五,跟踪 MCP 和智能体协调框架等新兴标准,保持领先地位。
大模型是网络安全的未来
我们正在进入这样一个时代:人工智能不仅能帮助检测威胁,还能理解威胁、解释威胁,并很快在人类的指导下采取行动。大语言模型不仅是网络安全的未来,也是让安全堆栈的其他部分变得更加智能的上下文引擎(context engine)。现在正是投资的时候,不仅要投资技术,还要投资使其安全、可靠和有影响力所需的架构和管理。
来源:Forbes
责编:陈茜