AI模型数秒生成安全控制规则伪代码
某中心网络服务(AWS) 通过其安全中心帮助客户维护云环境的安全,该中心负责聚合、组织和优先处理来自某中心服务及第三方工具的安全警报。这些警报基于安全控制规则,这些规则有助于确保服务的安全配置并符合最佳实践。
传统上,安全控制的开发和实施是一个复杂、耗时且劳动密集型的过程。随着云环境日益复杂,对高效、可扩展安全解决方案的需求也在不断增加。
在今年国际信息与知识管理会议(CIKM)的“企业生成式AI与RAG系统”研讨会上发表的一篇论文中,介绍了一种利用先进AI能力来自动创建安全控制规则的新模型。该模型能够更快、更高效、更准确地生成有助于用户保护其云基础设施的规则。
当前的挑战
为某中心服务开发安全控制涉及分析服务文档、编写详细规范(通常使用Gherkin格式)以及最终开发确保安全配置的代码。平均而言,生产一个安全控制规则可能需要24天。随着某中心不断扩大其服务组合,每个服务都包含大量需要保护的资源,这一过程的复杂性将持续增加,手动编写和审查控制规则会导致部署延迟。
引入生成式AI
新模型利用大语言模型(LLMs)自动生成Gherkin规范。这将所需时间从数天缩短至几秒钟。当模型收到服务文档和安全要求的描述作为提示时,大语言模型可以输出准备就绪的、准确的控制规范。
例如,大语言模型可以为基本安全要求(如静态数据加密或日志记录)生成Gherkin规范。此过程有助于确保使用如某中心SageMaker AutoML等服务的工作负载能够正确配置以满足安全标准,而无需工程师每次都深入研究文档。
面向安全领域的专业化AI
提示工程是设计精确输入提示的过程,旨在引导语言模型的行为朝向期望的输出。提示工程的目标是确保模型理解任务的上下文和目的,从而产生更准确、更相关的响应。
在新模型中,结合了几种提示工程技术,以提升大语言模型的性能并增加其输出的透明度。首先,使用了思维链推理,将生成Gherkin规范的复杂任务分解为一系列更简单的步骤。在每个步骤中,指示大语言模型创建一个中间结果,该结果将作为下一步的输入。
还使用了检索增强生成(RAG),使大语言模型能够从外部来源检索相关信息。这里的外部来源是Boto3 API规范,其中的信息是服务和资源的配置(以Boto3语法表达),这些信息也被添加到提示中。
使用的最后一种技术是上下文学习,即向提示中添加由安全工程师开发的、作为正面示例的Gherkin规范。这起到了引导大语言模型朝着正确方向发展的作用,迫使其模仿正面示例并为输入查询生成类似的Gherkin规范。
通过结合这些技术,新模型能够提供高度准确且特定领域的安全控制规则,这应能显著加速开发过程并提升整体安全效率。在未来的工作中,将进一步改进该系统,可能会使用基于智能体的架构来处理更复杂的控制规则生成场景。
致谢:Felix Candelario
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)
公众号二维码

公众号二维码


浙公网安备 33010602011771号