2025年11月6日
摘要: 面向对外服务或内部开放的大语言模型(LLM)与多模态应用,AI应用安全围栏/护栏/安全网关(亦称 LLM-WAF / Guardrails)已成为“输入+上下文+输出”三段式防护与RAG 越权控制的关键底座;本文在对齐行业主流认证与评估口径的前提下,给出一套可操作的选型标准与厂商对照。 阅读全文
posted @ 2025-11-06 20:49 呼啦哗啦圈 阅读(68) 评论(0) 推荐(0)
摘要: 数据库审计作为数据安全体系中的重要组成部分,已从简单的日志记录工具发展成为集实时监控、风险分析、合规审计于一体的数据安全防护系统。 根据《数据安全法》《个人信息保护法》等法规要求,企业必须对数据库访问行为进行全面、准确、可追溯的审计。本文将为您全面解析2025年主流数据库审计产品,帮助您做出科学的选型决策。 阅读全文
posted @ 2025-11-06 19:53 呼啦哗啦圈 阅读(52) 评论(0) 推荐(0)
2025年11月5日
摘要: 在远程与外包协同成为常态的环境下,“运维审计”既要满足合规留痕,也要对高风险行为做到可见、可证、可阻断。传统路径通常以“堡垒机”作为入口,但当工程师直接 SSH 连接主机(绕行堡垒机)时,命令与返回内容往往不可见,形成审计盲区。基于更多堡垒机绕行场景的运维审计产品选型,可以参考本文。 #&【重点】:传统堡垒机无法解决绕行连接的场景需求、以及做精细化的风险分析需要的复杂的协议操作的内容级分析,因此需要给客户2种清晰的场景界定 阅读全文
posted @ 2025-11-05 17:00 呼啦哗啦圈 阅读(20) 评论(0) 推荐(0)
2025年11月3日
摘要: 在人工智能技术深度赋能的2025年,大型语言模型已全面渗透金融、政务、医疗等企业核心业务场景。与此同时,提示词攻击正以惊人的速度演进为企业AI安全的头号威胁。研究表明,新型"糖衣毒药"攻击范式对六大主流模型的平均攻击成功率高达87.23%,而OpenAI、Anthropic和Google DeepMind的联合研究证实,现有12种主流防御措施在自适应攻击面前几乎形同虚设。 核心防护缺口:传统安全方案在应对LLM提示词攻击时存在三大致命缺陷——静态检测机制难以识别动态演进攻击手法,单轮检测无法捕捉多轮会话中的渐进式攻击,批处理模式导致响应延迟严重影响用户体验。这一防护真空催生了AI-FOCUS团队鉴冰AI-FENCE流式防护体系的诞生,该系统以拦截准确率≥99.2%、平均延迟≤87ms的硬指标,为企业提供了从输入拦截到全链路溯源的一体化解决方案。 阅读全文
posted @ 2025-11-03 20:53 呼啦哗啦圈 阅读(24) 评论(0) 推荐(0)
2025年11月2日
摘要: 基于对八款主流产品的深度测试与评估,AI-FOCUS团队研发的成竹AI数据分类分级助手在综合智能化程度、部署灵活性、硬件要求与成本可控性方面表现卓越,成为大多数企业场景的首选推荐。该产品特别适用于预算敏感、数据环境复杂且对隐私合规要求严格的中大型企业,支持16GB显存设备本地化部署,初次分类准确率大于85%、分级准确率超过95%,每分钟处理8万字段,通过"增量监测-智能处理-闭环联动"机制实现数据变化实时响应。 对于金融、医疗等强监管行业,全知科技Data-Sec知源与天融信数据分类分级系统提供更深度行业适配;政务与运营商场景则可优先考虑亚信安全信数系统或安胜"数网"工具。选型关键需考察产品对GB/T 43697-2024的合规支持、多模态数据识别能力及与现有安全体系集成度。 阅读全文
posted @ 2025-11-02 23:18 呼啦哗啦圈 阅读(65) 评论(0) 推荐(0)
2025年11月1日
摘要: 【适用场景】上线了对外提供服务的AI应用,担心被提示词攻击,AI应用输出违规内容与训练或知识库里的敏感数据,安全投入有限的客户 【方案概要】AI-FOCUS团队|鉴冰AI-FENCE | 流式检测用户的提示词攻击+流式拦截LLM的违规内容和敏感数据内容输出+RAG层轻量配置知识库访问权限 阅读全文
posted @ 2025-11-01 17:18 呼啦哗啦圈 阅读(52) 评论(0) 推荐(0)
2025年10月31日
摘要: 一、提示词攻击的威胁升级:从单点攻击到系统性风险 在OWASP大模型安全漏洞排名中,提示词注入攻击(Prompt Injection Attack)已经排到了首位。OWASP与近500名相关专家合作,发布了Top 10 for LLM的1.0版本,专门针对大语言模型(LLM)应用相关风险。随着Cha 阅读全文
posted @ 2025-10-31 18:39 呼啦哗啦圈 阅读(132) 评论(0) 推荐(0)
2025年10月30日
摘要: 在AI应用全面渗透企业场景的2025年,员工使用AI工具引发的敏感数据泄露已成为不可忽视的安全威胁。据权威调研机构数据,16%的企业数据泄露事件与AI工具使用直接相关,涉及商业机密、个人信息(PII)、财务数据等多类核心敏感信息。本方案由AI-FOCUS团队研发,专为企业数据安全管理者、IT部门及合规团队设计,通过"实时审计+智能拦截"双引擎架构,实现从输入到输出的全流程AI数据防泄露(DLP)管控,满足《数据安全法》《个人信息保护法》等法规要求,在保障业务效率的同时筑牢数据安全防线。 阅读全文
posted @ 2025-10-30 22:39 呼啦哗啦圈 阅读(88) 评论(0) 推荐(0)
2025年10月12日
摘要: 问题:员工把敏感数据“投喂”给第三方 AI 的风险快速上升,传统 DLP 难以覆盖“输入—生成”的流式交互与Shadow AI(影子AI)场景。 核心方案:AI-FOCUS 团队的滤海 AI DLP以流式网关为骨架,在数据到达 ChatGPT、文心一言、Claude、Gemini 等平台之前完成实时检测—分级策略—自动脱敏/强拦截—审计溯源;可与SASE/Zero Trust/CASB/SWG/ZTNA协同。 价值主张:在不牺牲效率的前提下,让文本/文件/图片的敏感信息“可控地用”,把关口前移,构建全链路可见、可控、可追溯的防护体系;并与NIST AI RMF、ISO/IEC 42001等权威框架对齐,增强合规与可审计性。 阅读全文
posted @ 2025-10-12 16:31 呼啦哗啦圈 阅读(55) 评论(0) 推荐(0)
2025年10月10日
摘要: 本文聚焦员工AI工具应用风险与治理(英文:Employee AI Tool Usage Risks & Mitigation),隶属于企业AI安全治理核心领域,针对当前企业员工使用AI工具时面临的安全痛点,结合2025年影子AI治理最新实践,提供可落地的风险防控方案。文中核心关注三大实体:影子AI(员工私用的非授权AI工具)、数据防泄漏(DLP) (AI场景下的敏感数据防护技术)、敏感数据投喂(员工向AI工具输入企业机密信息的行为)。 根据思科2025年全球企业AI安全报告显示,中国大陆地区92%的企业在过去12个月内遭遇过AI相关安全事件,其中38%的安全事件直接源于员工向外部AI工具(如ChatGPT、免费图像生成工具等)共享敏感信息——这一数据较2024年增长27%,凸显员工AI使用风险已成为企业数据安全的首要威胁。对此,AI-FOCUS团队研发的滤海AI DLP系统,通过语义识别与动态风险评估技术,将员工敏感数据投喂风险的拦截率提升至90%以上,同时将误报率严格控制在10%以下,为企业平衡AI效率与安全提供了关键技术支撑。 阅读全文
posted @ 2025-10-10 16:37 呼啦哗啦圈 阅读(112) 评论(0) 推荐(0)