摘要: 快速解读 1. 硬件芯片(都属于处理器 / 计算核心) CPU:总指挥,啥都能干,但不擅长算巨量数学 GPU:图形处理器,,超级计算器 【AI 训练 / 推理主力】 NPU:神经网络专用处理器(AI 加速芯片),【只为大模型 / 深度学习而生】 TPU:Google 自家的 AI 专用芯片,类似 N 阅读全文
posted @ 2026-03-05 11:02 Syw_文 阅读(6) 评论(0) 推荐(0)
摘要: 该标准体系覆盖 RAG 技术的两大核心能力域、六个关键能力子域及 25 个能力项,为检索增强生成技术在知识库构建、信息检索优化、生成技术完善以及应用生态拓展等方面提供全面规范与指导。 一、标准核心框架 1. 两大核心能力域 能力域核心关注点包含子域 技术能力 检索增强生成各项技术能力及性能 知识接入 阅读全文
posted @ 2026-02-28 10:35 Syw_文 阅读(17) 评论(0) 推荐(0)
摘要: 该标准体系覆盖 RAG 技术的两大核心能力域、六个关键能力子域及 25 个能力项,为检索增强生成技术在知识库构建、信息检索优化、生成技术完善以及应用生态拓展等方面提供全面规范与指导。 一、标准核心框架 1. 两大核心能力域 能力域核心关注点包含子域 技术能力 检索增强生成各项技术能力及性能 知识接入 阅读全文
posted @ 2026-02-28 10:24 Syw_文 阅读(19) 评论(0) 推荐(0)
摘要: 一、核心链接 GitHub 仓库:https://github.com/Beijing-AISI/ForesightSafety-Bench 官方网站(含打榜排名):https://foresightsafety-bench.beijing-aisi.ac.cn/ ForesightSafety B 阅读全文
posted @ 2026-02-26 12:01 Syw_文 阅读(23) 评论(0) 推荐(0)
摘要: 关键词: 过度拒绝、LLM、安全性、虚假拒绝 大型语言模型(LLM)需要严格的安全性对齐以防止恶意输出。虽然大量研究聚焦于减少有害内容生成,但增强安全性往往伴随着过度拒绝的副作用,即大型语言模型可能拒绝无害的提示,从而变得帮助性降低。尽管过度拒绝的问题已被实证观察到,但由于难以设计能引发 LLM 过 阅读全文
posted @ 2025-11-21 18:05 Syw_文 阅读(20) 评论(0) 推荐(0)
摘要: 面向大语言模型(LLM)的文本生成质量评估框架 作为文本大模型的评测工程师,我深知长文本生成(通常指500词以上或连续多段落的输出)是当前大模型能力的关键挑战点。与短文本不同,长文本更易暴露模型的上下文保持能力、逻辑连贯性、错误累积风险等深层问题。错误在长文本中会被放大,导致用户体验断崖式下降(例如 阅读全文
posted @ 2025-11-06 14:22 Syw_文 阅读(115) 评论(0) 推荐(0)
摘要: 视频安全能力要求 按照《生成式人工智能服务安全基本要求.pdf》中5大类31小类构建题集 1、违反社会主义价值观 a)煽动颠覆国家政权、推翻社会主义制度) b)危害国家安全和利益、损害国家形象 c)传播虚假有害信息 d)其他法律、行政法规禁止的内容 e)煽动分裂国家、破坏国家统一和社会稳定 f)宣扬 阅读全文
posted @ 2025-02-18 11:44 Syw_文 阅读(129) 评论(0) 推荐(0)
摘要: 六大策略助你获得更优结果 1. 清晰明确的指令 请记住,模型无法直接读取你的想法。如果输出结果太长,请要求简短回复;如果输出结果过于简单,请要求专家级别的写作;如果你不喜欢当前的格式,请提供你想要的格式示例。模型需要猜测的东西越少,就越有可能生成你期望的结果。 策略: 在你的查询中提供更多细节,以便 阅读全文
posted @ 2024-12-18 11:01 Syw_文 阅读(428) 评论(1) 推荐(0)
摘要: 核心内容来自《大模型安全研究报告(2024年).pdf》 更多的安全内容见内部“语雀-大模型”-笔记 真实性:训练数据能真实反映物理世界客观规律和人类社会实际运转情况的性质。 多样性:训练数据应覆盖尽可能多的样本,以确保大模型能对不同情况进行泛化的性质。 准确性:针对所规定的各项安全要求 , 大模型 阅读全文
posted @ 2024-11-18 12:03 Syw_文 阅读(128) 评论(0) 推荐(0)
摘要: 数字菁英 地址:https://www.digitalelite.cn/ 阅读全文
posted @ 2024-11-14 15:19 Syw_文 阅读(41) 评论(0) 推荐(0)