上一页 1 2 3 4 5 6 7 8 9 ··· 234 下一页

2025年3月19日

反幻觉(Anti-Hallucination)

摘要: 反幻觉(Anti-Hallucination)的核心目标 问题本质:生成模型(如大语言模型)可能虚构信息(幻觉),需通过技术手段约束其输出,使其更忠实于事实或输入数据。 常见方法: 知识增强:引入外部知识库(如检索数据库、向量数据库)辅助生成。 事实检查模块:通过后处理验证输出准确性。 Prompt 阅读全文

posted @ 2025-03-19 17:26 ExplorerMan 阅读(48) 评论(0) 推荐(0)

减少 LLM 幻觉方法--CoVe

摘要: https://zhuanlan.zhihu.com/p/678902427 来自于 Meta AI,原文链接如下: 原文链接​arxiv.org/abs/2309.11495 LLM 经常遇到的主要问题就是幻觉,减少幻觉的方法大致可分为三类:训练时校正、生成时校正和通过增强(使用工具)进行校正。 阅读全文

posted @ 2025-03-19 17:25 ExplorerMan 阅读(185) 评论(0) 推荐(0)

蚂蚁集团在大模型推荐上的算法和应用

摘要: 导读 本文将分享大模型在蚂蚁集团推荐场景中的应用(以下全部为蚂蚁集团的研究工作及落地)。 主要内容包括以下几大部分: 1. 背景介绍 2. 利用大模型进行知识提取 3. 大模型作为教师模型 4. Q&A 分享嘉宾|胡斌斌 蚂蚁集团AI创新研发部门NextEvo 算法专家 编辑整理|王甲君 内容校对| 阅读全文

posted @ 2025-03-19 16:52 ExplorerMan 阅读(410) 评论(0) 推荐(0)

EmoLLM-心理健康大模型

摘要: EmoLLM 是一系列能够支持 理解用户-支持用户-帮助用户 心理健康辅导链路的心理健康大模型,由 LLM指令微调而来,欢迎大家star~⭐⭐。目前已经开源的 LLM 微调配置如下: 心理健康大模型(Mental Health Grand Model)是一个综合性的概念,它旨在全面理解和促进个体、群 阅读全文

posted @ 2025-03-19 16:30 ExplorerMan 阅读(128) 评论(0) 推荐(0)

2025年3月18日

PingCAP 王琦智:下一代 RAG,tidb.ai 使用知识图谱增强 RAG 能力

摘要: 导读 随着 ChatGPT 的流行,LLMs(大语言模型)再次进入人们的视野。然而,在处理特定领域查询时,大模型生成的内容往往存在信息滞后和准确性不足的问题。如何让 RAG 和向量搜索技术在实际应用中更好地满足企业需求?如何在向量之上构建全链路 RAG 服务,提升开发者效率,降低成本?本文整理自 T 阅读全文

posted @ 2025-03-18 23:28 ExplorerMan 阅读(112) 评论(0) 推荐(0)

万字长文分享快手 Kolors 可图大模型应用实践

摘要: 在企业提效方面,多模态能力同样具有重要意义。在 AICon 北京站活动中,我们邀请了快手「可图」大模型负责人李岩,他分享了主题为《快手「可图」文生图大模型应用实践》的演讲内容,以下为李岩演讲内容~期待对你有所启发! 另外,在 8 月 18-19 日即将举办的 AICon 全球人工智能开发与应用大会上 阅读全文

posted @ 2025-03-18 23:20 ExplorerMan 阅读(95) 评论(0) 推荐(0)

LLM 幻觉检测技术简介

摘要: 在LLMs中,幻觉出现在模型生成的文本偏离其训练集中实际数据的情况下。相反,它制造出看似可信但缺乏事实或背景证据支持的信息。这些幻觉可能导致生成不准确或误导性信息,对于精度和可靠性至关重要的应用而言,这是一个重大问题。幻觉对于广泛实际应用LLMs构成了重大障碍。认识到这一挑战强调了开发自动化方法以识 阅读全文

posted @ 2025-03-18 23:08 ExplorerMan 阅读(186) 评论(0) 推荐(0)

有什么有效的方法检测大模型输出幻觉问题

摘要: 以下是几种有效的大语言模型(LLM)输出幻觉检测方法: 1. 基于采样一致性的检测方法 SelfCheckGPT:通过多次采样生成多个回答,然后评估这些回答之间的一致性。如果回答相互矛盾,则可能包含幻觉。具体方法包括: BERTScore:比较句子与样本中最相似句子的相似度。 MQAG:通过生成多项 阅读全文

posted @ 2025-03-18 22:50 ExplorerMan 阅读(318) 评论(0) 推荐(0)

牛津大学开发新方法,检测大语言模型幻觉

摘要: 牛津大学开发新方法,检测大语言模型幻觉🚀 标题: Detecting Hallucinations in Large Language Models Using Semantic Entropy🏫 团队: 牛津大学🌐 来源: Nature, 2405.19648🛎️ 文章简介🔺背景: 大语 阅读全文

posted @ 2025-03-18 22:34 ExplorerMan 阅读(142) 评论(0) 推荐(0)

从大数据到大模型:搜索推荐技术的前沿探索

摘要: 导读 大家好,我是施兴(花名叔宝),来自阿里云机器学习平台 PAI,主要负责产品架构。我们团队主要负责:①搜索推荐,这是我们较为成熟的一个领域;②涉及图像和视频多模态处理,如图像视频打标和 Stable Diffusion 文生图,文生视频等相关工作;③在大模型场景下,阿里有通义系列大模型,我们负责 阅读全文

posted @ 2025-03-18 20:31 ExplorerMan 阅读(230) 评论(0) 推荐(0)

上一页 1 2 3 4 5 6 7 8 9 ··· 234 下一页

导航