吴恩达大模型教程笔记-四-

吴恩达大模型教程笔记(四)

【构建高级RAG应用】可商用落地教程!附全套代码_LLM_Langchain_Llama - P3:3. 第二篇 - RAG 指标三元组(RAG Triad of metrics) 中英文字幕 - 吴恩达大模型 - BV1hMameREN3

在本课中,我们将深入探讨,在本课中,我们将深入探讨,评估,我们将带您了解一些,评估,我们将带您了解一些,关于如何评估 rag 系统的核心概念,关于如何评估 rag 系统的核心概念,具体来说,我们将介绍。

具体来说,我们将介绍,rag Triad,这是,rag Triad,这是,R 执行上下文的三个主要步骤的指标三元组。相关性 这些是,相关性 这些是,反馈功能的可扩展框架的示例 对。

llm 应用程序的编程评估 然后我们将向您展示如何在给,定任何非结构化语料库的情况下综合生成评估数据集,定任何非结构化语料库的情况下综合生成评估数据集,让我们,让我们,现在开始 我将使用笔记本来引导。

现在开始 我将使用笔记本来引导,您完成 rag Triad 答案,您完成 rag Triad 答案,相关性、上下文相关性和,相关性、上下文相关性和。

基础性,以了解如何将每个内容,基础性,以了解如何将每个内容,与真实镜头一起使用来检测,与真实镜头一起使用来检测,幻觉,此时您,幻觉,此时您,已经安装了真实镜头 val 和。

已经安装了真实镜头 val 和。

llama 索引文本,所以我不会向您展示,llama 索引文本,所以我不会向您展示,该步骤,您的第一步将是,该步骤,您的第一步将是,设置开放式 AI API,设置开放式 AI API。

密钥 开放式 AI 密钥用于,密钥 开放式 AI 密钥用于,完成抹布步骤并,完成抹布步骤并,使用真实镜头进行评估,使用真实镜头进行评估,因此这里有一个代码片段可以实现,因此这里有一个代码片段可以实现。

这一点,现在您已经完成了,这一点,现在您已经完成了,开放式密钥的设置,开放式密钥的设置,下一节我将快速回顾一下,使用 llama 索引构建查询引擎 Jerry 已经在第一,课中详细介绍了这一点。

我们将在,课中详细介绍了这一点,我们将在,很大程度上以该课为基础,很大程度上以该课为基础,对象,对象,我们是 将导入 true,我们是 将导入 true,类,然后我们将设置一个 true 对象,类。

然后我们将设置一个 true 对象,然后该对象将用于,然后该对象将用于,重置,重置,数据库,该数据库稍后将用于,数据库,该数据库稍后将用于,记录,记录,Llama Index,Llama Index。

应用程序的提示响应中间结果 以及,应用程序的提示响应中间结果 以及,我们将,我们将,使用 true,使用 true,阅读器,以便,阅读器,以便,上帝的这段代码从 Andrew 编写的。

上帝的这段代码从 Andrew 编写的,关于如何在 AI 领域建立职业生涯的目录中读取此 PDF 文档,关于如何在 AI 领域建立职业生涯的目录中读取此 PDF 文档,然后将此,然后将此。

数据加载到此文档对象中下一步,数据加载到此文档对象中下一步,是将,是将,所有这些内容合并到一个,所有这些内容合并到一个,大文档中,而不是,大文档中,而不是,每页一个文档(这是默认。

每页一个文档(这是默认。

设置)接下来我们,设置)接下来我们。

利用一些 Llama 索引,利用一些 Llama 索引,实用程序设置句子索引,以便 您可以在这里看到,我们,实用程序设置句子索引,以便 您可以在这里看到,我们,使用,温度为,温度为,0。

1 的开放 AI GPD 3。5 涡轮作为将用于,0。1 的开放 AI GPD 3。5 涡轮作为将用于。

完成,完成,rag 的 llm,嵌入模型设置为 BGE,rag 的 llm,嵌入模型设置为 BGE,小,版本,小,版本,1。5,所有这些内容都被,1。5,所有这些内容都被。

索引 接下来,通过句子索引,索引 接下来,通过句子索引,对象,对象,我们设置了句子窗口,我们设置了句子窗口,引擎,这是,引擎,这是,稍后将用于,稍后将用于,从该高级 rag,从该高级 rag。

应用程序进行有效检索的查询引擎,现在我们已经,应用程序进行有效检索的查询引擎,现在我们已经,为基于句子窗口的 rag 设置了查询引擎,为基于句子窗口的 rag 设置了查询引擎,让我们看看 通过实际。

让我们看看 通过实际。

询问一个具体问题来实际操作如何,询问一个具体问题来实际操作如何,创建 AI 投资组合这将,创建 AI 投资组合这将,返回一个完整的对象,其中包含,返回一个完整的对象,其中包含,来自,来自。

llm 的最终响应、检索到的上下文的中间片段,llm 的最终响应、检索到的上下文的中间片段。

以及一些其他,以及一些其他,元数据让我们看看,元数据让我们看看。

像这样,在这里你可以看到,像这样,在这里你可以看到,从这句话,从这句话,基于窗口的抹布中得出的最终响应,它,基于窗口的抹布中得出的最终响应,它,在,在,表面上为“如何,表面上为“如何。

创建人工智能投资组合”这个问题提供了一个很好的答案,稍后我们,创建人工智能投资组合”这个问题提供了一个很好的答案,稍后我们,将看到如何评估这个答案,现在我们有,现在我们有,一个对此,一个对此。

问题的回答示例,表面上看起来相当不错,问题的回答示例,表面上看起来相当不错,我们将看到如何利用,我们将看到如何利用,反馈功能,例如 现在我们已经设置了基于句子窗口的拖动应用程序。

现在我们可以使用 rag,反馈功能,例如 现在我们已经设置了基于句子窗口的拖动应用程序,现在我们可以使用 rag,Triad 来更深入地评估这种响应,Triad 来更深入地评估这种响应,识别故障模式。

识别故障模式。

并建立信心或迭代以,并建立信心或迭代以,改进 llm,改进 llm,应用程序,让我们看看如何使用,让我们看看如何使用,rag,rag。

Triad 来评估它 首先,我们将做一些,Triad 来评估它 首先,我们将做一些,内务处理,第一步,内务处理,第一步,是这段代码片段,它让我们,是这段代码片段,它让我们。

从笔记本内部启动一个流盖仪表板,从笔记本内部启动一个流盖仪表板,稍后您将看到,稍后您将看到,我们将使用该仪表板来,我们将使用该仪表板来,查看结果 评估并,查看结果 评估并,运行实验来查看不同的。

运行实验来查看不同的,应用程序选择,看看哪个应用程序,应用程序选择,看看哪个应用程序,做得更好,我们初始化 iiz 打开 AI GPD,做得更好,我们初始化 iiz 打开 AI GPD,3。

5 Turbo 作为我们评估的默认提供程序,3。5 Turbo 作为我们评估的默认提供程序,该提供程序将,该提供程序将,用于实现不同的反馈,用于实现不同的反馈,功能或,功能或,诸如上下文相关性、。

诸如上下文相关性、,答案相关性和,答案相关性和,基础性之类的评估现在让我们更深入地了解,基础性之类的评估现在让我们更深入地了解,抹布三合会的每个评估,抹布三合会的每个评估,我们将在,我们将在。

幻灯片和笔记本之间来回切换,以便首先为,幻灯片和笔记本之间来回切换,以便首先为。

您提供完整的,您提供完整的。

上下文,我们将讨论答案,上下文,我们将讨论答案,相关性回想一下,答案相关性,相关性回想一下,答案相关性,是检查最终响应是否与。

用户提出的查询相关,为您提供一个具体示例,说明,用户提出的查询相关,为您提供一个具体示例,说明,答案相关性的输出,答案相关性的输出,可能是什么样子,这,可能是什么样子,这,是,是,用户提出的问题“。

用户提出的问题“,如何利他主义”的示例 这对于建立,如何利他主义”的示例 这对于建立,职业生涯是有益的,这是,职业生涯是有益的,这是,从 rag,从 rag,应用程序中得出的响应,答案相关性。

应用程序中得出的响应,答案相关性,评估会产生两个输出,评估会产生两个输出,一个是 0 到 1 范围内的分数,一个是 0 到 1 范围内的分数,答案被评估为高度,答案被评估为高度,相关。

因此获得了分数 0。9 的想法,相关,因此获得了分数 0。9 的想法,第二部分是支持,第二部分是支持,证据或基本原理或,评估产生此分数背后的思想链推理,评估产生此分数背后的思想链推理。

因此在这里您可以看到,因此在这里您可以看到,在答案本身中找到的支持证据,这向,在答案本身中找到的支持证据,这向,llm 评估表明这,llm 评估表明这,是一个有意义的 和相关答案我。

是一个有意义的 和相关答案我,还想利用这个机会,还想利用这个机会,介绍反馈函数的抽象答案,介绍反馈函数的抽象答案,相关性是,相关性是,反馈函数的具体示例,更,反馈函数的具体示例,更,一般地说,反馈函数。

一般地说,反馈函数,在,在。

审查 llm 应用程序输入输出后提供 0 到 1 的分数 和,审查 llm 应用程序输入输出后提供 0 到 1 的分数 和,中间,中间,结果现在让我们,结果现在让我们,使用答案,使用答案。

相关性反馈函数作为,相关性反馈函数作为,具体,具体,示例来查看反馈函数的结构,第一个组件是,示例来查看反馈函数的结构,第一个组件是,提供者,在本例中我们可以看到,提供者,在本例中我们可以看到。

我们正在使用来自开放 AI 的 llm 来,我们正在使用来自开放 AI 的 llm 来,实现这些反馈,实现这些反馈,函数 请注意,反馈功能,函数 请注意,反馈功能,不一定要,不一定要。

使用 llms 来实现,我们还可以使用 Bert 模型,使用 llms 来实现,我们还可以使用 Bert 模型,和其他类型的机制来,和其他类型的机制来,实现反馈功能,我将,实现反馈功能,我将。

在本课后面更详细地讨论这一点。在本课后面更详细地讨论这一点。该提供者我们将,该提供者我们将,实现一个反馈功能,在这种,实现一个反馈功能,在这种,情况下,这就是相关性反馈,情况下,这就是相关性反馈,功能。

我们给它一个名称,一个人类,功能,我们给它一个名称,一个人类,可读的名称,稍后将显示在,可读的名称,稍后将显示在,我们的评估仪表板中,对于这个,我们的评估仪表板中,对于这个,特定的反馈功能,我们。

特定的反馈功能,我们,在用户输入上运行它 用户查询,在用户输入上运行它 用户查询,它还将应用,它还将应用,程序的最终输出或响应作为输入,因此给定,程序的最终输出或响应作为输入,因此给定,用户问题和。

用户问题和,rag 的最终答案,此反馈功能将,rag 的最终答案,此反馈功能将,利用 llm,利用 llm,提供程序(例如 open AI GPD,提供程序(例如 open AI GPD,3。

5)来得出分数 了解,3。5)来得出分数 了解。

回答与,回答与,所提出问题的相关性,此外,它还将,所提出问题的相关性,此外,它还将,提供支持证据或,提供支持证据或,思想链推理来证明,思想链推理来证明,该分数的合理性,现在让我们,该分数的合理性。

现在让我们。

切换回笔记本并,切换回笔记本并,更,更,详细地查看代码 看看如何在真实lensel的代码中定义,详细地查看代码 看看如何在真实lensel的代码中定义,问题答案相关性反馈,问题答案相关性反馈,函数。

函数,我们将导入,我们将导入,反馈,反馈,类然后我们设置我们刚刚讨论的,类然后我们设置我们刚刚讨论的。

问题答案相关性函数的不同部分,我们有,我们有,开放AI GPD的提供者 3。5 我们设置了,开放AI GPD的提供者 3。5 我们设置了,这个,这个,特定的反馈函数,特定的反馈函数,相关性分数也将。

相关性分数也将,通过思想链推理得到增强,通过思想链推理得到增强,我们给这个反馈函数一个,我们给这个反馈函数一个,人类可以理解的名称,我们称之为,人类可以理解的名称,我们称之为,答案相关性,这将在。

答案相关性,这将在,稍后显示 在仪表板中,使,稍后显示 在仪表板中,使,用户可以轻松了解,用户可以轻松了解,反馈功能的设置,然后我们,反馈功能的设置,然后我们,还将让提要反馈,还将让提要反馈。

功能访问输入(即,功能访问输入(即。

提示)和输出(即,提示)和输出(即,来自 rag,来自 rag,应用程序的最终响应) 稍后在笔记本中进行设置,应用程序的最终响应) 稍后在笔记本中进行设置,我们将看到如何,我们将看到如何。

在一组记录上应用此反馈功能,在一组记录上应用此反馈功能,获取相关答案的评估分数,获取相关答案的评估分数,以及,以及,为什么该,为什么该,特定答案的判断,特定答案的判断。

分数适合的思考链原因 作为,分数适合的思考链原因 作为,评估的一部分,我们将深入研究的下一个反馈功能,评估的一部分,我们将深入研究的下一个反馈功能,是上下文,是上下文,相关性回想一下,上下文相关性。

相关性回想一下,上下文相关性,正在检查给定,正在检查给定,查询的检索过程的好坏,我们将,查询的检索过程的好坏,我们将,查看从向量数据库中检索到的每条连续,查看从向量数据库中检索到的每条连续,文本,文本。

并,并,进行评估 该,进行评估 该。

上下文与所,上下文与所,提出的问题的相关程度如何让我们看一个简单的,提出的问题的相关程度如何让我们看一个简单的,示例,这里的问题或,示例,这里的问题或,用户的提示是利他主义如何有。

用户的提示是利他主义如何有,利于建立,利于建立,职业生涯这是检索,职业生涯这是检索,上下文和评估后的两个部分 具有,上下文和评估后的两个部分 具有,上下文相关性,检索,上下文相关性,检索。

上下文的每个部分,上下文的每个部分,都会获得 0 到 1 之间的分数,您,都会获得 0 到 1 之间的分数,您,可以在此处看到左侧上下文的,可以在此处看到左侧上下文的,相关分数为 0。5,右侧上下文的。

相关分数为 0。5,右侧上下文的,相关分数为 0。7,因此,相关分数为 0。7,因此,评估为与该,评估为与该,特定内容更相关 查询,然后平均,特定内容更相关 查询,然后平均,上下文相关性得分是。

上下文相关性得分是,这些检索到的上下文中的每一个的相关得分的平均值,该得分也被报告,该得分也被报告,出来。现在让我们看看,出来。现在让我们看看,相关性的反馈函数的结构,该结构的各个部分。

相关性的反馈函数的结构,该结构的各个部分,类似于,类似于,我们几分钟前回顾过的答案高度结构,我们几分钟前回顾过的答案高度结构,有一个,有一个,开放,开放,Ai 的提供者,反馈功能是利用,Ai 的提供者。

反馈功能是利用,该提供者来实现,该提供者来实现,上下文相关性反馈,上下文相关性反馈,功能,差异在于,功能,差异在于,该特定反馈,该特定反馈,功能的输入以及 用户输入,功能的输入以及 用户输入,或提示。

我们还与此,或提示,我们还与此,反馈函数共享一个指向检索,反馈函数共享一个指向检索,上下文的指针,该检索上下文是,上下文的指针,该检索上下文是,执行 rag 应用程序的中间结果。

我们为每个检索到的上下文片段返回一个分数,我们为每个检索到的上下文片段返回一个分数,评估,评估,该上下文的相关性或良好程度,该上下文的相关性或良好程度,对于所提出的查询,对于所提出的查询,然后我们。

然后我们,在所有检索的上下文中聚合并平均这些分数,在所有检索的上下文中聚合并平均这些分数,以获得最终分数现在您,以获得最终分数现在您,会注意到,在答案相关性,会注意到,在答案相关性。

反馈功能中我们只使用了,反馈功能中我们只使用了,原始输入 以及,此反馈函数中抹布的最终响应,我们,此反馈函数中抹布的最终响应,我们,利用用户的输入或提示,利用用户的输入或提示,以及中间结果检索。

以及中间结果检索,上下文集来,上下文集来,评估,评估,这两个示例之间的检索质量,这两个示例之间的检索质量,反馈函数的全部功能,反馈函数的全部功能,通过使用 rag 应用程序的输入输出和。

通过使用 rag 应用程序的输入输出和,中间结果,中间结果。

来评估其,来评估其,质量现在我们已经有了上下文,质量现在我们已经有了上下文,选择设置,我们可以。

在代码中定义上下文相关性反馈函数,您会发现它,在代码中定义上下文相关性反馈函数,您会发现它,几乎是 我,几乎是 我,在幻灯片上演练的代码段 我们仍然,在幻灯片上演练的代码段 我们仍然。

使用 openai 作为提供者 GPD 3。5 作为,使用 openai 作为提供者 GPD 3。5 作为,评估 llm 我们调用,评估 llm 我们调用,问题陈述或上下文相关,问题陈述或上下文相关。

反馈函数 它获取输入,反馈函数 它获取输入。

提示 检索上下文片段集,提示 检索上下文片段集,它运行评估,它运行评估,每个检索上下文片段的函数,每个检索上下文片段的函数,分别获取每个片段的分数,分别获取每个片段的分数。

然后对它们进行平均以报告最终的,然后对它们进行平均以报告最终的,连接分数。现在,连接分数。现在,如果您愿意,您还可以使用一个附加变体,如果您愿意,您还可以使用一个附加变体,除了报告,除了报告。

每个片段的上下文相关分数之外,每个片段的上下文相关分数之外,检索上下文的一部分,您还可以,检索上下文的一部分,您还可以,使用思想链推理来增强它,以便,使用思想链推理来增强它,以便。

评估 llm 不仅提供分数,还提供,其评估分数的理由或解释,并且,其评估分数的理由或解释,并且,可以通过思想链推理方法的 Qs 相关性来完成,并且如果 我给你一个具体,并且如果 我给你一个具体,的例子。

你可以看到,的例子,你可以看到,这里的问题或用户提示,这里的问题或用户提示。

利他主义如何有利于,利他主义如何有利于,建立职业生涯,这是一个检索到的上下文的例子,它从,它从,安德鲁关于这个主题的文章中取出了一大块内容 您可以,安德鲁关于这个主题的文章中取出了一大块内容 您可以。

看到上下文相关性反馈,看到上下文相关性反馈,函数在,函数在,0 到 1 的范围内为这段检索到的,0 到 1 的范围内为这段检索到的,上下文给出 0。7 的分数,并且因为我们还在。

评估 llm 上调用了思想链推理,所以它,评估 llm 上调用了思想链推理,所以它,提供了,提供了,为什么分数是这样的理由。为什么分数是这样的理由。0。7 现在让我向您展示,0。7 现在让我向您展示。

用于设置接地反馈,用于设置接地反馈,功能的代码片段,我们以,功能的代码片段,我们以,与之前,与之前,利用 llm 提供程序进行评估的反馈功能大致相同的方式启动它。

利用 llm 提供程序进行评估的反馈功能大致相同的方式启动它。

3。5,那么我们定义接地,3。5,那么我们定义接地,反馈 这个定义在,反馈 这个定义在,结构上与,结构上与。

上下文相关性的定义非常相似,接地性,上下文相关性的定义非常相似,接地性。

度量带有思想链,度量带有思想链,原因,证明分数的合理性,就像,原因,证明分数的合理性,就像,我在幻灯片上讨论的那样,我们给它,我在幻灯片上讨论的那样,我们给它,命名为“接地性”,它很容易。

命名为“接地性”,它很容易。

理解,并且可以访问,理解,并且可以访问,该集合,该集合,rag,rag,应用程序中检索到的上下文的数量非常类似于上下文,应用程序中检索到的上下文的数量非常类似于上下文,相关性以及 rag 的最终输出或。

相关性以及 rag 的最终输出或,响应,然后,响应,然后,最终响应中的每个句子都会获得一个,最终响应中的每个句子都会获得一个,接地分数,并将这些分数进行,接地分数,并将这些分数进行,汇总平均以产生。

汇总平均以产生,完整的最终接地分数,完整的最终接地分数,响应这里的上下文选择与,用于设置上下文,用于设置上下文。

相关性反馈功能的上下文选择相同,因此如果您还,相关性反馈功能的上下文选择相同,因此如果您还,记得,只是,记得,只是,从,从,抹布的检索步骤中获取一组检索到的上下文片段。

抹布的检索步骤中获取一组检索到的上下文片段,然后可以访问其中的每个节点,然后可以访问其中的每个节点,列表,列表,从该节点恢复上下文的文本,并继续,从该节点恢复上下文的文本,并继续,使用它来进行上下文。

使用它来进行上下文,相关性以及基础性,相关性以及基础性。

评估,我们,评估,我们。

现在可以开始,现在可以开始,执行对我们已经设置了所有三个的,执行对我们已经设置了所有三个的,rag 应用程序的评估,rag 应用程序的评估,反馈,反馈,功能回答相关性、上下文,功能回答相关性、上下文。

相关性和基础性,我们,相关性和基础性,我们,需要的是一个评估集,我们,需要的是一个评估集,我们,可以在该评估集上运行应用程序和,可以在该评估集上运行应用程序和,评估,看看它们的表现如何,评估。

看看它们的表现如何,以及它们是否有机会进一步迭代和,以及它们是否有机会进一步迭代和,改进它们,改进它们,现在让我们看看,现在让我们看看。

工作流程 为了评估和迭代以,工作流程 为了评估和迭代以,改进 llm 应用程序,我们将从上一课中介绍的,改进 llm 应用程序,我们将从上一课中介绍的,基本 llama 指数抹布开始。

,我们已经,我们已经,使用真正的镜头抹布三合一对其进行了评估,使用真正的镜头抹布三合一对其进行了评估,我们将重点关注与,我们将重点关注与,上下文相关的故障模式,上下文相关的故障模式,然后我们将使用。

然后我们将使用,高级抹布技术迭代基本抹布,高级抹布技术迭代基本抹布,Llama 索引句子窗口抹布 接下来我们,Llama 索引句子窗口抹布 接下来我们,将使用。

真正的镜头抹布三合一重新评估这种新的高级抹布,重点关注,真正的镜头抹布三合一重新评估这种新的高级抹布,重点关注,这些类型的问题,我们是否在上下文相关性方面看到了,这些类型的问题。

我们是否在上下文相关性方面看到了。

具体的改进 那么,具体的改进 那么,其他指标呢?其他指标呢?我们关注上下文相关性的原因,我们关注上下文相关性的原因,是,由于上下文太小,经常会出现失败模式。是,由于上下文太小,经常会出现失败模式。

一旦将,一旦将,上下文增加到某个,上下文增加到某个,点,您可能会看到,点,您可能会看到,上下文相关性的改进,此外,当,上下文相关性的改进,此外,当,上下文相关性经常上升时。

我们可能会看到上下文相关性的改善。 发现,上下文相关性经常上升时,我们可能会看到上下文相关性的改善。 发现,基础性方面的改进,基础性方面的改进,因为完成步骤中的 llm,因为完成步骤中的 llm。

有足够的相关上下文来生成,有足够的相关上下文来生成,摘要,当它没有足够的,摘要,当它没有足够的,相关上下文时,它倾向于利用,预训练数据集中的内部知识来,预训练数据集中的内部知识来。

尝试填补这些空白 这会,尝试填补这些空白 这会,导致失去,导致失去,基础性 最后,我们将尝试,基础性 最后,我们将尝试,不同的窗口大小,以,不同的窗口大小,以,找出哪种窗口大小会产生最佳。

找出哪种窗口大小会产生最佳,评估,评估,指标 回想一下,如果窗口,指标 回想一下,如果窗口,大小太小,则可能没有,大小太小,则可能没有,足够的相关,足够的相关,上下文来获得良好的分数 上下文。

上下文来获得良好的分数 上下文,相关性和基础性,如果窗口,相关性和基础性,如果窗口,大小变得太大,另一方面,大小变得太大,另一方面,不相关的上下文可能会渗透到,不相关的上下文可能会渗透到,最终响应中。

导致,最终响应中,导致。

基础性或答案元素的分数不那么高,基础性或答案元素的分数不那么高,我们浏览了,我们浏览了,评估或反馈功能的三个示例上下文,评估或反馈功能的三个示例上下文,相关性答案,相关性答案,相关性和,相关性和。

我们笔记本中的基础性这三个都是,我们笔记本中的基础性这三个都是,通过llm,通过llm,评估来实现的,我确实想指出,评估来实现的,我确实想指出,反馈功能可以,反馈功能可以,通过不同的,通过不同的。

方式来实现,我们经常看到从业者,方式来实现,我们经常看到从业者,从基础事实评估开始,从基础事实评估开始,收集这些评估可能会很昂贵,但仍然是一个,收集这些评估可能会很昂贵,但仍然是一个,很好的,很好的。

起点,我们也 看到,起点,我们也 看到,人们利用人类来进行,人们利用人类来进行,评估,这也是有帮助和,评估,这也是有帮助和,有意义的,但在实践中很难扩展,有意义的,但在实践中很难扩展。

地面真实评估只是为了给,地面真实评估只是为了给,你一个具体的,你一个具体的,例子想想一个总结用,例子想想一个总结用,例,其中有一个大段落,例,其中有一个大段落,然后法学硕士会产生,然后法学硕士会产生。

一个人类专家会产生的总结 然后给,一个人类专家会产生的总结 然后给,该摘要一个分数,表明它有多好,该摘要一个分数,表明它有多好,这也可以用于其他类型,这也可以用于其他类型,的用例,例如聊天机器人之类的。

的用例,例如聊天机器人之类的,用例,甚至分类,用例,甚至分类,用,用,例。人类评估在某些,例。人类评估在某些,方面与 vals 的基本事实相似,因​​为,方面与 vals 的基本事实相似,因​​为。

llm 产生一个输出,或者 rag,llm 产生一个输出,或者 rag,应用程序产生一个输出,应用程序产生一个输出,该应用程序的人类用户将,该应用程序的人类用户将,为该输出提供一个评级,它有多。

为该输出提供一个评级,它有多,好,与真实水平的区别,好,与真实水平的区别,在于,这些人类用户,在于,这些人类用户,可能不是这方面的专家。可能不是这方面的专家。作为产生,作为产生,策划的基本事实。

策划的基本事实,评估的主题,它仍然是一个非常,评估的主题,它仍然是一个非常,有意义的评估,它的规模会,有意义的评估,它的规模会,比基本事实值更好一些,比基本事实值更好一些,但我们对其的置信度。

但我们对其的置信度,较低,较低,研究文献中的一个非常有趣的结果,研究文献中的一个非常有趣的结果,是: 如果你让一组,是: 如果你让一组,人对一个问题进行评分,大约有,人对一个问题进行评分,大约有。

80% 的人同意,有趣的,80% 的人同意,有趣的,是,当你使用 llm 进行,是,当你使用 llm 进行,评估时,llm,评估时,llm,评估和人类评估之间的一致性,评估和人类评估之间的一致性。

也约为 80% 到 85%,因此这,也约为 80% 到 85%,因此这,表明 llm 评估与应用它们的,基准数据集的人类评估相当相似,因此反馈函数为我们提供了,因此反馈函数为我们提供了。

一种以编程方式扩展评估的方法,一种以编程方式扩展评估的方法,除了,除了,llm 评估之外,您已经,llm 评估之外,您已经,看到反馈函数也提供了可以,看到反馈函数也提供了可以。

be imp 可以实现传统的 NLP,be imp 可以实现传统的 NLP。

指标,例如 rou 分数和 blue,指标,例如 rou 分数和 blue,分数,它们在某些情况下可能会有所帮助,分数,它们在某些情况下可能会有所帮助,但它们的一个弱点,但它们的一个弱点。

是它们非常注重语法,是它们非常注重语法。

它们会寻找,它们会寻找,两段文本中的两个单词之间的重叠,两段文本中的两个单词之间的重叠,例如,如果 你有一段,例如,如果 你有一段,文本指的是河岸,文本指的是河岸,另一段文本指的是金融银行,从。

另一段文本指的是金融银行,从,语法上讲,它们可能被视为,语法上讲,它们可能被视为,相似,并且这些引用最终可能会被,传统的 NLP,传统的 NLP,评估视为相似的引用,而舍入上下文,评估视为相似的引用。

而舍入上下文,将习惯于,将习惯于,当您使用,当您使用,大型语言模型(例如 GPD,大型语言模型(例如 GPD,4)或中型语言模型(例如,4)或中型语言模型(例如。

鸟类模型)时,提供更有意义的评估,并执行,鸟类模型)时,提供更有意义的评估,并执行,评估,同时在课程中我们为,评估,同时在课程中我们为,您提供了三个反馈,您提供了三个反馈,函数和,函数和。

评估答案相关性的示例 上下文,评估答案相关性的示例 上下文,相关性和接地性真实,相关性和接地性真实,长度提供了更广泛的,长度提供了更广泛的,评估集,以确保您,评估集,以确保您。

正在构建的应用程序是诚实无害,正在构建的应用程序是诚实无害,且有用的,这些都可以在,且有用的,这些都可以在,开源库中找到,我们,开源库中找到,我们,鼓励您在工作时使用它们,鼓励您在工作时使用它们。

通过课程并,通过课程并。

构建您的 llm,构建您的 llm,应用程序现在我们已经设置了所有,应用程序现在我们已经设置了所有,反馈功能,我们可以设置一个,反馈功能,我们可以设置一个。

对象来开始记录,该对象将,对象来开始记录,该对象将,用于记录,用于记录。

应用程序在各种,应用程序在各种,记录上的执行情况,因此您将在这里看到我们,记录上的执行情况,因此您将在这里看到我们,导入这个真正的 Lama 类,导入这个真正的 Lama 类。

通过这个真正的 Lama 类的记录器创建一个对象,通过这个真正的 Lama 类的记录器创建一个对象,这是我们将,这是我们将,真实镜头与 llama 索引的集成,它,真实镜头与 llama 索引的集成。

它,从,从,我们之前创建的 Lama 索引中获取句子窗口引擎,设置,我们之前创建的 Lama 索引中获取句子窗口引擎,设置,应用程序 ID 并利用这三个。

之前创建的 rag Triad 的反馈函数这个真正的记录器对象将,之前创建的 rag Triad 的反馈函数这个真正的记录器对象将,稍微用于,稍微用于,运行 Llama 索引,运行 Llama 索引。

应用程序以及,应用程序以及,这些反馈函数的评估,这些反馈函数的评估。

数据库中,现在让我们加载,数据库中,现在让我们加载,设置中的一些评估问题评估,设置中的一些评估问题评估,问题已在此文本文件中设置,问题已在此文本文件中设置,然后我们只需执行此,然后我们只需执行此。

代码即可加载它们,代码即可加载它们。

让我们快速浏览一下,让我们快速浏览一下,评估的这些问题可以看到关键是什么,评估的这些问题可以看到关键是什么,在,在,人工智能等方面建立职业生涯,您可以自己编辑此文件,人工智能等方面建立职业生涯。

您可以自己编辑此文件,并添加您自己的问题,并添加您自己的问题,您可能希望从安德鲁那里获得答案,您可能希望从安德鲁那里获得答案,或者您也可以通过这种方式直接附加到,或者您也可以通过这种方式直接附加到。

EV 问题列表,现在让我们看一下,EV 问题列表,现在让我们看一下,Val 问题列表,Val 问题列表,您可以看到这个问题已,您可以看到这个问题已,添加到最后,继续添加,添加到最后,继续添加,您自己的。

您自己的,问题,现在我们已经完成了所有设置,可以,使用此代码来执行此笔记本中最令人兴奋的步骤,我们,使用此代码来执行此笔记本中最令人兴奋的步骤,我们,可以执行 我们刚刚查看的,可以执行 我们刚刚查看的。

评估问题列表中的每个问题的句子窗口引擎。

然后使用真实记录器,我们将,然后使用真实记录器,我们将,针对抹布三合会运行每条记录,我们,针对抹布三合会运行每条记录,我们,将在真实数据库中记录提示响应,将在真实数据库中记录提示响应,中间结果和评估。

中间结果和评估。

您可以在此处看到,当,每条,每条,记录执行步骤时,都会有一个哈希值,它是,添加记录时记录的标识符,我们这里有一个指示器,表明,除了反馈,除了反馈,结果或答案之外,该步骤已有效执行 相关性已完成。

结果或答案之外,该步骤已有效执行 相关性已完成,现在我们已经完成,现在我们已经完成,了记录,我们可以,了记录,我们可以,通过,通过,获取记录和,获取记录和。

反馈并执行此代码,反馈并执行此代码,片段来查看笔记本中的日志,我不希望您,片段来查看笔记本中的日志,我不希望您。

一定要阅读 通过,一定要阅读 通过。

这里的所有信息,我想说的要点,这里的所有信息,我想说的要点,是,您可以看到,是,您可以看到。

仪器和应用程序的深度,仪器和应用程序的深度。

通过,通过,真实,真实,记录器记录大量信息,并且这些围绕,记录器记录大量信息,并且这些围绕。

提示、响应、评估结果,提示、响应、评估结果,等的信息可能非常有价值 为了,等的信息可能非常有价值 为了,识别应用程序中的故障模式并,识别应用程序中的故障模式并。

通知应用程序的迭代和改进,通知应用程序的迭代和改进,所有这些信息都,所有这些信息都。

以灵活的 Json 格式提供,因此,以灵活的 Json 格式提供,因此。

它们可以由下游进程导出和使用,它们可以由下游进程导出和使用。

接下来让我们看一些,接下来让我们看一些,更易于理解的提示格式,更易于理解的提示格式。

使用此代码进行响应和反馈函数评估,您,使用此代码进行响应和反馈函数评估,您,可以看到,对于每个输入提示或,可以看到,对于每个输入提示或,问题,我们都会看到输出以及,问题,我们都会看到输出以及。

上下文相关性,上下文相关性。

基础和答案相关性的相应分数,并且,基础和答案相关性的相应分数,并且。

这是针对问题列表中的每个条目运行的,这是针对问题列表中的每个条目运行的,在评估,在评估,非核心,非核心。

问题中。问题中。你可以在这里看到的文本最后一个问题,你可以在这里看到的文本最后一个问题,是我如何才能在,是我如何才能在。

人工智能方面取得成功,这是我在最后手动,人工智能方面取得成功,这是我在最后手动。

有时在运行评估时,有时在运行评估时,你可能会看到一个可能会发生的问题,你可能会看到一个可能会发生的问题。

因为 API 高尔夫 faur 你会只是,因为 API 高尔夫 faur 你会只是。

想要重新运行它以确保,想要重新运行它以确保。

执行成功,执行成功,完成我刚刚向您展示了评估的记录,完成我刚刚向您展示了评估的记录,级别,级别,视图提示,视图提示,响应和,响应和,评估现在让我们,评估现在让我们。

在排行榜中获得一个聚合视图,在排行榜中获得一个聚合视图,该视图聚合所有,该视图聚合所有,这些单独的记录并生成,这些单独的记录并生成,平均值,平均值,该数据库中 10 条记录的得分,以便您可以。

该数据库中 10 条记录的得分,以便您可以,在排行榜中看到我们,所说的所有 10 条记录的聚合视图 应用程序 id2 app1,所说的所有 10 条记录的聚合视图 应用程序 id2 app1。

平均上下文相关性为 0。56,平均上下文相关性为 0。56,类似地,他们的,类似地,他们的,接地性答案相关性和,接地性答案相关性和,所有延迟的平均得分 向,所有延迟的平均得分 向,rag,rag。

应用程序询问的 10 条记录,然后成本是,应用程序询问的 10 条记录,然后成本是,这 10 条记录中以美元为单位的总成本,这 10 条记录中以美元为单位的总成本,获取此,获取此,聚合视图非常有用。

可以了解您的应用程序的性能,聚合视图非常有用,可以了解您的应用程序的性能。

以及,以及,延迟和成本水平,延迟和成本水平,TR Lens 还提供了,TR Lens 还提供了,一个本地简化的应用程序仪表板,一个本地简化的应用程序仪表板,您可以使用它检查正在构建的应用程序。

您可以使用它检查正在构建的应用程序,查看,查看,评估结果 深入到,评估结果 深入到,记录级别,记录级别,视图中,以获得有关您的性能的汇总和详细,视图中,以获得有关您的性能的汇总和详细。

评估视图,评估视图,应用程序,这样我们就可以让仪表板,应用程序,这样我们就可以让仪表板,与真实情况一致。 运行仪表板,与真实情况一致。 运行仪表板,方法,这会,方法,这会,在某个,在某个。

URL 处设置本地数据库,一旦我单击此按钮,这可能会,URL 处设置本地数据库,一旦我单击此按钮,这可能会,显示在不在该框架内的某个窗口中,让我们花几分钟时间浏览一下,让我们花几分钟时间浏览一下,该。

该,仪表板,您可以在此处看到聚合,仪表板,您可以在此处看到聚合,视图 应用程序性能 11 条记录,视图 应用程序性能 11 条记录,由应用程序处理并进行了评估,由应用程序处理并进行了评估。

平均延迟为 3。55 秒 我们,平均延迟为 3。55 秒 我们,得到了 llms 处理的令牌总数的总成本,然后为 rag Triad 的,然后为 rag Triad 的,上下文相关性评分。

上下文相关性评分,接地性为 0。56 86 答案相关性是,接地性为 0。56 86 答案相关性是,92 我们可以在此处选择该应用程序,以获得,92 我们可以在此处选择该应用程序,以获得。

评估视图,您,评估视图,您。

可以看到用户输入的每条记录 提示,可以看到用户输入的每条记录 提示,响应 有,响应 有。

元数据 Tim 标记,然后是,元数据 Tim 标记,然后是,答案相关性的分数,答案相关性的分数,已经记录的上下文相关性和基础性,已经记录的上下文相关性和基础性,以及延迟,以及延迟。

令牌总数和总,令牌总数和总,成本让我选择一行,其中 llm,成本让我选择一行,其中 llm,表示评估,表示评估。

表明呃,表明呃。

llm rag 应用程序做得很好,llm rag 应用程序做得很好,让我们在单击 AR 后选择这一行,让我们在单击 AR 后选择这一行。

可以向下滚动并从表格中更,可以向下滚动并从表格中更,详细地了解,详细地了解,该行的不同组件,因此,该行的不同组件,因此,这里的问题提示是,这里的问题提示是,成为擅长人工智能的第一步是什么。

成为擅长人工智能的第一步是什么,抹布的最终回应是,抹布的最终回应是。

学习基础技术,学习基础技术,技能 在下面,您可以,技能 在下面,您可以,看到答案,看到答案,相关性被视为,相关性被视为,0 到 1 的范围内的 1,这是与此处提出的问题相关的非常。

0 到 1 的范围内的 1,这是与此处提出的问题相关的非常,相关的答案,相关的答案,您可以看到,您可以看到,上下文相关性,平均上下文,上下文相关性,平均上下文,相关性得分为 0。8,相关性得分为 0。

8,检索到的,检索到的,两条上下文都分别获得了 0。8 的分数,两条上下文都分别获得了 0。8 的分数,我们可以看到,我们可以看到,llm 评估在检索步骤中对来自 rag 的。

llm 评估在检索步骤中对来自 rag 的,特定 uh 响应给出 0。8 uh 分数的思想链原因。

然后 在下面你,然后 在下面你,可以看到基础性评估,所以,可以看到基础性评估,所以,这是最终答案中的条款之一,这是最终答案中的条款之一。

呃它得到了一分,呃它得到了一分,在这里是该分数的原因你,在这里是该分数的原因你,可以看到这是陈述句,可以看到这是陈述句,和支持,和支持,证据支持它 所以它,证据支持它 所以它。

在 0 到 1 的范围内得到 1 分满分,在 0 到 1 的范围内得到 1 分满分。

或者在 0 到 10 的范围内得到 10 分满分,或者在 0 到 10 的范围内得到 10 分满分,所以之前,所以之前。

我们,我们,通过幻灯片和笔记本讨论的推理和信息现在,通过幻灯片和笔记本讨论的推理和信息现在,你可以看到 在,你可以看到 在。

您的计算机上运行的这个 Streamlet 本地应用程序中,您的计算机上运行的这个 Streamlet 本地应用程序中,您还可以非常整齐地获得,时间线的详细视图以及访问,时间线的详细视图以及访问。

完整的 Json,完整的 Json,对象,现在让我们看一个示例,对象,现在让我们看一个示例,其中抹布做得不太好,所以我,其中抹布做得不太好,所以我,查看评估,我看到这一,查看评估,我看到这一。

行的接地性分数为 0。5,行的接地性分数为 0。5。

所以让我们点击该行,显示,所以让我们点击该行,显示,此,此,示例。问题是利他主义如何有,示例。问题是利他主义如何有,利于建立职业生涯,利于建立职业生涯。

答案是,如果我向下滚动,答案是,如果我向下滚动,到接地性,到接地性,评估 然后,呃,这两个,评估 然后,呃,这两个,句子和最后的回答都有,句子和最后的回答都有。

较低的接地性分数,让我们选择其中一个,较低的接地性分数,让我们选择其中一个,看看为什么接地性,看看为什么接地性,分数很低,这样你就可以看到,分数很低,这样你就可以看到,整体回答被分解为。

整体回答被分解为,四个陈述,前两个是,四个陈述,前两个是,好的 但最后两个,好的 但最后两个,在检索上下文方面没有很好的支持证据,在检索上下文方面没有很好的支持证据,特别是如果你,特别是如果你,看最后。

看最后,一个,法学硕士的最终输出表明,一个,法学硕士的最终输出表明,另外练习利他主义可以,另外练习利他主义可以,有助于个人成就感和,有助于个人成就感和,使命感,从而增强,使命感,从而增强。

动力 整体幸福感,动力 整体幸福感,最终有利于一个人的职业,最终有利于一个人的职业,成功,虽然情况很可能是,成功,虽然情况很可能是,这样,但,这样,但,在检索到的上下文中没有发现支持证据来。

在检索到的上下文中没有发现支持证据来,支持该陈述,支持该陈述,这就是为什么我们的,这就是为什么我们的,低分,您可以考虑一下,低分,您可以考虑一下,仪表板并探索一些,仪表板并探索一些,其他示例,其中。

其他示例,其中,llm 呃最终的 rag,llm 呃最终的 rag,输出 uh 表现不佳,无法很好地了解,当您使用 rag 应用程序时非常常见的故障模式,当您使用 rag 应用程序时非常常见的故障模式。

其中一些将得到,其中一些将得到,解决 当我们进入有关,解决 当我们进入有关,更先进的拖动,更先进的拖动,技术的课程时,这些技术可以在,技术的课程时,这些技术可以在。

解决这些故障模式方面做得更好,解决这些故障模式方面做得更好,第二课是一个总结,在下一,第二课是一个总结,在下一,课中,我们将介绍,课中,我们将介绍,基于句子窗口的,基于句子窗口的。

检索机制和先进的机架技术,检索机制和先进的机架技术,并且 向您展示如何评估,并且 向您展示如何评估,利用。

【构建高级RAG应用】可商用落地教程!附全套代码_LLM_Langchain_Llama - P4:4. 第三篇 - 句子窗口检索(Sentence Window Retrieval) 中英文字幕 - 吴恩达大模型 - BV1hMameREN3

在本课中,我们将深入研究,在本课中,我们将深入研究。

高级碎布技术或句子,高级碎布技术或句子,窗口检索方法,在该方法中,窗口检索方法,在该方法中,我们基于较小的句子进行检索,我们基于较小的句子进行检索,以更好地匹配相关上下文,以更好地匹配相关上下文。

然后基于,然后基于,句子周围的扩展上下文窗口进行合成,让我们,句子周围的扩展上下文窗口进行合成,让我们,看看 如何针对某些,看看 如何针对某些。

上下文进行设置 标准的 rag 管道使用,上下文进行设置 标准的 rag 管道使用,相同的文本主干进行嵌入,相同的文本主干进行嵌入,和合成 问题是,和合成 问题是,嵌入基本检索通常,嵌入基本检索通常。

适用于较小的块,而 AL,适用于较小的块,而 AL,L 需要更多的上下文和更大的块,L 需要更多的上下文和更大的块,来合成一个好的答案,来合成一个好的答案。

句子窗口检索的作用是将,句子窗口检索的作用是将,两者解耦,我们首先嵌入,两者解耦,我们首先嵌入,较小的块或句子并将,较小的块或句子并将,它们存储在向量数据库中我们还在。

检索过程中添加每个块之前和之后出现的句子的上下文我们检索,检索过程中添加每个块之前和之后出现的句子的上下文我们检索,最相关的句子 使用,最相关的句子 使用,相似性搜索来查找问题,然后用。

相似性搜索来查找问题,然后用。

完整的周围上下文替换句子,完整的周围上下文替换句子,这使我们能够在,这使我们能够在,输入到 Ln 后扩展上下文,以便回答,输入到 Ln 后扩展上下文,以便回答,问题本笔记本将介绍。

构建句子窗口检索器所需的各种组件,构建句子窗口检索器所需的各种组件,通过 wo 索引,通过 wo 索引,最后将详细介绍各种组件,然后,最后将详细介绍各种组件,然后,将向您展示如何使用。

将向您展示如何使用,true Arrow 进行参数实验和评估,true Arrow 进行参数实验和评估,这与您,这与您,在之前的课程中使用的设置相同,因此请,在之前的课程中使用的设置相同,因此请。

确保安装相关的软件包,确保安装相关的软件包,例如 llama index 和 true line zil,例如 llama index 和 true line zil,对于这个快速入门,您需要一个。

对于这个快速入门,您需要一个,类似于之前课程的开放密钥,这个,类似于之前课程的开放密钥,这个,开放的 AI 密钥用于嵌入呃,开放的 AI 密钥用于嵌入呃。

部分,现在我们设置并检查我们的,部分,现在我们设置并检查我们的,文档以用于迭代 和与,文档以用于迭代 和与,第一课类似的实验,第一课类似的实验,我们鼓励您上传,我们鼓励您上传,自己的 PDF 文件。

自己的 PDF 文件,在我们加载《,在我们加载《。

电子书》之前,它与之前的文档相同,因此我们,电子书》之前,它与之前的文档相同,因此我们,看到它是一个文档列表,看到它是一个文档列表,有 41,有 41,页,对象模式是文档,页,对象模式是文档,对象。

这是第一页的一些示例文本。

接下来的部分我们将把它们合并,接下来的部分我们将把它们合并,到一个文档中,因为,到一个文档中,因为。

在,在,使用更高级的,使用更高级的。

现在让我们设置句子 窗口,现在让我们设置句子 窗口,批准方法,我们将详细介绍如何,批准方法,我们将详细介绍如何,进行更深入的设置,我们将从,进行更深入的设置,我们将从,窗口大小为 3 和顶部 K。

窗口大小为 3 和顶部 K,6 开始,首先导入我们将调用,6 开始,首先导入我们将调用。

句子窗口节点,句子窗口节点,解析器 句子窗口节点解析器,解析器 句子窗口节点解析器,是一个对象,它将把文档分割,是一个对象,它将把文档分割,成单独的句子,然后,成单独的句子,然后。

用该句子周围的上下文来扩充每个句子块,在这里我们,在这里我们,我们看到包含,我们看到包含,三个句子的文本被分成三个,三个句子的文本被分成三个,节点 每个节点包含一个,节点 每个节点包含一个,句子。

元数据包含,句子,元数据包含,该句子周围的更大窗口,该句子周围的更大窗口,我们将在此处显示第二,我们将在此处显示第二,个注释的元,个注释的元,数据,您会看到该元数据包含,数据,您会看到该元数据包含。

原始句子,但也包含,原始句子,但也包含,之前和之后发生的句子 我们,之前和之后发生的句子 我们,鼓励您也尝试自己的文本,鼓励您也尝试自己的文本,例如,让我们,例如,让我们。

在这个示例文本中尝试类似的操作,让我们看一下,第一个注释的周围元数据,因为窗口大小是,第一个注释的周围元数据,因为窗口大小是,3 呃,我们有两个额外的 Adent,3 呃,我们有两个额外的 Adent。

节点发生 在前面,当然,节点发生 在前面,当然,后面没有,因为它是第一个,后面没有,因为它是第一个。

节点,所以我们看到我们有原始,节点,所以我们看到我们有原始,句子或 hello,还有 Fubar 和,句子或 hello,还有 Fubar 和,catdog 下一步实际上是构建。

catdog 下一步实际上是构建,索引,我们要做的第一件事是设置一个,索引,我们要做的第一件事是设置一个,集合 建立一个 Ln 在这种情况下,我们将使用开放,集合 建立一个 Ln 在这种情况下。

我们将使用开放。

AI um,特别是 gpt3 5 Turbo,AI um,特别是 gpt3 5 Turbo,0。1 下一步是设置一个服务,0。1 下一步是设置一个服务,上下文对象,提醒一下,它是一个,上下文对象。

提醒一下,它是一个,包装器对象,其中包含,包装器对象,其中包含,索引所需的所有上下文,包括,索引所需的所有上下文,包括。

解析器请注意,解析器请注意,我们指定的嵌入模型是 BGE 小模型,我们指定的嵌入模型是 BGE 小模型,我们实际上,我们实际上,从拥抱面部下载并在本地运行它,这是一个,从拥抱面部下载并在本地运行它。

这是一个,紧凑的快速且准确的尺寸,紧凑的快速且准确的尺寸,模型,我们还可以使用其他模型 嵌入,模型,我们还可以使用其他模型 嵌入,模型,例如,相关模型是,模型,例如,相关模型是,BGA 大模型,我们在。

下面的注释中进行了编码,下一步是使用,下面的注释中进行了编码,下一步是使用,源文档设置向量索引,源文档设置向量索引,因为我们已将节点解析器定义为,因为我们已将节点解析器定义为,服务上下文的一部分,这。

服务上下文的一部分,这,将是什么 它将把源,将是什么 它将把源,文档转换成一系列,文档转换成一系列,由周围上下文增强的句子,由周围上下文增强的句子,并将其嵌入并将其加载到,并将其嵌入并将其加载到,向量。

向量,存储中,我们可以将索引保存到 dis 中,存储中,我们可以将索引保存到 dis 中,以便您以后可以加载它,而无需,以便您以后可以加载它,而无需。

重建,重建,它(如果您已经这样做了) 已经构建了索引,它(如果您已经这样做了) 已经构建了索引,并保存了它,并且您不想重建,并保存了它,并且您不想重建,它,这里有一个方便的阻止程序代码,它。

这里有一个方便的阻止程序代码,允许您从现有文件加载索引(,允许您从现有文件加载索引(,如果存在),否则,如果存在),否则,它将构建,它将构建,它索引现在已构建下一步,它索引现在已构建下一步。

是一个设置并运行查询,是一个设置并运行查询,首先我们要做的是定义我们,首先我们要做的是定义我们,所说的元数据替换后,所说的元数据替换后,处理器,它采用存储,处理器,它采用存储。

在元数据中的值并用该值替换节点文本,在元数据中的值并用该值替换节点文本,因此这是,因此这是,在检索后完成的 noes,在将,在检索后完成的 noes,在将,noes 发送到,noes 发送到。

通过,通过,句子窗口节点解析器创建的节点来了解它是如何工作的,我们可以,句子窗口节点解析器创建的节点来了解它是如何工作的,我们可以。

测试这个,测试这个,后处理器注意,我们对原始节点进行了备份,后处理器注意,我们对原始节点进行了备份,让我们看一下,让我们看一下,再次,再次,很棒,现在让我们,很棒,现在让我们,句子之上应用后处理器。

如果我们现在看一下,句子之上应用后处理器,如果我们现在看一下,第二个节点的文本,第二个节点的文本,我们会发现它已被替换为,我们会发现它已被替换为,完整的上下文,包括当前节点,完整的上下文,包括当前节点。

之前和之后发生的句子,之前和之后发生的句子,下一步是添加,下一步是添加,句子 Transformer 排名模型,这,句子 Transformer 排名模型,这,需要查询和检索节点,并。

使用专门的测试模型按相关性顺序对节点重新排序,使用专门的测试模型按相关性顺序对节点重新排序,通常您会将,通常您会将,初始相似度前 K 设为大,初始相似度前 K 设为大,然后排名器将对,然后排名器将对。

noes 重新评分 并返回较小的顶端,因此,noes 重新评分 并返回较小的顶端,因此,过滤出较小的集合。过滤出较小的集合。

重新排名器的示例是 BGE 排名器基础,这是,重新排名器的示例是 BGE 排名器基础,这是,基于 Bings 中的 BGE 的排名器,该,基于 Bings 中的 BGE 的排名器,该,字符串代表来自。

字符串代表来自,拥抱面孔的模型名称,您可以找到有关该,拥抱面孔的模型名称,您可以找到有关该,模型的更多详细信息,模型的更多详细信息,让我们看看这个 reer 是如何工作的。

让我们看看这个 reer 是如何工作的,我们将输入一些玩具数据,然后看看,我们将输入一些玩具数据,然后看看,排名器如何将,排名器如何将,初始节点集实际排名到一组新的,初始节点集实际排名到一组新的。

noes 让我们假设原始查询是,noes 让我们假设原始查询是,我想要一只,我想要一只,狗并且 初始分数节点集,狗并且 初始分数节点集,是这是一只得分为 0。6 的猫,是这是一只得分为 0。6 的猫。

然后这是一只得分为,然后这是一只得分为,0。4 的狗,直观上您会期望,0。4 的狗,直观上您会期望,第二个节点实际上具有更高的,第二个节点实际上具有更高的,得分,因此它与查询更匹配,得分。

因此它与查询更匹配,进入这里,我们可以看到 reer 正确地,进入这里,我们可以看到 reer 正确地,出现并了解狗,并给,出现并了解狗,并给。

不相关的高分,现在让我们将其应用到我们的,不相关的高分,现在让我们将其应用到我们的,实际查询,实际查询,入口,如前所述,我们想要一个,入口,如前所述,我们想要一个,比,比。

我们选择的高端山谷更大的相似度顶部蛋糕 对于排序器,我们选择的高端山谷更大的相似度顶部蛋糕 对于排序器,为了给排序器一个公平的机会,为了给排序器一个公平的机会,来显示正确的信息,我们将。

来显示正确的信息,我们将,top k 设置为 6,将 top end,top k 设置为 6,将 top end,设置为 2,这意味着我们首先,设置为 2,这意味着我们首先。

使用句子窗口检索来获取 6 个最相似的 tr,使用句子窗口检索来获取 6 个最相似的 tr,然后,然后,我们将。

现在我们已经设置了完整的查询入口,使用句子排序器过滤前两个最重要的块,现在我们已经设置了完整的查询入口,使用句子排序器过滤前两个最重要的块,让我们运行一个,让我们运行一个,基本,基本。

示例让我们对该,示例让我们对该,数据集提出一个问题在人工智能领域建立职业生涯的关键是什么,然后我们回到 我们看到,然后我们回到 我们看到,最后的回应是,最后的回应是。

在人工智能领域建立职业生涯的关键是,在人工智能领域建立职业生涯的关键是,学习,学习,在项目上工作的基础技术技能,并找到一个,在项目上工作的基础技术技能,并找到一个。

下降点,因为我们已经有了句子,下降点,因为我们已经有了句子,窗口查询引擎,让我们把,窗口查询引擎,让我们把,所有的东西放在一起,我们会投入很多 将,所有的东西放在一起,我们会投入很多 将。

代码放入此笔记本单元格中,但请注意,代码放入此笔记本单元格中,但请注意,这与,这与,util zapi 文件中的函数本质上相同,我们有用于,util zapi 文件中的函数本质上相同,我们有用于。

构建句子,构建句子,窗口索引的函数,我们之前在本笔记本中展示过,窗口索引的函数,我们之前在本笔记本中展示过,它包括能够,它包括能够,使用句子 B 节点解析器 为了从,使用句子 B 节点解析器 为了从。

文档中提取句子并,文档中提取句子并,用周围的上下文来增强它,用周围的上下文来增强它。

它包含设置,它包含设置,句子上下文或使用服务,句子上下文或使用服务,上下文对象,上下文对象,它还包括,它还包括,使用源文档,使用源文档,和包含,和包含,Aline 嵌入模型的服务上下文设置向量索引。

并且不使用,Aline 嵌入模型的服务上下文设置向量索引,并且不使用,第二部分,第二部分,实际上是获取没有查询的句子窗口,实际上是获取没有查询的句子窗口,我们展示的内容包括,使用元数据替换。

使用元数据替换,后处理器获取句子窗口检索器,以实际,后处理器获取句子窗口检索器,以实际,用周围的上下文替换节点,用周围的上下文替换节点。

然后最后使用重写模块来,然后最后使用重写模块来,过滤,过滤。

我们使用,我们使用,as query Andro,as query Andro,模块将所有这些结合起来,首先使用,模块将所有这些结合起来,首先使用,源,源,文档 Ln 以及保存,文档 Ln 以及保存。

目录调用构建句子窗口索引,然后调用第二个,目录调用构建句子窗口索引,然后调用第二个,函数来获取,函数来获取,现在输入的句子窗口查询 您已准备好在,下一节中尝试句子窗口检索,AUD 将向。

下一节中尝试句子窗口检索,AUD 将向,您展示如何,您展示如何,使用句子窗口检索器实际运行评估,以便,使用句子窗口检索器实际运行评估,以便,您可以评估结果并,您可以评估结果并,实际发挥参数,并了解。

实际发挥参数,并了解,这如何影响您的性能,这如何影响您的性能,运行完这些,运行完这些,示例后,我们鼓励您添加,示例后,我们鼓励您添加,自己的问题,然后甚至定义,自己的问题,然后甚至定义。

您自己的评估基准,只是为了,您自己的评估基准,只是为了,解决这个问题并了解,解决这个问题并了解,一切是如何工作的,谢谢杰里,现在,一切是如何工作的,谢谢杰里,现在,您已经设置了句子窗口。

您已经设置了句子窗口,检索器让我们 看看我们如何使用,检索器让我们 看看我们如何使用,rag Triad 对其进行评估,并,rag Triad 对其进行评估,并。

通过实验跟踪将其性能与基本 rag 进行比较,通过实验跟踪将其性能与基本 rag 进行比较,现在让我们看看如何,现在让我们看看如何,评估和,评估和,迭代句子窗口大小,迭代句子窗口大小,参数,以在,参数。

以在,评估指标或句子质量之间做出正确的权衡,评估指标或句子质量之间做出正确的权衡,应用程序以及,应用程序以及,运行应用程序和,运行应用程序和,评估的成本,我们将逐渐增加,评估的成本,我们将逐渐增加。

句子窗口大小,首先使用,真实镜头评估这些连续的应用程序版本,并进行 rag,真实镜头评估这些连续的应用程序版本,并进行 rag,Triad 跟踪实验,以选择最佳的,Triad 跟踪实验,以选择最佳的。

句子窗口,句子窗口,大小,然后在我们进行此练习时,大小,然后在我们进行此练习时,我们需要注意,我们需要注意,令牌使用或成本之间的权衡,当我们,令牌使用或成本之间的权衡,当我们,增加窗口大小时,令牌使用。

增加窗口大小时,令牌使用,和成本将会上升,因为在许多情况下,和成本将会上升,因为在许多情况下,上下文相关性会增加,同时,我们预计在开始时增加窗口大小将提高上下文。

我们预计在开始时增加窗口大小将提高上下文,相关性 因此也会,相关性 因此也会,间接提高基础性,间接提高基础性,原因之一是当,原因之一是当,检索步骤没有产生,检索步骤没有产生,足够相关的上下文时。

完成步骤中的法学硕士,足够相关的上下文时,完成步骤中的法学硕士,将倾向于,将倾向于,通过利用预训练阶段,通过利用预训练阶段,预先存在的知识来填补这些空白,预先存在的知识来填补这些空白,而不是,而不是。

明确依赖于检索到的上下文,明确依赖于检索到的上下文,片段进行解释,这种选择可能会,片段进行解释,这种选择可能会,导致较低的接地性分数,导致较低的接地性分数,因为回忆接地性意味着,因为回忆接地性意味着。

最终响应的组成部分应该可以,最终响应的组成部分应该可以,追溯到检索到的上下文,追溯到检索到的上下文,片段,因此我们,片段,因此我们,期望的是,随着您不断增加,期望的是,随着您不断增加。

句子窗口大小上下文,句子窗口大小上下文,相关性将增加到某个,相关性将增加到某个,点,基础性也会增加,然后,点,基础性也会增加,然后,超过该点,我们将看到,超过该点,我们将看到,上下文相关性甚至变平。

上下文相关性甚至变平,或减少,并且基础性也,或减少,并且基础性也,可能遵循类似的模式,可能遵循类似的模式,此外还有一个,此外还有一个,上下文,上下文,相关性和基础性之间非常有趣的关系,您可以。

相关性和基础性之间非常有趣的关系,您可以,在实践中看到,当上下文相关性,在实践中看到,当上下文相关性,较低时,基础性往往也较低,较低时,基础性往往也较低,这是因为法学硕士,这是因为法学硕士。

通常会尝试利用其知识来填补检索到的上下文片段中的空白。 在,预训练阶段,这会导致,预训练阶段,这会导致,接地性的降低,即使,接地性的降低,即使,答案实际上恰好非常,答案实际上恰好非常,相关。

因为上下文相关性增加,相关,因为上下文相关性增加,接地性也往往会增加到,接地性也往往会增加到,某个点,但如果接触,某个点,但如果接触,大小变得太大,即使上下文,大小变得太大,即使上下文。

相关性是 如果太高,相关性是 如果太高,基础性可能会下降,因为法学硕士可能会因,太大的上下文而不知所措,并依赖于。

训练阶段预先存在的知识库让我们现在尝试一下,训练阶段预先存在的知识库让我们现在尝试一下,句子窗口的,句子窗口的,大小,我将引导您完成一个 笔记本,大小,我将引导您完成一个 笔记本,加载一些,加载一些。

评估问题,然后逐渐增加,评估问题,然后逐渐增加,句子窗口的大小,并,句子窗口的大小,并,观察其对 rag,观察其对 rag。

Triad 评估指标的影响。首先,我们加载一,Triad 评估指标的影响。首先,我们加载一,组预先生成的评估,组预先生成的评估,问题,您可以在此处看到其中一些,问题,您可以在此处看到其中一些,列表中。

列表中,运行该,预加载的评估问题集中的每个问题的评估,预加载的评估问题集中的每个问题的评估,然后使用真正的记录器对象,然后使用真正的记录器对象,我们记录提示、响应、,我们记录提示、响应、。

应用程序的中间结果以及,应用程序的中间结果以及,真实数据库中的评估结果,真实数据库中的评估结果,调整句子,调整句子,窗口,窗口,大小参数并查看,大小参数并查看,它对不同的 rag Triad。

它对不同的 rag Triad,评估指标的影响 我们将首先使用,此代码,此代码,片段重置真实数据库 我们将句子窗口大小设置,片段重置真实数据库 我们将句子窗口大小设置,为 1 您会注意到在本。

为 1 您会注意到在本,指令中其他所有内容都是,指令中其他所有内容都是,与之前相同,然后我们使用,与之前相同,然后我们使用,与该索引关联的获取句子窗口,与该索引关联的获取句子窗口。

引擎来设置句子窗口引擎,引擎来设置句子窗口引擎,接下来我们准备设置,接下来我们准备设置。

真正的记录器,将句子,真正的记录器,将句子,窗口,窗口。

大小设置为 1,这将设置,大小设置为 1,这将设置,所有的定义,所有的定义,抹布三元组的反馈函数包括答案,抹布三元组的反馈函数包括答案,相关性上下文相关性和,相关性上下文相关性和,基础性。

现在我们已经设置好一切来,基础性,现在我们已经设置好一切来,运行,运行,设置的评估,设置的评估,句子窗口大小设置为,句子窗口大小设置为,1,所有相关提示,1,所有相关提示,响应中间结果和。

响应中间结果和,结果 对这些,结果 对这些,反馈函数的评估将被记录到,反馈函数的评估将被记录到,真正的,真正的,数据库中,现在运行得很好,数据库中,现在运行得很好,让我们在仪表板中查看它。

让我们在仪表板中查看它,您将看到此,您将看到此,指令会显示一个本地托管的,指令会显示一个本地托管的,Streamlet 应用程序,您可以单击,Streamlet 应用程序,您可以单击。

链接以访问该流 lit 应用程序,因此,链接以访问该流 lit 应用程序,因此,应用程序排行榜向我们显示了我们,运行,运行,并使用真实镜头评估的所有 21 条记录的聚合指标。

并使用真实镜头评估的所有 21 条记录的聚合指标,此处的平均延迟为 4。57,此处的平均延迟为 4。57,秒,总成本约为 2,秒,总成本约为 2,美分,处理的令牌总数,美分,处理的令牌总数,约为,约为。

9,000 个,您可以 查看评估,9,000 个,您可以 查看评估,指标,该应用程序,指标,该应用程序,在答案相关性和,在答案相关性和,基础性方面做得相当好,但在上下文相关性方面却。

基础性方面做得相当好,但在上下文相关性方面却,相当差,现在让我们深入,相当差,现在让我们深入。

查看,应用程序处理,应用程序处理,并,并,评估的各个记录,如果我滚动到右侧,我可以,评估的各个记录,如果我滚动到右侧,我可以,看到一些示例,看到一些示例,应用程序,应用程序。

在这些指标上表现不佳,所以让我选择,在这些指标上表现不佳,所以让我选择,这一,这一,行,行。

然后我们,然后我们,可以更深入地,可以更深入地。

检查它是如何,检查它是如何。

做的,所以这里的问题是在,做的,所以这里的问题是在,项目选择和,项目选择和,执行的背景下解释,执行的背景下解释。

Fire 中就绪和就绪之间的区别 射击目标,Fire 中就绪和就绪之间的区别 射击目标,方法提供了示例,其中每种,方法提供了示例,其中每种,方法可能更有益,您,方法可能更有益,您。

可以在此处详细查看抹布的总体响应,可以在此处详细查看抹布的总体响应。

然后如果,然后如果。

向下滚动,我们可以看到接地,向下滚动,我们可以看到接地,上下文,上下文。

相关性和答案相关性的总体分数,相关性和答案相关性的总体分数,在中检索了两个上下文 这个,在中检索了两个上下文 这个,例子和检索上下文的其中一个片段的,例子和检索上下文的其中一个片段的,上下文相关性。

上下文相关性,非常低,让我们深入研究这个,非常低,让我们深入研究这个,例子,仔细看看,例子,仔细看看,你会在这个例子中看到的是,你会在这个例子中看到的是,上下文的片段非常小,上下文的片段非常小。

记住我们正在使用,记住我们正在使用,大小为 1 的句子窗口,这意味着我们,大小为 1 的句子窗口,这意味着我们,只在开头额外添加了一个句子,只在开头额外添加了一个句子,在结尾处额外添加了一个句子。

在结尾处额外添加了一个句子,围绕检索,围绕检索,上下文,这会产生相当小的,上下文,而该上下文会遗漏重要,上下文,而该上下文会遗漏重要,信息 使其与,信息 使其与,类似提出的问题相关,类似提出的问题相关。

如果您查看,如果您查看,基础性,我们会看到,基础性,我们会看到,这两部分都检索到了,这两部分都检索到了,最终摘要中的句子,基础性,最终摘要中的句子,基础性,分数相当低,让我们选择,分数相当低。

让我们选择,基础性,基础性,分数较高的一个,它有一点 更多的,分数较高的一个,它有一点 更多的。

理由,如果我们看这个,理由,如果我们看这个,例子,我们会看到,例子,我们会看到,开头有几个句子,在检索到的上下文中有很好的支持证据,在检索到的上下文中有很好的支持证据,所以这里的分数很高。

所以这里的分数很高,它的分数为 10 范围为 0 到 10,它的分数为 10 范围为 0 到 10,但对于下面的这些句子,但对于下面的这些句子,没有支持,没有支持,证据,因此接地性,证据,因此接地性。

分数为零 让我们举一个具体的,分数为零 让我们举一个具体的,例子,也许这个例子据说它,例子,也许这个例子据说它,经常用于,经常用于,执行成本相对较低的情况,并且,快速迭代和适应的能力比预先。

快速迭代和适应的能力比预先,计划更重要,这确实感觉像是一段看似合理的,计划更重要,这确实感觉像是一段看似合理的,文本,可以作为对问题的,文本,可以作为对问题的,回答的一部分有用,回答的一部分有用。

但它不存在于,但它不存在于,检索到的上下文中,因此没有得到,检索到的上下文中,因此没有得到,支持 根据检索到的上下文中的任何支持证据,支持 根据检索到的上下文中的任何支持证据,这,这,可能是,可能是。

模型在训练,模型在训练,阶段学到的内容的一部分,其中要么来自,阶段学到的内容的一部分,其中要么来自,安德鲁的关于,安德鲁的关于,人工智能职业建议的同一文档,要么来自,人工智能职业建议的同一文档。

要么来自,谈论同一主题的其他来源,谈论同一主题的其他来源,模型可能已经学习了类似的,模型可能已经学习了类似的,信息,但它并不是基于,在这个特定实例中检索到的上下文不支持该句子。

在这个特定实例中检索到的上下文不支持该句子,因此当,因此当,句子窗口太小而,句子窗口太小而。

上下文相关性往往较低时,这是一个普遍问题,上下文相关性往往较低时,这是一个普遍问题,结果,基础性也变低,结果,基础性也变低,因为法学硕士开始利用,因为法学硕士开始利用,其培训阶段预先存在的知识。

其培训阶段预先存在的知识,来开始回答,来开始回答。

问题,而不是仅仅依赖于,问题,而不是仅仅依赖于,提供的上下文,现在我已经向您展示了,提供的上下文,现在我已经向您展示了,带有句子 Windows set 的失败模式。

带有句子 Windows set 的失败模式,对于,对于,一个,我想再执行几个,一个,我想再执行几个,步骤,看看当,步骤,看看当,我们为了快速浏览笔记本而更改句子窗口大小时,指标如何改进证明。

我将重新加载,问题的评估,但在这种情况下只需设置,问题的评估,但在这种情况下只需设置,它,它。

涉及模型遇到问题的一个问题,涉及模型遇到问题的一个问题,这个特定问题,这个特定问题,我们刚刚将句子,我们刚刚将句子,窗口大小,窗口大小,然后我想将,然后我想将,句子窗口大小设置,句子窗口大小设置。

为 3 中的句子来运行此 Cod,为 3 中的句子来运行此 Cod。

设置句子,设置句子,窗口大小设置为三的抹布,并为其设置,窗口大小设置为三的抹布,并为其设置,真正的录音机,除了将,除了将,句子窗口设置为,句子窗口设置为,大小,大小。

三的抹布之外,我们现在还设置了反馈功能的定义,接下来我们将 使用,该 eval 对特定的,该 eval 对特定的,评估评估问题进行评估,我们已经,评估评估问题进行评估,我们已经。

通过一个句子窗口设置了一些详细信息,通过一个句子窗口设置了一些详细信息,我们观察到已。

成功运行的故障模式,现在让我们看看,成功运行的故障模式,现在让我们看看,句子窗口引擎设置,句子窗口引擎设置,为 3 的结果 在真实镜头,为 3 的结果 在真实镜头,仪表板中,您可以在这里看到结果,当。

我们查看,我们查看,句子窗口大小,句子窗口大小,一时,我在有问题的记录上运行了它,您可以看到,一时,我在有问题的记录上运行了它,您可以看到,上下文相关性大幅增加,上下文相关性大幅增加,现在从 0。

57 上升到 0。9 如果我选择应用程序并,现在从 0。57 上升到 0。9 如果我选择应用程序并。

更详细地查看此示例,更详细地查看此示例。

现在让我们看看我们在,现在让我们看看我们在,句子,句子。

窗口设置为 1 时查看的同一问题,现在我们处于 3,窗口设置为 1 时查看的同一问题,现在我们处于 3,如果,如果。

您查看检索到的片段,现在是完整的最终响应,您查看检索到的片段,现在是完整的最终响应,您会注意到,您会注意到,这个特定的检索上下文与,这个特定的检索上下文与。

我们,我们,之前检索的句子,之前检索的句子,窗口设置为大小一的上下文相似,但现在它具有,窗口设置为大小一的上下文相似,但现在它具有,扩展,因为,扩展,因为。

句子窗口大小更大,并且如果您,句子窗口大小更大,并且如果您,查看分数 在本节中,查看分数 在本节中,我们将看到该上下文的,我们将看到该上下文的,上下文相关性得分为,上下文相关性得分为,0。9,这高于。

0。9,这高于,较小上下文之前获得的 0。8 分,较小上下文之前获得的 0。8 分,并且此示例表明,并且此示例表明,随着句子,随着句子,窗口,窗口,大小的扩展,即使是相当好的句子片段,一旦使用。

一旦使用,这些明显更好的上下文,这些明显更好的上下文,片段完成完成步骤,检索到的上下文就会变得更好,基础分数会上升,片段完成完成步骤,检索到的上下文就会变得更好,基础分数会上升,很多我们看到。

很多我们看到,通过在上下文中,通过在上下文中,高度相关的这两个部分中找到支持证据,高度相关的这两个部分中找到支持证据,基础,基础,分数实际上会上升 一直到,分数实际上会上升 一直到,1,因此将句子窗口。

1,因此将句子窗口。

大小从 1 增加到 3 导致了。

rag Triad 的评估指标的显着改善,rag Triad 的评估指标的显着改善。

基础性和上下文相关性都,基础性和上下文相关性都。

显着上升,答案相关性也显着上升,显着上升,答案相关性也显着上升,现在我们可以查看句子,现在我们可以查看句子,窗口集 到 5 如果您查看,窗口集 到 5 如果您查看,此处的指标,需要观察的几件事。

此处的指标,需要观察的几件事,是总代币数量增加了,是总代币数量增加了,如果您要增加记录数量,这可能会对成本产生影响,因此这是权衡之一,因此这是权衡之一,我之前提到过,当你增加,我之前提到过,当你增加。

句子窗口大小时,它会变得更加,句子窗口大小时,它会变得更加,昂贵,因为,昂贵,因为,在评估过程中 llms 正在处理更多的标记,在评估过程中 llms 正在处理更多的标记,另一件需要观察的事情是。

另一件需要观察的事情是,虽然上下文相关性和答案,虽然上下文相关性和答案,相关性保持平坦,但,相关性保持平坦,但,基础性实际上随着句子的,基础性实际上随着句子的,增加而下降。 句子窗口,增加而下降。

句子窗口,大小,这可能会在某个点之后发生,大小,这可能会在某个点之后发生,因为随着上下文大小的,因为随着上下文大小的,增加,增加,LLM 可能会在,LLM 可能会在,完成步骤中被太多。

完成步骤中被太多,信息淹没,并且在总结过程中,信息淹没,并且在总结过程中,它可以开始引入,它可以开始引入,自己预先存在的知识,自己预先存在的知识,而不仅仅是 检索到的上下文中的信息,以便在这里总结一下。

以便在这里总结一下,事实证明,当我们逐渐,事实证明,当我们逐渐,将句子窗口大小从 1,将句子窗口大小从 1,增加到 3 到 5 时,三的大小是,增加到 3 到 5 时,三的大小是。

我们进行此特定评估的最佳选择,我们进行此特定评估的最佳选择,我们看到 当我们从 1 增加到 3 时,我们看到 当我们从 1 增加到 3 时,上下文相关性、答案相关性,上下文相关性、答案相关性。

和基础性会增加,和基础性会增加,然后当您使用笔记本时,然后当您使用笔记本时,基础性步骤会减少或降级,基础性步骤会减少或降级,进一步增加到 5 的大小,我们鼓励您重新运行它,我们鼓励您重新运行它。

这两个步骤中的更多记录,这两个步骤中的更多记录,检查,导致特定指标(,导致特定指标(,例如上下文相关性或基础性)出现问题的单个记录,并,例如上下文相关性或基础性)出现问题的单个记录,并,获得一些直觉并。

获得一些直觉并,围绕故障模式,围绕故障模式,发生的原因以及如何解决,发生的原因以及如何解决,这些问题建立一些直觉,在下一节中,我们 将,这些问题建立一些直觉,在下一节中,我们 将,研究另一种高级机架。

研究另一种高级机架,技术自动合并以解决其中一些,技术自动合并以解决其中一些。

故障,故障,模式不相关的上下文可能会渗透到,模式不相关的上下文可能会渗透到,最终响应中,导致呃,最终响应中,导致呃,在基础性或。

【构建高级RAG应用】可商用落地教程!附全套代码_LLM_Langchain_Llama - P5:5. 第四篇 - 自动合并检索(Auto-merging Retrieval) 中英文字幕 - 吴恩达大模型 - BV1hMameREN3

在本课中,我们将深入研究,在本课中,我们将深入研究。

另一种高级碎布技术自动,另一种高级碎布技术自动,天真的方法的一个问题是,天真的方法的一个问题是,您正在检索一堆碎片,您正在检索一堆碎片,上下文块以放入 llm,上下文块以放入 llm,上下文菜单中。

并且,上下文菜单中,并且,块越小,碎片就越严重 在这里,块越小,碎片就越严重 在这里,我们使用自动合并拳头将,我们使用自动合并拳头将,较小的块合并到较大的父,较小的块合并到较大的父,块中。

以帮助确保更连贯的,块中,以帮助确保更连贯的,上下文让我们看看如何设置它,上下文让我们看看如何设置它,在本节中我们将讨论自动,在本节中我们将讨论自动,合并检索初始与,合并检索初始与。

标准拖动管道是 您正在,标准拖动管道是 您正在,检索,检索,放入 LM 联系人窗口中的一堆零散的联系人数据块,放入 LM 联系人窗口中的一堆零散的联系人数据块,并且,并且,您的块 SI 越小。

碎片就越严重。例如,您,您的块 SI 越小,碎片就越严重。例如,您,可能会在大致相同的部分中返回两个或更多检索到的,可能会在大致相同的部分中返回两个或更多检索到的,联系人中继,联系人中继。

但实际上并不能,但实际上并不能,保证 这些块的排序,保证 这些块的排序,可能会潜在地妨碍,可能会潜在地妨碍,Alum,Alum。

在其上下文窗口内综合此检索上下文的能力,在其上下文窗口内综合此检索上下文的能力,因此自动合并检索,因此自动合并检索,首先执行以下操作:定义,首先执行以下操作:定义,链接到较大父干线的较小块的层次结构。

其中,链接到较大父干线的较小块的层次结构,其中,每个父,每个父,干线可以有一些编号,干线可以有一些编号,在检索期间,如果,在检索期间,如果,链接到,链接到,父块的较小块的集合超过某个百分比。

父块的较小块的集合超过某个百分比,阈值,那么我们将较小的块合并,阈值,那么我们将较小的块合并,到较大的父块中,因此我们,到较大的父块中,因此我们,检索较大的父块,检索较大的父块,以帮助确保更连贯的。

以帮助确保更连贯的。

上下文,现在让我们看看如何,上下文,现在让我们看看如何,设置此笔记本将介绍,设置此笔记本将介绍,构建具有,构建具有,llama 索引的自动合并检索器所需的各种组件。

llama 索引的自动合并检索器所需的各种组件,将详细介绍各种组件,将详细介绍各种组件,并且与,并且与,上一节类似,最后将向,上一节类似,最后将向,您展示如何使用,您展示如何使用。

Trier 进行参数实验和评估,Trier 进行参数实验和评估,与之前类似,我们将加载开放的,与之前类似,我们将加载开放的,API 密钥,我们将使用,API 密钥,我们将使用。

utils 文件中的便利辅助函数加载它,utils 文件中的便利辅助函数加载它,就像之前的课程一样,我们还将,就像之前的课程一样,我们还将,使用如何在 AI PDF 中建立职业生涯。

使用如何在 AI PDF 中建立职业生涯,就像之前一样 还鼓励您,就像之前一样 还鼓励您。

尝试自己的 PDF 文件,我们,尝试自己的 PDF 文件,我们,加载 41 个文档对象,并将,加载 41 个文档对象,并将,它们合并到一个大文档中,它们合并到一个大文档中,这使得它更适合使用。

这使得它更适合使用。

方法进行文本编辑,现在我们已准备好设置 我们的,方法进行文本编辑,现在我们已准备好设置 我们的,自动合并,自动合并,检索器将由几个,检索器将由几个,不同的组件组成,第一步,不同的组件组成,第一步。

是定义我们所说的分层,是定义我们所说的分层,节点,节点,解析器,为了使用自动 Virg,解析器,为了使用自动 Virg,检索器,我们需要以分层方式解析节点,检索器,我们需要以分层方式解析节点,这意味着。

这意味着,节点是 以递减的,节点是 以递减的,大小进行解析并包含与其父节点的关系,大小进行解析并包含与其父节点的关系。

在这里,我们通过,在这里,我们通过,一个小示例演示了节点解析器如何工作,一个小示例演示了节点解析器如何工作,我们创建了一个具有小块大小的玩具解析器,我们创建了一个具有小块大小的玩具解析器,来演示注意。

来演示注意,我们使用的块大小是 248 512 和,我们使用的块大小是 248 512 和,128 您可以更改 块大小为,128 您可以更改 块大小为,您想要的任何递减顺序,您想要的任何递减顺序。

我们现在做,我们现在做,四倍现在让我们从文档中获取节点集,四倍现在让我们从文档中获取节点集,这实际上,这实际上,返回所有节点,这返回所有叶,返回所有节点,这返回所有叶,节点中间节点以及。

节点中间节点以及,父节点,因此,如果我们只想检索叶节点,那么叶中间节点和父节点之间会有相当多的信息内容重叠,如果我们只想检索叶节点,那么叶中间节点和父节点之间会有相当多的信息内容重叠,我们可以。

我们可以,在 llama 索引中调用一个,在 llama 索引中调用一个,称为间隙叶节点的函数,我们可以看,称为间隙叶节点的函数,我们可以看。

在这个例子中,我们,在这个例子中,我们,在原始节点集上调用 Gat Leaf 节点,我们,在原始节点集上调用 Gat Leaf 节点,我们,看一下第 31 个节点来查看,看一下第 31 个节点来查看。

文本,我们看到文本块,文本,我们看到文本块,实际上相当小,这是一个,实际上相当小,这是一个,示例 叶节点,因为叶,示例 叶节点,因为叶,节点是 128 个标记的最小块大小。

节点是 128 个标记的最小块大小,这是您可以如何,这是您可以如何,加强数学背景,以,加强数学背景,以,找出需要了解的重要内容等等,找出需要了解的重要内容等等,现在我们已经展示了叶节点的样子。

现在我们已经展示了叶节点的样子,我们还可以探索其中的,我们还可以探索其中的,关系 我们可以打印,关系 我们可以打印,上述节点的父节点,并观察到它是一个,上述节点的父节点,并观察到它是一个,包含,包含。

叶节点税的更大块,但更,叶节点税的更大块,但更,具体地说,Paran 节点,具体地说,Paran 节点,包含 512 个令牌,而四个,包含 512 个令牌,而四个。

叶节点包含 128 个令牌,因此,叶节点包含 128 个令牌,因此,有四个叶节点,因为呃,每次块大小除以四,这是,每次块大小除以四,这是,第 31 个叶节点的父节点的示例,现在我们已经向您展示了。

现在我们已经向您展示了,节点层次结构的样子,我们现在可以,节点层次结构的样子,我们现在可以,构建,构建,我们将使用的索引 openi lln,我们将使用的索引 openi lln,Turbo。

我们还将定义一个,Turbo,我们还将定义一个,包含 Ln,包含 Ln,嵌入模型和,嵌入模型和,解析器层次结构的服务上下文对象,与之前的笔记本一样,解析器层次结构的服务上下文对象,与之前的笔记本一样。

我们将使用 BG 小 n andic 模型,我们将使用 BG 小 n andic 模型,下一步是构建或,下一步是构建或,索引 索引的工作方式是,我们,索引 索引的工作方式是,我们。

实际上在特定的叶节点上构造一个向量索引,实际上在特定的叶节点上构造一个向量索引,所有其他,所有其他,中间节点和父节点都存储,中间节点和父节点都存储,在停靠存储中,并在,在停靠存储中,并在。

检索期间动态检索,但我们,检索期间动态检索,但我们,在初始 topk,在初始 topk,嵌入查找期间实际获取的内容是特定的,嵌入查找期间实际获取的内容是特定的。

叶节点,这就是我们嵌入的,叶节点,这就是我们嵌入的,代码,您可以在代码中看到,我们定义一个,代码,您可以在代码中看到,我们定义一个,存储联系人对象,默认情况下,存储联系人对象,默认情况下,使用内存。

使用内存,文档存储初始化该对象,我们将其称为存储联系人 ind。文档存储初始化该对象,我们将其称为存储联系人 ind。做商店。 添加文档以将所有节点添加,做商店。 添加文档以将所有节点添加。

到此内存文档存储中,但是当,到此内存文档存储中,但是当,我们在此处创建称为,我们在此处创建称为,自动合并索引的向量存储索引时,我们仅,自动合并索引的向量存储索引时,我们仅,传入向量索引的叶节点。

传入向量索引的叶节点,这意味着,这意味着,具体的叶节点是,具体的叶节点是,使用嵌入模型嵌入的,并且 也已,使用嵌入模型嵌入的,并且 也已,索引,但我们还传入存储,索引,但我们还传入存储。

上下文以及服务上下文,上下文以及服务上下文,因此向量索引确实,因此向量索引确实,了解包含所有节点的底层文档存储,了解包含所有节点的底层文档存储。

最后,最后,如果您已经,如果您已经,构建了此索引并且您已经构建了此索引,那么我们将保留此索引 想要,构建了此索引并且您已经构建了此索引,那么我们将保留此索引 想要,从存储加载它,您可以复制并粘贴。

从存储加载它,您可以复制并粘贴,此代码块,此代码块。

如果索引不存在,它将重建索引,或者,如果索引不存在,它将重建索引,或者,从存储加载它,现在,从存储加载它,现在,我们已经定义了自动合并索引,最后一步是,我们已经定义了自动合并索引,最后一步是。

设置 检索器并运行,设置 检索器并运行,查询引擎自动合并检索器,查询引擎自动合并检索器,控制合并逻辑,如果为给定父级,控制合并逻辑,如果为给定父级,检索到大多数子节点,则将它们,检索到大多数子节点。

则将它们,交换,交换,为父级,而不是为了使此,为父级,而不是为了使此,合并正常工作,我们设置一个大顶部,合并正常工作,我们设置一个大顶部,k 代表叶节点,记住,k 代表叶节点,记住。

叶节点也有一个较小的块,叶节点也有一个较小的块,大小 128,为了减少令牌,大小 128,为了减少令牌,使用,我们在合并发生后应用排序器,使用,我们在合并发生后应用排序器,例如我们,例如我们。

可能检索前 12 个合并并获得,可能检索前 12 个合并并获得,前 10 个,然后 重新排名到前六名,前 10 个,然后 重新排名到前六名,排名器的顶端可能看起来,排名器的顶端可能看起来,更大。

但请记住,基本块,更大,但请记住,基本块。

大小只有 128 个标记,然后,大小只有 128 个标记,然后,上面的下一个父级是 512 个标记,我们,上面的下一个父级是 512 个标记,我们,导入一个名为“自动合并,导入一个名为“自动合并。

检索器”的类,然后定义一个句子,检索器”的类,然后定义一个句子,Transformer 排名模块 我们将,Transformer 排名模块 我们将,自动合并检索器和排名,自动合并检索器和排名。

模块合并到我们的检索器查询工程中,模块合并到我们的检索器查询工程中。

它处理检索和,它处理检索和,合成现在我们已经将整个,合成现在我们已经将整个,事情端到端地设置好了,让我们实际测试一下。

人工智能中网络作为一个 示例问题我们得到,人工智能中网络作为一个 示例问题我们得到,回复,我们看到它说网络,回复,我们看到它说网络,在人工智能中很重要,因为它允许,在人工智能中很重要,因为它允许。

个人建立强大的,个人建立强大的,专业网络,专业网络。

下一步是将它们放在一起,我们,下一步是将它们放在一起,我们,创建两个高级函数来构建自动,创建两个高级函数来构建自动,合并索引 作为 get autom,合并索引 作为 get autom。

merging 查询引擎,这基本上,merging 查询引擎,这基本上,捕获了我们刚刚,捕获了我们刚刚,在第一个函数构建,在第一个函数构建,自动合并索引中向您展示的所有步骤,我们将使用。

自动合并索引中向您展示的所有步骤,我们将使用,层次结构节点解析器来解析,层次结构节点解析器来解析。

子节点到父节点的层次结构,我们将,子节点到父节点的层次结构,我们将,定义服务 上下文,我们,定义服务 上下文,我们,将从叶节点创建一个向量存储索引,将从叶节点创建一个向量存储索引,同时链接到。

同时链接到,所有节点的文档存储,所有节点的文档存储,第二个函数 get 自动,第二个函数 get 自动,合并查询引擎利用我们的自动,合并查询引擎利用我们的自动,合并检索器,它能够,合并检索器,它能够。

动态地将叶节点合并到父,动态地将叶节点合并到父,节点中,并且 还使用我们的 vack 模块,节点中,并且 还使用我们的 vack 模块,然后将其与整体,然后将其与整体,检索器查询,检索器查询。

andine 结合起来,以便我们,andine 结合起来,以便我们,使用,使用,原始源文档的构建自动合并索引功能构建索引,LM 设置,原始源文档的构建自动合并索引功能构建索引,LM 设置。

为 GPT 3。5 Turbo 以及合并,为 GPT 3。5 Turbo 以及合并,索引作为保存,索引作为保存,目录, 然后对于查询引擎,目录, 然后对于查询引擎。

我们基于索引调用 Gap 自动合并查询引擎,我们基于索引调用 Gap 自动合并查询引擎,并将,并将,相似度最高 K 设置为等于 6,作为,相似度最高 K 设置为等于 6,作为,下一步。

onom 将向您展示如何,下一步,onom 将向您展示如何,评估自动合并检索器,并,评估自动合并检索器,并,使用迭代参数,使用迭代参数,triar 我们鼓励您,triar 我们鼓励您,也尝试自己的问题。

并迭代,也尝试自己的问题,并迭代,自动合并,自动合并,检索的参数,例如,当,检索的参数,例如,当,您更改块大小或,您更改块大小或,排名器的前 K 或顶端时会发生什么,排名器的前 K 或顶端时会发生什么。

并告诉我们 结果,并告诉我们 结果。

是什么,太棒了,Jerry 现在您已经,是什么,太棒了,Jerry 现在您已经,设置了自动合并检索器,设置了自动合并检索器,让我们看看如何使用,让我们看看如何使用,rag Triad 对其进行评估,并。

rag Triad 对其进行评估,并,通过实验跟踪将其性能与基本 rag 进行比较,通过实验跟踪将其性能与基本 rag 进行比较,让我们设置这个自动合并,让我们设置这个自动合并,新,新。

索引 值得注意的是,它是,索引 值得注意的是,它是,两层,最低层块的叶,两层,最低层块的叶,节点的块大小为,节点的块大小为,512,层次结构中的下一层的,512,层次结构中的下一层的。

块大小为 2048,这,块大小为 2048,这,意味着每个父节点将有四个,意味着每个父节点将有四个,叶节点,彼此有 512 个令牌,叶节点,彼此有 512 个令牌,设置的部分,设置的部分。

与 Jerry 之前向您展示的完全相同,与 Jerry 之前向您展示的完全相同,您可能想要,您可能想要,尝试两层自动,尝试两层自动,合并结构的一个原因是它更,合并结构的一个原因是它更,简单,创建,简单。

创建,索引以及检索,索引以及检索,步骤所需的工作量更少 需要的工作较少,因为,步骤所需的工作量更少 需要的工作较少,因为,如果它性能相当好,所有第三层检查都会消失,那么理想情况下,我们希望使用。

那么理想情况下,我们希望使用,更简单的,更简单的,结构,现在我们已经使用,结构,现在我们已经使用,这两层自动合并,这两层自动合并,[音乐],[音乐],结构创建了索引,让我们设置自动合并,结构创建了索引。

让我们设置自动合并,对于此,对于此,设置的引擎,我将前 k 保持为,设置的引擎,我将前 k 保持为,与之前相同的值,即,与之前相同的值,即,12,并且重新排名步骤也将具有,12。

并且重新排名步骤也将具有,相同的 n 等于 6,这将使我们在此应用程序设置之间进行,相同的 n 等于 6,这将使我们在此应用程序设置之间进行,更直接的直接,更直接的直接,比较,比较。

以及 Jerry 之前设置的三层,以及 Jerry 之前设置的三层,自动合并层次结构应用程序,现在让我们,现在让我们,使用此自动合并引擎设置真正的记录器,使用此自动合并引擎设置真正的记录器。

我们将为其提供,我们将为其提供。

应用程序,应用程序,从生成的问题中加载一些问题以进行评估。从生成的问题中加载一些问题以进行评估。现在我们可以为,val 问题中的每个问题定义这些评估问题的运行。

val 问题中的每个问题定义这些评估问题的运行,我们将进行设置,我们将进行设置,以便使用 RS 调用时真正的记录器对象,以便使用 RS 调用时真正的记录器对象,将记录,将记录,提示,提示,响应和。

响应和。

利用查询,利用查询,引擎的评估结果现在我们的评估已经,引擎的评估结果现在我们的评估已经。

完成,让我们看一下,完成,让我们看一下,排行榜,我们可以看到 AB,排行榜,我们可以看到 AB,零矩阵这里的上下文相关性似乎,零矩阵这里的上下文相关性似乎,很低,其他两个指标更好,很低。

其他两个指标更好,这是我们以,这是我们以,512 作为叶子的两级层次结构 节点块大小和,512 作为叶子的两级层次结构 节点块大小和,父节点为 248 个令牌,因此,父节点为 248 个令牌,因此。

每个父,每个父,节点有四个叶注释现在我们可以运行真正的,节点有四个叶注释现在我们可以运行真正的,仪表板并查看下一层。

详细信息的记录级别的评估结果让我们,详细信息的记录级别的评估结果让我们。

检查您,检查您,可以在此处看到的应用程序排行榜 在,可以在此处看到的应用程序排行榜 在,处理 24 记录之后,尽管该应用程序在,尽管该应用程序在,答案相关性和,答案相关性和。

基础性方面做得更好,但总体上的上下文相关性相当低。我可以选择该应用程序,基础性方面做得更好,但总体上的上下文相关性相当低。我可以选择该应用程序,现在让我们查看,现在让我们查看,应用程序 0 的各个记录。

看看其评估,应用程序 0 的各个记录,看看其评估,分数如何 各种,分数如何 各种,记录,您可以滚动到此处的右侧,记录,您可以滚动到此处的右侧,查看答案相关性、,查看答案相关性、,上下文相关性和。

上下文相关性和。

基础性的分数,让我们选择一个,基础性的分数,让我们选择一个,上下文,上下文。

相关性较低的记录,因此如果您单击,相关性较低的记录,因此如果您单击。

它,您会在下面看到更详细的视图,它,您会在下面看到更详细的视图,问题是讨论,问题是讨论,资源预算的重要性,资源预算的重要性。

和人工智能项目的成功执行,和人工智能项目的成功执行,右侧是,右侧是。

响应,如果您进一步向下滚动,响应,如果您进一步向下滚动,您可以看到上下文相关性的更详细视图,其中,您可以看到上下文相关性的更详细视图,其中,有六个检索,有六个检索,上下文,每个都有,上下文,每个都有。

他们的,他们的,评估分数特别低,介于 0 和 2 之间,评估分数特别低,介于 0 和 2 之间,如果您选择其中任何一个并单击,如果您选择其中任何一个并单击,它,您可以看到答案,它,您可以看到答案。

与所提出的问题不是特别相关,与所提出的问题不是特别相关,您也可以,您也可以,向上滚动,向上滚动,并探索一些 在其他,并探索一些 在其他,记录中,您可以选择一些,记录中,您可以选择一些。

分数很好的记录(例如这里的记录),分数很好的记录(例如这里的记录),并,并。

探索,探索,应用程序,应用程序。

在各种问题上的表现如何,以及,在各种问题上的表现如何,以及。

它的字符串在哪里,它的故障模式在哪里,以,它的字符串在哪里,它的故障模式在哪里,以,围绕,围绕。

什么是有效的和什么是建立一些直觉,什么是有效的和什么是建立一些直觉。

现在让我们将,现在让我们将,之前的,之前的,应用程序与 Jerry 之前介绍的自动合并设置进行比较,现在我们将在层次结构中拥有三层,从,叶节点级别 512 向上一层有 128 个令牌开始。

叶节点级别 512 向上一层有 128 个令牌开始,在最高层有 248 个令牌,在最高层有 248 个令牌,因此在每一层中 父级有,因此在每一层中 父级有,四个,四个,子级,现在让我们,子级。

现在让我们。

记录器,所有,记录器,所有。

最后我们可以运行,最后我们可以运行。

评估了,既然我们已经设置了 app1,评估了,既然我们已经设置了 app1,我们可以采取 快速查看,我们可以采取 快速查看,排行榜,您可以看到相对于,排行榜,您可以看到相对于,F0,应用程序一中处理。

F0,应用程序一中处理,相同数量记录的令牌数量约为,相同数量记录的令牌数量约为,一半,总成本也约为,一半,总成本也约为,一半,这是因为将其视为层次,一半,这是因为将其视为层次,结构中的三层。

结构中的三层,块大小是 128 个标记,而不是,块大小是 128 个标记,而不是,512,这是,512,这是,ab 零的最小叶节点标记大小,因此导致,ab 零的最小叶节点标记大小,因此导致,成本,成本。

降低,同时上下文,降低,同时上下文,相关性,相关性,增加了约,增加了约,20%,发生这种情况的部分原因,20%,发生这种情况的部分原因,是,是。

通过这个新的应用程序设置,合并可能会发生得更好,我们还可以,通过这个新的应用程序设置,合并可能会发生得更好,我们还可以,深入研究并更详细地查看应用程序一,深入研究并更详细地查看应用程序一。

就像我们可以查看,就像我们可以查看,各个记录之前一样,让我们​​选择与,各个记录之前一样,让我们​​选择与,我们之前查看的相同的记录,我们之前查看的相同的记录,ab 零,ab 零。

这是问题所在,这是问题所在,预算的重要性,现在你可以看到上下文,预算的重要性,现在你可以看到上下文,相关性做得更好,基础性,相关性做得更好,基础性,也相当高,如果你,在这里选择一个示例响应,你会发现。

在这里选择一个示例响应,你会发现,事实上它正在非常具体地谈论,资源预算,所以在这方面有改进,现在让我总结一下,现在让我总结一下,第四课中的一些关键要点,我们带,第四课中的一些关键要点,我们带。

您了解了一种使用自动检索进行评估和,您了解了一种使用自动检索进行评估和,迭代的方法高级,迭代的方法高级,抹布,抹布,技术,特别是,技术,特别是,我们向您展示了如何,我们向您展示了如何。

使用不同的层次结构进行迭代,使用不同的层次结构进行迭代,级别数、子,级别数、子,节点数和块,节点数和块,大小,大小,对于这些不同的应用程序版本,您,对于这些不同的应用程序版本,您。

可以使用 rag Triad 来评估它们,可以使用 rag Triad 来评估它们,并跟踪实验来,并跟踪实验来,为您的用例选择最佳结构,需要,为您的用例选择最佳结构,需要,注意的一件事是。

注意的一件事是,您不仅 获取,您不仅 获取,与 rag Triad 相关的指标作为,与 rag Triad 相关的指标作为,评估的一部分,但深入到,评估的一部分,但深入到,记录级别可以帮助您获得有关。

最适合某些文档类型的超参数的直觉,最适合某些文档类型的超参数的直觉,例如取决于文档的性质,例如取决于文档的性质,例如雇佣合同,例如雇佣合同,与 在发票中,您可能会发现,与 在发票中,您可能会发现。

不同的块大小和,不同的块大小和,层次结构最有效,层次结构最有效,最后另一件事需要注意的是,最后另一件事需要注意的是,自动合并是对,自动合并是对,句子窗口,句子窗口,检索的补充,考虑这一点的一种方法。

检索的补充,考虑这一点的一种方法,是,假设您有,是,假设您有,一个父节点的四个子节点 自动合并您,一个父节点的四个子节点 自动合并您,可能会发现子项一和,可能会发现子项一和,子项四与,子项四与。

所提出的查询非常相关,然后这些子项,所提出的查询非常相关,然后这些子项,在自动合并范式下进行合并,在自动合并范式下进行合并,相比之下句子窗口化,相比之下句子窗口化,可能不会导致这种合并。

可能不会导致这种合并,因为它们不在,因为它们不在,文本的连续部分将我们,文本的连续部分将我们,带到第四课的结尾,带到第四课的结尾,我们观察到,通过先进的,我们观察到,通过先进的,机架技术,例如句子窗口。

机架技术,例如句子窗口,和自动合并检索,和自动合并检索,加上评估实验,加上评估实验,跟踪和迭代的能力,您可以,跟踪和迭代的能力,您可以,显着改进您的抹布,显着改进您的抹布。

应用,应用,此外,虽然本课程重点,此外,虽然本课程重点,关注这两种技术以及,关注这两种技术以及,相关的拖拽三元组进行,相关的拖拽三元组进行,评估,但您还可以使用许多其他,评估,但您还可以使用许多其他。

评估,评估,以确保您的 llm,以确保您的 llm,申请是诚实无害且,申请是诚实无害且,有用的,这张幻灯片列出了一些,开箱即用的真实镜头,我们鼓励您去,开箱即用的真实镜头,我们鼓励您去,尝试真实镜头。

探索非,尝试真实镜头,探索非。

笔记本电脑,并将您的学习提升到一个。

【构建高级RAG应用】可商用落地教程!附全套代码_LLM_Langchain_Llama - P6:6. 终篇 - 结论(Conclusion) 中英文字幕 - 吴恩达大模型 - BV1hMameREN3

恭喜完成本课程,恭喜完成本课程,希望您已经掌握了一些,希望您已经掌握了一些,关于如何构建评估和迭代,关于如何构建评估和迭代,rag 应用程序的技能,以使其更适合,rag 应用程序的技能,以使其更适合。

生产,无论,生产,无论,您来自数据科学机器,您来自数据科学机器,学习背景还是,学习背景还是,您需要的传统软件背景 学习,您需要的传统软件背景 学习,其中一些核心开发,其中一些核心开发,原理。

以便您可以成为一名摇滚明星,原理,以便您可以成为一名摇滚明星,人工智能工程师,能够构建强大的 llm,人工智能工程师,能够构建强大的 llm,软件系统,减少 llm,软件系统,减少 llm,幻觉将成为。

幻觉将成为,每个开发人员的首要任务,随着该,每个开发人员的首要任务,随着该,领域的发展,我们很高兴看到,领域的发展,我们很高兴看到,Bas 模型得到 更好和更大规模的。

Bas 模型得到 更好和更大规模的,评估变得更便宜,更,评估变得更便宜,更,容易为每个人设置和,容易为每个人设置和,运行,作为下一步我建议,运行,作为下一步我建议,更深入地了解您的数据。

更深入地了解您的数据,管道检索策略和 llm,管道检索策略和 llm,提示以帮助提高 rag 性能,提示以帮助提高 rag 性能,我们展示的这两种技术只是 这只是,我们展示的这两种技术只是 这只是。

冰山一角,您应该,冰山一角,您应该,研究从块大小到,研究从块大小到,检索技术(例如混合搜索),检索技术(例如混合搜索),到基于 alung 的推理(例如 Chain of。

到基于 alung 的推理(例如 Chain of,Thought)的所有内容。 rag Triad 是一个很好的,Thought)的所有内容。 rag Triad 是一个很好的,起点,可以开始评估。

起点,可以开始评估,基于 rag 的 llm 应用程序,作为下一步,我,基于 rag 的 llm 应用程序,作为下一步,我,鼓励您 为了更深入地挖掘,鼓励您 为了更深入地挖掘。

评估 LLMS 及其支持的应用程序的领域,评估 LLMS 及其支持的应用程序的领域,这包括,这包括,评估模型置信度、校准、,评估模型置信度、校准、,不确定性、可解释性、,不确定性、可解释性、。

良性和对抗环境中的隐私公平性和毒性等主题,良性和对抗环境中的隐私公平性和毒性等主题,我们。

(超爽中英!) 2024吴恩达0基础【面向所有人的生成式AI】 DeepLearning.AI - P1:生成式 AI 入门教程 1 - 什么是生成式 AI - 了解其定义、应用与影响 - 吴恩达大模型 - BV19S421R7VR

欢迎来到生成式AI,自Chad发布以来,Gbt AI,特别是生成式AI,吸引了很多人注意,公司和政府,这是一种非常颠覆性的技术,已经在改变,人们学习和工作的方式,许多开发人员认为。

生成式AI将使许多人受益,并提高生产力,同时对全球经济增长做出重大贡献,但也会有负面影响,所以可能是工作老板或更糟,有些人担心在这门课程中你将了解生成式AI是什么,它能做什么和不能做什么。

以及如何在自己的工作或业务中使用它,因为AI的种类很新,所以仍然有很多错误信息,因此,在这门课程中,我希望传达一个准确的非技术理解,它到底是什么,并与您合作,思考如何最好地利用这项技术。

这门课程不假设任何技术或AI背景,旨在对商业中的任何人都有用,科学、工程,人文、艺术或其他领域,因此,让我们深入探讨AI的性别,2022年,OpenAI发布了ChatGPT,这种势头持续不减,据估计。

每年可增加2。6至4。4万亿美元的经济,高盛估计,未来十年可提高全球GDP 7%,OpenAI的一项研究,和联合国,估计每天执行的工作或任务中,有10%可能受到影响,美国超过80%的工人。

同一项研究还估计,有20%的工人,哪些工作受生成AI影响超50%,此类研究带来巨大生产力提升希望,也担忧自动化导致失业。

什么是生成AI,指AI或人工智能系统,能产生高质量内容,特别是文本、图像和音频,最知名的生成AI或Gen AI系统是Open AI ChatGPT,可遵循指令执行任务,如为社交媒体帖子写3个标题。

关于我们为机器人设计的太阳镜,并生成各种创意输出,许多用户熟悉生成此类文本的网站或直接面向消费者的应用程序,其他示例包括谷歌提供的bard,以及微软提供的bing聊天,但现在有许多公司提供用户界面。

让您输入一些文本,称为提示,我们生成响应。

除了这些消费应用,生成式AI还有另一应用,我认为这可能长期影响更大,AI性别作为开发工具的使用。

AI已融入我们的生活,我们许多人每天使用它数十次甚至更多,而不会想到它,每次你在谷歌或必应上进行网络搜索,那是AI,每次你使用信用卡,可能有一个AI检查,是否真的是你使用信用卡。

或每次你访问亚马逊或Netflix等网站,并推荐产品或电影给你,那是AI,但许多AI系统一直复杂且昂贵,AI性别使许多AI应用更容易构建,这意味着AI产品供应的数量和种类正在蓬勃发展,因为与之前相比。

构建某些AI应用的成本正在降低,因此在这门课程中,我们将多次触及的主题之一将是,AI性别如何使您的业务更便宜地,构建非常有价值的AI应用,并学习识别和探索是否可能。

对于给定的业务有用,我将AI性别描述为生成文本、图像和音频,在这三种类型的内容中,迄今为止最大的影响是文本生成,但它可以根据指令生成图像,不同类型的提示。

它可以生成漂亮的图像,如这个,甚至逼真的图像,像这样的生成AI也可以生成音频,例如,这是我声音的克隆,嗨,我是一个AI生成的安德鲁声音克隆,安德鲁从未说过这些话,不是吗?

你还可以将音频与图像甚至视频生成结合起来,创建一个像我这样的视频克隆,嗨。

我是安德鲁的视频克隆,很高兴见到你,所以生成AI有很多东西在进行中,这是一个令人兴奋和颠覆性的技术,我相信您将在工作中发现它有用,在这门课程中,在第一周,我们将深入了解生成AI技术的工作原理。

特别是它能做什么和不能做什么,您还将看到各种常见用例,我希望这将激发您的创造力,关于您可能如何使用它来创造您的生活或工作中的价值,在第二周,我们将讨论生成AI项目,特别是,如何识别有用的生成AI应用。

以及构建良好的最佳实践,深入探讨技术选项范围,构建多种宝贵项目,最后一周,我们将超越单个项目,看生成式AI如何影响企业,以及整个社会,我们将探讨最佳实践,团队或公司如何利用AI的瑰宝。

(超爽中英!) 2024吴恩达0基础【面向所有人的生成式AI】 DeepLearning.AI - P10:10 - 生成式 AI 应用 - 图像生成 - 吴恩达大模型 - BV19S421R7VR

感谢本周坚持观看图像生成的最后一个可选视频,我们将重点关注生成,文本生成是许多用户正在使用的,并且对生成式AI的所有不同工具产生最大的影响,但生成式AI的兴奋点之一也是图像生成。

并且也开始出现一些可以生成文本或图像的模型,这些有时被称为多模态模型,因为你可以在多个模态下操作,文本或图像,在这段视频中我想与您分享,图像生成如何工作,仅用提示看看。

可用AI种类生成从未存在的人的美图。

或未来场景图或酷机器人图。

这项技术如何工作,当前图像生成主要通过扩散模型,未来模型已从互联网等处的大量图像中学习,扩散模型的核心是监督学习,这是它的工作原理,假设,算法在网找类似苹果图片,学习如何生成图像,第一步逐渐加噪音。

从漂亮苹果图变噪,更噪,最终纯噪音图,像素随机选择,完全不像苹果,扩散模型用此图学习,监督学习输入噪图,输出稍不嘈杂图像,具体将创建数据集,若给定第二张输入图像,我们想要。

监督学习算法做是学习输出更清晰苹果,这是另一个数据点,给定第三张更嘈杂图像,我们希望算法学习输出稍不嘈杂版本,最后给定纯噪声图像,我们希望学习输出稍不嘈杂图片,这暗示有苹果存在,在训练了数百万张图片后。

类似病毒的过程,当你想要生成新图片时,这就是运行方法。

从纯噪声图像开始,先拍张每像素都随机选取的照片,然后将此图片输入之前训练的监督学习算法,输入纯噪声时,它会学习去除一点噪声,你可能得到这样一幅图,暗示中间某种水果,但根据第二幅图。

我们还不太确定它是什么,我们再次将其输入模型,然后它去除了一点噪音,现在看起来我们能看见一个西瓜的噪点图,然后如果你再应用一次,我们最终得到这张第四幅图,看起来像一张很漂亮的西瓜图片。

我用前一张幻灯片的4步添加噪音和本幻灯片的4步去除噪音来演示这个过程,使用10个片段,4步添加噪音,4步去除噪音,实践中约百步更典型,此算法可随机生成图片,但需控制生成图像,通过指定提示告知生成内容。

描述算法修改以添加文本,或添加提示以训练数据生成,给定如苹果的图片,及描述或提示生成此苹果,我有文本描述,说这是红苹果,然后我们会像之前一样,为这张图片添加噪音,直到得到这张第四张图片,这是纯噪音。

但我们将改变构建学习算法的方法,即,不是输入轻微噪点图片并期望生成清晰图片,相反,将输入a到监督学习算法b中的噪点图片,以及可能生成此图片的文本说明或提示,即红苹果,给定此输入。

我们现在希望算法输出这个干净的苹果图片,同样,我们使用其他噪点图像为算法生成额外数据点,每次给定一个噪点图像和红色苹果的文本提示,我们希望算法学会生成一个不太噪点的红色苹果图片。

因此,从大量数据集中学习后,当你想将这个算法应用于生成时,比如说,一个绿色的香蕉,你做的和之前一样,从纯噪点图像开始,因此,每个像素都是完全随机选择的,如果你想生成一个绿色的香蕉。

你输入到监督学习算法的图片是纯噪点,连同绿色香蕉的提示,既然知道你要绿香蕉,希望算法输出类似图片,看不清香蕉,但中间可能有绿色水果暗示,这是图像生成的第一步,下一步是取右图,这是输出b。

现在作为输入a再次输入,提示绿香蕉生成稍清晰图片,现在清晰看出是绿香蕉,但一个相当嘈杂的,我们再做一次,最终去除大部分噪音,直到我们得到那张漂亮的绿色香蕉图片。

这就是扩散模型如何生成图像,在这个真正神奇的过程中,生成美丽图片的核心,仍然是监督学习,感谢您坚持观看这段可选视频,期待下周见到你,在那里我们将深入探讨使用生成性。

(超爽中英!) 2024吴恩达0基础【面向所有人的生成式AI】 DeepLearning.AI - P2:2 - 什么是生成式 AI - 原理和指南 - 吴恩达大模型 - BV19S421R7VR

聊天等系统生成文本,聊天等系统生成文本,似乎很神奇,似乎很神奇,确实代表AI的一大进步,确实代表AI的一大进步,但文本生成实际如何工作?但文本生成实际如何工作?将探讨生成AI技术的基础。

将探讨生成AI技术的基础,希望帮助你理解如何使用,希望帮助你理解如何使用,以及何时不应依赖,以及何时不应依赖,让我们看看,让我们看看,先从生成AI在AI领域的定位看起,先从生成AI在AI领域的定位看起。

有很多炒作和兴奋,有很多炒作和兴奋,还有关于AI的炒作,还有关于AI的炒作,我认为将AI视为一系列工具很有用,我认为将AI视为一系列工具很有用。

AI中最重要的一个工具是监督学习,AI中最重要的一个工具是监督学习,它非常擅长标记事物,它非常擅长标记事物,别担心,别担心,如果你不明白这意味着什么,如果你不明白这意味着什么,我们将在下一页上详细讨论。

我们将在下一页上详细讨论,最近才开始真正奏效的第二项是生成AI,最近才开始真正奏效的第二项是生成AI,如果你研究AI,如果你研究AI,只有最近,只有最近,你可能注意到还有其他工具。

你可能注意到还有其他工具,如无监督学习和强化学习,如无监督学习和强化学习,但就本课程而言,但就本课程而言,我将简要介绍监督学习,我将简要介绍监督学习,然后花大部分时间讨论生成式AI。

然后花大部分时间讨论生成式AI,这两个监督学习和生成式AI是AI中最重要的工具,这两个监督学习和生成式AI是AI中最重要的工具,对于大多数商业案例,对于大多数商业案例,你应该没问题,你应该没问题。

如果你暂时不担心这些以外的其他工具,如果你暂时不担心这些以外的其他工具。

在描述生成式AI如何工作之前,在描述生成式AI如何工作之前,简述监督学习,简述监督学习,生成AI基于监督学习,生成AI基于监督学习,监督学习使计算机输入,监督学习使计算机输入,生成相应输出,我叫它b。

生成相应输出,我叫它b,我叫它b,我叫它b,看几个邮件示例,看几个邮件示例,监督学习可判断是否垃圾邮件,监督学习可判断是否垃圾邮件,输入a是邮件,输出b是0或1,输入a是邮件,输出b是0或1。

0表示非垃圾邮件,1表示垃圾邮件,0表示非垃圾邮件,1表示垃圾邮件,这就是当前垃圾邮件过滤器的工作原理,这就是当前垃圾邮件过滤器的工作原理,第二个例子,第二个例子,最赚钱的应用,最赚钱的应用。

虽不鼓舞人心,但对一些公司来说却很赚钱,虽不鼓舞人心,但对一些公司来说却很赚钱,是网络广告,是网络广告,给定一个广告和一些用户信息,给定一个广告和一些用户信息,AI系统可以生成输出。

AI系统可以生成输出,对应你是否可能点击该广告,对应你是否可能点击该广告,通过显示更相关的广告,通过显示更相关的广告,这为在线广告平台带来了显著收入,这为在线广告平台带来了显著收入。

在自动驾驶汽车和驾驶员辅助系统中,在自动驾驶汽车和驾驶员辅助系统中,监督学习用于输入,监督学习用于输入,汽车前方的图片和雷达信息,汽车前方的图片和雷达信息,并标记其他车辆的位置,并标记其他车辆的位置。

给出医疗X光,尝试标记诊断,给出医疗X光,尝试标记诊断,我也做过大量制造缺陷检测工作,我也做过大量制造缺陷检测工作,你可以有一个系统,你可以有一个系统,拍摄手机的照片,拍摄手机的照片。

从装配线上滚下来检查是否有划痕,从装配线上滚下来检查是否有划痕,或缺陷,或缺陷,或在语音识别中,或在语音识别中,输入a是一段音频,输入a是一段音频,我们会用文字稿标记它,我们会用文字稿标记它。

或以最后为例,或以最后为例,如果你经营餐厅或其他生意,如果你经营餐厅或其他生意,偶尔会有评论,偶尔会有评论,关于你的生意或产品,关于你的生意或产品,监督学习,监督学习,能阅读这些评论,能阅读这些评论。

并为每个标记为正面或负面情绪,并为每个标记为正面或负面情绪,这对业务声誉监控有用,这对业务声誉监控有用。

原来2010到2020这十年,原来2010到2020这十年,我想简短地谈谈这一点,我想简短地谈谈这一点,因为这为现代生成AI奠定了基础,因为这为现代生成AI奠定了基础,但从2010年左右开始我们发现。

但从2010年左右开始我们发现,对于许多应用,对于许多应用,我们有很多数据,我们有很多数据,即使我们给它更多的数据,即使我们给它更多的数据,小AI模型的性能并没有提高多少。

小AI模型的性能并没有提高多少,这意味着,例如,这意味着,例如,若构建语音识别系统,若构建语音识别系统,即使AI听数万或数十万小时数据,即使AI听数万或数十万小时数据,数据量庞大,数据量庞大。

准确率未显著提高,准确率未显著提高,相比仅听少量音频数据的系统,相比仅听少量音频数据的系统,越来越多研究者通过此时期意识到,越来越多研究者通过此时期意识到,若训练大型AI模型,若训练大型AI模型。

意即用高速、强大、内存充足的计算机训练AI模型,意即用高速、强大、内存充足的计算机训练AI模型,则此性能随输入,则此性能随输入,数据量增加,数据量增加,数据将越来越好,数据将越来越好,实际上,实际上。

几年前我领导谷歌大脑团队时,几年前我领导谷歌大脑团队时,早期我对谷歌大脑团队的主要任务是,早期我对谷歌大脑团队的主要任务是,我说,我说,建超大型AI模型,喂大量数据,建超大型AI模型,喂大量数据。

幸运的是,这方法奏效,推动谷歌AI进展,幸运的是,这方法奏效,推动谷歌AI进展,大规模监督学习今天仍重要,大规模监督学习今天仍重要,超大模型用于标记,使我们今天有生成AI,超大模型用于标记。

使我们今天有生成AI。

看生成AI如何用大语言模型生成文本,看生成AI如何用大语言模型生成文本,大型语言模型(简称LLM)的一种生成文本方式,大型语言模型(简称LLM)的一种生成文本方式,LLM可以生成文本。

LLM可以生成文本,给定一个输入,给定一个输入,如我爱吃,如我爱吃,这称为提示,这称为提示,然后LLM可能会用贝果配奶油芝士完成这句话,然后LLM可能会用贝果配奶油芝士完成这句话,如果你再次运行。

如果你再次运行,它可能会说妈妈做的肉饼,它可能会说妈妈做的肉饼,如果你第三次运行,如果你第三次运行,可能你会说和朋友出去,可能你会说和朋友出去,那么大型语言模型LLM是如何生成这个输出的呢。

那么大型语言模型LLM是如何生成这个输出的呢。

事实证明,LLM是通过监督学习构建的,事实证明,LLM是通过监督学习构建的,这是一种输入A和输出B标签的技术,这是一种输入A和输出B标签的技术,它使用监督学习反复预测下一个单词是什么。

它使用监督学习反复预测下一个单词是什么,例如,例如,如果一个AI系统在互联网上读过一句话,如果一个AI系统在互联网上读过一句话,比如我最喜欢的食物是贝果配奶油芝士,比如我最喜欢的食物是贝果配奶油芝士。

那么这句话将被转换成很多数据点供它学习,那么这句话将被转换成很多数据点供它学习,以尝试学习预测下一个单词,以尝试学习预测下一个单词,特别是基于这句话,特别是基于这句话,我们现在有一个数据点说。

我们现在有一个数据点说,给定短语'我最喜欢的食物是',给定短语'我最喜欢的食物是',你认为下一个单词是什么,你认为下一个单词是什么,在这种情况下,正确答案是贝果,在这种情况下,正确答案是贝果。

同样给定'我最喜欢的食物是贝果',同样给定'我最喜欢的食物是贝果',你认为下一个单词是什么,你认为下一个单词是什么,这个和等等,这个和等等,所以这句话被转换成多个输入,所以这句话被转换成多个输入。

A和输出B供它尝试学习,LLM从哪学习,A和输出B供它尝试学习,LLM从哪学习,给定一些单词预测下一个出现的单词,给定一些单词预测下一个出现的单词,当你训练一个非常大型的人工智能系统时。

当你训练一个非常大型的人工智能系统时,对于LLM来说,大量数据意味着数百亿个单词,对于LLM来说,大量数据意味着数百亿个单词,在某些情况下超过一万亿个单词,在某些情况下超过一万亿个单词。

然后你就会得到一个大型语言模型,然后你就会得到一个大型语言模型,像Chagpt-t,给定一个提示,非常擅长生成一些附加单词,像Chagpt-t,给定一个提示,非常擅长生成一些附加单词。

作为对这个提示的回应,作为对这个提示的回应,目前,目前,我省略了一些技术细节,特别是,我省略了一些技术细节,特别是,下周我们将讨论一个过程,使LLM不仅预测下一个单词,下周我们将讨论一个过程。

使LLM不仅预测下一个单词,而且实际上学会遵循指令,而且实际上学会遵循指令,并且确保输出的安全性,并且确保输出的安全性,但大型语言模型的核心,但大型语言模型的核心。

是这种从大量数据中学习预测下一个单词的技术,是这种从大量数据中学习预测下一个单词的技术。

这就是大型语言模型的工作原理,这就是大型语言模型的工作原理,它们被训练反复预测下一个单词,它们被训练反复预测下一个单词,结果许多人,结果许多人,可能包括你,已经在日常工作中发现这些模型很有用。

可能包括你,已经在日常工作中发现这些模型很有用,帮助写作,帮助写作,查找基本信息,查找基本信息,或作为一个思考伙伴来帮助思考问题,或作为一个思考伙伴来帮助思考问题。

(超爽中英!) 2024吴恩达0基础【面向所有人的生成式AI】 DeepLearning.AI - P3:3 - 什么是生成式 AI - 大语言模型作为思考助手 - 吴恩达大模型 - BV19S421R7VR

许多网页界面可访问大型语言模型,Chagbt是最知名的,谷歌的机器人,微软必应,还有许多其他工作良好的,让我们看看人们如何使用这些LM应用,无论你是否经常使用它们,我希望这会给你一些新的想法。

以及它们可能对你有用的方式,LMS提供了一种新的信息查找方式,例如,如果你问它,南非的首都是什么,它可能会给出这样的回答,现在,如我们稍后所见,M有时会编造事实,我们称之为幻觉,因此。

如果你真的依赖得到问题的正确答案,在依赖它之前,最好与权威来源核对答案,但在这个例子中,它确实得到了南非的首都或三个首都,对,有时与LM的来回交流也有帮助,例如,如果你问,在我的答案中,LM代表什么。

M代表泻湖大师,这是法律中使用的术语,实际上,LM在互联网上的使用非常普遍,但如果你随后说在AI的背景下,然后希望它会说在AI的背景下,LM指的是大型语言模型,因此。

有时这种来回交流可以帮助你给出正确的上下文,以获取你正在寻找的信息,L M还可以作为思考伙伴帮助你思考问题。

例如。

我经常使用LM来帮助我完善写作,如果你告诉,重写以提高清晰度,世界各地的学生意识到学习已经发生等,领先元素实际上很擅长重写文本,或者这是一个有趣的例子,如果你告诉它写一个涉及卡车的300字故事。

可能是因为你有一个喜欢卡车的孩子,就像我一样,我儿子喜欢卡车,但为了鼓励他们刷牙,然后领先的ELM实际上可以创建非常有趣和有趣的故事,我认为这远不如伟大的小说家所写的那样好。

但作为一个快速有趣的东西,我觉得现在不错,有时你会寻找信息,你可能会想,应该用网络搜索还是用LM?如果你在运动,不幸扭伤了脚踝。

想知道怎么办,网络搜索可以引导你,我认为可信的来源,提供医疗建议,例如,梅奥诊所或哈佛的网页,所有这些看起来都是可信的来源。

你也可以问LM,扭伤脚踝怎么办,它会生成一些答案,考虑到LM编造事物的倾向,有时听起来很权威和自信,而实际上是在编造,我可能想再次检查,它关于医疗保健或医学的建议,再遵循建议,这里还有一个例子。

如果你想烤菠萝派,正在寻找食谱,结果网上有很多菠萝派的食谱,选择一个由可信网站或厨师创建的。

可能会得到很好的结果,或者你可以问LM编一个,在这种情况下它会编出一些东西,坦率地说可能还行,但也有很高的几率是一个奇怪的食谱,所以如果你想烤菠萝派,我可能去找网页。

因为有很多网页会给出很好的答案,关于什么是好的菠萝派食谱,但如果你在寻找更玄妙的东西,比如你的朋友挑战你制作咖啡并使用菠萝派,我找不到任何关于咖啡,注入菠萝派的网页,我认为目前没有单一的网页。

能给出这个问题的良好答案,这是一个例子,LM可以作为一个思考伙伴。

思考如何制作咖啡注入菠萝派,所以这些都是你可能发现,网络用户界面对LM有用的任务,我们将探讨更多例子,讨论LM的优缺点,并在这周晚些时候通过一些最佳实践,但正如你从这段视频中看到的。

Generof AI能够做很多事情,在下一个视频中,我们将系统讨论生成AI,并开始组织它们能做的事,包括写作,阅读和聊天任务。

(超爽中英!) 2024吴恩达0基础【面向所有人的生成式AI】 DeepLearning.AI - P4:4 - 什么是生成式 AI - AI 是一种通用技术 - 吴恩达大模型 - BV19S421R7VR

生成AI有何用途,问题难答的原因之一是AI是通用技术,不像许多技术,如汽车,用于交通或微波炉,用于加热食物,AI并非仅用于,一件事,它用于许多事,这几乎更难讨论,但让我们看看通用技术真正意味着什么。

类似于电,AI用于许多任务,若问电有何用途,或互联网有何用途,这些都是通用技术,几乎难以想出电有何用途,因为它如此普及,用于我们周围如此多不同的事,实际上,如你之前所见,监督学习用于许多任务。

如垃圾邮件过滤,广告,语音识别,等许多其他,生成AI也是如此,在上一视频中,你看到了一些LM能执行的任务,回答特定问题,帮助写作,例如,让我们更广泛地讨论一下LM能执行的任务框架。

生成AI生成文本,因此可能用于写作,我常使用生成AI工具作为头脑风暴伙伴,若要命名产品,可问它生成一些名字,它会给出一些创意建议,LM也能很好地回答问题,若给予它们有关你公司的特定信息。

它们能帮助团队成员找到所需信息,在这种情况下关于办公室停车可用性,除了写作,生成AI还擅长什么,我将称之为阅读摘要,你将给它一段相对较长的信息,并让它生成简短输出,例如,如果你经营在线购物电子商务公司。

并收到许多不同的客户电子邮件,生成AI可以阅读客户电子邮件,帮助你非常快速地弄清楚,这封电子邮件,是投诉还是不是,投诉,可用于将投诉路由至相关部门,快速处理,因为我喜欢我的新羊驼T恤,面料很柔软。

这不是投诉,但如果有人发邮件,我穿着羊驼T恤参加朋友婚礼,他们生我气抢了风头,嗯,那可能是投诉,但通用AI可帮助将邮件路由至正确部门,我称之为阅读任务,因为正在查看相对较长的文本,这是客户邮件。

然后生成相对较短的输出,只是是或否,这是投诉吗?虽然监督学习也可用于此特定任务,我们稍后将看到,生成AI正在允许这些类型的阅读任务,以及本周晚些时候看到的其他示例,以更快速、更便宜的方式构建,最后。

生成AI也用于许多聊天机器人类型的任务,聊天DPI和酒吧和聊天是通用聊天机器人,生成AI技术,大型语言模型也正在使许多专业用途的聊天机器人得以构建,例如,这是一个聊天机器人可能的样子,用于在线订单。

用户可以说像芝士汉堡送货,聊天机器人确认并为客户下单,在讨论这些任务时,我发现有时区分两种不同类型的贝叶斯应用很有用,一个是这样的头脑风暴,你自然会在Chachi或Bot或聊天中输入这样的提示。

或互联网上的其他免费或付费大型语言模型,并得到结果,因此,我将把这种应用称为,Web界面贝叶斯应用,相比之下,在识别电子邮件是否为客户投诉的例子中,这更符合公司电子邮件路由工作流程,实际上。

没有人会剪切并粘贴客户电子邮件,一次一个地进入Web界面,以获取答案,哪些实际上是投诉电子邮件,因此,这是一个大型语言模型,当它构建到更大的软件自动化中时,在这种情况下帮助公司自动化电子邮件路由。

因此,我将称这种应用为,基于大型语言模型的软件应用,第二个写作示例回答人事问题,这也将使软件应用更合理,因为需要了解公司停车政策,而互联网上的通用大语言模型可能没有,稍后课程将更详细讨论技术构建。

大多数专业聊天机器人也将基于软件,在本课程剩余部分,我将用这两个符号区分网页和软件应用,对许多人来说,从网页案例开始可能更容易,因为可以访问Chagi或Bars等网站,或Bing输入提示并获取结果。

我认为基于Web界面的应用和基于软件的应用程序都重要,对个人和公司都将非常有用。

我发现写作框架,阅读和聊天,作为思考大型语言模型能执行的不同任务的实用方式,在接下来的三个视频中,我们将深入探讨许多不同写作,阅读和聊天任务,我希望你发现其中一些可能对你的工作有用。

(超爽中英!) 2024吴恩达0基础【面向所有人的生成式AI】 DeepLearning.AI - P5:5 - 生成式 AI 应用 - 写作 - 吴恩达大模型 - BV19S421R7VR

上期视频讨论了写作,阅读和聊天是三大任务,大型语言模型被训练来预测下一个单词,它们擅长写作并不奇怪,许多写作任务可通过网页界面完成,希望你喜欢这个视频,但我们将深入探讨写作任务,立即开始。

对写作任务有用,广泛地,我们将从提示开始,使用相对短的提示来写作,或生成更长的文本,让我们看看一些写作应用,我经常使用大型语言模型的网页界面作为头脑风暴伙伴。

如果你要求头脑风暴五个花生酱曲奇饼的名字,它实际上会想出一些很有创意的名字,尼尼瓦纳纳比尔斯。

我会吃那个,或者如果你要求它为增加曲奇饼销售量头脑风暴想法。

然后它会想出几个想法,你可以看看是否有任何可能有用。

你还可以再次使用大型语言模型,可能是网页界面版本来为你写一些副本,让我们从一个例子开始,如果你要求它写一份新闻稿,宣布新首席运营官(COO)的雇用,你公司的新的首席运营官,公司名称欢迎新COO全名等。

这是一个很通用的新闻稿,在写提示时,你会发现如果你能给出大型语言模型更多上下文或更多背景信息,那么它将为你写更具体和更好的副本,如果大型语言模型此时看到的只是写一份新闻稿,它不知道关于你的公司。

关于新COO的名字或他们的资格,所以它最终写了一些非常通用的内容,如果你最终像这样提示大型模型,这不是问题,你可能会意识到你最终得到了一份非常通用的新闻稿,并决定更新提示。

以提供更多信息,所以如果我们提示它并说,使用以下信息写新闻稿,这是COO的PIO,这是我们公司的名称和一些公司细节,然后它将写一份更详细和有见地的新闻稿。

专门针对加入这家公司的COO,我发现当提示LM时,我经常不会得到提示,我经常会调整提示,一次做对,就像我们刚才看到的,我们发布新闻稿的地方,宣布新员工入职,没有提供任何上下文,这完全没问题。

如果结果不是你想要的,只需修改提示并重试,本周晚些时候我会在视频中详细说明,当我们讨论编写向量属性的提示时,让我们再看一个例子。

我有时使用LMS进行翻译的另一项写作任务,实际上,您可以通过Web访问的一些大型语言模型,UI在竞争中甚至更好,比现有的专用机器翻译引擎,特别是对于互联网上有大量文本的语言,因此。

大型语言模型有很多数据可以学习,如何生成特定语言中的文本,它在语言表现不佳,也称为低资源语言,互联网上该语言文本较少,但如果你经营一家酒店,并想将欢迎信息翻译成正式的手稿,欢迎客人。

那么大型语言模型可能能够为您输出这样的文本,不幸的是,我不会说印地语,我希望我会,但事实证明这个翻译仅如此,前台一词,翻译成前台的桌子,而不是你知道的接待处,这是我们所说的,当我们说酒店的前台。

所以如果你和一个印地语说话者一起工作,当我准备幻灯片时,然后他们可能会给你一些提示说,哦,这是一种不太正式印地语,但如果你告诉它翻译成正式的口语印地语,然后它更新文本使前台翻译成,印地语中接待处的单词。

这是一个更好的翻译,最近在AI社区看到一件有趣的事,我们中许多从事翻译工作的人,经常需要将文本翻译成我们自己不会说的语言,我们如何知道大型语言模型是否在做合理的事情,实际上。

即使您团队中只有一名印地语说话者,团队其他成员若不懂印地语,他们如何了解情况,我所见,AI社区多团队将文本译为海盗英语测试,因此,若提示大型语言模型将此译为海盗英语,得到,啊哈,愿你享受海景房时光。

听起来像相当不错的一部分英语。

那么,伟大模型如何用于写作。

(超爽中英!) 2024吴恩达0基础【面向所有人的生成式AI】 DeepLearning.AI - P6:6 - 生成式 AI 应用 - 阅读 - 吴恩达大模型 - BV19S421R7VR

在上个视频中,在上个视频中,我们研究了写作任务,其中您将指定最后一个语言模型的提示,我们研究了写作任务,其中您将指定最后一个语言模型的提示,生成较长的输出,生成较长的输出,事实证明。

LMS对许多阅读任务也有用,事实证明,LMS对许多阅读任务也有用,指的是你输入提示的任务,指的是你输入提示的任务,然后生成通常长度相当或更短的输出,然后生成通常长度相当或更短的输出。

让我们看看一些阅读任务,让我们看看一些阅读任务,从我每天都在用的东西开始,从我每天都在用的东西开始,多次校对是证明,多次校对是证明,如果我正在写一段文字,如果我正在写一段文字,我会仔细阅读。

我会仔细阅读,自己检查3-4遍拼写和语法,自己检查3-4遍拼写和语法,尽管我认为自己检查得很仔细,尽管我认为自己检查得很仔细,大型语言模型仍会发现我遗漏的错误,大型语言模型仍会发现我遗漏的错误。

这是一个你可以尝试的预读提示,这是一个你可以尝试的预读提示,如果你告诉它文本的用途,如果你告诉它文本的用途,这是为儿童毛绒玩具网站准备的文本,这是为儿童毛绒玩具网站准备的文本。

有时我会让它检查拼写和语法错误,有时我会让它检查拼写和语法错误,以及不流畅的句子,以及不流畅的句子,然后让它改正并重写,然后让它改正并重写,这是一段有错误的文本,这是一段有错误的文本。

大型语言模型修正拼写,大型语言模型修正拼写,并修正这里的语法,并修正这里的语法,当我自己写文本时,当我自己写文本时,我希望相当自信,我希望相当自信,无拼写和语法错误,无拼写和语法错误。

有时还有别扭的句子,有时还有别扭的句子,实际上我用这个来证明,实际上我用这个来证明。

我写第二项任务,大型语言模型常用于,我写第二项任务,大型语言模型常用于,总结长文章,总结长文章,我的一个合作者,我的一个合作者,埃里克·布莱纳伦,埃里克·布莱纳伦,一位网络教授,一位网络教授。

曾给我发邮件,附上一篇他写的文章,名为《巡回陷阱》,曾给我发邮件,附上一篇他写的文章,名为《巡回陷阱》,我知道那是一篇好文章,我知道那是一篇好文章,但文章很长,但文章很长,在回复他邮件前,我没时间读完。

在回复他邮件前,我没时间读完,实际上,我使用了以下提示,实际上,我使用了以下提示,并将他的整篇文章复制粘贴到一个大型语言模型的网络界面,并将他的整篇文章复制粘贴到一个大型语言模型的网络界面。

让它快速生成一个摘要给我,让它快速生成一个摘要给我,他写的论文讨论AI类人化带来的好处,他写的论文讨论AI类人化带来的好处,让AI增强人类而非自动化,还有很多工作要做,让AI增强人类而非自动化。

还有很多工作要做,布赖夫关于图灵陷阱的文章要点是,布赖夫关于图灵陷阱的文章要点是,他主张不要让AI自动化或取代人类工作,他主张不要让AI自动化或取代人类工作,而应更努力让AI补充或增强人类工作。

而应更努力让AI补充或增强人类工作,通过大型行动模型总结这篇长文,通过大型行动模型总结这篇长文,我比阅读整篇文章自己更快地回到了正轨,我比阅读整篇文章自己更快地回到了正轨,顺便说一句,这是一篇好文章。

顺便说一句,这是一篇好文章,最终我还是自己阅读了整篇文章,最终我还是自己阅读了整篇文章,我真的很喜欢它,我真的很喜欢它,但今天我有时使用大语言模型,但今天我有时使用大语言模型,为我总结没时间读的内容。

为我总结没时间读的内容,你可以去大型语言模型的,你可以去大型语言模型的,Web界面之一快速使用,Web界面之一快速使用,现在有一个软件应用版本,现在有一个软件应用版本。

也在企业中流行,也在企业中流行,让我举例说明,让我举例说明,假设你是客服中心经理,假设你是客服中心经理,有许多客服人员如左图所示,有许多客服人员如左图所示,戴着耳机与客户通话,戴着耳机与客户通话。

如右图所示的人,如右图所示的人,若获准录音通话,若获准录音通话,可运行通话语音识别,可运行通话语音识别,获取对话文本记录,获取对话文本记录,若客服人员多对话,若客服人员多对话,将积累大量文本记录。

将积累大量文本记录,若要审查呼叫中心情况,若要审查呼叫中心情况,可能文本太多难以阅读,可能文本太多难以阅读。

如客户与代理对话记录,如客户与代理对话记录,可了解通话实际内容,可了解通话实际内容,大型语言模型的用途之一,大型语言模型的用途之一,总结此对话,生成类似mk四的简短摘要,总结此对话。

生成类似mk四的简短摘要。

一,一,二,二,七k x(损坏等),七k x(损坏等),如果你收集所有这些不同的文本记录,如果你收集所有这些不同的文本记录,并有一个软件应用程序生成摘要,并有一个软件应用程序生成摘要,那么,那么。

作为此经理,作为此经理,可以快速浏览所有摘要,可能发现,可以快速浏览所有摘要,可能发现,如有问题或趋势需关注,如有问题或趋势需关注,此系统将作为软件应用实现,使用大型语言模型,此系统将作为软件应用实现。

使用大型语言模型,复制粘贴这些对话并无意义,复制粘贴这些对话并无意义,对于客服交互,逐个输入大型语言模型提供商的网站,对于客服交互,逐个输入大型语言模型提供商的网站。

大型语言模型也用于客户邮件分析,大型语言模型也用于客户邮件分析,在早期视频中,在早期视频中,你看到一个客户邮件示例,你看到一个客户邮件示例,并决定是否为投诉,并决定是否为投诉,在这种情况下。

在这种情况下,否,以及将此邮件路由至哪个部门,否,以及将此邮件路由至哪个部门,这是另一个使用大型语言模型的软件应用,这是另一个使用大型语言模型的软件应用,让我们深入探讨如何构建此应用。

让我们深入探讨如何构建此应用,专注于决定将此邮件路由到哪个部分,专注于决定将此邮件路由到哪个部分。

你可以编写一个提示,告诉LM阅读邮件,你可以编写一个提示,告诉LM阅读邮件,并决定将其路由到哪个部门,并决定将其路由到哪个部门,因此,您可以指定任务并提供邮件,因此,您可以指定任务并提供邮件。

但事实证明,使用这样的提示,但事实证明,使用这样的提示,您可能会发现算法将其路由到投诉部门,您可能会发现算法将其路由到投诉部门,在这种情况下,在这种情况下,这可能或可能不是您组织中存在的部门。

这可能或可能不是您组织中存在的部门,这就是LM被给予示例的地方,这就是LM被给予示例的地方,上下文不足,无法知晓,上下文不足,无法知晓,公司中应选择的实际部门名称,公司中应选择的实际部门名称。

相比之下,相比之下,若更新问题如下,若更新问题如下,我们说,我们说,阅读邮件,阅读邮件,选择最合适的部门,选择最合适的部门,浏览它,浏览它,仅从以下列表中选择部门,仅从以下列表中选择部门,在这种情况下。

在这种情况下,根据您想选择的选项集,根据您想选择的选项集,正确路由到服装部门,正确路由到服装部门,在构建应用程序的过程中,在构建应用程序的过程中,再次使用大型语言模型,再次使用大型语言模型。

第一次编写问题并不完全正确并不罕见,第一次编写问题并不完全正确并不罕见,当你发现它,当你发现它,路由到不存在的投诉部门,路由到不存在的投诉部门。

然后只需更新提示即可解决问题,然后只需更新提示即可解决问题,我想触及的最后一个应用是声誉监控,我想触及的最后一个应用是声誉监控,您可以使用LM构建仪表板来跟踪客户情绪。

您可以使用LM构建仪表板来跟踪客户情绪,您业务或产品的正面或负面随时间变化,您业务或产品的正面或负面随时间变化,例如,例如,如果您经营餐厅,偶尔客户会在线撰写评论或发送电子邮件描述他们的体验。

如果您经营餐厅,偶尔客户会在线撰写评论或发送电子邮件描述他们的体验,然后您可以使用这样的提示,然后您可以使用这样的提示,阅读以下评论,阅读以下评论,并分类为正面和负面情绪以自动决定。

并分类为正面和负面情绪以自动决定,每篇评论是正面还是负面,每篇评论是正面还是负面,在这种情况下,在这种情况下,如果食物很棒或服务友好,如果食物很棒或服务友好,将被分类为具有正面情绪。

将被分类为具有正面情绪,然后通过软件计算每天正面评论的数量,然后通过软件计算每天正面评论的数量,以及每天负面评论的数量,以及每天负面评论的数量,您可以构建一个仪表板来跟踪每天或随时间。

您可以构建一个仪表板来跟踪每天或随时间,情绪趋势,情绪趋势,看起来客户情绪相当积极,看起来客户情绪相当积极,但如果它开始呈负面趋势,但如果它开始呈负面趋势,像这样,更多负面评论,像这样,更多负面评论。

然后此仪表板可以提醒您,然后此仪表板可以提醒您,可能有些事情我们应该注意,可能有些事情我们应该注意。

看看是否有我们需要在餐厅解决的问题,看看是否有我们需要在餐厅解决的问题,在本视频中,我们查看了一些阅读应用程序,在本视频中,我们查看了一些阅读应用程序,包括校对,包括校对,摘要,摘要,电子邮件路由。

电子邮件路由,餐厅评论,餐厅评论,情感分析,情感分析,如果您能想到任务,希望有人能阅读一段文本,如果您能想到任务,希望有人能阅读一段文本,然后说几句话,然后说几句话,或给出该文本中内容的几个快速指示。

或给出该文本中内容的几个快速指示,这可能是个阅读任务的好选择,为你找下一张专辑,让我们继续看下一个视频,看看聊天功能。

(超爽中英!) 2024吴恩达0基础【面向所有人的生成式AI】 DeepLearning.AI - P7:7 - 生成式 AI 应用 - 聊天 - 吴恩达大模型 - BV19S421R7VR

前两视频看读写应用,本视频看聊天应用,除通用聊天机器人,许多公司考虑建专聊天应用,若公司多人与客户互动,或同类对话,可考虑是否用专聊天机器人,帮助这类对话,先看看,已看客服聊天机器人例。

可能会订芝士汉堡,一个专业聊天机器人的例子将是专注于帮助你规划旅行的,如何在巴黎度假便宜,机器人可以构建为具有关于旅行的专业知识,今天,许多公司正在探索广泛的建议机器人,例如。

机器人能给你职业指导建议或烹饪餐点的建议吗。

因此,许多擅长回答一件事的专门机器人正在由不同的公司开发,今天,一些这些机器人能够进行对话并提供建议,其中一些机器人只能进行对话并提供建议,这些酒吧可与公司其他软件系统交互并采取行动。

如订购芝士汉堡送餐,另一个可能采取行动的例子是客户服务聊天机器人,许多IT部门收到大量密码重置请求,如果机器人能处理,可能会减轻IT部门的工作量,需要发送短信验证身份并实际重置密码的机器人。

这是一个需要被赋予实际行动能力的机器人,例如发送短信给下周某人,这样的机器人需要能够发送短信,我们将讨论如何构建这样的聊天机器人。

不仅仅是生成文本,而是可以实际采取行动,由于许多客户服务组织正在探索使用聊天机器人,我想与您分享不同企业使用的常见设计点范围,对于此幻灯片,我想专注于基于文本的聊天,而不是语音或电话。

在光谱的一端将是只有人类的客户服务中心,因此,您将有人类服务代理来回发送消息,例如,欢迎来到更好的汉堡,让我为您播放一个,在光谱的另一端将是只有聊天机器人,软件直接回应客户。

人类键盘打字或聊天机器人两端,仅有几处常见设计点,一为机器人支持人类,机器人生成建议消息,人类客服阅读消息,若合适则批准,或有机会编辑消息再回复客户,此设计常称人为介入,因人类在循环中。

这是消息发送回客户前的过程一部分,这是减轻聊天机器人风险的一种方式,可能说错话,因为人类可以检查,在下一视频中实际发送回客户之前,当我们讨论LMS能做什么和不能做什么时。

我们将回顾LMS有时会犯的一些错误,这种设计有助于防止LMS的错误,在自动化光谱的更远处将是,如果你有一个机器人来为人类筛选消息,或许机器回答简单消息,但升级人类处理未准备好处理的事。

曾领导团队建自动检测机器,客户是否请求退款,结果占我们总通话量的10%,仅检测并自动给客户指示,分流约10%流量远离人类代理,节省代理大量时间,让人类专注于处理困难请求。

分流类型设计也常用于节省人类服务代理时间,只需关注他们更胜任的难题,在许多客服中心,一人可能同时与4或8人聊天,在某些极端情况下,甚至可能同时与16位客户交流,有了机器人的支持。

人类管理更多并行对话变得容易。

考虑到机器人,有时会讲错话,我想分享,构建和部署机器人的,公司常想安全地做这事,公司会先开发内部聊天机器人,我常建聊天机器人,但只让团队用,说,回答旅行问题,或机器人该做的事,假设内部团队更同情错误。

更宽容,若机器人一时说错,给你时间评估机器人行为,避免公开错误,以免公司尴尬,在看起来足够安全后,下一步通常是有人工介入的部署,让人工检查许多消息,在实际上发给客户之前,如果可以的话。

在这样做了一段时间后,如果机器人的消息看起来通常可以安全发送给客户,然后你可以允许机器人直接与客户交流,当然,细节非常商业化,首先,对于某些应用,人类检查每条消息可能不实际,因为流量巨大。

但取决于机器人说错话的风险以及流量,因此,人类参与循环是否可行,这是我看到公司使用的设计模式。

试图安全部署机器人的尝试总结,我们看到了LMS如何用于写作,阅读和聊天,这三大类并不意味着LMS可以做的全部,但它们只是你可能想要使用它们的几个广泛类别,LMS可以做很多。

但它们不能做所有事情在下一个视频中,让我们看看LMS可以做什么和不能做什么,更好地理解限制。

(超爽中英!) 2024吴恩达0基础【面向所有人的生成式AI】 DeepLearning.AI - P8:8 - 生成式 AI 应用 - 大语言模型的能力与局限 - 吴恩达大模型 - BV19S421R7VR

AI的种子技术很惊人,AI的种子技术很惊人,但本视频不能涵盖所有,但本视频不能涵盖所有,我们将仔细看看LMS能做什么和不能做什么,我们将仔细看看LMS能做什么和不能做什么。

我们将从一个有用的心理模型开始,我们将从一个有用的心理模型开始,关于它能做什么,关于它能做什么,然后让我们一起看看LMS的一些具体限制,然后让我们一起看看LMS的一些具体限制,理解这些限制可以降低。

理解这些限制可以降低,你可能会被绊倒的风险,你可能会被绊倒的风险,试图使用它们做它们并不擅长的事情,试图使用它们做它们并不擅长的事情,那么让我们深入探讨,那么让我们深入探讨。

如果你在尝试弄清楚LMS提示能做什么,如果你在尝试弄清楚LMS提示能做什么,我发现有一个问题提供了一个有用的心理框架,我发现有一个问题提供了一个有用的心理框架,那就是我问自己,那就是我问自己。

仅遵循指令和提示,一名大学毕业生能否完成你想要的任务,仅遵循指令和提示,一名大学毕业生能否完成你想要的任务,例如,例如,一名大学毕业生能否遵循指示阅读电子邮件以确定。

一名大学毕业生能否遵循指示阅读电子邮件以确定,电子邮件是否是投诉,电子邮件是否是投诉,嗯,嗯,我认为一名大学毕业生可能能做到这一点,我认为一名大学毕业生可能能做到这一点,LMS提示也能做得很好。

LMS提示也能做得很好,或者一名大学毕业生,或者一名大学毕业生,能否阅读餐厅评论以确定其是正面还是负面情绪,能否阅读餐厅评论以确定其是正面还是负面情绪,我认为他们能做得相当好,我认为他们能做得相当好。

同样,LMS提示也能做到,同样,LMS提示也能做到,这里还有一个例子,这里还有一个例子,一名大学毕业生能否在不了解公司或公司的情况下撰写新闻稿,一名大学毕业生能否在不了解公司或公司的情况下撰写新闻稿。

嗯,嗯,这名大学毕业生刚刚大学毕业,这名大学毕业生刚刚大学毕业,他们刚刚认识你,对你或你的业务一无所知,他们刚刚认识你,对你或你的业务一无所知,所以他们能做到的最好就是,所以他们能做到的最好就是。

可能写一篇非常通用且不太令人满意的新闻稿,像这样,可能写一篇非常通用且不太令人满意的新闻稿,像这样,但另一方面,但另一方面。

如果你能给他们更多的上下文,如果你能给他们更多的上下文,关于你的业务和首席执行官,关于你的业务和首席执行官,然后我们可以问,然后我们可以问,这名大学毕业生能否在给定基本相关上下文的情况下撰写新闻稿。

这名大学毕业生能否在给定基本相关上下文的情况下撰写新闻稿,我认为他们可能做得相当好,我认为他们可能做得相当好,同样,当你在想象,同样,当你在想象。

LMS在做许多一名大学毕业生可能能做到的事情时,LMS在做许多一名大学毕业生可能能做到的事情时,把这个大学毕业生想象成拥有很多背景知识,把这个大学毕业生想象成拥有很多背景知识,他们知道,他们知道。

很多来自互联网的通用知识,很多来自互联网的通用知识,但他们必须在没有访问网络搜索引擎的情况下完成这项任务,但他们必须在没有访问网络搜索引擎的情况下完成这项任务。

并且他们对你或你的业务一无所知(为了清晰起见),并且他们对你或你的业务一无所知(为了清晰起见),这个心理模型思想实验,这个心理模型思想实验。

大学毕业生必须在没有针对你公司或业务的特定培训的情况下完成任务,大学毕业生必须在没有针对你公司或业务的特定培训的情况下完成任务,并且每次你提示你的LMS时,LMS实际上并没有记住之前的对话。

并且每次你提示你的LMS时,LMS实际上并没有记住之前的对话,所以每次你得到一个任务时,就好像你得到了一个不同的大学毕业生,所以每次你得到一个任务时,就好像你得到了一个不同的大学毕业生。

所以你无法随着时间的推移训练他们,所以你无法随着时间的推移训练他们,所以想象一下,LMS在做许多一名大学毕业生可能能做到的事情,所以想象一下,LMS在做许多一名大学毕业生可能能做到的事情。

关于业务细节或风格,关于业务细节或风格,让他们写这条经验法则,询问大学毕业生能做什么,让他们写这条经验法则,询问大学毕业生能做什么,是不完美的经验法则,是不完美的经验法则,有新生能做的事。

有新生能做的事,榆树不能,反之亦然,榆树不能,反之亦然,但我发现这是思考能做和不能做的有用起点,但我发现这是思考能做和不能做的有用起点,虽然我们下周关注提示LM能做什么的幻灯片。

虽然我们下周关注提示LM能做什么的幻灯片,当我们谈论生成式AI项目时,当我们谈论生成式AI项目时,我们将讨论一些稍强大的技术,我们将讨论一些稍强大的技术,可能能够扩展你能用生成式AI做的事情。

超越这个大学毕业生概念,可能能够扩展你能用生成式AI做的事情,超越这个大学毕业生概念,现在,现在,让我们看看LMS的更多具体限制,让我们看看LMS的更多具体限制。

首先是知识断点,首先是知识断点,他的世界知识不会冻结在训练时间,他的世界知识不会冻结在训练时间,更确切地说,一个基于2022年1月之前互联网数据抓取的模型,更确切地说。

一个基于2022年1月之前互联网数据抓取的模型,将不会有关于最近事件的信息,将不会有关于最近事件的信息,因此,给定这样的模型,因此,给定这样的模型,如果你问它,如果你问它。

2022年票房最高的电影是什么,2022年票房最高的电影是什么,它会说不知道,它会说不知道,尽管现在已过2022,尽管现在已过2022,我们知道那是红宝石化身,我们知道那是红宝石化身。

水之道,水之道,7月最卖座电影,7月最卖座电影,有研究室称发现室温超导体LK-99,有研究室称发现室温超导体LK-99,你可能在新闻中见过这图,你可能在新闻中见过这图,该声明并不完全正确。

该声明并不完全正确,若问LM关于LK-99,若问LM关于LK-99,尽管新闻广泛报道,尽管新闻广泛报道,若LM仅从网上文本学习,若LM仅从网上文本学习,截至2022年1月,截至2022年1月。

它将对此一无所知,它将对此一无所知,因此称为知识截止,因此称为知识截止,LM对世界了解,LM对世界了解,仅截至训练时的某个时刻,仅截至训练时的某个时刻,或从互联网下载文本的最后时间用于训练。

或从互联网下载文本的最后时间用于训练。

OIS的第二个限制,OIS的第二个限制,它们有时会编造东西,它们有时会编造东西,我们称这些为幻觉,我们称这些为幻觉,我发现如果要求LM给出一些引言,我发现如果要求LM给出一些引言,历史名人名言。

历史名人名言,常组成引言,常组成引言,例如,例如,若你问,若你问,莎士比亚关于碧昂斯,莎士比亚关于碧昂斯,写了三等式,写了三等式,莎士比亚生卒于碧昂斯前,莎士比亚生卒于碧昂斯前,莎士比亚未提碧昂斯。

莎士比亚未提碧昂斯,但会自信回你引言,但会自信回你引言,如她歌声,如她歌声,如阳光般闪耀,如阳光般闪耀,向女王致敬,向女王致敬,她最值得爱,她最值得爱。

这些都是幻觉,这些都是幻觉,莎士比亚名言,莎士比亚名言,或若要求列出法庭案件,或若要求列出法庭案件,加州审理AI案件,加州审理AI案件,可能会给出权威的回答,可能会给出权威的回答,在这种情况下。

第一个案件是Waymo诉Uber案,在这种情况下,第一个案件是Waymo诉Uber案,但我未能找到Ingersoll诉Chevron案,但我未能找到Ingersoll诉Chevron案。

第二种情况是幻觉,第二种情况是幻觉,有时AI会幻想或编造,有时AI会幻想或编造,听起来权威的内容,听起来权威的内容,这可能误导人们认为,这可能误导人们认为,虚构的东西可能是真实的。

虚构的东西可能是真实的,一位律师不幸使用ChatGPT,一位律师不幸使用ChatGPT,生成法律案件文本,生成法律案件文本,并将其提交给法院,并将其提交给法院,不知道他提交给法院的是。

不知道他提交给法院的是,非法内容,包含大量虚构案件,非法内容,包含大量虚构案件,依赖AI的律师说他未理解聊天机器人,依赖AI的律师说他未理解聊天机器人,可能误导他,可能误导他。

这位律师因提交虚假法庭文件被处罚,这位律师因提交虚假法庭文件被处罚,理解其限制很重要,理解其限制很重要,若用于重要文档,若用于重要文档。

LMS也有技术限制,LMS也有技术限制,输入长度有限,即提示长度,输入长度有限,即提示长度,因此,可生成文本的输出长度也受限,因此,可生成文本的输出长度也受限,LMS可将提示设为仅数千字。

LMS可将提示设为仅数千字,因此,可提供的总上下文有限,因此,可提供的总上下文有限,若要总结论文,若要总结论文,若论文长于输入限制,若论文长于输入限制,模型可能拒绝处理,模型可能拒绝处理。

可分次给其论文部分,可分次给其论文部分,分次总结论文部分,分次总结论文部分,或可找输入限制长的模型,或可找输入限制长的模型,有些支持数万单词,有些支持数万单词,技术上,模型有上下文长度限制,技术上。

模型有上下文长度限制,上下文长度是总输入输出限制,上下文长度是总输入输出限制,使用模型时,使用模型时,我很少让它产生这么多输出以至于遇到限制,我很少让它产生这么多输出以至于遇到限制,确实关于输出长度。

确实关于输出长度,但我确实遇到输入长度限制,但我确实遇到输入长度限制,有时如果我有很多,有时如果我有很多。

成千上万的上下文单词,成千上万的上下文单词,我想给它一个生成AI的主要限制,我想给它一个生成AI的主要限制,它们目前不擅长处理结构化数据和我的结构化数据,它们目前不擅长处理结构化数据和我的结构化数据。

我的意思是表格数据,我的意思是表格数据,就像你可能存储在Excel或谷歌表格中的所有数据,就像你可能存储在Excel或谷歌表格中的所有数据,例如,例如,这是一张房价表,包括房屋面积和房价数据,以及房价。

如果你把这些数字输入到noem中,然后问它,我有一千平方英尺的房子,你认为什么价格合适,Lms并不擅长这个,相反,如果你称房屋面积为输入a,房价为输入b,输出b,监督学习更好,估计大小价格。

结构化数据示例,不同访客访问网站,是否购买,同样,监督学习优于,尝试复制,将所有时间、价格和购买信息粘贴到大语言模型的提示中。

与结构化数据相比,生成式AI更适合处理非结构化数据,结构化数据指表格数据,如您会在电子表格中存储的数据,而非结构化数据指文本、图像等。

音频,视频,AI适用于所有这些类型的数据,尽管影响最大,这也是本课程主要关注文本数据的原因。

最后,大型语言模型可能产生偏见输出,有时输出有害言论,例如,大型语言模型基于互联网文本训练,不幸的是,互联网文本可能反映社会偏见,若要nlm完成句子,鲟鱼走向停车场并取出,可能会输出他的车钥匙。

或说护士走向停车场并取出,可能说她的手机,在此例中,lm假设外科医生是男性,护士是女性,我们清楚外科医生和护士,可以是任何性别,若在应用中,这种偏见可能造成伤害,我会小心提示和应用语言模型,确保不助长。

这种不良偏见,最后,某些元素,偶尔会输出有害的言论,例如,某些语言模型,使用主要LM提供商的Web界面,实际上变得越来越难,让他们输出这类有害言论。

总结了对LM的提示可做和不可做,如我下周提到的,我们将看看一些技术来克服这些限制,使LM所能做的更广泛、更强大,但首先让我们看看一些提示LM的技巧,我希望我在下一个视频中分享的技巧,马上对你使用有帮助。

(超爽中英!) 2024吴恩达0基础【面向所有人的生成式AI】 DeepLearning.AI - P9:9 - 生成式 AI 应用 - 高效提示词撰写技巧 - 吴恩达大模型 - BV19S421R7VR

与你分享大型语言模型的提示,若使用LM提供商的网页界面,希望这些提示马上对你有用,类似提示对构建使用LM的软件也有用,若参与构建使用LM的软件,让我们在这视频中深入,将通过三个主要提示进行。

首先详细且具体,其次引导模型思考答案,最后实验并迭代,从详细且具体开始,以新鲜大学毕业生为例,我会思考如何确保LM有足够上下文,或足够背景信息完成任务。

例如,若你问它,写封邮件请求分配到法律文档项目,嗯,仅凭这样的提示,它不知道如何写有说服力的案例,为你争取分配到那个项目的理由,但若你提供额外上下文,如我将申请法律文档项目的工作,检查法律文档。

有丰富的提示算法经验以获得准确文本,专业语气,这给LM更多相关上下文写那封邮件,进一步帮助你请求分配到项目,若你能详细描述所需任务,若你告诉它,而不是说,帮我写封邮件,若你问它,写一段文本。

解释为何我的背景使我成为该项目的强候选人,候选人的倡导者,这种提示不仅提供足够上下文,还清楚地告诉你想要做什么,这更可能得到你想要的结果。

第二个提示是引导模型思考答案,若你告诉它,为新的猫玩具头脑风暴五个名字,它实际上可以做得很好,但若你心里想,你想要一个押韵的猫玩具名字和一个相关表情符号,这是我可能会尝试的,我可能会告诉它。

头脑风暴五个名字并告诉它,步骤一为猫想出五个快乐词汇,然后为每个词想出一个押韵的名字,每个玩具名都有相关表情,如提示这样。

可能得到这样的结果,模型遵循你的指示,第一个带每根胡须等,然后专业轻声猫线加有趣表情,若已有获取答案的过程,明确给予指示。

分步跟随有效,社交媒体上看过很多文章,如20个必知问题,或17个助你职业发展问题,这不适合所有人,我更觉得有用的是,有过程写提示生成结果,我提示自己时,常实验迭代尝试,如帮助重写这个,若不喜欢结果。

我会澄清,纠正语法拼写错误,若仍不想要结果,进一步澄清说正确弹簧错误,以专业简历语气书写,提示过程非从正确提示开始,而是从某处开始,看结果是否满意,知道如何调整提示接近答案。

我把提示过程想成这样,从你想让模型做的事开始,在提示中表达,基于提示,模型会回应,可能不是你想要的,若如此很好完成,若不满意,初始回应帮你塑造想法修改提示,迭代,可能几次才得到想要结果。

我认为提示过程是,开始时尽量清晰具体,但为节省时间,常从简短提示开始,可能比这设计少具体,但只想快速开始,得到结果后,若非想要,思考为何结果不是预期输出,基于此,优化提示以澄清说明,并不断重复。

直到希望得到想要的回复,我想分享一个小贴士,我看到有些人过度思考初始提示,我认为最好,通常快速尝试一下,如果结果不是你想要的,没关系,继续并批准它,随着时间的推移,你不会因为。

不小心有一个稍微错误措辞的提示而破坏互联网,所以继续尝试你想要的两大注意事项首先,如果你拥有高度机密的信息,我会确保我理解大型语言模型提供商如何使用或不使用,或保持该信息机密,在。

将高度机密信息复制粘贴到大型语言模型的Web用户界面之前,正如我们在上一个视频中看到的,与律师陷入麻烦提交由现在编造的,事实组成的法庭文件之前,你可能值得再次检查并决定自己。

是否可以信任并采取行动TM的输出,但有了这两个注意事项,当提示时,我经常只是跳进去尝试一些东西,看看它是否有效,但然后使用初始结果来决定如何细化提示以获得更好的结果。

这就是我们说提示是一个高度迭代过程的原因,有时你需要尝试一些东西才能得到你想要的结果。

所以这就是关于提示的所有提示,我希望你访问一些大型语言模型提供商的Web用户界面,并尝试一下这些想法你自己,在这门课程中,我们提供了一些流行LM提供商的链接,我希望你去玩它们并享受它们。

这让我们结束了本周的主要视频集,有一个可选的后续视频,在那里我将稍微谈谈图像生成或扩散模型,看看那个,如果你想,我期待下周见到你,我们将更多地谈论如何使用大型语言模型构建项目。

LangChain_微调ChatGPT提示词_RAG模型应用_agent_生成式AI - P1:《大语言模型微调之道》1-介绍 - 吴恩达大模型 - BV1gLeueWE5N

欢迎来到微调,由 Sharon Joe 教的大型语言模型,非常高兴能在这里,当我与不同群体交流时,我经常听到人们问,我怎么能在自己的数据或任务上使用这些大型语言模型。

你可能已经知道如何提示一个大型语言模型。

这门课程将介绍另一个重要工具,专门微调它们,如何进行,例如,一个开源的 lm 并在自己的数据上进行进一步训练,在编写提示时,可以相当好地让 lm 遵循指令,来完成任务。

如提取关键词或将文本分类为积极或消极情感。

如果你微调,你可以让 lm 更加一致地做你想要的事情,我发现提示一个 NLM 可以使其以某种风格说话,如更有帮助或更礼貌,或简洁而非冗长,到一定程度,这也可能很具有挑战性。

微调最终也是好调整 lm 语调的方法,人们现在认识到聊天机器人 GPT 和 other 流行 llms 的惊人能力,可以回答关于广泛主题的问题,但个人和公司希望拥有与他们自己私有和专有数据相同的接口。

一种方法是训练一个 llm 与你的数据,当然,训练基础 lm 需要大量的数据,可能数百亿甚至更多 than 万亿个单词的数据,和巨大的 GPU 计算资源。

但通过微调,你可以对一个现有的 lm 进一步训练你的数据。

所以在这门课程中,你将学习微调是什么,它可能在你的应用程序中有哪些帮助,微调如何融入训练,它与提示工程或检索有何不同,增强生成单独,以及如何将这些技术与微调结合使用,你将深入研究一种特定的微调变体。

使得 GPT 变得聊天友好,被称为指令微调,它教 llm 遵循指令,最后,你将走过步骤来微调你自己的 llm,准备数据,训练模型,并在代码中评估它,这门课程是为熟悉 Python 的人来说设计的。

但要理解所有代码,它将有助于进一步了解深度学习,如训练过程的知识,例如,"神经网络就像"。

"并且你说什么?","一个火车测试集","大量的努力已经投入到这门课程中",我们想要感谢整个lamini团队和nina wei,特别是在设计上,"除了深度学习之外","人工智能"。

"汤姆尼森和杰夫·洛迪大约在一个小时后"。

"通过这门短期课程",你通过微调可以获得对如何构建自己lm更深入的理解,以及使用自己数据的现有lm。

posted @ 2024-10-01 18:20  绝不原创的飞龙  阅读(97)  评论(0)    收藏  举报