LLM

一、提升大模型准确性的方法

参考:https://graphacademy.neo4j.com/courses/llm-fundamentals/1-introduction/2-hallucination/

1、Prompt Engineering

     Zero-shot Learning(零样本学习)

     Providing additional instructions and context in the question is known as Zero-shot learning.

2、In-Context Learning

     Few-shot Learning(少样本学习)

     Providing relevant examples for specific tasks is a form of Few-shot learning

3、Fine-Tuning

     在小规模或特定数据集上微调大模型

4、Grounding

      提供最新数据,弥补大模型知识不足

 

二、扣子

1、好用功能

  1)提示词自动生成

    编辑好智能体名称及功能介绍后,可自动生成提示词

       2)模型内插件调用

      插件加入后,模型可自动识别及调用插件,无需提示词,无需用户主动调用

  3)知识库

              提供了文档、表格、图片三种类型的知识库

       4)记忆

              以变量、数据表、汇总、文件四种形式持久化用户对话关键信息

       5)推荐问与快捷指令

  6)语言通话

  7)低代码应用开发

2、生态

  1)丰富的插件

  2)可参考的案例

3、核心技术

  1)模型内插件调用

       模型是如何知道勾选的插件能力?模型是如何在思考或生成过程中调用插件?

  2)知识库召回准确度

  3)记忆

    如何让模型识别需要记忆的内容?

 

三、Functon Calling

Functon Calling 为模型使用外部工具的能力,有些模型(如OPENAI,DeepSeek V3 0324,扣子版DeepSeek R1)支持Function Calling,有些不支持

1、基于提示词 

  如果模型不支持Function Calling,可基于提示词(ReAct),使模型具备该项能力,使用示例:

  neo4j:  https://graphacademy.neo4j.com/courses/llm-fundamentals/3-intro-to-langchain/4-agents/

  极客时间:https://time.geekbang.org/column/article/857271

2、模型内置

  模型在SFT阶段通过指令微调,支持Function Calling,优于基于提示词

  原理解析:视频号 ->  九天Hector -> 揭秘 Functon Calling

  使用示例:deepseek api: https://api-docs.deepseek.com/zh-cn/guides/function_calling

 

四、知识库

优化策略:

1、文档切片生成一些问答对

  为文档切片生成一些问答对,提问的问题去匹配问答对,会大大提升命中率和准确度

  

 

posted @ 2025-04-16 11:10  Matt_Cheng  阅读(8)  评论(0)    收藏  举报