随笔分类 -  生成式AI

摘要:一、MCP是什么? MCP(Model Context Protocol,模型上下文协议)是由 Anthropic 定义的一个开放协议。 模型上下文协议(MCP)是一个用于将AI应用程序连接到外部系统的开源标准。有了MCP,像Claude、LibreChat、ChatGPT等AI应用就可以连接到: 阅读全文
posted @ 2026-04-09 11:12 echo-efun 阅读(14) 评论(0) 推荐(0)
摘要:一、核心参数概览 英文术语标准中文翻译业内通俗叫法/备注 Temperature 温度 直接叫“温度”。指控制随机性的参数。 Max Tokens 最大令牌数 / 最大生成长度 也叫“最大词元数”。指输出内容的字数上限。 Top P 核采样 / Top P 采样 技术文档常称“核采样”。指控制候选词 阅读全文
posted @ 2026-04-08 17:52 echo-efun 阅读(25) 评论(0) 推荐(0)
摘要:为了 改进LLM文本生成结果,开发人员仅限于改进提示,并且有许多提示工程技术可以帮助。可通过以下方式来改进用户文本生成体验。 一、以编程方式修改用户提示 若要向用户对话添加系统提示,不使用特殊API。根据需要再提示中附件指令,可使用如下方法来改进用户提示: 1.1上下文启动 *创建系统提示,明确在特 阅读全文
posted @ 2026-04-08 14:25 echo-efun 阅读(5) 评论(0) 推荐(0)
摘要:1、上下文窗口——发送给LLM的提示词和LLM的回复的完整历史记录就是上下文窗口。 *实际上,你发送的每个新提示都包含你之前的的所有提示和模型的答复,LLM使用此完整历史记录作为上下文来创建下一个答案。 *每个LLM都有一个最大上下文窗口大小,按模型和版本更改。如果对话超过上下文窗口大小,LLM会删 阅读全文
posted @ 2026-04-08 11:09 echo-efun 阅读(14) 评论(0) 推荐(0)
摘要:1、知识截止 LLM只知道他们在特定日期接受过的训练,如果没有外部数据连接,无法访问实时或专用信息 2、幻觉 LLM可能会生成不准确或误导性信息 3、透明度 不能始终跟踪生成的内容的源或或准确性,同时没有内置的验证步骤 4、没有领域特定知识 除非用户提供内部或专有数据,否则LLMs不会了解这些数据 阅读全文
posted @ 2026-04-08 09:36 echo-efun 阅读(10) 评论(0) 推荐(0)