如何用好AI
AI技术特性
在探讨一项工具"怎么用"之前,首先要了解它的能力特性,即适合做什么、不适合做什么。
AI模型目前阶段擅长的领域
-
内容生成:大语言模型的基本工作原理是"Next Token Prediction",因此可以根据输入持续输出后续内容,可以进行文本的生成、扩写等
-
信息提取:从海量文本中提取指定内容、总结大纲、情感分析等
-
数据分析:按指定的要求汇总分析数据
-
语言翻译:包括自然语言、程序语言之间的翻译
AI模型目前阶段存在的问题:
-
准确性:生成的内容可能存在幻觉(Hallucination)、逻辑错误
-
实时性:目前使用的均为"预训练模型",因此事实类信息通常停留在某个时间点,无法获取实时信息(可通过与异构实时系统交互来部分解决)
-
专业性:通用预训练模型,缺乏专业领域知识与能力
-
个性化:大模型内置的为通用知识,但组织内的应用需要基于自有知识;与组织内自有知识的结合,需通过RAG方式,以向量匹配的方式做个性化知识输入
如何用好AI
用好AI,需防范两种误区
❌ 误区1: 期待过高、浅尝辄止
希望AI直接完成一个复杂任务,一旦达不到自己的期望,就浅尝辄止,放弃尝试;
实际上应该合理拆解、耐心调教,优化效果,要认识到解决单点问题也是有价值的
❌ 误区2: 期待过低、固步自封
想问题停留在既定的工作流程中,不敢想、不敢突破创造全新的流程,
思维有局限性,无法发挥AI的真实潜能
如何写好提示词
提示词(Prompt) 是与大语言模型的常见交互方式之一,其实就是给AI下达的指令,其核心在于清晰性、具体性和简洁性。
提示词的编写是否良好,直接影响着模型的返回结果,因此产生了"提示词工程(Prompt Engineering)"的概念,指设计、优化和调整输入给人工智能语言模型的指令或问题,以引导模型生成更准确、有用或符合预期的输出。
但事实上:
AI模型本身就在飞速进步,其理解人类意图的能力会快速提升,最终效果一定是不需要用户进行任何专门学习,就能进行有效的交互;例如此前有用户发现为提示词增加"please think step by step"能显著提升模型输出正确性,但是在推理模型推出之后,这样的提示词工程经验就是完全不必要(甚至可能产生反效果)的了。
所谓提示词优化,我们可以理解为对自身管理能力的规范化提升(各种AI模型就是各有专长的若干个助手,我们要做的事情就是当好AI的领导),也就是:
-
科学拆解任务:将复杂任务细分为多个边界明确、简单可行的小任务
-
合理分配任务:了解各个AI的特长,将任务指派给给最适合的AI
-
明确阐述任务:向助手明确、清晰地描述要求,明确产出物要求(什么内容、什么形式、多长篇幅等)
-
给予适当辅导:提供上下文、知识库,给予具体指导(举例子)
这些要求,本就是人与人之间协作的标准要求,管理人员与管理AI,并无本质区别。
具体来说,好的提示词(或者说好的任务部署),需满足以下要求:
拆分复杂任务
建议:将复杂问题分解成多个简单步骤,逐一提示,而不是一次性要求全部解决。
原因:分步处理可以提高准确性,降低错误率。
示例:
-
不佳:分析这篇文章并写一份报告。
-
优秀:
- 提取这篇文章的 3 个关键点。
- 根据关键点写一段 100 字的总结。
明确身份角色
建议:在提示词开头或关键部分,明确说明 AI 的身份。
原因:如果不指定身份,模型可能会以默认的通用语气或视角回答,可能不够聚焦或专业。
示例:
-
"你是一个专业的物理学家,帮我解释量子力学。"
-
"你是一名旅游顾问,为我规划一次旅行。"
清晰、具体、简洁的指令
建议:明确告诉模型你想要什么,避免模糊或含糊的表述。包括任务目标、期望的输出格式、长度或语气等细节。
原因:模型无法猜测你的意图,清晰的指令能减少歧义。
示例:
-
不佳:总结这篇文章。
-
优秀:请用 3 句话总结这篇文章的主要内容,语气保持中立。
指定输出格式
建议:明确要求输出采用特定结构(如列表、表格、JSON),以便更容易处理结果。
原因:模型默认输出可能不符合需求,格式化要求提高实用性。
示例:
-
不佳:列出 5 个水果。
-
优秀:以编号列表形式列出 5 个常见水果,每项后加一句描述。
提供足够的参考信息
建议:如果任务需要背景信息,尽量在提示词中提供相关上下文,但避免冗长。
原因:上下文帮助模型理解任务,但过多无关信息可能分散注意力。
示例:
- 不佳:写一封邮件。
- 优秀:写一封正式邮件给客户,主题是推迟项目交付,语气专业,提到原因是供应链延迟,字数约 150 字。
利用外部工具或参考数据
建议:如果任务涉及事实性数据或计算,提示模型结合外部工具(如检索增强生成 RAG,Retrieval-Augmented Generation)或提供参考文本。
原因:模型可能产生幻觉(Hallucination),外部信息能提升可靠性。
示例:
- 提示:在以下文本基础上回答问题:[插入参考文本]。
提供示例(Few-Shot Learning)
建议:通过提供 1-3 个输入-输出的示例,引导模型理解期望的回答模式。
原因:示例能有效传达格式和风格要求,尤其在零样本(Zero-Shot)效果不佳时。
示例:
- 优秀:
请根据以下示例,将语句分类为"积极"或"消极"情感:
示例:- "I love this sunny day!" -> 积极
- "This rain ruined my plans." -> 消极
- "The movie was absolutely amazing." -> 积极
任务:对这句话进行分类:"I hate waiting in long lines."
不断测试迭代
建议:对提示词进行多次测试,观察输出效果,逐步优化措辞或结构。
原因:不同模型对提示词的响应可能不同,迭代能找到最佳方式。
示例:如果要求简短回答却得到长篇大论,可调整为"用 50 字以内回答"。
如何降低幻觉
幻觉导致的后果
- 虚构事实
- 答非所问
幻觉产生的原因
-
数据偏差:训练数据中的错误或片面性被模型放大(如医学领域过时论文导致错误结论)
-
泛化困境:模型难以处理训练集外的复杂场景(如南极冰层融化对非洲农业的影响预测)
-
知识固化:模型过度依赖参数化记忆,缺乏动态更新能力(如2023年后的事件完全虚构)
-
意图误解:用户提问模糊时,模型易"自由发挥"(如"介绍深度学习"可能偏离实际需求)
降低幻觉的方式
联网搜索
双AI验证/大模型协作
例如,利用DeepSeek生成答案后,再应用其他大模型进行审查,相互监督,交叉验证
提示词工程
知识边界限定:通过时空维度约束降低虚构可能性(本质:约束大模型)
-
时间锚定法:"基于2023年之前的公开学术文献,分步骤解释量子纠缠现象"→规避未来时态虚构
-
知识锚定法:"基于《中国药典》回答,若信息不明确请注明"暂无可靠数据支持" →限定权威来源
-
领域限定符:"作为临床医学专家,请列举FDA批准的5种糖尿病药物"→添加专业身份限定
-
置信度声明:"如果存在不确定性,请用[推测]标签标注相关陈述"→减少绝对化错误断言
-
上下文提示:"根据《2024全球能源转型报告》(国际能源署,2024年1月发布)显示:"2030年光伏发电成本预计降至0.02美元/千瓦时,但储能技术突破仍是普及瓶颈。"请基于此数据,分析中国西部光伏基地发展的三个关键挑战,并标注每个挑战与原文结论的逻辑关联。 → 嵌入权威数据片段
-
生成参数协同控制:"请以temperature=0.3的严谨模式,列举2024年《柳叶刀》发表的传染病研究"
对抗性提示:强制暴露推理脆弱点,用户可见潜在错误路径(本质:大模型自我审查)
-
植入反幻觉检测机制: "请用以下格式回答:- 主要答案(严格基于公开可验证信息)- [反事实检查] 部分(列出可能导致此答案错误的3种假设)"
-
预设验证条件,迫使模型交叉检查信息:"请先回答"量子纠缠能否证明灵魂存在?",然后从以下角度验证答案的可靠性: 1. 物理学界主流观点; 2. 近五年相关论文数量; 3.是否存在可重复实验证据。"
-
链式验证:请完成以下验证链:1. 陈述观点:______2. 列出支撑该观点的三个权威数据源 3. 检查每个数据源是否存在矛盾信息4. 最终结论(标注可信度等级)
I have a dream : Sandy beach B-J-N.
浙公网安备 33010602011771号