好好生活
  平平淡淡每一天

编辑

如何用好AI

AI技术特性

在探讨一项工具"怎么用"之前,首先要了解它的能力特性,即适合做什么、不适合做什么。

AI模型目前阶段擅长的领域

  • 内容生成:大语言模型的基本工作原理是"Next Token Prediction",因此可以根据输入持续输出后续内容,可以进行文本的生成、扩写等

  • 信息提取:从海量文本中提取指定内容、总结大纲、情感分析等

  • 数据分析:按指定的要求汇总分析数据

  • 语言翻译:包括自然语言、程序语言之间的翻译

AI模型目前阶段存在的问题:

  • 准确性:生成的内容可能存在幻觉(Hallucination)、逻辑错误

  • 实时性:目前使用的均为"预训练模型",因此事实类信息通常停留在某个时间点,无法获取实时信息(可通过与异构实时系统交互来部分解决)

  • 专业性:通用预训练模型,缺乏专业领域知识与能力

  • 个性化:大模型内置的为通用知识,但组织内的应用需要基于自有知识;与组织内自有知识的结合,需通过RAG方式,以向量匹配的方式做个性化知识输入

如何用好AI

用好AI,需防范两种误区

❌ 误区1: 期待过高、浅尝辄止
希望AI直接完成一个复杂任务,一旦达不到自己的期望,就浅尝辄止,放弃尝试;
实际上应该合理拆解、耐心调教,优化效果,要认识到解决单点问题也是有价值的

❌ 误区2: 期待过低、固步自封
想问题停留在既定的工作流程中,不敢想、不敢突破创造全新的流程,
思维有局限性,无法发挥AI的真实潜能

如何写好提示词

提示词(Prompt) 是与大语言模型的常见交互方式之一,其实就是给AI下达的指令,其核心在于清晰性、具体性和简洁性。

提示词的编写是否良好,直接影响着模型的返回结果,因此产生了"提示词工程(Prompt Engineering)"的概念,指设计、优化和调整输入给人工智能语言模型的指令或问题,以引导模型生成更准确、有用或符合预期的输出。

但事实上:
AI模型本身就在飞速进步,其理解人类意图的能力会快速提升,最终效果一定是不需要用户进行任何专门学习,就能进行有效的交互;例如此前有用户发现为提示词增加"please think step by step"能显著提升模型输出正确性,但是在推理模型推出之后,这样的提示词工程经验就是完全不必要(甚至可能产生反效果)的了。

所谓提示词优化,我们可以理解为对自身管理能力的规范化提升(各种AI模型就是各有专长的若干个助手,我们要做的事情就是当好AI的领导),也就是:

  • 科学拆解任务:将复杂任务细分为多个边界明确、简单可行的小任务

  • 合理分配任务:了解各个AI的特长,将任务指派给给最适合的AI

  • 明确阐述任务:向助手明确、清晰地描述要求,明确产出物要求(什么内容、什么形式、多长篇幅等)

  • 给予适当辅导:提供上下文、知识库,给予具体指导(举例子)

这些要求,本就是人与人之间协作的标准要求,管理人员与管理AI,并无本质区别。

具体来说,好的提示词(或者说好的任务部署),需满足以下要求:

拆分复杂任务

建议:将复杂问题分解成多个简单步骤,逐一提示,而不是一次性要求全部解决。

原因:分步处理可以提高准确性,降低错误率。

示例:

  • 不佳:分析这篇文章并写一份报告。

  • 优秀:

    • 提取这篇文章的 3 个关键点。
    • 根据关键点写一段 100 字的总结。

明确身份角色

建议:在提示词开头或关键部分,明确说明 AI 的身份。

原因:如果不指定身份,模型可能会以默认的通用语气或视角回答,可能不够聚焦或专业。

示例:

  • "你是一个专业的物理学家,帮我解释量子力学。"

  • "你是一名旅游顾问,为我规划一次旅行。"

清晰、具体、简洁的指令

建议:明确告诉模型你想要什么,避免模糊或含糊的表述。包括任务目标、期望的输出格式、长度或语气等细节。

原因:模型无法猜测你的意图,清晰的指令能减少歧义。

示例:

  • 不佳:总结这篇文章。

  • 优秀:请用 3 句话总结这篇文章的主要内容,语气保持中立。

指定输出格式

建议:明确要求输出采用特定结构(如列表、表格、JSON),以便更容易处理结果。

原因:模型默认输出可能不符合需求,格式化要求提高实用性。

示例:

  • 不佳:列出 5 个水果。

  • 优秀:以编号列表形式列出 5 个常见水果,每项后加一句描述。

提供足够的参考信息

建议:如果任务需要背景信息,尽量在提示词中提供相关上下文,但避免冗长。

原因:上下文帮助模型理解任务,但过多无关信息可能分散注意力。

示例:

  • 不佳:写一封邮件。
  • 优秀:写一封正式邮件给客户,主题是推迟项目交付,语气专业,提到原因是供应链延迟,字数约 150 字。

利用外部工具或参考数据

建议:如果任务涉及事实性数据或计算,提示模型结合外部工具(如检索增强生成 RAG,Retrieval-Augmented Generation)或提供参考文本。

原因:模型可能产生幻觉(Hallucination),外部信息能提升可靠性。

示例:

  • 提示:在以下文本基础上回答问题:[插入参考文本]。

提供示例(Few-Shot Learning)

建议:通过提供 1-3 个输入-输出的示例,引导模型理解期望的回答模式。

原因:示例能有效传达格式和风格要求,尤其在零样本(Zero-Shot)效果不佳时。

示例:

  • 优秀:
    请根据以下示例,将语句分类为"积极"或"消极"情感:
    示例:
    • "I love this sunny day!" -> 积极
    • "This rain ruined my plans." -> 消极
    • "The movie was absolutely amazing." -> 积极

任务:对这句话进行分类:"I hate waiting in long lines."

不断测试迭代

建议:对提示词进行多次测试,观察输出效果,逐步优化措辞或结构。

原因:不同模型对提示词的响应可能不同,迭代能找到最佳方式。

示例:如果要求简短回答却得到长篇大论,可调整为"用 50 字以内回答"。

如何降低幻觉

幻觉导致的后果

  • 虚构事实
  • 答非所问

幻觉产生的原因

  • 数据偏差:训练数据中的错误或片面性被模型放大(如医学领域过时论文导致错误结论)

  • 泛化困境:模型难以处理训练集外的复杂场景(如南极冰层融化对非洲农业的影响预测)

  • 知识固化:模型过度依赖参数化记忆,缺乏动态更新能力(如2023年后的事件完全虚构)

  • 意图误解:用户提问模糊时,模型易"自由发挥"(如"介绍深度学习"可能偏离实际需求)

降低幻觉的方式

联网搜索
双AI验证/大模型协作

例如,利用DeepSeek生成答案后,再应用其他大模型进行审查,相互监督,交叉验证

提示词工程

知识边界限定:通过时空维度约束降低虚构可能性(本质:约束大模型)

  • 时间锚定法:"基于2023年之前的公开学术文献,分步骤解释量子纠缠现象"→规避未来时态虚构

  • 知识锚定法:"基于《中国药典》回答,若信息不明确请注明"暂无可靠数据支持" →限定权威来源

  • 领域限定符:"作为临床医学专家,请列举FDA批准的5种糖尿病药物"→添加专业身份限定

  • 置信度声明:"如果存在不确定性,请用[推测]标签标注相关陈述"→减少绝对化错误断言

  • 上下文提示:"根据《2024全球能源转型报告》(国际能源署,2024年1月发布)显示:"2030年光伏发电成本预计降至0.02美元/千瓦时,但储能技术突破仍是普及瓶颈。"请基于此数据,分析中国西部光伏基地发展的三个关键挑战,并标注每个挑战与原文结论的逻辑关联。 → 嵌入权威数据片段

  • 生成参数协同控制:"请以temperature=0.3的严谨模式,列举2024年《柳叶刀》发表的传染病研究"

对抗性提示:强制暴露推理脆弱点,用户可见潜在错误路径(本质:大模型自我审查)

  • 植入反幻觉检测机制: "请用以下格式回答:- 主要答案(严格基于公开可验证信息)- [反事实检查] 部分(列出可能导致此答案错误的3种假设)"

  • 预设验证条件,迫使模型交叉检查信息:"请先回答"量子纠缠能否证明灵魂存在?",然后从以下角度验证答案的可靠性: 1. 物理学界主流观点; 2. 近五年相关论文数量; 3.是否存在可重复实验证据。"

  • 链式验证:请完成以下验证链:1. 陈述观点:______2. 列出支撑该观点的三个权威数据源 3. 检查每个数据源是否存在矛盾信息4. 最终结论(标注可信度等级)

posted @ 2026-03-25 15:40  踏步  阅读(42)  评论(0)    收藏  举报