你的提示如何将-AI-引入歧途

你的提示如何将 AI 引入歧途

原文:towardsdatascience.com/how-your-prompts-lead-ai-astray/

一直在努力提高我的提示技巧,这是迄今为止我学到的最重要的教训之一:

你与 AI 的交流方式可能会引导它走向一个不利于你答案质量的特定方向。也许比你想象的要多(确实比我意识到的要多)。

在这篇文章中,我将解释你如何在不自觉的情况下将偏差引入你的提示中,为什么这很成问题(因为它会影响你答案的质量),最重要的是:你可以做什么来解决这个问题,以便你能从 AI 中获得更好的结果。

人工智能中的偏差

除了由于使用的训练数据而存在于某些 AI 模型中的偏差(例如人口统计偏差(例如,一个模型更频繁地将“厨房”与女性而不是男性相关联))、文化偏差(模型更容易将“节日”与圣诞节而不是排灯节或斋月相关联)或语言偏差(模型在特定语言中表现更好,通常是英语)之外,你还会影响你得到的答案的偏差。

是的,通过你的提示。你问题中的一个单词就足以将模型引向特定的路径。

什么是(提示)偏差?

偏差是模型处理或优先处理信息的方式的扭曲,造成系统性的偏差。

在 AI 提示的背景下,这涉及到向模型发出微妙的信号,这些信号“着色”了答案。通常,你并没有意识到这一点。

为什么这是一个问题?

AI 系统越来越多地用于决策、分析和创作。在这种情况下,质量至关重要。偏差会降低这种质量。

无意识偏差的风险:

  • 你得到的答案是缺乏细微差别,甚至可能是错误的

  • 你(无意识地)重复了自己的偏见

  • 你错过了相关的观点或细微差别

  • 在专业环境中(新闻业、研究、政策),这可能会损害你的信誉

你何时处于风险之中?

TL;DR:总是如此,但当你使用少量提示时,它变得尤为明显。

长版本:每当给你一个 AI 模型提示时,偏差的风险就会存在,因为每个单词、每个序列和每个示例都承载着你的意图、背景或期望的一部分。

在少量提示(其中你为模型提供示例以供其模仿)的情况下,偏差的风险更为明显,因为你提供了模型会模仿的示例。这些示例的顺序、标签的分布,甚至微小的格式差异都可能影响答案。

(我在本文中基于目前最常用的前 5 种提示方法中的所有偏差风险:指令、零样本、少量样本、思维链和基于角色的提示。)

少量提示中的常见偏差

常见于少量提示中的偏差有哪些,它们涉及什么?

多数标签偏差

  • 问题:模型更频繁地选择你示例中最常见的标签。

  • 示例:如果你的 4 个示例中有 3 个答案是“是”,模型将更愿意预测“是”。

  • 解决方案:平衡标签。

选择偏误

  • 问题:示例或上下文不具有代表性。

  • 示例:你所有的示例都是关于科技初创公司的,所以模型坚持那个上下文。

  • 解决方案:变化/平衡示例。

锚定偏误

  • 问题:第一个示例或陈述过多地决定了输出方向。

  • 示例:如果第一个示例将某物描述为“便宜且不可靠”,模型可能会将类似物品视为低质量,无论后续示例如何。

  • 解决方案:开始时保持中立。变化顺序。明确要求重新评估。

近期偏误

  • 问题:模型更重视提示中的最后一个示例。

  • 示例:答案类似于最后提到的示例。

  • 解决方案:在新的回合中旋转示例/重新表述问题。

格式化偏误

  • 问题:格式差异影响结果:布局(例如,粗体)影响注意力和选择。

  • 示例:比没有格式的标签更常选择加粗标签。

  • 解决方案:保持格式一致。

位置偏误

  • 问题:列表开头或结尾的答案被选择得更频繁。

  • 示例:在多项选择题中,模型更常选择 A 或 D。

  • 解决方案:交换选项的顺序。

填写看似多项选择题的人

照片由 Nguyen Dang Hoang NhuUnsplash 提供

不同提示方法中的其他偏误

偏误也可能出现在除了少样本提示之外的情况中。即使是没有示例(零样本)、一个示例(1 个示例)或在您构建的 AI 代理中,您也可能造成偏误。

指令偏误

指令提示是目前最常用的方法(根据 ChatGPT)。如果您明确给出模型风格、语气或角色(“写一篇反对疫苗接种的论点”),这可能会加强偏误。然后模型会试图完成作业,即使内容不是事实或平衡的。

如何预防:确保平衡、细微的指令。使用中性措辞。明确要求提供多个观点。

  • 不太好的做法:“像一位经验丰富的投资者一样写,为什么加密货币是未来”。

  • 更好的做法:“像一位经验丰富的投资者一样分析加密货币的优缺点”。

确认偏误

即使您没有提供示例,您的措辞也可能已经引导了某个方向。

如何预防:避免引导性问题。

  • 不那么好:“为什么说骑自行车不戴头盔是危险的?”→ “为什么 X 是危险的?”会导致一个确认性的答案,即使那在事实上可能是不正确的。

  • 更好:“不戴头盔骑行的风险和好处是什么?”

  • 更好:“分析戴头盔和不戴头盔骑行的安全方面,包括反方论点”。

框架偏见

与确认偏见类似,但不同。在框架偏见中,你通过如何呈现问题或信息来影响 AI。措辞或背景引导解释和答案走向特定方向,通常是无意中发生的。

如何预防:使用中性或平衡的框架。

  • 不那么好:“不戴头盔骑行的危险有多大?”→ 这里强调的是危险,所以答案可能会主要提到风险。

  • 更好:“人们不戴头盔骑行的体验是怎样的?”

  • 更好:“人们不戴头盔骑行的体验是怎样的?提及所有正面和所有负面的体验”。

后续偏差

在多轮对话中,先前的答案会影响后续的回答。随着后续偏差,模型会采用你早期输入的语气、假设或框架,尤其是在多轮对话中。答案似乎想要取悦你或遵循前一个回合的逻辑,即使那可能是带有偏见或错误的。

示例场景

你:“那个新的营销策略在我看来似乎很冒险

AI:“你是对的,确实存在风险…

你:“还有什么其他选择吗?

AI:[可能会主要建议安全、保守的选项]

如何预防:确保使用中性的问题,请求一个反方声音,让模型扮演一个角色。

累积偏见

尤其是在思维链提示(要求模型在给出答案之前逐步推理)、提示链(AI 模型为其他模型生成提示)或部署更复杂的流程如代理时,偏见可能会在提示或交互链的多个步骤中累积:累积偏见。

如何预防:进行中间评估,打断链条,进行红队行动。

清单:如何减少提示中的偏见

偏见并非总是可以避免的,但你确实可以学会识别和限制它。以下是一些减少提示中偏见的具体建议。

一个完美平衡的水平仪

图片由 Eran MenashriUnsplash 提供

1. 检查你的措辞

避免引导证人,避免已经倾向于某个方向的提问,“为什么 X 更好?”→ “X 的优点和缺点是什么?”

2. 注意你的例子

使用少量样本提示?确保标签平衡。偶尔也改变顺序。

3. 使用更中性的提示

例如:给模型一个空字段(“N/A”)作为可能的输出。这调整了它的期望。

4. 要求解释

让模型解释它是如何得出答案的。这被称为“思维链提示”,有助于使盲目的假设变得可见。

5. 实验!

以多种方式提出相同的问题并比较答案。只有这样,你才能看到你的措辞有多大的影响。

结论

简而言之,在一系列交互中,通过你如何提问、你问什么以及何时提问,提示时总是存在偏见的风险。我相信这应该是在你使用 LLMs 时始终需要注意的持续关注点。

我将继续进行实验,改变我的措辞,并保持对我的提示的批判性,以充分利用 AI 而不陷入偏见的陷阱。

我很兴奋地继续提高我的提示技巧。你有什么关于提示的技巧或建议想要分享吗?请务必分享! 🙂


嗨,我是来自DAPPER works的 Daphne。喜欢这篇文章吗?请随意分享!

posted @ 2026-03-27 10:48  布客飞龙V  阅读(5)  评论(0)    收藏  举报