你的提示如何将-AI-引入歧途
你的提示如何将 AI 引入歧途
你与 AI 的交流方式可能会引导它走向一个不利于你答案质量的特定方向。也许比你想象的要多(确实比我意识到的要多)。
在这篇文章中,我将解释你如何在不自觉的情况下将偏差引入你的提示中,为什么这很成问题(因为它会影响你答案的质量),最重要的是:你可以做什么来解决这个问题,以便你能从 AI 中获得更好的结果。
人工智能中的偏差
除了由于使用的训练数据而存在于某些 AI 模型中的偏差(例如人口统计偏差(例如,一个模型更频繁地将“厨房”与女性而不是男性相关联))、文化偏差(模型更容易将“节日”与圣诞节而不是排灯节或斋月相关联)或语言偏差(模型在特定语言中表现更好,通常是英语)之外,你还会影响你得到的答案的偏差。
是的,通过你的提示。你问题中的一个单词就足以将模型引向特定的路径。
什么是(提示)偏差?
偏差是模型处理或优先处理信息的方式的扭曲,造成系统性的偏差。
在 AI 提示的背景下,这涉及到向模型发出微妙的信号,这些信号“着色”了答案。通常,你并没有意识到这一点。
为什么这是一个问题?
AI 系统越来越多地用于决策、分析和创作。在这种情况下,质量至关重要。偏差会降低这种质量。
无意识偏差的风险:
-
你得到的答案是缺乏细微差别,甚至可能是错误的
-
你(无意识地)重复了自己的偏见
-
你错过了相关的观点或细微差别
-
在专业环境中(新闻业、研究、政策),这可能会损害你的信誉
你何时处于风险之中?
TL;DR:总是如此,但当你使用少量提示时,它变得尤为明显。
长版本:每当给你一个 AI 模型提示时,偏差的风险就会存在,因为每个单词、每个序列和每个示例都承载着你的意图、背景或期望的一部分。
在少量提示(其中你为模型提供示例以供其模仿)的情况下,偏差的风险更为明显,因为你提供了模型会模仿的示例。这些示例的顺序、标签的分布,甚至微小的格式差异都可能影响答案。
(我在本文中基于目前最常用的前 5 种提示方法中的所有偏差风险:指令、零样本、少量样本、思维链和基于角色的提示。)
少量提示中的常见偏差
常见于少量提示中的偏差有哪些,它们涉及什么?
多数标签偏差
-
问题:模型更频繁地选择你示例中最常见的标签。
-
示例:如果你的 4 个示例中有 3 个答案是“是”,模型将更愿意预测“是”。
-
解决方案:平衡标签。
选择偏误
-
问题:示例或上下文不具有代表性。
-
示例:你所有的示例都是关于科技初创公司的,所以模型坚持那个上下文。
-
解决方案:变化/平衡示例。
锚定偏误
-
问题:第一个示例或陈述过多地决定了输出方向。
-
示例:如果第一个示例将某物描述为“便宜且不可靠”,模型可能会将类似物品视为低质量,无论后续示例如何。
-
解决方案:开始时保持中立。变化顺序。明确要求重新评估。
近期偏误
-
问题:模型更重视提示中的最后一个示例。
-
示例:答案类似于最后提到的示例。
-
解决方案:在新的回合中旋转示例/重新表述问题。
格式化偏误
-
问题:格式差异影响结果:布局(例如,粗体)影响注意力和选择。
-
示例:比没有格式的标签更常选择加粗标签。
-
解决方案:保持格式一致。
位置偏误
-
问题:列表开头或结尾的答案被选择得更频繁。
-
示例:在多项选择题中,模型更常选择 A 或 D。
-
解决方案:交换选项的顺序。

照片由 Nguyen Dang Hoang Nhu 在 Unsplash 提供
不同提示方法中的其他偏误
偏误也可能出现在除了少样本提示之外的情况中。即使是没有示例(零样本)、一个示例(1 个示例)或在您构建的 AI 代理中,您也可能造成偏误。
指令偏误
指令提示是目前最常用的方法(根据 ChatGPT)。如果您明确给出模型风格、语气或角色(“写一篇反对疫苗接种的论点”),这可能会加强偏误。然后模型会试图完成作业,即使内容不是事实或平衡的。
如何预防:确保平衡、细微的指令。使用中性措辞。明确要求提供多个观点。
-
不太好的做法:“像一位经验丰富的投资者一样写,为什么加密货币是未来”。
-
更好的做法:“像一位经验丰富的投资者一样分析加密货币的优缺点”。
确认偏误
即使您没有提供示例,您的措辞也可能已经引导了某个方向。
如何预防:避免引导性问题。
-
不那么好:“为什么说骑自行车不戴头盔是危险的?”→ “为什么 X 是危险的?”会导致一个确认性的答案,即使那在事实上可能是不正确的。
-
更好:“不戴头盔骑行的风险和好处是什么?”
-
更好:“分析戴头盔和不戴头盔骑行的安全方面,包括反方论点”。
框架偏见
与确认偏见类似,但不同。在框架偏见中,你通过如何呈现问题或信息来影响 AI。措辞或背景引导解释和答案走向特定方向,通常是无意中发生的。
如何预防:使用中性或平衡的框架。
-
不那么好:“不戴头盔骑行的危险有多大?”→ 这里强调的是危险,所以答案可能会主要提到风险。
-
更好:“人们不戴头盔骑行的体验是怎样的?”
-
更好:“人们不戴头盔骑行的体验是怎样的?提及所有正面和所有负面的体验”。
后续偏差
在多轮对话中,先前的答案会影响后续的回答。随着后续偏差,模型会采用你早期输入的语气、假设或框架,尤其是在多轮对话中。答案似乎想要取悦你或遵循前一个回合的逻辑,即使那可能是带有偏见或错误的。
示例场景:
你:“那个新的营销策略在我看来似乎很冒险”
AI:“你是对的,确实存在风险…”
你:“还有什么其他选择吗?”
AI:[可能会主要建议安全、保守的选项]
如何预防:确保使用中性的问题,请求一个反方声音,让模型扮演一个角色。
累积偏见
尤其是在思维链提示(要求模型在给出答案之前逐步推理)、提示链(AI 模型为其他模型生成提示)或部署更复杂的流程如代理时,偏见可能会在提示或交互链的多个步骤中累积:累积偏见。
如何预防:进行中间评估,打断链条,进行红队行动。
清单:如何减少提示中的偏见
偏见并非总是可以避免的,但你确实可以学会识别和限制它。以下是一些减少提示中偏见的具体建议。

图片由 Eran Menashri 在 Unsplash 提供
1. 检查你的措辞
避免引导证人,避免已经倾向于某个方向的提问,“为什么 X 更好?”→ “X 的优点和缺点是什么?”
2. 注意你的例子
使用少量样本提示?确保标签平衡。偶尔也改变顺序。
3. 使用更中性的提示
例如:给模型一个空字段(“N/A”)作为可能的输出。这调整了它的期望。
4. 要求解释
让模型解释它是如何得出答案的。这被称为“思维链提示”,有助于使盲目的假设变得可见。
5. 实验!
以多种方式提出相同的问题并比较答案。只有这样,你才能看到你的措辞有多大的影响。
结论
简而言之,在一系列交互中,通过你如何提问、你问什么以及何时提问,提示时总是存在偏见的风险。我相信这应该是在你使用 LLMs 时始终需要注意的持续关注点。
我将继续进行实验,改变我的措辞,并保持对我的提示的批判性,以充分利用 AI 而不陷入偏见的陷阱。
我很兴奋地继续提高我的提示技巧。你有什么关于提示的技巧或建议想要分享吗?请务必分享! 🙂
嗨,我是来自DAPPER works的 Daphne。喜欢这篇文章吗?请随意分享!

浙公网安备 33010602011771号