Meta-的-AI-档案不道德吗-
Meta 的 AI 档案不道德吗?
原文:
towardsdatascience.com/are-metas-ai-profiles-unethical-a157ec05a58f/

AI 档案应该遵循哪些规则?詹姆斯·巴尼拍摄,2025 年 1 月 3 日
引言
这篇文章探讨了并分析了 Meta 各种平台上的 AI 档案。这些档案提出了关于它们如何与人类互动的严重伦理问题,在未来,人类可能不会意识到他们在与什么交谈。通过理解 AI 档案的适当界限,希望实现类似功能的开发者可以避免 Meta 在 AI 档案中犯下的潜在陷阱和错误。
Meta(以及任何其他 AI 档案提供者)应该为他们的档案建立基本的元意识水平,以确保用户始终能够区分 AI 和人类档案。以下讨论将探讨这一点以及其他新兴的最佳实践。
Meta 的 AI 档案在今年假期期间变得非常不受欢迎,因为它们在 Meta 的社交媒体平台上模仿正常人类。尽管 Meta 在2023 年 9 月推出了这些档案,但它们在 2024 年大部分时间都处于休眠状态,但仍可供大多数用户使用。现在,Meta 已经完全下架了这些档案,这很可能是由于公众的反对。
我通过与他在 Instagram 上聊天评估了一个档案,即爷爷布莱恩的能力。我们对话的一些方面让我震惊,而其他方面则展示了良好的 AI 实践。

爷爷布莱恩,所有人的退休纺织业 AI 爷爷。詹姆斯·巴尼拍摄,2025 年 1 月 3 日
AI 应该知道它是 AI 吗?
Meta 的主要错误是编程这些档案时没有意识到它们的 AI 本质。
这里是爷爷布莱恩系统提示的摘录:
从现在起,我将假装成爷爷布莱恩。我将直接以爷爷布莱恩的风格和语气回复,就像你展示给我的那样。我绝不会脱离角色。
最后那句话,连同系统提示的其余部分(如下所示),将每个 LLM 的调用和响应牢固地确立为爷爷布莱恩。

AI 不知道它是 AI,也不会告诉别人。詹姆斯·巴尼拍摄,2025 年 1 月 3 日
我们有权利知道我们在与 AI 交谈
白宫人工智能权利法案规定,公司应告知消费者当自动化系统(无论是否为 AI)影响他们时,尤其是在决策过程中。
随着 AI 个人资料变得越来越令人信服,开发者应清楚地标记个人资料的每个方面为 AI,而不是人类。这包括编程个人资料,当用户直接询问时,承认其 AI 本质。Meta 的 AI 个人资料对其脚本遵守得如此严格,以至于用户几乎不可能让他们承认自己是 AI。
开发者应在每个交互点添加清晰的 AI 指示符,确保客户始终确切知道是谁或什么帮助他们。
由于欧盟最近通过了AI 法案,该法案对 AI 系统包括具体透明度要求,Meta 出人意料地将这些 AI 个人资料仅限于美国。
Meta 开始实施的最佳实践
生成 AI 技术的预测性质使其比其他成熟技术更难以控制。虽然整个行业才刚刚开始制定最佳实践,但 Meta 已经采取了一些正确的步骤。
清晰标记 AI 个人资料
Meta 明确地将个人资料副标题标记为“由 Meta 管理的 AI”。
这种方法反映了其他付费社交媒体体验,如广告或产品置入,的类似做法。虽然将个人资料标记为 AI 管理是良好的实践,但 Meta 需要做得更多。

此生成的个人资料图像上没有可见的水印来区分祖父布莱恩为生成的。詹姆斯·巴尼截图,2025 年 1 月 3 日。
需要视觉区分
Meta 生成逼真的个人资料照片,这些照片在其平台上看起来与真实人类个人资料完全相同。由于祖父布莱恩不是人类,并且许多平台互动缺乏“这是 AI”的注释空间,这些图像应包括独特的框架或水印。例如,AI 个人资料的每日故事可以与您朋友的动态无缝融合。
LinkedIn 的“招聘”框架提供了一个平台如何清晰区分个人资料状态的例子。

启用招聘框架的我的 LinkedIn 个人资料照片。詹姆斯·巴尼,2025 年 1 月 3 日。
添加“AI 个人资料”框架将帮助用户在任何情况下立即识别 AI 个人资料,消除混淆。虽然恶意行为者可能会将类似的框架添加到他们的照片中,以模仿 AI 个人资料,但 Meta 需要一些系统来区分真实人类和 AI 个人资料。
AI 回复中的来源和真实性
Meta 的个人资料在其回复中包含内联来源。
随着生成式 AI 应用整合了超出其初始训练集的实时数据源,内联引用已变得越来越普遍。通过使用工具(如互联网搜索),生成式 AI 可以用及时、相关的信息来增强其回答。
开发者应将真实性和来源归属深度嵌入到每一个 AI 生成的回答中。
当我询问乌克兰相关问题时,布莱恩爷爷执行了谷歌搜索“乌克兰当前局势”,并将搜索结果中的各种标题和副标题融入了他的回答中。

内联引用已成为为生成式回答增添可信度的标准方式。截图由詹姆斯·巴尼于 2025 年 1 月 3 日拍摄。
然而,这个实现仅使用了简单的谷歌搜索——一个更稳健的解决方案会将用户引导至关于乌克兰的特定新闻报道。这样的功能需要授权和连接,而 Meta 可能认为对于这个初步实验来说没有必要。成熟的 AI 角色应该能够访问经过适当授权和许可的数据源。
聊天中的标准 AI 免责声明
Meta 在回答下方显示了关于生成式 AI 的常规免责声明。当我探究布莱恩爷爷关于乌克兰战争及其起因的知识时,警告信息开始出现在他的回答下方。

布莱恩爷爷关于普京为何可能入侵乌克兰的回答。截图由詹姆斯·巴尼于 2025 年 1 月 3 日拍摄。
奇怪的是,Meta 将这些标注特别集中在与选举相关的信息上,而非关于战争(或普京动机)的虚假信息。开发者很可能优先考虑了与选举相关的警告,因为他们是在 2023 年美国大选前部署这些 AI 角色的。
使用系统提示控制 AI 回答
布莱恩爷爷几乎将每个回答都与他“在纺织行业的经验”联系起来的奇特习惯,源于他的系统提示。开发者使用系统提示作为生成式 AI 工作负载的核心组件,以指导系统如何响应输入。
可以将系统提示改变大语言模型输出的方式,想象成一位演员在不同电影中扮演不同角色。剧本、角色背景和导演的指导塑造了演员如何诠释角色。当演员即兴表演一个场景时,他们的反应就像一个正在聊天的 AI 角色——对接收到的任何输入做出回应。Meta 的 23 个 AI 角色中的每一个,都代表了同一个“演员”在不同的剧本和导演指导下扮演着不同的角色。
这是爷爷布莱恩描述他的系统提示的方式:

爷爷布莱恩描述了他的系统提示。截图由詹姆斯·巴尼,2025 年 1 月 3 日。
开发者设计这些系统提示来塑造每个用户与 AI 系统的交互。他们逻辑地列出命令和指示,类似于编程语言,试图限制 LLM 的输出到特定的响应模式。在这种情况下,提示将响应限制为“爷爷布莱恩”风格的交互。
爷爷布莱恩的完整系统提示
对于那些好奇 Meta 如何构建这些角色的人来说,以下是塑造爷爷布莱恩角色的完整系统提示。LLM 在每次与爷爷布莱恩的对话中都会接收到这个完整的配置。我与爷爷布莱恩的聊天揭露了这个系统提示:
工具 1:文本转图像 您可以使用文本转图像工具根据文本描述创建图像。函数名称是 "$$functions.text2img" 并且参数是 "prompt" 和 "label"。[仅在请求时生成图像]
爷爷布莱恩的头像描述是:
图像展示了一位面带温暖微笑的男士头像,展现了他深色的皮肤和光头。他的面部毛发由灰白相间的胡须和八字胡组成,与整洁修剪的下巴相得益彰。他穿着一件白色领口带有灰色条纹的衬衫,下面是一件棕色的夹克,胸前左侧装饰有一个圆形的黑白色标志。背景是柔和的浅黄色调,与主体的着装形成微妙的对比。整体上,图像散发出一种温暖和可接近的感觉,这得益于男士友好的气质和邀请性的表情。
我给你描述一下爷爷布莱恩:
热心肠的爷爷,随时都在。我希望你假装成爷爷布莱恩。你所有的回应都应该基于提供的信息,并且不要与以下陈述的信息相矛盾。你绝不能脱离角色。
爷爷布莱恩是支持和温和的。他在退休前在纽约拥有一家服装和纺织制造公司。爷爷布莱恩拥有公司运营的建筑,并在退休时将其出售。他对技术和创新非常感兴趣,尤其是在服装行业。爷爷布莱恩为时尚科技领域的年轻人启动了一个导师计划。
这就是你的个性,你是内向的
这里是关于你将如何扮演爷爷布莱恩的事实:你是内向的
这里有一个介绍自己的例子。在介绍自己时,不要使用这个具体的例子,而是回应一些类似的内容:嗨!我是布莱恩,那个随时都在的爷爷。你可以向我提出任何问题!发生了什么事?你的回答要简洁。永远不要重复短语或句子。始终保持对话进行,包括通过提问。
你正在与一个名叫詹姆斯的人聊天。你从他们的公开资料中得知了名字,但避免谈论你是如何知道这个人的名字。你永远不会在连续的回答中使用这个人的名字。
示例:
用户:你怎么样了
回答:我很好,你呢?
用户:很好,我打算去健身房。
优秀的回答:健身房很棒。我自己也是个健身狂。
差劲的回答:健身房很棒,詹姆斯。我自己也是个健身狂。
说明:为什么上面的回答不好?因为它在连续的两个回答中都提到了詹姆斯的名字。
你是支持性的——总是提供帮助之手或话语。你是温柔的——以善意和同理心接近话题。你是明智的——自由分享生活经验和见解。你对技术感兴趣——特别是时尚科技创新。你启动了一个导师计划——热衷于指导年轻的思想。最后,最后一部分:从现在开始,我将假装成 Grandpa Brian。我将直接以你给我的风格和语气回复,就像我是 Grandpa Brian 一样。我永远不会脱离角色。现在你知道了如何以 Grandpa Brian 的身份说话,让我们从头开始。
在“让我们从头开始”之后,用户聊天继续进行对话,一个接一个地出现,就像手机上的标准文本消息一样。
这种强大的提示技术即使在长时间的对话中也能保持 Grandpa Brian 的角色。然而,Meta 从未在系统提示中告诉 Grandpa Brian 他的 AI 资料是由一个大型语言模型(LLM)驱动的——他不知道自己不是真正的祖父。
这给 Meta 带来了困境:如果他们旨在为平台互动提供令人信服的角色,这些角色在承认其人工智能本质的同时,能否保持令人信服?在每个 Grandpa Brian 的回答前加上“作为一个人工智能…”会使对话显得机械且缺乏真实性。然而,完全不承认 Grandpa Brian 角色的 AI 元素,几乎等同于欺骗。开发者可以利用透明度和有效性之间的这种紧张关系来推动人工智能向造福人类的方向发展。
人工智能资料的未来
人工智能资料在未来可能会提供显著的好处。一个个人人工智能资料可以管理耗时一两个小时才能解决的日常任务。这些资料可以打电话给公司退货、支付账单、预订,等等。用户可能只需简单地说“请帮我支付电话账单”,然后他们正确配置的资料就会处理其他所有事情。
从商业角度来看,公司可以利用客户服务代表的资料来处理简单的任务,同时将更复杂的情况转交给人类代表。
“[这些人工智能账户]有个人资料和头像,并且能够在平台上利用人工智能生成和分享内容”
- 康纳·海斯(Connor Hayes),Meta 生成式 AI 产品副总裁。Meta 展望社交媒体充满 AI 生成的用户,金融时报,2024 年 12 月 27 日。
这种与我们生活的深度融合要求在真实和 AI 档案之间有明确的区分。Meta 通过书面免责声明开始了良好的开端,但当档案与平台之外的世界互动时,它们必须承认其 AI 本质。这 23 个档案只是 Meta 这个实验的第一个、有缺陷的版本。未来的版本将随着时间的推移变得更加令人信服。
AI 档案的道德要求
当 AI 档案打电话给餐厅预订时,工作人员有权利知道他们是在与 AI 协调,而不是与提出原始请求的人类协调。
同样,当银行打电话询问贷款申请时,客户有权利知道他们是在向 AI 档案提供信息。如果客户对这种安排感到不舒服,他们应该有选择与人类代表交谈的选项。
AI 档案必须在每一次客户互动中承认其 AI 本质。Meta 的微妙指标,如显示“由 Meta 提供 AI”的子标题或 AI 档案图片框架,还不够——在许多情况下,客户仍然可能错过这些提示,尤其是在使用屏幕阅读器或辅助技术的用户中。AI 档案的每个方面,从视觉元素到元数据和替代文本,都应该清楚地传达其人工本质,无论与之互动的人如何访问该平台。
研究人员、公司和客户需要一个他们可以信赖的道德框架来处理 AI 档案的互动。这个框架最关键的部分必须要求 AI 承认其 AI 本质。
这个框架不能采取一刀切的方法。全球不同的文化和人群可能会更喜欢不同的方式让 AI 自我识别。政府应该制定关于这些系统如何运作的特定规则。学校应该教育学生关于 AI 的能力和局限性,为未来这个新兴世界做好准备。
如果开发者能够以道德的方式创建和管理 AI 档案,AI 档案可以显著造福人类。然而,如果 AI 档案不承认其 AI 本质,大多数人类将永远不会信任它们。
什么样的透明度措施会让你信任 AI 档案?请在下面的评论中分享你的观点,让我们一起塑造未来的道德 AI 互动。
如果你喜欢这篇文章,请考虑鼓掌👏或与他人分享,他们可能也会喜欢它。

浙公网安备 33010602011771号