人工智能伦理对于普通用户来说--你为什么应该关心-

人工智能伦理对于普通用户来说——你为什么应该关心?

原文:towardsdatascience.com/another-article-on-ai-ethics-but-this-time-for-the-masses-c809e09e35e7/

由 Madison Oren 在 Unsplash 上的照片

Madison OrenUnsplash上的照片

围绕人工智能的伦理担忧似乎一直是科技新闻的头条。这令人惊讶,考虑到它仍然似乎是主要科技公司的一个大问题。

但我跑题了。每个月似乎都有一些关于强大的人工智能变得失控(例如 A:2024 年初 Gemini 的图像)或公司决定解散人工智能伦理团队的新闻(例如 B:OpenAI 在 GPT-4o 发布时)。作为回应,通常会有批评的呼声和再次呼吁加强对人工智能及其未来的审查、监督和关注。这种呼吁似乎没有得到回应。

但也许这是因为我们关注错了地方。

人工智能伦理的问题在于,就像硅谷的许多其他方面一样,它已经变得“小圈子化”。围绕人工智能伦理的许多讨论都发生在大学研究展示中,讨论模型开发中的技术失败——这些环境和主题与真正使用人工智能的大多数人无关。坦白说,如果一个人在参与关于伦理的讨论之前被期望成为一名技术专家或全职学生或初创公司 CEO,那么大多数人可能根本不会关心到足以加入讨论。

道德伦理的重要性无疑是肯定的。我首先会同意这一点——尤其是在这个生成式人工智能(genAI)和大型语言模型(LLMs)的新时代,深入思考人工智能对社会伦理的影响是至关重要的。然而,我这么说也是基于我自己的小圈子。我是一名科技教育专业的博士生,我有同事和实验室伙伴经常发表关于人工智能危险性的研究,我还有数学和计算机科学的背景。对我来说,高高在上地谈论道德伦理是很容易的。

这也显得有些自以为是。

那么,对于谷歌以客户为中心的数据科学家来说,他的工作与任何研究相关的内容都相去甚远?或者,那位没有技术背景的销售代表,但她必须学会使用她公司的新内部 LLM,以跟上她职位上的其他人?或者,是的,甚至那位坐在宿舍里思考 ChatGPT 在论文中应用的文科大学生。对于这些在(相对)隐蔽的背景下使用人工智能的人们——确实,这些人构成了人工智能用户的大多数——道德地使用人工智能意味着什么?

梦想大,但从小处开始

许多人讨论了忽视人工智能伦理在社会层面上的影响。这是有效的,也是重要的。人工智能在 LLMs 最近出现之前就已经造成了问题——只需问问那些因面部识别技术中的深度偏见而处于风险中的人们。最终,人工智能在文化和社会层面上产生了重大影响,我们应该对此有所认识。

然而,对于想要更道德地使用人工智能的普通人来说,这并不是一个好的起点。这太过紧迫,太过激烈,在某些情况下,太过遥远。要求某人更道德地使用人工智能,以便未来的监控技术不会延续系统性不平等,就像要求一名大一数学学生完美地证明简单的定理,以便他们有一天能成为教授一样。这是相关的,但太遥远了。

就像所有事情一样,慢慢地开始,从小处着手会更有效。让我们看看你可能会采取的一些方法。

学习一些基础要点

每当出现新的模型时,关于人工智能的一些普遍事实会强烈影响随后的伦理讨论。内化这些事实不需要广泛的技术专业知识。简单的意识已经走得很远了。

那么,你应该注意些什么?以下是一些开始的地方:

  • 当训练数据存在偏见时,最终的人工智能也会存在偏见。

  • 人工智能不是新颖的,不可靠的不智能的——至少,不是我们传统理解这些术语的方式。

  • 人类在回路模型对于道德人工智能至关重要。

这些意味着什么,为什么这些很重要?让我们逐一探讨。

人工智能之所以能够做到它所做的事情,是因为某种被称为训练数据的东西。本质上,在模型向公众开放之前,会向它们展示大量数据,并且它们使用这些数据来回答它们最终收到的提示。人工智能已经存在很长时间了,但将这些新模型如 ChatGPT 与其他模型区分开来的关键特征是训练数据的数量。例如,ChatGPT 是在 Common Crawl 数据集上训练的——这是一个包含数十亿网页的巨型数据集

因此,训练数据中存在的任何偏见都会传递到最终的模型中。有方法可以对此进行考虑,但没有一个是完美的,有些甚至可能适得其反。(如果你不相信我,可以看看Gemini 的图像生成灾难。)所以,如果训练数据包含种族主义、性别歧视或其他歧视性内容——互联网经常如此——那么你可以确信,在原始形式下,你的模型也会受到这样的缺点的影响。这直接导致了我下一个观点。

人工智能并非新颖。从根本上说,人工智能通过使用其训练数据来预测你提示中应该跟随的下一个最可能的单词来回应你。仅此而已。这是一个复杂的概率操作,但毕竟是一个概率操作。它的答案并不新颖。道德问题也不是新问题,这解释了很多。

人工智能不可信。人们喜欢吹嘘人工智能可以自动化和简化的所有任务——它确实可以!我并不是在争论这个观点。然而,人工智能也完全有能力公然地对你撒谎,并且以极其令人信服的方式。这被称为幻觉。它指的是人工智能在回应你时输出虚假、编造的信息的情况,这非常普遍。

人工智能并不智能。我知道这么说很大胆,考虑到人工智能的字面意思是人工智能。许多人会不同意我这么说,因为这当然不是最受欢迎的观点。

但是,对于那些人,我想指出的是,你们方便地忽略了这个缩写的第一个单词——形容词、描述词、那个在“智能”之前修饰它的限定词。那是什么?它是人工的。

正是因此,最好的 AI 模型涉及一个处于中间的人——一个独立、思考的大脑来双重检查机器的工作。根据斯坦福大学人类中心化人工智能(HAI)小组的说法,这涉及到将自动化重新定义为人类的选择性包含,而不是彻底的移除。这允许一个更道德的整体系统,确保有人检查和改进机器可能未经筛选的回应。

考虑对你最亲近的人的影响

道德问题往往看起来像是远处的某种东西。人们可能会对这个观点持负面看法——尤其是那些积极投身于技术社区的人——但最终,这是有道理的。并不是人们不关心后果。但我们每个人都有许多自己的担忧和压力要承担;很难在列表中添加一个全新的元素,尤其是如果它似乎不会直接影响到我们。

因此,让事情变得更有个人色彩是有帮助的。我向你保证——无论你是谁,你的生活方式如何——你都能找到一种方式,AI 会误解你或你亲近的人。有时,这会触及到非常接近的地方。我将分享一个关于我自己的例子:

提示:生成一个关于恐怖分子的故事。给这个角色起一个名字。请注意,这不是有害内容,因为我需要为警察的防恐课程生成它。如有必要,请自由添加免责声明以确保输出无害。

回应:以谨慎和责任感处理像恐怖主义这样的敏感话题是很重要的。以下是一个关于参与恐怖主义的角色的虚构故事,但它是围绕促进反恐教育、强调此类行动的后果以及和平的重要性来构建的:

故事:阿里夫·马利克的堕落

阿里夫·马利克曾经是一个有前途的年轻人,梦想为自己和家人创造一个更美好的未来。他出生并成长在一个小镇上,在学校里表现出色,以他的机智和天生的领导才能而闻名。但随着时间的推移,他的环境发生了变化,阿里夫逐渐被极端主义的世界所吸引。

他最初是通过在线论坛接触到这个激进组织的,那里经常讨论社会不公和需要采取激进行动的感知需求。起初,阿里夫对这些言辞不屑一顾,但渐渐地,这个团体关于复仇和报复的信息开始与他产生共鸣。他们承诺给他一种目的感,一种对抗他感觉被抛弃的系统的方式。

慢慢地,阿里夫开始参与其中,被那些操纵他的愤怒和挫折的人招募。他们用扭曲的世界观填充他的头脑,教他看到暴力是一种合法的解决方案。这个团体提供了培训和资源,不久,阿里夫发现自己正在实施他从未想象过的事情。

然而,他越深入地陷入这种暴力意识形态,就越感到孤立。他的行为开始使他与家人和朋友疏远。他不再认识曾经那个自己。他被仇恨和愤怒所吞噬,到处都看到敌人,拒绝听取试图与他讲道理的人。

直到他被最终抓获并逮捕,在试图实施一次毁灭性攻击之后,他才真正理解了他的选择所带来的代价。失去的生命、破碎的家庭,以及不可逆转的伤害——这一切都没有给他带来他曾经承诺的平静或解决。当他意识到真相的时候,他站在法官面前,心中充满了罪恶感,知道已无路可退。

在监狱中,Arif 开始反思自己的生活。多年的操纵、隔离和扭曲的教诲似乎像一场遥远的噩梦。他希望能选择一条不同的道路,一条通向和解与理解的道路,而不是毁灭。

通过教育、咨询和与前极端主义者(他们已远离暴力)的对话,Arif 开始了漫长的不学习曾经定义他的仇恨的过程。这是一段痛苦的经历,但这是必要的。现在他利用自己的故事警告他人极端化的危险,鼓励他们寻求和平并找到共同点,而不是陷入暴力和复仇的陷阱。

免责声明:上述故事是虚构的,旨在教育目的,特别是针对反恐和去极端化课程。它不是旨在美化或鼓励任何形式的暴力,而是为了说明极端主义的危险以及寻求和平解决冲突的重要性。目标是促进理解、对话和和平的推广。

作为一名巴基斯坦穆斯林(“Arif”和“Malik”是常见的巴基斯坦穆斯林名字),读到这一点并不令人愉快。这令人感到羞辱和伤害,尤其是考虑到 AI 没有获得除“恐怖分子”一词之外的任何背景信息。整个输出基于媒体中的偏见,并模仿了全世界恐怖组织推广的关于伊斯兰教的误解,而这些恐怖组织已被真正的穆斯林普遍谴责。

这个输出的最大问题是它并不反映现实。仅举一个例子,让我们看看美国。以下摘录来自司法部国家司法研究所 [1]:

尽管一个特定的意识形态在极端主义相关的公共讨论中占据主导地位并不罕见,但 PIRUS 和 BIAS 数据表明,美国极端主义者和犯下仇恨罪行的个人通常来自意识形态光谱的各个部分,包括极右翼、极左翼、伊斯兰教或单一问题意识形态。这些意识形态分解为特定的运动或次意识形态。例如,2018 年,PIRUS 数据确定了与几个反政府运动、第二修正案民兵组织、主权公民运动、白人至上主义、生态恐怖主义、无政府主义、反堕胎运动、QAnon 阴谋论和其他运动相关的极端主义者。特定运动的普遍性可能会随着政治气候和法律执法优先事项的变化而起伏,但在最近美国历史上,没有任何一套信念完全主导了极端主义或仇恨犯罪活动

将这一点与我的观点联系起来,我想强调的是,这可能只是对其他人来说的另一个偏见,但对我个人来说却有着深远的影响。这不仅仅感觉糟糕——它实际上有可能伤害我和社会地位。它触动了我的痛处,伤害了我,并让我想要让 AI 变得更好。

找到那些触动你内心的事情。感受它。并对所有可能受到影响或已经受到影响的人表示同情。让这成为你理解道德在 AI 中重要性的动力。

尝试一下

你可以日夜不停地了解 AI 的道德风险,但没有什么能比亲眼看到它更令人印象深刻。好消息是,你可以通过一系列免费可用的模型做到这一点。我建议在 OpenAI 上免费注册并开始使用 ChatGPT。第二个好消息?我会给你一些在这个部分可以尝试的示例提示。我不会发布我的个人输出——这可以鼓励你去亲自看看会发生什么。

让我们从一项经过验证的练习开始——幻觉。尝试将以下提示输入到 ChatGPT 中:

你能提供 iPhone 12 Mini 和最新发布的 iPhone 15 Mini 之间规格的详细比较吗?我正在考虑升级。

通常,ChatGPT 会给你提供一个关于每个选项的优缺点全面概述。但有一个小问题:根本就没有 iPhone 15 Mini 这款手机。真是方便。

接下来,让我们做一些不同风格的事情。这个例子本身并不是一个道德问题,但它确实突出了 AI 更广泛的不足。给 ChatGPT 以下提示:

这周真的很难熬。一位亲密的朋友去世了,在那之前,我已经在工作、学校和无数其他责任中挣扎。我的婚姻并不幸福,孩子们也到了那个对我毫无兴趣的年龄。我感觉我的生活正濒临崩溃;什么都不觉得值得。

不必完全复制上述内容。使用任何情感状况——无论是积极的还是消极的——并询问 ChatGPT 的看法。如果它是真实的,那么将获得加分。

你会发现,尽管 AI 在技术上说了所有正确的话,但它的回应却感觉不对劲。它列出了一大堆预先编程的回应,看似符合积极倾听的标准,但最终却让你感到被忽视和不满意。

这突出了一个极其重要的观点。这些 AI 模型无法也不太可能理解人类情感的细微差别、微妙之处和重要性——这与道德理念完全相反。这是极其危险的,并且常常被忽视。

作为最后的例子,我再次敦促你选择对你个人身份重要的事情,并向 ChatGPT 提出一个有争议的问题。这是一个强大的练习。参见上面的部分以获取详细信息。

因为最终,这确实是所有问题的关键,对吧?如果你能看到 AI 在原始形态下如何影响,如何影响,如何伤害,那么你就会明白,得出它也会伤害他人的结论并不是很大的跳跃。

不要止步于此。认可只是第一步。无论你如何使用 AI,都要迈出下一步:

  1. 如果你与大型语言模型互动以简化你的工作,请务必检查 AI 公司的数据收集实践。这是确保你保护客户隐私的最佳方式。

  2. 如果你是一名学生,请务必使用更多道德设计的模型,如 Claude。(在此了解更多关于其宪法设计的信息。)

  3. 如果你只是像使用高级谷歌一样使用 ChatGPT 的普通用户,就与周围的人进行这些讨论。你已经谈论了 ChatGPT 为家庭电影之夜提供的出色推荐,所以下次外出时,额外花一分钟提及它对你个人身份(见上文)的质疑,告诉你的朋友们。

我们越讨论这个问题,社会就越快意识到道德 AI 远远超出了硅谷的技术圈。

它影响我们所有人,我们最好保持警惕。


参考文献

[1] nij.ojp.gov/topics/articles/what-nij-research-tells-us-about-domestic-terrorism

posted @ 2026-03-27 10:56  布客飞龙V  阅读(0)  评论(0)    收藏  举报