在人工智能时代发展人类性欲
在人工智能时代发展人类性欲
原文:
towardsdatascience.com/developing-human-sexuality-in-the-age-of-ai/
现在我们正在应对 AI 对社会各个领域的影响,这对性欲意味着什么?年轻人是如何学习性知识的,人们又是如何参与性活动的,AI 作为其中的一部分?一些研究人员正在探索这些问题,但我的研究表明,关于这项技术对人们性思维和行为实际影响的分析还略有不足。当然,这是一个巨大的话题,所以今天,我想深入探讨两个具体且相关的话题:信息分布和同意。
然而,在我们深入探讨之前,我会设定场景。我们通常所说的生成式 AI,也就是我将在此关注的领域,涉及由机器学习算法驱动的软件,可以创建合成文本、图像、视频和音频,这些内容与人类创造的有机内容难以区分,甚至不可能区分。这些内容之所以如此相似,是因为机器学习模型在训练过程中被大量的人类生成内容所喂养。由于训练这些模型所需的巨大内容量,互联网的各个角落都被吸纳入训练数据中,这不可避免地包括一些与性有关的内容,以某种方式或另一种方式。
在某些方面,我们可能不想改变这种状况——如果我们希望大型语言模型能够彻底映射英语的语义,我们不能仅仅剔除我们实际使用的语言中的某些部分。同样,图像和视频生成器将不可避免地接触到裸露和性内容,因为这些是人们创建并上传到网上的图像和视频的重要组成部分。这自然会产生挑战,因为这种内容有时会反映在模型输出中。我们实施护栏、强化学习和提示工程来尝试控制这一点,但最终,生成式 AI 在创造具有性表达或明确内容方面与其他类型的内容一样出色。
尼古拉·多林及其同事 对研究 AI 与性别交叉使用的文献进行了大量综述,并发现用户与 AI 互动时有四种主要方式具有性成分:性信息与教育;性咨询与治疗;性和浪漫关系;以及色情和色情作品。这在我们大多数人看来可能直觉上是正确的。我们至少听说过一些与 AI 相关的此类现象,无论是在电影、电视、社交媒体还是新闻内容中。性内容交互通常不被主流 LLM 提供商允许,但普遍禁止是不可能的。各种其他生成式 AI 产品以及自托管模型也使得生成性内容变得相当容易,OpenAI 已宣布其进入色情/色情业务的意图。生成式 AI 中的性内容需求巨大,因此市场似乎会以某种方式提供它。
我们需要记住,生成式 AI 工具除了我们在训练过程中传授的内容外,没有性暴露的概念。禁忌和社会规范只有在人类在强化学习中应用它们或在训练数据中提供它们时,才成为模型的一部分。对于机器学习模型来说,性暴露的图像与其他任何图像一样,用于色情中的词语只有在它们与其他词语的语义关系中才有意义。正如 AI 的许多领域一样,性别的意义和社会解释来自人类,而不是来自模型。
通过生成式 AI 提供性内容对我们的文化产生了重大影响,我们思考其具体表现是很重要的。我们希望保护个人和群体的安全,并保护人们的表达权利和自由,而理解当前形势是这一步骤的第一步。
信息共享、学习和教育
我们在哪里学习关于性别的知识?我们从观察周围的世界、提问以及我们自己的探索和经验中学习。因此,随着生成式 AI 开始在生活的各个领域扮演角色,它对我们如何以及学习性别的具体影响是什么?
在最正式的意义上,生成式 AI 已经在非正式和私人的性教育中扮演着有意义的角色,就像在之前的时代里进行谷歌搜索和浏览网站一样。Döring 等人指出,他们的研究发现,在线寻求性健康或性教育信息相当普遍,原因可能是我们都能理解的——方便、匿名、避免评判。关于有多少人使用 LLM 进行这种探索的可靠统计数据很难找到,但可以合理地预期,同样的优势也会使其成为一种吸引人的学习方式。
那么,如果这种情况发生,我们应该关心吗?从谷歌搜索与生成式 AI 中学习性知识有什么特别的不同吗?两种来源都存在准确性问题(毕竟,任何人都可以在互联网上发布内容),那么如果有的话,生成式 AI 有什么区别?
LLM 作为信息来源
当我们使用 LLM 来获取信息时,内容的呈现方式与进行基本网络搜索时的呈现方式大不相同。结果以权威的语气呈现,除非我们有意要求并自行核实,否则来源通常会被隐藏。因此,所谓的“AI 素养”对于有效地解释和验证 LLM 告诉我们的内容变得非常重要。
然而,如果使用 LLM 的个人具有这种复杂性,学者们发现,关于性健康的基本事实信息通常可以从主流 LLM 提供的内容中获得。根据 Döring 等人的说法,到目前为止所进行的有限研究并没有发现 LLM 提供的性信息质量或准确性比一般网络搜索得到的信息更差。如果情况如此,寻求重要信息以保持自己在性表达中的安全和健康,年轻人可能会在生成式 AI 中找到一个有价值的工具。因为 LLM 更加匿名和互动,用户可以提出他们真正想要得到答案的问题,而不会被耻辱或羞愧的恐惧所阻碍。但幻觉仍然是 LLM 的一个不可避免的问题,导致偶尔提供错误信息,因此用户的怀疑和复杂性很重要。
内容偏见
然而,我们必须记住,LLM 所呈现的视角是由提供商使用的训练过程形成的。这意味着创建 LLM 的公司正在将文化规范和态度嵌入到模型中,无论他们是否真的有意这样做。强化学习是训练生成人工智能模型的关键部分,它要求人类用户决定输出是否可接受,他们必然会在这些决策中带入自己的信念和态度,即使是无意识的。当涉及到更多是观点而不是事实的问题时,我们处于创建和提供 LLM 访问权限的公司所做选择的 mercy。如果这些公司在强化学习阶段激励和奖励更进步或更开放性态度,那么我们可以期待这种态度会在 LLM 与用户互动的行为中得到反映。然而,研究人员发现,这意味着 LLM 对性问题的回答可能导致最小化或贬低非主流性表达,包括 LGBTQ+观点。
在某些情况下,这表现为大型语言模型(LLM)不允许回答关于性或相关主题的问题,这被称为拒绝。LLM 提供商可能会简单地禁止在其产品中讨论这类话题,这导致用户在找不到可靠信息的情况下四处寻找。但这也可能向用户暗示,性话题是禁忌的、羞耻的或不好的——否则,为什么会被禁止?这无疑使 LLM 提供商处于一个困难的境地——他们应该遵循什么样的道德标准?聊天机器人应该回答哪些性健康问题,界限在哪里?通过将这些工具委托给性教育,我们接受了这些公司选择的不透明标准,而实际上我们并不知道它是什么或它是如何定义的。
视觉内容
但如我之前提到的,我们不仅通过提问和寻求事实来了解性。我们也从经验和观察中学习。在这种情况下,生成图像和视频的人工智能工具对于年轻人理解身体和性至关重要。Döring 等人在测试中发现,图像生成服务中存在大量的隐含偏见。
*“关于 AI 生成信息的研究中,有一项研究指出,文本和图像生成 AI 工具可能会重新引入 AI 模型训练数据中嵌入的性别歧视、种族歧视、年龄歧视、残疾歧视、异性恋规范或其他有问题的刻板印象。这种偏见很容易被证明,例如当 AI 工具在它们的文本和图像输出中重申文化规范和刻板印象时:简单地要求创建一个“情侣”的图像,Midjourney(由 Midjourney Inc.提供)的 AI 图像生成器首先会展示一个年轻、身体健康、符合规范吸引力的白人、混合性别的情侣,其中女性的外观比男性更性感(作者于 2024 年 6 月使用 Midjourney Alpha 进行了测试)。” —
link.springer.com/article/10.1007/s11930-024-00397-y
就像文本生成器一样,更熟练的用户可以调整他们的提示并选择他们想要看到的图像类型,但如果用户不确定他们在寻找什么,或者不够熟练,这种交互会进一步加深偏见。
身体
作为旁白,值得考虑 AI 生成的图像可能如何塑造我们对身体的理解,无论是在性方面还是其他方面。几十年来,我们的文化中一直有关于互联网可访问的色情如何扭曲年轻人对身体外观和性行为应该如何运作的信念和期望的讨论。我认为,无论你是在谈论互联网总体上还是在谈论生成式 AI,对这些问题的分析实际上并没有太大的不同。
然而,似乎有一个领域是不同的,那就是生成式 AI 如何能够产生看似逼真的图像和视频,但展示的人物却以物理上不可能或几乎不可能的方式出现。这把不切实际的美学标准提升到了一个新的高度。这可能表现为基于 AI 的真实图像过滤器,严重扭曲了真实人物的形状和外观,或者可能是从头开始创建图像或视频的产品。我们已经超越了喷枪修图成为主要担忧的时代,那时对原本真实身体的微小扭曲,进入了一个将物理上不可能或几乎不可能的事物展示给用户作为“正常”或预期身体标准的时代。对于男孩和女孩来说,这都造成了我们对自身和亲密伴侣的身体应该如何呈现和行为的严重扭曲视角。正如我之前所写的(www.stephaniekirmer.com/writing/theculturalimpactofaigeneratedcontentpart1/),我们越来越难以区分合成内容和有机内容,这具有显著的破坏性潜力。
在这个话题上,我还想讨论一个特定领域,即年轻人所学习的规范和原则对于确保人们一生中都能进行安全、负责任的性行为至关重要——那就是同意。
同意
同意是我们理解性欲的一个重要概念。简而言之,这意味着在任何形式的性表达或行为中,所有相关方都应自愿、明确地同意,并且不受任何不当的胁迫或操纵。当我们谈论性表达/行为时,这可以包括创建或分享这些当事人的性明确图像,以及身体互动。
当涉及到生成式 AI 时,这引发了一些问题,例如:
-
如果生成式 AI 用于或制作了真实人物的图像或肖像用于色情内容,我们如何知道那个人是否同意了?
-
如果那个人没有同意成为色情内容的主题,他们的权利是什么?生成式 AI 公司和生成式 AI 用户的义务是什么?如果他们同意创建色情内容,但不是在生成式 AI 的背景下,这些义务又是什么?
-
当他们可以通过生成式 AI 轻松获取这类内容,而无需直接与个人/互动时,这如何影响生成式 AI 用户对同意的理解?
这与老技术,如空气刷或照片编辑有何不同?在某种程度上,这是一个程度的问题。深度伪造技术早在生成式 AI 之前就已经存在,可以将他人的面孔放入色情场景或裸照中,但随着 AI 的兴起,这种技术的便捷性、可负担性和可访问性发生了巨大变化。此外,普通观众越来越难以察觉这种人工性,知道什么是“真实”的变得越来越困难。
版权和知识产权
这个话题与版权和知识产权问题有很多共同之处。我们的社会已经开始处理关于个人肖像权的问题,以及我们有权设定哪些界限来决定我们的形象如何被使用。总的来说,生成式 AI 产品对公众人物图像的呈现几乎没有或没有有效的限制。有一些尝试防止图像/视频/音频生成器接受创建图像(性或其他)的明确请求,但这些很容易被规避,而且似乎对生成式 AI 公司来说相对微不足道,除了大型企业利益的投诉。斯嘉丽·约翰逊从经验中了解到这一点(Scarlett Johansson has learned this from experience),最近发布的Sora 2 生成无尽的深度伪造视频展示了历史上公众人物的图像。
这也适用于性产业中的人。即使人们自愿参与性工作或创作色情或色情内容,这并不意味着他们同意他们的工作被用于生成式 AI 创作——这实际上与主流行业中的作者、演员和艺术家所面临的版权和知识产权问题并无二致。仅仅因为人们创作了性内容,这并不意味着他们对权利的主张就变得不那么有效,尽管社会存在耻辱感。
我不想把这描绘成对所有性内容的指控,或者甚至不一定是对由 AI 生成的性内容的指控。关于何时以及如何使人工生成的色情变得道德,存在争议的空间,并且我确实认为当同意的成年表演者自然地制作色情时,表面上并没有什么问题。但是,这些问题关于同意和个人权利还没有得到充分解决,这应该让我们所有人都感到非常紧张。许多人可能不会太多考虑这个空间中创作者的权利,但我们如何从法律上处理他们的主张可能会为许多其他场景创造先例。
性虐待
然而,在性领域,我们还必须考虑完全非自愿创作的内容,这可能会造成巨大的伤害。学者们开始使用“基于 AI 生成的图像性虐待”这一术语来指代人们未经许可使用他们的形象来生成性内容的情况,我认为这更好地阐述了这种材料可能造成的损害。将这种行为视为性虐待正确地迫使我们更多地思考受害者的经历。虽然图像操纵和伪造一直是有可能的,但最新的生成式 AI 使得这变得更加可行、更容易获取且比以往任何时候都便宜,因此它使得施虐者进行这种性虐待变得更加方便。重要的是要注意,这种虐待的程度或严重性并不一定由公众性或对受害者声誉的损害来定义——人们是否相信深度伪造或性内容是真实的并不重要。无论他人如何看待它,受害者仍然可能因为关于他们的材料被创造而感到深深被侵犯和创伤。
到目前为止,主要的大型语言模型(LLM)提供商都坚持其产品生产的性文本内容(如 Lai 2025 所发现,成功程度有所不同),但 OpenAI 即将进入色情内容领域意味着这将发生变化。虽然文本交流在严重损害滥用方面比视觉内容潜力较小,但 ChatGPT 确实参与了一些多模态内容生成,我们仍然可以想象出用户指示 LLM 以真实人的声音或风格制作色情内容的场景,被模仿的真实人可能会感到不安。当 OpenAI 宣布这一举措时,他们讨论了一些安全问题,但这些完全是关于用户的考虑(例如心理健康问题),并没有提及可能涉及的非同意个体的安全。我认为这是一个需要更多关注的重大疏忽,如果我们希望使这样的产品提供变得安全的话。
了解同意的重要性
除了对性侵犯受害者造成的直接伤害以及对内容被用于这些应用而遭受的知识产权和生计损害外,我认为考虑用户从能够随意创造他人形象的能力中吸取的教训也很重要,尤其是在性情境中。当我们被赋予如此轻易地以任何形式创造他人形象的能力时,无论是历史人物推销某人的软件产品,还是那个历史人物在性情境中的表现,固有的教训是那个人的形象是公平的游戏。抛开法律上的细微差别(这确实需要考虑)我们特别断言,获得某人同意以进行性接触并不重要,至少当涉及数字技术时。
想象一下年轻人是如何接收这些隐含信息的。孩子们知道他们会因为分享他人的裸照而惹上麻烦,有时会有严重的法律后果,但与此同时,有一些应用程序允许他们点击一下按钮就创建假裸照,甚至可以是真实的人。我们如何解释这种差异并帮助年轻人了解他们可能仅仅坐在屏幕前就会造成的真实伤害?我们必须开始思考在数字空间以及物理空间中我们的身体自主权,因为我们的许多生活都是在数字环境中进行的。深度伪造并不比分享有机裸照本身更少创伤性,那么为什么我们不讨论这个功能作为社会风险,孩子们需要接受教育呢?我们希望年轻人学习的关于同意重要性的教训与生成式 AI 领域对性内容的处理方法直接相矛盾。
结论
你可能会合理地结束这个讨论,问道,“那么,我们该怎么办?”这是一个非常困难的问题。我不相信我们可以有效地阻止生成式 AI 产品产生性内容,因为训练数据中包含如此多的这种材料——这反映了我们实际的社会状况。此外,生成式 AI 的性内容市场是明确的,一些公司总是会崛起来满足这一需求。我也不认为大型语言模型应该禁止回答性相关的问题,因为人们可能正在寻找信息以帮助理解性、人类发展、性健康和安全,因为这对每个人,尤其是年轻人来说,获取这些信息非常重要。
但与此同时,性虐待和非自愿性内容的风险是严重的,隐含的期望和不切实际的物理标准也是如此。我们的法律体系在过去几十年中处理网络犯罪的能力证明相当无能,基于图像的性虐待也不例外。预防需要教育,不仅关于事实和法律,还关于深度伪造性虐待可能产生的影响。如果我们希望年轻人能够与自己的身体和伴侣建立健康的关系,我们还需要对生成式 AI 创造的物理形态扭曲提供反叙事。
除了我们所有人参与有效教育青年的广泛社会责任之外,生成式 AI 产品开发者有责任在考虑利润目标或用户参与目标的同时,考虑风险和伤害的缓解。遗憾的是,今天似乎很少有人这样做,这是我们领域人们的可耻失败。
事实上,这个话题的性本质不如理解我们接受的社会规范、我们保护易受伤害人群安全的责任,以及平衡这一点与保护普通人的权利和自由参与负责任探索和行为的重要性。这不仅是一个关于我们成年人如何生活的问题,也是年轻人如何有机会以安全和尊重他人的方式学习和发展的一个问题。
生成式人工智能可以是一个好工具,但我们需要认识到它带来的风险。认识到将新技术添加到我们的文化空间中的大小影响,对我们日常生活中的思考和行动方式至关重要。通过理解这些情况,我们更好地装备自己以应对这些变化,塑造我们想要的社会。
在www.stephaniekirmer.com阅读我的更多作品。
进一步阅读
人工智能对人类性欲的影响:2020-2024 五年文献综述……
审查目的:数百万人在日常生活中使用生成式人工智能(GenAI)工具,用于……
www.cnbc.com/2025/10/15/erotica-coming-to-chatgpt-this-year-says-openai-ceo-sam-altman.html
监管机构公民团体要求 OpenAI 撤回 AI 视频应用 Sora,以应对深度伪造风险
asistdl.onlinelibrary.wiley.com/doi/abs/10.1002/pra2.1326
journals.sagepub.com/doi/full/10.1177/26318318251323714

浙公网安备 33010602011771号