AI-生成内容的文化影响-第二部分
AI 生成内容的文化影响:第二部分
原文:
towardsdatascience.com/the-cultural-impact-of-ai-generated-content-part-2-228bf685b8ff/

图片由Meszárcsek Gergely在Unsplash提供
在我之前的专栏文章中(In my prior column),我阐述了 AI 生成内容是如何在线上扩展的,并描述了说明为什么这种情况发生的场景。(请在继续阅读之前先阅读that!)现在让我们继续讨论这种影响是什么,以及未来可能有哪些可能性。
社交和创意生物
人类是社交生物,也是视觉生物。我们通过图像和语言了解我们的世界,我们使用视觉输入来塑造我们的思考和概念理解。无论我们是否愿意,我们都会受到周围环境的影响。
因此,无论我们多么清醒地意识到在我们自己的媒体消费生态系统中存在 AI 生成的内容,我们对这些内容的潜意识反应和反应将不会完全在我们控制之下。正如俗话所说,每个人都认为自己对广告免疫——他们太聪明了,不会被某个广告主管牵着鼻子走。但广告仍在继续!为什么?因为它有效。它促使人们做出他们否则不会做出的购买选择,无论是仅仅通过增加品牌可见性,还是通过触动情感,或其他任何广告技巧。
AI 生成的内容最终可能类似,尽管方式可能不那么受控。我们都倾向于相信我们不会被某个在聊天框中生成文本的 LLM 机器人所欺骗,但无论是微妙还是明显的方式,我们都在持续暴露中受到影响。尽管广告确实对我们有效可能令人震惊,但考虑到广告中潜意识或微妙的效果是由广告创作者设计和有意推动的,这一点值得考虑。在生成式 AI 的情况下,无论内容的目的如何,创造内容的大部分内容都是基于使用历史信息来选择最有可能吸引其训练数据的特征的算法,而人类演员对模型生成的内容的控制力较弱。
我的意思是说,生成式 AI 的结果经常让我们感到惊讶,因为我们并没有很好地适应我们历史真正告诉我们的内容,我们通常也不会考虑我们编写的提示的边缘情况或解释。AI 在数据中发现的模式有时对人类来说是完全看不见的,我们无法控制这些模式如何影响输出。因此,我们的思考和理解正受到我们不完全理解且无法总是控制的模型的影响。
批判性思维
此外,正如我提到的,公共批判性思维和批判性媒体消费技能正努力跟上 AI 生成内容,以便我们能够像情况所要求的那样具有辨别力和深思熟虑。类似于 Photoshop 的发展,我们需要适应,但尚不清楚我们是否有能力做到这一点。
我们都在学习 AI 生成内容的明显迹象,比如图像中的某些视觉线索,或者文本中的措辞选择。如今,普通互联网用户在短短几年内就学到了大量关于 AI 生成内容是什么以及它看起来像什么的知识。然而,用于创建这种内容的模型的供应商正在努力提高其性能,使这些线索更加微妙,试图缩小明显由 AI 生成和明显由人类生产的媒体之间的差距。我们与 AI 公司展开了一场竞赛,看他们是否能比我们更快地学会识别他们的输出。
我们与 AI 公司展开了一场竞赛,看他们是否能比我们更快地制造出更复杂的模型。
在这场竞赛中,我们是否能够赶上还不清楚,因为人们对模式和审美数据的感觉有限。(如果你持怀疑态度,可以尝试检测 AI 生成的文本:roft.io/) 我们无法像模型那样逐像素检查图像。我们无法一眼就独立分析文档中的词汇选择和频率。我们可以也应该构建帮助我们完成这项工作的工具,并且有一些有希望的方法,但当我们只是面对一张图片、一段视频或一段段落时,我们只有我们的眼睛和大脑与内容对抗。我们能赢吗?目前,我们经常不能。人们每天都在被 AI 生成的内容所欺骗,对于每一篇被揭穿或揭露的文章,肯定有许多我们未察觉地滑过的。
需要记住的一个启示是,这不仅仅是“人们需要更加挑剔”的问题——事情并没有那么简单,如果你每次遇到 AI 生成的材料或深度伪造时都没有捕捉到,这并不全是你的错。这被故意变得越来越困难。
加上,还有机器人!
因此,生活在这个现实世界中,我们必须应对一个令人不安的事实。我们无法相信我们所看到的,至少不是我们习惯的那种方式。然而,在许多方面,这并不是什么新鲜事。正如我在本系列的第一个部分所描述的,我们内心深处都知道,照片可能会被操纵以改变我们对它们的解释和我们对事件的感知。报纸和广播自发明以来就一直在传播骗局。但有一点不同,因为竞争——骗局正在迅速且激烈地出现,总是变得越来越复杂,越来越难以察觉。
我们无法相信我们所看到的,至少不是我们习惯的那种方式。
此外,还有一个额外的复杂性层面,那就是我们看到的很大一部分 AI 生成内容,尤其是在社交媒体上,是由机器人(或新生成 AI 术语中的代理)创建和发布的,目的是为了参与农场/点击诱饵/诈骗和其他目的,正如我在本系列的第一个部分所讨论的。我们通常与负责我们看到的内容的个人相隔数步之遥,他们使用模型和自动化作为工具来生产内容。这模糊了内容的来源,并可能使通过上下文线索推断内容的虚假性变得更加困难。例如,如果一条帖子或图片看起来太好(或奇怪)以至于不真实,我可能会调查发帖者的动机,以帮助我判断我是否应该怀疑。用户是否有可信的历史,或者有值得信赖的机构联系?但万一发帖者是一个假账户,有 AI 生成的头像和假名字呢?这只会给普通人尝试识别虚假性并避免诈骗、深度伪造或欺诈增加挑战。
作为补充,我也认为我们持续接触未标记的机器人内容会带来普遍的损害。当我们面前越来越多的社交媒体内容是虚假的,而“用户”可能是令人信服的机器人时,我们可能会最终使所有除了我们现实生活中认识的人之外的社会媒体互动都变得非人性化。人们已经通过电脑屏幕努力实现人性化并产生同理心,因此长期以来在线评论部分、社交媒体帖子等问题上存在滥用和虐待。人们在网上对人类的麻木感是否会加剧,并降低他们对人和模型/机器人/计算机的反应方式吗?
现在怎么办?
我们作为社会应该如何回应,以尝试防止被 AI 生成的虚构故事所欺骗?无论个人付出多少努力或“做好你的作业”,都不一定能让我们摆脱这种困境。AI 生成内容中的模式和线索可能对人类眼睛来说是不可检测的,甚至对构建模型的人来说也是不可检测的。你通常会在网上搜索以验证你所看到或读到的内容,但这些搜索本身充满了 AI 生成的内容,因此它们越来越不可信。我们绝对需要照片、视频、文本和音乐来了解我们周围的世界,以及与他人建立联系和理解更广泛的人类经验。即使这个材料池正在被毒化,我们也不能停止使用它。
对于我认为接下来可能出现的各种可能性,这有助于解决这个困境。
-
AI 因资源问题而失去人气或失败。有很多因素威胁着生成式 AI 在商业上的增长和扩张,而这些因素大多不是相互排斥的。生成式 AI 很可能因为 AI 生成的内容渗透到训练数据集中而遭受一定程度的中断。经济挑战和/或环境挑战(电力不足、自然资源或投资资本)都可能减缓或阻碍 AI 生成系统的扩张。即使这些问题不影响生成式 AI 的商业化,它们也可能成为技术进一步发展的障碍,超过人类容易检测到的程度。
-
有机内容成为高端产品并吸引新的市场吸引力。如果我们被 AI 生成的内容所淹没,那么这些内容就会变得廉价且质量低下,但有机、人类产生的内容的稀缺可能会推动对其的需求。此外,对 AI 的抵制已经显著增长。当客户和消费者发现 AI 生成的材料令人反感时,公司将会转向适应。这与一些观点相符,即 AI 正处于泡沫中,过度的炒作最终会平息。
-
技术工作挑战了人工智能的负面影响。在无法自行区分有机内容和生成内容的地方,检测模型和算法将是必要的,在这方面的工作已经在进行中。随着生成式人工智能的复杂性增加,这使得这一点变得必要,这些检测模型的商业和社会市场可能会发展。为了实现这一点,这些模型需要比现在更准确得多 ——我们不希望依赖于明显糟糕的模型,例如现在在教育机构中用于识别学生论文中生成式人工智能内容的那些模型。但是,在这个领域正在进行大量工作,因此有理由保持希望。(我在本文末尾的注释中包含了一些关于这些主题的研究论文。)
-
监管努力扩展并变得更加复杂。监管框架可能发展到足以帮助遏制生成式人工智能带来的过度和滥用。为人工智能代理和机器人建立问责制和来源将是迈出巨大积极一步。然而,所有这些都依赖于世界各地政府的效果,这始终是不确定的。我们知道大型科技公司有意对抗监管义务,并且拥有巨大的资源来做这件事。
我认为生成式人工智能将继续以 2022-2023 年看到的速度继续发展,除非开发出显著不同的训练方法。我们有机训练数据正在减少,向问题投入更多数据正显示出收益递减,成本高昂。我对人工智能生成内容的普遍性感到担忧,但我(乐观地)不认为这些技术将以后以超过缓慢渐进的速度发展,原因我在之前写过。
这意味着我们努力调节生成式人工智能的负面影响有一个相当明确的目标。虽然我们继续在检测人工智能生成内容方面遇到困难,但如果技术专家和监管机构付出努力,我们就有机会迎头赶上。我还认为,我们努力对抗这种人工智能“垃圾”带来的怀疑主义至关重要。我爱机器学习,我很高兴成为这个领域的一部分,但我也是一名社会学家和公民,我们需要照顾我们的社区和我们的世界,同时追求技术进步。
在www.stephaniekirmer.com上阅读我的更多作品。
进一步阅读
检测人工智能可能是不可能的。这对教师来说是一个大问题 – 可信研究所
dl.acm.org/doi/pdf/10.1145/3637528.3671463
iris.uniroma1.it/bitstream/11573/1710645/1/Maiano_Human_2024.pdf

浙公网安备 33010602011771号