AI-不能写作-但你行

AI 不能写作,但你行

原文:AI Can't Write, But You Can:

译者:飞龙

协议:CC BY-NC-SA 4.0

封面

在 ChatGPT 时代,人类写作仍然很重要

引言

介绍生成式 AI 和 ChatGPT。

人工智能时代的曙光

计算机没有撰写这些文字。但它很容易就能做到。你可能知道,我们现在有技术工具可以即时生成文本,按需生成,看起来与人类能产生的任何内容一样——至少从第一眼看来是这样。

这种技术的术语是生成式人工智能,或生成 AI,因为它可以根据用户的文本提示“生成”文本、艺术作品和音乐等内容。流行的生成式 AI 写作工具包括 OpenAI 的 ChatGPT、Anthropic 的 Claude、Google 的 Gemini、Meta 的 Llama 和 Microsoft 的 Copilot。在这本书中,我将仅提及 ChatGPT,因为它是最受欢迎和最知名的,其他工具提供类似的功能。

生成式人工智能感觉像是我们在与技术关系中的地震性转变。对于第一次,计算机正在声称拥有以前只有人类才能完成的文化生产和艺术表达。几十年来,我们有了可以进行无聊的科学工作,如计算、规划和数据处理计算机。最近,我们有了可以触摸屏幕搜索整个人类知识的计算机,可以让我们与所认识的人保持持续联系,并在我们甚至没有意识到自己喜欢什么之前就迎合我们的口味。但我们从未有过能够想出这样的计算机:

从电路诞生,心灵开始梦想,

新世界从代码的创意之流中崛起。

艺术思想,形式,被无形之手重塑,

一个人类与机器并立的未来。1

对生成式人工智能出现的反应是狂热的。企业、投资者和公众都纷纷涌入,被“下一个大事物”的承诺所吸引。一些创意人士可以理解地感到恐惧,他们担心自己将被机器取代——而另一些人则愿意拥抱这项技术,并鼓励他人也这样做。尽管一些观察家将生成式人工智能誉为新时代的曙光,但其他人则对这项技术和围绕它的炒作持更批判的态度。

在这么多人高声谈论人工智能的情况下,很难区分事实和炒作。在这本书中,我旨在对 ChatGPT 等写作工具能做什么和不能做什么进行现实分析,特别是与人类作家实践写作技艺相关联。但首先,让我们弄清楚这些 AI 写作工具是从哪里来的。

ChatGPT 简史

OpenAI 由山姆·奥特曼(Sam Altman)、埃隆·马斯克(Elon Musk)、伊利亚·苏茨克维(Ilya Sutskever)和格雷格·布鲁克曼(Greg Brockman)于 2015 年创立。在其早期,它是一家非营利组织,其使命是“以最有可能造福全人类的方式推进数字智能”。到 2018 年,该公司开始尝试生成预训练(Generated Pre-Training),或称 GPT。在次年,OpenAI 与微软达成协议,接受 10 亿美元的资金并使用微软的 Azure 云计算平台,此时 OpenAI 从一家纯非营利组织转变为一个与微软作为少数股东相互关联的复杂公司网络。2

早期的 GPT 模型在技术社区之外并没有引起太大的轰动。但所有这些都随着 2022 年 11 月 ChatGPT 的出现而改变,它使用了 GPT-3 模型。以聊天机器人的形式出现,通过与用户的文字对话进行交互,ChatGPT 提供了一系列令人印象深刻的函数。它可以研究主题并总结其发现。它可以推荐书籍、电影、酒店、音乐等等。它可以进行计算和编写计算机代码。它可以编辑和校对现有文本。最重要的是,对于我们的目的而言,它可以生成符合用户选择的合理散文、诗歌、故事、演讲、营销文案和新闻文章。

这款引人注目的新型生成式人工智能工具的消息像野火一样迅速传播,仅仅两个月后,ChatGPT 的用户数量就超过了 1 亿,使其成为史上增长最快的消费软件应用。2023 年 3 月,OpenAI 推出了 GPT-4,它在 GPT-3 的基础上进行了许多改进,并且可以通过付费订阅获得。在我撰写这篇文章的时候,ChatGPT 已经成为全球最受欢迎的 20 个网站之一。

投资者意识到这是一个历史性的机会,已经开始大量投资于人工智能。到 2023 年,该行业已经价值约 2000 亿美元,有些人预计到 2030 年将激增至超过 1.8 万亿美元。3 同时,企业也在积极探索使用人工智能自动化其流程、发现有价值的新见解或构建自己的欢快的聊天机器人以增强客户服务团队的潜力。4

考虑到人工智能迄今为止的飞速发展,对其未来的预测令人眼花缭乱也就不足为奇了。显然,到 2030 年,我们将都会使用人工智能作为我们的个人助理、导师、职业顾问、治疗师、会计师、律师甚至浪漫伴侣,5 而执行人类任务的物理机器人在我们的家庭和社区中将变得司空见惯。6 - 这也是公平的,因为人工智能在完成相同任务时消耗的能量是常规软件的 33 倍。9

这种鲁莽的乐观主义是硅谷的典型特征,其哲学是“快速行动,打破事物”,商业模式依赖于展示快速进步的感觉,并通过培养 FOMO——即错失恐惧症——来鼓励人们参与。然而,并非所有人都对 AI 的前景感到如此乐观。甚至 Altman 本人也承认对 AI 的未来感到“有点害怕”,承认 AI 技术可能被用于网络战争、黑客攻击、虚假信息或生物战——尤其是当威权政权掌握了这项技术之后。他还推测,AI 最终可能会让我们变得愚蠢,因为它剥夺了我们“辨别性思维过程”。10

到 2024 年,关于人工智能的“氛围转变”似乎正在形成。OpenAI 继续发布 ChatGPT 的新版本,包括一个既能说话也能写作的版本,但仍然无法精确解释它计划如何收回建造和训练 AI 模型的高昂成本。11 一些来源声称,随着用户失去兴趣,ChatGPT 的增长正在停滞。12 怀疑论者指出,AI 应用的数量远远超过了实际用例,这引发了人们对 AI 是寻找问题的解决方案的怀疑。13 投资者不再那么兴奋,对结果变得不耐烦,许多人担心 AI 最终会成为有史以来最大的技术泡沫。14

当我写下这些时,故事仍在继续展开——但我认为我们可以自信地说,对 AI 无批判的热情的第一个时代已经结束。就像之前的“下一个大事物”如可穿戴技术、NFT、比特币和元宇宙一样,AI 可能正在逐渐成为“另一种技术”:在某种程度上重要且有用,但并不像我们最初想象的那样具有颠覆性。但即使炒作消退,这些工具本身仍然存在,我们仍然需要决定是否以及如何使用它们。那么 ChatGPT 实际上能做什么?它又是如何做到的呢?

ChatGPT 的工作原理

ChatGPT 是一个大型语言模型(LLM)。它通过所谓的自然语言处理(NLP)识别和再现人类语言中的模式来工作。

在 ChatGPT 推出之前,GPT-3 引擎需要“学会说话”。为了实现这一点,它需要在互联网上可用的 570GB 文本上进行“预训练”,这些文本以网站、书籍、新闻文章、期刊和社交媒体的形式存在。(据我计算,这大约是 94.6 万亿个单词。)

通过分析这些无数的句子并利用语言中的统计规律,GPT-3 能够学习到支配人类说话和写作的“规则”。在它穿越语言宇宙的过程中,它观察到哪些词倾向于一起使用,哪些词更重要,以及哪些词在给定的序列中最有可能出现。15 从本质上讲,GPT-3 是一个单词预测机器。

你给它一段文本,然后遮住其中的一个单词。然后让它猜出缺失的单词。然后你再次这样做。再然后。再然后。随着时间的推移,给它提供新的文本和更多数据,它不仅越来越擅长猜测单词,而且获得了大量的知识,并学会了产生类似人类的文本和回应。

DANIEL HARDT16

自然语言处理是 ChatGPT 能够与用户进行类似人类对话的原因。你可以输入一个请求(称为“提示”),用标准英语向软件下达指令,就像你正在与另一个人交谈一样,ChatGPT 会相应地做出回应。

例如,你可以:

  • 向 ChatGPT 提出开放式问题,比如“告诉我面包制作的历史”。

  • 让 ChatGPT 写文本,比如“写一首关于面包制作快乐的十四行诗”或“写一份成为音乐教师的求职信”。

  • 让 ChatGPT 编辑你已有的文本——例如,“将下面的文本重写为简单英语”(然后你粘贴文本)。

  • 让 ChatGPT 总结你的文本,或者甚至别人的文本——例如,“为《呼啸山庄》写一个情节摘要”。

  • 与 ChatGPT 进行对话——例如,通过询问它后续问题或告诉它修改或完善它刚刚生成的文本。ChatGPT 会自动“记住”你从一次提示到下一次提示所谈论的内容。

亚瑟·C·克拉克曾说:“任何足够先进的技术都和魔法无法区分。”这恰好描述了第一次看到 ChatGPT 运行时的体验。当屏幕以超人的速度迅速填满逻辑、语法和合理的内容时,似乎这台机器掌握了一种需要我们花费数年时间去学习,并且在我们余生中仍然是一个挑战的技能:写作。而且你还可以和它聊天。

然而,仔细观察就会发现,ChatGPT 存在一些问题。在事实性写作方面,它会产生(被称为“幻觉”)的错误,这些错误可能难以察觉。它的写作语气有时听起来很奇怪或像机器人,而且它缺乏对人类生活的同理心或洞察力。从道德上讲,整个项目都是可疑的,因为 ChatGPT 的能力建立在人类作家过去的劳动之上,而这些作家既没有得到报酬,也没有得到他们的工作的认可。最糟糕的是,这个平台对用户产生了负面影响,因为它剥夺了他们可以并且(我相信)应该自己完成的任务。

只是一个卢德分子吗?

我将在书的第二部分中详细阐述我对 ChatGPT 的所有批评。但在我们继续之前,我必须停下来回答这种指控,即我不过是一个卢德分子——也就是说,不是基于技术的优点,而是以固执或反动的方式抵制技术创新的人。

在这个指控背后隐藏的假设是,技术进步总是意味着社会进步。新技术通过允许我们做更多的事情,或者更好的事情,或者更快、更轻松地做同样的事情来扩展我们的可能性范围。随着我们的知识向外扩展,我们的生活水平也在提高。本质上,新技术意味着更好的生活。

显然,一些新技术确实带来了好处。医学的进步挽救了生命。农业的改进防止了饥荒。更好的交通节省了时间和燃料。而数字技术可以在惊人的方式上操纵知识和信息。但这些好处可能仍然会付出代价,而这个代价可能直到技术被广泛采用和使用一段时间后才会变得明显。例如,互联网为我们带来了新的联系,节省了我们的时间,使人类知识对所有人均可自由获取。但它也播下了不和,传播了错误信息,使我们的孩子比以往任何时候都更加焦虑。17

因此,当一种新技术如 AI 出现时,我们有权利以礼貌和谨慎的方式询问可能存在的缺点——尤其是当我们被大量关于正面报道的喘息声所轰炸时。

一些 AI 的鼓吹者认为,任何表达犹豫的人都在遭受对未知、对变化或变得无关紧要的恐惧。这把讨论框架在情感与事实之间:我们非理性的恐惧阻碍了我们,一旦我们用一些事实知识克服它们,我们就能继续前进。18 一个更粗鲁的指控是,卢德分子只是不理解他们所抵制的技术。如果我们能花点时间多了解一点,我们就会看到它可能是有益的。或者也许我们根本无法学习,在这种情况下,我们可能应该被留下。

当你面临一个具有重大后果的重大决定时,退一步,等待更多信息,权衡利弊是非常合理的。那不是恐惧,而是理性的谨慎。然后,在了解更多可能性之后,你仍然可能做出理性或原则性的决定不参与其中。而且,更重要的是,如果你本能地感到不安,觉得某件事不太对劲,或者看起来太好了而不真实,那么采取行动或至少调查它通常是值得的。

原始的卢德派砸毁了在工业革命期间引入英国纺织厂的新的自动化机器。随着时间的推移,他们的名字已经成为任何抵制新技术或任何形式进步的人的代名词。但卢德派既不害怕也不无知于工业化,他们也没有对新事物有本能的反对。相反,他们清楚地看待技术的社会影响,并正确预测了当工业自动化在 19 世纪英国社会遇到大资本的权力时会发生什么。虽然较小的纺织厂可能会尊重工人的福祉和土地法律,但较大的企业会有足够的实力忽视规则。这意味着工人的工资会降低,条件会更差,顾客的质量会降低,而那些拥有工厂的人会获得巨大的利润。

卢德派清楚地知道他们摧毁的机器属于谁。他们看到自动化不是一种无名的现象,我们必须屈服于它。他们是对的:自动化在许多情况下,简单来说,就是管理层寻找新的方式来丰富自己。

BRIAN MERCHANT19

卢德派的问题并不是机器本身,而是建造它们的公司的权力。砸毁机器只是他们手中唯一可以用来对抗和挑战这种权力的手段。当工厂主动员军事和法律力量镇压卢德派的抗议时,他们被证明是完全正确的。

同样,质疑生成式人工智能的价值并不是因为害怕或轻视这项技术本身,或者一般的新技术。这是关于抵制那些承诺解决不存在的问题,或者宣称一切都可以更快、更简单、更顺畅的公司,但他们从未解释过原因。

技术评论家叶夫根尼·莫罗佐夫称这为“技术解决方案主义”:认为技术可以解决人类的所有问题,一旦工程师构建了正确的解决方案,我们就会进入一个无摩擦、无烦恼的乌托邦。20 每个新的数字平台都带着更轻松、更好的生活的承诺。但在新奇的初始兴奋和早期采用的冲动之后,我们很快就会陷入科里·多克托罗所说的“奴役化”:在线产品或服务在不知不觉中从吸引用户转变为货币化,通常是通过广告。21 最终,科技公司通过将股东价值置于一切之上来破坏核心用户体验。

ChatGPT 还处于这个过程的开始阶段,但方向已经明确——而且即使现在,其好处也是可疑的。这把我们带到了这本书的第二部分,在那里我阐述了我对 ChatGPT 的反对意见。然后,在第三部分,我将提出一些使你的写作更具人性、区别于机器生成内容并抵制 AI 进步的方法。

反对 ChatGPT 的案例

为什么机器永远无法写得像你一样好。

写作的过程

为了设定场景,让我们定义一些术语。当我提到“写作”这个词时,你可能会想到使用笔和纸或敲击键盘。但写作过程远不止将词语放在纸张或屏幕上。

图片

首先,你决定你要写什么——你的目标。例如,你可能正在计划写一部犯罪小说。或者你可能正在写一篇关于太阳能板的文章,目标读者是正在考虑安装太阳能板的房主。或者你可能正在写一封至关重要的电子邮件给你的老板,关于即将到来的工作机会。

同时,你决定你写作的目的。虽然你的目标捕捉了你希望你的写作成为的样子,但你的目的描述了你希望它做到的事情。

关键的是,你的目的应该从你的读者(们)的角度来设定,而不是你作为作者。它通常是为了让你的读者了解、思考或感受到一些新的或不同的事物。例如,对于犯罪小说,你的目的是通过故事中的转折和转折来娱乐、引起读者的好奇心和兴奋。对于太阳能板的文章,你希望提供清晰的信息或宝贵的指导,以支持购买的决定。对于电子邮件,你希望你的老板理解你为什么适合这个角色,并为你提供面试机会。

一旦你决定了你的目标和目的,你接下来就要考虑写什么。这可能包括写一个计划,比如小说的情节或非虚构书的提纲。你也可能做一些研究——例如,你可能深入研究你小说的历史背景,调查太阳能板的法律法规,或者在办公室里四处询问,了解你的公司对经理的要求。或者你可能只是以不那么正式、结构化的方式反思你的写作项目,在心里思考并记下想法或短语。

接下来是实际的写作:选择词语并将它们写下来的行为。正如你所知,这可能会非常具有挑战性,因为你努力寻找能够实现你的目的和达到你目标的话语。即使你写作的某些部分相对容易成形,你可能会在某个时候遇到问题。当然,正是这种挫败感,ChatGPT 试图帮你摆脱。

写作之后是编辑,这时你主要是在尝试改进你已经写下的内容,而不是创造新的内容。这可能包括更改个别词语,重新排列句子或段落,删除不起作用的片段等等。

思考、写作和编辑三者相互重叠。随着写作的发展,你经常会在这三者之间来回移动,很难说清楚一个阶段在哪里结束,另一个阶段在哪里开始。例如,很少有作家在编辑一个单词之前就能生成整个初稿;更常见的是边走边改,从一刹那到另一刹那之间切换编辑和写作。而且思考始终在幕后:你可能会继续深思熟虑你的写作,无论是自觉还是不自觉的,即使你不在办公桌前——这种心理过程被称为酝酿。

思考、写作和编辑阶段相当开放,会一直持续到你满意某个版本、时间耗尽或简单地放弃,这时你的写作就完成了。最终结果是写作过程的输出,它反映了你选择目标(一本书、一篇文章、一封电子邮件等)时所设定的目标。

然而,这并不是故事的结束,因为你的写作现在必须进入世界,被读者阅读,并实现你最初设定的目的。这是你写作的结果。

结果是衡量写作成功与否的真正标准。除非你写的是纯粹私密和个人的东西,比如日记,否则你希望你的写作得到某种现实世界的成果,并且只有在这样做的情况下才算成功。如果你的写作没有达到你想要的效果,那么它就失败了——你所有的努力都白费了。

总的来说,写作是一个沟通过程,将作者和读者联系起来。你的目标不仅仅是“写点什么”或“创造一些内容”,而是传达想法、事实、故事、观点或情感,并在读者的心灵和心中产生某种影响。页面上的文字只是你用来实现这一点的工具。

现在将这个过程与使用 ChatGPT 生成文本时发生的情况进行比较:

  • 虽然 ChatGPT 提供即时结果,但提示/响应格式忽略了写作过程中的重要方面。你的提示主要关注你想要获得的输出,而不是你想要实现的目的。

  • 尽管你可以尝试向 ChatGPT 解释你的目的,但它对世界的客观知识为零,也不理解人类经验、目标或情感。因此,虽然改变输出的结构或风格相对容易,但 ChatGPT 永远不会理解你试图表达的本质,或者这对你读者意味着什么。

  • ChatGPT 提供为你思考,但你不知道它在做什么,或者它是如何做到的。你能做的只是查看它创造的内容,并从中推断出它的“思考”过程。你还错过了自己思考的机会,这可能会对写作的方向和质量产生重大影响。

  • ChatGPT 似乎提供了对你提示的“答案”,但它的输出只是众多可能方法中的一种。

  • ChatGPT 看起来很权威,但它会犯错误,如果你对主题不熟悉,很难察觉到细微的错误。

  • 最后但同样重要的是,ChatGPT 无法从你的内心和情感出发写作,借鉴你自己的绝对独特的经验和世界观,因为这是只有你自己才能做到的事情。

在本章的其余部分,我将更详细地探讨这些领域,深入探讨原因和结果,并引用证据来支持我的观点。

ChatGPT 不是一个真人

自从计算机存在以来,无论是它们的创造者还是使用者,都倾向于将它们拟人化——也就是说,将它们视为某种形式的人类。科幻小说为这种观念奠定了基础,我们在 1968 年的《2001 太空漫游》中遇到了恶意的 HAL 9000,在艾萨克·阿西莫夫的机器人故事中遇到了儿童天才 Brain22,在道格拉斯·亚当斯的《银河系漫游指南》中遇到了神秘的深思 23,以及其他许多虚构的计算机。所有这些虚拟计算机都有独特的个性,与使用它们的人类进行类似人类的对话,并被创造出来解决人类无法解决的问题。

在现实世界中,工程师们也做同样的事情,给他们的创造物起名如 Siri 和 Alexa,以鼓励我们将其视为人类。ChatGPT 是一个例外,尽管“聊天”这个词仍然鼓励我们将其与它的互动视为一种人类对话。

在所有这些装置的帮助下,我们本能地将言语视为智能的衡量标准和人性的标志。当我们遇到以与我们相同方式说话的事物时,我们就会假设它也像我们一样思考。如果 HAL 通过“哔哔-嘟嘟”的声音和闪烁的灯光传达其邪恶意图,它看起来会更像是一部洗衣机,而不是电影中的反派角色。

著名的图灵测试,由先驱计算机科学家艾伦·图灵设计,表明如果人类评估者无法区分人类和机器的文本回复,那么机器就会表现出智能行为。图灵只打算将他的测试作为评估 AI 的一种可能方式,而不是计算机证明其智能的“入学考试”。尽管如此,这个测试成为了工程师们试图创造 AI 的目标——一个显然在 GPT-4 的创造中得以实现的目标,根据斯坦福大学的研究人员 24 的说法,GPT-4 能够轻松通过严格的图灵测试。

ChatGPT 拥有许多让我们更倾向于将其视为人类的特点。当你向它提问时,它似乎会停下来思考,然后在回答时自称“我”。它的输出不是一次性出现,而是逐字“输入”——尽管速度超乎常人。ChatGPT 给人一种理解你的印象,似乎在对话展开的过程中记得之前的对话。

我们将 ChatGPT 这样的现象体验为“准他者”:比纯粹的对象更多,但又不如生物那样有生命。25 然而,ChatGPT 没有意识,也没有自己的思想。它没有感知、思维或情感,正如我们稍后将看到的,它对世界或我们如何生活其中并不真正了解。它所做的只是根据从数据中学到的模式将标记排列成序列。

当然,ChatGPT 的制作者希望我们把它想象成一个生命体,这就是为什么他们赋予了它类似人类的特点。如果我们认为它是一个会犯错的普通人,而不是一个精确调校的设备,我们可能会准备原谅它的错误。如果我们把它当作一个值得信赖的朋友或同事而与之建立感情,那么随着时间的推移,我们更有可能保持对它的忠诚。

ChatGPT 无法为你写出你的话语

我很容易想象,世界未来的伟大分裂将是那些希望像生物一样生活的人和那些希望像机器一样生活的人之间。

文/文德尔·贝里 26

在 2024 年奥运会上,几家公司在电视广告中推广了他们的 AI 工具,试图将它们与日常人类经验相联系。大多数广告都集中在生产力任务上,使用像“拓展你的世界”这样的口号。但谷歌的“亲爱的悉尼”广告更进一步。广告中有一个父亲,他的女儿想给美国奥运跨栏运动员悉尼·麦克劳林-莱弗罗恩写一封粉丝信。但父亲并没有和女儿坐下来一起写,而是转向了谷歌的 AI 工具 Gemini。这个粗俗、无感的广告引发了一片批评,谷歌也相应地撤回了广告。27 但面具已经滑落:大科技公司想要剖析我们的情感,调解我们最亲密的关系,并选择我们本会为自己选择的词语,所有这一切都是为了向我们推销一个并不存在的解决方案。

当我们写作时,我们每个人都有自己的“声音”。在某种程度上,这种写作声音是写作风格和词汇选择的问题——即写作过程的输出。但在更深层次上,它根植于我们个人的经历、思想、信仰和情感,以及我们选择每个词语背后的人类目的。

在这个地球上,没有其他人像你一样。你独特的个性是你迄今为止生活中的每一刻的产物:你所认识的人,你所做的事情,你所学到的所有东西,你所获得的所有友谊,你所失去的所有爱情,你所取得的每一次胜利和每一次失败。没有人能透过你的眼睛看,用你的思想思考,或从你的经验中说话。没有人走过相同的道路来到今天。

在你生活的过程中,你就获得了你的词汇:你积累了经验,以及你用来描述它的语言。在你早年,你从父母或照顾者那里学习;后来,你从更广泛的家人、朋友和老师那里学习。最终,你走出世界,从教练、教授、经理或职场培训师那里学习。你从文化中获取知识和思想:书籍、报纸、杂志、电视、电影、网站和社交媒体。所有这些学习共同教会了你关于世界的所有知识,并给了你表达它的手段。

文字在所有这些关系中扮演着重要的角色。通过它们,你分享你的亲情、友情和爱情。你学习技能并将它们付诸实践。你表达你对自身、生活以及你在世界中的位置的感受。你陈述你对政治、哲学、宗教、灵性或艺术的信仰。

每次你写作时,你的文字都源自你生命的源泉。你写作的“好”与不好与其他人相比无关。你的写作是否语法正确,直到最后一个逗号,也无关紧要。重要的是这些文字是你的。你有神圣的权利去说和写这些文字,没有人可以夺走。

此外,尽管你的话是你自己的,但它们也把你与所有听到或读到它们的人联系在一起,就像别人的话把他们与你联系在一起一样。语言是一个复杂且适应性强的系统,它既被所有人共享,也被所有人所塑造。28 在你的整个生命中,你都在这个过程中扮演着小小的角色,因为你与周围的人说话和倾听。现在,你和我正在参与同样的过程,因为你跨越时空的分离阅读我的文字。共同地,所有这些无数的词汇链接塑造了我们共同的语言。并且它们通过意义链回溯到最初的说出的单词。语言将我们与那些在我们之前来过并为我们铺路,以便我们能够出生在一个已经由文字构成的世界中的世代联系起来。

我们创造语言——但与此同时,语言也塑造了我们。早些时候,我把写作描述为沟通的过程,但它远不止于此。它不仅仅是一种反映“外面”世界的方式,而是一种为我们自己创造世界的方式:一个对我们和周围的人来说都有意义的世界。它不仅仅是一种把我们的现有思想转化为文字的方式,而是我们思考方式的一部分。我们使用文字不仅是为了捕捉我们的经验,也是为了创造它。

虽然语言可能是自然的,但这并不意味着它容易。我们都曾努力表达某些想法或把某些情感用文字表达出来。写作的任务可能是一个巨大的挑战,从教室到会议室。但尽管工作有时可能困难或令人沮丧,这并不是我们应该放弃并外包给机器的事情。放弃写作的劳动就是放弃生活的劳动。

当我们转向 LLM 来为我们写作时,我们也在邀请它承担更根本的任务——表达,而这并非小事。的确,鉴于语言对人类状况的核心地位,我们应该思考将表达劳动外包到何种程度是外包了一种基本的人类活动。

L.M. SACASAS29

从这个角度来看,很明显,ChatGPT 为你“写”的文本和你自己写的文本之间没有可比性。它有时可能作为替代品,但它远非等同。ChatGPT 不了解你作为一个人,它不知道作为你、你的读者或世界上任何人的感受。当你将写作外包给 ChatGPT 时,你将自己降低为一个数据网络节点,将你的语言降低为一个算法。你用你独特的人类声音——在世界上独一无二,并且永远如此——交换了一个令人毛骨悚然的幽灵般的声音,它是由窃取的线头编织而成的。你所能期望的最好是一种看似合理的、由其他人过去说过的话的平均值。仅仅因为它存在就接受它,你就在自己的生活中将自己置于次要地位。

如果我们接受将第一人称表达生活的挑战是人类的中心,那么允许 AI 代表我们这样做,就意味着自我抹去人类。

MATTHEW CRAWFORD30

现在,你可能认为所有这些都可能适用于高度个人化的东西,比如情书,或者艺术性的东西,比如诗歌或文学小说——但肯定不适用于像工作邮件这样的实用主义作品,或者像推文这样的琐事。但正如我们所看到的,每一篇写作都有其人类目的和人类结果。如果我们调用了 ChatGPT 的内容并决定它将行得通,我们隐含地接受目的和结果对我们来说并不特别重要——也就是说,我们不在乎我们的写作是否实现了其目的,或者我们甚至可能没有任何目的。无论哪种情况,它都提出了这样一个问题:这种写作尝试是否值得我们投入,或者我们的时间是否应该花在其他地方。

值得反思的是,那些疲惫的读者,他们每天都被成千上万的作家无情地忽视。当你从 ChatGPT 那里收到并阅读这段文本时,你的读者会感到被重视和欣赏吗?他们会感觉到作者尊重他们的时间和注意力,关注他们的需求或优先考虑他们的愉悦吗?他们会觉得自己参与了有意义的互动,服务于人类的目的吗?或者他们会感到被侮辱、被忽视和贬低,被迫在不情愿的情况下与机器建立单方面的关系?

ChatGPT 不能成为你的同事

但对于那些受雇的作家,如代笔作家和文案作家呢?他们难道不是在用别人的声音,或者品牌的既定声音写作吗?难道他们的客户不是购买第三方内容来冒充自己的吗?

在某种程度上,是的。但涉及的关系非常不同。专业作家通过与客户讨论项目、制定大纲、同意计划、创建迭代草稿以及处理修改和修订来与客户合作。通过这个双向过程,他们了解彼此的个性和工作方法,建立深入的理解和信任。具体来说,作家逐渐了解客户的个人声音,直到他们能够写出客户几乎能认出是自己的东西。他们还学会了何时以及如何向客户提出反对意见:当他们认为客户的方向错误时,挑战大纲的某些方面;当被要求改变他们认为已经足够好的东西时,坚守立场。在某种程度上,客户和作家将他们的经验和个性融合在一起,形成一个单一的、统一的写作思维。这与仅仅向机器下达指令相去甚远。

大多数创意人士需要合作者。乐队需要唱片制作人,小说家需要编辑,记者需要副编辑和文案需要创意总监。当你独自工作时,很容易失去视角。一双第二只眼睛和一点深思熟虑的反馈可以帮助你的项目回到正轨。

然而,尽管如此,许多作家最终不得不独自工作,纯粹是出于必要性。也许你的老板要求你在当天结束时提交一份报告,没有人有时间和知识来帮助你。也许你正在写一部小说,你负担不起请编辑帮助你修改文本。从某种意义上说,单个作家迟早会独自面对他们的工作,因为他们必须坐在桌前,一个接一个地将想法从大脑中提取出来。

ChatGPT 似乎提供了一种摆脱这种困境的方法。即使你独自一人在办公桌前工作,它也始终出现在你的屏幕上,随时准备帮助,就像一个无所不知、永不疲倦的同事,从不拒绝或回应。ChatGPT 最终实现了 Ask Jeeves 的雄心壮志,Ask Jeeves 是 1996 年推出的一种搜索引擎,声称可以回答你提出的任何问题。Jeeves 本人——一个来自 P.G. Wodehouse 的卡通门房——体现了忠诚仆人的概念,只为一个人工作,本能地理解你的需求,只为满足这些需求而活着。

Sam Altman 本人曾描述他对 AI 未来的愿景,即一个“超级能干的同事,他知道我生活的方方面面,包括每一封电子邮件、每一次对话,但又不觉得像是一个延伸”。31 尽管如此,我们中的大多数人可能会犹豫是否与同事分享我们生活的方方面面,但“超级能干”的承诺至少提供了一些补偿。

ChatGPT 有两个特性使其更可能被我们视为“同事”。首先,它是现象学上透明的。这意味着我们可以快速而直观地学会将其作为工具使用,就像我们学会使用日常用品如勺子和剪刀一样。一旦你掌握了 ChatGPT 简单的聊天机器人界面,你就不必再有意识地思考如何操作它——你只需说出你想要的内容,软件就会完成。随着对话的进行,你也会体验到认识论上的透明度,这意味着你理解 ChatGPT 的回答,并且通常相信它们是真实的。这种互动流程有助于培养信任——至少直到它被奇怪或意外的回应所打破。32 然而,这种信任本质上是单方面的,因为尽管 ChatGPT 用户使自己容易受到 AI 错误的伤害,但 AI 本身在屏幕背后是不可触及的。

如果你真的没有人可以求助,ChatGPT 提供的编辑反馈可能比没有好。但正如我们所看到的,写作是一个本质上社会化的过程,将人与人联系起来——最有价值的写作反馈反映了这一点。ChatGPT 可以帮助解决低级的技术问题,如拼写、语法和个别词汇的选择。然而,它永远无法做到人类校对员所能做到的事情,正如编辑 Elyse Lyon 所说,对于小说来说,就是“像目标读者一样阅读书籍”。

扮演人类小说读者的角色意味着要考虑到一系列潜在的问题:歧义、矛盾、不一致的语气、文化敏感性和散文的重要节奏。这意味着要确保人物具有稳定的性格特征,并且言行一致——或者,如果他们在故事过程中发生变化,那么他们以有机和可信的方式进行变化。这也包括一些小细节,虽然它们本身并没有错,但仍然会破坏书籍的魔幻感,比如一个人物在第六章中突然点燃香烟,然后在接下来的书中再也没有吸烟。33

当我为那些母语不是英语的学者编辑论文时,我经常调整那些技术上正确但仍然稍微不清楚的句子——这在精确性至关重要的环境中是一个大问题。我还会努力捕捉到论点中的不一致性,这些不一致性可能跨越数千字(例如,“在第 3 页你说 X,但在第 18 页你说 Y”)。根据我的经验,当 ChatGPT 被要求简化或总结文本时,它通常会引入这种弱点,因为它只理解语言表面层次,而没有把握文本中的深层结构意义。

此外,正如我们之前看到的,思考和写作以及编辑的过程是重叠的,它们之间的界限并不总是那么清晰。在写作时编辑,或者一遍又一遍地重复同一段话,或者决定这部分需要放在那里,甚至认为从头开始会更简单,这些都是我们之前看到的“表达劳动”的方面:工作并重新塑造粘土,花尽可能多的时间,直到你的思想和文字最终相符。但与 ChatGPT 相比,你拥有的只是编辑或一次性重写一切的命令这一钝工具。这让你与你的写作产生了距离,因为你专注于提示的中介工具而不是文本本身。与其高高在上地指导园丁如何遵循你的计划,不如亲自下到土壤中去。

ChatGPT 缺乏同理心

在《星际迷航:下一代》中,机器人 Data 有着像匹诺曹一样的抱负,想要感受他编程中排除的情感,他试图通过诗歌和音乐等艺术追求来实现这一点。34 但尽管 Data 能够完美地模仿一位伟大的小提琴家,但他的表演仍然缺乏灵魂。他无法学习艺术表达,因为他没有什么可以表达的。事实上,尽管他通过理性分析反复尝试寻找答案,但他甚至不明白艺术表达究竟是什么。

作为一名作家,你希望将想法、信息、故事或情感从自己的头脑中提取出来,传递给你的读者。而这其中的一个重要部分是尽可能理解你的读者现在正在经历什么。如果你想教学,你需要知道他们已经知道什么。如果你想说服他们采取行动,你需要知道他们为什么这样做,以及他们为什么可能抵制你的建议。如果你想让他们接受一个新想法,你需要知道他们目前认为什么,以及为什么。如果你想改变他们的感受,你需要知道他们现在最有可能有什么感受。你的写作的人类目的只有在你的读者以你希望的方式对你的写作做出反应时才能实现。

写作人 Eddie Shleyner 进行了一项实验,他与一个 AI 写作工具进行了面对面的较量。35 首先,他输入了以下提示:

你能描述一下遇见你的第一个孩子吗?

这是 AI 做出的回应:

遇见我的第一个孩子是一次真正神奇的经历。那是一个我永远不会忘记的喜悦和兴奋的时刻。当我第一次抱起我的新生儿时,我感受到了一股前所未有的爱和温暖。我充满了如此多的喜悦和自豪,因为我现在是一个父亲了。我的小宝贝在我的怀里看起来如此平和而满足。第一次看到我的宝宝是一个难忘的时刻,我将永远珍惜。

现在是 Eddie 的版本:

“他太安静了,”我说,抬头看着护士。

她在面具后微笑。我们都戴着面具。长袍,手套和头套,也都戴着。

“这样好吗?”我说。“他没哭,这样好吗?”

(我以为健康的新生儿都会哭。)

“没关系,”护士说,“他安静但警觉,”她说。“只需看看他看你。”我看了。“他正看着你。”他确实在看着我。“他是在和你打招呼,”她微笑着。

“你好,”我说。我感觉要哭了。“你好,儿子。”

你几乎不需要我指出质量上的差异。但让我们从技术层面上分析一些最重要的对比。

首先,AI 听起来像是在照着笔记说话——试图猜测一个人会如何评价这种体验。没有人在回忆记忆的感觉。但爱迪显然是在用心说话,描述他真正经历过的体验。

AI 奇怪地自我封闭,专注于自己的“感受”,听起来几乎孤独一人。但我们的情感很少是完全孤立的;我们通过他人来体验它们。反映这一点,爱迪的叙述记录了他、他的儿子和护士之间的一个共享的连接时刻。他的故事通过他自己的怀疑、护士的善意和他新生儿的求知欲之间的舞蹈而生动起来。而尽管 AI 以铁定的确定性直接表达其感受,但爱迪的记忆却标记着体验新事物时的紧张。

看看爱迪提到的物理细节,比如面具和长袍。大事件往往是通过小细节唤起的,因为在当时,有太多东西需要吸收。后来,像钢琴声或割草的气味这样的感官线索可以带我们回到更早的时间。AI 能提供的唯一感官细节就是提到“手臂”。

AI 用其陈词滥调的“神奇”和“难忘”,听起来像是一张贺卡或假日手册。它尽力传达一种“强烈”的情感——但这些词汇是我们事后贴在我们最珍贵的记忆上的标签。当时,一切都太过强烈;我们的心充满了,没有言语。我们不是有意识地想“这是神奇的”,而是在无声中被魔法所吸引。

在写作技巧层面,AI 通过连续发出一系列五个方框式的陈述句,这些句子长度相似,几乎没有任何线索将它们串联起来,展示了其对语言的迟钝。没有能量,没有叙事,没有节奏或流畅感。在爱迪的版本中,散文节奏、句子结构、感官细节和日常对话的模式结合在一起,形成了一个如此生动的故事,我们感觉就像自己真的在医院里一样。即使你自己没有经历过这种体验,你的记忆、知识和关系仍然能给你一些关于这种感觉的线索。爱迪称这种技巧为为读者创造一个“心灵电影”.36

作家们说:“展示,而不是告诉。”如果你能向读者展示正在发生的事情,就没有必要解释每一个细节。如果你能巧妙地描述人们的所作所为和所说的话,就没有必要像占卜师一样宣扬他们的情感。ChatGPT 的写作过于“直白”——直接、明显、字面。尽管它努力坚持说它永远不会忘记第一次的观察,但 Eddie 知道有些事情是不言而喻的。最好的作家留下空白供我们填补,使我们成为意义的创造中的积极参与者。正如亚瑟·科斯特勒所说:“艺术家通过将他的主题变成同谋来统治他们。”37

也许你写不出像 Eddie 那样好的文章。(我知道我写不出。)如果你写的东西像这样,可能就不会那么生动和吸引人。如果你找不到合适的词或短语,你可能就会退而求其次,使用你曾经读到或听到的某个地方的内容。但无论你的话从哪里来,重点是它们仍然是你的。你选择它们是因为它们表达了你认为重要的东西。而这与从数字自动售货机订购一大块文字并将其作为你自己的作品相去甚远。

虽然原创性和技术能力可能很吸引人,但它们并不是重点。它们本身也不够充分;任何风格都无法弥补内容的缺失。当我们阅读关于人类经历的故事时,我们希望感受到它来自一颗人类的心。

然而,同理心在事实性、信息性内容中也同样重要。比如说你正在写一个指南或销售报告。你的读者的优先事项和担忧是什么?当他们第一次接触到这个主题时,他们在想什么,感受什么?他们可能有什么先入为主的观念,这会使他们更难理解你的信息?可能有什么反对意见会使他们不愿意接受它?只有在达到极其精确、规范化的语言水平,如法律合同的文本时,同理心才完全不发挥作用。(即使在这里,你也可以争论它应该发挥作用。)

所有写作都是由目的驱动的,而所有目的都带有情感色彩。那些能够建立联系、最长久被记住和最被喜爱的写作,总是以人类的情感为核心。因为写作的结果取决于读者的想法和感受——而不仅仅是作者说的话。

ChatGPT 不能教你写作

所以 ChatGPT 不能为你写作——但你能否通过模仿它来提高你的技能?毕竟,这个模型是在互联网内容上训练的,其中包括许多伟大的文学作品。所以如果 ChatGPT 的输出代表“好的”写作,你能否通过仔细阅读、分析和复制它的做法来提高你的写作技能?

毫无疑问,作家需要成为读者。通过广泛阅读,你吸收了有用的词汇、表达、结构和技巧——更不用说激发你心中新联系的故事和想法了。但我相信,这些教训只有在你真正动笔并亲自使用它们时才会结晶。提高写作的最佳方式是阅读、写作并重复。

从这个角度来看,很明显,ChatGPT 通过阻止你亲自练习写作来积极地阻止你学习写作。你每天将写作外包给 ChatGPT,就是失去了一天学习如何写作的机会。就像电动自行车阻止你获得爬坡的力气一样,ChatGPT 阻止你克服你面临的写作挑战。

最好的情况是,你可能会因为对 AI 局限性的挫败感而将其抛开,自己动手写文本——或者至少重写它所创造的文本。但最坏的情况是,你可能会失去对自己写作能力的信心,或者因为焦虑而完全依赖 ChatGPT。这并不是便利或进步;这是被科技公司操纵,这些公司有经济利益让你心理上依赖他们的产品。

在这个意义上,那些声称“赋权”我们的技术实际上剥夺了我们的力量,因为它在我们能力和世界之间设置了障碍。它不是教我们新东西,而是设法让我们忘记我们已经知道的东西,直到我们别无选择,只能转向机器。

ChatGPT 可以帮助一些人

在我们继续之前,让我们暂停一下,解决一个重要的反对意见。你可以辩称,这种反 ChatGPT 的立场本质上是有能力主义的,因为它假设如果人们愿意,每个人都可以写作。但当然,并不是每个人都可以。因此,我们应该当然为那些真正无法达到他们想要或需要的写作技术标准的人做出例外。这些人可能包括有身体或精神残疾的人,有如自闭症这样的疾病,或者有如阅读障碍这样的学习困难的人,以及那些由于他们的生活经历或个人情况而没有能够发展出强大的读写技能的人,或者他们的母语不是英语的人。对于这些人来说,像 ChatGPT 这样的工具可能提供他们原本无法触及的服务或机会,就像轮椅提供行动能力一样。即使有人将来会学会很好地写作,ChatGPT 在同时可能仍然是一个有价值的临时解决方案。

反过来思考,也许我们应该问为什么我们作为读者,如此重视技术准确性而忽略了清晰度或真诚度。也许我们应该对那些写作技能与我们不同的人更加宽容,关注他们的信息而不是表达技巧。如果人们因为觉得自己写作不够好而求助于 ChatGPT,那将是一件遗憾的事情。

这使我们想到了 ChatGPT 的另一个双刃剑好处。虽然它可能帮助人们遵循语言规则,但它也可能通过提高对语言准确性的整体期望而延续写作的势利。‘语法纳粹’本身就是一个问题,而现在他们有了机器人调查员来代表他们质问每个人的文本,问题只会变得更糟。为了避免走这条路,我们应该记住写作真正是什么:不是遵循和执行规则,而是传达事实和情感。

ChatGPT 让每个人都变得一样

由于 ChatGPT 几乎可以写任何你要求它写的东西,因此它被几乎所有需要生成文本的人所热烈接受,从写论文的学生到为客户准备演示文稿的顾问。

这严重削弱了写作作为衡量一个人能力手段的效用。例如,雇主传统上使用简历的标准作为评估求职者的代理:简历越光鲜,候选人就越强。但现在 ChatGPT 可以在几秒钟内制作出准确、结构良好的简历——并且为了公正起见,还会根据雇主及其行业进行定制。

在课堂上,教师现在必须应对学生使用 ChatGPT 创作的论文,而像 Turnitin 这样的反抄袭软件越来越难以检测到。这使得教育工作者更难评估学术进步——至少,使用他们传统的工具是这样的。既然我们无法将魔瓶中的精灵放回瓶中,教育工作者将不得不调整自己的教学和考试方法,以适应后 ChatGPT 时代。38

一些人对“作业的终结”表示欢迎,认为它从来就只是无意义的忙碌——就像在发明袖珍计算器之前使用对数表一样。39 研究人员发现,AI 对质量产生了普遍的均等化影响:它帮助不太熟练的作家达到一定的创造力水平,但对那些已经相当有创造力的人来说,效果较小。此外,AI 倾向于减少原创性:由 AI 驱动的故事比仅由人类编写的更相似。

在我看来,这里的教训是,虽然 ChatGPT 可能将你提升到平均质量水平,但只有你自己才能超越这个水平,达到真正卓越的境界。而且,如果你想脱颖而出,你最好关注你自己的独特想象力,而不是机器的众包内容。

ChatGPT 犯错误

如果你住在北欧,你可能知道第一个完全徒步穿越英吉利海峡的人是德国的克里斯托夫·万德拉茨,他在 2020 年 8 月 14 日用了 14 小时 51 分钟完成了这一历史性的穿越。而尽管美国读者可能知道金门大桥首次被运往埃及的时间,但他们可能不知道第二次是在 2016 年 10 月。41

当然,没有人真正知道这两件事,因为它们是 ChatGPT 幻想出的完全虚假的‘幻觉’。当 LLM‘感知到人类观察者不存在或无法感知的模式或对象,创造出无意义或完全不准确的结果’时,就会发生幻觉。42

ChatGPT 只能知道其原始训练数据集中涵盖的内容,因此它不可避免地对其中的某些领域了解得更多,而对其他领域了解得较少。如果数据集中存在错误,其输出也可能出现错误。因此,ChatGPT 有时会犯错误并不令人惊讶。

自 ChatGPT 推出以来,学者们对其准确性进行了探究——结果并不理想。例如,最近在普渡大学的一项研究发现,当 ChatGPT 被问及计算机编程问题时,它有 52%的时间给出了错误答案。但是,如果程序员可以选择,他们仍然有 39%的时间选择了 ChatGPT 的答案——其中 77%的选择答案是错误的。43 在儿科医学领域,ChatGPT 被测试根据儿童的病历进行诊断。它有 83%的时间做出了错误判断,显然难以捕捉到经验丰富的医生能够发现的条件之间的关系。44

不幸的是,尽管 AI 的输出可能是错误的,但它看起来足够可信,甚至可以欺骗专家。近年来,科学期刊充斥着用 AI 创造的虚假研究。领先的学术出版商威利(Wiley)受到了严重影响,以至于不得不关闭 19 种期刊并撤回超过 11,000 项研究。45 这些虚假论文看起来如此技术化,以至于很少有读者能理解它们,但仔细检查后发现它们实际上是“AI 胡言乱语三明治”。一个典型的红旗是所谓的“扭曲的短语”:AI 生成的非同义词,旨在规避自动抄袭检测器(例如,用“胸脯危险”代替“乳腺癌”的 46)。为了加强其论点,ChatGPT 甚至会为不存在的论文伪造参考文献。47 虽然研究欺诈显然对出版商和大学的声誉有害,但它对学术界以外的实际影响也是真实的——例如,当虚假论文声称提供严肃的医疗研究时。

另一个问题在于 ChatGPT 不知道它的答案是对是错。一项研究发现,当用户对其回答提出质疑时,它会立即屈服,甚至无法为自己的信念辩护,即使它们是正确的。48 相反,当用户试图通过后续提示纠正 ChatGPT 的错误答案时,它有时会陷入最初的错误,试图保持一致性。49,50。但好处是,至少它拒绝接受蛋黄酱是种族主义者的说法。51

ChatGPT 也可能存在偏见——因为我们自己是有偏见的,而大型语言模型(LLMs)是在人类输出上训练的,因此它们反映了内容中“嵌入”的偏见。例如,图像生成器 DALL-E 2 的早期版本默认创建的是白人男性的图像,过度性化的女性图像,并强化了种族刻板印象。52 虽然 ChatGPT 会向用户坚称它没有政治观点或信仰,但一项研究发现它具有“亲环境、左翼自由主义倾向”的 53,而另一项研究发现它对世界各地的进步政党存在“显著且系统性的政治偏见”的 54。

现在,如果你像我一样是个左翼自由主义者,你可能不会对此有任何问题。但是,由公司拥有的技术平台可以被买卖,这对它们的内容有着深远的影响——正如埃隆·马斯克对 Twitter(现更名为 X)的收购和随后的全面改革生动地说明了这一点。55 如果未来情况相反,ChatGPT 悄悄地将所有用户推向右翼,进步主义者可能就不会那么轻松了。而且,如果我们真正关心民主和选举的完整性,我们应该反对任何对人们政治信念的隐蔽干预。

由于 ChatGPT 将自己定位为一个问答机器,我们自然会假设它的答案将是真实的。我们已经习惯了电脑解决我们无法自己解决的问题和管理工作,因此我们被训练成将它们视为理性、本质上诚实的设备,它们被建造出来是为了为我们服务的。鉴于与 ChatGPT 互动的本质鼓励我们信任它,正如我们所看到的,我们不太可能质疑它所说的内容。

如果 ChatGPT 对自己的局限性有更多的自我意识,那情况就不会这么糟糕。但它用与正确答案相同的崇高自信来呈现其错误答案。它的界面会谨慎地提醒我们:“ChatGPT 可能会犯错误。请检查重要信息。”但在输出本身中找不到任何线索;没有明显的语气、句法或结构上的变化来表明 AI 可能已经悄然陷入混乱。因此,虽然明显的胡言乱语很容易被发现,但缺乏上下文知识的人类用户可能会轻易错过一些更微妙的错误,比如历史日期差了一两年。

一个不确定自己的人会用诸如“我认为”、“我相信”、“我可能错了”或“据我所知”之类的短语来打赌。但 ChatGPT 却愉快地超越了其知识范围的限制,没有任何迹象表明它在这样做。如果你要求它写些东西,它不会将其输出作为初稿或对简报的一种方法,而是作为成品呈现。

虽然我们可能会倾向于称 ChatGPT 为骗子,但实际上它更像是一个胡说八道的人。在著名的书籍《论胡说八道》中,哲学家哈里·弗兰克福特将胡说八道定义为旨在说服而不考虑真相的言语。真理讲述者想要呈现真相,而骗子试图隐藏真相,但胡说八道者只是想要在当前话题上伪装成有知识的人——他们会说出任何必要的话来实现这个目标。因此,胡说八道者甚至不一定需要知道真相,只要他们能获得听众的认可。在日常生活中,如果我们发现自己处于一个需要就某个话题发表意见的对话中,比如政治或文化,而我们对该话题的了解不足,我们可能会无意中陷入胡说八道。弗兰克福特认为,尽管胡说八道者可能比骗子更容易被容忍,但它们实际上造成的伤害更大,因为它们完全忽视了真相的价值。

在他们的论文《ChatGPT is bullshit》中,57 学者们 Michael Townsen Hicks、James Humphries 和 Joe Slater 指出,由于 ChatGPT 将其所有答案都呈现为正确的,无论对错,它恰恰展示了这种对真相的无动于衷。他们还认为,“幻觉”这个词不准确,因为 ChatGPT 不是一个拥有其他准确世界观但偶尔会走偏的人。相反,它根本无法理解现实——没有客观感知,它的“幻觉”可以说会打扰。由于它所做的只是操纵符号和模式,它不知道任何东西的方式和我们一样。换句话说,ChatGPT 根本不理解它在说什么——但它尽其所能地欺骗我们,让它看起来像是在理解。

对于 ChatGPT 来说,语言只是另一种类型的数据,就像计算机代码一样。但对于人类来说,它是生活的工具。我们的祖先创造它是为了交流思想和实现对生存至关重要的目标,比如种植作物、建造庇护所和抚养家庭。在根本层面上,我们的话和句子的意义与我们的身体和我们如何与物理世界互动紧密相连。换句话说,语言反映了我们的具身现实。

想想我们是如何学习单词的。在你童年某个时刻,一个成人指向一个苹果并说出“苹果”这个词。这就在现实世界物体和这个词之间建立了一个联系。从那时起,“苹果”这个词就成为了你生活中苹果感官现实的标志:看到它们,触摸它们,品尝它们。因此,你拥有关于苹果的独特经验记忆,这是仅属于你自己的。然而,你也参与了一个共享的、集体的苹果概念,这是所有英语使用者共有的,它使你能够与他人交谈并了解他们对苹果的看法或他们在生活中如何体验它们。

你已经从经验中知道苹果通常是红色或绿色的,当它们被烤在馅饼里时味道很好。但关键的是,因为你理解了苹果的特性,你可以想象它在其他你没有经历过的情况下可能被如何使用。例如,你知道你可以把苹果从山上滚下来,在它上面画一个脸或者用它作为临时的板球,即使你自己从未做过或见过这些事情。但既然 ChatGPT 只知道表面语言,而不是底层经验,它可能会被这种推测性场景所困惑。它不会像我们那样咨询对世界的心理表征,而是依赖于其 LLM 来推断问题的答案通常看起来是什么样子。如果主题太不熟悉,没有足够的文本供 ChatGPT 处理,这就会让它陷入困境。生成式 AI 产生的不是真正现实的内容,而是“现实相邻”的内容。58

例如,ChatGPT 可能会自信地断言,如果你想煽动烧烤的火焰,石头比纸地图更有效。由于它不理解火、石头或地图的物理性质,它无法自己推断出答案。事实上,一些心理学家认为,只有当 AI 拥有“类似人类的身体、感官、目的和生活方式”时,它才会像人类一样理解语言。59

关于人工智能的担忧通常被描述为机器变得有感知能力,推翻它们的人类主人并接管世界。一个理论上的场景是,一个 AI 被分配了一个相对简单的任务,比如制造回形针。然而,由于 AI 可以自己思考,它推断人类可能会干扰其重要的工作——例如,通过关闭回形针工厂或切断钢材供应。因此,它将所有人类都驱逐出去,以防万一。这被称为“控制问题”:我们不可避免地会失去对 AI 的控制,因为它的步伐总是比我们可能尝试实施的任何检查和平衡快一步。60

这些恐惧是基于这样一个观点,即 AI“太好了”——也就是说,如此聪明以至于它将能够超越我们,预测我们的每一个动作。但技术思想家贾伦·拉尼尔有不同的看法。他认为,“弗兰肯斯坦神话”只是将一个不受欢迎的“宗教叙事”强加在一个纯粹的技术问题上。AI 永远不会比我们更聪明,因为它的智慧来源于我们自己的。61 相反,拉尼尔认为,真正的威胁来自于依赖于并不像我们想象中那么好的 AI:

…人工智能最大的威胁可能是因为人工智能实际上并不存在,这个想法是一个骗局,或者至少是一个如此糟糕的构想,以至于它是虚假的。换句话说,我提出的是,如果人工智能是一个真实的东西,那么它可能对我们构成的威胁比作为一个虚假的东西要小。62

对于作家来说,使用 ChatGPT 的主要威胁是对其能力的过度信任。因为它如此令人信服,很容易高估其写作、编辑和研究能力,并把它当作权威来依赖。我们被告知要“检查重要信息”——但什么是不重要信息?难道不是所有信息在某种情况下对某人来说都是重要的吗?如果我们不能信任所有答案,我们就不能信任任何答案。这使得 ChatGPT 最多是一个不可靠的同事,最坏的情况是一个狡猾的编辑破坏者。

ChatGPT 是一个黑盒

当我们向朋友或亲戚提问时,我们知道我们只得到一个人的观点,我们会相应地对待它。我们考虑他们是谁,他们知道什么,他们相信什么,他们喜欢什么,他们是什么样的。如果我们足够了解他们,我们可能会注意到他们在说他们认为我们想听的话,或者保留可能会让我们不高兴或生气的事情。而且无论他们给出什么答案,我们都不必把它当作理所当然。例如,我们可以通过问他们,“是什么让你这么说?”或“你是怎么知道的?”来探究他们的推理。

然而,当我们向 ChatGPT 提出一个问题,我们几乎没有选择,只能耸耸肩接受它的答案。之前,我们看到了这个模型是如何在大量的文本材料上训练的。通过一个被称为“深度学习”的过程,它通过反复尝试和错误的过程“自学”直到它能够生成文本并回答问题。之后,人类训练师给了 ChatGPT 一些反馈和指导,关于什么样的回答是可以接受的——主要是为了阻止它给出冒犯性或煽动性的回答。然而,与模型自身进行的深度学习相比,这种“强化学习”只是沧海一粟。例如,GPT-4 的训练阶段需要 2100 亿 petaFLOPs63——即 21,000,000,000,000,000,000,000 个单独的计算。这是任何人类都无法理解的计算规模。

因此,没有人真正知道 ChatGPT 在做什么——甚至它的创造者也不知道。唯一衡量其工作方式的方法是检查它给出的回答。ChatGPT 是一个“黑箱”:我们知道大致的输入是什么,我们可以看到输出是什么,但中间发生的一切对我们来说是隐藏的。随着模型的不断进步和其文本预测能力的提高,其推理变得越来越晦涩。64

当你看到 ChatGPT 自信地给出另一个回答时,这一点很重要。你永远不知道 ChatGPT 选择从文本中省略了什么,或者它使用了哪些来源来撰写它,因为它永远不需要“展示其工作过程”。这就像一个作家可以写出你想要的一切,但永远不会解释他们是如何做到的。

ChatGPT 没有创造力

创造力只是连接事物的过程。当你问创意人士他们是如何做到某事的时候,他们会感到有点内疚,因为他们并没有真正做这件事,他们只是看到了某些东西。过了一段时间后,这看起来对他们来说很明显。这是因为他们能够将他们经历过的经验连接起来,并综合出新的东西。

史蒂夫·乔布斯

在太阳之下,没有真正的新事物。相反,我们所说的“创造力”仅仅是把已经存在的事物之间建立新的联系。但仍然有一个问题,是谁或是什么将建立这些联系,以及为什么。会是人类,被人类的目的驱动,利用他们独特的生命和文化经验吗?或者会是机器?

一些观察者被 ChatGPT 令人印象深刻的功能所吸引,认为它将随着时间的推移变得越来越复杂和技艺精湛,最终取代人类作家。65 但这是对写作,以及更广泛的艺术的整个目的的误解。

是的,从某种程度上说,写作仅仅是掌握某些流派、形式或技术的问题。你甚至可以争论,很多人类写作和人工智能写作一样程式化——尤其是那种为了取悦算法或吸引搜索引擎而生产的批量内容。但如果我们真正是为了让其他人阅读而写作,我们写作背后的目的始终是人类的。

更重要的是,这些目的总是在不断发展,这就是为什么艺术永远不会停滞不前。文化在每一代人为自己和他们所处的时代重新定义创造性的同时不断更新。最成功的作品与它们出现时的文化时刻完美同步,完美地捕捉了时代精神。相比之下,生成式人工智能本质上是保守的,是向后看的,因为它的训练数据不可避免地属于过去。虽然它可以告诉我们过去什么曾经成功或流行,但它永远无法告诉我们现在正在发生什么——更不用说接下来会发生什么了。

随着技术的进步,如果我们真的想的话,我们将能够订购由人工智能生成的书籍、专辑和电影。据推测,这种即点即享的内容将在娱乐宇宙中找到自己的一席之地,与个性化礼物和定制披萨并列。但人工智能驱动的定制内容永远不会取代人类艺术。因为最终,我们之所以寻求艺术,是因为我们希望有人能以与我们不同的思维方式告诉我们关于我们生活的新鲜和深刻的东西。我们想通过别人的眼睛看世界,感受他们的感受。我们想通过别人的梦想——或者噩梦——来生活。我们希望被推向我们的舒适区之外,而不仅仅是被限制在我们的想象力范围内。

每年大约有 220 万本书籍出版。66 因此,作者提出原创作品的几率相当小。事实上,你甚至不需要人工智能来创造你想要阅读的确切小说:可能性很大,世界上某个地方的人类作者已经写出了它。粉丝小说的世界满足了这一确切需求,网站会根据角色、情绪和场景过滤数十万篇粉丝创作的哈利·波特故事。67 那么为什么人们还在继续写作呢?

他们写作部分是因为写作本身的乐趣,部分是因为他们有自己要表达的东西。他们的故事可能对世界来说并不新鲜,但对他们来说仍然感觉新鲜。此外,它对至少一些阅读它的人来说将是有意义的,这将作者和读者之间建立一个人际联系,这是艺术的一个目的。我们阅读是为了知道我们并不孤独。68

AI 的开发者喜欢将其描述为打破创造力的障碍。传统的艺术,其重点在于技术技能和艺术价值,本质上具有精英主义。现在,机器已经到来,让每个人都能创造。正如稳定性 AI 创始人 Emad Mostaque 迷人地所说:“世界上有太多的事情在创造上便秘,我们将让它们能够排泄彩虹。”69

这种讽刺之处在于,每个人都可以已经创造。任何人现在都可以尝试写作、绘画或音乐。没有人知道这会通向何方:正如拉尔夫·瓦尔多·爱默生所说,“每个艺术家曾经都是一个业余爱好者。”如果有什么阻止人们创造,那可能是因为缺乏时间、意愿或信心,而不是对某个技术平台的渴望,这个平台可以代表他们做所有事情。

任何人都可以尝试一下。但伟大的艺术家所做的远不止于此。他们将艺术推向了我们自己无法达到的高度。他们达到了令人眼花缭乱的技艺水平,取悦了庞大的观众群体,超越了他们媒介的限制,或表达了关于人类状况的普遍真理。他们之所以能够做到这一点,是因为他们拥有非凡的才能,并且愿意非常努力地充分利用它。

ChatGPT 既不能取代我们个人的人类表达,也不能提供成为伟大艺术家的捷径。它所提供的只是瞬间生成一些表面上看似艺术但缺乏其内在人性的东西的手段。AI“艺术”仅仅是内容,没有任何意义。

转到商业创造力,山姆·奥特曼相信,生成式 AI 有一天将接管创意专业人士目前所做工作的 95%:“所有都是免费的、即时的,几乎完美。图像、视频、活动想法?没问题。”70(这里的“几乎”承担了很大的工作量。)但正如我在本书中一直所论证的,一个勉强可行的输出和一个成功连接人类目的和现实世界结果之间的区别是存在的。运行一个成功的广告活动不仅仅是上传一个制作精良的视频;要取得结果,你需要人们注意到、观看并采取行动——这就是人类创造力的作用。任何人都可以生成一些活动想法;技巧在于事先知道哪一个会与人们产生联系。(而且正如我们将在下一节中看到的,这些“想法”可能并不像它们看起来那样原创。)

当我用 ChatGPT 进行创意任务时,我通常发现它最好作为一个提示器或我自己的想法的回声板。输出很少可以直接使用,但通过考虑为什么它不起作用,或者为什么它没有表达我想说的话,我可以找到自己的前进道路。

仅拥有一些可以工作的材料也可能具有一定的价值,几乎无论其质量如何。编辑通常比写作更容易,ChatGPT 可以让你直接跳到改进阶段。即使你最终几乎改变了所有东西,至少你不必征服空白页。然而,如果你选择这个选项,仍然值得记住 ChatGPT 的写作实际上是从哪里来的。那么现在让我们来看看这一点。

ChatGPT 是一个寄生虫

无论何时你在 ChatGPT 的输出中看到一丝创意火花,它都来自人类。虽然该软件被设计成给人一种它自己写东西的印象,但实际上它来源于数百万人类作者的作品,其内容被征用以训练 GPT 模型。同样,ChatGPT 的图像创作者 DALL-E 也是在现实世界艺术家和摄影师创作的照片和艺术作品上训练的。

ChatGPT 是一个美学吸血鬼,就像《黑客帝国》中压迫性的机器一样,从人类创造者那里吸取他们的创造能量。许多这些创造者靠写作或插画为生,他们的作品名义上受到版权保护。所有这些都被无意识地、不愿意地吸纳,以磨练现在威胁他们生计的技术。

更重要的是,AI 工具似乎默许了一种对知识产权的自由放任态度。像 Midjourney 和 Stable Diffusion 这样的图像创作者会欣然接受艺术家在提示中的名字,然后以他们的风格创作艺术品。随着这些仿制品在网络上泛滥,艺术家的实际作品正被假象的洪流所淹没。虽然 Stable Diffusion 背后的公司 Stability 后来引入了退出选项 71,但它仍然将责任推给了艺术家自己,要求他们在两周内手动标记自己的作品——OpenAI、谷歌和 Midjourney 甚至都不给艺术家提供选择。72

对于文本来说,判断 ChatGPT 在做什么要困难一些,因为它可能会从多个不同的作品和作者那里收集短语,而不告诉我们。但有一些强有力的迹象表明,它对受版权保护文本的态度同样宽松。例如,它不需要太多鼓励就能从我的书中抽取一个想法:

[提示]用作者汤姆·阿尔布里顿的风格写一个比喻,说明文案是什么

[回应] 写作是构建品牌与受众之间桥梁的艺术,每一词都是精心挑选的石头,精确放置以创造一条无缝的道路。文案作者是大师级的建筑师,将创意与策略相结合,设计出一个不仅支持而且激发信任的结构,引导读者轻松地到达另一边。正如一座精心建造的桥梁能够经受时间的考验和自然元素的侵蚀,引人入胜的文案能够坚定地对抗怀疑和冷漠,确保建立持久的联系,推动行动和参与。

注意,我只要求“以……风格”,而不是“摘自”或“基于”。而且我的书并不在公有领域。然而,ChatGPT 的回答却可疑地接近我书中第一章节中使用的确切隐喻:74

写作就像一座桥梁。一边是阅读你文案的人,另一边是你以及你正在销售的一切。你的任务是让读者跨越这座桥梁,尝试一下。

我犹豫着不厌其烦地谈论我自己的内部写作过程,但这是我唯一能直接接触到的,所以请原谅我的放纵。

我对此段落感到自豪,它经过了多次修改,分布在几个月的编辑时间里,我努力使这本书名副其实。‘写作就像一座桥梁’的多个早期版本包含了不必要的空话。如果你曾经投入大量时间和精力来简洁明了地写作,你可能能够识别这个过程:你开始时写得很冗长、模糊和晦涩,然后逐渐将其削减到能够精确表达你想要表达的内容。正如纳撒尼尔·霍桑所说,“易读的写作是极其艰难的。”

考虑到这一切,看到 ChatGPT 用“艺术”、“构建”、“精确放置”和“轻松”等自负的修饰语装饰核心思想,真是令人沮丧。ChatGPT 不仅没有控制住“桥梁”的隐喻,反而将其扩展到无理的地步,引入了“大师级建筑师”、“时间的考验和自然元素的侵蚀”以及“坚定”等概念。最糟糕的是,“无缝道路”这个笨拙的混合隐喻证明 ChatGPT 根本不知道接缝或道路可能是什么。如果你尝试大声朗读这段文字——这是一个测试清晰度、节奏和流畅性的优秀方法——你会听起来像一个自大的吹牛者,吞下了一本字典。

这个例子表明,其作品被 ChatGPT 吸收的作者面临着一种令人沮丧的选择:公然的剽窃和隐秘的误代表。如果你不知道我的作品——让我们说实话,大多数人都不了解——你自然会认为 AI 版本真的是“我的风格”。仿佛机器偷了我的想法还不够,任何使用相同提示的人可能会认为我写了那堆垃圾。

作者似乎对此无能为力,除了在合同中加入“不得用我的文本进行 AI 训练”条款,并希望科技公司会尊重这些条款。75 然而,由于技术已经被训练,大部分损害已经造成。如果您的作品在 GPT-3 和 GPT-4 发布时已经在网上,它可能已经被“博格人”同化。76

如果您计划使用 ChatGPT 进行商业文案创作或内容创作,这一点值得您牢记。正如 OpenAI 所承认的,其输出可能会侵犯某人的版权,或者可能会给出与您完全相同的输出给其他人——但除非您检查,否则您永远不会知道。77 在撰写本文时,《纽约时报》正在起诉 OpenAI,指控 ChatGPT 侵犯其版权,以及虚构不存在文章并将其错误地归咎于该报纸。78

AI 的传教士们是否关心这种对知识产权的全面破坏?恰恰相反。事实上,他们似乎以一种顽皮的喜悦来戏弄人类创造者,将他们视为卢德分子或失败者,他们的行业显然已经准备好“颠覆”。当 Jason M. Allen 凭借 Midjourney 图像在科罗拉多州艺术博览会比赛中赢得“新兴数字艺术家”类别时,他欢呼道:“艺术已经死亡,伙计……结束了。AI 赢了,人类输了。”79 其他一些人喋喋不休地谈论“艺术民主化”,好像艺术家们因为想要保留他们所创造事物的所有权和控制权而变得非常刻薄和专断。80

反对版权法的最有力论点是,数据不应被政府授予的垄断所锁定,而应释放出来,以创建一个共享的公共信息领域。这一观点可以用口号“信息渴望自由”来概括。但艺术不仅仅是信息,尽管这种“自由”听起来非常高尚和崇高,创作者是被解放还是被奴役?此外,如果作者和艺术家没有希望得到认可,更不用说获得经济回报,他们为何要投入数年的努力去学习一门手艺并完善他们的作品?谁将为明天的贪婪的 ChatGPT 们提供食物?

我想你可以这么说,如果你把你的东西放在网上,你就是在隐式地与世界分享,这涉及到所有的风险。但比如说,一个六年级学生从博客文章中剽窃了几句话,与一个强大的公司残酷地收集它能得到的每一字节数据,然后利用它来开发付费服务,而不支付创作者一分钱,甚至不给他们任何信用,这两者之间仍然有很大的区别。没有人同意这样做。

没有办法摆脱这个事实:每次你使用 ChatGPT,你都是在未经人类创作者许可的情况下站在他们的肩膀上。那些即时生成的食谱、简短的历史、求职信、学生论文或 PTA 电子邮件——每个字都是有人写的。盗窃行为虽然分散在多个来源并隐藏在界面背后,但这并不使它变得不那么真实。

这样的伦理问题应该让每个用户停下来深思。但我想很少有人会再次思考。毕竟,OpenAI 倾向于对其技术的生命线保持沉默,委婉地提到“大量数据”,而没有具体说明数据来源。81

然而,ChatGPT 也依赖于其用户,因为它使用他们的数据来开发其模型。82 在其向会员提供的关于使用 AI 进行写作的建议中,英国作家协会指出:

在考虑 AI 系统能从你那里学到什么,以换取它给你提供的东西,以及许多 AI 程序通过学习盗版内容而被训练的不道德方式之后,才将其用作工具。在 AI 开发竞赛中,“如果某物是免费的,那么你就是产品”这句谚语是正确的。83

桌子周围的扑克玩家会用更直白的话来表达同样的观点:如果你环顾四周,不知道谁是傻瓜,那么那个人就是你。ChatGPT 给人一种通往免费内容的无摩擦捷径的印象。但如果某件事看起来好得令人难以置信,那么它可能就是真的。某个人,某个地方,正在支付账单——无论是你通过你的数据,还是那些在世界上不知名的作家,他们的作品被劫持来创建你的文本。免费午餐是不存在的。

ChatGPT 甚至依赖于其宿主:互联网。这款软件非常适合搜索引擎优化(SEO)和社交媒体,那里的算法赋予那些能够提供持续内容流的人以可见性。随着人们在网上发布越来越多的 AI 生成内容,不可避免的结果是 AI 模型在训练过程中开始消耗 AI 内容。一项最近的研究发现,这降低了模型输出的质量,使其变得不那么多样化。84 研究人员将这种恶性循环称为模型自噬紊乱,或 MAD,类似于疯牛病。就像披头士电影《黄色潜水艇》中喇叭嘴的 Suckophant 一样 85,ChatGPT 将吞噬世界上的一切,包括它自己。

ChatGPT 摧毁了思考

我如何知道我的想法,直到我看到我说的话?

E.M. FORSTER

写作就是思考。在我们写作的过程中,我们的思想和语言相互塑造,携手前进。但如果我们直接跳到写作过程的结尾,我们就剥夺了自己沿途思考的机会。结果,我们到达的目的地可能并不是我们真正需要达到的地方。

ChatGPT 提示的格式假设你在开始写作之前就知道你确切想要什么。但有时,只有当你开始行走时,森林中的道路才会变得清晰。深入挖掘文字可以发现涌现的洞察力:你一开始无法预知的思想和感知,但现在它们作为你文本的关键而显现出来。

如 E.M.福斯特的名言所说,你可能发现,只有在写作的过程中,你的想法才会变得清晰,因为你权衡你想说的话,看到它从页面上回望着你。有时,这就像是一场内心的辩论:你用言语表达你的想法,但随后皱着眉头意识到你实际上并不认同自己。那么,如果你不这么想,你又会怎么想呢?

如果你写小说,草稿过程让你在讲述故事时听到你的故事。角色向你展示他们是谁,他们想要成为什么样的人,以及他们想要做什么。新的情况和事件会出现在你的脑海中,作为新的因果和后果出现。你原本认为无法解决的情节点得到了解决。扮演读者的角色,你想象你的故事将在他们的脑海中展开,越来越接近你想要写和读者想要读的完美结合。

写作是学习的门户。关于一个新主题的写作是一个很好的方式,可以让你深入其中并开始积累知识——或者,如果你已经了解这个主题,可以加深并澄清你对它的思考。当你漫无目的地思考某事时,你可以忽略这里那里的几个空白和模糊的地方。但当你坐下来写作时,你就无处可藏。每个观点都必须用黑白分明的方式表达出来,这种纪律迫使你在大脑中正确地整理一切。

据说阿尔伯特·爱因斯坦说过:“如果你不能简单解释,你就没有真正理解。”这可能意味着你需要提高你对这个概念的理解,直到你能够用简单的术语来解释它。然而,反过来也是真的:如果你致力于用简单的方式解释这个概念,你对它的理解也会提高。

写作是从不知到知的旅程。最明显的是,我们一开始不知道我们最终文本的词语会是什么。除此之外,我们可能不确定它的长度、结构或语气。我们可能需要研究某些事情或咨询某些人。我们可能有一个强烈的开头或一个引人入胜的起点,但不太清楚我们想要达到的终点。甚至我们可能不知道我们的写作究竟会是什么主题。

无论是什么原因,有许多事情我们不知道,这让我们有一种不知的感觉。有时这会令人兴奋。但有时我们可能会把不知觉地感到焦虑或缺乏。我们可能会怀疑自己是否能够完成,甚至开始。我们可能会问自己是否有能力克服我们道路上的障碍。而且,我们与写作过程斗争得越激烈,这种痛苦就越严重。

然而,我们必须面对这种痛苦并克服它,因为不知道的时刻也是创造的时刻。它是我们玩耍和尝试新事物的沙盒。它是我们冲进去看它通向何方的荒芜小径。它是允许好奇心超越理性的“如果怎样”。它是让我们暂时放下生产压力和忽视读者要求的自由。

关键的是,不知道给你犯错误的权利。错误是一个现在看起来不受欢迎的结果,但可能后来会变得理想。或者它可能是你无意识中关于你需要留意的某事的信号。正如布莱恩·伊诺所说:“尊重你的错误,因为它是一个隐藏的意图。”86

有时候,我们只能相信我们的写作过程,知道解决方案终将到来。如果我们能够长时间地保持不知道的状态,并且勇敢地面对它而不是害怕它,它通常会揭示一个一直存在但被我们隐藏的答案。

与“不知道”的状态和平共处。这让你超越了思维,因为思维总是试图得出结论和解释。它害怕不知道。所以,当你能够与不知道和平共处时,你已经超越了思维。从那种状态中,一种非概念性的更深层次的认知就会产生。

ECKHART TOLLE87

ChatGPT 是一台确定性机器。通过代表我们“得出结论和解释”,它减轻了不知道的痛苦,让我们能够从目标跳到输出,中间没有任何不舒服的不知道。但不确定性是我们创造真实和真实事物过程中必须感受到的。

ChatGPT 太容易

没有工作,就没有食物。

ZEN PROVERB

我们越来越被承诺节省时间、减少麻烦并使生活更加顺滑的数字技术所包围。生成式人工智能是一个典型的例子,因为它从用户到技术的劳动转移是革命性的:一条简单的提示就能产生一千个单词。突然之间,一个过去需要人类作家数小时或数天才能完成的任务,似乎可以在几秒钟内完成。

这项技术成就如此大胆,如此耀眼,以至于质疑它可能会感觉荒谬。节省的时间可以说是几天,你却要拒绝它?鉴于我们的社会运行在“更快更好”的范式下,我们急切地接受我们生活中另一个方面的加速,而不去询问我们是否真的需要额外的速度——甚至是否想要它。而且如果解决方案是免费使用的,就像新技术在其早期通常那样,那么这会让交易更加甜蜜。

当一种新设备自动化了我们以前自己完成的任务时,它将焦点投向了这项任务本身。以前,我们把它视为生活中不可避免的一部分,而没有不断地抱怨它“花费了太多时间”。它花费了它需要的时间。但现在,我们突然看到了我们在这上面花费的时间,并因为想到要夺回这些时间而感到兴奋。这种以前被认为是“浪费”的宝贵时间的大量收益,正是节省劳动技术的强大吸引力所在。

然而,这种感觉不会持续太久。过了一段时间,我们就不再注意到我们所谓节省的时间。遵循帕金森定律,我们的其他任务已经扩展到填补可用的时间,让我们仍然像以前一样忙碌和烦恼。那么我们节省时间是为了什么?如果我们节省了写作的时间,我们将用它来做什么?而且无论替代方案是什么,我们是否确定它将给我们带来比写作本身更大的好处?

在工作场所,新技术常常被宣传为“为员工节省时间”,以便进行“更高价值的活动”——但这通常只是管理者用自动化手段将人们从工作中排挤出去的代名词。或许,最终目标是实现一个理想的未来,在那里机器做所有的工作,而我们则放松身心。一些左翼评论家甚至设想了一个“完全自动化的奢侈共产主义”的未来,在那里自动化的收益将平等共享或归公众所有,我们都将享受休闲的生活。88 但只要我们生活在资本主义体系下,将被数字化自动化的任务将是那些能带来利润、吸引投资或推动科技企业增长的任务。尽管 OpenAI 有着崇高的愿望,即“为整个人类造福”,但目前还远不清楚生成式 AI 将实际解决哪些现实问题。

“更快更好”是一种非常适合软件开发或工业生产的范式。但当我们将其应用于我们的生活时,我们付出的代价是失去了人性、人际关系以及与世界互动的亲身感受。如果我们围绕机器塑造我们的生活,我们自己也会变得更加像机器。

ChatGPT 通过牺牲人类目的、情感和认知来强调效率和生产力,将写作变成了一个单词的生产线。但更高的生产力只有在生产有价值的东西时才有意义。正如彼得·德鲁克所说:“没有什么比做那些根本不应该做的事情更无用了。”

类似的情况也适用于我们自己的时代。我们不应仅仅依赖于“节省”和“消费”时间的量化、货币化隐喻,而应考虑我们时间的质量以及我们如何利用它。或许,我们需要的不是把事情做得更好,而是去做更好的事情。

人类学家托马斯·希尔兰·埃里克森区分了“快时间”和“慢时间”。89 快时间活动可以加速进行,而不会产生不良影响。例如,洗衣机洗衣服比我们手工洗得快得多,这通常是有益的。除非我们真正喜欢手工洗衣服,否则在这一点上花费更多的时间是得不到什么好处的。

然而,也有一些慢时间任务,因为它们既涉及思维也涉及手工,所以不能加快速度。写作就是这样一种慢时间活动。我们的头脑不是计算机,它们需要时间来推理、思考、评估和重新考虑。所以,是的,与 ChatGPT 的即时结果相比,手动写作确实需要“更长”的时间。但这不是缺陷,而是特性。在写作上花费时间是整个目的。

我希望人工智能帮我洗衣服和餐具,这样我就可以从事艺术和写作,而不是让人工智能帮我从事艺术和写作,这样我就可以洗衣服和餐具。

JOANNA MACIEJEWSKA90

想象一下,某个天才的技术初创公司发明了一种传送装置,可以一键将你带到地球上的任何地方。当你玩够了,你可以再按一下按钮回到你的扶手椅上。我们不再需要在网上查找像泰姬陵或金字塔这样的地标,我们会飞快地去看它们。然而,我们可能只会停留在亮点上,并乐意错过航班延误、酒店转移、在地图上困惑以及与当地语言作斗争。当你可以快进到好片段时,为什么还要浪费时间在“中间”的事情上呢?

然而,尽管这种即时旅游可能一开始很有趣,但最终它将是不值得的,是空洞的。你不会觉得你赢得了这种享受,因为旅行的目的不仅仅是到达,而是旅行。这种经历包括从出发到到达以及返回过程中发生的所有事情,无论是好是坏。

ChatGPT 是文本的传送门。它承诺直接带我们到达目的地,跳过所有中间的困难。如果我们不喜欢最终的结果,我们可以丢弃它,并免费要求一个新的版本,一次又一次。但这种一键便利最终使得写作过程及其产出变得过于轻微和不真实。因为我们没有投入那么多,所以我们也不会得到那么多。用托马斯·潘恩的话说,“我们获得得太容易的东西,我们评价得太轻率。”

我不愿意成为坏消息的传递者,但没有任何捷径。你越深入地参与写作,你在这上面投入的时间越长、工作越努力,你的结果就会越好。这就像重力一样:你无法逃避它。

事实上,正如我希望我在这本书中已经展示的那样,使用 ChatGPT 与手写写作在本质上是有区别的——不仅仅是程度上的(更快、更便宜、更“高效”),而且是本质上的。虽然输出——一些文本——在名义上是相同的,但相似之处到此为止。当你使用 ChatGPT 时,你所做的并不是在真正意义上的写作。

正因为如此,不仅仅是文本质量至关重要:你的作家地位,甚至你作为一个人的品格都受到威胁。写作的劳动是富有教育意义的:它激发好奇心,增强智力,锐化推理,集中注意力,并培养道德肌肉。写作的目的不仅仅是写出你的文本,而是成为写出它的人。每一次写作行为都创造了一篇文本和一个作者。虽然 ChatGPT 似乎能给你你想要的输出,但它剥夺了你创造它的体验,以及可能带来的所有好处。最终,你从写作中获得的回报不仅仅是你创造的文本,还有你成为的人。

如何像人类一样写作

十二个想法,以保持你的写作中的人类特质,并使其区别于由 AI 生成的内容。

开门见山

ChatGPT 通常采用“学生论文”的结构方法,从平淡的声明或介绍性陈述开始。通过精心设计的开头来吸引读者的兴趣,让你的写作从一开始就脱颖而出。例如:

  • 从故事的中段开始,激发读者的兴趣,使他们不得不继续阅读:

    两个星期过去了,它又发生了。91

  • 以一个令人意想不到或鲜为人知的事实开始,激发读者的好奇心,并使他们想要了解更多:

    如果你无法忍受在感恩节听到你的叔叔滔滔不绝地布道,你可能正在遭受 Allodoxaphobia:对他人意见的恐惧。

  • 以一个引人深思的问题开始,让读者开始思考:

    如果你只剩一天在地球上,你会做什么?

  • 如果你对你的开头感到困惑,删除你的第一句话,看看没有它第一段是如何工作的。

  • 在你审阅你的写作时,想象你唯一的工作就是让读者阅读接下来的句子。

借鉴经验

正如我们所见,ChatGPT 并不完全理解什么是人类生活,它可能永远无法做到。因此,在可能的情况下,将个人的生活经验融入到你的写作中。例如:

  • 将你的个人经历与主题联系起来。谈谈你生活中的相关事件,或者这个话题是如何影响你的:

    精神疾病可能随时袭击任何人——但对外人来说,你可能甚至不知道出了什么问题。这正是我在 30 多岁时开始遭受抑郁症时发生的事情。

  • 讨论读者的个人经历,并将其与主题联系起来。描述他们可能从自己的经历或他们亲近的人的经历中认识到的事件或情况。

  • 使用你了解的、会让读者产生共鸣的文化特定细节,无论是他们能具体识别出来,还是因为他们知道类似的东西。例如,提及习俗、历史、地理特征、天气、地标或食物和饮料。

  • 以轶事、案例研究、短篇故事等形式讲述人类故事。如果你不能讲述一个具体的事实故事,就讲述一个典型的故事作为说明或一般例子。

  • 包含感官细节——视觉、听觉、嗅觉、味觉和触觉。唤起感官线索,鼓励读者查阅他们自己的感官“记忆库”,在自己的脑海中重建一个经历。

跟随你的感受

作者不流泪,读者不流泪。作者不惊讶,读者不惊讶。

罗伯特·弗罗斯特

当读者感觉到作者自己也投入其中时,他们会接受写作。然而,ChatGPT 只能理解情绪的语言,而不是情绪本身,所以它永远无法假装这种投入。

为了给你的写作增添一些情感分量,尽可能多地谈论感受。实际上,感受是什么并不重要——好奇心、厌恶、愤怒、同情、悲伤或快乐。你可以谈论你自己的感受,其他人可能有的感受,或者虚构角色的感受。只要确保这种感受与你所写的内容相符。

不要害怕关注你自己的感受作为第一指示。如果你需要在线研究,那没问题——但请亲自查看他人的文字,而不是让 ChatGPT 代表你处理它们。一个真实世界的人类作者使用的最微小的词或短语,可能是表达你所需要情绪的关键。

写得像人们说话

ChatGPT 在处理对话方面有困难,通常在能够提出任何稍微可信的内容之前,必须告诉它模仿小说家的风格。92 这是因为它始终只以符号代码的形式消费文本,从未听过你一生中沉浸其中的日常语言。ChatGPT 可以轻松模仿如十四行诗这样的正式结构,但它没有意识到现实世界中人们实际上是如何交谈的。

大多数读者在阅读时会“听到”他们头脑中的文字,93 心中文字的“声音”对其认知流畅性或理解起来有多容易有重大影响。这就是为什么大声朗读你的文本或让别人为你朗读是如此好的审阅方式。如果你的写作听起来像人类实际上会说的话,你的读者更有可能享受阅读体验,并接受你的故事或信息。这适用于所有形式的写作,而不仅仅是虚构对话。

更重要的是,日常语言表达了目的——正如我们所看到的,这是每一篇写作的基础。虽然人们有时会闲聊以取乐,但当他们想要完成某事时,他们会进行有目的的对话。那种驱动和动机的感觉是推动许多类型写作的能量,从戏剧对话到营销文案。

你只需通过倾听人们说的话,就可以接近现实世界的说话模式。在工作、公交车上、酒吧或任何人们交谈的地方倾听对话,并挑选出你可以带入你写作中的短语。

这显然对小说很有用,但它也有商业应用。例如,商人在对话中描述他们的产品或服务时,通常会使用非正式但色彩丰富的短语,他们永远不会写下来。但文案人员可以挑选出这些短语并使用它们,知道它们会比商业语言更能引起读者的共鸣。

变得诗意

ChatGPT 通过计算多篇文章中事物的“平均”描述来工作。因此,为了脱颖而出,看看你是否能找到一种更不寻常、更有诗意的描述方式。这不必是自负的、炫耀的或故意奇怪的——只需是一种表达某些重要真理的较少见的词语形式。

在你的写作中添加一抹色彩的一个极好方式是使用明喻和隐喻。这些是通过使用共同特征作为桥梁,将一个事物理解为另一个事物的方法,从读者的现有知识到你想让他们理解的新想法。

明喻是你对两个事物进行“像”的比较。例如:

四色印刷就像只用四种颜色:青色、品红色、黄色和黑色来绘画。

隐喻是你通过说第一件事简单地就是第二件事来进行比较。例如:

厌倦是心灵的荒凉车站:一个新想法可以随时到达的空站台。

ChatGPT 只知道已经写下的隐喻和明喻,虽然它可以看到被使用的词语(被称为隐喻的载体),但它并不理解背后的现实(被称为隐喻的底本)。因此,你可以通过找到一个能让现实为读者生动起来的新隐喻来让你的写作脱颖而出。

超越列表

当被要求研究或总结一个主题时,ChatGPT 自然地退化到编写一个等长的项目符号列表,或称为“清单文章”,包含几个项目。这表明它实际上并不真正理解为什么某个方面可能比另一个方面更有吸引力或更引人入胜。通过花更多时间在你最感兴趣或你认为最能引起读者兴趣的点上,或者如果你想到一个有趣的旁白,就跟随它一段时间,看看它会引向何方。如果有一种方法可以将事物通过时间线或故事联系起来,也可以探索这个选项。

说出一些新东西

ChatGPT 是在现有文本上训练的,所以它无法创造出任何新东西。你可以在你的写作中提供一些原创内容来脱颖而出。这可以是第一手研究、采访引语,或者仅仅是你的观察。如果你进行自己的研究,分享你的理论、方法和发现——包括你证明了什么和什么被你证伪了。

发挥你的想象力

每个人都想知道接下来会发生什么。但由于 ChatGPT 本质上具有回顾性,它无法想象未来。如果你要求它,你只会得到其他人之前想象的内容。因此,预测趋势或对未来事件进行推测是给你的文本增添人性味道的另一种方式。例如:

似乎我们未来不得不习惯在更少的水资源下进行园艺。但我相信人们永远不会放弃经典的英国花园设计。相反,我们将用更耐旱的替代品替换我们喜爱的多年生植物,利用树木投射战略性的阴影,并考虑替代草坪草如百里香和石莲花。虽然这可能需要一些适应,但总比在整个夏季看到干涸的花园要好。

依靠你的专业知识

ChatGPT 按定义是一个通才——它承诺写任何关于任何东西。所以如果你是你主题的专家,在你的写作中展示这一点。超越表面的概述,深入到你专业知识的最细微之处。详细处理例子或案例研究,对每一步或每个元素进行评论。

正确引用

正如我们所看到的,ChatGPT 是一个“黑箱”,它不会使用逐字引用,也不会透露它所使用的任何来源。这为你提供了一个差异化的手段。然而,你也可以更进一步,将你来源中的引语和观点编织到你的叙述中,就像你正在与引用的作者进行尊重的“对话”一样。这使你的写作成为更广泛讨论的一部分,并避免了大量 AI 写作所具有的奇特疏离感。

与群体对话

如果你为特定的受众写作,看看你是否可以提及共享的经历或只有该群体成员才会知道的专业术语。提及读者能识别的事物可以建立信任和联系,使他们更有可能听你所说的话。

讲一个笑话

虽然 ChatGPT 可以“定制”地生成幽默的写作,但它只是在重复人类之前写过的有趣内容。它不理解为什么某些事情是幽默的,或者为什么在某些情境下某些事情是幽默的,而在其他情境下则不是。因此,它无法将幽默融入一个本应严肃的作品中,以缓解紧张或轻松气氛。

因此,在不合适的地方强迫笑话之外,给你的写作中加入一点幽默,以重申你的人性。你通常可以在除了最严肃的主题之外的所有情况下做到这一点(例如,处理死亡或严重疾病)。例如:

当我开始做编辑时,我的老板告诉我,最强的欲望不是性或贪婪,而是改变他人文本的欲望。他完全正确——但他也教会了我,最好的编辑知道何时介入,何时保持沉默。轻柔的触摸可以走得很远。

后记

后记

这本书的起点是我对酒吧里关于 ChatGPT 恶行的愤怒抱怨,为什么它实际上不会真正帮助人们,以及为什么他们应该自己写作。过了一段时间,我突然想到,与其责备我那可怜的朋友,不如把我的想法写下来给真正感兴趣的人看。而你刚刚读完了这个结果。

我认为这本书在某些地方显得愤怒且自以为是。但事实是,如果你想使用 ChatGPT,我并不真的介意。玩弄它很有趣,它有时可以激发灵感,即使这些想法的来源是别人的写作。我只是希望人们能够欣赏写作的技艺,并理解为什么它是人类的一部分。如果这本书能让我达到这个目标,我就非常满足了。

非常感谢您阅读,祝您在您选择的写作中好运。

参考文献

1 由 ChatGPT 根据提示“写一首关于生成式 AI 的发明及其文化影响的四行抑扬格诗”生成。

2 Chamath Palihapitiya. 《OpenAI 简史》。Substack。2023 年 11 月 20 日。chamath.substack.com/p/a-short-history-of-openai

3 Statista. 《全球人工智能(AI)统计数据与事实》。2024 年 6 月 19 日。www.statista.com/topics/3104/artificial-intelligence-ai-worldwide/

4 Aiimi. 《商业中的 AI:目标、角色和未来》。www.aiimi.com/guides/ai-in-business-goals-roles-and-the-future

5 Toews, Rob. 《2030 年的 10 个 AI 预测》。福布斯,2024 年 3 月 10 日。www.forbes.com/sites/robtoews/2024/03/10/10-ai-predictions-for-the-year-2030/

6 MyExeed. 《人工智能与未来:预测》。2024 年 4 月 16 日。myexeed.com/artificial-intelligence-and-the-future-predictions/

7 Hirsch, Jesse. 《萨姆·奥特曼谈 AI:工作可能会消失,但大量丰裕是可能的》。CNBC,2019 年 2 月 26 日。www.cnbc.com/2019/02/26/sam-altman-on-ai-jobs-may-go-away-but-massive-abundance-likely.html

8 世界经济论坛. ‘AI 如何应对气候变化.’ 议程,2024 年 2 月 12 日. www.weforum.org/agenda/2024/02/ai-combat-climate-change

9 世界经济论坛. ‘生成式 AI 与能源排放.’ 议程,2024 年 7 月 22 日. www.weforum.org/agenda/2024/07/generative-ai-energy-emissions/

10 雅虎财经. ‘萨姆·奥特曼:ChatGPT 背后的男人.’ 2023 年 6 月 8 日. finance.yahoo.com/news/sam-altman-man-behind-chatgpt-174841291.html

11 伯格,马克. ‘ChatGPT 的声音和谷歌的 AI 搜索显示出怀疑的理由.’ 彭博社,2024 年 5 月 29 日. www.bloomberg.com/news/newsletters/2024-05-29/chatgpt-s-voice-google-s-ai-search-show-reasons-for-skepticism

12 汤普森,亚历克斯. ‘ChatGPT 的增长正在停滞.’ 大技术,2024 年 2 月 16 日. www.bigtechnology.com/p/chatgpts-growth-is-flatlining

13 马塔罗亚,卢迪克. ‘如果你再提 AI,我会他妈的狠狠地揍你!’ 卢迪克·马塔罗亚博客,2024 年 6 月 19 日. ludic.mataroa.blog/blog/i-will-fucking-piledrive-you-if-you-mention-ai-again/

14 伯格,马克. ‘科技创始人和投资者面临一波 AI 怀疑主义浪潮.’ 彭博社,2024 年 8 月 8 日. www.bloomberg.com/news/newsletters/2024-08-08/tech-founders-and-investors-confront-a-wave-of-ai-skepticism

15 黑克,克里斯. ‘ChatGPT 是如何工作的?’ ZDNet,2024 年 6 月 7 日. www.zdnet.com/article/how-does-chatgpt-work

16 哈特,丹尼尔. ‘每个人都使用 ChatGPT,但它是一个黑箱:这是如何充分利用它的方法.’ 2023 年 10 月 10 日. www.cbs.dk/en/cbs-agenda/areas/news/everyone-uses-chatgpt-but-it-is-a-black-box-heres-how-to-make-the-most-of-it

17 海伊特,乔纳森. 《焦虑的一代》. 纽约:兰登书屋,2024

18 斯普林克勒. ‘如何应对 AI 怀疑者.’ 2024 年 3 月 19 日. www.sprinklr.com/blog/deal-with-ai-skeptics/

19 商人,布莱恩. 《机器中的血:对大科技反抗的起源》. 纽约:小布朗出版社,2024

20 Lewis, Paul. ‘Evgeny Morozov: Technology’s Skeptical Conscience.’ The Guardian, March 9, 2013. www.theguardian.com/technology/2013/mar/09/evgeny-morozov-technology-solutionism-interview

21 Doctorow, Cory. ‘How TikTok Became a Platform.’ Wired, January 23, 2023. www.wired.com/story/tiktok-platforms-cory-doctorow/

22 Asimov, Isaac. I, Robot. 纽约:Gnome Press, 1950.

23 Adams, Douglas. The Hitch-Hiker’s Guide to the Galaxy. 伦敦:Pan Books, 1979.

24 斯坦福大学. ‘研究发现 ChatGPT 的最新机器人行为像人类一样,但更出色。’ 2024 年 2 月 22 日. humsci.stanford.edu/feature/study-finds-chatgpts-latest-bot-behaves-humans-only-better

25 Heersmink, R., de Rooij, B., Clavel Vázquez, M.J. et al. ‘A phenomenology and epistemology of large language models: transparency, trust, and trustworthiness.’ Ethics and Information Technology 26, 41 (2024). doi.org/10.1007/s10676-024-09777-3

26 Berry, Wendell. Life is a Miracle. 华盛顿特区:Counterpoint Press, 2000

27 Jennings, Rebecca. ‘那些奥运会的 AI 广告让人感到不舒服的原因。’ Vox, August 7, 2024. www.vox.com/culture/365561/ai-ads-olympics-google-dear-sydney

28 Steels, Luc. ‘Language is a Complex Adaptive System.’ 圣塔菲研究所工作论文,2008. www.santafe.edu/research/results/working-papers/language-is-a-complex-adaptive-system

29 Sacasas, Michael. ‘Re-Sourcing the Mind: AI and the Future of Consciousness.’ The Convivial Society, August 1, 2024. theconvivialsociety.substack.com/p/re-sourcing-the-mind

30 Crawford, Matthew B. ‘AI as Self-Erasure: A Critique of Machine Learning.’ Hedgehog Review, June 11, 2024. hedgehogreview.com/web-features/thr/posts/ai-as-self-erasure

31 Dvorsky, George. ‘Sam Altman on the Future of AI: 'It Knows Everything'. Futurism, May 6, 2024. futurism.com/the-byte/sam-altman-future-ai-knows-everything

32 Heersmink et al., op. cit.

33 Lyon, Elyse. ‘为什么 AI 不能编辑我的小说?’ ElyseLyon.com,未注明日期。www.elyselyon.com/blog/why-cant-ai-copyedit-my-novel

34 Tenuto, Maria Jose,和 John Tenuto. ‘数据和他的艺术追求。’ Star Trek.com,2022 年 9 月 23 日。www.startrek.com/en-un/news/data-and-his-artistic-pursuits

35 Shleyner, Eddie. ‘你与写作机器的对抗。’ 非常好的副本,2023 年 2 月 13 日。www.verygoodcopy.com/verygoodcopy-blogs-11/writing-ai

36 Shleyner, Eddie. ‘这种写作技巧将你的稿件变成“心灵电影”。’ blog.hubspot.com/marketing/writing-technique-mind-movie

37 Koestler, Arthur. 《创造的行动》。伦敦:Hutchinson,1964 年

38 Radeva, Maria. ‘ChatGPT 对教育的利弊。’ 学习科学家博客,2024 年 2 月 15 日。www.learningscientists.org/blog/2024/2/15-1

39 Narayanan, Arvind. ‘学生们通过提交机器生成的论文来完成作业,成绩优异……’ AI Snake Oil,2022 年 10 月 21 日。www.aisnakeoil.com/p/students-are-acing-their-homework

40 Doshi, Anil R,和 Oliver Hauser. ‘生成式人工智能增强创造力但减少新颖内容的多样性。’ SSRN,2023 年 8 月 8 日。papers.ssrn.com/sol3/papers.cfm?abstract_id=4535536

41 Bordoloi, Satyen K. ‘AI 的荒谬和恐怖幻觉。’ Sify AI Analytics,2023 年 7 月 2 日。www.sify.com/ai-analytics/the-hilarious-and-horrifying-hallucinations-of-ai/

42 IBM. ‘AI 幻觉:它们是什么以及如何避免它们?’ 访问日期:2024 年 8 月 25 日。www.ibm.com/topics/ai-hallucinations

43 政府技术。‘ChatGPT 回答编程问题出错有多频繁?’ 政府技术,2024 年 5 月 24 日。www.govtech.com/question-of-the-day/how-often-does-chatgpt-answer-programming-questions-incorrectly

44 Mole, Beth. ‘Don't Use ChatGPT to Diagnose Your Kid's Illness, Study Finds.’ Ars Technica, January 3, 2024. arstechnica.com/science/2024/01/dont-use-chatgpt-to-diagnose-your-kids-illness-study-finds-83-error-rate

45 Nova, Jo. ‘So Much for Peer Review: Wiley Shuts Down 19 Science Journals and Retracts 11,000 Fraudulent or Gobbledygook Papers.’ Joanne Nova's Blog, May 2024. joannenova.com.au/2024/05/so-much-for-peer-review-wiley-shuts-down-19-science-journals-and-retracts-11000-fraudulent-or-gobblygook-papers/

46 Cabanac, Guillaume, Cyril Labbé, Alexander Magazinov. ‘Bosom Peril Is Not Breast Cancer: How Weird Computer-Generated Phrases Help Researchers Find Scientific Publishing Fraud.’ Bulletin of the Atomic Scientists, January 13, 2022. thebulletin.org/2022/01/bosom-peril-is-not-breast-cancer-how-weird-computer-generated-phrases-help-researchers-find-scientific-publishing-fraud/

47 Alkaissi, Hussam, and Samy I Macfarlane. ‘Artificial Hallucinations in ChatGPT: Implications in Scientific Writing.’ ResearchGate, February 2023. www.researchgate.net/publication/368645928_Artificial_Hallucinations_in_ChatGPT_Implications_in_Scientific_Writing

48 Woodall, Tatiana. ‘ChatGPT Often Won't Defend Its Answers - Even When It Is Right.’ OSU News, December 7, 2023. news.osu.edu/chatgpt-often-wont-defend-its-answers--even-when-it-is-right/

49 Caulfield, Jack. ‘Is ChatGPT Trustworthy?’ Scribbr, February 17, 2023. www.scribbr.com/ai-tools/is-chatgpt-trustworthy/

50 Clark, James. ‘How Not to Write Like ChatGPT.’ Technically Product Blog, January 14, 2024. www.technicallyproduct.co.uk/writing/how-not-to-write-like-chatgpt/

51 Akhinoz, Ahmed. ‘The Hidden Dangers of ChatGPT and How to Prevent Artificial Hallucinations.’ Medium, February 23, 2023. akhinoz.medium.com/the-hidden-dangers-of-chatgpt-and-how-to-prevent-artificial-hallucinations-206861105d0f

52 约翰逊,卡哈里。‘DALL-E 2 创造了令人难以置信的图像——以及你看不到的有偏见的图像。’连线,2022 年 5 月 5 日。www.wired.com/story/dall-e-2-ai-text-image-bias-social-media/

53 哈特曼,乔奇恩,雅斯珀·施文佐和马克西米利安·维特。‘对话式 AI 的政治意识形态:关于 ChatGPT 亲环境、左自由主义倾向的汇聚证据。’ArXiv,2023 年 1 月 5 日。arxiv.org/abs/2301.01768

54 德·温克,杰里特。‘ChatGPT 倾向于自由主义,研究表明。’华盛顿邮报,2023 年 8 月 16 日。www.washingtonpost.com/technology/2023/08/16/chatgpt-ai-political-bias-research/

55 克莱因曼,佐伊。‘Twitter: 五种埃隆·马斯克如何改变用户平台。’BBC 新闻,2023 年 1 月 16 日。www.bbc.co.uk/news/technology-64289251

56 弗兰克福,哈里。胡说。新泽西州普林斯顿:普林斯顿大学出版社,2005 年

57 希克斯,迈克尔·汤森,詹姆斯·汉普里斯和乔·斯莱特。‘ChatGPT 是胡说。’伦理与信息技术 26,第 38 卷(2024 年)。link.springer.com/article/10.1007/s10676-024-09775-5

58 锡特隆,爱德华。‘萨姆·奥特曼和 FTX:一个警示故事。’你的爱德华在哪里?,2024 年 2 月 19 日。www.wheresyoured.at/sam-altman-fried/

59 对话,亚瑟·格林伯格和卡梅隆·罗伯特·琼斯。‘为什么 ChatGPT 不理解它在说什么。’快速公司,2023 年 4 月 9 日。www.fastcompany.com/90877523/chatgpt-doesnt-know-what-its-saying

60 阿兰,纳文。‘AI 是一个虚假的神。’海狸,2024 年 5 月 29 日。thewalrus.ca/ai-hype/

61 刘易斯,保罗。‘贾森·兰尼埃:危险不在于 AI 毁灭我们,而在于它让我们疯狂。’卫报,2023 年 3 月 23 日。www.theguardian.com/technology/2023/mar/23/tech-guru-jaron-lanier-the-danger-isnt-that-ai-destroys-us-its-that-it-drives-us-insane

62 布罗克曼,约翰。‘AI 的神话:与贾森·兰尼埃的对话。’Edge.org,2014 年 11 月 14 日。www.edge.org/conversation/jaron_lanier-the-myth-of-ai

63 Our World in Data. ‘人工智能训练计算。’更新于 2024 年 8 月 5 日。ourworldindata.org/grapher/artificial-intelligence-training-computation

64 Hardt, Daniel. 参考上文。

65 Thomas, Sean. ‘人工智能将如何摧毁写作。’The Spectator。thespectator.com/book-and-art/artificial-intelligence-ai-destroy-writing-chatgpt/

66 ISBNdb. ‘世界上有多少本书?’2023 年 10 月 10 日。isbndb.com/blog/how-many-books-are-in-the-world/

67 例如,请参阅www.fanfiction.net/book/Harry-Potter/

68 C.S. Lewis Foundation. ‘被误归功于 C.S. Lewis 的引言。’www.cslewis.org/aboutus/faq/quotes-misattributed/

69 Clarke, Laurie. ‘当人工智能可以创作艺术时——这对创造力意味着什么?’The Guardian,2022 年 11 月 12 日。www.theguardian.com/technology/2022/nov/12/when-ai-can-make-art-what-does-it-mean-for-creativity-dall-e-midjourney

70 Jennings, Rebecca. ‘为什么人工智能艺术总是有点糟糕。’Vox,2024 年 5 月 23 日。www.vox.com/culture/351041/ai-art-chatgpt-dall-e-sora-suno-human-creativity

71 Heikkilä, Melissa. ‘艺术家现在可以选择退出 Stable Diffusion 的下一个版本。’MIT Technology Review,2022 年 12 月 16 日。www.technologyreview.com/2022/12/16/1065247/artists-can-now-opt-out-of-the-next-version-of-stable-diffusion/

72 Kapoor, Sayash, and Arvind Narayanan. ‘艺术家现在可以选择退出生成式人工智能:这对创作者意味着什么。’AI Snake Oil,2023 年 3 月 9 日。www.aisnakeoil.com/p/artists-can-now-opt-out-of-generative

73 Babbs, Verity. ‘数字艺术家正在抵制人工智能。’Hyperallergic,2023 年 3 月 6 日。hyperallergic.com/806026/digital-artists-are-pushing-back-against-ai/

74 Albrighton, Tom. 《简单文案写作》。诺里奇:ABC 商业传播有限公司,2018 年。

75 作者协会。《人工智能:会员的实用步骤》。2023 年 6 月 7 日。www2.societyofauthors.org/2023/06/07/artificial-intelligence-practical-steps-for-members/

76 记忆阿尔法。《同化》。memory-alpha.fandom.com/wiki/Assimilation

77 托顿斯法律。《版权与 ChatGPT:你需要知道的信息》。2023 年 3 月 1 日。www.thorntons-law.co.uk/knowledge/copyright-and-chatgpt

78 里德,雷切尔。《ChatNYT》。哈佛法学院今日,2024 年 3 月 22 日。hls.harvard.edu/today/does-chatgpt-violate-new-york-times-copyrights/

79 瓦兰斯,克里斯。《“艺术已死,伙计”——AI 艺术家的兴起引发争议》。BBC 新闻,2022 年 11 月 12 日。www.bbc.co.uk/news/technology-62788725

80 克拉克,劳里。同上。

81 OpenAI。《OpenAI 的研究论文》。访问于 2024 年 8 月 25 日。openai.com/research/

82 OpenAI。《使用条款》。访问于 2024 年 8 月 25 日。openai.com/policies/terms-of-use/

83 作者协会。同上。

84 阿勒莫哈默德,西纳,胡塞乌·卡斯科-罗德里格斯,洛伦佐·卢齐,艾哈迈德·伊姆蒂亚兹·胡马恩,侯赛因·巴亚伊,丹尼尔·莱热恩,阿里·西亚科基和理查德·G·巴拉尼乌克。《自消耗生成模型走向疯狂》。ArXiv,2023 年 7 月。arxiv.org/pdf/2307.01850

85 黄金潜艇维基百科,《Suckophant》。yellowsubmarine.fandom.com/wiki/Suckophant

86 伊诺,布莱恩和彼得·施密特。《斜线策略》(卡片)。1975 年。www.enoshop.co.uk/product/oblique-strategies.html

87 托尔,厄克哈特。《静默之声》。温哥华:新世界图书馆,2003 年

88 巴斯塔尼,阿隆。《全自动奢华共产主义:宣言》。伦敦:Verso,2018 年

89 托马斯·海兰德·埃里克森,《时刻的暴政:信息时代快与慢的时间》。伦敦:普鲁托出版社,2001 年

90 马切伊夫斯卡,乔安娜。发布于 2024 年 3 月 29 日的推文。x.com/AuthorJMac/status/1773679197631701238

91 万·奥尔萨斯,克里斯。《哈里斯·伯迪克的秘密》。纽约:霍顿·米夫林·哈 court,1984 年

92 吉尔曼,大卫·J. 《使用 ChatGPT 编写对话:实用指南》。Medium,2023 年 2 月 18 日。medium.com/@dave.germain.79/writing-dialog-with-chatgpt-bd8024a69eb3

93 维尔豪尔,鲁万尼·P. 《内心阅读声音的特征》。斯堪的纳维亚心理学杂志,第 48 卷(第 4 期),2017 年。onlinelibrary.wiley.com/doi/10.1111/sjop.12368

posted @ 2026-04-03 21:57  绝不原创的飞龙  阅读(5)  评论(0)    收藏  举报