技术文章

您提供的链接内容似乎无法直接获取。我尝试访问时遇到了302重定向状态码,这通常表示页面已被移动或需要特殊访问权限。

不过,您直接粘贴在问题中的文章内容非常完整,我已经根据这些内容进行了分析。

该文章主要探讨了人类大脑与新型人工智能推理模型在解决问题时“思维成本”的相似性,属于计算机技术中的人工智能与机器学习领域。因此,我将按照您的要求,将文章内容翻译并整理为指定的Markdown格式。

大型语言模型(LLMs)如 ChatGPT 可以几乎瞬间写出一篇文章或制定一份菜单。但直到最近,让它们“犯难”也很容易。这些依赖语言模式来回应用户查询的模型,过去常常在数学问题上失败,也不擅长复杂的推理。然而,突然间,它们在这些方面变得强大多了。

一种被称为推理模型的新一代大型语言模型正在被训练来解决复杂问题。与人类类似,它们需要一些时间来思考这类问题——而且值得注意的是,某中心的研究人员发现,那些最耗费推理模型处理能力的问题,恰恰也是人们需要花费最长时间去解决的问题。换句话说,他们今天在《PNAS》杂志上报告称,推理模型的“思维成本”与人类的思维成本相似。

这项研究由某中心的副教授领导,研究人员得出结论认为,至少在一个重要方面,推理模型拥有一种类人的思维方式。他们指出,这并非有意设计。“构建这些模型的人并不关心它们是否像人类一样思考,”副教授说。“他们只是想要一个在各种条件下都能稳健运行并产生正确响应的系统。这种趋同的事实确实非常引人注目。”

推理模型

与许多形式的人工智能一样,新的推理模型是人工神经网络:当被给予数据和需要解决的问题时,学习如何处理信息的计算工具。人工神经网络在许多人脑自身神经网络所擅长的任务上取得了巨大成功——在某些情况下,神经科学家发现那些表现最好的人工网络确实与人脑的信息处理有某些共同之处。尽管如此,一些科学家曾认为人工智能尚未准备好应对人类智能中更复杂的方面。

“直到最近,我还在说‘这些模型在感知和语言等任务上确实很出色,但要拥有能够进行推理的神经网络模型,还有很长的路要走’,”副教授说。“然后这些大型推理模型出现了,它们在许多这类思维任务上似乎表现得更好,比如解决数学问题和编写计算机代码片段。”

实验室的博士后解释说,推理模型一步步地解决问题。“在某个时刻,人们意识到模型需要更多空间来执行解决复杂问题所需的实际计算,”他说。“如果你让模型将问题分解成部分,性能开始变得非常、非常强大。”

为了鼓励模型通过一系列步骤来逐步解决复杂问题并得出正确答案,工程师可以使用强化学习。在训练期间,模型会因给出正确答案而获得奖励,因给出错误答案而受到惩罚。“模型自己探索问题空间,”博士后说。“那些带来积极奖励的行为会得到强化,从而使它们更频繁地产生正确的解决方案。”

以这种方式训练的模型,在面临推理任务时,比它们的“前辈”更有可能得出与人类相同的答案。它们分步解决问题的特点确实意味着推理模型找到答案可能需要比之前的大型语言模型多花一点时间——但由于它们能在旧模型会失败的地方给出正确答案,它们的响应值得等待。

模型需要花费时间来处理复杂问题这一点,已经暗示了与人类思维的相似之处:如果你要求一个人瞬间解决一个难题,他们很可能也会失败。博士后希望更系统地研究这种关系。因此,他给推理模型和人类志愿者提供了同一组问题,不仅追踪他们是否答对,还追踪他们得出答案所花费的时间或精力。

时间与标记数

这意味着要测量人们回答每个问题所花费的时间,精确到毫秒。对于模型,他使用了不同的度量标准。测量处理时间没有意义,因为这更多地依赖于计算机硬件,而不是模型为解决某个问题所付出的努力。因此,他转而追踪标记数,这是模型内部思维链的一部分。“它们产生的标记并不是为了让用户看到和处理的,只是为了记录它们正在进行的内部计算,”博士后解释道。“就好像它们在自言自语。”

人类和推理模型都被要求解决七种不同类型的问题,例如数值运算和直观推理。对于每个问题类别,他们都面临许多具体问题。对于给定的问题,难度越高,人们解决它所花费的时间就越长——而人们解决问题花费的时间越长,推理模型得出自身解决方案时生成的标记数也就越多。

同样,人类花费最长时间去解决的问题类别,也正是模型需要最多标记数的类别:算术问题需求最低,而被称为“ARC挑战”的一组问题(其中成对的彩色网格代表了一种必须被推断出来然后应用到新对象上的变换)对人类和模型来说都是“成本”最高的。

博士后和副教授表示,思维成本的惊人匹配证明了推理模型在以一种类人的方式思考。但这并不意味着模型正在重现人类智能。研究人员仍然想知道,模型是否使用了与人脑相似的信息表征方式,以及这些表征是如何被转化为问题解决方案的。他们还想知道模型是否能够处理那些需要世界知识的问题,而这些知识并未在用于模型训练的文本中明确说明。

研究人员指出,即使推理模型在解决问题时会生成内部“独白”,但它们并不一定在使用语言进行思考。“如果你查看这些模型在推理时产生的输出,它常常包含错误或一些无意义的片段,即使模型最终得出了正确答案。因此,实际的内部计算很可能发生在一个抽象的、非语言性的表征空间中,类似于人类并不使用语言来思考的方式。”
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)

公众号二维码

公众号二维码

posted @ 2026-01-03 19:10  CodeShare  阅读(10)  评论(0)    收藏  举报