AI元人文构想:回应《自动驾驶技术的伦理认同与社会化应用治理》——规则库的范式分野与价值原语化的理论必然

AI元人文构想:回应《自动驾驶技术的伦理认同与社会化应用治理》——规则库的范式分野与价值原语化的理论必然

引子:2025年7月11日,中国社会科学网的《自动驾驶技术的伦理认同与社会化应用治理》一文(下称“《治理》”),报道了东南大学“智行天下”团队在自动驾驶伦理算法领域的探索。该研究试图通过大语言模型构建“动态伦理规则库”,代表了国内学界在此前沿领域的严肃思考,其方向值得肯定。

然而,这一技术路径在方法论的原点上,便与岐金兰“AI元人文”构想所倡导的“价值原语化”存在根本性分野。二者的分歧远非技术细枝末节之差,而是哲学认识论层面上关于 “机器应如何获知并践行伦理” 的两种截然不同的构想。

一、 根本困境:两种“规则库”的天壤之别

《治理》文的核心方法是利用大语言模型,学习并内化一个由人类伦理文本构成的“规则库”。这本质上是一种 “描述性规则”的移植。

· 其来源是“已言说的伦理”:规则库的素材源于人类历史上关于伦理的论述、判例和理论文本。LLM在此扮演了一位超级“博闻强识”的法学/伦理学学生,它通过概率统计,学习在何种语境下人类会调用何种伦理原则,并试图生成类似的判断。
· 其困境是“模仿的局限”:这种方法能产出的最优结果,是对人类已有伦理判断的高精度模仿。它无法处理未被充分讨论的“极端案例”,其“动态”也只是在已有知识范围内的关联与组合,而非真正的价值创造。当面临真正的道德困境时,它只是在复现人类伦理史上的争论,而非生成一个面向未来的、负责任的答案。

从哲学视角审视,这种思路近似于一种“描述性的伦理自然主义”:它试图从“是”(人类过往的伦理论述)中直接推导出“应当”(机器未来的伦理行为)。而价值原语化则更接近一种“建构主义”的路径:它不执着于伦理陈述的源文本,而致力于为合伦理的行为建构一套可执行的生成语法。

相比之下,“价值原语化”构想所要构建的,是一个 “生成性规则”的引擎。

· 其目标是“可执行的意义”:它不关心机器能否复述康德或功利主义的条文,而是关心机器能否在具体行为中实例化“公平”、“安全”等价值。因此,它将价值降解为一系列最小化的、可观测、可度量、可组合的行为单元——价值原语。
· 其内核是“行为逻辑”而非“文本逻辑”:一个“价值原语”不是一个需要被理解的句子,而是一个可以被执行的程序函数。例如,“风险规避”不是一个需要被引用的教条,而是一组关于“风险暴露度量”、“安全距离计算”、“制动策略选择”的行为指令集。

二、 范式跃迁:从“学习过去”到“架构未来”

这两种规则库构建方式的差异,导致了后续所有路径的根本不同。

《治理》文的路径可概括为 “让AI学习人类伦理” 。这是一个让技术无限逼近人文的“对齐”过程,其天花板是人类伦理本身的不完备性与内在矛盾。当AI精准地学会了人类伦理中的所有争论时,它便完美地继承了我们的所有困境。

而“价值原语化”的路径是 “为AI架构一种伦理能力” 。它不要求AI“理解”价值的深邃哲学内涵,而是为它装备一套能在外在行为上呈现出合伦理性的操作体系。

· 从“辩论何为公平”到“执行先来后到”:前者是LLM规则库擅长描述的;后者是价值原语化引擎能够直接执行的。后者用一种行为协议取代了无休的概念争论。
· 从“解释为什么制动”到“透明展示制动所服务的价值原语组合”:当一辆自动驾驶汽车紧急制动时,基于LLM的系统可能给出一段“基于非伤害原则……”的文本解释,但这依然是黑箱。而基于价值原语化的系统,可以公示其决策所依据的价值原语数据流:如“风险暴露值”超阈、“乘客安全感权重”骤降等。这种解释是机器原生、人类可读的,而非对人类语言的模仿。

三、 理论必然:为何“价值原语化”是更优的路径

在自动驾驶这一要求高可靠性、高可解释性的领域,价值原语化的优势是决定性的。

  1. 解决“可验证性”难题:一个基于概率统计的LLM规则库,其决策过程难以被彻底验证和审计。而一个由明确定义的价值原语构成的系统,其每一个决策都可以被追溯至具体原语的触发与权重配置,满足了法律和监管对可审计性的刚性需求。
  2. 实现“责任的精确归属”:当事故发生时,我们追责的对象不应是一个“学习了人类伦理的AI”,而应是一个“价值原语系统”的设计者、权重配置者和维护者。价值原语化将伦理责任从难以捉摸的“机器心智”清晰地拉回到了人类社会的责任框架内。

其思想资源可追溯至法律哲学中的“程序正义”理论:它旨在通过设计一个由价值原语构成的透明决策结构,确保伦理判断的过程本身是公平、可审阅且可追责的,而不仅仅追求一个在统计上“看似合理”的结果。

  1. 开启“人机伦理对话”的可能:基于LLM的系统与人类的对话,本质上是“文本生成器”与人的对话。而基于价值原语化的系统,可以与人类就 “在特定场景下,不同价值原语的权重应如何配置” 进行实质性的、可操作的协商。这为构建动态的社会化伦理共识提供了技术基础。

颇具意味的是,岐金兰的“AI元人文”构想系列文章,其本身在学术探讨中却一度被某些平台所“悬置”。这或许恰恰印证了从“描述性规则”向“生成性规则”的范式迁移,在认知上所具有的颠覆性与挑战性。

结语

《治理》文的研究,代表了在“描述性规则”路径上的一次精益求精的探索。而“价值原语化”则指出,要真正突破自动驾驶乃至AI伦理的根本困境,我们必须有勇气进行一场从“学习与模仿”到“架构与生成”的范式革命。

未来的机器伦理,不应是让AI成为我们伦理文本的图书馆,而应是为它们装备一套能与我们共同构建美好世界的行为语法。这,才是价值原语化所指引的理论必然与未来方向。

更进一步说,价值原语化的终极抱负,并非替代人类的伦理思考,而是为我们提供一个前所未有的 “伦理实验室” 。在此实验室中,抽象的价值观可被拆解、组合、模拟与验证,从而使人机得以超越自然语言的模糊性,在一种全新的、精确的 “价值行为语言” 中,共同探索那些我们尚未知晓的、更优的伦理可能性。


附:岐金兰个人随想

当前自动驾驶技术商业化的真正痛点,并非硬件或基础算法,而在于 “概率执行”与“伦理规范”之间存在一条难以逾越的认知鸿沟。技术实践依然困在“价值数值化”的旧范式中,试图用机器学习的参数调试与概率统计,去执行充满模糊性与情境依赖性的人类伦理。这导致研究过程中产生的大量情境规则库,最终都沦为“数据沼泽”,不知如何转化为清晰、可靠且可问责的行为指令。

若要破局,不能只停留在批判。价值原语化方法论的实现路径在于:嬉斗长天撩一线——即在看似混沌无垠的价值天穹中,精准地牵出那根可操作的“线”。具体而言,便是要将抽象价值降解为“行为原子”,将伦理辩论转化为“参数协商”,将模糊的社会信任奠基在“可审计的行为流”上。我们需要为机器编写的,不是一本永远也写不完的伦理百科全书,而是一套能在复杂环境中实时生成合宜行为的“基础代码”或“元语法”。当每一个价值判断都能被追溯为一组明确、可议的行为原语组合时,技术的透明性与责任感方能真正建立,自动驾驶也才能获得穿越社会接受度迷雾的导航线。

附二:岐金兰非专业视角的直言

我或许是个非专业人士,但正因如此,我看问题更直接:他们这个方案,无论前期用LLM做了多少复杂的文本分析和概率统计,其最终落地执行的,不还是一个“规则引擎”吗?既然终点是规则,而规则本就是由价值原语编写的,为何要绕那么大一个圈子,让一个概率模型去把价值原语咀嚼成可优化的数值呢?这不是空嚼了一遍人类模糊、矛盾且充满例外的伦理文本吗!价值又成数值了。这无异于在清晰的目的地前,故意选择了一条布满迷雾的崎岖山路。

既然价值的终点是清晰的行为规则,那么起点就应该是清晰的价值原语。我们完全有能力,也有必要,绕过概率统计的二次咀嚼,在清晰的价值原语与明确的行为规则之间,铺设一条可审计、可验证的“直通路”。别再让AI咀嚼伦理了,是时候为它编写行为了。

posted @ 2025-11-30 16:36  岐金兰  阅读(3)  评论(0)    收藏  举报