智源大会-2024-七-

智源大会 2024(七)

2024北京智源大会-意识与通用人工智能 - P1:意识是通向AGI的必由之路-主讲-嘉宾:刘 嘉 、提问嘉宾:罗欢 - 智源社区 - BV11b421H7JY

非常高兴,而且呃又参加我们每年一度的那个智源大会,嗯就像我们刚才主持主持人呢,那个就是李厚明老师所说的一样,就很多时候来,然后就是当你面对通用人工智能的时候,你谈未来,通常你所讲的东西就是一个笑话。

这是我去年刚讲了一个笑话,但是换一个角度上来讲呢,人有一种很奇怪的特质,他总是希望去看未来究竟会发生什么事情,因为当下我们是需要专注,但是像我们这一个大会呢,我们想更多的想知道未来可能会发生什么事情。

所以说今年呢我们就选了两个最著名的词,一个是在心理学领域最著名的词,那就是意识,没有任何一个词儿比意识这个词更加底层,更加让人心动,更加迷人,同时我们在人工智能领域里面呢,我们选用了通用人工智能这个词。

因为这个词在人工智能领域,没有任何东西比它更宏大,也没有任何东西比它更困难,那我们今年呢试图把这两个东西,把它绑定在一起,我们来看看未来究竟发生什么事情,所以今年呢然后我和吴思老师,我们讨论了之后呢。

我们觉得要走得更远一点,就是把我们今年的这个报告呢,把它变得半科学半科幻,我们来看看未来究竟可能会发生什么样的事情,因为我想只有当我们去畅想未来,以一个充满好奇的傻瓜去看未来的事。

也许我们能看见一个和聪明人专注当下的人,所看见的未来是不一样的,所以今天呢,然后我的分享题目就是意思是,通向AGI通用人工智能的必由之路,其实我应该打个问号,但是后来想想,既然都已经到了这步。

问号就不用打了,那么这是一个让呃骑摩托车的人,他不小心出了车祸头,然后撞上了路边的那个马路牙子,所以说你可以看到,让他前额叶这丢了很大的一块,那么丢了这么很大的一块之后,就出现了一个很大的问题。

它就进入了我们通常所说的,一个植物人的一个状态,植物人有什么样的特点呢,第一个让它能够进行能量的代谢,具有呼吸心跳血压等生理的这种活动,就像植物一样能活着,同时呢它也有些本能的一些神经反应。

但是他没有任何自主的行动,脑电波呢也呈现杂乱的状态,就说我们给植物人一个清楚的定义叫什么呢,他现在是自我意识,它就已经丧失了,但是他大脑里面真的没有任何活动吗,还是只是他他的他被囚禁在一个笼子里面。

无法和外界进行沟通,所以说心理学家呢找到一个非常聪明的方法,就是用磁共振来研究他们大脑究竟有没有活动,那比如说我们把在座的各位正常人放进去,我们会看到这么一个结果啊,就是首先我说哎请你想象一下打网球。

你不要告诉我任何东西,你躺在扫描仪里面,你想象一下你在打网球,这个时候你的运动辅助区SMA就会让很兴奋,因为这块参与你的运动,当你想像运动时候,你大脑这块区域就会活动,说OK那现在不用想像打网球了。

现在请你想象一下你们家长什么样子,你们家然后有几间房子等等,怎么样,这个时候你的与运动相关的区域,SMA就不会活动了,但是呢然后你的与场景加加工的区域,比如说PPA等等,这些区域就会活动诶。

这个时候表示你在想想像什么呃想象,那么现在一个很好玩的事情,这是我们在座每个人他的表现,但是我们把我们刚才所说的这个植物人,把它放进去了,我们给他说,请你想象一下打网球,他大脑会发生什么样的事情。

虽然说他现在完全没法做出任何反应,我们给他说,你现在想象一下你们家像什么样子。

那么这是有些植物人大脑的活动,他没法对外界做出任何反应,你看看他就像一个植物一样,但他大脑里面还在遵循你的指令,做出相应的反应,跟我们的在座的人完全一模一样,这就带来一个很大的问题。

为什么他大脑的功能还在正常的运作,但是他已经不能作出自主的反应,到底意识和认知功能究竟是一个什么样的关系,那么哲学家那长做了一个非常恰当的比喻,那么就是这个一个非常漂亮的风景,河水在慢慢的流动。

桥上呢站着两个人正在看着河水的运动,那么这些事,然后我们主观感受和意识之间的关系,也就是说,即使我们处于只要不是太严重的职务状态,那么我们的河流依然流动,这个河流代表是我们大脑,对外部信息的一个加工。

它在不停的流淌之中,而我们的意思就是桥上这些人看着这个河流,他对这个流动河流的观察,所以说哲学家约翰洛克,说了这么一句非常著名的话,他说意识是对心中经过自恋的感知,那么经过自恋就是这个流动的溪水。

而这个感知就是这桥上的人,那我们刚才的植物人发生了什么事情呢,河流依然在流动,它可以照样对外部的声音做出相应的反应,但是桥上的人不知道去哪里了,那然后我们实验室就用了一个非常简单的范式,然后来研究。

然后那个就是桥上的人究竟在什么地方,那么这是在心理学研究里面,一个非常经典的方式,叫做双眼竞争,那么他把一个红色的房子和一个绿色的脸,叠加在一起,那么这时候给你戴上一个眼镜,这只眼镜呢只能让红光通过。

这只眼镜只能让绿光通过,也就是说你左眼看见的是房屋,右眼看见的是脸,那么这个时候呢让把你放到扫描仪里面去,那么请问你现在能同时看见脸和房子吗,答案是不能,因为左眼进去的脸和右眼进去的房屋,他们会竞争。

最终你只能看见一个图形,同时呢这个图形它两者之间会切换,一会你看见一张脸,一会你看见一张房屋,但是你绝对不会同时看见脸和房屋,来回的这么一个切换,这叫双眼竞争,这是一个非常经典的范式。

还是按照刚才的方式,我们把他送到scanner里面去,然后我们来看他大脑究竟怎么活动,那么这个时候呢,我们就可以看见他的这么一个波动,那么就是你可以看见FFA和PPA,这两个老区啊。

它在来回的切换,FFA那就是与面孔加工有关系,而然PPA呢嗯怎么回不去了啊。

而PPA呢那就是与房屋有关系,所以说当你看到面孔的时候,FFA然后与面孔加工有关,会亮,当你看见房屋与让PPI然后有关的区域汇量,它来回的切换啊,抱歉啊,因为考到一个新的那个那个图上面去。

它的PPT有点乱,新的计算机上面去。

没关系,大家可以看一下,那我们怎么找去了解呢,我们就很简单,当你看见房屋面孔的时候,我们用红色标识,我把每一段你看见面孔取出来,我把这时间把它串成一串,我来得一个关于时间的这么一个,然后表征矩阵OK好。

同时呢然后我去满脑袋搜,我去每一个脑袋搜,我看哪一个它的波动的,这种是时间的这种pattern,和我面孔变化的这种pattern这种模式是一样的,那么这样呢我就可以得到一个脑区。

这个老区呢就是只要我PPA,然后怎么活动,它也跟着同样活动,同样的我可以,然后把房屋里出现的时候,我把这个然后老去的时间模式把它提取出来,我拿来,然后和整个大脑再搜一遍,我看哪些老区嗯。

和这个房屋的这个时间的模式它是一样的,呃抱歉啊,这个具体的细节我就不讲了,大家知道一个大概意思就可以了,那么这个时候我把这两个老区叠加在一起,我看它有没有一个当你看见面孔的时候。

我和你面孔保持同步这种波动,当你让看见房屋的时候,我和你房屋开始同步的波动,那我们找到了这个老区嗯。

怎么到学,我们找到了找老区,这个老区在那个就是那个内,那个那个就是infr front和junction嗯,没有它它它它它它会弹出一些安全提示警告嗯,好在这个老区里面,他然后很神奇。

他是当你看见然后面孔的时候,他和你面孔保持时间的同步,以同样的模式运行,而当你看见房屋的时候,他又转转头和房屋一块来运行,它是在我们前额叶所在的一个地方,那么而且这个老区特别的神奇。

仅仅只有在双眼竞争的时候,它会出现同步,当你单独给他看张面孔,再单独给他看见房屋的时候,这个老区和FFA和PPA这两个视觉区域,它不会存在任何一个同步的状态,那么也就说他参与了我们面孔和房屋的。

这个主观感知,那么这个时候来,我们就其实和以前一个MEG的一个,著名的研究其实保持了一致,它是一个什么结果呢,当你看见一幅图的时候,记住你看看到了这幅图K进入了你的意识,它先是视觉区域活动呃,X轴了。

是时间,然后它就像火一样慢慢传输到我们的前额叶,到前面早就开始亮起来,就跟点火一样,前额叶开始亮起来啊,我就看见这个图了,但是如果假设我这幅图呈现的非常快,你然没有看见,但是你看到了,但是没有看见。

然后这个时候呢你就可以看到,让只是视觉皮层会亮,但是前额叶就不会亮,这个让结果就表明,那前额叶它对于我们意识加工是非常一致的,但是上基于这个结果呢。

我们就可以这样对桥上这个人做一个建模对吗,他就是让一个这种那个人就是动态交替的过程,那么桥上的这个人他是怎么来转换的呢,我们就设立了一个,然后动力学的一个模型,那么我们用了一个那个呃。

那个就是STEAMAGE,就是一个共识,协同性还是什么之类的控制论里面的一个概念,那么然后我们来模仿前额页,它然后得到了,然后FA的输入,得到了PPI的输入,它怎么来啊,因为时间关系我就不讲这个细节。

那么同样的我们对于FFA和PPA,我们也可以同样的让进行建模,这里面在FA有个很重要的,就是它自己有一个呃那个就adaptation,它内部有个内场的这样一个变化。

那么这样我们就可以对意识让建立一个公式,那么在后面那张朱露莎老师和吴思老师,都会让对到底我们的意识可计算还是不可计算,然后做出这样一个讨论,那么这里呢,我然后就是暂时站在可计算的这个角度。

我们就可以来做这件事情,那么最后我们得到结果就是让一个大脑里面,一个场的这么一个分布,但开始的事它是处于一个安点上面,当你然后一旦开始发生变化的时候,它就可以滑向让其中的一个吸引子。

当这吸因子待一段时间之后,它又会滑向另外一个吸因子,它在这个厂里面来回的波动,所以这个时候,你就可以在我们这个简单的模型里面,你可以看到E那个对于面孔和对于房屋,这两个状态的一个切换。

而这个切换它的让这么一个分布,和我们在人身上观察到的分布是完全类似的,好,那么这个时候,然后我们就是得到了一个IFG这个区域,大家会问IFG,这个和通用人工智能到底有啥关系,你对吗,你在讲意识。

你在讲这所有的一切诶,你其实我们可以看这么一件很简单的事情啊,我们还是回到刚才那个很不幸的,头上被撞了一个大坑的这个哥们啊,你可以看到它的功能都还在对吗,他然后能够想象我在打网球,我能够想象打房呃。

在做房屋,我的每一个功能哎都是齐全的,但是它什么地方出了问题呢,它把每个功能都都在,但是它没有把它整合在一起,这就是然后的一个关于意识的,一个非常重要的一个假设,就是假设理论叫做全局工作空间。

也就是说你每一部分,你的每个特殊功能你都可以完好,但是我们要形成意识,需要这些功能一块到某个地方来进行交流,就像我们一个公司一样,我们到时候你是销售部门,你是生产部门,你是什么部门。

最终大家要坐在一起来聊个天,这样公司上才能正常的运作下去,而不是生产部门只负责生产就可以,大家一定要到一个地方来交流,这个交流的地方就被称为global workspace,而让一种假设是。

当然这个global workspace受到损伤了之后,他可能就不能再去让产生意识,但是各个独立的模块还是OK的,唔这那个啥简直太恐怖了,这个嗯那个然后就是N的way。

然后就是我也不知道为什么会出现这样子,那么当这个时候,然后那个就是如果假设现在呢,就是有那个就是搞人工智能的,就把这个模型,然后就开始用到,然后我们的机器人上面去对吗,我们机器人要去抓,要去拿,要去走。

要去听,要去做各种各样的事情,那么这个时候让一个很重要的那个理念,就是我怎么把这些独立的功能把它整合起来,让它像我们人一样,我可以一边喝水,一边聊天,我可以一边骑自行车,一边打手机对吧。

然后你打电话我可以让干很多事情,我能不能把这个global workspace,build in到我的机器人里面去,让我机器人能够变成一个能够完成多项任务,能够协调完成,就像我们人一样的这种进行工作。

那么这是让大家的一个努力,但是这个努力然后就会出现一个问题,因为global workspace它与我们的意思有关系,当你试图在机器人里面去模仿这件事情的时候,那么会不会机器人。

它也会莫名其妙地自涌现出意识出来呢,这是一个问题,但是我今天想给大家提供一种猜想。

这是的确有可能的,那么正是我们刚才主持人李厚明老师提到的,那个GPTFO,那么他的,然后就是他到现在为止还没有公布它的,然后一个架构,但是大家一个普遍的猜测到,他是一个混合专家模型。

就是它与我们传统的GPT3,一个大模型不一样,它是由很多小模型把它让拼起来的,比如这个小模型,它更多的善于做推理,这个小模型它更多的善于做语言理解,这个小模型更善于做其他什么事情。

那么然后当我信息来了之后,我都输给这些小模型,让他们找各自去处理,那么处理了之后,这些都把他们的工作提交到一个什么地方呢,提交到一个getting network,这去getting network。

主要他要做一个判断,我究竟采信哪一个小模型的结果,来进行一个输出,那么这就是然后那个就是混合专家模型,那么你看这个模式和我们的刚才所讲的,Global workspace。

是不是然后有同样类似的这么一个功效对吗,大家各干各的,最后让我要统一一下,让大家进行一个交流来干这件事情,但是这样干它会产生意识吗,在2022年,然后2月10号的时候,但是GPT3,然后还没出。

那个还没有正式恰到GPT还没有正式发布,但是当时GPT4已经然出来,已经练好了,但是他的然后GPT呃,但是然后就是在twitter上面,莫名其妙的就发了这么一段话,他说啊,我觉得现在的大的网络啊。

大的神经网络已经有了一丝一毫的意识,但这句话发出来之后,当时大家都笑话他,因为当时大家还没有见到ChatGPT,更不用说后面的g p t four了,所以大家去追问,你脑袋是不是出了点什么问题啊。

他也没有让再进一步的解释。

那么现在回过头来看,是不是他当时感受了什么,那么在今年那个就是4月份,然后那个那个就是HINTON接受了,然后一个采访在那个呃,来当时当主持人,然后问他说,然后把这段视频放一下。

I'm missing you subjective experience。

Um,Yes,I do i think they already to,主持人问他说,你认为现在的机器已经有了主观感知吗,Subjective experience,让HINER毫无犹豫,Yes。

I do,我认为他已经有了,所以说从从这点上来讲,我们然后那个意识,当你要去把各种模块,当你把各种特殊的任务把它集合在一起,用一个global workspace把它链接在一起的时候。

也许它就会产生一个意想不到的一个,APFLAMINA的一个东西,那就是我们的所说的意识,那么所以说然后你可以理解,为什么那个然后就是呃SAM奥特曼会被当时,然后那个就是那个open i的公司,为什么。

因为当时让大家意识到这是一个很严重的问题,这就是当时超级对齐和有效加速之争,那么然后那个呃伊利亚数字cover呢是超级对齐,一定要把AI的,然后这种观念和我们人的这种观念把它让对齐。

你不要找成为人的工具,而不是让成为人的terminator,而山姆奥特曼说OK这些东西不重要,我们先把这件事情推动起来,但是我们知道后面的结局就是,3M奥特曼王者归来,重新回到了open AI。

而伊利亚数字cover干什么去了呢,然后被迫离开了open a这个公司,那么现在呢,就是我们又到了这么一个关键的节点,我们让试图在推动AGI的时候,我们让它向前发展的时候,那我们究竟未来会变成什么样子。

所以说这里呢我让我想借用,然后那个就是马文明斯基,这是这哥们来着,现在已经去世了,但是当年然后他们是四人在那个达特茅斯college,他们让当时命名了AI这件事情。

这可以被标志为AI的一个正式的诞生的日子,那么他那个当时在那个推推动,然后那个就是情感计算的时候,强调情绪的重要性的时候,他刚说了这句话,他说现在的问题不是智能机器是否能拥有情感。

而是不拥有情感的机器是否能拥有智能,所说他这句话就推动了那个effective computation,让这个领域的让一个极大的活动,那么现在我想用它这个句式来表达一个观点,可能让明年我们再这个时候。

谈论这件事情的时候,可能李厚明老师又会说啊,说你看他们去年说了件特别愚蠢的事情对吗,但是我还是决定要把它说出来,因为有可能明年这个时候机器已经拥有了意识,或者AJI已经实现了,这都是一切都是有可能的。

到时候就不再是我们来发言,而是机器站在这发言,那么我把这句话说到这,说现在的问题不是AGI是否能拥有意识,而是不拥有意识的AI是否能拥有通用智能,所以说我觉得现代人还关于脑科学和AH呃。

那个AGI的研究的一个特别火的一个领域,或者一个热热点,就是我们应该去勇敢的去理解意识,因为关于意识的定义究竟是什么,我们还不清楚,但是我觉得现在已经我们迫在末节,我们必须要去关注这个问题。

因为我觉得这才代表了未来的AGI,而不是我们现在再去调调模型啊,再把参数上增加一倍啊,因为这些东西它不重要,它只是一个工程上的问题,那么但是然后,当我们真的来面对这个问题的时候。

我们有太多太多的问题了对吗,除了然后那个我们刚才讲的global workspace,这个理论之外,还有其他理论吗,它们对应的神经基础到底是什么,其实然后格罗布workspace。

它只是众多理论中间的一朵小水花而已,好我们的那个罗来自于,然后北京大学心理与认知科学院的罗欢老师,到时候会给大家分享到一个主题,就当认知神经科学在争争论意识问题的时候,他们究竟在争论什么样的问题。

所以他会给大家一个overview,然后就是关于然后意识这块理论的这些研究,我相信对大家有启发,罗汉老师刚才然和我说,然后说啊,他昨天工作到凌晨两点,让他把这种理论然后弄起来了。

所以说我觉得大家一定值得一听的,因为为什么他一定要工作到两点,因为他把最新的东西呈现在面前,那么这是第一个问题,第二个问题是,那然后就是我们有了这个,然后就是这一套之后,那么机器人他可能有意识吗。

如果他有意识,他应该是通过什么方法让他来获得,他应该是会是什么样的,那么来自于,然后就是清华大学航天航空学院的那个,就是隋亚兰教授,然后他会给大家讲,就构建巨生的意思就是从机器人,从他的肌肉。

从他的控制,我们来看,是不是像少林寺的武功一样自外向内对吧,然后你先去,然后练一身钢筋铁骨,让你的意思就有了,就像你就内功上就开始有了,那么我们来看这一方面,究竟会是一个什么样的问题。

那么让我们谈到意识,然后因为意识有很多层次,从主观感受,然后一直到它的最高峰,就是我们的自由意志,Free will,那么然后裴多菲有句很著名的话,叫做那个就是叫呃生命诚可贵,爱情价更高,若为自由。

故二者皆可抛,这个自由啊不是我们说的freedom,而是free will,我们自由意志,我们按照自己的想法去做事,这是最重要的,那么这是我们人类最引以为豪的,那么到现在一个问题是一呃机器。

当时那个就是HINTON在讲,机器可以用subjective experience对吗,这没问题,主观感受,但他能有自由意志吗,他能够让自己去控制这些东西,他的自控感究竟是什么样子,那么来自于北京大学。

心理与认知学院的朱罗莎老师,然后会给我们讲可计算的自控自控感,那么这个自控cf agency,那么就是上提到的,我们刚才与我们的自由意志有密切的关系,那我们的最后呢就是。

然后要从一个比较玄学的角度来讨论意识,什么是意识对吗,你说了那么多意思,到底他在指什么样的东西,它是一种神学吗,是哲学吗,它究竟是一种科学,对不对,然后如果假设是玄学的话,我们就不用然后去了解这些东西。

那么来自于北京大学,心理与认知科学学院的吴思教授,然后会然后给大家讲,然后一个问题就是意识是可计算的吗,你看这就是让显得比较玄学一点,打个问号,不像我这么坦诚啊,那来但是我们可以。

然后听到最后到底是什么样子,那么这些问题只是,然后我们列出来的一些非常小的一些问题,但是一些更重要的是我们应该怎么办对吧,面对这么复杂的东西,面对我们自己也说不清道不明的意思。

以及更加说不清道不明的AGI,因为这两个东西到目前为止,都是没有定义的意思,没有定义AGI同样没有定义,那我们究竟应该怎么办,所以说我觉得到最后呢,我们一定要拿一个东西来对付,这个两个严重的问题。

那就是我们的群体智能,那么这就是我们最后的一个圆桌讨论,让大家让可以敞开,让自己的心扉,然可以聊各种各样的东西,这就是然后我们说的前面是半科学。

这就是然在半科幻的,然后部分好,然后就是这个是我的,然后报告哈。

2024北京智源大会-意识与通用人工智能 - P2:当认知神经科学家争论意识理论时他们在争论什么?--主讲嘉宾:罗 欢、提问嘉宾:眭亚楠 - 智源社区 - BV11b421H7JY

哦各位下午好听得见我说话,嗯然后我非常荣幸参加这样一个论坛,这个这个我们这个imposing呢,是刘佳老师组织的,然后他刚才也说了,我这个昨天晚上工作到凌晨两点钟。

为什么呢,因为嗯这个题目对我来说就是这个感觉,嗯嗯我我的脑袋里一片空白,并不是说我没有做过认知神经科学的研究,也不是说嗯我对意识的神经机制一点都不了解,而是当我们面对这样一个问题的时候。

所有的人都会有这样一种感受,就是意识呢,一方面我们觉得我们都知道它是什么,觉得它很神秘,但另外一方面我们又不知道它是如何产生的,所以我想这样的一个一片空白的感觉,是很正常的。

然后我想引用一个著名的哲学家,DAVIDCHERS的一句话,来进一步去为我刚才说的这句话啊,Back up,那就是意识,实际上是构成了我们关于心智科学中,最迷人的或者最困惑的一个问题。

因为我们好像每个人都非常清晰的知道,意识是什么,然后但是另外一方面呢,他好像又是世界上最难去解释的一件事情,所以我把它总结为意识,就是我们最陌生的熟悉人,我们每个人好像都知道它是什么。

但是你又发现它非常的神秘,它如何发生呃,如果是作为一个,我猜这个在座可能有不同的背景啊,但是我想你们都是喜欢科学的,不然你们也不会来听这样的一个报告,那其实市面上有很多很多的书。

这是我随便搜集的,有些书我看过,有些书我没有看过,比如说呃前一段时间去世的DANIELDENNETT,他是最著名的心智哲,这个心智科学的哲学家,他活到应该是100岁左右,他写过大量关于意识的研究的书。

他也是非常早期的,这样的一些哲学家去把心理学呃,生物学啊,进这个进化论等等方式,来放到关于意识的这样的一个思考中,它有一个非常铁定的定律,就是认为意识是一定能够被解密的。

它就是来自于这个呃我们的人脑这样的一个,或者是根据我们的进化史上,它是背后是有物理基础的啊,当然他有很多的敌人哈,然后第二本书就是DAVIDCHERS,我刚刚提到的这个哲学家,后面两本书呢。

实际上是我今天呃可能想给大家分享的,那么他们都是认知神经科学家,他们关于意识的理解,当最后一本书呢也非常有趣,也是大家我猜都会想的问题,除了人,其他的生物有吗,那个聪明的章鱼有没有意识。

所以我只是放了一些书放在这里,那有很多很多关于意识的书,所以我今天要跟大家分享的是什么呢,我想说的是,意识是哲学领域的经典问题,这个问题在哲学领域讨论了非常久非常久,因为它关乎到一个非常基本的问题。

就是二元论和一元论的问题,笛卡尔认为我们的身体和我们的心灵是分开的,是二元的,所以我们理论上没有办法去回答意识这个问题,但是一元论认为,实际上,我们的主观思维是来自于我们这个物理器官的。

那么这个是一元论,那这在这个在哲学上是有很多很多的讨论的哈,还有就是说意识是不是为人所独有,包括意识的定义,这些都是哲学领域的经典问题,呃,或者或者换句话说,其实我对他们的了解呢是呃。

可能和大家很多中或者甚至于比你们还少。

但是另外一方面呢,科学家其实不是这样想的,科学家应该在30年前,没有哪个科学家敢说自己研究意识,大家知道是为什么吗,因为科学家要显得非常serious对吧,如果他30年前就说我研究意识。

估计他也找不到工作,也拿不到基金,所以呢嗯因为当科学家研究意识的时候,他既然是科学家,他肯定不是二元论,他肯定是一元论,所以主观体验如何从物质实体产生,今天大家坐在这里,可能会觉得科学家有答案。

但是我想30年前说,这个桌子或者这个东西能产生意识,没有人认为你是有科学的态度的对吧,所以我觉得这是一个背景,所以而且呢就算有科学家心里有这样的小火花,小种子,他也不敢说他要研究意识,为什么呢。

因为我们在回答这个问题前,我们还需要解决更多基本的问题,那这些基本的问题是什么呢,首先我们要打好基础,打好基础,就是了解我们这个脑这样的一个物理器官,它能够做些什么,比如说我们怎么看,怎么听,怎么学习。

怎么记忆,怎么注意,怎么做决策等等等等,还有包括我们怎么产生语言,我并不是说这些问题我们现在都知道,但是相比意识,他们应该了解的越来越多,包括我自己的研究,其实不是研究意识。

我也是研究这些category部分的,这个里面的一部分而已,那这个领域呢我们把它叫认知神经科学,认知神经科学呢实际上是神经科学和认知科学,认知心理学等等的结合,他的意思是去研究一些我们认知中的问题。

但是我们研究的思路是,这个认知问题背后的脑基础是什么呢,所以在这个方面呢,经过这么多年的发展呢,大家对于很多的认知功能越来越有了解,所以我们可以告诉你们说哪些脑区参与了什么,他们是怎么参与的等等等等。

OK这是第一点,我们要打好基础,了解基础认基本认知功能,脑基础,第二点就是我们肯定是要有工具的,那我们需要发展很多的科学测量的工具对吧,因为当我们说科学的时候,那其实就是不以我们的主观意志为转移的。

一些测量方式,那在这个其实脑电这里面有些技术很早啊,但是大部分的技术呢大概都是在近三四十年,30年的左右发展起来的,特别是呢功能磁共振的这样的一种发展,它会使得认知神经科学达到了一个新的高度。

如果你在一些科普书上或者公众号上读到,脑区负责什么,很多很多研究,特别是人的研究,都是在这些这个我们的实验设备上做出来的,我们任何一个正常人,都可以成为这些实验的设备的。

这个呃这个受试把你们塞到这个机器里面,让你们做一些认知的活动,刚才刘佳老师也提过了,然后我们去测量你们的大脑活动,和你的各种认知任务有关,比如说当你看到一个图片的时候,你大脑哪些脑去激活呀。

我能不能从你大脑的活动里面去解码出,你看到的东西呀,你的语言呃,你听到了一个语言,它会激活什么样的脑区啊等等等等啊,所以这些就可以在正常人通过非侵入式的方法,就可以去进行研究。

第二个呢就是行为测量范式的发展,当然这个发展的历史是比较久的,主要是来自于认知心理学,刚才正好刘佳老师也讲了一个双眼竞争的范式,可能大家经常会说所见对吧,就是你看到的东西一定是真实的,但是大家想一想。

如果你看到东西都是真实的,魔术是如何发生的,所以我们经常会视而不见,这是生活中很正常的事情,原因就是我们的大脑,实际上是不断的在被动的接受外界的信息,但是实际上这些信息。

虽然在你的大脑中留下了很多的痕迹,包括视觉的,听觉的嗅觉等等,但他都没有上升到你的意识上,然后你没有觉得你看到过他,甚至于你觉得你看到的过,他可能你之后也不能记忆起来,所以说句呃换句话说。

认知心理学发展了很多的测量范式,能够真的去测量你有没有看到,你看到的是什么等等等等啊,当然最后一部分呢就是呃这个和很多这个嗯,刚才正好刘佳老师也说到了,就是医院里的一些病例。

比如说我们人有不同的意识状态,比如大家现在如果听我的报告,昏昏欲睡,你的意识状态也在降低对吧,然后刚才提到的这个植物人,那么呃医院医生和这种认知神经科学家,互相的合作呢,也可以开始让我们去了解。

我们怎么知道他有没有意识,我们从外面看它好像是没有意识,但我们能不能通过一些方法来读取他的意识,知道呃是不是还适合于对它进行进一步的治疗,和这个拯救等等等等,所以这一部分呢也是发展科学测量工具。

来帮助我们,那在这样的一个基础上,我们有了测量工具,有了行为的,有了非侵入脑成像工具对吧,有了各种各样的嗯,大家开始感兴趣,我们还了解了我们人脑各个功能呃,各个部分在做什么等等等等。

那么这个时候貌似就到了一个时机,就是可以研究意识问题了,因为意识我认为它是一种集大成者的皇冠问题,意识既不是视觉,也不是听觉,也不是记忆,也不是决策,好像也不完全是自由意志。

意识也不完全是大家经常听说的自我意识,意识好像是一种嗯,把人就像一个那个小仙女的点金棒一样,有了意识这个东西就显得特别智能,所以呢它就成了一个大家现在讨论的,很多的问题。

那之所以在这个moment可以讨论,就是因为前面的这些基础的奠基对吧,就是我们从科幻小说里听到的,从我们的哲学思考里说到,真的到了这么几十年来,科学实验的累积和技术的进步。

让我们到了这个关口可以去研究这个问题,但是是不是我们就知道呢,我的答案是肯定不是,因为真的还没有到那个地步,所以它实际上是一个我觉得是一个frontiers,值得很多人去继续研究。

第二呢就是原来的时候意识,大家可能觉得是个哲学问题,或者是个心理学问题,但是呢现在呢有了很多很多学科的交叉,和思路的涌现,比如说呃DANIELTANANT,他早就把进化论的这种思维。

还有很多很多进行整合,然后认为这可以解释我们的意识,脑科学的进步,包括现在人工智能技术的进步,还有复杂系统,还有数学,还有很多基础科学的这个发展,都让我们对于意识,如何从大脑这样的一个物质系统里产生。

有了更多的假设,我说的是假设和思路,所以这种多学科的交叉,也可以帮助我们去理解意识问题,当然我觉得意识在这个时刻成为这个热点。

还有一个最重要的原因,什么原因呢,就是ChatGPT的出现,所有的人都开始觉得天哪,这个东西看上去好聪明,好像有意识,所以大家不要问我这个问题,CHAIGBT有意识吗,或者说每次我们一讲报告。

第一个问题就是老师请问什么是意识,这个完全没有办法回答的问题哈,就是所以说这个是人的一个很有趣的地方,就是你会隐约觉得他有意识,但你又说不清楚他到底有没有意识,那么但是这个问题就把我们意识研究的这样的。

一个皇冠问题,进一步的推向了这个前沿,因为我们又有了另外一派,就是他们完全不是基于生物,不是基于人脑,但是这个东西貌似有意识,所以我们如何去了解意识,意识是如何产生呢,这就更加的重要。

他确实成为了近期的头条,那今年就是据我不完全统计啊,nature上各种嗯无论是观点性的文章,实验性的文章还是等等的文章,他这个关于意识的,特别是脑机制的研究,当然还有和大语言模型啊。

还有和chi g b t这个呃也有很多很多不计其数,比如说这个是刚刚去这个,你看是5月份这一期,在神经科学的这个最顶级的期刊,neuron上的一个专刊,专门就是讲意识,他邀请一些人来去对意识进行综述。

然后有一些文章,那么另外呢就是就刘佳老师之所以找我讲呢,也是因为有一个项目,这个项目呢最近引起了很多的这个围观,这个项目呢大概是2020年开始呢,由美国的一个基金会支持的这么一个,其实钱不多。

但是这个项目之所以现在呃大家讲的比较多呢,就是叫culture it项目呃,我等会会给大家非常非常简单的介绍一下,这个项目,这个项目就是在世界上找六个实验室,大家一起去测试意识的两个理论,O k。

然后我们实验室呢就是呃这六个实验室之一,所以我们这几年也在参与这样的一些项目,然后这样的一个项目一旦出来了以后,就进了头条好多次哈,比如science里面专门讲哲学家和神经科学家。

他们和呃齐心协力一起来研究,我们能不能够把自由意志或者意识,这样的一个神经机制能搞清楚,然后我们这个项目有两个实验,实验二呢在去年在去年的这个nature上,他也被评为了九大科学期待之一,呃。

和这个大家知道的超算呐,还有这个登月啊等等项目,是所以说嗯也许我们平时做的东西,我们会觉得没有那么重要,但是看来这个问题在很多人的心中,大家都觉得是挺有趣的一个问题,好的,那么我们再回到这个题目。

所以大家可以看出来,我出我我起的这个题目是有技巧的,我没有说当我们争论意识的时候,我们在争论什么,这个问题太大,我这里面有很多的限定语,首先是当认知神经科学家争论意识理论的时候,他们在争论什么。

所以我们focus的是认知神经科学关于意识的理论,并不是意识的哲学讨论啊,另外呢我们强调的是他的争论,也就是说,这些不同的理论之间的相似或者是差别,他们如何去,就像两个人吵架,你如何说谁对谁错呢。

这个事情到底有那么难吗,其实是挺难的一件事情哈,那这里面就有四个点,我想给大家highlight一下,一方面就是认知神经科学的意识理论,显然是一元论的,这里面是排斥二元论的,不是说二元论不对。

但是当你放在认知神经科学这样的一个框架下,我们本来要研究的就是意识的大部分的功能,能不能用脑来解释,如果它不能,我们就继续研究,那么就给二元论留下一些空间,但是我们的这个出发点是一元论的哈啊啊。

第二就是呢它基本上是基于一些人脑的发现,现在动物的研究不多,因为动物有没有意识,或者是不同level的consciousness啊,还是一个继续争论的问题,第三个呢特别强调,我不是讲我的理论。

我也没有理论,我讲的是别人的理论,我给大家总结一下,所以我要是没有回答清楚啊,我也K呵呵啊,第四个呢,就是可能特别是对于不做科研的同学呃,呃不是老讲同学去了不做呃,科研的听众。

你们经常会觉得说这有什么很好争论的,你拿出一个证据,谁对谁错,不是一眼就很清楚吗,任何一个理论有那么多区别吗,那是因为当你说一个理论的时候,比如说你说我这个发现支持了我的理论,但是有可能你的发现。

能够被除意识以外的认知功能解释,那在你的同行里面就会觉得你的结果不干净,不清晰,所以他们就会继续吵,继续吵,所以这个就是吵架的一个源头,也是今天可能会给大家介绍一点点的哈,好的。

我就呃应该说我主要是想给大家讲三部分,主要是集中在第一部分,第二部分我会非常简单的过去,因为第二部分比较细节哈,第三部分呢我开始也没想讲。

但如果有时间可以去讲,我们第一部分呢就是来给大家讲一讲,什么叫认知,就是认知神经科学的角度,如何去解释意识从脑中产生的,那其实这个呢是来源于我刚才说过,意识在哲学里一直是个很大的话题。

但是想用科学的办法去研研究意识的脑机制呢,实际上大概1990年以后才发生,那他的主要的这个发起者呢,就是这个诺奖得主CHRISTAL,这个crick和这个克里克就是发现DNA结构的。

以及这个call call核是现在这个意识领域的,这个他现在是美国这个ELA研究所的所长哈,然后他对意识的这个一直都非常感兴趣,当时你看还是非常非常年轻的一个小伙子。

然后他们呢就呃提出来了这样一个hypothesis,这个hypothesis非常简单,就是他认为在人脑中呀,会有一个最小的神经的这样的一个集群,或者一种机制,他们呢就足够充分必要的。

能够解释任何的产生意识的现象,比如说你看到了一只狗,假如你有这狗这个体验,那么这一部分的NCC的,这样你可以把它想象成是一堆神经元的集群,它们就会被激活,相反如果你把这些NCC给打乱。

那么这个关于狗的意识就会消失,非常非常简单,所以他就可以想象成,他就认为你大脑里有这么一小团的关于神呃,意识的神经的相关,在那里能够解释意识的发生,他提出这个假设。

但是他没有什么证据,那之后的研究就是在做嗯,其实不同的理论呢它是有不同的着重点的,我们也经常会去混淆,比如有的人是强调我意识的内容,比如当你想象一个在一个呃对吧,一个麦田里傍晚的时候。

这种感受你想象的是去经历的这种意识感受,这个叫意识体验,但还有一种情况呢,就是刚才讲的这个睡觉呀,或者是植物人呐,他是意识的状态,所以意识分内容。

意识也分状态,这是不同的理论的着重点嗯,还有一部分呢就是说有的人呢是认为,其实也跟我刚才呃问刘佳老师的问题有关,有的人认为呢这个意识啊它最重要的是体验,它是一种现象。

换句话说你的意识是不不依赖于你去报告的,就是你自己本身的一种意识体验就是意识,但还有一些人呢认为,意识它最重要的是它的功能,就换句话说意识本身这个体验不重要,重要的是你如何把这些信息。

把它放到你的注意力,放到你的记忆里,所以这些都是不大一样的。

OK啊,这个地方有点confusing,大家不用管哈,好,那我就非常简单的给大家解释一下四个,这个现在比较主流的理论,就是关于意识的,来自于脑的这个理论,大家可以看到这都是脑,所以他们其实就标记了。

他们怎么认为这个意识发生的,然后这四个理论里面呢,其实那个项目里面主要测试的是那边两个理论,这边两个理论是啊还没有被测试,有一些项目开始去测试啊。

我们先来讲这两个就是呃怎么说嗯,没有完全进入热点的理论吧,一个理论呢他就认为一它叫高阶理论,它是什么意思呢,高阶理论其实非常有哲学含义的,他大概意思就是说,比如说现在大家在听我说话。

那其实你听到我说的这些话的声音,肯定是会进入你的大脑的听觉皮层被加工,然后你知道我在说什么,但是这不代表意识,意识是把我说的这个话作为一种体验,变成一种高阶的。

这个我们叫matter level的这种表征,这种东西呢已经不同于你真实听见的,真实看见的,他是这样的一个思路,所以呢他就认为这样的一个,你关于外界的这个物质,世界的这样的一种高阶的体验。

会表征在一个比较靠我们这个大脑前部的,这个区域,而且他强调呢意识是独特的,为人所独有,他不认为动物有,他认为动物可以体验,但是动物不会产生这种高阶的意识表征,OK啊这是高阶理论,那还有一个理论呢。

其实我把这两个合并了,叫做载入和预测加工理论,那么这个怎么大概是什么意思呢,就是我们这边是以视觉为例,我们都知道我们的视觉信息,从我们的眼睛会进入我们的视皮层,我们的视皮层在哪呢。

大概就在我们的后脑勺这个位置就是后面,然后这个地方的信息会沿着我们的视觉通路,传传到我们貌似更聪明的这个前面的这个前额,叶哈这块嗯,这个理论就是认为呢,我们对于外界信息的加工。

并不是一个简单的一个前馈的这样的一个过程,而是不断的在去预测外界,所以我们会有前馈,有反馈,而你的意识体验呢并不是一次的事情,而是要信息进来,然后你经过后面的这个反馈,然后两个产生了一个闭合环路。

这样的一个过程才是一个产生意识的过程,嗯这个也很好理解,比如说我刚才说了,你经常生活中有很多东西视而不见,视而不见的意思是说这个信息在你面前,它已经进入了大脑,但是它没有在你经过加工返回回来。

没有完成这个一个闭环的话,他就不会进入你的意识,当然这里面还有很多很很复杂的,这个我就不去讲了哈。

我现在就着重在讲两个,刚才刘佳老师也提到过理论,因为这两个理论也和这个项目有关,第一个理论呢其实是很好理解的,就是呃刚才刘老师说过的叫全局工作空间理论,他是这个法国科学家STAN特HAN呃。

其实还有其他的一些人一起提提出来的,他的呃理论其实很简单,他就是说嗯有点像我们现在这里,假设我们这个屋子里的所有的人,就是我们一个大脑,其实每个人都会有自己的一些小的功能模块,都会被激活。

那什么叫意识呢,意识就像是我现在站在了这个聚光灯的下面,那这个这个舞台呢我们把它称为全局工作空间,就是global workspace,它就像大脑中间的一个剧场一样,所有的信息只有进入这个剧场。

才能被广播给大家,换句话说,现在我们听众中有人有一个想法,但你没有像我一样站在这儿,那你的信息就没有广播给全脑,那你就不能上升到意识,但我不一样,因为现在我站在这个全局工作空间。

我就可以把我的所有的信息广播给大家,这个东西一旦被广播出来,他就认为进入了意识K,所以这个就是这个全局工作空间,所以我说他其实是最好理解的,就是他需要把信息在你的前额叶被点燃。

然后进入了这个全局工作空间,广播给所有的人,那么所有的人都知道了,他就成为意识上,如果你这个信息没有进入全局工作空间,那你只是残留在你那个地方,那它就没有进入意识,然后全局工作空间呢。

我这边就写了一些呃非常呃简单的一些summary,就他强调这个前额叶很重要,任何进入意意识的信息都必须在前额叶被点燃,如果没有被点燃,它就不能被进入意识。

OK好这个就是全局工作空间的理论,然后呢这个另外一个理论呢和它相对的,也是我们这次测试的呢叫做整合信息理论,这个理论呢实际上是最复杂的一个理论,这个理论呢实际上嗯,它是来源于物理学家的一些思考。

他呢刚才那个是在讲我怎么样进入全球空间,我来解释一下是什么意思啊,首先他是注重现象意识,就是你不用报告,就换句话说当我看到的一个东西,我的体验是什么的,他认为什么叫意识体验呢。

首先这个系它是必须要有信息的,比如现在大家就有一种意识体验,他认为他有信息的,另外他有整合的,整合的意思就是说你的意识不是破碎的,分离的,而是一个整合的东西,你现在回想一下。

你现在的意识体验是不是整合的,确实是整合的,然后这种整合又可以区别于其他,他在这样的定义系统下呢,他就去找一种物理的结构,能不能解释这种信息整合,K,然后他的一个最重要的假设。

就是认为我们的意识是来自于这个神经元,网络本身的复杂特性,就是这些神经元和神经元之间的连接,包括它突出地址的这样的一个传递和调控,然后这样的一个抽象的神经元形成的集群呢,他们如果具有某些特性的话。

这里的特性就叫causal effect structure,意思就是说它们之间的关系是很复杂的,可以涌现出一些特性,当这个特性达到一定程度的时候,它就可以自然地涌现意识,那大家看到没有。

这里面隐含了一个假设,是你你不用去问他有没有意识,只要它的结构具备了,它就有产生意识的可能性,OK这是非常非常不同于前面的前面,类似于你要去报告对吧,这里说不是的,就比如说还是刚才那个剧场。

就假设我们这边的呃,这个桌椅形成了一种非常复杂的这个结构,网络的话,即使你们不用走到这个前台上来,你也可以产生意识,所以这个理论跟刚才那个理论,是有特别大区别的啊,那么这个理论非常难测试的。

原因就是如果你想测试一个系统的这样的一个,他们叫causal effect structure的这个值,他们把它叫反啊,它需要大量的测试,它需要去扰动,而且可能两个一起扰动,三个一起扰动。

再去观察它的扰动效果,最后根据这个计算这个复杂系统的这个程度,通过这个程度来测量这个这个结构,所以它在实验上是非常难操作的,K然后呢但是他有一个假设,就是他发现人脑的后部的脑区,特别是顶叶的这些结构。

它有很多层级的反馈的,很多的结构,他们认为这个结构是非常具有高复杂度的,所以他们认为意识不依赖于前面的脑区,而是应该产生于后面的脑区,所以这就是这两个理论最大的区别,前面一个理论认为。

我们的前额前部的脑区很重要,这个理论认为后部的脑区很重要,前面的认为意识要进入全局工作空间,后面认为意识不需要被报告,他在后面这个结构中就会自发的涌现,OK所以我把这两个理论,四个理论讲完了以后呢。

呃我再给大家总结一下这个特点,后面那个项目我就会非常简单的过了,就是这个全局工作空间呢,他其实在证据支持上是非常非常之多的,有很多的研究都支持他啊,但是呢他的对大家最大的批评,就认为这个全局工作空间。

和我们很多认知过程都会混淆,比如他可能跟工作记忆有关,跟注意有关,跟报告有关,跟很多有关,所以他好像不是一个很纯粹的意识现象,OK那么IT呢他虽然避免了这个问题,但是他太理论了,然后比较难解释。

而且他也很难去测量,就变得貌似不可证伪一样,所以呢他也是一个被诟病的这么一个一个呃。

一个这个理论,那这个我们参加的这个quit project。

其实就是测试这两个理论,大家可能会说,那你们是不是测试出来结果了呢,所以我会非常简单的理论很复杂,在生活中,在实验中是非常骨感的,呃这个我们只要做科研的人都知道这一点哈,然后这个项目它的初衷呢。

就是右边的这幅图来解释,就是科学家当有一个理论的时候,他往往会有一种confirmation bias,就会他会在这个世界上寻找证据来支持他自己,嗯然后他就会形成这种信息茧房。

就是每个人就在自己的这个圈里面找,哎,你的证据支持我好,我们是朋友,我们两个就扩大你的证据不支持,我就不跟你讨论,或者我觉得你的实验设计有问题,所以呢这样一个confirmation bias。

就导致很多理论互相之间没有办法talk,所以这个项目呢就是也是这个cock,他们等等等提出来的,他们就希望变成一个对抗性的合作性的,由六个实验室独立的去验证的这样的一个项目。

那这个项目呢我就非常快的过了哈,它我们把它叫coach it项目嗯,他强调team science。

由世界上六个实验室独立的采集数据完成,他强调预注册,预注册就是在你做实验之前,先把你的假设给出来,放不放在网上,你不能再偷偷的改假设。

OK然后呢它是用了三种模态的技术,包括功能磁共振。

脑磁脑电和一种颅内脑电的技术,我们就是负责这个脑磁这部分的哈,还有呢它是呃标准化这个实验分析的,就是你在做实验之,在发布数据之前,你的这个分析都要在网上shared的。

你不能说我自己去developing1些。

我再调调参不行,然后呢他会把big data在发布以后。

全世界的人们都可以去分析它,然后他这个analysis code,比如呃可能有人说我不会分,我不会分析怎么办,那么这些分析的这个代码也都会共享在网上。

最后呢我们实际上是先做出,完了以后再去replication,另外一个就导致就是可以去很多比较fair的。

去做这样的一件事情,你可以看到这个CODY的项目是非常大的,然后里面有一些postdoc,然后还有一些呃center p i,还有一些就consultant的等等,但我特别想讲的是那个啊正好诶刘琳也在。

就是我们这个项目里面,最主要的这个真的是干活的人,就是现在在北京语言大学工作,刘玲博士,他是参与了这个项目,从2020年到现在,包括收集数据,分析数据和大家去交流等等哈,嗯在这个项目里面设计了两个实验。

我的时间已经到了,但是anyway这个实验我不给大家解释了,因为呃解释完了,大家又觉得没有意思了哈,呃如果你真的对科学感兴趣,其实这两个实验在网上都查得到,而且有具体的这个细节。

就是因为在预注册的文件里都有,然后呢在我们做实验之前,我们都会给假设这个假设呢就会产生这样的图,比如说GNW他就认为有两个假设,这两个假设呢在实验一实验二里,他发现什么。

如果他比如说大家可以看到这两个绿的,都发现了,那就是表示pass了,就表示他成功了,假如他有一个是红的哎,表示他这个理论fail了对吧,如果是一个绿的,一个黄的,表示哎它有一些challenge。

还有等等等等,会把它全部列出来,这两个理论各自都会列出来,那么最终呢你就把六个实验室的结果汇集起来,然后去测试这个东西。

我把这些都去掉,因为这两个理论,它啊这两个实验室focus on不同的这个方面哈。

这些都非常的,我们直接看结果吧,我觉得大家也只想知道结果对不对。

OK啊我们来看下结果,其实这幅图就是结果,这个还是很有趣的一个图,这个图呢其实就是把这两个理论,各自的发现汇集完了以后,用绿和红来代表支持还是反对,如果纯绿就是代表完全支持,然后红色就是代表反对。

那大家通过这个图已经看出来了,哪个理论好像胜算高一点呢,是IIT对吧,GNW稍微弱一点,然后因此呢我我我我我一定要在这个,哪怕今天没有时间,我一定要把这个讲完哈,原因就是因为大家看到这个图了以后。

你们的第一印象是什么,就会说啊,我明白了GG那个IIT赢了,GNW输了,所以如果我们中间有很多媒体的朋友在,我特别想强调这一点,就是我们经常会非常简单的去解释一个结果,然后本来呢这个结果不是这样的。

但是我们会把它放大传播成一个理论。

赢了一个理论输了,就是因为这个结果。

就导致了一个最近一个非常严重的事情啊,正好那个孙涛老师也在啊,就是有120万了,120几个科学家联名写了一封信,在去年的时候来认为IIT这个理论是伪科学,然后当时那个科学报道那个呃孙涛老师。

记者还采访过我这个问题,然后大家就说啊,为什么IIT是伪科学,其实很简单,原因就是这个实验的发布貌似支持IIT,但是其实它只是支持IT,在这个实验中间提出的假设,他这个实验并没有去算it里面很核心的。

那些特别难的东西,所以它其实只是部分知识,或者说我们需要在一定的约束下,去解释这个理论,比如说这个实验并不能够完全支持,it里面最核心的假设呀,这个实验也不能够完全被解释成IT赢了呀,啊总之我我我我。

我觉得这个地方是一个非常非常重要的一个point,不是说IT赢了,而是在说在给出的这几个假设中,id的证据更多而已,K最后我总结一下,就是说意识这样的一个问题呢,大家都觉我说了,他是一个最陌生的熟悉人。

那么通过这几十年认知神经科学的发展,我们感觉我们已经到了一个地步,可以去慢慢的回答这个问题,我也希望呃,我今天说的在明年的时候不是被打脸,但是我觉得好像应该永远都是对的,我我不觉得明年咱意识问题能解。

能解决是肯定解决不了的,嗯但是我们可以有多学科的交叉。

多多学科的角度,对意识理解的革命能够去帮助我们。

2024北京智源大会-意识与通用人工智能 - P3:构建具身的意识-主讲嘉宾:眭亚楠、提问嘉宾:朱露莎 - 智源社区 - BV11b421H7JY

呃我是做相对来讲,这个更偏向于这个工科计算的啊,所以呃所以这个今天的今天,这个报告也会从一个工程的角度,就是我从一个构建的角度啊,我们如何来构建具深的意识呃。

how do we do the embodiment of consciousness啊,对大家看到这个不是电脑有问题,或者是屏幕有问题啊,这是这个背景。

是我们的consciousness的一部分的呈现啊,所以这个我们会在后面来讲,它为什么是这个样子啊,但是在这个之前啊,先部分的呃,这个延续我们这个呃这个报告很好的传统,就我们每个报告之间。

都会有相互的这些连接的啊,我的报告和前面这个刘老师的报告,还有罗老师的报告,都会有这比较比较多的连接,首先第一处啊,刚才我们会说cheat g b t。

do you have consciousness对吧,这个有多少,大家可能在罗老师提了这个事情之后,来自己来查了一下,然后大家估计一下,CHEGPT会给一个什么样的一个结论,或者给一个什么样的回答。

他会认为自己有意识,或者认为自己没有意识,我们猜一下多少人认为他会去回答自己有意识,啊呃这个多少人会认为他回答呃,他他呃就是他自己没有意识啊,好我现在再换一个问法,多少人认为拆GBT有意识。

多少人认为拆GPP没有意识,好的我们来看一下他给的答案啊,两两种语言给出来的回答基本上是这个呃,基本上是一样,chef g b t do you have consciousness啊。

那么我们看中文的吧,啊我整个报告主要用中文来讲,没有我没有意识啊,我是由OpenAI开发的人工智能啊,旨在基于数据的模式处理生成文本,缺乏人类和动物所有的自我感知,情感和主观体验,这些都是意识特征。

哎所以他把意识特征在这个里面列了一下,我的回答是通过算法生成的,没有对内容的理解或感知,大家注意哈,这个里面其实出现这个结论呃,对于我们比较熟悉这个model building的这个,这个群体来讲的话。

这是不太意外的啊,因为这这样所有这类问题的结果,全部都被manipulate过,哈哈啊,是我们经过了这个安全,经过了对齐,经过了好几轮的这些处理,最终让大家看到一个让我们觉得。

Not very senoffensive,或者是even not offensive at all这样的一些结果啊,那么这个结果本身是这个four o的这个版本,给出来的啊,那么不同的版本。

大家也可以来测试一下它的它的这个效果啊,那么这里呢前面呃老师们也讲了,说哎这个呃意识到底是人所有,还有还是这个呃人独有,还是人和动物可能都有对吧,大家可能从CHEGBT的这个回答里面。

他至少在这个事情上他是有倾向的好啊,那么这是简短的一个,对于我们前面问题的一个回应啊,那回到我的报告的这个主线上来讲啊,我们把那个意识的背景去掉啊,清晰的看到我们如何来想,通过接下来的20多分钟时间啊。

来给大家来讲一讲,我们可能以一个什么样的方式,可能能够从下而上的,以这种自下而上的方式来构建自我意识啊,我们的意识包括有对外的,有对内的,那么今天其实主要讲的是对内的。

how to build the self consciousness from the bottom up啊。

那么也就是说我们呃这个在报告的结尾的时候,我们看到这这是什么啊,how do we dive into the sea of self consciousness啊。

那么以及他和接下来的我们的非常直观的,这些运动行为之间到底有什么样的关系啊,那么他们两个之间的这是怎么样来关联上的啊,那么这和我的研究主线有关啊,那么我研究什么。

我其实研究learning to move啊。

我们如何来运动啊,那么这里更为具体一点,learning to move是一个非常非常宏观的一个描述啊,那么更具体的我的研究命题是面向聚身,智能和脑机交互的主要是人类的这个神经肌肉。

骨骼系统的建模与强化学习啊,那么下面这个小括号里,其实会更加偏向于一些理论,还有方法上会比较关注安全,关注偏好反馈,关注结构化的决策空间的优化啊,那么前面两个安全约束和偏好反馈呃。

这呃在大概2018年到2022年之间,逐渐变成了比较热的这个话题啊,那么结构化的决策空间啊,这其实我今天要讲的主要的内容啊,也就是其实是我们如何来构建世界模型,如何来构建自身模型,以及在这个基础之上啊。

到底什么是自我意识,以及我们如何能通过构建的方法来形成啊,那么今天时间有限啊,我们主要可能还是会围绕着这个自身模型的,这个构建啊,因为本身世界模型的构建,其实是聚深智能领域里面。

大家如果明天去听聚神智能的报告,这个几乎是呃所有的这个报告里面,主要都在讲世界模型啊。

呃这个自身模型,可能这是我们是唯一一个来讲这个事情的啊,好啊,那么我们在座的很多是对于这个心理认知,感兴趣的同学们啊,大家可能对这个名字比较熟悉对吧啊,WILLIAMJAMES啊,也是美国的早期的这个。

非常有代表性的心理学家啊,那么同时呢早期的这些都是全才,既是心理学家,也是哲学家啊,那么他在这个1890年,也就是130多年之前的,这个当年非常有影响力的一本教科书里面啊,当然就提出来过,不是原话啊。

但是我做了一定程度的这个呃,这个不改变其本意的,这样的一个这样的一个转述的表达,Thinking and movement are driven by common mechanisms in the brain。

啊啊这是当年心理学仍然在很早期的阶段,人工智能领域不存在啊,那么研究movement本身是有一些比较,比较这个悠久的传统,大家知道达芬奇及达芬奇,在以前我们很多的定量的对moments研究啊。

那个时候他提出来的这个假设,直到今天呃,我还是比较认同啊,那么当我们把thinking和mo呃,Driven by common mechanism,这件事情可以放在一起来谈的时候。

其实这里面就进入到了我研究领域,强化学习,Reinforcement learning,大家看到右边这是经典的这个sun bartle,reinforcement learning的教科书啊。

中间呢这是说reinforce learning是什么啊,是我们有个体啊,智能体可以是agent,我们有环境啊,然后呢我们有状态空间,左边state space,我们有动作空间啊,那么他们共同来构成。

强化学习的主要的这些单元啊,那么在这个基础上,我们来看如何把世界模型,自身模型和自我意识啊一步一步的来构建啊,那么可能在座的听众,不一定对于这几个关键词都那么熟悉。

没关系,我们一个一个来,what is the world model啊,那么work model本身,在今天其实有两大类的这样的描述啊,大家这个如果你们去看的话,这里并没有形成一个统一的。

对什么是word model的一个,这个这个完全没有争议的一个结论啊,也在于说这是一个快速发展的领域,但是大的其实是两类,一类呢是什么,一类是上面的这个小标题。

The image of the world around us,which we carry in our head is just a model啊,那么从这个视角来看啊。

就是我们如何构建一个抽象的,对于世界的这样的一个表征啊,这是这是一类这个很重要的,很有道理的一个想法啊,说什么是world model,this is the world model啊。

那么右边的这其实是另外的一类,我们从工程和技术的角度上来讲,以构建的方式我们来构建simulation environment,大家今天看到的所有在现实世界里面,能够用的比较好的这些这个机器人也好啊。

我们聚神智能的也好的,这些场景都是有赖于过去的这几十年里面,Simulation,Environment,出现了一个这个这个快速的一个提升啊,那么这是我们对于事件模型啊,两类主要的理解方式啊,来这这里。

这里其实可能这只是主流的这个认识啊,并不是特别的精确啊,但是我们今天也是这个,不追求特别的精确的细节啊,再就是自身模型啊,what is this self model啊,那么self model。

那么这个其实也有非常悠久的历史啊,know the self啊,就是我们如何来认识我们自己,这也是这个雅典的这个神庙里面的非常重要的,这个格言之一啊。

这其实self model看我们对于self的定义是什么,它可以是聚身智能领域里面,研究非常多的机器人,机器狗这个机械臂的这些这些场景,或者是自动驾驶的这些无人车等等啊,那么它可以来做一个非常高精度的。

数字孪生的一个展现啊,那么这是一种来构建自身模型的方式啊,那么未来的环境里面如果没有人啊,只有这些设备的话,那么我们能以一个近乎完美的方式,对于它们来进行模型的构建啊,但可能那不是我们希望看到的啊。

我们希望在未来看到的环境里面,仍然是有人的存在啊,那么对于人的存在,那么就需要我们有对于人的模型,对于人的构建啊,那么可能终极的我们的环境,反过来是要和人来交互的,而不是完全和没有人的。

这些系统来进行交互的啊,那么这里就会有人的骨骼肌肉系统的展现呃,也会有人的神经系统的这样的呈现,共同构成我们非常复杂的self model啊。

好那么我们有world model,我们有self model啊,在此基础之上,我们可以来谈一下意识啊,好这里同样的前面两位老师都讲了,我们其实对于意识今天没有一个很好的定义啊。

上面这其实是一个描述性的定义,这个描述性的定义也是翻了很多地方啊,最终回到了wiki p点,大家在wiki上面找consciousness这个头条,第一个第一句话就是这句话,但它是一个描述性的。

它不是一个很好的一个定义,为什么我们来读consciousness,At the simplest,首先这里放有一个简化,At least simplest,这就是我们不喜欢的对吧,但是没没没办法啊。

我们继续来接下去,is awareness of internal and external existence啊,这里其实问题主要出现在那个标黑的关键词,awareness啊。

他用同义词来对这个概念进行解释啊,这不是一个好的解释,对不对,我们相当于数学上我们用本定理来证明本定理,这件事情肯定是老师会给我们扣分的,对不对啊,但是没办法,在我们的这些偏向于前沿的很多这些领域里面。

它会存在大量的这种模糊,我们一看这个概念觉得非常有道理,我们第一印象会觉得非常有道理,但是接下来一看不对,awareness是什么。

awareness on就是consciousness的另外的一个描述啊,好那么这里面我们不纠结他的这些具体的定义,今天我们没办法给他一个明确的定义,哎但是我们看下面的啊。

Is awareness of,What is awareness of internal and external existence,这里的internal和external existence。

就对应着我们前面几张片子里面给大家讲的,soft model and world model啊,好那么今天呢我们不讲word model相关的事情,我们就从self model出发啊。

从它以它为基础来构建self consciousness,这里我专门写了个括号,Self awareness,大家如果上网来查说哎what is self consciousness啊。

会发现大量的用self awareness啊,来解释它来做这个替代关系的,对吧啊,还是说这这个本身并不是一个很好的一个,最解决方案,但是没办法,这就是我们在这个领域里面的现状啊。

下一页幻灯片会非常有意思,下一页幻灯片大家刚刚看过啊,is theories of consciousness啊,主要的这这几个,但是这里我不去讲他的这些细节啊。

这里我们讲他的limitation是什么啊,整个这一系列的工作,其实一个很大的limitation是最后弹出来的这一项,the spring in a vat啊,这是缸中之脑的研究方式。

所有的关于这个领域里面的,大家的这些这些重要的研究,前前面的这个罗老师讲迪奥的研究,tony的这这这些研究等等,大家在就脑子在说脑子这件事情啊,那么就脑子在说脑子这件事情,和这个没有区别啊,对吧。

我们把它来放在一个好的一个培养基里面啊,然后我们认为他可能重要的是什么,重要的是到底输入和输出是什么,在这里如果我们只看一个片段,一个截面,意识是不存在的,意识一定是一个有时间变量的,而一旦有时间变量。

就涉及到了它的输入和输出是要同时存在的,以及是要连续性存在的,大家回想一下,我们前面讲强化学习的这个loop,本身就是在讲这件事情啊,所以这也是引出了,我们为什么要讲说意识的具身性啊。

那么一元论和二元论啊,在这个事情上,本身这个报告是来支持是一元论的,意识是有它的这个具身性的,以及它的具身性,有可能是不是能够通过对于世界模型,还有对自身模型的深入的研究啊,去实现一个理解好。

那么这里最这个这个高亮的,这个自身模型的部分啊,我们来简单的来这个呃这个来接呃,向大家来这个汇报一下我自己的研究组啊,在这方面的一些探索啊,那么呃首先我们来看说self model啊。

对于我们人来讲可能和环境交互的这个系统啊,首要的是人的神经肌肉,骨骼的这样的一个动力系统啊,那么我们是不是可以把这个系统来做一个建模,来作为我们self model的一个起始啊,好。

那么要做面向感知和调控的这个中枢和外周,神经系统建模啊,对不对,因为我们说如果只有中枢,又只有中枢的脑的上面这部分的话,可能我没有办法充分的来体现意识的具身性啊,所以我们从中枢和外周来做这些。

模型系统的构建啊,这里有一个非常幸运的事情呢,是我们本身有大量的这个领域的同行,大家在做脑的建模啊,从图谱的角度,从整个功能的这些连接的这些角度啊,所以呢我自己的研究组啊,这个规模非常有限。

我们能做的事情非常有限,我们其实把中枢的这件事情,希望我们的同行们能够快速的把它做出来啊,所以我们更多的是做Y轴,我们更多的是为什么我们title叫做这种,自下而上的方式。

我们希望先从简单的这些部分来做起啊。

好那么这是神经的方面,不是我们今天的主要的这个呃,这个报告的主题啊,今天主要报告的是从神经的再往下的啊,肌肉骨骼的系统,这也是我们今天不管是来类人的,人形机器人也好,还是我们自身也好啊。

这是具身智能和面向具身智能和人机交互,的一个基础模型啊,这是我的研究组来做的,一个我们叫精确的全身的肌肉骨骼模型系统啊,构建与控制啊,我们给它起了个名字叫做muscular scatal。

human seven hundred啊,呃这个MS作为这个muscular skeleton呃,这个肌肉骨骼模型的这样的一个缩写啊,那么seven hundred是什么,我们下面会说啊。

好这是一个完整的人的骨骼,肌肉的这样的一个呃,这个肌肉基建单元的构建啊,我们在这里所谓的完整,就是在我们有限的这个进化,如果我们往前看100年,1000年,1万年,10万年,大概在这样的一个尺度上的话。

我们大概不会比这个模型在发生什么,实质性的变化,所以这个模型做到这一步上,我们至少从肌肉的数目上来讲,我们已经做够了啊,从我们这个物种,从我们这个物种来讲啊,而我们希我们希望来做到高的解剖精度啊。

以及呢在这个高的精度上,能够和外界环境来交互,以及可以来实现一个高的计呃计算的效率啊,我们做了这么多的这些肌肉骨骼,如果没有办法去很好的控起来啊,没办法让它来实现类人的这些行为的话,我们在他的基础之上。

也没有办法来研究任何和意识相关的东西啊,好那么这是我们为什么管它叫ms human seven hundred啊,因为它一共有700个肌肉基建单元啊,我们人有多少块肌肉啊,200多块啊,还有吗。

肯定不是700啊,告诉大家,因为这基建技术基建单元是有这个拆分的啊,多少还有200多,300多,还有,我们有600多块肌肉啊,那么在座的各位,其实大家的肌肉的数目,可能精确的数字是不太一样的啊。

我们的我们的肌肉介于骨骼和这个神经之间啊,我们的骨骼基本上健康的这个成年人啊,大概的这个骨骼的数目是一定的啊,那么人的神经元的数目是大家是千差万别的啊,那么肌肉其实是600多块,但是不同的人啊。

这个在我们的这个进化的链路上来讲,机有的数目会多少有一点不一样啊,但是也不会差太多啊,600多块肌肉,我们把它做成700个这个肌肉肌腱单元啊,的这样的一个呈现,这是我们的面部以下的整个模型的构建啊。

那么它可以做什么,它可以做和机器人的交互,和外界的这些设备的交互,它可以做很多的,我们从世界模型到构建了这个自身模型,可以在这个基础上来实现自身的控制啊,那么我们可以在此基础上来实现。

说诶一些是不是和意识相关的啊,一些研究啊,那么这里其实是关于这个模型本身构建的,一些这个具体的细节啊,我们如果想以自下而上的方式来构建,高级的这些功能,我们希望先把低级的底层的这些东西。

尽可能的做的精确一些啊,那么这是body segments呃,大家可以这个粗浅的认为,就呃这个简单认为这本身是鼓的啊,这些这个呃不太可以整体连接在一起的,这样的一些单元的数目啊,我们的关节的数目啊。

然后我们总共的这个肌肉,肌腱单元的这样的数目好,那么为什么我们说哎我们有600多块股,但是要做700个基,有基建单元啊,那么这里其实是大家看右边,这个是一个典型的例子,腰大肌让我们来维持站立的姿势。

非常非常重要的一个这个这个呃,这个呃一一个主要的肌肉啊,那么它其实是有多个连接端的啊,那么这样的多个连接端的这些肌肉,我们会把它做相应的拆分啊,拆分成若干个肌肉基建单元啊,这是为什么。

其实建呃我们这个模型整个建立起来,虽然它还没有包括我们面部的肌肉,我们一些其他的这个呃呃运动相关的这些呃,这些这个这个,但是和骨骼运动这些没有太大关系的这些肌肉,但数目也已经超了啊。

我们还可以再继续的把它再进行,更精细的一些拆分,以及对于每块肌肉啊,肌肉的控制本身上来讲啊,它其实是也是一个非线性的啊,一个通过神经激活的这样的一个过程啊,那么好了,我们希望是能够以一个神经激活的方式。

来得到肌肉的激活,从肌肉的激活再得到肌肉的力,从肌肉的力再得到它驱动我们关节运动的力矩,从驱动关节力矩,在得到我的这个人是如何来运动的这个样子。

来进行一个自下而上的构建啊,啊,那么这也要求我们确实,在整个建模的这个过程当中啊,对于人的解剖,对于人的整体的这样的一个系统的构建啊,要有相应的这些工作啊,那么这样的模型也会比今天我们看到的。

聚神智能系统里面的这些典型模型啊,大家会看到说哎,我们会今天看到有很多四足的机器狗,轮组的机器狗,人形的机器人,整个机械臂等等,这些控制的维度和我们观测的维度,也就是前面讲的。

action space and state space的数量大概是在怎么样,数量基本上都是在这个few dozens啊,几十这样的一个数量啊,那我们肌肉驱动的人体模型,已经在这样一个简化层次上哈。

它是要上了一个多数量级啊,将近有将近两个数量级的这样的一个规模啊。

所以我们如何把它来控制起来,其实也是一个非常困难的一个事情哈,那么这里我们不去讲特别细节的诶,我们如何去把它来控制起来,在这里面我们来讲说简单说一下,这里面其实自我意识是如何来体现的啊。

自我意识在我们的这个问题里面,我们认为它是你所有可以以这样的形式来上升,向上传的这些信息啊,那么它是自下而上来形成意识的唯一的源头啊,对吧,所以呢我们的这些PROPERCEPTIVE啊。

本体的相应的这些感觉啊,我们是人人在实时的从我们身上的所有的肌肉,获取相应的信息,至于这个信息到底到哪一集被整合到哪一级,被过滤啊,到哪一集开始,这个呃这个能够被我们的意识进行显著的放大。

这个事情我们今天还很不了解啊,但至少我们知道的是,这些是我们对于本体感觉意识的这样的一个。

来源所在啊,好那我如果能够有好的控制的方法,能够把这样的一个,这是今天为止可能最累人的一个动力学的模型,能够把它驱动起来。

那么我们可能就有希望能够知道说哦,那么这个运动相关的这些意识的来源啊,是什么样子的啊,因为当我们看到这些模型的时候啊,我们会知道说诶人来做这些动作,我们都会做啊,但是来做这样一个动作的整个时间序列里面。

你身上的每一块肌肉是怎么样来收缩的,这件事情没有人知道,我们也没有实验可以来对这件事情进行测量啊,那么我们能做什么,我们能用模型来逐渐的来逼近这个过程,然后模型可以告诉我们一些。

我们可能永远都没办法真的在人身上去实测的,这样的信息的输入,并基于它来看哦,到底什么是我们形成高级意识的,这些基础的输入的信息源好。

那么同时呢,我们还要在人上来做相应的这些实验,来确保什么,确保模型和真的人的这些运动的过程,本身它是这个符合的啊,它没有一个这个显著的这样的一个偏离啊,这是怎么样,我们从世界模型到自身模型。

到最终能够形成自身的这样的控制啊,那么大家可以看到说诶,这是本身我们来可以控制它,来模仿一个这个呃,111个一个特定的人的一个步态啊,那么左上角这是我们本身都是我们的模型啊。

整个四个图都是我们的这个模型啊,但只有左上角是我们的方法啊,呃我们希望最开始希望把模型做出来之后,现有的方法就能够把这模型很有效的驱动起来,但后来发现显然不是这样子,不管是自然行走也好。

还是我们让这个人来穿上一个外骨骼也好,对吧,将来大家可能会想一下,就我自己来在各种各样的这些与环境交互的,这些测试里面啊,在你真的去做这个之前啊,我们可以来做这样的一个事情来试一试啊。

以及对于一些这个残障的人士,比如说需要安装假肢的人啊,我们来simulate本身这个假肢装上以后,他拿着这样的一个东西到底舒不舒服,到底能不能走啊,到底能不能实现它的,整个在这个过程中的信息啊。

本体感觉的所有的这些信息是怎么向上传的啊,以及基于他们可能我们如何来形成。

相应的运动相关的一些意识啊,好,所以这些都要求我们能够,有效的把这些系统能够控起来啊,好啊,那么前面的这些这个前面的这样的一些就是呃。

算法类的工作啊,其实我会呃相应的我们我们都略过去了,这里涉及到大量的需要这些呃机器学习的优化,还有一些高性能计算的啊,所以在这里大家看到右下角,我们也会致谢这个AAMD。

对我们来提供这种这个高性能的计算的这些呃。

这些平台啊,呃那么那么最终我们自下而上来构建的。

这些自我意识,大家看到的,我们其实这个在开篇整个这个蓝的非常闪啊,让人觉得看不清标题的这是什么,这是我们本身整个这个人在实现左边的这个,步态的十秒的过程当中,当然我这里在重复循环的在放这十秒钟啊。

那么本身它的本体感觉向上传的这些,将近3000维的这些信息,当然我们这是简化了,因为是每块肌肉,我们把它来做一个有限维度的,这样的一个处理啊,好下面红的这个矩阵随时间变化的,这是本身我们的。

给他所有肌肉的这些控制信号啊,你要有这样的控制信号,它才能够动起来啊,不然的话他是可能马上就会摔倒了,大家注意,这里是基于动力学的,真实的这样的这个控制的方式啊。

它不是computer graphics,像计算机图形学动画一样,这些来做一个动画效果,这是真实的可驱动的啊,这个物理的过程啊,那好了,那么在这个层面上来讲,我们可以后面更进一步的去把它和人的。

向上的神经系统去结合,去看我们如何真正能够对于意识的自下而上的,一步一步的这个形成有一个量化的一个描述啊,好所以左边我们会这个点,今天的题,这是我们今天的self model啊。

也是AGI路上的很重要的一步啊,今天这个我们我们觉得这个AGI,只是时间问题是吧,可能不是有无的这些问题啊,那么整个的我们的背景其实是这个,我们如何来dive in the sea of the呃。

self consciousness啊,好那么最终这个我做一个简单的总结,今天的报告呢,其实是主要聚焦于我们聚身智能的这样的一个,自身模型的构建啊,也是希望通过它能够以这种自下而上的方式。

from the bottom up的方式,来构建一个这个意识的一个量化的一个描述啊,我们从世界模型到自身模型啊,到最终的这个自我意识,可能在此的这个呈现的这个方式啊,那么也是在这个过程当中啊。

我们这个会可在可预见的这个将来啊,我们会希望和大家一起来迎接我们人类智能的,这样的一个巨变的时代啊,这个聚变是fusion啊。

这个聚变不是那个dramatically changing或fast changing啊,虽然说这个也是一个呃很有可能发生的事情啊,但是the fusion of human intelligence。

这是我们在今天有非常强的感觉,正在发生以及会持续的快速发生的啊。

好的我就在这里结束我的报告啊。

2024北京智源大会-意识与通用人工智能 - P4:可计算的自控感-主讲嘉宾:朱露莎、提问嘉宾:吴思 - 智源社区 - BV11b421H7JY

OK啊谢谢大家,然后我今天要讲的题目是可计算的控制感,那什么是控制感呢,给大家举一个例子呃,Imagine,你现在回到家,天黑了,房间一片漆黑,你伸出手去非常习惯,你要伸出手去按一按一下那个电灯的开关。

这都是你每天做过很多很多次的工作,你不会有任何的感觉,但是如果万一你伸出手向着熟悉的地方一摸,诶,那个开关不在那里,或者你还没有按到那个开关,那个灯突然之间亮了,或者你按下了那个开关,结果那个灯没有亮。

在那一瞬间,你大约会感到心中一惊,那这种一惊的感觉,其实就是我们控制感的丧失,虽然很多时候我们对对于自己,control自己来做一些事情,说一些话并不一定有控制感,但很多时候当这种控制。

当我们这种非常流畅的和外部世界,打交道的时候,出现了这种错误的时候,这种控制感的丧失,其实会带给我们一个警觉的信号,那我想说的这个控制感,它其实呢就是我们有一个主观的意愿,采取了一种行为或者行动。

然后会导致一个外部结果,我们对他的一种感受,这种感受呢有的时候呢会叫做self agency,也有些地方叫做CONTROLLABILITY,或者还有一些其他的词汇,我们在这里呢不做这种讨论。

那简单的来说呢,就像凯撒说的,我来我见,我征服,它描述的是一种人类,也许是人类独有,也许不是的一种主观的感受,这种感受是我们知道我们自己在做什么,我们知道我们自己做的这件事,它的后果是什么。

而这样一种对于外部世界,对于自己行为的一种控制,其实是我们的自由意志和我们的呃意识,的一个重要的基础,那给大家看一个例子诶,在这个例子里,其实跟刚才的隋老师的讲的有一丢丢的关系。

这是我经常给本科生上课的时候,我们在课上会做的一个演示,在这个演示里面呢,如果你想自己把自己的手抬起来,事实上你大脑的运动皮层会要发出一个指令,这个指令呢会通过我们的这个脊髓,然后传递到我们的胳膊。

所以呢如果我们在胳膊上贴上这么一个电极,它其实会截取到我们这样子一个啊,从大脑传递过来的电信号,我们把这个电信号呢通过一个放大器,放大了以后,这个电信号呢会操纵一个机器臂,使得这个机械臂也发生运动。

大家可以看一看,啊这个旁边的机器臂跟着一起动,如果现在声音太小,不然你还可以听到这个机器臂运动的声音,但是在另外一个情况下,我现在呢请另外一个同学把呃,把这个同学的胳膊抬一抬,所以呢胳膊仍然崛起了。

但是呢并不是他自己自主的运动,而是由别人产生的运动,我们可以看到,这个时候,其实它的运动皮层并不会散发这种指令,因此呢我们也不会从他的胳膊上,截取到任何的电信号。

这个时候呢这个机器臂也不会做出任何的运动,这个例子呢事实上就告诉我们,我们这种自主产生的运动和,仅仅只是我们的胳膊抬起来,其实他们在生理上,在神经系统上是有fundamental的区别的。

而我们人类其实可能可以不依赖于一个机器,我们看到这个机器臂有没有动,我们就能够感受到,能够判断到这个运动是我自主产生的,而且不仅是运动,我能判断到某一句话,某一个想方法,我能够抑制我的本能。

我的情绪等等等等,这些都是我们的自主控制,那为什么我在今天这个会议上要谈这个问题呢,一个很重要的一个原因是,我们猜想建立一个有自主控制能力的人工智能,可能是建立一个有社会道德。

负责任的AI的一个必要条件,那在法律上有一个概念叫做刑事责任能力,他指的是一个要为自己行为负责的自然人,必须要有能够辨认,能够控制自己行为的能力,否则这个人不需要为自己的行为承担法律责任。

这是为什么儿童很小的孩子,他们不需要负法律责任,为什么有些精神疾病患者不需要负法律责任,为什么有时候你的大脑里面长了一个肿瘤,然后这个肿瘤呃损害了你的这种控制的能力,这个人也不需要负法律责任。

这是为什么,有的时候我们被教唆犯罪,被命令犯罪,我们的责任比较小,但是那个教唆犯那个命令犯,他的责任比较大,这也是为什么,有的时候我可能因为一个无心之举,比如说我不由自主地打了一个喷嚏,造成了一场悲剧。

在这种情况下,可能我受到了社会谴责,道德谴责比较小,而如果是我故意的蓄意的去做一件事,可能我的谴责会比较大,因此我们想说的是这种我自己能够意识到的,对自己行为的一种控制感,他是所有的社会责任。

道德法律的基础,没有这种自控感,所有的奖励惩罚都失去了意义,那如果有一天,我们要建立一个能够具有社会责任的AI,也许仅仅只是对其AI的奖励系统,和人类的奖励系统,让他知道人类喜欢什么和不喜欢什么。

可能是不不完全够的,我们可能还需要这个系统,它能够把自己的行为和行为的后果建立连接,这个时候我们才有可能给他使,带来一些和人类类似的道德感,那下面一个问题来了,这种自控感听起来是一个非常玄学的东西。

就像我们刚才讨论的意识一样,那到底什么是控制感,我们能够测测量它吗,能够在计算上实现它吗。

呃呃首先呢我们想说一说,那的确是有可能可以测量的,而且测量的结果是这种自控感,很有可能是一种脑补,这是心理学家一个非常非常经典的实验,在这个实验里面呢两个人是吧,一个呢是这个参与实验的一个背试。

另外呢其实是那个做实验的一个假背试,他们俩人一起面对面坐着,然后需要用手来控制鼠标,这个鼠标呢就会在电脑屏幕上移动,但其实呢,当鼠标移动到这个电脑,屏幕的某一个地方的时候呢。

其实呢这个鼠标并不是由这个背式在控制,而是由他坐在他对面的那个假背式他在操纵,但但这个背身他需要判断说是不是我的运动,使得这个鼠标在屏幕上发生运动了,我们发现呢,事实上呢如果这个假背是做出来的。

行为和这个真被式是一样的时候,这个真贝式其实很多时候他自己会脑补说,诶其实就是我的胳膊的运动,使得这个鼠标动起来了,事实上其实明明不是那样子,那这就说明说诶我们看到了我们行为的,我们看到一些结果是吧。

这个鼠标在屏幕上运动,我们自己知道自己做出了行为选择,所以我们脑补说我们的行为造成了这个结啊,这这这这个这个这个结果,那比这个例子更极端的例子是什么呢,那还有一些科学家让一个贝士戴上手套。

然后呢他的手可以做各种各样的手势,然后我呢并不会直接的看见我的手,在做什么手势,而是呢通过一个镜子看屏幕上哦,那个录像机录出来的,我的手实时的在做什么手势,可是有的时候呢我看到的其实不是我自己的手。

而是呢这个屏幕播放的那个录像机,在另一头,另外一个人戴了和我一模一样的首饰,在做的一模一样的首饰,当这个手势比较复杂的时候,这个背试事实上是有相当的概率会会以为说诶,我看到的其实明明不是我自己的手。

但是我会认为那是我的手在做一些手势,而且呢当我们的大脑左侧的顶叶受伤的时候,这种错误会变得更加的明显,所以呢在刚才我讲的这几个例子里面,我们说的呢其实都是一种叫做回顾性的控制感,什么意思呢。

今天其实前面这很多老师讲的东西的,都是一个前瞻性的,比如说我有一个主观意愿,所以我知道我要控制我的行为,产生结果等等,然后这种研究事实上也非常多,但是比较难以研究,所以我偷了一个懒。

我来把它转换成一个相对比较好研究的东西,那就是回顾性,也就是事实上呢,当我们的大脑在看到我们做出了一个行为,产生一个结果的时候,大脑事实上会随时随地的问自己说,诶这个结果是不是到底由我产生的。

是不是我操控了这个结果,那为什么我们要研究这种回顾性的控制感呢,有两个原因,第一个原因是这样子的一种控制感,它可以通过学习来获得,可以使得我们建构一个更强大的控制能力,变成更强大的智能。

第二个原因是这种控制感,它可以在计算上实现,那首先我们先说一说他为什么可以获得,那这里面的一个例子呢,就是婴儿嗯,这是一个UCUCUCSUCDAVIS,还是UCSD的一个一个实验室做的一个工作。

他们研究的呢是婴儿怎么笑,那事实上呢婴儿刚刚开始笑的时候,其实只是一个反射性的运动,一个reflex大概是在六个星期左右,他们开始有社会性的微笑,然后更有意思的是,在四个月左右,他们开始有策略性的微笑。

什么意思呢,也就是说在那个时候,那个这些科学家会研究说,当这个婴儿和母亲互动的时候,母亲和婴儿他们都什么时候开始笑,什么时候结束笑,然后发现一个很有意思的现象,那就是当母亲的策略,事实上是我选择。

我开始和结束笑容的那个起始点,使得我和baby我们一起笑的时间越长越好,而婴儿其实不是这样子的,他选择开始和结束的起始点,是使得母亲对她笑的时间越长越好,并不是我们俩一起笑的时间越长越好。

所以你可以看到这个图上,这个图的零点呢是妈妈在笑,而婴儿已经停止了微笑,那这个显示的是婴儿在什么时候又会开始微笑,他并不会马上开始微笑,他会等等等,等到一两秒钟,妈妈已经有可能会停止微笑的时候。

她又笑起来,使得妈妈会维持她的微笑,这样能使得妈妈对她笑的时间越长越好,而我们甚至你也可以用这个策略,来建构一个仿生的机器人,然后用这个仿生的baby呢和母亲互动,发现母亲的这个笑容的模式呢。

和她面对真的婴儿的时候是一模一样,那这个例子就说明,我们可能可以具备一种能力,来控制我们的肌肉运动,从而呢能操控外边的世界。

那除了对我们自身的操控以外,事实上我们还会学习操控很多,不是我们自己身体一部分的东西,比如说工具,比如说脑机接口,那这个例子,事实上是世界上最早的第一粒老机接口,比英文mars不知道早多少年。

这是20年前的工作,这是每个聚会的科学家,他们在猴子身上实现的,所以大家现在看到这个显示屏呢,是一个电显示屏,这猴子坐在这儿,他面对着这个显示屏,这是他的大脑,他大脑上开了一个洞。

插了很多的那个电极进去,这些电极呢可以实时记录,这个猴子运动皮层的神经元的活动,然后呢这是这个猴子的胳膊,他的胳膊呢放到一个这个遥控器上,它可以遥控这个游戏杆,然后操控这个屏幕上的这个光标的移动。

当这个光标呢要切过一些目标物体的时候,那这个游戏就玩赢了,这猴子呢就可以喝到好喝的果汁,所以这个猴子的工作其实还挺幸福的,他就每天坐在这玩电脑游戏,然后可以喝好喝的东西,我们可以看一看。

所以大家可以看到他的胳膊在运动,你看这个东西,它穿过那个大圆盘,那就说明他胜利了,然后他就可以喝到果汁,所以他已经玩的非常非常熟悉了,他可以非常自如地操控这个游戏感,那这里面一个很有意思的事情。

大家可能也都知道,做脑机接口的,我们就可以通过我们实时记录的这种神经运动,皮层的神经活动的信号,来训练一个机器学习的算法,由此呢我们能够解码出是个猴子,这个时候他希望他的胳膊往哪个地方运动,然后呢。

我们可以把这样解码出来的,一个机器学习的算法呢,就去就去就交给一个诶,这为什么不跳嗯。

对交给一个机器臂,那然后呢让这个机械臂来代替这个猴子,来操控这个这个游戏呃,光标,然后呢使得他获得好喝的,但是这里面有一个trick什么呢,那就是我们没有办法告诉猴子说,你现在不需要移动你自己的胳膊了。

你只需要想,你只需要用意念就够,那猴子它有没有可能真的能够学习到,或者获得到这种控制感呢,那大家现在看到的情境呢,就是这个猴子获得了这个控制感,是他把他的手放到了这个,平放到这个这个这个操纵杆上。

但是他没有移动,他在用自己的意念控制这个机器臂,从而来实现了这样的一个操控。

这说明一件什么事情,说明诶不,我们智能体包括猴子在内,我们可以通过学习获得超越自身的对假肢,对工具,甚至呢是对比如说运动员是吧,对球拍,对球等等等等的这种控制感,实现我们对外界更强大的这种控制能力。

实现更强大的智能,那事实上这只猴子在几年以后呢,他们也就实现了,说让这只猴子,它可以用意念操控在日本,大洋彼岸的,另外一个比他高六倍的一个巨型的机器人,而且可以实时的实现,就实现了这种对外界的控制。

那上面一个问题来了,既然这种控制感是可以学习和获得的,那我们到底是怎么样来获得这种控制感的呢,那一个一个一个经典的神经科学里面的假说,是我们的大脑啊,其实是一个时时刻刻在进行推理。

预测和归因的这么一个机器,举这种视觉的例子来说,比如说现在呢我的眼睛看到了一个苹果,这个苹果其实是一些光线,投射在我的一个二维的视网膜上,我这个视网膜上有些地方亮了,有些地方黑了。

然后我的大脑需要通过我这个视网膜上,对光线的感知来判断说我看到的到底是什么,那我们大脑到底是怎么做这件事的呢,他是他大大脑里面也许有一个生成模型,这个生成模型它需要想说,如果我看到的是一个苹果。

我的视网膜上的感受是什么样子的,如果是一个橘子,它的感受又是什么样子的,通过来比较这种不同可能的音,它造成的这个果,我们来推理出,最有可能我们看到的到底是苹果还是橘子,那与之类似的这种脑补的控制感。

它很有可能也是一个类似的一个归因的计算,我们看到了一些行为的结果,我们在大脑里面形成一个这样的生成模型,来来判断说这个音到底是不是我来产生,比如说我获得了巨大的成功,得到了很多的金钱。

我要判断说到底是运气好,如果我运气好,得到这么大成功的概率是多少,如果是我很努力,我得到这个成功的概率是多少,由此来反推出,到底是不是由我产生的这样的结果。

OK那下面一个问题就是呃,这这样子一种归因的计算,事实上它有时候会产生一些错误,会带来一些问题,这里面举一个很简单的一个例子,这个呢是那个这个。

一个非常非常有名的心理学家叫斯金纳,他研究鸽子的条件反射。

那具体来说呢,这个鸽子呢他只会呃搓一搓那个小。

刚才一个按键搓几下以后呢,这个这个这个箱子里面就会掉下来一个好吃的,所以鸽子就迅速的会学会说诶,我搓这个箱子就会带来好吃的,斯金纳做了一件什么事呢,他紧接着他马上就让这个箱子啊,随机的掉好吃的。

换言之就是对鸽子来说就是天上掉馅饼,所以这个鸽子他需要做的事情是啥都不干,就坐在那儿等,等着天上掉下来,好吃的它就去吃就好,可是鸽子并没有学会这件事情,鸽子做的呢是他不停的去搓那个门,不停的去搓诶。

有的时候掉下来好吃的,他以为是自己操控的那个门,得到了好吃的,所以呢他会继续去吃那个好吃的,然后继续去去敲这个门,从强化学习的角度,这其实是一个非常非常奇怪的现象,因为在强化学习里面。

比如说这个鸽子要决定说我要不要搓这个门,那如果呢我我我如果决定要搓,可能是认为我觉得啊他带给我的奖励,比我不去搓那个门,带给我的奖励去更高,所以呢我采用了搓这个门的行为。

可是如果啊诶我现在发现我我错好多次,我都没有得到奖励,这个时候我就会调整我的预期,觉得搓这个门其实没有什么好处,以后呢我就不会再会戳这个门,可是为什么这个鸽子不会做这件事情。

但相反会才会会会形成一种虚妄的控制感,产生一只迷信的鸽子呢。

迷信说只要出门,它就会有好吃的呢,一种可能是在我们的这个大脑的这个,归因系统里面,可能有一些系统性的算法会带来这个现象,一个一个可能是这样子的,比如说在前面的例子里面,这个by the way。

这是斯坦福大学,最近这一两年特别特别红的,一个一个一系列的工作,他们发了一堆science,nature啊等等等等,那他们的这个工作想讲的一个核心的观点,其实特别特别简单,而且聪明。

他们想说的一件事是什么呢,在传统的强化学习里面,我们可能呢是conditional on我们的行为,然后来做一个推推理或者是归因,比如说我搓了一下这个门,然后有没有得到好吃的,可是在这个鸽子的世界里面。

因为他搓门特别特别的频繁,所以每次都要进行一个归因,对这个生物体来说非常非常的辛苦,那还有可能这个鸽子做的是另外一件事情,它其实并不是conditional on,他戳了一下门或者听到了一个声音。

而是conditional,他得到了一个奖励,所以呢当我得到了奖励的时候,我就往回去看,说诶我得到奖励之前我干嘛了,我错门了,因此呢他就建立了这么样子的一个连接,而由这样子的一个连接,它可以来来推理出。

所以因为我搓我吐搓门,会得到奖励的概率是很高的,所以我要继续的去搓这个门,在这里他想讲的一个故事呢是我们的归因,可能或者是这种获得自控感,可能会有一些系统性的算法里面的偏差,比如说我们的归因。

它可能是基于一个事件的相对稀疏性来进行的,我们可能会对那些相对来说发展,发生了比较稀疏的事件来进行一个归依,而这个呢可能会带来一些虚妄的控制感,这个结果呢事实上比如说在老鼠的实验里面,在神经元。

在多斑神经元的层面都有一些比较强的证据,那大家下面可能还有一个问题是,你把这个控制感说成是归因,好像有点不对,因为这个控制感是一个关于自己的归因,是说某一件事情是由我自己造成的。

而不是一般general的归因,那这样子的一个关于自己的归因和general的归因,有一些什么样的区别呢,我看我还有没有时间啊,我没有,我就快速的讲一讲,事实上呢。

那这个科学家也发现它有很多系统性的区别,比如说在这个这是机器学习的人都很熟悉的,Multi arm bandit problem,就是有很多个老丨虎丨机,你要在这些老丨虎丨机里面,每个老丨虎丨机都对应着一些概率。

然后呢他们的概率你是不知道的,你的目标呢就是找到那个给你奖励最高的,老丨虎丨机,一直玩,然后得到很多的钱,所以人们在做这种任务的时候,我们办法是什么呢,我们就是试错是吧,我们挑一挑,看看哪个老丨虎丨机。

他给我的奖励比较多,然后呢我们在这个里面去去做一些试错,可是呢我们发现这个科学家们发现,人类有一个非常非常有意思的一个现象是什么,就是如果我挑了一个老丨虎丨机,他给了我很多的钱。

我会觉得这是因为我挑到的那个正确的老丨虎丨机,可是如果我挑到那个老丨虎丨机,他那一轮没有给我钱,我会把他的,我会认为说我运气不好,这一轮正好呢是一个小概率事件,所以钱没有出来,换言之,当我们得到了奖励。

我们会把它归因为我们自己,而我们没有得到奖励的时候,我们可能把它归因为外界,而这个呢事实上呢可能说明了,这种关于自我的归因和general一般性的归因,它有一些系统性的偏差,可能也可以解解释很多社会上。

大家看到的一些现象,比如说某一些啊富二代啊等等,他们会说我取得今天的成果,是因为我非常非常的努力,可是呢还有很多人站在旁观者的立场上会说,你是在电梯里面做俯卧撑是吧,你你升得很高。

可能是因为那个电梯的原因,而并不是你在做俯卧撑的原因,而从另外一个角度,实际上科学家也发现,比如说抑郁症患者,他们的这样子的一个归因的情况,可能跟刚才是反过来的,他们发现诶我我我我得到了。

我没有得到奖励,他们会觉得,那是因为我没有挑到一个正确的老丨虎丨机,而我得到了奖励,他们会觉得可能只是我运气很好罢了,而那个精神分裂症的患者,他们在这种归因上,更是有一个系统性的和正常人的偏差。

说明这种关于自我的和关于一般性的归因,它们其实是有我们的神经系统在进行,系统性的计算,OK我最后小结一下,那这个维根嗯,Vegan on,他有一个非常非常有名的问题,他的问题是说。

诶如果啊我把我的手胳膊被抬起来,和我举起了我的手,这两个事情之间有什么区别,那我们猜测它们的区别,可能就是这个所谓的自我控制感,这是我们想说,这个自我控制感可以通过学习来获得,使得智能体变得更加的强大。

可以控制外部的世界,甚至可以控制社会和虚拟的社会,并且呢,这种自我控制感可以通过归因的算法来实现,在人类在动物,甚至呢在人工智能里面,它都是一个可以实现的东西,而这种实现这种自我控制感。

它有可能是我们道德和责任的基础,然而在另外一个方面,至少在生物智能里面,我们发现这种自我控制感的实现,它有可能存在着系统性的偏差,比如给予稀疏性的归因,或者自我和呃非自我的不对称的归因等等。

那这又引发了新的问题,如果有一天,我们希望人工智能有这样的一个自我控制感,我们希望它和人类有一样的偏差,还是不一样的偏差,还是它本身就会带来它天然的其他的偏差。

那这些呢就是我要讲的内容。

2024北京智源大会-意识与通用人工智能 - P5:意识是可计算的吗?--吴 思- - 智源社区 - BV11b421H7JY

那个题目是拍脑袋那个就先取的,先取了个特别大的题目,后来在想到底讲什么东西啊,所以说这个嗯就随便讲吧,好嗯问题是意识可依嗯,可计算的吗,呃我我觉得可能现在很多人跟我一样啊,就说现在没事就有个什么问题。

先就先先去问一问那个GPT,所以说我就把这个问题抛给了那个啊,记不记for all,我就问他这个意思是可以计算的吗,哎我发现他回答的问题还像模像样的啊。

他还给我来了个分门别类呃,首先是哲呃,哲学的观点,就从哲哲学的角度看呢,意识是一个主观体验,现象前面已经讲了,我就不说了,反正他的意思就是说,有人认为是嗯意识有独特的性质,无法简化为物理或计算的过程。

有人认为呢是可以通过某种形式来计算的。

呃,然后第二呢又回答了呃计呃,计算机科学和人工智能的观点啊,那么他就呃认为的计算神经呃,人工智能和计算机科学家啊,试图通过模拟大脑的计算过程来创被呃,来创建某种形式的呃人工系统,包括图灵嗯测试啊。

同时他也指出呃,现在目前可能还面临很多技术和理论障碍,我标红的地方是特别强调一下,你他已经指出了,就说我们可能通过模拟大脑的计算过程呃。

来来呃实现意识呃,那么又还有神经科学家的观点,这么神经科学家呢就是呃认为呢,意识是大脑活动的产物,那么我们可以通过研究大脑的结构和功能,来理解意识的机制啊,就是虽然还没有完全解开这个谜团呢。

呃但是随着科学技术发展,我们可能能更好的理解并模拟意识,我会把那个模拟嗯画红了啊。

但是为后面埋下伏笔呃,他的总结出来就说,尽管现在有很多理论或赏识啊,但前但目前没有一种被广泛认识的方法,能够完全解释或计算意识呃,所记忆词的本质呢可能涉及到嗯,超前当前科学和技术范畴的复杂性。

所以说你看那个嗯GPT回答的非常非常的好,但是呢他没回答我的问题,他只是说啊这个东西很难,所以说我觉得吧这个遇事不决还得靠自己,还得自己想想这个意识到底是可以计算的,还是不可以计算的啊。

但是呃因为这么一个宏大的问题的出现的时候,我们就发现了,你首先要澄清一概念到底什么要谈。

到底谈了什么意思或那种可计算是什么意思啊,那么其实我我这想强调的一点,就是说嗯一个主观体验,或者说我们意识吧啊,和科学的一个嗯长期的那个彼此的脱离吧,就说科学上是我们追求这种可量化。

可实证嗯可预测的一种客观规律总结啊,而主观体验实际上是我们日常生活中的,有时候就说不清道不明的,但是却是真切的感受,它每天都发生在我们的生活中,所以这嗯长久以来这两者是脱节了,大家要么认为就是说啊。

主观体验根本就不可能被科学解释啊,或者说是呃,科学就不要管那个主观意识的问题啊,但是我自己觉得啊,既然这个主观体验是我们切身的真切的感受,那么我们也应该追求像科学一样,对他一些更嗯清晰的描述呃。

更量化的描述啊,我觉得特别是现在啊人工智能,脑科学发展到今天,我们有可能真的有可能通过啊计算的方法,把这个呃回答提出来,那么今天我的报告就像跑砖抛砖宇,就谈这样一些问题呃。

那么首先就是呃,我当然说是是可以被计算的是吧,那么一个可计算呢,我就我发现要特别小心哦,什么叫可计算,因为在谈认知科学的时候,认知科学早期理论就有个说法叫做认知及计算。

那么这种思想就认为呢就说论认知过程呢,就有点类似于,像我们计算机的一个符号加工系统啊,它是一种对信息的加工操纵和呃呃和处理,那么我们大脑是某种呃,认我们大脑认知呢是根据某种理性的法则呢。

对我们通过感官系统得到输入加工,然后产生我们运动的行为,所以就说用计算机类,比如说就软硬件是分离的,软件对应着是我们认知过程,而硬件对应着是我们的身体嗯,但是现在大家意识到,这种这种观点可能是不对的呃。

至少是我认为不对的呃,就说实际上我们嗯人呢我们有一个叫聚生知,认知的概念,计算再认计算认知的概念里,就说我们的身体的结构,活动方式或感觉或运动体验,实际上是决定了我们怎么自己认识世界。

就是软件不能分离的,举个简单例子,就是你戴着个红色的眼镜,你看见是在红色的,你戴着蓝色的眼镜设计变成蓝色的了,就说我们我们的感官系统,决定了我们怎么从外界去tag信息。

那么这个信息就直接影响了我们的感官的啊,认识K呃,那么我这里所谈的那个计算呢,实际上是前面已经埋下伏笔了啊,也是我自己科研的方向,就是神经计算建模呃,我说的可计算,就是说我们可以用计算建模的方法。

来模拟或解析我们主观经验背后的呃机制,OK啊。

其实呃我这就举个简单例子啊,这个我觉得哦没有,sorry啊,还有一点啊,就是说大家一谈到意识了,大家就谈间谈下涌现是吧,即使是涌现的啊,涌现如果你查它的概念定义的话,他的意思就是说呃我们一个复杂系统。

通过自主组产生的啊,与组成元素完全不同的复杂的行为和功能,而特点就是说你根据局部的性质,不可以说整体或者大家也说整体大于局部,那么生活中有很多这样的涌现的现象,比如说呃鸟群的聚集啊,蚂蚁觅食啊。

就还包括现在那个大模型啊,当这个模型足够大的时候,大家发现诶它好像又出现一些呃很神奇的,包括可能的那种意识的这种功能,大家说哦这是一个大模型涌现出来的,因为我们从局部我们也嗯不能预测啊。

他会产生这样的行为。

但就还有啊意识的产生啊,那么其实我们大脑的计算啊,就是一个典型的涌现的计算啊,什么意思呢,就说我们大脑极其的复杂是吧,我们有十的11次方的神经元,我们有10~15这样的连接。

对于单个神经元的计算功能其实相对简,非常简单的,实际上是构造我们这样一个复杂的网络,我们这个网络做呃做了计算,它就是个涌现,那么这样一个概念就叫做在我们做神经建建模,叫心智网络的观点。

就说我们是构造这个网络,我们接受到外界的输入,然后同时我们还有内部知识的驱动,使得我这个网络状态演化,我可以到演化到个某个状态,这个状态是你从局部的神经元,简单的神经预测不到的。

最后这个系统它产生了一个稳态呢,我们叫心子呢,它就涌现出了这样一个功能,那么在这个计算的过程中呢,你我的那个涌现,我说我计算呢不仅是受外部输入影响,同时呢我还受内部或先验知识的驱动。

那么这个内部的知识呢,就储存在这个网络的神经元之间的连接,那么这个连接就说我这个系统,它最后演化到什么样的状态,不仅是我受到外界的输入,还有我的一些先进知识,我的记忆是吧。

还有我这个由于各种主观的成见也好,它会影响我对这个世界的认知,所以它是一个涌现的计算啊,那么在那个嗯数学上来,就用连心智网络的概念嗯,霍菲尔德提出早期提出个经典的模型,就来解释联想式记忆。

所以说你构造这样一个网络的话,如果你看到一个有很多噪音的图片,那么这个网络就会演化,最后就把那个噪音给去掉,让你识识别出来,这是个蜘蛛,就说实际上我们在做大脑的神经计,算建模的时候。

实际上我们一直在用这个嗯构造网络,是我们一直在用这个涌现的方式,来理解我们大脑的计算,O k,这种计算与我们现代计算机的计算是不一样,它是一个网络的一个状态的演化,来决定我们的嗯大脑的计算呃。

那么呃这要快速介绍了一下,是呃是在那个星组网络有一种连续性子网络,是我们课题组长期嗯关注的一种网络,因为我后面会谈到这一点啊,那么它是嗯大脑信息表征的一种标准的模块。

呃简单说就是说我们大脑会构造一个网络,我们会把我们的先验知识啊,储存在大嗯网络的连接之中,这样使得我的网络那个状态呢,心智状态呢它不仅要表示物体,表征物体,还要表征物体之间的关系所构造的处理。

一个有呃有结构的,一个呃一个大规模的生物神经网络,那么这样一个网络呢,最近嗯这几年有得到大量的实验,知识就发现,这是我们嗯大脑中广泛存在的一个结构,OK嗯。

所以说总结起来就是说嗯我们认为呢,就说或者我认为吧,呃大脑的那个嗯这种意识和主观体验,它可能就是我们神经网络啊,那动力学通过涌现的方式呢,就产生了我们的一种嗯各种主观的体验啊,那么我这里举了一个例子呢。

是一个呃很有意思的一个呃一个工作嗯,这是计算神经科学的一个大佬SIMPLISI,他在嗯30年快30年前做的工作,那么这个浑轴呢是他让一个神经网络呢,去学习一个呃学习一个嗯,就说你一个一个一个例子。

一个example是吧,一个数据,而纵轴呢是你这个网络做一个分类任务的,那个呃误差,那么他就发现呢到了你的那个刚开始的时候,你随着数据量增加呢,你的那个误差是慢慢变化,这个啊这个线性的下降嗯。

到了某个时候,你的那个那个下降呢会啪一下一个呃一个陡降,就说你的精度一下变得特别特别高,然后呢呃SIMPLIX上做是个是个邓物呃,这个不是我找他的文章,我来这套哦,这是个邓物啊,是他自己说的。

他那个对禅宗特别感兴趣,他当时在那个啊在中国访问,他给个报告,他就说你看这就是禅宗缠绕那个顿悟啊,那么这样一个模型中有很关键的一点,就是说要神经元这样连接,它是一个binary。

就就比较像像0101的模式,就说有可能我们是我们一个顿悟的主观体验,它来自的神经基础,就是我们大脑呢我们的突出的连接呢,呃我们生物学知道,这个大大脑除连接上是特别杂乱的。

你就简单禁止它是有和无10101的pattern,那么你用这么大个复杂的网络,那么他在学任务的时候,他的他自然会这个就会体现出这样的特性,可能给我们一个主观感受,是啊你看我学着学着,我突然一下明白了。

我看这个顿悟的感觉,K啊,我这是举的一个例子啊,就说明就是说啊真有可能我们大脑的结构,我们计算的方式给了我们的一些嗯,嗯很神奇的主观体验。

比包括顿悟之类的呃那么我下面再谈谈,就是说呃我们呃大佬能干那些有通过涌现计算,能干那一些比较神奇的事情啊,那么我们在谈意识啊,那我看看在无意识的情况下,我们大脑能干一些什么样的呃神奇的事情。

那么这举了个例子,一个多模态信息整合,你知道我们我们大脑是通过呃眼耳口鼻是吧,通过不同的方式来感知这个世界,那么这个感知的信息呢会在大脑里汇总,汇总起来,能提高我们比个单模态,更优化了对世界的感知嗯。

那么比如说我现在在这那个做报告啊,你们在听我做报告的时候,你们用用声音在听,同时你们用眼睛在看,你们在做,你们在做纯读,你们可能没意识到啊,我有个体验是前几年不是那个啊有疫情的原因。

给了很多线上的报告是吧,线上报告有些英文报告的时候,我就发现如果我看不到speaker,我看不到那个讲话的人,然后我这个听听力特别是英文啊,我就发现我听力会下降,我听不太清楚。

但是如果那是能看到那个是那个讲者露个脸诶,我就觉得听得清楚的多了,实际上是我们无意识,你在做那个对这个SPER要做纯读,跟他那个嘴唇动那个做了个多模态信息的加工,实际上提高精度呃,那么呃作为呃科学呢。

我们要讲建在计算建模上,我们讲究实证是吧,我们要有那个要有我们做这个建模的基础啊,那么那个door angel lucky呢,他带领他的很多中国的那个弟子呢,他们做了一系列实验,就研究这个猴子呢。

在感知嗯前进的方向的时候啊,它是怎么整合我们的视觉信息,和我们的平衡觉信息,然后来达到一种够优化的那种和总结啊,这个也是潜意识你自己意识不到的,但是你如果你在出了问题就晕车。

就比如说你知道我们开车的时候,如果你是在下雨天,你坐在那个车里,你看不到外界,你很容易晕车是吧,实际上就是因为你这个时候,你的那个运动方向的判断要出问题了,就说这就是我们无意识下。

我们做的一些啊多模态信息整合,那么他们通过一系列实验,那就证明了就是说我们在无意识的情况下,实际上我们大脑做的特别特别的好,我们做的是统计优化的贝叶斯推理,就数学上是最优的,在无意识情况下。

我们大脑反而是在有意识的情况下,我们会变得非理性,经犯犯各种各样愚蠢的错误,但实际上这个我们在无意识的情况下,我们大脑的计算会特别特别的高明啊,这是我们生物长期嗯进化的结果,OK啊。

那么这样一个呃实验呢,我们就可以用计算建模的方法。

把背后的机制回答的非常的清楚,那么我们就比如说我们就用了啊,两个连续心智网络,一个连续型网网络,表示我们对啊视觉信息的加工,另一个呢就是表示对平衡局信息加工,然后这两个网络之间呢,它们再有相互的连接啊。

使得他们来储存这两个,这两个线索之间的关联信息,那么在你这受到输入的情况下,这两个网络状态会演化,所以你读出它信息,你会发现他种的是非常完美的贝叶斯推理,而且他不仅做信息整合,做信息分离。

做的非常非常漂亮,所以说这是非常有意思的现象,就说我们人啊在无意识情况下,实际上我们在做计算时候特别特别高效,反而是有意识的时候,我们做的并不是那么高效,呃我也不知道是呃是什么原因。

我觉得可能有一个原因,就是说我们大脑在有意识的情况下,犯了一些错误,但对可整个社会群体是有价值的,对群体智能是有价值的,就像跟就像我们可能呃,有些男士喜欢找傻白甜的那个女士,作为太太一样。

你知不在于她有意识循环的人多聪明,但是更好的是对整整个社会的发展更有意义,对个人生活呃更更有意思。

OK啊,这人随便乱扯了啊,嗯OK再讲一个例子,就是啊空间认知的问题,那么空间认知呢是我们大脑对空间信息的获取,组织利用,以及更新的啊,呃这个空间认知呢是特别特别的那个啊,最基我们大脑的最基础的功能功能。

而康德就说,空间或时间是我们认识呃世界的基本方式,嗯简单说就是你描述生活中任何一件事情,它都有时间或地点,OK这个地点它是一个我们fundamental的,我们认识世界的方式啊。

那么这个空间认知呢为什么又特别重要呢,其实这就涉及到我们前面聚胜认知的问题,它可能是我们了解聚生认知的突破口,是刚才我们说了嗯,就说我我在这说一下,那个聚生认知和聚阵智能还有点区别哦。

聚生智能现在强调的是啊,他实际上还是个有点传统的那个呃认知主义,就说呃我们有个认知控制认知过程,只是我们需要我们身体来作为,我们对信息的感受器,我们的大呃,我们身体呢作为我们运动的效应器是吧。

但是本质认知还是独立于我们身体的,但是计算认知说就说我们身体的结构活动方式,感觉和运动会决定我们怎么认识世界,那比如说就是我们对空间认知,我们会以身体为中心,我们定义上下左右高矮这种空间的感知。

这种这种空间的感知呢,它不会拓展,我们拓展回来描述我们更复杂的关系和情感,比如说拔高贬低嗯,亲密疏远中心边缘等,其实你看这没有道理的,你凭什么说拔高会贬低呢,你为什么拔低贬高呢是吧。

但是就说我们会把我们对身体,对这个世界空间的感知,用来描述,我们对很多更复杂呃事物的认认知过程,那么从神经生物学说,这是怎么,这是什么原因呢,其实一个一个比较神奇生物学一个理论。

就是说可能就是来自于进化的一种保守性,因为这个低等动物的时候,我们就有了我们的海马,我们海马负责我们的空间感知,对高等动物的话,我们进化组嗯,高嗯嗯新皮层,那么我们在加工更复杂的那种语言,文化的时候呢。

我们会就进化上我们有这个工具,我们需要复用它是吧,我们不要再重新发展套系统来处理更复杂关系,就说我们对这个空间别处理空间,现在那个海马在我们这复用,就导致了我们会自然的把空间一些关系。

用来表示我们更复杂的啊别的一些关系。

OK而在空间认知呢,在这个神经科学领域呢,实际上是它是一个嗯相对来说研究的比较透的,一个呃一个问题,他的神经基础已经比较清楚了,呃,比较特别著名的,就是我们发现的海马的位置细胞,和内秀皮上晶格细胞呢。

啊它们呢构成了我们大脑的呃GPS,然后我们来感知空间的关系,那么这个工作呢是呃,10年前的诺贝尔奖的工作啊。

那么非常有意思的,就是说嗯这样呢,这个海马和那个呃呃内秀皮层的晶格细胞,它构造了两套互补的空间编码系统,所以你会发现大脑真的是真的是非常非常聪明,这个海马的位置细胞呢,它主要感知的是环境的信息。

嗅觉和视觉,就我感知我的空间位置,我们可能要用我们视觉色,我看什么地方诶,我知道我的空间位置在哪,那么这个是海马的位置细胞,那么这种信息呢它的优点就是它很清晰,我视觉很清晰,但它的缺点是局部的。

就说我只能看见这是吧,我要构造我我那个一个城市地图,那么我就很难了,因为我只知道,我只能看见我局部的那个一个信息,它是局部的,所以它的编码方式呢这里就不用啊,想细写了,就它的编码方式。

一种是一种局部的位置的编码,非常的鲁嗯,对LEWIS非常的鲁棒,但是它是低效的,特别浪费了一个资源,同时它生成的环境生成的是个环境的地图呃,后面我再讲,那么另一种呢是内秀皮层的晶核细胞。

这种晶格细胞又采用了另一种线索,来感知我们空间位置,就是运动,哎我在这个位置,我知道我向北走了100米,那我知道哦,相对这个位置,我现在下一步的空间位置在哪,那么我这运动信息呢,我也能感知空间位置。

那么在大脑呢是通过内嗅皮层,晶核细胞来来来做这个感知的,那么它的特点就是模糊,因为你看你闭着眼睛,你去感知空间位置是吧,你得到的空间位置感知性是模糊的,但是它优点它是全局的,因为你通过那个呃。

你就会建立各个位置之之间的相互的关系,而我不知道大家有没有这感觉啊,我原来不开车的时候,我那个到一个地方,我要到一个城市,我总是没再怎么逛,我也搞不清东南西北,但我自从开了车,我把那个城市转几圈。

我很快就把那个城市地图建立起来了,因为开车的时候给我提供了运动的信息,来把那个城,那个城市全局的信息就给串联在一起了啊,那么这种在晶核细胞上,它采取了一种叫相位编码,这个呢是特别的高效。

但是对噪音特别的敏感啊,这这是数学系,我就不讲了,同时呢是要生成的也是这种度量地图啊,那么把这些神经生物学的知识大家都发现呢。

我们就可以用计算建模的把它串在一起啊,这里我就不讲了,反正也是用了啊,连续新自网络再发空间信息,运动信息,让它通过学习的方法在一个空间导航任务中呢,我们就把这个我们就用可能建个模型。

能把这些问题全部回答的清楚啊,那么这个问题啊,有点像那个工程上的叫slam的问题,就说你同时定位你的啊,建立你的地图和定位空间位置,但是神经系统干的事情呢,它是比牛肉,比普通slam还干的更多。

就刚才说了,它实际上是建了两套认知地图,一个是海马的地图,这个海马就像是个环境依赖的地图,就有点像有点像,比如说哎我有一个呃北京市的地图,比如说我今天嗯从北大,我开车来这个会场,我脑海有个地图。

因为我知道这个什么位置,然后我就开车,我知道哦我要走那条路,这样我回避障碍物,怎么样,我就开到这来了,这是我们一个环境的地图,那么绿秀皮上那个地图呢,就是它那个度量地图,它是一个抽象的空间位置的表征。

就有点像经纬地图,就是我描述我这个位置,我可以说啊我处在这个中关村什么嗯,科学中心,我在什么地方,还有一个描述,就说我在东经多少度,我北纬多少度是吧,是非常一个抽象的一个空间概念,就大脑非常神奇。

他就把这样两个地图呢,同时在导航的任务中就嗯建立起来了呃,那么这样一种相当于有建立一个呃,一个具体的环境依赖的一个地图,同时还有一个抽象的概念,因为这个度量地图就是一个抽象,你看东经多少度,北纬多少度。

这个不依赖于具体的那个你的环境的,这是个非常抽象的空间位置的表征的概念,所以说再回到那一点,就说进化的保守性,我们大脑在解决这个空间认知的时候呢,我们就发展这两套地图。

那么这两套地图呢在我们进化的过程中,我们大脑可能我们属于高等动物,出现了我们处理生活中更复杂的任务,然后呢我们就会把呃我们已有的那个海马,这个海马和内沟P成这个环路上,说哎我来用一用它来。

我来干这个这个新的任务是吧,所以说就会导致我们计算认知。

就是我们空间认知会影响我们别的认知啊,那么非常有趣的就是啊,大家已经有呃UCA2的呃,几个非常聪明的科学家,他们已经干了这样的事情,他们就构造了一个海马和绿球皮层的环路。

然后来学一学一些不再是空间的关系,而是抽象抽象的,比如说人与之人间呃,是爷爷奶奶或者什么儿子孙子,这样一种特别复杂的这种关系啊,就非空间的关系,也能通过啊这样一种环路来学习来来表征出来。

那么通常也是海马呢就表成了一个比较嗯,比较那个具体的一种关系,那么内秀皮层呢,就表达了一种比较抽象的一种关系,那么就把这种东西就学会了啊,所以说嗯嗯这个想我想这个例子就告诉我们。

就是说我们可能呃大脑就这样干的,那么我们人表征这个世界,我们也是通过这样一种啊,聚深认知呃的方式给实现的,那么我们就可以借鉴这种方式,来了解我们的一些啊,在此基础上建立的一些更复杂的关系。

主观感受等等,K呃那么我在这就呃谈一下,我要再回到我们这个主题啊,我们这个意思是可计算的吗,呃那么我我我我也不知道能不能计算啊,但是我知道就是刚才那个罗欢安就讲了,这个意识的有几呃是呃四个经典理论。

其中一个两个两个两个理论啊,他们在争论的时候,我觉得是可以计算建模呃,做的一个就是信息整合理论啊,这个理论就是说你看大家就看这个图啊,啊如果你是第一次看这个图。

你可能有点confuse这个呃这个图到底什么,你我估计你下短时间内看不清楚啊,这些就是这两个图呢,它们之间被隔开了,那么但是呢如果一旦把这两个图拼在一起。

你一下就看到诶,这是一个人睡着躺在那儿是吧,躺在一个那个睡啊睡袋上,那么就是说所以这个信息整合理论,整合信息理论,就是说,当我们把各个老区之间的信息整合在一起,的时候呢,哎我们的意识就产生了。

我们一下就看出了这个什么样的一个呃物体呃,那么我觉得这个是可以做计算建模来做的事啊,因为刚才我谈到了,就是比如说我们在那个啊,多模态信息整合的时候,我们讲到了那个啊平呃,我们平衡局或那个视觉信息整合。

只考虑两个模块,那么我们可以考虑啊多个模态,每个模态比如说用一个连续性知网络的话,我们就可以做一些数学上的模型来探讨,哎这样一个信息整合的呃方式是什么样子的,就这呃我想说明就是这43我虽然没做。

但是可以计算建模的啊。

还有就是呃另一种理论就是意识到全局工作呃,空间理论的话啊,那么它也是嗯把各个老区分成各个嗯模块,然后有一个嗯全局的那个工作空间啊,那么这种呢也是目前的老啊,计算建模的工具其实已经差不多了啊。

只不过这个要上大模型需要去做啊。

而目前没有做的啊事情OK啊,所以说总结一下,总结一下的话就是呃意思是可以计算的吗,呃我的回答是是的,但是我不是靠啊,前面那个论据任命他为什么是的,实际上是一种一种一种belief。

就说我相信它是可以计算的啊,其实这个相信也是来自于这几年那个嗯,嗯大模型啊,大模型那个呃,其实对比我们大脑的动力学都简单很多诶,他们主要模型足够大,它都能产生一些呃让人惊讶的,貌似意识性。

我就想如果我们把大脑的那个结构,大脑洞穴加进去,再再走大模型的话,是有可能的啊,能产生意识的,第二个就是实现的路径是什么啊,我觉得实现路径就是要做大模型,我们要构建内脑的认知大模型啊。

是比现在的那个语言大模型更啊,更靠近内脑的大脑,因为意识是大脑产生的嘛,所以说我们不让大脑去做内认知大保险,我觉得是啊是可能的,那么第三个问题,现在是合适的时机吗,我说是就刚才大家谈到,如果几十年前啊。

这个意识这都是禁区啊,你你要谈这个,你要做意识,基本上就是认为你在搞伪科学了啊,但是我觉得现在AI啊还有脑科学,还有计算建模的那个发展呃,现在可能是一个合适的时机,来真正做一些这种嗯。

我们认为非就科学过去不再touch的主观感觉啊,对进行计算建模进行解释了啊,那么从哪里入手呢,呃我觉得那个要从计生认知入手,因为我们的意识,我们认知的人的认知特点就是聚生的。

那么尤其是这个相对简单的空间认知,而且他已经有大量的实验证据,也知道大脑的结构大概怎么做的,所以说我们从计算认知入手啊,从尤其从空间认知识入手的话,有可能能把这种嗯主观体验啊。

意识有可能嗯在不久的将来能回答出来了啊。

2024北京智源大会-意识与通用人工智能 - P6:圆桌讨论 - 智源社区 - BV11b421H7JY

好呀非常谢谢各位老师刚刚的分享,我收获很大,然后呢就坦白来说啊,就是这个圆桌比去年要难很多,因为这个意识是什么这个问题呢,是不能问的,因为一旦问了这个问题呢,就是非常的哲学,我相信各位老师也很难在。

今天这个时间点哈,用各位这个科学的标准,回答出来什么是意识,所以呢我把这个问题换了一下,我们换一种方法来问对吧,这个AGI里面的G,它是什么,AI的意识应该是什么。

然后这个AI的意识和人类可能会有什么区别,对这个问题我非常好奇,因为我刚刚问了CHPT,他说这个AGI的G呢是General,但这个答案我不是很满意,所以我想请问一下各位科学家,要不然从刘老师开始,好。

那个就是标准的定义啦,然后就是AGI的G就是这个General,就是通用,通用的意思就是什么都能干,就是什么都能干的意思来讲,它其实有个定义,就是在一个开放环境里面做任何事情,就是我在这个会场里面。

我可以跟大家做报告,然后如果假设我们把这个改成一个party来,当然我不会跳舞也不会唱歌,就我可以当个主持人,对吧,包膜员,但是呢这个不够,因为我们假设要打篮球去,这就不够,我们需要到其他地方打。

但是呢我觉得这个G其实是一种偷懒的做法,在我看来这个G可能还有另外一层含义,就是生成式,Generative,那么其实这个我觉得这是我们人类之所以能够不断地成长,能够创造出来的一个关键。

特别是到现在我们以自身为模板,然后创造出来一个可能的全新物种,或者一个全新物种的一个火花,这其实也是来自于我们人类的G,就是Generative,罗老师,坐在刘嘉老师旁边不好,每次都第二个回答,不一定。

下次从那边开始,待会会换,那我们都知道AGI的G是Generative,刚才我在想就是通用的这个意思,但是我真的在想一个问题,就我自己的一个小的点,就我觉得可能是我们人就是认为只有我们是有智能的。

所以每当这个世界出现一些我们觉得不可能的智能的行为呢,我们就说它不够智能,然后我们就给它包装了一个词,叫你没有通用智能,所以这是我的一个感觉,然后你再问人说那请问什么是通用智能。

可能十年前的时候你说通用智能是说,你不会 你知道你不会跟我聊天,你只会具体的答案,那你今天不敢说了吧,你看我们主持人都问Chad GPT,而且回答得很好,所以我们今天又会说不对不对,这个也不够智能。

真正的通用智能是什么呢,其实我们也不知道是不是,就是但是,但是我觉得这个是我们人捍卫自己智能的一个词,就是这样的一个通用,但我的感觉就是,如果回到我们自身,我觉得通用还是指你的那种泛化能力吧。

就是不仅是Chad GPT这种语言,可能各个方面的泛化问题,比如刚才在我走上台之前,其实我没想我要干嘛,我也没有准备什么,但我可能会根据比如刘老师的回答,主持人的问题,还有大家的面孔。

我可能就会不停地在换答案,真的是这样,所以我觉得这个可能通用有这样一个,我一个非常小的点,其实刚刚两位老师回答的时候我在想一点,尤其是刚刚刘老师说,他说这个general是通用就对了,就是通用的能力。

然后我想其实很多事情我也不会,比如说打篮球我就不会,但是不是我们一定要要求这个机器人的这个G,要成为一个那么通用的一个东西,这个也是我觉得我比较好奇的一件事情,所以老师要不然您简单帮我们回答一下。

这个如果从AGI的角度上来讲的话,我觉得最开始刘老师说那个定义就,反正我理解到的最早的AGI的定义也是这么来的,我最早理解这个概念是从DeepMind,他们早期就说我们怎么样来解决问题。

We first solve AI,Then we use AI to solve everything,所以那个时候他的那个AI。

And use that AI to solve everything,那个AI其实就是我们今天讲的这个AGI,那么它其实隐含的就是,它要能够解决所有我们能够描述的。

我们认为可能有一个路径去能够解决的问题,当然你可能没办法很快就要求它说,你计算出这个整个宇宙的寿命,或者是什么这些地外的生命等等在哪里这些事情,但可能是一般在我们,至少是人类能力集合所形成的这样的一个。

这样的一个图包图集complex set里面,那么是要能够做得到的,那G等于意识吗,这个G这个AGI的这个G等于意识吗,我倾向于就是这个在这个过程中意识其实已经有了,好 谢谢 朱老师。

我想问Sue老师一个问题,就是她把这个AGI好像定义成了,我们人类所有知识的一个complex set,但如果从这个定义上一个单个的个体,比如说我就不具有general intelligence。

因为我是有专业分工,我只知道我自己很小一个领域的知识,你要去问我别的知识我都不知道,所以在这个定义下我们每个个体都没有general intelligence,然后我们想创造一个等同于全人类那么强大的。

在你的定义下的那样子的一个AGI,是这样吗 这是我的一个问题,因为今天好像是要调事,所以but anyway,然后我来说一说我的定义,那个我觉得我可能定义稍微有一丢丢的不一样。

是因为我觉得可能不一定非要从performance上定义,就是它能够完成我们general的一些各种各样的任务,maybe可以从能力上去定义,也就是说在我的想象里面。

AGI应该是一个可以学习去完成各种各样能力的,各种各样子的任务的这么一个智能,所以at the end of the day,它应该是有一个学习和adaptive的能力。

而这种学习也许不是像现在这样用海量的知识去喂它,而是它能够自主地去寻找它需要的知识,自主地去完成这样一个学习的过程 这样一个智能,而至于这个知识的边界到底是多大,可能就是一个变成一个哲学的问题了。

我觉得朱老师提到一点特别好,提到了这个主动性,其实在我的这个理解里面,我觉得这个主动性和我自己理解的它,应该是比较偏向于这个意识的一部分的,对 吴老师要不听听您的答案,对 我其实那个。

说AGI我从来没有serious对待过这个问题,真的 我在想那个智能的定义其实都有问题,我们倾向于人嘛,倾向于我们自己不会干的事情,别人能干 我觉得他很智能,比如像围棋,因为这个围棋特别复杂。

但是数学上它其实是一个相对简单的问题,它就收缩空间特别大,然后那个α够解决,大家太智能了,但是实际上我们生活中有很多东西,我们每个人都能干的,就是我们那些本能行为是吧,走路跑步 手眼协调你知道吗。

又说起这个手眼协调这种,就比如我知道我开车的时候,我就问那个教练,我说我怎么保证我开在路中间呢,他说你不用担忧,你一眼睛开到中间,你自然就开到中间去了,就是我们人在这种手眼协调做得非常非常好。

但是现在把它做成一个工程上的问题,我觉得是非常难的,做脑筋接口有个人告诉我,他说做了手眼协调是我们追求的最高境界,就是我们人其实有很多很多能力,只不过我们每个人都是,每个人都擅长,我们就认为他不智能了。

而把我们不擅长的东西当成很多智能,我觉得从这一点上说,智能可能是,它定义是成问题的,刚才陆萨说得好,我觉得我们人真正最厉害的能力是学习能力,adaptive,这个才是我们人可能区别于别的动物那个。

最厉害的地方,这个比较巧,我刚刚在台下看到了杜老师,杜老师是去年我们的嘉宾,然后也给了我们很多分享,我还记得杜老师去年的观点,大概就是,token的最小颗粒度应该是神经元,对吧 我没有记错对不对。

对对对,然后我们先把这个问题抛给杜老师,让杜老师也回答一下,然后下一个问题我们来邀请杜老师来提问,有有有有,抱歉,就是说你是说刚才那个,就ACI的G是什么,然后G代表着什么,意味着什么。

和人类的意识有什么区别和关联,我给个跟大家答案不太一样,也可能是一样,就是说G代表你有能力进行知识的外推,因为我用GPT用了很久,我现在已经能够很明确地判断出它的能力的缺陷。

就是说它的专业能力确实很强大,但是我很容易能测出它的缺陷在哪,就是做外推,我举个很简单的一个例子,就前几天高考数学题不刚出来吗,然后大家就在线测,其实测那个高考数学题是一个最好的一个办法。

因为数学题可以,因为首先有很多大模型,你说我就不一一说了,都自称自己解数学有多好多好,你也不知道他训练级是不是偷偷摸摸地把这些,数学题都训过一次,你也不知道,但是高考。

就是说每年的高考数学题一定是他没见过的,所以你一测,然后你就会发现,哪些好哪些不好,就发现这个差的还挺远,所以让我看的就挺有信心,然后类似的这种也是一样,我做科研的时候,我可以问他一些需要知识外推的。

所以我就认为有很好的,这个G应该能代表进行知识外推,这是我个人的一个小小的观点,杜老师要不然你给厂商的各位老师提个问题,对我这个问题可能比较尖锐一点,因为我经常和我是在人工智能学院。

经常和大模型的人在一起有讨论,然后他们有一个很奇怪的问题是我没想到的,就他们讨论AGI,大家知道AGI的历史,其实图灵本人,他认为AGI是不需要和真实世界进行交互的。

然后图灵本人他的这个观点听起来很奇怪,但是他得到了像以OpenAI为代表这种大模型的,他们这是一个流派,因为为什么,就是说有一个解释就是压缩极致能,就是说如果你有外部的世界,我不需要看外部。

我海量的数据,我把这个数据进行压缩完了以后,我也能学到,我就不需要和外界会有交互,然后还有另外一个流派当然就是以巨声为主,然后就是说我需要和一个真实世界进行交互,我要去进行交互。

所以我才能够把同一种AI给训练出来,这里其实有,就是我不知道各位专家是怎么看这个问题的,要不然我们从这个隋老师先回答,我看这两个其实没有矛盾,就是他在巨声我们讲交互的时候。

其实是因为没有一个好的压缩的呈现,比如说当我已经有一个很好的一个反振器,一个simulator,其实一个好的simulator本质是什么,本质一个好的simulator。

是对于一个复杂环境的一个极致的压缩,它规避了所有那些可能你simulate,不会出现的那些解空间里的东西,这是一个很好的一个压缩的方式,而巨声之所以讲要和这样的环境来交互,或者说要和真实世界来交互。

当我们讲和真实世界来交互的时候,永远是因为这个simulator本身还没有那么完美,也就是这个压缩层面上来讲,它其实没有做得那么好,所以这是我的观点,我赞同说本身压缩这是一个很重要的事情。

以及之所以今天我们在丰富的,高维的复杂的世界里面,仍然能够有效地做很多事情,所以我们能够有效去做的这些事情,大概率或者极大概率的是,它以一种可压缩的方式是可以被呈现的,所以我们能够找到有效的方法来做它。

而且我们可能解决不了的问题,要么可能它没有这样的压缩表征的,这样的一个呈现的方式,要么是我们还没有找到这种方式,这是我的一点观点,朱老师,看朱老师玩手机点名一下老师非常开心,我不知道我不做人工智能的。

我觉得首先第一,我觉得知识在人类的大脑里面肯定是压缩的,但是这个地方的问题是在于你到底要压缩什么,而且完了以后当我们把这个知识retrieve出来,要解决现实世界的问题的时候,我们还有一个解压缩。

我们要重新decode把它变成一个我们可以用的,一个新的在现实里面的一个可以用的representation,所以如果仅仅只是压缩,我觉得那只是故事的一半,你还要在新的环境下。

然后来生成这个新的可以用的一个representation,然后再把它来使用,所以在这个里面我不是做AGI,所以我很难回答这个问题,但是我觉得至少是从这个大脑的策略上来说。

我们要做这个compression它是一部分,但是最后我们怎么样有效地,除了有效地做compression以外,我们还要怎么样有效地再去把它decompress,可能是问题另外一个很重要的部分,吴老师。

对 其实这又涉及到一个智能的问题,我觉得如果从知识表达的角度,那个压缩可能就是一个高于数据压缩,抓住它最本质的结构,然后再用sampling的方法又生成了一个,其实它已经不是完全的,比如说猫是吧。

它生成了sampling出来,它不再是完全一模一样的猫了,但是它抓住了猫的结构,你看那个生成模型生成一个特别像的一个猫,但它实际上不是原来的猫了,就从知识表证的角度可能压缩是核心,但是我们这个智能不是。

我们智能是定义是,我们在这个对于我们人来说,我们在这个世界上我们和环境互动,我们能适应环境的变化,这个是最fundamental的能力,从这个意义上说它不交互它怎么会去,压缩只是一部分。

是我们那个internal model世界模型的部分,但是我们肯定要选用一个效应器是吧,给外界进行交互,我觉得在我的看来智能应该包含这样一个部分,不简单只是一些统计规则。

就是数据点和数据点之间的统计规则,那个就是压缩,我把那个统计的pattern给找到了,我把这个问题稍微延展一下,问一下刘老师,就是说刚刚几位老师都提到了这个压缩嘛对吧,就是这个压缩正好有点点这个。

echo这个杜老师去年的一个观点,是不是说把这个各个的神经元,把它理解成一个这个token的角色,形成一个token的一个样子,然后我们就可以得到这个世界,然后刚刚其实老师都提到了说。

压缩之外应该有别的东西,然后构成了我们人和机器智能不一样的地方,然后我也想问问刘老师就是,这个别的东西你觉得是什么,对,那个就是压缩呢然后就是我们简单而言,就是说至少有两种方式。

一种方式呢就是我去寻找它们之间的概率关系,对吧然后就是那个就是我们通常说的叫那个就是,叫那个因物,就是那个原来传统对NLP对大模型的一个说法,就是说它是一个概率因物,它首先根据概率第二它只能重复。

那么是这是一种观点压缩,还有第二种压缩的观念呢,这个是我们知道我们人肯定是有的,就是我们大脑里面在形成对这个世界的一个表征,这个世界是怎么运作的,我们的人的这种反应方式应该是什么样的模式。

在世界上应该是什么样的模式,比如在那个会场上,那么我的world model就是我不能到处跑来跑去,然后不能比如说现在正在一边分享一边吃饭,对那么这是这样一个规则,但是如果假设我们在那个饭店里面。

我们就可以一边吃饭一边聊天,就是我们有个关于世界运行的法则,这点我们东西是确定的,那么现在回到大模型上来讲,究竟大模型学习的压缩,它是一种概率因物的这种方式,学习的只是一种概率连接的这种观念式的方式。

还是它形成了一个关于这个世界的表征,我觉得这点问题的回答呢,它基于两个实验的研究,第一个是大的生物神经网络,和大的人工神经网络,它们有什么样的异同在表征上面,我觉得要回答这个问题。

因为我们知道人是一定有world model的,就要从我们的自己直觉上来感受,大模型有没有我不知道,但是我们可以在表征的层面上可以来看它,OK我觉得这是然后我们第一个必须要去回答的问题。

所以说这也是老科学加上AI,我觉得这应该是未来一个最好的方向,就不是之一,第二个我觉得我们需要解决的问题,就是回到你刚才所说的,它一定是要有交互,就是说刚才在前面老师也都提到了。

智能的一个本质是学习和适应,那么其实学习和适应本质上是一回事儿,我们只用了不同的词,那么这个事儿就需要一个反馈,那么在反馈当中其实机器有大模型有,比如说我们说一个简单的RLHF。

就基于人类反馈的强化学习,对吧,它也然后根据来学,但是我觉得这不够,为什么叫不够呢,当它没有身体的时候,它去然后和这个外部世界反馈,它的感觉和人的这种反馈是不一样的,为什么这么说呢也是出于我们的直觉。

我们通常有一句话叫做,读万卷书更要行万里路,对吧,现在Charter GPT它更多干的什么呢,它读了万卷书,但它没有行万里路,但是我觉得行了万里路之后,可能那种感受,和我们读万卷书的感受是完全不一样的。

所以说我觉得在这个时候来讲,那个就现在大模型,它没有巨身,如果假设它没有巨身,至少我觉得,它不像我们人类智能这样子,它是有区别的,因为我们现在把AGI的一个通俗的定义是,类人一样的智能,对吧。

像人一样的智能,那么如果从这角度来讲的话,我们现在顶多只能说大模型,它是AGI的火花,或者它是雏形,但它还不是真正的AGI,所以说我觉得从工程上来讲,无论是算力啊,无论是模型的复杂度啊。

我觉得这些都只是一个工程问题,我觉得下面如果它真的要出现,然后就是像我们人一样的智能,真的实现AGI的话,我觉得它需要解决科学的问题,就是你究竟学,你需不需要一个身体来学,需不需要巨神来学。

我的答案是yes,但这只是一个就像,我是当时在一个PPT学了,打了个括弧belief,这只是一种信念,但然后通常我们说信念很多时候都是错的,只不过然后就是,只不过我们愿意去赌一把,第二个就是回到刚才的。

就一定要去看生物的大脑,究竟长什么样子,罗老师,刚才老师都说这么多,我觉得如果想象把整个世界都压缩进一个大脑,就代表智能,我至少是肯定不同意的,因为我觉得,我不知道。

可能这个也是信息科学领域的傲慢的地方吧,就是好像你们总觉得这个世界上的知识是已知的,我们只要,我们现在有特别大的算力,我们有很多的办法去捕捉,我们理论上就可以把它压缩进这个人脑,压缩进某个agent。

我的感觉就是说不是,第一方面是,其实知识并不是一个确定的东西,就跟人类社会一样,如果人类社会,就是发展到今天,比如我们每天发生的事情都是如此的不确定,你觉得是因为,真的是因为我们了解不多。

还是因为它其实会,真的就像刚才吴老师说的那种,涌现出来的一些不确定的各种特性呢,所以我觉得这个世界它本身就不是一个静态的世界,不是说这个世界上,一共有多少多少比特的信息,我要知道就ok了。

然后我只要用算法把它压缩进来,我就变得智能了,我是完全完全不相信这一点的,我觉得这个世界上的知识根本没有办法衡量,它取决于这个世界里面,存在的人 存在的各种生物体,甚至于非生物体。

它们之间会产生出很多很多很复杂的东西,然后这些东西是,不能叫不可量化,但是它至少不是有一个upper limit的,然后对于一个人来说,你想一个宝宝出生在这个世界上,他也不是就是学很多东西对吧。

但他好像三胖好能够活下来,然后他背后的这个智能肯定不是通过一个知识压缩,它就是一种你可以叫互动的能力 适应的能力,对 我只是想强调说,这种用压缩的观点去解释智能,我是完全不同意的。

虽然我们自己实验室做一些研究,我们也借用压缩这个词,但是这个概念我是不同意的,我能追问一句吗,来,当我同意你的观点的时候想追问一句,难道我们刚出生的婴儿,他肯定不是一张白纸。

难道不是信息压缩在他的DNA里面吗,我同意,但是他不是整个世界的知识压缩在他的DNA里面,但是是这个世界最精华的知识,或者以他生存最关键的知识,对 没错,所以我觉得那个Daniel的讲得挺好的。

如果大家去看他的一些书,我也看得不多,大概就看了一两本,我觉得他里面讲的一点挺好玩,他其实就是说,我们现在总是对一个事情如果存在,比如说我们认为人有智能,我们就老是在找它的功能性,比如说。

我们说我们能适应环境,我们就说适应环境特重要,然后说这个地球温度特别perfect,因为高一度我们也要死,低一度我们也要死,好像就是老是在找原因,然后他的书里不停地强调,其实都是偶然的现象发生的。

然后他讲这个智能也好,意识也好,它发生的原因,你现在已经有了,你就老在问为什么,你就会觉得它是perfect,他就认为其实只是由于各种各种的随机的基因变化,导致我们人产生了一种非常奇怪的能力。

就是我们会制造很多思考的工具,就跟大家现在在问问题在思考,这种东西真的好像是别的动物没有的,这个思考的工具就是,你可以somehow用一些东西来做比喻,然后你会把外界的一些东西变成你自己的东西。

甚至于每一个人,我想刚才陆沙说得对,好像我们每个人看上去是单独的,但其实我们很多的知识都是分布在,我们身边的人,我们身边的工具,包括CHIGBT现在也成为我们的一个思考的工具,我觉得这个是一个内研化的。

总之我觉得人生下来,确实有一些根据进化以来所谓的压缩的精华,但我认为它不是一个已经知道的世界的压缩,它是在你之前的人类的这个进化史上的这些,由于随机的原因,导致的这些能生存的基因的进化的压缩。

但它还是不代表整个世界的压缩,这是我的观点,算是一个最必要的知识的压缩对吧,就是根据基因选择正好活到这个当下,你活下来的这些的最优的压缩,刚刚罗老师讲的让我想到吴老师最后的一个PPT。

就是里面有那个剑物和盾物,然后罗老师也举到了这个例子,就是说一个小朋友这个学习的过程,在我看来我觉得一个人的学习呢,它其实更像是剑物的,就是说我们在每一天的生活当中,去吸收到更多的信息。

然后是一个剑物的过程,但是呢我不知道这个,我不知道我理解对不对,请各位老师这个纠正我一下,但我看到的这个AI的每一代的智能的这个发展,它有点像盾物,就是说我把这个足够多的数据喂给它。

然后它的这个intelligence就会上一个台阶,对,所以我也因此我的问题就是说,这个人的这个学习或者人的这个意识和机器的意识,在除了这些地方之外还有哪些地方是不一样的,要不然我先问问吴老师,对。

我觉得不一样太多了,就是说,因为罗汉说就是可能,信息科学和计算机是傲慢或者是,他搞信息科学,但我不傲慢,就是说忽略了很多那个认知科学,甚至可能文化中的一些东西,就是说因为他们跑来打靶。

就是说benchmark这种,就表去就我做这个做这个做特别好,我好像解决智能问题,不是这样的,其实我们人类社会是特别特别复杂的,我觉得真的这个我们能有太多太多的能力是目前,目前来讲没有实现的。

所以说我觉得真的不同点太多了,我一下子一下子都不好落列,其实大家可以看看一些心理学认知科学的书,你会发现我们人每天干的事情真的是太多了,绝对不是现在那个GPT,他语言回答得很好,但是我们生活中很多事情。

他都没有这方面的能力的,就最基本的一个巨声这个词就没有,是的,是的,这个我其实还有个问题,就是以这个问题来问,就是人类脑子里有什么事情是很长时间来看,AI都无法复制和学习的,就是当然今天几位老师都提到。

就是说在现在可能做的最差的事情是这个,手眼协调,但是也有很多很多人对吧,包括这个顶级的学者,尤其是最近在美国很多顶级的学者出来做的都是,比如说像P。I。

Physical Intelligence这个部分,就是说人类最后的壁垒可能是什么,这个要不然罗老师你回答一下,你的问题是说人脑有什么,机器现在没有了是这意思吗,长期来看人类脑子里的什么东西。

是最难被AI学习和复制的,其实我说话经常非常矛盾,对刚刚批评希基哥有加傲慢,我并不是说,就是我还是,我有的时候在任何一个moment,你可以回头再看二三十年前大家的回答,就比如说以前大家。

刚刚AI出现的时候我记得刚下围棋,你要是去采访很多的这种大咖,他们都会说不行不行,他们不会语言,他们没有情感,然后我那天就很开玩笑的,我当时就问我们家的孩子,他们当时应该上小学,我就问他们同样的问题。

我发现他们的回答是一样的,所以就说,我觉得这个就像一个非常意识下的回答,就是我们会把一些,我们觉得非常主观的东西就认为机器没有,但是现在随着很多很多的发展,你就会发现情感是可以计算的。

其实情感并没有大家想象的那么复杂,虽然我们自己觉得,哇 这个怎么可能机器有情感,情感是可以的,如果你把,我刚才忘了哪位老师讲的这个,内感觉的系统放到这个机器里面去,它其实就是可以解释情感的。

还有包括现在的语言,已经到了这种无以复加,我们以前上课的时候,最喜欢举的第一张PPT就会说,机器语音识别很差呀,加几个人就识别不了了呀,加了噪音识别不了,现在就默默地把那张PPT去掉了,不敢再讲了。

真的不敢再讲,以前真的就是老是用这个例子,然后说我们人脑可以做特别好,宝宝就可以做呀,现在把这张PPT默默去掉,所以我觉得这个,人工智能和信息科学正在攻击人类的这个疆域,这是一定的事情。

然后所以这个问题实在不敢回答,因为回答了就打了一个靶子,比如说下面如果有这个做人工智能的说,好 罗老师说长期不能攻克,我一个月就给你攻克了,我真的不知道,但是我觉得意识是个好的问题。

因为意识就是我刚才讲的,它是集大成者的皇冠问题,可能刚才也有很多老师同学,我们后面聊嘛,就是意识是什么,确实大家不知道,但是大家是不是又同意一点,就是意识不是大家想的那么简单。

它里面有很多很多的这个融合的这个部分,还有包括你刚刚问我这个问题,我觉得就是说,我觉得Daniel Dennett讲的那个蛮有趣的,他讲的就是说,你如何去产生一种思考的工具,我觉得这个工具挺酷的。

就是它不是像GHBT回答一个问题,它是可以把一些无关的东西都变成一个工具,再一次地去问自己,还有就是现在人类说的这种原认知,我感觉也还蛮酷的,就是说好像是,不能完全是自我意识吧。

就是我解决完一个问题以后,我对我自己的一个考量,我对我自己的追问,我觉得这个东西也是感觉是至少,现在还没有被攻克的,不知道明年会不会被攻克,对 这个问题我接下来问一下这个,我觉得是这个学术界里面。

也是比较显著的探鉴,问一下这个刘迦老师,就说,对 其实然后我那个,刚才罗汉老师说到打脸,其实然后我被打脸打得太多次了,然后因为2020年那个5月份,然后那个GPT-3出来,然后6月份当时就开资源大会。

然后我们当时这个论坛特别火,为什么特别火呢,然后就是因为我说那个大模型,那就是搞笑的,对 然后我们当时,我和吴时老师还是比较温和,然后我是比较那个,后来就发现被打脸打得比较厉害,但是我现在这儿想说呢。

然后那个就是,如果假设,如果假设让我非要选一样出来是人类有,而现在AI目前连人影都没看到的,一种功能的话,我觉得这个东西是有的,那么就是我们人类的,死亡意识,死亡意识,为什么这么说呢,其实这个东西那个。

其实是一件很神奇的事情,你可以看到啊就是那个,原来那个动物的进化呢,是自然界的这个压力,对吧 然后你必须要survival,你一旦survival了之后,能够生存下来,你就可以躺平了。

对吧 所以说我们能看到,比如像鳄鱼,它在这个世界上已经存在了两亿多年,两亿年前它是这个样子,然后两亿年之后还是现在这个样子,它不需要再演化了,因为它就可以躺平了,因为我可以生活得很好对吗,那个皮糙肉厚。

然后战斗力也很强,但是人是一个很稀奇古怪的物种,人然后就是,一旦进化成人了之后,人就开始自己跟自己卷了,其实我们人可以已经生活得很好了,但是我们人还是不断地在卷,对吧 然后一定要让生活得更好。

那么已经不再是自然界给我们压力,而是我们自己人在给自己压力,那么在背后的一个,这种进化的动力在哪儿呢,就是我觉得有个很重要的动力就是,死亡意识,因为人是所有动物中间唯一一个,有死亡意识的一个动物。

因为我们小孩,即使他离死还有很多很多年,他也知道自己必将要死,而对于动物来说,只有他当生命最后一刻的时候,高等动物他才知道自己要挂了,然后或者让他去找一个地儿,然后自己来。

其他的可能动物连这种想法都没有,那么我觉得人就是属于,生活在这种,最大的确定性和最大的不确定性之间,就最大的确定性就是你知道你一定会死,最大的不确定性就是,你不知道你什么时候会死。

这么然后一个双重压力之下,人就一直想超越死亡,超越死亡是什么呢,就是卷,对然后你去发明出各种知识出来,你去比如刚才,吴斯然后他去说我想知道楼管的,然后一个核心问领魂三问,这个与你生存有关系吗。

没关系对不对,你把这三个问题搞清楚了,对你能活得多长一点吗,你工资能高一点吗,一点意义都没有,但是,但是,这就是我们想对死亡意识的一个超越,好,那么我们把这个放到AGI,现在AGI的所有进步。

都是人卷出来的结果,而不是AGI自己卷出来的结果,那么我自己坚信,AGI一定会超越我们人类的IQ,这个是我觉得,这个不用说大概率,就是一定会,但是它一旦超越了我们人类之后,我们把。

就像那个baby把它养大成人之后,我们挂了对吧,它能不能再继续进化,如果假设它能再进化,那它的动力是什么,它不会死对不对,CPU烧了换开CPU,然后那个电线断了重新连根电线,它不会然后有一种。

然后向前的一种,发自本能深处的一种恐惧感所带来的,这么一个前进的动力,它没有,对吧,它也不用担心能源不够用,它也不用担心GPU不够用,因为这对它来说,照是一件很简单的事情。

要获取更多能源也是一件很简单的事情,那么将来然后让AGI去前进的,或者进化的动力究竟,它内生的动力究竟是什么,我觉得这是我们人类和AGI到目前为止,就我能看到的,或者至少在几年之内。

然后我觉得没有累来的,我也想不清楚AGI,它有什么样的自己动力,自己去演化自己,把人类灭掉这个很简单,它不需要因为这个动力而进化对吗,因为我们人类自己就会把自己灭掉,对,对我总结一下。

就是刘老师的观点就是,人类的最后壁垒是内卷,对,对,所以,对对对,所以我们这个内卷现在是我们作为人类,非常大的一个优点,对,然后这个我也问一下隋老师和朱老师,因为这个,这个刚刚这个刘老师在讲的时候。

我就在想,这个死亡意识有没有可能会被堆积,能不能通过这个强化学习训练出来,这个死亡意识,以至于让以后的这个AI学会自己内卷,隋老师,这个是不符合这个伦理的,那个,所以这件事情,这件事情在前面被讨论过。

也被设计过,但是可能不会被作为一个优先级很高的,事情来处理,但前面那个问题其实,其实这个我还在想说如果轮到我回答,我回答什么,这个刘老师基本上把我想说的,说完了,这个。

但是我其实是换了另一套这个narrative,就是说我们,我们是有一个,作为一个种群,我们是有一个相对固定的生存周期的,不像刘老师用词那么直接,就在这个相对固定的生存周期,它意味着什么。

意味着说如果这个周期的时间,它降一个数量级,或者升一个数量级,比如我们按现在100年来算,它降一个数量级或者升一个数量级的话,那我们的整个的智能的这些演化等等,我们的社会形态各方方面面会产生区别。

肯定会很不一样,那么别说它,一个这个系统目前它可能没有能够看得到的,一个相对比较固定的生存周期,那这是它和我们的一个,一个非常巨大的一个区别,对,但反正这个说我们是不是可以来,构建一套这个奖励系统。

使得那这套奖励系统,非常,这个真实的去还原,可能人在整个的生存周期的里面的这些,这其实是可以的,这个当然不是说我们现在马上就能够做出来,这要做相应的这些投入,往这条路线去做,但要不要做这个事情。

这可能还是个问题,对 这是我的,周老师你觉得呢,第一是能不能做出来,第二个是该不该做,我觉得不太能做出来,就是我们当然可能可以是吧,在人类的反馈下面,然后来试图对齐这个AI系统。

它对死亡或者其他的一些东西的一个表征,但是这可能又跟我们今天讲的意识有一丢丢的关系,就是这个死亡意识它真的是可以被report的吗,是可以被汇报出来的吗,换句话说用心理学家的话。

它是一个意识上的还是一个意识下的,有很多的死亡意识可能不是我们consciously知道的,但是它会guide我们的行为,所以现在的这个这一套对齐系统,据我肤浅的认知,其实是根据人类主观汇报出来的知识。

然后来进行机器和人类的对齐,它会忽略掉大量的人类意识下的,那些我们自己都未必能够觉察到,或者清楚地说出来的一些主观的体验,包括对死亡的恐惧,所以从这个意义上我觉得,可能不是那么容易实现的一件事情。

至于要不要做,那我觉得这里面还涉及到一系列的问题,AI要不要有死亡,那还要不要有繁衍,那还要不要等等等等,我觉得那是太科幻了,那个可能留给后面吧,对 确实这个,杜老师,这个麦咱们就先放在杜老师那儿。

对对对,那个我觉得刚才刘老师给我一个很好的启发,我可以给你一个可能比较好的答案,就是现在AI肯定没办法实现的,就是那种不具备有loss function,因为AI它无论将来怎么设计,任何怎么设计。

它都需要去,你要做一些,你人为设计带有明确的loss function,对或者不对,好或者不好,就你有很明确,但是很奇怪我们大脑境界当中,有很多东西完全没有loss function,你love 爱。

这个你死亡,然后你情绪的悲伤,你的loss function你该怎么去设计,还有一个,人很容易做一些spontaneously很随机的事,你在路上走,你突发起想,啪,我用脚把这个石头给踢掉。

这种spontaneously的探索,其实非常重要,就是因为我们人类包括学会,用火去烧烤,就是因为看到有这些东西,人总是会spontaneously的去试一下,就是这种spontaneously的行为。

某种意义上来讲,它就是我们人类在进化当中,往往在某一个关键点上,能够跳出local optimal的一种,一个很关键的一个东西,但是这种behavior,就是这种情绪这种反应。

你很难从我目前对AI的了解,你很难用一些明确的loss function,来指导它,你可能会得到一些很随机这种散射的,然后最后把你这个讯息系统会讯得很差,所以这也是我现在想到一个。

就是说对于那些不能明确用loss function,来描述的东西,我觉得现在短时间内,目前这个AI的体系,还是没办法能实现,也许以后可以,但是现在我认为是比较困难的,好 谢谢杜老师。

刚刚其实我们讨论了很多这个,这个AI的能力,然后其实我今天早上还看到了一个视频,里面有Hinton教授提到了一个观点,他说AI意识比人类意识更好的地方呢,就是AI是数字化的,它可以制造非常非常多的副本。

然后每一个副本都可以查看,全互联网上的数据集,并且可以非常高效地共享,但是呢其实人类我们是每一个智能体对吧,我们是一个单独的智能体,我与各位老师的沟通,只能是通过语言 肢体语言,其实人类之间的这个。

共通共享是一个非常低效的,然后所以呢有非常多的人就是在呼吁说,要去找一个这个,要稍微减速或者是暂停这个AI的发展,因为他们认为可能AI是。

better version of AI intelligence,对,然后就这个问题呢我也想问问看各位老师哈,各位老师是这个,加速主义呢还是这个减速主义,对,然后,对超级对齐就是对走哪个路线。

然后怎么看这个AI意识,它其实真的发展起来之后,它的比人的这个能力可能要强很多,因为今天各位老师也反复提到群体意识这个,这个这个概念,这个看看哪位老师愿意先回答,其实我觉得有一条路可能是你没有提到。

就是我们可以借助AI来实现人类有效的对齐,是吧,我们大家都在用GPT,然后某种意义上我们就通过GPT作为一个工具,我们互相之间实现了一个对齐,所以可能从这个意义上。

它not necessary是一件坏事,但,但别的意义上就不好说了,刘老师你觉得这个,这个通过AI来实现人类的对齐这个事情有可能吗,感觉有点变了,怎么变成机器在这个训练我们,强化学习我们。

我觉得然后人类从来就没对齐过,那个就是因为大家的观念是各种各样的,我觉得然后就是让人类对齐,我觉得这件事情我觉得是永远不可能发生的,那个随着这个社会的多元化的进行,这本身是一件好事情,我个人是采用。

我个人的观点啊,我一直是相信的是那个有效加速,为什么呢,因为我觉得这个社会的发展最好还是,就我一直个人的一种观点就是,一边造船一边开船,只要你造船的速度,快于船沉没的速度,That's okay。

就是说你不要等这个船造好了你再去开,其实那时候就已经晚了,我觉得现在然后AGI给我们呈现了,就是说或者是大模型的发展都还不到AGI,给我们呈现了一种,极其极其大的一个opportunity。

这可能对于我们人类整个而言,是然后难以想象的一个opportunity,比如说就像刚才我和罗欢老师在下面开小会,然后我们当时就谈到,比如说然后意识这个问题,然后如果假设我们放在以前去谈它,那我们就是。

置我们的那个学术生育就不要了,然后就是基本上就是有点搞歪理学说,但是现在我觉得它就给了我们一个机会,我们可以正大光明的,而且觉得很有紧迫性的可以去做这件事情,那么这是从小的方向来说。

我觉得更大的方向来说,我觉得然后如果假设人要和机器对齐的话,有没有这种可能啊,但这就纯科幻,能不能把我们人类的,性格,思想,记忆,甚至我们的,独特的自我意识,我们能不能有一天能上传到机器里面去。

这样的话我们摆脱我们的肉体,我们能够从此获得永生,我们就不再被恐惧意识,那个恐惧的死亡意识所困扰对吧,因为你将来到了机器里面,你如果假设算力不够,想不清楚问题对吧,听不懂,比如说然后我们信息专家的。

然后数学公式,我就加块GPU呗,然后一下就懂了,所以说我们算力可以不断地扩大,我们对世界的探索可以更多地来做,所以说我觉得从这点上来讲的话,其实然后把,与其让机器变笨,不如就是刚才我对朱老师的理解。

就是让人变更聪明,变更聪明呢,我觉得让更好的对齐了,就是我们能不能把,我们大脑这些东西把它上传到,AI里面去,上传到机器里面去,所以这个时候研究老科学,我们去探索,大脑究竟是怎么encoding。

怎么decoding的,我觉得可能这就成为,人类的最后一场,科学上的努力,因为我觉得只要完成了剩下所有事情,我们都可以躺平了,我有点听懂了刘老师的这个思路,这个思路一开始呢,这个人类最后的壁垒。

是我们的死亡意识,可能刘老师那个壁垒,说的这个有一点点保守,叫人类最后的阻碍是死亡意识,对吧,人类如果抛掉了死亡意识,就完成了这个进化的最终态,是这样子的,对群体而言呢,死亡是一个最好的结果。

对群体而言,它是我们人类能够拿到的最大的gift,但是对个体而言,死亡是一个最大的悲剧,对吧,我们没有,然后只有让,因为只有死亡,一个社会才能新陈代谢,才能让不断地向前进,对吧,所以对群体而言。

对社会而言,死亡是一个最好的gift,但是呢,对个体而言,死亡一定是一个最大的悲剧,那我在想能不能,然后把这两者合起来呢,我们个体也不要有,经受这个最大的悲剧,而我们整个社会也能向前进步呢,对吧。

这个问题,当然这就是一个,然后纯粹很科幻的,但是我觉得,这也正是让我觉得,我们老科学在此时此刻,变成然后尤其重要的一个关键,而且老科学和人工智能的结合,变成我觉得是现在,就从各种观点,the most。

important scientific question,就没有,然后之一,只有the,对,谢谢刘老师,我问一下吴老师哈,就是吴老师,第一个是怎么看刘老师刚刚的观点,第二个问题我加一个,我加一个。

刘老师刚刚这个,这个发言里面我抓到了一个点,就说这个人类社会是靠死亡来新陈代谢,那么这个AI,它靠什么来实现这个新陈代谢,和进化,所以我刚才一提问大家笑,因为发现我经常观点给大家不一样。

也就是不太一样不太好,说不好意思说出来,就是说,这个死亡意识特别有意思,他们做过这样一个,就simulation的游戏,就是说我就有很多那种,有的sample computer的life games。

你用不同的group,有一个group他们会死亡,有些group他不会死亡,结果发现,作为一个群体的话,有死亡的群体,他会在竞争中胜出的,就像刘家说的有个新陈代谢是吧,但是很有意思的是。

它进化中它产生了这个能力,它怎么就会影响到那个,我们人的那个主观感受呢,去说有种死亡的意识,我这个是想不清楚,这可能就回答我们今天会议的主题,意思是什么的问题,所以说我觉得对那个。

目前人工智能我不是特别,我觉得很多大脑袋担忧什么人类毁灭,我都觉得己人由天你知道吗,因为现在目前的所有的AI,其实都是一个混合智能,都是我们人要参与的,我不为他数据他学什么学,然后你千万记住很厉害。

我不问你问题了,你能干什么呀,你什么都干不了,它实际上它都要我们人去参与利用它,它才能干事情,只有它什么时候有个独立的意识,成为一个个体了,那你真的厉害了,但是这个什么时候出现也不知道,你知道吗。

然后至于刘家最近的永生,其实我自己的观点是,当我真要把那个灵魂三问搞清楚以后,我好像我觉得存不存在不重要了,对真的,有的饶了什么人类的灭亡,我觉得哎,我们搞清楚这一点,我们灭亡无所谓了,但是是这样子的。

我追问一下,这个饶了终极问题,但这个终极问题在你有生之年,比如说你活到一百岁,回答不了,你想不想再活几年,我原来是觉得这个问题是,永远不可能回答出来的,反而是这几年大模型AI的发现。

哎我觉得有可能在我有生之年回答出来,我不是跟你说过吗,我觉得有生之年有可能回答出来了,因为我们相当于,AI的大模型跟我们有个类比了是吧,跟我们人类的智力有个类比了,你发现,比如说我们过去认为。

我们人太独有的东西很神秘,比如说的语言的加工,现在发现你大模型做得很好嘛,那语言的神秘性就被破除了,各种各样的东西,你就在对比的过程中,可能我们还有老科学的发展,我们可能对我们了解的越来越深刻。

有可能加速在有生之年,把这个灵魂三文给回答出来了,好,隋老师你怎么看,就是还是回到最早的那个问题,就是关于我们到底要加速的发展,还是对于它来有一些限制,这里可能有一个是我们意愿的问题。

还有一个是我们的能力的问题,在我们的能力集合里面,其实我们的意愿,可能没有那么大的选择的空间,可能只能沿着现在的差不多的路径,来往前走,但如果抛开能力的这个事情,我们来看意愿的时候。

就是这个有整个在计算机的发展,还有这个AI的发展里面,这个其实哲学家的参与是非常有意思的,早年有一本书,这个叫做What Computers Cannot Do,各位老师可能有印象,这是好几十年前。

那个时候其实computer在,过去的这一百年不到的这个时间里面,相当长的时间里面,其实是扮演着最近的AI的角色,被我们来讨论,所以才有了这个What Computers Cannot Do,对,对吧。

计算机不能做什么,然后呢后面发现计算机能做非常多,就成了这个What Computers Still Cannot Do,计算机还不能做什么,对吧,到今天我们会发现这个事情在越来越收窄,这个我们整个的。

AI领域里面的这个学者传递出来的声音,以及这个我们的政府和这些公共部门,来传递出来的声音都是,AI will take tasks instead of jobs。

或者说AI is taking jobs away,but it's also creating new jobs,但是在这里我们从来不讲数量,我们不讲它的quality和对于人的这些要求,对吧。

到底是创造了一百万个新的岗位,然后消除掉了两百个新的岗位,还是这个事情是反过来的,我们今天都能够看得到整个大的趋势,那么在这个趋势继续发展的情况下,整个我们其实人类社会在前面的漫长的时间里面。

我们迭代出来的一套reward function,我们的这一套价值体系,可能还没有来得及,我们做出很好的调整和反应的时候,就受到了很大的挑战,这其实是我很能够理解一些老先生们。

尤其是早年在推动深度学习发展,但是那个时候大家都不信的这些老先生们,今天反过来能够深感其中的恐惧,这其实是很值得理解的,对 这是我的观点,罗老师呢,对 今天讲了很多对齐,原来知道这个词,今天知道更多。

也学到了死亡意识,对 我是觉得说刚才正好那个又验证了,就是大家说的如果我们把这个AI作为一种工具来对齐人,这是很好的事情,如果perfect对齐就更好,但我想讲的另外一点是。

可能人性这跟刘老师说的死亡意识确实有关,我觉得人性就决定了我们是对不起的,因为每个人都求心求意,要不然为什么大家都进来,今天听这么不着调的symposium,一定是你想去寻求一些什么信息。

无论你是做什么职业的,比如说你是一个媒体人,你希望写出一篇特别好的一个报道,如果你是一个科学家,你特别想找一个点,你是不是内心里还在想,我的这个点最好跟我的同行想的都不一样,所以我觉得对齐是不可能的。

我不知道是为什么,可能是求心求意,但是我觉得刘家老师说的对,可能这个死亡意识,或者像陆沙老师说的,它潜意识里决定了每个人的行为,我们的行为就是我们希望自己,既和别人一样。

但更重要的是我们还跟别人特别不一样,我们要是每个人都是一样的,就像刚才大家都回答了问题,我在想我最简单的办法应该说,我同意各位老师的意见,但是我好像没有办法接受这个部分,我非得说一个别的老师没有说的。

然后我觉得这就是人的本性,就这个本性就导致我们一定会这样做,然后这个做背后的原因,跟刘家老师说的那个死亡意识,可能真的有关,但还有一个原因我觉得可能就是因为,我想当大家都知道那个。

normal distribution,那个是指任何事件是独立的,我们经常认为社会上每个人和每个人是独立的,这种情况下如果互相没有干扰,它会出现一个这种正态分布,但是往往就刚才说内卷也好什么也好。

其实就是说就算资源无限的情况下,大家依然认为资源是有限的,在资源有限的情况下,事情和事件之间就没有办法独立,因为你就需要不一样,然后它就会出现一些,比如说那种hub或者一种东西,对我就是简单补充一下。

好我们还剩一点点时间,因为这个去年好像没有开放观众提问,刚刚好像也有很多这个朋友在举手,有没有现场的观众想,要不那个后面那个穿白衣服的,第一个举手非常积极,再说一遍,首先关于主持人刚刚那个问题。

我有一点想分享,我有相当主意的,就是说拉法拉伊曼,我觉得其中有一个点是,不是来源于我们是否要选择什么,而是来源于,而是来源于它可能是一个囚徒困境,现在就是所有全球范围内的,各个国家的建制派。

它其实面临的是一个囚徒困境,就是没得选,就是我们一定会加速,所以你看到中国对于,Artificial Intelligence Safety,对于AI安全方面的投入是不够的,这是第一点。

就因为我有小伙伴刚刚从牛津回来,然后他是物理系毕业的,牛津的物理系毕业的,然后他其实找了一些,跟Artificial Safety有关的,包括跟暗原AI,包括跟北大的安全组之类的,反正都有聊过。

就发现国内在安全方面的一些投入,首先是不够的,然后有很多的组在分这方面经费,然后你能看到在北美那边,OpenAI刚刚也把他们有关于,Super Love Alignment相关的人员,给裁了很多。

然后也搞掉很多,所以这块大家现在关注的更多的,都是在关注能力方面的东西,都没太关注跟安全相关的东西,这是我的一个补充,一个信息点,对 这些方面,然后我自己更关注的一个东西是,我刚刚跟刘嘉老师也交流过。

跟陆思老师也简单聊了一下,其实我最近更关注的一个点是,有关于Motivation的,对 包括在教育场景下,关于SDT理论的,包括关于爱的,对 然后我提到一个更具体的问题是说,我们从老师们关于认知科学。

关于脑科学的经验出发,对于教育场景下的孩子们而言,是否真的存在一套SOP,是可以帮他们去做自我觉察,然后做自我探索,然后做一种,找到自己的内驱动力,然后进而发现自己的热爱,同时在这个过程中间。

让他们的内驱动力和外驱动力可以有一个,他们的波峰和波谷可以在一定程度上填平,让他们的驱动力处在,让他们去挑战一些困难问题的,这个Motivation能够处在一个,相对稳定的状态下的这样的一个SOP。

我不确定这个东西在质感上是否存在,对 这是我最近很关注的一个点,刚刚罗老师问了个问题,SOP是什么,这种社畜就知道了,SOP就是标准的操作方法,或者说一种范式吧,对,刚刚这个同学的这个问题就是。

有没有什么办法让我们这个标准化的,把人类训练成更优秀的人类,要不罗老师您先回答一下,就不是去训练他,就是让他自己去找,你这个问题特别像教育部长的问题,我会提这个问题的关键,我简单介绍一下我自己的背景。

我是北理工的本科软件工程家车辆工程,然后出去去美国读的航空工程和机械工程,下面的Dynamics and Control,就我其实也是搞控制出身,然后高中是打物理竞赛的。

然后但后来反正做了很多不同的行业以后,现在转过来在做教育,对所以就会特别的关注,就你的问题当然是,我觉得绝对是全社会最关心的问题,我也很关心这个问题,就是所以我说是教育部长回答的问题。

然后那个标准的程序,就是我觉得整个社会就是一个改革嘛,我们其实就在做某种强化学习,我们通过课本通过奖赏标准,我们在训练我们的孩子,希望他们成为最好的孩子,然后我们希望他学习所有所有的东西。

但是现在大家也发现这里面最大的问题就是,如何去培养他的内趋力对吧,这种内趋力是心理学非常非常关心的问题,就每个孩子都有好奇心,那他的内趋力怎么培养,我觉得这里面有很多,其实现在已经越来越多的改革了。

包括大学的一些课程,还有很多的课程,我自己的个人观点就是说,可能要结合吧,一种是通过课程的灌输,但另外一种,就我自己觉得啊,我主要是带研究生的经验,就是还是要通过项目的探索,非常像巨神认知。

就是不能坐在,就不能坐在这个屋子里面听老师讲,还是要通过一个项目,然后得到feedback,然后自己去主动地去学习,补这个知识,再得到feedback,在这个过程中他的内趋力就会非常好的建立起来了。

我只是非常小一个点,谢谢老师,我们再开放一个问题吧,好 那个各位老师好,现场观众好,就是我有一个问题,就是,大家就是都在强调人工智能,就是,其实美国那边也想停下来,然后他是担心中国跟俄罗斯一直停不下来。

然后其实人工智能更多的是应用在军事层面,然后其次比如说像政治,然后经济层面其实倒是其次,因为我本身就是上海江江高科,一家军工企业的负责人,然后就是我的问题就是,人类发展到今天就是。

人的智力水平就是目前最优秀的人,也只是开发了6%左右,我们为什么不把更多的精力去用在,就是去研究我们人类提高我们人类本身,自身的一些,就是开发我们的潜质的一些东西呢,这是我很想知道的一个问题。

因为各位老师都是跟这个有关系的一些,那最后的提请刘老师回答一下,首先来讲啊,我们不是说我们大脑只开发了,然后那个只开发了6%,我们大脑上是100%的都用上了,不然回答你这个问题,我是所有神经元都在放电。

全放起来,全放起来,所以说但是我觉得是这样子的,我觉得我们人类的面临这么一个问题,一百万年之后,我们人类究竟是会比现在聪明很多呢,还是跟现在差不多一样笨,答案非常让人难过。

就是一百万年之后我们人类还会跟现在一样,因为我们大脑大概是3。5斤左右,那么这个大小,它的神经元的多少连接,已经被我们的身体所决定了,我们的心脏 我们的肺,它只能提供这么多营养,支撑这3。5斤。

再多个一斤,我们心脏和肺就不能支持,所以再过一百万年我们的心脏和肺,它一定不会更加地提高,所以如果假设仅仅靠人进化的话,你可以相信,人的IQ是被锁死了,这是一件非常难过的事情,就我们可能会逐渐地上升。

比如说会利用更多的东西,比原始社会的人了解更多,但是你的算力已经被锁死了,被我们的肉体给锁死了,所以这个时候人要进化,就一定不能再靠自己,一定得借助外力,这个外力是什么,一定是AI。

否则人类再过一百万年,还像我们今天一样蠢,还会做一样的蠢事,这是一个特别难过的事情,所以说我觉得我们现在,然后就是发展AI,并不是说我们要在军事上,然后去取得更多的优势,或者在经济上面。

让我们在技术上有更强的能力,我觉得我们现在发展AI,目的是为了人类有一个更好的未来,是为了让我们的文明,能够进入到更高的一个境界,我觉得这是我们做AI的一个唯一的动机,谢谢刘老师。

我刚刚以为您已经不关注,人类这个群体的进化了,听完还是非常的安慰,然后我们时间也到了,正好我就问最后一个问题,就每个老师用一句话回答,去年的问题也差不多,然后我稍微带大家回忆一下。

去年有几位在场的老师的回答,去年那个问题是,你们觉得AGI什么时候到,然后刘迦老师的回答是,去年如果人类是100分,大模型是10分或者20分,然后杜老师的回答是,5年内会有强大的AGI出现。

然后5到10年,这个AGI会像人类一样,然后吴老师的回答是,20年内能取得重大突破,今天这个问题我再问一遍,看看各位老师的答案,有没有什么变化,要不然先从去年没回答的老师,先开始回答 隋老师。

我觉得已经基本上实现了,对 但是出于综合的考虑的话,我们一般来讲我们是用不了的,对 但是已经,是因为超级对齐对吧,就是因为考虑到一个东西,如果它能够非常确定,开放给我们的每一个人,知道我们是谁。

知道我们的能力集合,知道我们的安全线等等,它其实可以把这个能力,再往上有一个协助的一个提升,但是这个事情,现在开放的甚至大家,在这个有些还需要注册一下,有些连注册都不需要了,所以就这个能力上来讲。

从我的认识上来讲,我觉得已经有了,只不过就是说什么时候,能够被更广泛的人所使用,就这个时间表我现在还不确定,罗老师你怎么看,我被吓着了,真的吗,个人观点,那我觉得还是早点开放吧,因为我觉得就跟教育一样。

原来我们说在一个好的大学,学生有更多的资源,但是只有少数人有,那现在随着这个各种各种的平台,然后世界上每一个人,都可以去获得这种知识,所以我觉得如果他已经来了,那只能是学会跟他和谐相处。

把他们作为另外一种思想工具,因为我觉得还是取于这个AGI的定义吧,就是可能在一定的定义下他work,我不知道上升到,我们今天讨论的意识层次,他有没有达到,这个我不大清楚。

我觉得只要把他作为一个立项的课题,然后国家投入大量的钱有可能,大概五年内能解决,在清晰定义的情况下,朱老师,我觉得这取决于你怎么定义AGI,我这是一个比较,比较取巧的回答方法,就像意识领域有所谓的。

难的问题和简单的问题,这个AGI大约也有一个,难的定义和一个简单的定义,那maybe在这个简单定义上的这个AGI,我们就像隋老师说的,我们已经差不多可以拥抱它了,但如果我们给AGI提出一个难的定义。

比如说他有自主学习的能力,他有自我 他有意识,他有自控感,那我想也许,我可能跟吴老师有点像去年说的,我觉得可能还要一个,十年二十年的时间,要不吴老师先说一下,你跟去年的观点还一样吗,我还有四九年。

非常准确,杜老师,我其实有点失望,因为去年我们开那个大会的时候,好像四出来了,然后呢四到四零,我觉得他的逻辑推理能力几乎没有,没有变化,没太增强,所以本来五到十年我倾向于五,现在我倾向于十,对。

也不是九对吧,不是九是十,可以说九吧,九九九 九年九年九年,刘老师,对,那个就是,AGI就是我非常同意,刚才那个就是,罗欢老师和朱璐莎老师那个的观点,就AGI本身没有定义,就这一块,那个就是。

所以说很难,就是说图灵测试已经失效了之后,你一个新的测试还没出来,所以说从科学的定义上来讲呢,它可能就是说还是一个问题,对吧我们怎么去了解它,但是我个人觉得,就是AGI的出现就是一个有生之恋系列。

因为它已经把它所有,挡在它前面的,一些技术上的难题,我觉得已经工程上的难题已经解决了,我觉得剩下只是一个,工程的问题,我觉得现在唯一的一个科学问题,就是我们人,怎么去和,那个AGI去怎么共处。

我觉得这个是然后,唯一的一个科学问题,我觉得工程上不是问题,所以说如果假设你要问多少年,就像我刚才在那个台上这讲的,说不定明年就不用我们来做报告了,直接是AGI来做报告,这也是完全有可能的,对。

因为它已经进入到这么一个高速发展的时候,一旦高速发展它就已经是一个,非线性的,几何级数的这种上升,这个谁也控制不了,对我刚刚故意没有说,刘老师去年的答案是多少年啊,刘老师去年的答案是2030年,对。

对没多久了没多久了,抓紧时间,在我们退休之前,抓紧时间学会和AI相处,谢谢各位老师,谢谢,最后呢,允许我说最后一句话,我们非常感谢主持人,就是李鸿鸣老师,是中理资本的投资人。

去年本来我们是找了一个主持人,一个非常专业的主持人来,结果专业主持人,最后要到上台的时候,说对不起刘老师我要结婚去了,我就来不了了,所以我当时正好和他在聊天,我想投资人主持人会到。

所以我就说你能不能当主持人,所以说去年就来了,而且特别好,而且发现人家出身就是专业的主持人,所以今天我们又把他请过来,他听说有这个会,所以说专门从上海,然后跑到北京来的,所以说我们以热烈的掌声。

感谢一下李鸿鸣老师,谢谢刘老师,谢谢。

2024北京智源大会-智慧医疗和生物系统:影像、功能与仿真 - P1:论坛背景与嘉宾介绍:张恒贵 - 智源社区 - BV1VW421R7HV

尊敬的各位专家,各位嘉宾,女士们,先生们,大家下午好,智源大会2024,智慧医疗或生物系统主题论坛现在开始。

首先请让我代表论坛组委会对大家的到来。

表示诚挚的感谢与衷心的欢迎。

人工智能的迅速发展,给智慧医疗和生命计算。

带来新的机遇和发展机会,相关研究已经成为计算。

生物医学工程以及医医疗方面等交叉方面。

相关的呢就是领域了一个新的挑战。

同时呢带来了一些交叉研究的研究热点,并可能带来新的技术革命或新的技术手段。

同时呢我们意识到该领域的发展呢。

面临着许多重大的挑战,急需要解决,因此呢我们召开本次论坛。

本次论坛将集中于智慧医学研究的相关热点。

探讨人工智能在医学与生物。

医学工程方面的一些研究热点,目前的进展与未来发展的规划。

本次会议我们邀请到了国内国内外著名专家。

探讨,人工智能在医学或生命计算方面的,这个成果与经验,共同探讨智慧医疗发展趋势,今天与会的专家包括,英国皇家工程院院士,曼彻斯特大学教授FRANGE,欧洲科院院士,西湖大学金要储教授,牛津大学雷明教授。

北京大学第一医院李建平教授,北京安贞医院龙德勇教授,北京大学人民医院朱天刚教授,哈尔滨工业大学王宽泉教授,中山大学张赫叶教授,浙江大学夏林教授,北京大学鸿森达教授,北京航空航天大学李帅教授。

北京航空航天大学潘建清教授,哈尔滨工业大学李清澈副研究员,志愿学者,北京大学副研究员马雷,北京航空航天大学教授李帅教授啊,然后北京大学第一医院李玉曦教授,北京建筑大学随栋副教授,以及各位列习专家。

请我们以热烈的掌声,欢迎各位演讲嘉宾,同时本次论坛的另外初衷,是吸引大家对这个方面的感兴趣,欢迎有识之士来加入我们这个研究领域,这是我们这个招聘的一些信息广告哈。

2024北京智源大会-智慧医疗和生物系统:影像、功能与仿真 - P2:Privacy-preserving machine learning in healthcare;金耀初 - 智源社区 - BV1VW421R7HV

下面有请我们第一位演讲嘉宾金耀储教授,金教金教授分别于1988年,1991年,1996年获得浙江大学学士硕士和博士学位,并于2001年获德国洪波路尔大学,工学博士学位,他是欧洲科学院院士。

R e tripe e fellow,同时也是国家级高层次海外人才,海外人才计划入选者,他们将为西湖大学人工智能讲席教授,可信及通用人工智能实验室负责人,金教授,长期致力于人工智能与计算智能的理论。

算法和工程应用研究,他研究成果丰硕,迄今为止已经发表论文500多篇,他演5万多次,h index为108,自2019年以来,连续五次被列为全球高背影科学家,下面有请金教授给我们带来的隐私保护。

计算机器学习,谢谢专家,各位呃,这是朋友啊,在大家下午好,首先呃感谢张老师的邀请,呃,我非常高兴有这个机会呃,分享一些我们做的一些工作啊,所以我今天讲的就是呃,想讲我们一些这个隐私保护的机器学习。

在这个跟health care有关的一些应用啊,呃很抱歉,我因为去年6月份才加入西大学,所以还没有把它改成中文,大部分还是英文的,嗯那我稍微讲一点点,西湖大学,西湖大学可能了解的不一定很多。

呃我们是2015年创办,然后呢18年正式成立的,所以去年5月份是啊,去年10月份是刚好五周年啊,呃那么这个西湖大学的定义,它叫呃社会力量举办国家重点支持啊,就是这是一个比较正式的一个定义。

呃那目前的话我们西大学有四个学院,有理学院,工学院啊,生命科学学院,那么去年10月份呢刚刚成立了一个医学院啊,那我们现在的这个总的这个加盟的这个PI,就是助理教授以上的,有230多个人啊。

那么其中90%是从海外引进的,所以说我们主要是我们的教授都是呃,大部分是海外回来的啊,呃那么现在我们在校的博士生呢,有1500多个人呃,本科生呢因为才招了两届,所以才153,那么今年是第3年。

可能再招90个,所以我们呃就说研究型,大家也能从这个数字上看出来,目前呃是这样一个比例,那未来的话就是也就是本科生可能2000呃,博士生大概是五,这个3000,这个比例大概是总共5000名学生的样子啊。

好那么我呢就是呃去年从德国呃回到修大学,那么成立了一个叫做呃,可信及通用人工智能实验室,那么其实是两块一块呢,就说可信人工智能主要是做这个工业,人工智能啊,包括当然这工业可能是也不是只是工业。

也有些可能像我们在health care这一块啊,呃只一些应用性的,但是呢呃要考虑它的这个可信,就包括隐私保护,安全呃等等啊,可解释性大家都可能也了解啊,呃那么第二块呢就是我们称之为通用。

但这个通用的大家可能跟我们一般讲的通用,稍微有一点点不一样,因为我们现在对这个通用人工智能,这个讨论非常多是吧,来做大模型,然后呢,就说能够希望未来这个能够这个模型越来越大,之后呢,呃跟人一样聪明。

甚至说比人还聪明啊,那么我们自己呢就说想探讨一条,稍微不一样的路径啊,主要是呃我过去二三十年一直做的工作呢,一直是从演化和发育这个角度,就说来探讨这个呃,人工智能的一些一些基本的,一些一些就是方法呃。

所以呢我们希望是从呃是模拟生物的演化呃,和发育这个角度呢,来看着有没有能建一些不一样的,跟大模型不完全一样的一些一些模型,然后呢它也能够表现出一些呃通用智能特性啊,特别比如说这个呃这个自主学习。

这样的一些自呃能力,Ok,那么呃这个就是我的这个过去这30年的,主要的一些研究内容,大家可以看到就是HIIRCARE,其实是里面很小一点点啊,那么我稍微说一点点,就说我们现在讲人工智能。

其实大部分都在讲学习是吧,呃这都是模仿人是怎么学的,神经系统怎么学的,呃那么其实呢呃在生物里面,我我自己个人觉得呃我们的自适应的机制啊,其实不止一一条是吧,学习只是其中一个。

那么呃从长的这个时间这个尺度上讲,演化自然演化是个很重要的过程是吧,呃那么在生命过程当中呢,呃其实还至少还有两个除了学习之外,还有个发育过程啊,那么发育的这这个可塑性呃,其实是对这个生物的演化。

是起着非常非常重要的作用啊,但是我们一般现在呢就是人工智能里面,几乎不看这个发育这块啊,那么我们来做一些这个像呃神经系统啊,或者形态啊,形态是指这个身体啊,人形呃这个这个发育的过程,那么还在进行建模。

然后呢希望呢来看看哎,这个比如身体的这个呃发育,对神经系统发育有什么有什么影响啊,那么也很凑巧是吧,最近大家又听到一个非常热门的一个词汇呃,叫做聚生智能是吧,因为发现如果你只是单独的去研究大模型。

肯定是不行嘛,那么事实上就这样,就说你如果把模型啊,或者说神经系统呃完全跟身体脱开了,完全跟环境脱开了,你想去研究它是呃,是怎么能够有像人一样的智能,我觉得是蛮难的啊。

就需要呃把它放到一个具体的环境里面,一个有其他的agent的,有其有具体的环境的生存环境的一个一个地方,然后呢要把它跟这个身体结合在一起,这个身体就其实你有一个传感是吧,一个是认知世界的功能。

还有一个是改造世界功能,或者说不一定是改造,至少是你跟着这环境有交互的能力啊,所以这也是我们以前做这个呃,就从发育这个角度上讲,呃其实也是非常重要,就需要有这个聚生这个这个呃这个这个功能啊,能力啊。

好嗯,那么今天我要讲的话呢是呃主要是讲这个呃,想介绍一点我们在做隐私保护啊,机器学习的啊,以及在呃跟health care相关的一个工作,我这里今天会讲三个小的工作,一个呢就说呃一个是在联邦环境下啊。

呃做一些数据医学这个数影像数据的数据生成,然后呢在这个基础上又做了一些拓展,那么第二个工作呢是在文本,这个就是处理方面的一个叫做关系抽取啊,或者说呃这个现在因为关系抽取本来是一个呃。

文自然语言处理面一个比较基本的任务,还一个基础任呃,那么现在有了大模型之后,可能做这方面的呃不是很多,但其实呢还是很重要,为什么呢,因为比如说我们要做一个嗯语义网络是吧,因为现在大模型老犯错嘛。

那我们说要做一些这个呃这个有有有局域的,这个局部的呃,这个或者是DEMNOLOGY来来帮助他怎么纠错,那么这个时候文本抽取还是有意义的啊,好嗯机器学习的话,我想我们大家都已经听说了非常多了。

呃呃其实但是呢我们可以把各种各样的模型,我们总是把它可以分成两类是吧,一类叫做判别式模型,一类叫深层次模型,那么现在听说大家都在就听到特别多的啊,像这个ChatGPT啊。

或者是呃transformer啊,或者是这个solar这些东西是吧,大部分是深层次模型啊,哎那么其实我们还有一个很重要的叫,判别式模型,就是那么这个是判别式,指上就说在这里我们讲的是呃。

他在学习之后实际上要判断,比如这个例例子当中啊,你给的一张图像到底是是猫还是狗是吧,这是判别式,那么学习呃这个深层次的话,就说你一堆用一堆这个猫的这个图像,给它训练之。

后来它最后能是呃生成一个一个一个猫来啊,这个就是两种两类不同的模型啊,嗯那么这个历史上有很多很多不同的这个,生成式模型,也好判别式模型啊,但是我想不详细讲了,从最最基本的这个MC模型上。

那个时候只是模拟一个细胞呃,然后到后来现在这个呃,有上多少千亿的这样数量级的模型呃,然后呢呃模型里面也有少数个,就说我们不知道大家有没有听说过,有大部分的呃,呃神神经网络模型都是连续信号是吧。

呃但其实人的呃,人脑或者是动物的脑信息处理,是用脉冲信号的啊,所以有少量的这个用脉冲模型啊,那这个目前还不是主流模型呃,这是一些比如说呃呃深层次模型的传统的方法,但我也不详细讲了。

那么现在的流行的比较多的,就比如像这个变分这个自编码器是吧,呃那么像这个gun就是叫呃生成对抗模型呃,网络是吧,呃那么还有很多很多别的,但是我不详细讲了啊,这是一个一个介绍一点点背景啊。

假设如果对这方面不了解好,那么接下来我就讲这个隐私保护了,呃因为其实大幕呃,现在我们人工智能很成功是吧,大漠性成功其实有一个呃三个条件之一嘛是吧,我们讲经常讲三个条件之一,第一个就是大数据。

那么这个大数据的话,我们有一个假设,就是你可以随意的获取数据,对不对,就是我们假设有很多很多,比如从从从网上拿来数据啊,然后呢呃我存储在一个地方,然后去训练一个大模型,诶,这样的话你这模型能力很强。

但大家肯定也听说了是吧,曾经前一段时间这个纽约时报去告这个OpenAI,说哎你用了我的数据了啊,你没有这经过我同意是吧,那么其实这个数据的这个隐私问题,就数或者数据的所有权问题呃。

是很早就已经引起注意了,我们2017年这个呃,欧洲欧盟就发布了一个叫GDPR是吧,呃那个时候就说哎这个不能随便的收集数据呃,来训练的模型好,所以呢这个隐私保护的话,现在就是已经。

一个很非常非常大家很关心的一个一个话题了,那么这个就是我们传统的就是用用过的,所谓叫centralized learning,就说把数据从各个地方收集来之后。

存储在一个地方,那我就训个大模型啊,那么好处,当然我可以把所有的数据都用起来,但是这个局限性的就说呃,就是你的问题是在于你要去收集数据,所以你要经人家同意是吧,那么这个数据一旦出去之后呢。

你的隐私可能会泄露。

或者是呃有安全的去隐患啊,那么你肯定说哎我不要收集数据也可以啊是吧,我每个呃终端设备上,我自己现在都计算力很强嘛,我们每个手机都是比我们读书时,一个一个计算机还厉害了是吧,算力很强。

那么是不是可以每一个设备上训练个模型,那当然大家可能会知道,这个的话就会有些局限性了,因为你每个设备上收的数据毕竟有限,分布可能也不是很好啊,这样的话就不能充分呃,利用不同设备上存储的数据啊。

所以我们其实要解决的问题是什么呢,就说要解决的是一个是一方面,我们希望把所有的数据里面的价值,这些都把它就利用起来,而另一方面呢,我们要保护这些数据的隐私以及安全啊,所以如何来解决这个矛盾。

就既能用这些数据啊,又能能够保护这些数据的隐私啊,呃也那么传统哦,这里有很多很有趣的符号,不知道哪来的呃,呃这个这个有有有这个很多这个隐私及保护,这个呃计算的技术啊,包括像我们多方安全计算是吧。

或者是差分隐私呃,这个差分隐私的话就是我在我原有的数据上,我加了一定的噪声之后,那最后呢你就外面就看不出来诶,这个数据原来是从哪里过来的啊,呃还有像比如常见的就是呃同态加密是吧,呃同态加密技术。

你对数据进行加密加密之后再进行训练,然后这样的话你就你哪怕把数据给别人,也不会担心你的数据呃,你的数据都隐私会泄露啊,呃,那么这些方法当然有有各自的优势和局限性啊,那么像特别用的比较多的呃。

差分隐私和这个呃呃同态加密啊,那么这里面差分隐私呢,就说他有个什么样的缺off呢,就说你噪声加少了,你可能隐私保护能力不够是吧,加噪声加多了,你这个模型的质量会受到影响啊,所以这是个缺道F关系。

而那个同态加密呢有这么几个问题,一个呢它的计算复杂度会比较高啊,你每次计算时要加密解密,加密解密,这个计算复杂度很高,这是一个第二个呢呃它只对它,虽然我们讲同态啊,这个同态只是个相对的概念。

就说只是对加法和乘法同态,那么我们是机器学习里面,其实还有很多非线性的操作是吧,那么这些非线性操作就没法直接呃,就是用这些加密数据呃,那比一般我们做这个线性化,比如用泰勒展开线性化。

那么这里会引入一定的误差,所以就是也会也是一定的局限性啊,好,那我们今天讲的主要这个框架呢,是一个联邦学习框架,这个框架其实是2016年呃,谷歌提出来的一个一个,就说隐私保护的一个计算的框架。

那么这个框架其实一个最最,如果你要是很简单的说的一句话的话呢,就是它是一种分布式的一个计算方法,然后呢他就说希望这个数据啊,就在分布在不同的设备上的,或者不同的个体那边的数据呢叫可用不可呃。

就叫可用不可见是吧,就你能用它,但你不需要见它啊,你不需要看到它数据里面到底藏了什么东西,呃那么这里面当然连贯学本身,现在这这几年从16年提出来开始,这几年其实是发展非常非常快啊。

我今天其实呃并不是专门讲联邦学,只是讲一些非常基础的东西,那么这个联邦学者最基本的假设,就像这样的这个框架是吧,呃它是有不同的用户啊,这个每个用户有自己的数据呃,然后呢他现在我们这个怎么做呢,就说呃。

我们假设这些数据有一定的满足一定条件,所以叫做水平分割是吧,也就说你这些数据呢,呃虽然数据条目是不一样的,但是呢每一个用户它都有这些所谓的特征,我们这里讲的X1到X5就是你这些特征啊。

呃然后呢也有也有多有标签啊,那么有这样的情况之后呢,只是那些数据分段不同的地方,那么我在做的时候怎么做呢,就具体做的事就是提出这么一个框架来了,这里一个就具体怎么做的,就说我们假设主编是一个服务器是吧。

或者是云或者是一个一个一个一个大比较,就能计算力比较强的一个一个设备,然后呢我们有很多这个小的终端设备啊,比如汽车也好,或者手机也好,或者这个laptop也好是吧,那么它每一个设备上都有它的私有数据。

那么这个时候呢,我这个服务器上的先先啊初始化一个模型,然后呢,把这个模型的参数呢发到所有的终端设备上去,那每一个终端设备呢就用这个发下来,这个模型参数呢,用自己的数据来训练这个模型啊,训练之后呢。

你训练若干个iteration之后是吧,你就或者epoch,我们就呃把它又把这些更新后的参数呢,发送回到这个服务器上面去,然后呢,服务器呢把送回来的这些参数呢,又把它聚合起来啊,我们叫聚合。

那么怎么个聚合法呢,其实当时谷歌的提出的聚合是非常简单,是一个加权的,简单的一个加权聚合是吧,在这里的话大家看下,来做个线性的加强聚合就非常简单,一个聚合,当然这个聚合不一定是最好的聚合方法是吧。

然后聚合之后呢,我又把聚合后的模型参数,又重新发到每一个用户那里去,然后每个用户呢又根据呃更新后的这些参数,继续用本地的数据啊,私有数据来训练,这样经过若干轮之后呢,呃希望这个模,最后这个模型呢。

能够跟你把所有的数据放在一起,获得的一个模型的是一样的好啊,那么这个当然这当然是个解呃,是个一个假设是吧,呃没有人能够证明啊,其实事实上在很多情况下,也不一定能够真正做到这个效果啊。

嗯这是这是这前面讲的这个横向的呃,联邦学习情况,那么当然其实还有一些纵向所谓纵向情况,那么中伤情况什么情况呢,其实也很常见,就说我们看不同的用户那里是吧,呃他的标签呃,他的标签可能会呃有的有标签。

有的没有标签,这是一个第二个呢,呃他的这个所谓叫activate呢,呃也是不一样的,这个举个简单例子上,比如说你同一个人是吧,我在银行里面可能有我的收入啊,我的这个这个这个存款啊,贷款这些数据是吧。

而在医院A呢,你肯定是我有检查这个呃肝脏的这个数据,而医院B呢可能有检查这个呃这个胃的数据,比如或者其他器官组,所以呢就说每个地方它拥有的数据,这个这个不一样啊,那这个也不一样。

是我们这个用机器里面叫ATTRI的,就是这个是不一样是吧,而且呢有的呃地方的数据呢,就是有的这个呃用户呢他没有所谓的label,比如说你医院里并没有说,你这个人到底属于是什么呃,中产阶级。

还是这个呃还是还是什么什么样阶层是吧,但没有这个标志呃,或者说呃这个这个银行里也没有,你到底是健康还是呃不健康这样数据,所以这个label就没有啊,呃那么这样的就属叫垂直分割的情况。

那么这个情况很明显跟前面的相比的话呢,呃就会更复杂了啊,好,那么联邦学习呢,技术虽然是一个呃能够保护这个数据隐私的,这种分布式的计算方法啊,呃但是呢它也会带来带来一些额外的挑战。

呃这个挑战包括一个呢其实通讯是吧,大家可以想象我们这个刚刚那个框架里面,你这个服务器先把参数,模型参数发到每个用户那里啊,用户那里训练之后呢,呃要把它发回去,然后不断一轮轮的做啊,这么这么传送是吧。

那么如果你这个模型很大,比如现在我们讲大数据,虽然不一定是千亿级的呃,但是也可能很多是吧,那么这个通讯量就会很大,所以这个怎么来降低这个呃减少这个通讯的量,其实一个呃很重要的一个一个一个研究方向啊。

呃这是其第呃第一,那么其其次的话呢就是这个数据的,因为我们前面假设就说哎,用这种分布式的训练方法,最后你训练出的模型跟你这个把数据堆在一起,训练车模型是一样的好,但这其实是一个很强的假设。

那么有很多情况下你是做不到这样,那特别是像比如说不同的用户那里啊,不同的设备那里这个标签所谓的不平衡啊,啊所谓的不平衡就说你一个用户那里,你可能有很多呃你这个有关啊,比如你呃这个健康方面收集。

另外跟你很多有关,是这个呃你其他收入方面数据,那么这个这里面就是有个标签不平衡的问题,那么还有一个就是这个这个H配置不平衡,就属于这些存在数据不平衡的情况啊,那么这些情况呢都会影响你前面讲的。

我们这个联邦学习这个框架,训练出来的这个模型的质量啊,额那么另外一个呢就是挑战是什么呢,叫做呃我们讲这个用传参数啊,或者是梯度呃,而不传数据的方法来保护数据隐私是吧,呃你似乎像诶你这个数据没传出去。

所以我很安全,但是呢这也不一定啊,呃现在有这个有有已经有这个证据表明啊,就在这个框架里面,我们在这个框架里面是我们假设有些用户啊,是所谓的叫恶意用户啊,那么它的所谓什么叫恶意用户呢。

就是他呃呃不是只是参与这个学习过程,而只是说还,而是想知道别人的数据到底怎么回事啊,那么因为他拥有自己的一个本地的模型,以及从服务器上传下来的这个全局模型,那么它有一些用一些机器习方法啊。

利用这两个数呃,这个模型呢它可以倒推别的啊,就反推别的这个这个用户的数据,那这样的话也会造出造成这个数据这一呃,呃隐私的泄露,所以呢,我们往往需要在这个联邦学习的框架上面。

再加一些其他的隐私保护的这个方法啊,包括前面讲的差分,隐私和这个像是有的时候也需要加密是吧,呃当然这里面就有个成本的问题,计算成本的问题呃,那么最后一个挑战呢,就说其实是一个所谓叫做异构性。

这个异构包括前面讲的数据的异构啊,数据其实还有模特方面不一样,所以你有的可能图像有的是音呃,音频数据,有的是呃其他的是数值数据啊,这不就是模特上有差别,还有呢,每个设备的计算能力和通讯能力也不一样是吧。

我们前面这个框架假设说哎这个呃,这个呃呃同更新过程是一轮一轮的,大家同步的哎,其实很难保证这同步啊,那么有这些不同的异构的特征存在的情况下,我们怎么来保证这个框架还能够正常的运作,还能提供好的训练性能。

那这里面就又有很多的研究啊,呃那么目前的话当然联邦学院还有很多别的啊,比方包括就是所谓叫做呃这公平性问题是吧,因为我们这个框架是最后的说,诶我要训练出一个全局模型来呃,对所有的用户都一样。

那么有的用户说我对其实这个不感兴趣,你说你要比如说假设这里面的模型包含这个呃,这个一个人的这credit情况,他到底有没有信用,还有一个是包括一个人的健康情况。

他你其中有一个人说我对这credit不感兴趣,我只对健康感兴趣是吧,那么你一定要说把它训练个模型呃,你可能会牺牲这个健康方面信息啊,呃为了增加这credit方面的这个呃性能啊。

所以就说每个用户他的要求不一样,那么这里面有些这个呃,这个这个如何来照顾不同用户的这个需求啊,这样东西呃,或者是公平性这样的问题有很多很多,有别的这个这个这个问题啊,好那么接下来的话呢我就呃讲几个。

就是我们在这方面的应用啊,那么第一个应用呢是在这个脑成这个里面,成像里面一些数据的生成啊,主要是为了数据生成,那么数据生成,首先这个呃motivation是什么,就为什么要做数据生成,因为大家知道。

就我们现在一般老城像有很多额方法是有的用,比如说呃这个这用这个MI是吧,呃磁共振的或者是PET的这种啊,呃那么但是每次做一个检查呢,可能会呃这个这个会很花钱对吧,呃因为我我我我好像看到一篇文献里说。

我们现在做一次呃,磁共振的还要几千块钱,我说我不太清楚是不是价格是不对啊,但其实就是很贵的,那么就不太可能你一个病人去把所有的这些呃,这个这个成像方法去做一下啊,呃那么有而机器学习的是里面的。

有时候呢就希望你是对同一个病人,就有个这些图像都有是吧,就不同的模式都有啊,呃那么呃呃也有可能有的时候呢,也有可能就是因为这个拍的这个做做这个事呃,在做数据的时候呢,可能就是因为这个病人。

比如说他的姿势不对或者有洞啊,那么造成这数据会质量不好,就或者说这个数这个成像效果不好,是吧,呃那么你可以说是不是可以分享不同的医院,可以分享分享这个数据,那么就是涉及到我们前面讲这个隐私保护的。

因为现在其实你要不同的医院分享呃,共享这个数据是很难的啊,所以所以所以这里面我们就提出来呃,有没有可能在前面这个影呃联邦学习框架下来,利用不同医院的呃这个数据呢,来更好的生存质量更高的这个影像数据啊。

呃同时呢又不会泄露这个数据的隐私啊,所以这里面提出一个一个框架,其实就基于一个这个生成,对抗网络的一个影像的这个呃生成呃,数据的生成啊,呃就说希望就如果说有有这个缺失的,数据缺失的情况下。

那么我利用啊别的这个病人的,别的医院的这个数据来帮助我呢更好的生成啊,这个是佩戴的数据啊,这是一个最基本的这个思路,那么具体怎么做的,其实就这个框架,大家看到这个主编的话。

其实就是我们前面那个联邦学习框架是吧,你有不同的医院,这里是不同的医院,然后每个医院的都有自己的数据是吧,这个私有数据,那么呃我呢不能把数据改到别人,但是呢我又希望能够用这些数据呢。

来当成刚刚这个这个就是这个生成对抗网络,这个这个框架呢能够生成高质量的这个数据啊,那么这里面其实我们做的事情是什么呢,就其实对这个生,因为在在这个呃,就是生成对抗网络里面有两块啊。

一个叫做呃这个是一个叫generator是吧,还有一个叫做判别器,一个叫生成器啊,generator叫生成器,那么另外可以叫判别器啊,那么我们这里其实只做联邦这一块呢,只是在生成器这一块啊。

就说我们在生成器呢在自己的数据上啊,进行呃这个训练之后,然后呢把这个模型参数呢送到这个一个服务,假设一个第三方一个服务器是吧,然后呢这个服务器再把这些不同用户那里啊,不同的医院呃,生成出来的这些参数呢。

呃综合综合智能再发再发回去,然后呢每个这个这个判别器的训练呢,只用本地的数据啊,这里面就是呃,是这样一个一个基本的这个思想啊,所以从呃应该说从这个框架上讲是非常简单。

只不过我们大部分的联邦学习都是讨论的,是这个这个这个判别式呃,就我们前面讲的是判别式和称正式,一般都只讨论判别式的,这个模型的这个呃这个呃联邦学习方法,那么这里用的是这个对。

针对这个呃对抗生成网络里面的,这个生成器的这个训练啊,用到了联邦学习这个框架啊,呃具体的呢就是呃我不详细介绍,就基本上这么一个一个有这么一个框架,那么这个呃对抗生成网络,其实我们这个所谓的肝是吧。

呃大家可能也听说过有非常多的变形啊,这个这个杆那个杆,那是这里用的是,我们其中有一个叫cycle杆是吧,但其实也很多啊,呃这个不重要,那么呃重要的是什么呢,就是我们在训练的时候就是为了保护隐私嘛。

所以呢我们就加入了一个叫做呃DEFICIAL呃,叫deficially private,就是叫差分隐私的梯度训练方法啊,那么这个这个简称叫做呃,这里是叫DP是吧,DPSGD就说DP就是叫差分呃。

这个这个差分隐私保护的呃,那么然后呢SGD就是这个随机梯度法啊,那么它的基本思想其实也很简单,就说首先每个用户他要生成一个一个阈值,这个阈值就是差分隐私里面,这个呃隐私保护的一个预一个一个一个参数。

就说这个阈值,比如说这个数据越大,那么隐私保护能力越强啊,这样的,然后有了这个值之后呢,我就去做这个在梯度式的训练时候呢,先把这个梯度这个叫叫叫clip,就是我把它限制在啊这个负C和正C之内啊。

然后呢根据这个数据的多少呢,我确定一个值,它这个值叫做呃叫做global sensitivity,就是个JS是吧,然后有了这个机械S和跟这个AP用之后呢,哎我就可以确定呃。

训练之后加多少噪声加到这个样本上去呃,加到这个参数上去,那么这样的话呢就说在理论上能够保证呃,我能够在app m条件下满足这一查分隐,隐私保护啊,这是一个叫做这个在训练过程当中,保护这个隐私呃。

这个这个的一个方法啊,这个用根据这个差分隐私的方法好,那么这个因为这个呃,刚刚里面有很多很多的这个要训练的东西是吧,这个但是呢我就不详细讲了,这有好几个loss函数是吧。

呃有的正规有有的针对这个生成器的,有的是针对判别器的,那么呃不同的肝呢,还有不同的这个其他的这些量呀,哎要加上去呃,然后下面这块呢就是这个我们讲差分隐私,这个保护的这个SDD的方法啊。

呃总个数算法框架我也不讲了,好那么做的实验的这个结果的话呢,就说其实就是说呃呃呃主要是测试它的效果,那么用了两个常见的这个数据库啊,这一个是叫bra t s2021,还有一个叫IXI啊。

那么这里面其实我们要想研究是什么呢,就说我们想知道,当不同医院的数据分布很不均匀的时候,所谓的这个呃这能能IID啊,这是继续前面个术语啊,就说他的分布差别很大的时候,我能不能保证这个是这个模型刚刚提出。

这个方法还是有效啊,所以主要是在这方面,那么详细的这个测试的东西呢,我也就不讨论了,但是有一条可以看到啊,就说在所谓的叫做能ID很强的情况下,你用这个传统的方法做的话呢,呃它会出现这个模型发散的情况。

而且是所谓的模型发展,就说我这个全局模型不能收敛到一个,一个统一的模型,因为每个用户的数据差别很大嘛,所以训练到后来他会发散掉啊,没法收敛那个统一模型上,那么呃用刚刚这些方法来做呢,反而会能够提散。

而提高这个模型的收敛性能,OK额这是一些例子啊,就说就看看我们比如说A是个真实的啊,然后呢B是用这个这centralized learning来训练的结果啊,那么这第三类呢。

是用这个这个我们刚刚讲的这个框架啊,就用新set data,就是嗯呃这个这个这合生成的啊,实合成的数据啊,这是这样的情况,那么其实看着这个质量应该还是还是不错的啊。

好这是第一个,那么第二个我要稍微介绍一下呢,这其实是一个刚才在工作上一定的这个,一个扩展,那么这个扩展主要在扩展在哪里呢。

呃扩展在这个判别期的训练上面,因为我们前面讲的是在生成器这块是吧,我如何来利用不同医院之间数据帮衬,这个生,帮助在生成器生成更加高质量的这个数据,但是呢又不会去涉及到这个隐私,这个泄露的这个问题啊。

呃那么这个这另外呢还有一个问题,其实这个判别器本身啊,也怎么来提升它的这个质量,那么我们前面讲说,哎呀很多这个呃影像的模态可能不存在,但其实也有很多呢,就是讲比如说病人啊,因为自动了。

或或者是由于各种各样的原因呢,唉他的数据没有所谓的没有对好,没有对齐啊,也有这样的情况,就数据有,但是没有对齐哈,那么如一般以前的话呢,我们往往把这个呃数据当中有噪声,数据可能就不没法真正用起来呃。

那么我们现在这个想法就能不能把这些数据在,就没有对齐的这些没有配配的数据呢,把它充分利用起来啊,来更好的训练我的这个这个这个呃,这个太煤气啊,呃那么这个没对齐,我们这里是考虑了三种情况,一种就是旋转。

而这个图就是这个角度不一样,还有一个呢就是叫这个这平移是吧,translate就平移,那么scale这就是缩放啊,这个这个缩放,那么我们这个当然你可以有有不同的角度。

有严重的有可能一直稍微轻微的这个变化啊,不管怎么样。

就是考虑这三种不同的情况嗯,然后呢我们就分别啊,就说主要的思想,刚前面就如何把这些啊,有一定的呃没有完全对齐的这个数据拿来啊,充分利用它的价值,提升我这个呃判别器的这个训练的这个,这个这个质量啊。

那么这里怎么用呢,其实是加上一些这个额外的这个罗丝函数啊,你看我们在这里面,就除了原来的这一个是原有的这个数据之外呢,我们下面有三个是吧,一个是rotate,一个translate,一个是scale。

就说我在训练时候有时候故意去旋转啊,旋转它呃,然后呢去去做一些移动或者做一些释放啊,然后呢再把这些变,就是这个这个变换过的数据呢,也放到这个罗丝函数里面去,这样的话呢这我在训练这个派位。

其实不只是训练这个原有数据上这个损失啊,而是呢也对那些进行呃,这个叫做这个放射,这个放射这个呃变换以后的数据上的这个螺丝,也把它考虑进去啊,所以呢其实就说到底呢就把这增加了三个呃,螺丝的这个呃这个像啊。

一个是旋转啊,那么第二个就是平移是吧。

那么还有一个呢就是这个缩放,然后我们把所有这些都合在一起了,最后就把所有的这个呃,都合到一个这个损失函数里面,然后呢再去看这个模型训练情况呃,那么呃最这个详细的我也不讲了,就说呃这个这个性能还是有有比。

有有很比较大的提升啊,那么这里做一些判断,就说如果只做其中一个会怎么样,那么我总体来说呢,肯定你把这三个啊。

旋转平移和缩放都考虑进去呢,会效果更好K好,那我最后一分钟呢再讲,我们最后一个一个小小的一个工作啊,就说前面两个是在这个医学图像的生成方面啊,呃那么这个呢就是我们是在文本的这个呃。

就是这自然语言处理器啊,呃这个是这个呃by medical的一个一个文本啊,那么这里面主要是叫关系抽取是吧,那么关系抽取其实也也有,还是有很多研究啊,呃有这个句子层面上关系,所以就说一句话。

然后呢来找出这两其中两个你要想知道的,这关键字叫做叫实体啊,这之间关系,那么呃当这个当然就比较简单是吧,这只是在同个句子里面呃,那么稍微复杂一点,就是叫我们叫呃这个document level。

就说是整个文本啊,因为文本可能比较长啊,呃那么这个抽取就会更复杂,来我这里举个简单例子,就说你看我们这一段话里面,我们有四个地方提到了一种化学物质是吧,然后呢又有四个地方提到这个甲肝这这这个字。

那么到底如果你不加区分的把它去说,哎其实这两个有关系,其实就是就错了,因为事实上最终的话只有其中有一次真正的提,有表示了两者相关的关系啊,呃这样的话就说呃就非常的呃,就是我们就是非常非常就是呃。

在文本这个提取时就需要关注到这一点啊,好的我的时间已经跟已经差不多了,那么这个里面其实用的这个是基本的思想,就两个,一个呢就联邦学习这个框架啊,呃就是刚刚我们前面提到的,用。

我们把假设这些文本是放在不同的这个医院,那里是吧,他每个医院都有带一些诊疗的记录嘛,呃但但是呢我希望用到这些数据,但又不能把这些数据改出来啊,呃这是一个第二个呢。

因为是我们是在document level,就文本层面上的关系抽取,所以呢加入了一些呃这个新的呃,去一些些些这个约束啊,这些用新的主要是一个用这这个对比学习,这个思想啊把它加到这个罗斯函数里面去。

这样呢能够提升这个关系,极其的这个这个性能啊,这个这些一大堆数学我就不讲了,然后就是你看这个公式,就是我们前面讲的这个平均的这个公式是吧,把不同呃局部模型的这个参数,就是简单一个线性线性加权啊,好。

那么呃呃这个这个这个具体的结果,我就不多跳过了,就总之说来就是我们在文本层面上的,用联邦学习方法来做这个做的话呢,也能够有效的提升这个呃,这个机器学习的这个呃性能啊,呃这这些都是实实验实验数据K。

那么最后的话呢,我想我今天呃讲这个我的报告,其实一个呃最最主要的信息呢,就说我们机器学习里面呃,并不是所有的时候都是大数据啊,有的时候是小数据,然后呢呃数据呢有这个隐私和敏感信息是吧,那么如何来呃。

就在希望利用到充分的利用这些数据的价值,但是呢又不能呃威胁到这些数据的这个隐私啊,以及它的敏感信息,那么我们举了几个在医学领域的一些应用的,这个场景,那么其实医学领域是一个隐私保护技。

学习一个很典型的场景啊,那么其他人像金融啊等等也有好,那我今天就讲这些。

posted @ 2024-09-25 08:05  绝不原创的飞龙  阅读(31)  评论(0)    收藏  举报