[法国]斯塔尼斯拉斯迪昂:机器会拥有意识吗?论文

[法国]斯塔尼斯拉斯迪昂:机器会拥有意识吗?论文

摘 要:机器究竟能否有意识?要回答这个富有争议的问题,我们就必须仔细考虑意识是如何从人脑这个物理系统中产生的。意识统合了脑内两个不同类型的信息加工计算,即有意识计算的两个本质维度:“全局可用性”(C1)和“自我监控”(C2)。尽管目前的机器在最近一段时期取得了成功,但是它们通常实现的计算反映的仍然是人脑中的无意识加工(C0)。文本回顾了关于无意识(C0)和有意识(C1 和C2)计算的心理科学和神经科学的证据和进展,并简要讨论了它们如何启发新的机器架构。

关键词:意识;机器;全局可用性;自我监控;无意识加工活动

机器究竟能否有意识?要回答这个富有争议的问题,我们就必须仔细考虑意识是如何从人脑这个物理系统中产生的,毫无疑问人脑是拥有意识的物理系统。我们认为,词语“意识”统合了脑内两个不同类型的信息加工计算:选择信息以便全局广播,因此使得信息能灵活地用于计算和报告(C1,第一种意义上的意识);以及对那些计算的自我监控,从而导致一种对确定性或错误的主观感觉(C2,第二种意义上的意识)。我们认为,尽管目前的机器在最近一段时期取得了成功,但是它们通常实现的计算反映的仍然是人脑中的无意识加工(C0)。本文回顾关于无意识(C0)和有意识(C1和C2)计算的心理科学和神经科学的证据和进展,并简要讨论了它们是如何启发新的机器架构的。

想象一下,你正开着车,突然你认识到油箱指示灯亮了。什么使得你,一个复杂神经元集合体,感知到灯亮了?又是什么使得这辆车,一个精微的电子机械装置,却没有觉知到灯亮了呢?需要什么才能赋予这辆车一种与我们自己一样的意识?这些问题在科学上易于解决吗?

现代计算机科学的奠基人阿兰·图灵(Alan Turing)和约翰·冯·诺依曼(John von Neumann),认可这种可能性,即机器最终会模仿所有人脑的能力,包括意识。人工智能(AI)的当前进展似乎正在复兴这一目标。神经生物学正在不断改进机器学习的能力,这已经使得人工神经网络接近或(偶尔)超过人类[1][2]。尽管那些网络不能模仿真实人脑的生物属性,但是它们的设计得益于几个神经生物学的卓越见解,包括非线性输入-输出函数、收敛投射(Converging Projections)层以及突触权重的可塑性。现在计算机硬件和训练算法的进步使得这类网络能运算复杂问题(诸如机器翻译),并且它们达到了以前认为只属于真实人脑的成功率。但它们接近意识了吗?

我们认为,答案是否定的,因为由当前深度学习网络实现的计算主要对应于脑中的非意识(Nonconscious)操作。然而,正像人工神经网络从神经生物学中得到灵感那样,我们也可以研究使人脑产生意识的架构,并将这些见解转换为计算机的算法,从而在人工意识的研究上取得进展。我们回顾了当前意识的认知神经科学中与机器相关的方面,我们希望借此来促进这种发展。

有意识的机器人和计算机一直以来都是一个流行的科幻主题。事实上为什么它们缺乏意识,并且它们如何才能发展意识呢?

一、 意识的多重含义

像许多前科学术语一样,“意识”一词被广泛地用于不同的含义。在医学中,当要评定警觉(Vigilance)和清醒(Wakefulness)时,它通常被用作一种不及物的意义(例如在“这个患者不再有意识了”这个句子中)。阐明警觉的脑机制是一项基本的科学目标,其主要成果有助于我们理解睡眠、麻醉、昏迷或者植物状态。然而,由于篇幅所限,我们在此不涉及这个方面,因为警觉的计算影响似乎最小:显然,只有当一个机器被正确地开启时,它的计算才能正常进行。

我们认为,将有意识计算的其他两个本质维度区分开是非常有益的。我们用“全局可用性”(C1)和“自我监控”(C2)这两个术语来指称它们。

(一)C1:全局可用性

这个术语对应于意识的及物含义(例如在“这个司机意识到灯亮了”这个句子中)。它指的是一个认知系统与一个特定思维对象(诸如对“油箱指示灯”的心智表征)之间的关系。这个对象被选中以便进一步加工,包括语言和非语言报告。在这个意义上,有意识信息变成对这个有机体是全局可用的;例如,我们能回忆它,根据它作出行动,以及谈论它。这个意义与“将信息记在心中”是一样的;在某个特定时刻能够变成有意识的那些海量思想中,只有全局可用的思想才能构成C1意识的内容。

(二)C2:自我监控

意识的另一个含义是反身性的(Reflexive)。它指的是一种自指(Self-referential) 关系,在这个关系中认知系统能够监控它自己的加工活动并获得关于它自己的信息。人类非常了解自己,包括自己身体的布局和位置等不同信息,以及他们是否知道或感知到某物或他们刚才是否犯了错误。这个意义的意识对应于通常所说的内省(Introspection),或心理学家所谓的“元认知”(Meta-cognition),即构想和使用自己知识和能力的内在表征的能力。

(1)在重力载荷、压力载荷和温度载荷的作用下,气化站的加热器部位容易产生应力集中,在一定条件下可能发生破坏。

本文提出,C1和C2组成了有意识计算的正交维度。这并不是说C1和C2不涉及重叠的物理基质;事实上,正如我们下面回顾的那样,在人脑中,这两者都依赖前额叶皮层。但我们认为,我们可以在经验实证上和概念上将二者分开,因为存在无C2的C1,诸如当可报告的加工活动并不伴随精确的元认知时;或者存在无C1的C2,诸如当一个自我监控操作无需有意识的报告而展开时。这样,在我们考虑将它们综合之前,将它们分开考虑是有利的。此外,许多计算既不涉及C1也不涉及C2,因此它们可以被恰当地称为“无意识”(或者简称C0)。图灵最初的见解是,即使是精微的信息加工活动也能被无心智的(Mindless)自动机实现。认知神经科学证实,复杂计算,诸如面孔或语言识别、棋类游戏的评估、句子句法分析以及意义提取,可以在人脑中无意识地发生——此时既没有产生全局可报告性也没有产生自我监控(见表1)。脑似乎部分是以专门化处理器或“模块”彼此并行的方式无意识地运行, 并且我们认为,这种方式正好对应于当前前馈深度学习网络的运行。

在转向机器以及它们如何受益于对脑架构的理解之前,我们先来回顾一下人脑和动物脑处理C0、C1和C2层次的计算的实验证据。

复杂的无意识计算和推理通常在不同脑区并行发生。其中的许多C0计算现在已经被人工智能获取,尤其是通过前馈卷积神经网络(CNNs)。我们接着要考虑有意识加工需要哪些额外计算。

二、无意识加工活动(C0):我们大多数智力之所在

“我们无法意识到我们没有意识到的东西”[3]。这个自明之理(Truism)有极深刻的影响。因为我们看不见我们的无意识过程,所以我们往往低估了它们在我们心智生活中的作用。然而,认知神经科学家发展出能够呈现意象或声音但却不诱发任何意识体验的种种手段(见图1),并接着通过行为或脑成像技术来探查它们加工的深度。

启动(Priming)现象阐明了无意识加工的不同寻常的深度。当一个相关的启动刺激物(诸如阿拉伯数字“4”)先于一个高度可见的目标刺激物(诸如书面词语“Four”)呈现,甚至当被试没有注意到该启动刺激(数字“4”)的出现且不能可靠地报告它的特性(Identity)时,这个高度可见的目标刺激物也会被更有效地加工。阈下数字、词语、面孔或物体总能被识别并且会影响运动、语义和加工活动的决策水平(见表1)。神经成像方法揭示出,大部分脑区能被非意识地激活。

福克斯基于物质劳动的数字劳动理论一经提出,就受到西方传播政治经济学理论界的质疑和批判,并引发了福克斯与其他学者关于数字劳动是否存在剥削、数字劳动的存在形式以及积累模式等问题的争论。

图1 探测无意识加工活动(C0)的范式

阈下的视图不变的面孔识别[77]。在每个实验中,一张启动面孔图像短暂地呈现(50毫秒),随后因为掩蔽图像的呈现而使启动图像不可见,之后呈现一个可见的目标面孔(500毫秒)。尽管主观知觉在不同的条件下是相同的,但是只要在相同或不同的视图中这两个面孔表示同一个人,那么加工活动就会被促进。在行为层面,当识别目标面孔时,这种视图不变的无意识启动会表现出反应时间的减少。在神经层面,它表现为人类下颞叶皮层的梭状回面孔区对目标面孔的皮层反应的减少(重复抑制)。(下图)两眼抑制期间阈下证据的积累[16]。向一只眼呈现显著移动的点会阻止对另一只眼呈现的灰色移动点的有意识知觉。尽管它们不可见,但当这些灰点与随后呈现的点以相同方向移动时,它们会促进表现,其效果与它们的运动一致性成比例。这种促进仅仅影响第一阶的任务(判断运动方向),而不影响第二阶的元认知判断(确定第一个反应的信任等级)。证据积累的计算模型提出阈下运动信息会添加到有意识信息中,因此会偏向和缩短这个决定。

(一)人脑中无意识的视图不变性和意义提取

许多困难的知觉计算,诸如近来被人工智能研究的“不变面孔识别”(Invariant Face Recognition)或“说话者的不变言语识别”(Speaker Invariant Speech Recognition),都对应于人脑中的非意识计算 [4][5][6]。例如,当提前阈下地呈现同一个人的完全不同的视图时,这个阈下呈现也会促进这个人的面孔加工,这表明了无意识的不变识别(见图1)。阈下启动涵盖跨视觉-听觉模块[7][8],这表明仍然对人工智能软件构成挑战的跨模块计算(诸如语义向量或从言语到文本的提取)也涉及无意识机制。甚至感觉输入的语义也能够无需觉知而被人脑加工。相比于有关联性的语词(例如,动物-狗),语义违反的词语(例如,家具-狗)产生的脑反应迟至刺激物在颞叶语言网络开始后的400毫秒,即使两个语词中的一个不能被有意识地检测到[9][10]。

(二)无意识的控制和决策

无意识过程甚至可以到达皮层层级的更深层次。例如,阈下启动能影响任务选择[11]或运动反应抑制[12]中的认知控制的前额叶机制。决策的神经机制涉及累积能影响各种选择的概率的感官证据,直到达到一个阈值。这种概率知识的累积甚至会持续发生在阈下刺激上[13][14][15][16]。作为人工智能计算基石[2]的贝叶斯推理和证据累积,对人类来说是基本的无意识机制。

在现代社会,随着信息技术的发展,人们接受的东西越来越多,视野也更加开阔,更加具有包容的心态。当代工笔人物画在表达质感方面有自己的技法,它用自己的语言传达着自己的思想,新技法,新语言形态的丰富性,多样性为当代工笔人物的探索提供了广阔的空间。但无论是什么样的语言,什么样的表现形式,关键是要处理好“器”与“道”的关系,要使艺术的功能对人的心灵做出某些有价值的贡献。

(三) 无意识学习

强化学习算法——它抓住了人和动物如何基于过去奖赏的历史来形成它们的未来行动——在若干应用中已获得超人的(Supra-Human)人工智能的表现,例如玩游戏Go[1]。值得注意的是,对人来说,即使当线索、奖赏或动机信号呈现在有意识的阈值之下,这种学习似乎也能进行[17][18]。

打破课程设置的学科专业壁垒,按照产业链和企业生产流程划分模块,与企业共同开发专业基础课程和特色专业课程,构建创新性和应用性较强、模拟企业工作流程、学生乐于接受的专业课程群。

Case 2.p=3,q=2.先证明|Q|=2.若否,显然|Q|=4,可取x∈P,o(x)=3与y∈Q,o(y)=4,因G内幂零,则有子群H=〈x〉×〈y2〉诱导的子图P(H)含有K3,3,从而可得幂图不可平面化,矛盾.故|Q|=2,类似Case 1可以证明CP(Q)=1,则有P为初等交换3群且G为Frobenius群.

将脑组织嵌入作为一些计算上专门化的子系统,这种方式是有效的,但是这个架构也提出了一个特定的计算问题:有机体作为整体不可能停留在多样性的概率解释上;它必须行动,因此要绕过这种多重可能性,并作出决定以支持一个单一的行动路线。整合所有可用的证据并聚敛为一个单一的决定是一项计算要求,我们主张,这项要求是任何动物或自治的人工智能系统必须面对的,而且它对应于我们关于意识的第一个功能定义:全局可用性(C1)。

三、 C1:相关信息的全局可用性

(一) 整合和协调的必要性

Penny Booth and Lieke Quanjel- Schreurs,“The Legal Position of the Married and Unmarried Father Under English and Dutch Law:Sharing Parenting of Just Going Dutch?”Livepool Law Review,135(25),2004,p.150.

定理 1.3 设{Xt,t≥0}是参数为λ的自激滤过的泊松过程,如果∀t2≥t1≥0, E|Xt1Xt2|<∞且∀n,E[wn]<∞,则(Xt1,Xt2)的协方差为

具有恒励磁极的交流电动机尚有同步电动机和电机本体之别,电机本体源自改革换向器的直流电动机[1],它与同步电动机同样都包括分别置于定子和转子上的电枢和恒励磁极两大主要部件,但电机本体上必备由刷座(刷握盒)发展而来的磁极检测单元[2],同步电动机与电机本体的区别就在于同步电动机本无磁极检测单元。广义直流电动机正是凭借电机本体上必备的磁极检测单元,使他控变频器转变为自控变频器,亦即广义直流电动机和直流电动机在运行中皆遵循自控变频运行机制。

例如,当口渴时,大象会设法从相距它5至50公里的距离确定最近的水坑的位置,并直接走过去[19]。这种决策需要一个精微的架构,以便第一,有效地汇集所有可用的信息源,包括多重感官和记忆线索;第二,思考可用的选项并基于这个庞大的信息库选择最好的选项;第三,之后仍然坚持这个选择;第四,协调所有内部和外部过程以实现这个目标。原始有机体,诸如细菌,可以仅仅通过笨拙的(Uncoordinated)感觉运动系统的无意识竞争实现这个决定。然而,一旦它必须克服时间的延迟并为了长期获胜的策略而抑制短期倾向时,这种解决方案就会失败。一致的、深思熟虑的计划需要一个特定的C1架构。

(二) 意识作为对内部全局工作空间的通达

人类不仅知道有关世界的事物,他们事实上还知道他们知道或者他们不知道。一个熟悉的例子是有一个词语“就在嘴边却想不起来”的情形。杜撰“元记忆”(Meta-Memory)这个术语是为了体现如下事实:人们报告知道的感受、信任的感受和对记忆怀疑的感受。元记忆被认为涉及一个二阶系统,它监控内部信号(诸如记忆痕迹的强度和质量)以调整行为。元记忆与前额叶结构相关,前额叶结构在药理上的失活会导致元认知受损,但是记忆表现本身却不受影响[56]。元记忆对于人类学习和教育至关重要,因为它允许学习者发展出一些策略,诸如增加学习量或改变分配给记忆编码和练习的时间[49]。

(三) 意识与注意的关系

威廉·詹姆斯(William James)将注意描述为“心智以清晰生动的形式从几个似乎同时可能的思想对象或思想序列中选择出其中的一个”[24]。这个定义接近于我们所界定的C1,即选择一条消息进入全局工作空间。然而,在最后一步(即对应于有意识通达)与注意选择之前的阶段(这些阶段可以无意识地运作)之间存在清晰明确的区分。许多实验已经证实存在实现注意定向的专门机制,并且这些实验也表明,这些机制像任何其他处理器一样能够非意识地运行:第一,就自上而下来说,注意可以被定向到一个物体,增强它的加工活动,可是却没有将其带入意识[25];第二,就自下而上来说,注意能被一个闪烁吸引,即使该刺激物最终仍然是无意识的[26]。我们所称的注意是一个无意识运行的层级滤网系统。这种无意识系统计算概率分布,但是只有一个样本能从该概率分布中提取出来,并在某个特定时刻变成有意识的[27][28]。我们可能会发觉几个替代解释,但只能通过抽样它们的跨时间的无意识分布[29][30]。

其次,英语教师教学方法不科学。许多初中英语教师机械地采用背诵英语单词,朗读英语文章的方式来进行阅读教学,过于关注英语阅读的语言,阅读教学过程带有一定的盲目性。同时,所采用的教学方法不够合理,很多学生对英语词汇的使用,并不能良好地进行把握。另外,学生的学习能力存在着差异性,每一名学生对文章的理解以及阅读的速度方面都不相同,一些英语教师会采用全新的词汇来进行孤立教学,很多初中生就不能够理解阅读内容,会对英语阅读失去信心。

图2 全局可用性:第一种意义上的意识(C1)

有意识的主观知觉印象的神经编码是由分布在相互连接的高层次皮层区上的刺激特定的神经群的突然发放实现的,这些皮层区包括外侧前额叶皮层、前颞叶皮层和海马体。(上图)在双眼闪烁抑制中,向一只眼闪现一张图片会抑制向另一只眼呈现的第二张图片的有意识知觉。结果,相同的物理刺激会导致完全不同的主观知觉印象。这个例子展示了一个对面孔敏感而对跳棋没有反应的前额叶神经元,其发放的暴涨与主观面孔知觉的突然开始密切相关[31]。(下图)在掩蔽期间,一个闪现的图像,如果足够短暂且随后有一个更长时间的“掩蔽”,那么被试在主观上就不会感知到这个图像。图中展示的是内嗅皮层中的一个神经元,它对“世界贸易中心”概念选择性发放。红色的栅格表明实验中被试报告认出图片的实验(蓝色表示没有认出的实验);在掩蔽下,当这个图片只呈现33毫秒,那么就很少或根本没有神经激活;但一旦呈现时间长于知觉阈值(66毫秒或更长),那么这个神经元只有在被试认出的实验中才会实质性地发放。总的来说,即使对于同一个客观输入(相同的持续时间),在被试认出的实验中,神经元的峰值活动更高,也更稳定。

(四)在有限容量系统中全或无的选择的证据

灵长类动物的脑包含一个意识瓶颈,它在一个时刻只能有意识地通达一个单一项目(见表1)。例如,竞争的图片或模糊的词语是以一种全或无的方式被知觉;在任何给定的时刻,我们在主观上只能从多种可能的解释中感知到一个单一解释(即使其他解释仍然被无意识地加工[31][32])。意识的串行运行被诸如注意瞬脱(Attentional Blink)和心理不应期等现象所证实,在这些现象中,对第一个项目A的有意识通达会阻碍或延迟对第二个竞争的项目B的知觉[9][27][30][33][34][35]。这种对B的知觉的干扰完全是由对项目A的有意识知觉引起的,即使不要求执行[36]。因此C1意识要对串行信息加工的瓶颈负因果责任。

(五)整合和广播的证据

根据贝叶斯解释,为了评估加工的不确定性,每个局部皮层回路都可能表征和结合概率分布[54]。然而,有机体可能需要额外的神经回路以便明确地提取和处理信任信号。在人身上进行的核磁共振成像(MRI)研究以及对灵长类动物、甚至对老鼠的生理记录已经明确地将这类信任加工与前额叶皮层关联起来[55][56][57]。前额叶皮层的失活会诱发二阶(元认知)判断的特定缺陷,但一阶任务的执行却不受影响[56][58]。因此,前额叶皮层内的回路可能已经演化出监控其他脑过程的表现的功能。

表1 关于人脑中信息加工层次C0、C1和C2的计算实例

计算 实验发现的例子 参考文献C0:无意识加工活动由看不见的字词和面孔产生的阈下启动,不因字体、大小或视角而变 [5]对看不见的字词和面孔有反应的功能磁共振成像和单个神经元 [33][37][38][78][79]对国际象棋布局的无意识判断 [80]通达意义 对看不见的脱离语境字词的N400反应 [9][10]认知控制 由看不见的线索引发的无意识抑制或任务集准备 [11][12]强化学习 由看不见的形状引发的阈下工具性条件作用 [17]C1:信息的全局可用性不变的视觉识别视觉竞争中对单个图片的有意识知觉 [29]在一个图片或数据流中对单个细节的有意识知觉 [28][81]全或无的记忆提取 [82]注意瞬脱:对项目A的有意识知觉会阻止对项目B同时发生的知觉 [27][30][83][84]事件相关电位和功能磁共振成像信号全或无“点燃”,只是针对有意识知觉的实验 [33][34][35][85][86][87]前额叶皮层和其他更高级皮层中编码被知觉物体的神经元的全或无的发放 [31][32][37][38][88]相关内容的全或无的选择和广播当信息被有意识感知时,脑状态会更稳定;无意识信息会快速衰退(~1s) [39][89]刺激物消失后有意识通达可能长时间存在 [90]信息的灵活路由 只有有意识信息能通过连续操作被发送(例如连续计算3×4+2) [91]为对离线加工活动的短期信息的稳定性心理不应期:项目A的有意识加工活动会延迟对项目B的有意识加工活动 [34][92]连续的计算或策略需要有意识的知觉 [13][91]在“静息状态”有意识思考期间自发的脑活动的序列组织 [93]C2:自我监控自我-信任 人类准确报告主观信任,对决定或计算准确性的概率评估 [51][55]几个任务的逐项执行对个人知识的评价当不确信时,人和动物能寻找帮助或“退出” [53][65][66]人和动物知道它们何时不知道或记不起来 [49][53]错误检测 前扣带皮层对自我探测错误的反应 [61][65][94]练出个人的技能 孩子知道他们算术程序的处理、速度和错误率 [70]与他人分享信任 当两人分享知识时,会改善他们的决策 [69]

(六)稳定性:意识的一个特征

C1意识是出现在人类婴儿和动物中的一种基本属性[41]。非人类灵长类动物展示出与人类被试一样的视觉错觉[31][32]、注意瞬脱[42]以及容量有限的中央处理机构[43]。在人类和非人类灵长类动物中,前额叶皮层似乎充当了一个中央信息分享装置和串行的瓶颈[43]。在人类家系中,前额叶皮层的扩展可能导致更强的多模块的会聚和整合的能力[44][45][46]。此外,人类在前额叶皮层下部拥有额外的回路以便以言语的方式组织信息并将这些信息报告给他人。通过语言报告信息的能力通常被视为有意识知觉的最明确的标志之一,因为一旦信息到达人的表征层次,它必然可用于心智模块之间的分享,并因此在C1的意义上是有意识的。因此,尽管语言对有意识知觉和加工活动而言不是必需的,但人类语言回路的出现却大大地增加了C1层次信息分享的速度、容易度和灵活性。

(七)人类和非人类动物的C1意识

被看见的与未被看见的图片或词语之间的直接对比证实了,这种激活仅仅发生在有意识的知觉印象中。正如之前的解释,非意识刺激物能到达深层皮层网络并影响高层次的加工活动,甚至会影响中央执行功能,但是这些影响往往是微弱的、可变的和短暂的(尽管非意识信息衰退的频率比最初预想的更慢[39][40])。与之相比较,在更高皮层区域内通过分布式活动模式产生的稳定的、可重复的高质量信息的表征是意识加工活动的一个特征(见表1)。这种短暂的“元-稳定性”(Meta-Stability)似乎对神经系统从各种模块中整合信息并将信息回播到这些模块而言是必须的,这实现了灵活的跨模块选择路径。

四、C2: 自我监控

鉴于C1意识反映了通达外部信息的能力,第二种意义上的意识(C2)是以反身地表征自己的能力为特征[47][48][49][50]。认知科学和心理学中的大量研究以“元认知”这个概念来解释自我监控,它大致上被定义为关于认知的认知或者关于知道的知道。下面,我们回顾一下灵长类动物的脑监控自己的机制,并强调它们对于建立自我反身的机器的启示。

(一) 概率意义上的信任

当作出一个决策时,人类或多或少会信任他们作出的选择。信任可以从概率意义上来界定,即定义为决策或计算是正确的概率[51]。几乎在脑进行感知或做决策的任何时候,它也会评估对这个感知或决策的信任度。学习也伴随着一种定量意义上的信任;人类会评估他们在多大程度上信任他们所学的东西,并用它衡量与当前证据相对的过去知识[52]。信任可以被以非言语方式评估,要么以回顾的方式测量人类是否坚持他们最初的选择,要么以前瞻的方式允许他们甚至在不作任何尝试的情况下从一项任务中退出。非人类动物已经会使用这两种测量,这表明它们也拥有元认知能力[53]。相比之下,大多数当前的神经网络缺乏它们:尽管它们能学习,但它们通常对它们已经学到东西的可靠性和局限性缺乏元认知。一个明显的例外是那些依赖贝叶斯机制的生物约束模型能模仿神经回路中多个概率线索的整合[54]。这些模型在描述神经群如何自动计算某个给定加工被成功执行的概率方面成果丰硕。尽管这类实现情况仍然不多,并且也没有处理与传统人工智能相同范围的计算问题,但是它们为深度学习网络吸收不确定性监控开辟了一条富有前景的道路。

(二)前额叶皮层中的外显信任

人脑成像和对猴子神经元的记录表明,意识瓶颈是由分布于皮层的神经网络实现的,但脑高层次的联合区域尤为重要。表1列出了一些发表成果,通过使用各种脑成像技术,它们已经证明在有意识知觉期间该网络会全或无地激活。单个神经细胞记录表明,每个特定的有意识知觉印象,诸如某人的面孔,会由更高级的颞叶和前额叶皮层的一个神经元子集的全或无的发放来编码,而其他区域则保持静默(见表1)[31][32][37][38]。

(三)错误检测:反思自己的错误

图3 自我监控:第二种意义上的意识(C2)

自我监控(也称为“元认知”),反思自己心智状态的能力,(人类)早在婴儿时期就已获得该能力。(上图)一岁半大的婴儿,在作出指向隐藏玩具的位置的决定后,展现出两类他们对决定进行自我监控的证据。(1)相较于错误选择,当他们的最初选择是正确的时候,他们会坚持更长的时间在选定的盒子中寻找隐藏的物体。(2)当给予他们要求帮助的机会时,他们有选择地使用这个选项以降低犯错的可能性。(下图)给一岁大的婴儿呈现一个毫无意义的图案或要么看见要么看不见的面孔(取决于持续时间),接着他们会根据对再次出现的面孔的预期而决定凝视左边或右边。就手动搜索而言,相较于错误的最初决定,作出正确决策后他们在相同的注视位置等待的持续性会增加。而且,EEG信号显示当婴儿作出错误选项时,在额中央电极上会出现错误相关负性。这些元认知的记号是由看得见而不是看不见的刺激引起,这也同样表现在成人身上[61]。

错误检测为自我监控提供了一个尤其清晰的例子;刚作出反应后,我们有时会认识到我们犯了一个错误并改变我们的想法。错误检测反映为脑电图活动的两个成分:错误相对负性(Error-Relativity Negativity,ERN)和针对错误的正性(Pe)。在作出错误反应后且未接收到任何反馈之前,这两个成分会出现在扣带回皮层和内侧前额叶皮层中。脑是如何犯错并且检测到这个错误呢?一个可能性是:在决定作出后,感官证据的积累还在继续,而只要进一步的证据指向相反方向,那么错误就会被推断出来[59]。还有一个可能性——与错误检测的显著速度更兼容——是:两条平行回路(即低水平感官-运动回路与高水平的意图回路)对相同的感官数据起作用,并且只要它们的结论出现分歧就会发送一个错误信号[60][61]。

(四) 元记忆

我们假设第一种意义上的意识(C1)演化为一个信息加工架构,它处理“信息聚合”(Information-Pooling)问题[20][21][22][23]。根据这个观点,C1架构的演化会打破无意识计算的模块性和并行性。在专门化模块森严层级的顶端,有机体会演化出一个具有有限容量的“神经全局工作空间”,它能够选择某个信息,将这个信息保留一段时间,并在模块之间分享这个信息。一旦曾经的表征在一个给定的时间赢得竞争而进入这个心智舞台并被选择用于全局分享和决策,那么我们就将这个表征称为“有意识的”。因此意识是由在心智过程中暂时获得优势的思想或思想队列来表现的,因而它能引导各种各样的行为。这些行为不仅包括身体动作也包括心智动作,诸如将信息提交给情节记忆(Episodic Memory)或将信息转发到其他处理器。

本研究发现,在卵巢恶性肿瘤中,B7-H4和(或)B7-H6蛋白的表达率为91.38%,高于其在卵巢良性肿瘤中的表达率(27.91%,P<0.05),提示其与卵巢恶性肿瘤的发病密切相关。本研究结果还显示,B7-H4和(或)B7-H6蛋白的表达率与患者年龄、组织类型、p53蛋白表达情况有关(P<0.05),但未显示其与组织分化程度、FIGO临床分期及CA125表达情况的相关性,可能与样本量较小有关。此外,本研究中的标本均为石蜡标本,由于包埋固定剂与抗原交联作用,会封闭一部分抗原,且固定时间越久,抗原封闭的越多,使弱表达的抗原呈现假阴性,也可能导致结果偏倚。

(五)现实监控

除了监控感官和记忆表征的质量,人脑还必须区分自我产生的与外部驱动的表征。事实上,我们能够感知事物,我们也能从想象或记忆中勾想出(Conjure)事物。精神分裂症中的幻觉与无法区分感觉活动是由自己产生还是由外部世界产生有关[62]。神经成像研究认为这类现实监控与外侧前额叶皮层有关[63]。在非人类的灵长类动物中,前额叶皮层的神经元能区分开正常的视觉知觉与相同视觉内容在记忆中的激活[64]。

(六) 婴儿的C2意识的基础

自我监控是如此基本的一项能力,以至于它在婴儿期间就表现出来了(图3)。表明错误检测的错误相对负性(ERN),在1岁的婴儿在知觉决定任务中作出错误选择时就会被观察到。同样,当一岁半后的婴儿为了获得一个藏起来的玩具而指向两个盒子中的一个时,为了即将到来的奖励(诸如一个玩具),当他们最初的选择是正确的时候,他们会比选择是错误的时候等待更长时间,这表明他们监控他们决定为正确的可能性[57][65]。此外,当给予他们请求其父母帮助的机会时,他们会选择这个之前没有的选项,尤其是在他们有可能出错的实验中,这显示出他们对自己的不确定性的前瞻性预测[66]。婴儿能够向其他行动者交流他们自己的不确定性,这进一步表明他们有意识地体验到元认知信息。因此,婴儿已经具备监控他们自己心智状态的能力。面对其中任何一个事物都需要学习的世界,C2机制允许婴儿积极地面对他们知道他们不知道的领域——我们称这个机制为“好奇”(Curiosity)。

(七) C1 与C2之间的分离

根据我们的分析,C1和C2大致是我们所称的意识的正交和互补的维度。就这种双重分离的一方面而言,自我监控可以为不可报告的刺激而存在(无C1的C2),自动打字提供了一个很好的例子:被试在出现打字错误后会放慢速度,即使他们没有有意识地注意到错误[67]。同样,在神经层次,错误相关负性(ERN)会为主观上未检测到错误而出现[68]。就这种分离的另一方面而言,有意识的可报告的内容有时并不伴随一种足够的信任感(无C2的C1)。例如当我们检索一个记忆时,它会突然冒进意识(C1),但有时对它的信任却没有任何准确的评估(C2),这导致一些错误的记忆。正如马文·明斯基(Marvin Minsky)所说,“我们所称的(C1意义上的)意识是对脑其余部分在做什么的一个极不完美的概要”。这种不完美部分地源自这个事实,即全局工作空间会将概率计算的复杂并行的感官流约减为一个单一的意识样本[27][28][29]。因此,概率信息通常在途中丢失了,而主体会过分信任他们知觉的准确性。

(八) C1与C2意识的协同

因为C1与C2是正交的,它们同时存在也许对有机体具有协同效益。一个方面,将概率的元认知信息(C2)带入全局工作空间(C1),这使得该信息能保持一段时间,被整合进外显的长时记忆中,并与他者分享。社会信息分享促进了决策:通过分享它们的信任信号,相比其中单独一个人,两个人在集体决策中实现更好的表现[69]。相反的一方面是,拥有一份关于自己能力的外显目录(C2)会改善加工C1的效率。在心算时,孩子能够对他们可行能力(例如,记数、加、乘或记忆提取)执行一个C2水平的评估,并使用这个信息以评估如何最佳地面对一个给定的算术问题[70]。这项功能需要一个单一的跨越不同模块信任的“通用货币”(Common Currency),而这是人类似乎拥有的[71]。

五、 赋予机器以C1和C2

如何给机器赋予C1和C2的这两种计算?让我们再次回到汽车油量指示灯这个例子。在当前机器中,“低油量”指示灯是无意识模块信号的典型例子(C0)。当灯闪烁时,这个指示信号还未通告给机器中所有其他处理器,并且它们也未作出改变;燃油继续被注入汽化器,而汽车经过加油站也没有停下(尽管加油站可能出现在GPS地图上)。当前的汽车或手机很大程度上仅仅是一些 “还未觉知到”彼此的专门化模块的集合体。赋予这个机器以全局信息可用性(C1)将允许这些模块分享信息,并合作来处理迫在眉睫的问题(这非常像当人感知到灯亮了或大象感觉到口渴时所做的那样)。

在基础条件尚未达成开展某类实验时,教师可利用大学或兄弟单位硬件资源,课前提前准备,将一些实验课程提前录制成微实验。在课堂教学中,微实验作为实验教学的补偿、理论教学的补充。

尽管人工智能在解决特定问题上取得了相当大的成功,但在单一系统中实现多重过程并灵活地协调它们仍然是一个很困难的问题。在20世纪60年代,人们特别设计了一种被称为“黑板系统”的计算架构,它以一种灵活和可判读的方式张贴信息并让其他模块来使用它,这在风格上类似于全局工作空间[20]。近来一个被称为“路径网”(Pathnet)的架构通过它的许多专门化的神经网络用遗传算法来学习哪个路径最适合一个给定任务[72]。这个架构表现得非常强健和灵活,并且展现出跨任务的一般性,而它有可能构成迈向类灵长类动物的有意识的灵活性的第一步。

为了优化利用油量指示灯提供的信息,对汽车而言,拥有一个关于自身能力和局限的数据库也是有用的。这种自我监控(C2)可能包含一个有关自己的整合形象(Image)——例如,包括自己当前的位置和燃油消耗——以及自己的内部数据(例如“知道”它拥有一个能够定位加油站的GPS地图)。一个自我监控的机器可能保有一张自己的子程序列表,通过计算评估出在各种任务中成功的概率,并时常更新它们(例如,注意一个部分何时失败)。大多数当前的机器学习系统仍然缺乏任何自我监控;它们在未表征它们知识的程度和局限的情况下或者在未表征别人可能拥有与它们不同观点的事实的情况下进行计算(C0)。有几个例外:贝叶斯网络[54]和程序[73]以概率分布进行计算,因此记录了它们正确的可能性。甚至当首要计算是由典型的CNN执行,并因此无法进入内省时,它有可能训练了一个更高层级的神经网络来预测第一个网络的表现[47]。系统重新描述它自己的这种进路,被认为会导致出现本质上是元认知的内部模型,而且……有可能使一个行动者发展出对自己的(有限的、内隐的、实际的)理解”[48]。“路径网”(Pathnet)[72]使用一种相关的架构跟踪在某个给定任务中最成功的内部结构,并使用这种知识指导随后的加工活动。我们可以对机器人编程以便监控它们的学习过程,并使用它将资源导向使信息增益最大化的问题,从而实现一种好奇(Curiosity)的形 式[74]。

C2还有一个很少受到关注的重要成分是现实监控。人工智能的贝叶斯进路[2][73]已经认识到学习生成模型(Learning Generative Models)的有用性,它可以被联合地用于实际感知(现在)、远景规划(将来)以及回顾分析(过去)。对人而言,相同的感官区域既涉及知觉也涉及想象。这样,就需要一些机制能够分辨自我产生的行为与外部启动的行为。训练生成模型的一个强有力方法,被称为对抗性学习[75],它包括一个与生成网络相“竞争”的另一个网络从而能批判性地评估自我生成表征的可靠性。当这种现实监控与C1机制相结合时,由此产生的机器能更进一步地模仿人类意识,因为它能提供对知觉表征的全局通达,同时拥有一种直接感觉,即表征的内容是世界现状的真正反映。

六、结 语

我们的立场基于这样一个简单假设:我们所谓的“意识”源自特定类型的信息加工计算,在物理上是由脑这个硬件实现的。它不同于其他持坚定计算的理论;我们推测,仅仅信息理论的数量还不足以定义意识[76],除非人们还考虑被加工信息的本质和深度。

我们主张,被赋予了C1和C2的机器,其行为表现就好像它是有意识的;例如,它知道它正在看某个东西,它会表达对所看到东西的信任,它会把看到的东西报告给别人,当它的监控机制崩溃时它会遭受幻觉,并且甚至会体验到与人类相同的知觉错觉。意识的这种纯粹功能定义仍然会让一些读者不满意。通过假定一些高层次认知功能必然与意识关联,我们是把意识“过度智能化”(Over-Intellectualizing)了吗?我们搁置了体验成分(处于意识状态“是什么样子”)吗?主观体验能避开一种计算定义吗?

尽管那些哲学问题超出了本文的范围,但在最后我们还想提醒的是,当人们失去C1和C2时,他们同时也丧失了主观体验。例如,对人类来说,初级视觉皮层的损伤可能会产生一种被称为“盲视”(Blindsight)的神经状况,在受影响的视野内患者报告说他看不见任何东西。奇怪的一点是,尽管那些患者能定位在他们盲区视野内的视觉刺激物,但却不能报告说他们看见了这个刺激物(C1),他们也不能有效评估他们成功的可能性(C2)——他们认为他们仅仅是在“猜”。在这个例子中,至少主观体验似乎与拥有C1和C2相一致。尽管几个世纪的哲学二元论已经使我们认为意识不可还原为物理的交互作用,但经验实证的证据却与意识仅仅源于特定的计算这一可能性相一致。

参考文献:

[1]D. Silver et al.,Nature 529,484-489 (2016).

[2] B. M. Lake,T. D. Ullman,J . B. Tenenbaum,S. J.Gershman,Behav. Brain Sci. 2016,1-101 (2016).

[3]J. Jaynes,The Origin of Consciousness in the Breakdown of the Bicameral Mind (Houghton Mif fl in Company,1976).

[4]S. Kouider,E. Dupoux,Psychol. Sci. 16,617-625 (2005).

[5]S. Kouider,S. Dehaene,Philos. Trans. R. Soc. Lond. B Biol.Sci. 362,857-875 (2007).

[6]E. Qiao et al.,Neuroimage 49,1786-1799 (2010).

[7]N. Faivre,L. Mudrik,N. Schwartz,C. Koch,Psychol. Sci.25,2006-2016 (2014).

[8]S. Kouider,S. Dehaene,Exp. Psychol. 56,418-433 (2009).

[9]S. J. Luck,E. K. Vogel,K. L. Shapiro,Nature 383,616-618(1996).

[10]S. van Gaal et al.,Philos. Trans. R. Soc. Lond. B Biol. Sci.369,20130212 (2014).

[11]H. C. Lau,R. E. Passingham,J. Neurosci. 27,5805-5811(2007).

[12]S. van Gaal,V. A. Lamme,J. J. Fahrenfort,K. R.Ridderinkhof,J. Cogn. Neurosci. 23,91-105 (2011).

[13]F. P. de Lange,S. van Gaal,V. A. Lamme,S. Dehaene,PLOS Biol. 9,e1001203 (2011).

[14]D. Vorberg,U. Mattler,A. Heinecke,T. Schmidt,J.Schwarzbach,Proc. Natl. Acad. Sci. U.S.A. 100,6275-6280(2003).

[15]S. Dehaene et al.,Nature 395,597-600 (1998).

[16]A. Vlassova,C. Donkin,J. Pearson,Proc. Natl. Acad. Sci.U.S.A. 111,16214-16218 (2014).

[17]M. Pessiglione et al.,Neuron 59,561-567 (2008).

[18]M. Pessiglione et al.,Science 316,904-906 (2007).

[19]L. Polansky,W. Kilian,G. Wittemyer,Proc. Biol. Sci. 282,20143042 (2015).

[20]B. Baars,A Cognitive Theory of Consciousness(Cambridge Univ. Press,1988).

[21]S. Dehaene,M. Kerszberg,J. P. Changeux,Proc. Natl.Acad. Sci. U.S.A. 95,14529-14534 (1998).

[22]D. Dennett,Cognition 79,221-237 (2001).

[23]S. Dehaene,L. Naccache,Cognition 79,1-37 (2001).

[24]W. James,The Principles of Psychology (Holt,1890).

[25]L. Naccache,E. Blandin,S. Dehaene,Psychol. Sci. 13,416-424 (2002).

[26]R. W. Kentridge,C. A. Heywood,L. Weiskrantz,Proc. Biol.Sci. 266,1805-1811 (1999).

[27]C. L. Asplund,D. Fougnie,S. Zughni,J. W. Martin,R.Marois,Psychol. Sci. 25,824-831 (2014).

[28]E. Vul,D. Hanus,N. Kanwisher,J. Exp. Psychol. Gen.138,546-560 (2009).

[29]R. Moreno-Bote,D. C. Knill,A. Pouget,Proc. Natl. Acad.Sci. U.S.A. 108,12491-12496 (2011).

[30]E. Vul,M. Nieuwenstein,N. Kanwisher,Psychol. Sci. 19,55-61 (2008).

[31]T. I. Panagiotaropoulos,G. Deco,V. Kapoor,N. K.Logothetis,Neuron 74,924-935 (2012).

[32]N. K. Logothetis,Philos. Trans. R. Soc. Lond. B Biol. Sci.353,1801-1818 (1998).

[33]C. Sergent,S. Baillet,S. Dehaene,Nat. Neurosci. 8,1391-1400 (2005).

[34]S. Marti,M. Sigman,S. Dehaene,Neuroimage 59,2883-2898 (2012).

[35]S. Marti,J.-R. King,S. Dehaene,Neuron 88,1297-1307(2015).

[36]M. Nieuwenstein,E. Van der Burg,J. Theeuwes,B. Wyble,M. Potter,J. Vis. 9,1-14 (2009).

[37]G. Kreiman,I. Fried,C. Koch,Proc. Natl. Acad. Sci.U.S.A. 99,8378-8383 (2002).

[38]R. Q. Quiroga,R. Mukamel,E. A. Isham,R. Malach,I.Fried,Proc. Natl. Acad. Sci. U.S.A. 105,3599-3604 (2008).

[39]J.-R. King,N. Pescetelli,S. Dehaene,Neuron 92,1122-1134 (2016).

[40]D. Trübutschek et al.,eLife 6,e23871 (2017).

[41]S. Kouider et al.,Science 340,376-380 (2013).

[42]R. T. Maloney,J. Jayakumar,E. V. Levichkina,I. N. Pigarev,T. R. Vidyasagar,Exp. Brain Res. 228,365-376 (2013).

[43]K. Watanabe,S. Funahashi,Nat. Neurosci. 17,601-611(2014).

[44]G. N. Elston,Cereb. Cortex 13,1124-1138 (2003).

[45]F.-Х. Neubert,R. B. Mars,A. G. Thomas,J. Sallet,M. F. S.Rushworth,Neuron 81,700-713 (2014).

[46]L. Wang,L. Uhrig,B. Jarraya,S. Dehaene,Curr. Biol. 25,1966-1974 (2015).

[47]A. Cleeremans,B. Timmermans,A. Pasquali,Neural Netw.20,1032-1039 (2007).

[48]A. Cleeremans,Cogn. Sci. 38,1286-1315 (2014).

[49]J. Dunlosky,J. Metcalfe,Metacognition (Sage Publications,2008).

[50]A. Clark,A. Karmiloff-Smith,Mind Lang. 8,487-519(1993).

[51]F. Meyniel,D. Schlunegger,S. Dehaene,PLOS Comput.Biol. 11,e1004305 (2015).

[52]F. Meyniel,S. Dehaene,Proc. Natl. Acad. Sci. U.S.A. 114,E3859-E3868 (2017).

[53]J. D. Smith,Trends Cogn. Sci. 13,389-396 (2009).

[54]W. J. Ma,J. M. Beck,P. E. Latham,A. Pouget,Nat.Neurosci. 9,1432-1438 (2006).

[55]S. M. Fleming,R. S. Weil,Z. Nagy,R. J. Dolan,G. Rees,Science 329,1541-1543 (2010).

[56]K. Miyamoto et al.,Science 355,188-193 (2017).

[57]A. Kepecs,N. Uchida,H. A. Zariwala,Z. F. Mainen,Nature 455,227-231 (2008).

[58]E. Rounis,B. Maniscalco,J. C. Rothwell,R. E.Passingham,H. Lau,Cogn. Neurosci. 1,165-175 (2010).

[59]A. Resulaj,R. Kiani,D. M. Wolpert,M. N. Shadlen,Nature 461,263-266 (2009).

[60]L. Charles,J.-R. King,S. Dehaene,J. Neurosci. 34,1158-1170 (2014).

[61]L. Charles,F. Van Opstal,S. Marti,S. Dehaene,Neuroimage 73,80-94 (2013).

[62]C. D. Frith,The Cognitive Neuropsychology of Schizophrenia (Psychology Press,1992).

[63]J. S. Simons,J. R. Garrison,M. K. Johnson,Trends Cogn.Sci. 21,462-473 (2017).

[64]D. Mendoza-Halliday,J. C. Martinez-Trujillo,Nat.Commun. 10.1038/ncomms15471 (2017).

[65]L. Goupil,S. Kouider,Curr. Biol. 26,3038-3045 (2016).

[66]L. Goupil,M. Romand-Monnier,S. Kouider,Proc. Natl.Acad. Sci. U.S.A. 113,3492-3496 (2016).

[67]G. D. Logan,M. J. Crump,Science 330,683-686 (2010).

[68]S. Nieuwenhuis,K. R. Ridderinkhof,J. Blom,G. P. Band,A. Kok,Psychophysiology 38,752-760 (2001).

[69]B. Bahrami et al.,Science 329,1081-1085 (2010).

[70]R. S. Siegler,J. Exp. Psychol. Gen. 117,258-275 (1988).

[71]V. de Gardelle,P. Mamassian,Psychol. Sci. 25,1286-1288(2014).

[72]C. Fernando,D. Banarse,C. Blundell,Y. Zwols,D. Ha,A. A.Rusu,A. Pritzel,D. Wierstra,arХiv:170108734 [cs.NE] (2017).

[73]J. B. Tenenbaum,C. Kemp,T. L. Griffiths,N. D.Goodman,Science 331,1279-1285 (2011).

[74]J. Gottlieb,P.-Y. Oudeyer,M. Lopes,A. Baranes,Trends Cogn. Sci. 17,585-593 (2013).

[75]I. J. Goodfellow,J. Pouget-Abadie,M. Mirza,B. Хu,D.Warde-Farley,S. Ozair,A. Courville,Y. Bengio,Generative Adversarial Networks. arХiv:14062661 [stat.ML] (2014).

[76]G. Tononi,M. Boly,M. Massimini,C. Koch,Nat. Rev.Neurosci. 17,450-461 (2016).

[77]S. Kouider,E. Eger,R. Dolan,R. N. Henson,Cereb. Cortex 19,13-23 (2009).

[78]S. Dehaene et al.,Nat. Neurosci. 4,752-758 (2001).

[79]P. Vuilleumier et al.,Proc. Natl. Acad. Sci. U.S.A. 98,3495-3500 (2001).

[80]A. Kiesel,W. Kunde,C. Pohl,M. P. Berner,J. Hoffmann,J.Exp. Psychol. Learn. Mem. Cogn. 35,292-298 (2009).

[81]M. Aly,A. P. Yonelinas,PLOS ONE 7,e30231 (2012).

[82]I. M. Harlow,A. P. Yonelinas,Memory 24,114-127(2016).

[83]H. L. Pincham,H. Bowman,D. Szucs,Cortex 81,35-49 (2016).

[84]C. Sergent,S. Dehaene,Psychol. Sci. 15,720-728 (2004).

[85]A. Del Cul,S. Baillet,S. Dehaene,PLOS Biol. 5,e260(2007).

[86]R. Marois,D. J. Yi,M. M. Chun,Neuron 41,465-472 (2004).

[87]C. Moutard,S. Dehaene,R. Malach,Neuron 88,194-206(2015).

[88]H. G. Rey,I. Fried,R. Quian Quiroga,Curr. Biol. 24,299-304 (2014).

[89]A. Schurger,I. Sarigiannidis,L. Naccache,J. D. Sitt,S. Dehaene,Proc. Natl. Acad. Sci. U.S.A. 112,E2083-E2092 (2015).

[90]C. Sergent et al.,Curr. Biol. 23,150-155 (2013).

[91]J. Sackur,S. Dehaene,Cognition 111,187-211 (2009).

[92]R. Marois,J. Ivanoff,Trends Cogn. Sci. 9,296-305 (2005).

[93]P. Barttfeld et al.,Proc. Natl. Acad. Sci. U.S.A. 112,887-892 (2015).

[94]W. J. Gehring,B. Goss,M. G. H. Coles,D. E. Meyer,E.Donchin,Psychol. Sci. 4,385-390 (1993).

Could Machines have Consciousness?

By Stanislas Dehaene1,2 Translated by LI Heng-wei3 CAI Shi-ling3 AN Hui3,4
(1.Chair of Experimental Cognitive Psychology, Collège de France ;2.Cognitive Neuroimaging Unit, Commissariat à I’Energie Atomique et aux Energies Alternatives( CEA), INSERM, Université Paris-Sud, Université Paris-Saclay, NeuroSpin center;3.Depart ment of Philosophy,Zhejiang University,Hang Zhou,Zhejiang,310058 ;4.School of Politics and Law,Shanxi Normal University,Taiyuan Shanxi,041004)

Abstract: The controversial question of whether machines may ever be conscious must be based on a careful consideration of how consciousness arises in the only physical system:the human brain. Consciousness con fl ates two different types of informationprocessing computations in the brain,namely, two essential dimensions of conscious computation are global availability (C1)and self-monitoring (C2). Despite their recent successes, current machines are still mostly implementing computations that re fl ect unconscious processing (C0) in the human brain. We review the psychological and neural science of unconscious (C0) and conscious computations (C1 and C2) and outline how they may inspire novel machine architectures.

Key words: Consciousness;Machine;Global Availability;Self-monitoring; Unconscious Processing

中图分类号:B842

文献标识码:A

文章编号:1005-9245(2019)01-0081-12

收稿日期:2018-03-10

基金项目:本文系国家社科基金项目“意识的第一人称方法论研究”(14BZХ024)、“中央高校基本科研业务费专项资金”资助项目的阶段性成果。

作者简介:斯塔尼斯拉斯·迪昂,法国科学院院士、法国法兰西学院教授,著名认知神经科学家,1999年詹姆士·史密斯·麦克唐纳基金会“Centennial Fellowship”获得者,2014年欧洲“大脑奖”获得者。

译者简介:李恒威,浙江大学哲学系、语言与认知研究中心教授;蔡诗灵,浙江大学哲学系、语言与认知研究中心硕士研究生;安晖,浙江大学哲学系、语言与认知研究中心博士后研究人员,山西师范大学政法学院副教授。

致谢:国家健康和医学研究所、CEA、加拿大高级研究所、斯皮尔伯格基金、法兰西学院、欧洲研究委员会(简称ERC,Stanislas Dehaene获得ERC 的NeuroConsc 项目,Sid Kouider获得 ERC的METAWARE项目)、法国国家研究机构(基金ANR-10-LABX-0087 和 ANR-10-IDEX-0001-02)、美国国家健康研究所(脑神经失调和中风国家研究所授予Hakwan Lau基金R01NS088628)以及美国空军科学研究办公室(授予Hakwan Lau基金FA9550-15-1-0110 t)。

(本文得到斯塔尼斯拉斯·迪昂教授的授权许可在中国出版发行。)

[责任编辑:周普元]

[责任校对:刘 成]

标签:;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  

[法国]斯塔尼斯拉斯迪昂:机器会拥有意识吗?论文
下载Doc文档

猜你喜欢