星月喜品工坊 LV
发表于 2025-4-7 14:44:56
如何让强AI能拥有自我意识,在我们心灵哲学这个专业看来,最大的问题可能在于我们对于“自我意识”的认识仍然是特别的模糊。因此拥有自我意识的人工智能既很难想象,又可能是没有必要的。
心灵哲学领域中有着许多关于内省(introspection) 和 自我意识(self-consciousness)的讨论。泛泛地来说我们可能认为自我意识是一种内省的认识之后所得到的意识。 直觉地,我们或多或少都会支持一种“内外”两分的世界观。即一方面,我们生活在一个共同的外部世界中。这个外部世界是开放的,公共的,第三人称的。另外,我们还觉得一个我们自身的内部世界同样也存在。而这个内部世界是封闭的,私人的,第一人称的。一个最简单的例子,我发布的这个回答是属于外部世界的,因为它是公开的,任何人都能看到我的这篇回答。但是,我在写回答时,手指敲击键盘产生了一种独特的触感,而我感觉到了这个触感,而这种对于触感的感知属于我的内部世界,因为任何人站在第三人称的角度观察只能看到我在敲击键盘,根本感受不到我此时的触感。因此,直觉上,我们觉得这种感受性质(qualia)是第一人称,私人的,而敲打键盘的动作,打出来的回答都是第三人称的;以上就是对内外部世界的一个粗浅的划分。
让我们回到AI如何有自我意识的提问上来,如果我们设计出一个程序是具有关于外部事物的知识的,比如它也能知道我在知乎上发表了这么一条回答,能预测,能下棋的话。那么我们说这个程序具有第三人称意义的认识或者意识是完全没问题的。但是这里就会出现了一个问题,即“外部世界”的边界在哪里?比如说我在这里写回答时,我是坐在一把椅子上并且翘着二郎腿的,而“坐在椅子上翘着二郎腿”这一事实明显是公开的,第三人称可达到的,所以依据属于外部世界,再次,我在写回答时大脑正在飞速运转,这时候如果用一台脑电波扫描仪就可以观察到我大脑之中电信号的传导等等神经活动,于是乎,我的大脑活动也是公开的,第三人称可达到的,所以也属于外部世界。这么一来我们发现,如果我们将“外部世界”的定义包括了一个agent(可以是人也可以不是人)的自身的物理性质和结构的话,这类Agent似乎也应该能具有一定程度上关于“自身”的知识。因为所谓的“内省”也可以还原为第三人称的认识。比如如果它是生物的话,应该能知道比如自己现在所处的运动状态(是动还是静止,以什么样的姿势静止)以及自己身体构造的知识。而如果它是电脑程序的话,那么它也可以知道自己是由什么样的代码编写成的。这个意义上我们当然可以说它具有了自我意识。
但是这种关于“内省”的理解方法可能会面临许多的批评。首先,对于自身存在,假如一种生物能知道自身的身体状态,那它能知道自己的存在吗?这就涉及到我们关于自我意识另一个可能要求更高的定义了。其中心灵哲学里有一派的观点,叫做“高阶理论”(Higher Order Theory)。什么叫高阶理论?举个简单的例子,一只狗狗身上有跳蚤时,它会用脚去抓痒。很明显,这条狗是知道自己身上很痒的,但是,这条狗能不能知道它知道它自己身上很痒呢?前者是一个一阶认识,而后者是个具有自我意识的高阶认识。而为什么自我意识是一种高阶认识呢?因为自我意识具有总括性,即它具有我的所有认识所共同拥有的特性,只有当我知道,所有我的知识,不管是内在的还是外在的,都是“我”所知道的知识,即知道自己知道,高阶理论认为,只有达到了这样的高阶认识,这样才能说我已经具有自我意识了;于是回到主干问题上来,如果我们持有一种关于自我意识的高阶理论的话,那么很多生物都不能这一条件,比如说狗狗等高级生物(当然它们不能满足关于高智能的要求)。同样的,如果高阶理论关于自我意识的观点是正确的话,一个程序或者AI即使它能有很多关于自身状态的认识,它也不具备高阶认识能力。因此,AI和狗狗一样也是没有自我意识的。
其次,对于“意识”,之前提到过了,我在敲击键盘时会有一种独特的触感被我意识到,而这种触感是私人的,第一人称的。一般的,哲学家把这类意识叫做现象意识(phenomenal consciousness)或定性意识(qualified consciousness )。事实上,现实生活中,这种意识缺失的情况很普遍,比如色盲症患者感受不到色彩,高位截瘫的患者感受不到疼痛等。但是这些都只是局部或个别的现象意识的缺失,而到了AI这里,问题就比较麻烦了,因为AI存在着的整个现象意识状态完全消失,不仅没有五感,同时也没有喜怒哀乐等情绪,这种定义就十分接近于Chalmers的Zombie论证中关于Zombie的定义了。但是仍然有一点不同,在Chalmers那里,Zombie实际是没有任何意识和信念的,但是一个AI,我们会认为它具有智能因此就肯定也会拥有相应的感知,信念等等。但是这里就出现了一个问题,就是如果关于外部世界的认识必然包含有一定的现象意识的话那怎么办?这种观点被称为智能现象学(cognitive phenomenology),即认为人的现象意识无处不在。不仅仅只是在关于自身的自我意识之中,同时也包括在对于外部世界的认识之中。如果这样的话,那么在现象意识缺失的情况下,也不可能拥有对外部世界的认识。而如果按照这一定义的话,除非我们能让一个程序能有痛感,能有感性的直观,一句话,能有Qualia,否则,根据智能现象学,它甚至连也关于外部世界的知识都没有,更不用说自我的认识了。
当然,以上都只是我选取我所了解的理论进行分析,AI可以产生自我意识的可能性。但是,这些理论告诉我们,如果我们真的想让这么一种程序拥有自我意识,其实取决于我们关于“自我”和“意识”持有什么样的本体论预设。所以,AI能不能产生自我意识更多的只是一个哲学问题,不是一个AI学者会关心的问题。而AI科技还是会按照它的从业人员自己的发展思路和创新诉求进行革新与发展,至于它到底能不能有自我意识,只是一个具有哲学意义而不是科学意义的问题。在哲学上,我们很难想象AI如何有自我意识,因为我们连人的自我意识都没整清楚。在科学上,AI也没必要有自我意识,因为这其实并不是科学家会关心的问题。
参考文献:
W. LYCAN: “The Superiority of HOP to HOT” in R. Gennaro (ed.), Higher Order Theories of Consciousness, Philadelphia 2004, 115-136;
T. HORGAN, J. TIENSON & G. GRAHAM: Internal-World-Skepticism and Phenomenal Consciousness in U. Kriegel & K. Williford (eds.): Self-Representational Approaches to Consciousness, Cambridge/Mass. 2006, 41-61;
6. 17.11.15 T. HORGAN & U. KRIEGEL: “Phenomenal Epistemology: What is Consciousness that We May Know it so Well?” in: Philosophical Issues, 17 (2007), 123-144; |
|