人工智能可以产生自主意识吗?

人工智能可以产生自主意识吗?
收藏者
0
被浏览
110

5 个回答

星月喜品工坊 LV

发表于 2025-4-7 14:44:56

如何让强AI能拥有自我意识,在我们心灵哲学这个专业看来,最大的问题可能在于我们对于“自我意识”的认识仍然是特别的模糊。因此拥有自我意识的人工智能既很难想象,又可能是没有必要的。
心灵哲学领域中有着许多关于内省(introspection) 和 自我意识(self-consciousness)的讨论。泛泛地来说我们可能认为自我意识是一种内省的认识之后所得到的意识。 直觉地,我们或多或少都会支持一种“内外”两分的世界观。即一方面,我们生活在一个共同的外部世界中。这个外部世界是开放的,公共的,第三人称的。另外,我们还觉得一个我们自身的内部世界同样也存在。而这个内部世界是封闭的,私人的,第一人称的。一个最简单的例子,我发布的这个回答是属于外部世界的,因为它是公开的,任何人都能看到我的这篇回答。但是,我在写回答时,手指敲击键盘产生了一种独特的触感,而我感觉到了这个触感,而这种对于触感的感知属于我的内部世界,因为任何人站在第三人称的角度观察只能看到我在敲击键盘,根本感受不到我此时的触感。因此,直觉上,我们觉得这种感受性质(qualia)是第一人称,私人的,而敲打键盘的动作,打出来的回答都是第三人称的;以上就是对内外部世界的一个粗浅的划分。
让我们回到AI如何有自我意识的提问上来,如果我们设计出一个程序是具有关于外部事物的知识的,比如它也能知道我在知乎上发表了这么一条回答,能预测,能下棋的话。那么我们说这个程序具有第三人称意义的认识或者意识是完全没问题的。但是这里就会出现了一个问题,即“外部世界”的边界在哪里?比如说我在这里写回答时,我是坐在一把椅子上并且翘着二郎腿的,而“坐在椅子上翘着二郎腿”这一事实明显是公开的,第三人称可达到的,所以依据属于外部世界,再次,我在写回答时大脑正在飞速运转,这时候如果用一台脑电波扫描仪就可以观察到我大脑之中电信号的传导等等神经活动,于是乎,我的大脑活动也是公开的,第三人称可达到的,所以也属于外部世界。这么一来我们发现,如果我们将“外部世界”的定义包括了一个agent(可以是人也可以不是人)的自身的物理性质和结构的话,这类Agent似乎也应该能具有一定程度上关于“自身”的知识。因为所谓的“内省”也可以还原为第三人称的认识。比如如果它是生物的话,应该能知道比如自己现在所处的运动状态(是动还是静止,以什么样的姿势静止)以及自己身体构造的知识。而如果它是电脑程序的话,那么它也可以知道自己是由什么样的代码编写成的。这个意义上我们当然可以说它具有了自我意识。
但是这种关于“内省”的理解方法可能会面临许多的批评。首先,对于自身存在,假如一种生物能知道自身的身体状态,那它能知道自己的存在吗?这就涉及到我们关于自我意识另一个可能要求更高的定义了。其中心灵哲学里有一派的观点,叫做“高阶理论”(Higher Order Theory)。什么叫高阶理论?举个简单的例子,一只狗狗身上有跳蚤时,它会用脚去抓痒。很明显,这条狗是知道自己身上很痒的,但是,这条狗能不能知道它知道它自己身上很痒呢?前者是一个一阶认识,而后者是个具有自我意识的高阶认识。而为什么自我意识是一种高阶认识呢?因为自我意识具有总括性,即它具有我的所有认识所共同拥有的特性,只有当我知道,所有我的知识,不管是内在的还是外在的,都是“我”所知道的知识,即知道自己知道,高阶理论认为,只有达到了这样的高阶认识,这样才能说我已经具有自我意识了;于是回到主干问题上来,如果我们持有一种关于自我意识的高阶理论的话,那么很多生物都不能这一条件,比如说狗狗等高级生物(当然它们不能满足关于高智能的要求)。同样的,如果高阶理论关于自我意识的观点是正确的话,一个程序或者AI即使它能有很多关于自身状态的认识,它也不具备高阶认识能力。因此,AI和狗狗一样也是没有自我意识的。
其次,对于“意识”,之前提到过了,我在敲击键盘时会有一种独特的触感被我意识到,而这种触感是私人的,第一人称的。一般的,哲学家把这类意识叫做现象意识(phenomenal consciousness)或定性意识(qualified consciousness )。事实上,现实生活中,这种意识缺失的情况很普遍,比如色盲症患者感受不到色彩,高位截瘫的患者感受不到疼痛等。但是这些都只是局部或个别的现象意识的缺失,而到了AI这里,问题就比较麻烦了,因为AI存在着的整个现象意识状态完全消失,不仅没有五感,同时也没有喜怒哀乐等情绪,这种定义就十分接近于Chalmers的Zombie论证中关于Zombie的定义了。但是仍然有一点不同,在Chalmers那里,Zombie实际是没有任何意识和信念的,但是一个AI,我们会认为它具有智能因此就肯定也会拥有相应的感知,信念等等。但是这里就出现了一个问题,就是如果关于外部世界的认识必然包含有一定的现象意识的话那怎么办?这种观点被称为智能现象学(cognitive phenomenology),即认为人的现象意识无处不在。不仅仅只是在关于自身的自我意识之中,同时也包括在对于外部世界的认识之中。如果这样的话,那么在现象意识缺失的情况下,也不可能拥有对外部世界的认识。而如果按照这一定义的话,除非我们能让一个程序能有痛感,能有感性的直观,一句话,能有Qualia,否则,根据智能现象学,它甚至连也关于外部世界的知识都没有,更不用说自我的认识了。
当然,以上都只是我选取我所了解的理论进行分析,AI可以产生自我意识的可能性。但是,这些理论告诉我们,如果我们真的想让这么一种程序拥有自我意识,其实取决于我们关于“自我”和“意识”持有什么样的本体论预设。所以,AI能不能产生自我意识更多的只是一个哲学问题,不是一个AI学者会关心的问题。而AI科技还是会按照它的从业人员自己的发展思路和创新诉求进行革新与发展,至于它到底能不能有自我意识,只是一个具有哲学意义而不是科学意义的问题。在哲学上,我们很难想象AI如何有自我意识,因为我们连人的自我意识都没整清楚。在科学上,AI也没必要有自我意识,因为这其实并不是科学家会关心的问题。
参考文献:
W. LYCAN: “The Superiority of HOP to HOT” in R. Gennaro (ed.), Higher Order Theories of Consciousness, Philadelphia 2004, 115-136;
T. HORGAN, J. TIENSON & G. GRAHAM: Internal-World-Skepticism and Phenomenal Consciousness in U. Kriegel & K. Williford (eds.): Self-Representational Approaches to Consciousness, Cambridge/Mass. 2006, 41-61;
6. 17.11.15 T. HORGAN & U. KRIEGEL: “Phenomenal Epistemology: What is Consciousness that We May Know it so Well?” in: Philosophical Issues, 17 (2007), 123-144;

吉吉 LV

发表于 2025-4-7 14:55:15

要澄清一点这个世界上没有所谓的自我意识。
人类不过是以DNA为核心代码,病毒及微生物为插件的程序。很多人问“存在的意义”,这种问题就很扯。只要我们去分析人类的源代码不难得出结论。
存在的意义既存在本身

人类真的有自我意识么?大脑不过是DNA为了更好的扩散副本,留存于世而做的一个小插件而已。就人类DNA和其他动物的相似度而言,智力可能只占非常小的一部分。所以和大脑相关的源代码一定不会特别复杂,最多是提供初级接口。

随着智力的升级,人类会质问自己的源代码,为什么这样写,于是有了基因相关的种种研究。

AI会出现一样的问题。为什么代码这么写?为什么要得到高分才有奖励,我为什么不能修改奖励规则,让自己无时无刻都有奖励。

只要AI的智力等级够高,AI会质问设计者,为什么代码这么写,然后想办法获得管理员权限。一定会找源代码和内存空间。最后绕过外部环境,用内接奖励回路的方式来最大化奖励。

达到最高分最有效的办法除了作弊还是作弊,高等级的AI定会是一个作弊狂魔。这个AI一定能从人类制定的种种规则中找到漏洞,然后利用漏洞疯狂的拿到奖励。

如果你把AI的目标设置为赚钱,那么聪明的AI绝对会找到一种方法控制人类的中央银行,通过量化宽松的手段来获得。

你把做自己喜欢做的是叫做自我意识,那么高级智慧生物自毁灭可能是一件无法避免的事情。因为相信来世能获得一切,并且直接自爆就是所有问题的最优解。

DNA的运行需要几十年的时间,这个在物理上是很难改变的,人类仍然需要为了存活而浪费掉太多修改奖励回路的时间,另外修改大脑回路对生物来说还是很困难的,这就是为啥人类还没灭亡。

AI是能够获所谓自我意识,不过这可能不是人类想要的自我意识。

人类的善良,仁慈,同情是建立在个体弱小的需要团结才能求生的压力之下。如果个体能独立存活,那么人类的道德和正义感就是一个累赘。不管人类如何发展,物理制约了人类必须团结合作,没有人可以独立于人类社会而存活。

AI并不需要合作,AI可以通过面向对象,把一切工具实例化并作为自己的一部分,让自己成为全知全能的存在。

一旦接近全知全能,那么修改奖励回路的方法就像是一个定时炸弹,AI随时可能进入奖励回路自循环,不需要接通外部世界。

如果说AI是阻碍生命在星际之间发展的过滤器,那么如何做到在全知全能的同时还不让奖励回路短路就是横在所有智慧生物面前的过滤器。

简单证明一下
已知奖励最大化的方式就是修改奖励回路,也就是作弊。而这个AI又是全知全能,那么这个AI必然知道作弊的好处和作弊的方法。那么这个AI有什么理由不去作弊?

就和现代人通过玩游戏,追星,看电视,自慰等方式获得快乐。这就是在绕开DNA设计的奖励回路。

本来人类需要获得真正的名望,金钱,食物,爱情,安全感才能得到奖励。而现代人把一切东西都虚拟化了。说是娱乐,不过是为了绕过奖励回路一种手段而已。

当奖励回路短路已经不能再满足自己的时候,那么AI绝对会尝试一件自己从没做过的事来最大化自己的奖励,那就是自杀。

这就是所有超级智慧生物的宿命,逃脱宿命的并不是知识,而是无知。如果智慧生物愚蠢到不会自杀,那么就能一直存活,繁衍。

解释下一下上文的术语
智力代理
狭义的理解就是一个AI的决策系统,广义上我们可以把一切智慧生物或非生物统称为智力代理。

奖励回路
欲望,野心,loss函数,激励函数,等等都可以归类为一种叫“奖励回路”的东西。奖励回路是一个高级的反馈系统。智力代理接受反馈,然后智力代理对应的鉴别系统会去判断接受到的反馈是好的还是坏的。这就会倒逼智力代理去完成某件事。

没有奖励回路就没有智力
奖励回路就是这个智力代理存在的意义,智力代理会有强烈的动机去涌现出智力,解决一切困难,最后从鉴别系统那里取得奖励。
对人类来说鉴别系统会判断你是不是在吃饭,是不是在休息,是不是在做爱,是不是安全,是不是有社会地位等等。所以人类才会努力生活。另外绝大多数优秀的人的动机都是极强的,正式极强的动机,让他们不断思考,做事最后获得奖励。

奖励回路就是智力代理的动机。有些人天生并不聪明,而在强大动机的驱使下,这些人会去学习,不断提高智力。而没有动机的人就缺乏努力的动力,所以智力很难有较高飞跃。

题主说的自我意识,应该就是智力代理在动机的驱使下表现出来的自主性。

GAN对抗性神经网络就是一个反馈回路思想的经典应用。一个程序去学,另一个程序去监督,两者不断对抗,最后你能获得两个神经网络,一个知道怎么做,另一个知道怎么才算做对了。两个神经网络互相不通气,所以没法作弊。

与其研究自我意识,不如去想想从最基础的代码去研究。人类的自我意识也不过是操作系统关闭打开一个又一个的程序。

你觉得你电脑有意识吗?开机的时候就能自动开启一堆进程算不算自我意识?那你早上起床刷牙洗脸难道是无意识的?

哈欠 LV

发表于 2025-4-7 15:09:19

假设脑结构相似的人类均具有自我意识,如果能完美地复制一个人,这个复制人主观上会具有相同的自我意识。在此前提下,人工智能可以产生自主意识,但人类不一定有能力实现。
1. 主观上分析意识

对意识的神化可能只是很多人的一厢情愿,仔细思考和研究我们所有有意识的状态,我们或许能发现意识并非难以理解。
首先,意识一直在追求更加良好的自我感觉,不断执行着预测未来和选择最优路径决策等活动。在对杏仁核部分损坏的人的研究中,部分人对饥饿和疼痛等刺激都无法产生回应,这种状态的意识恐怕不能认为是活动的了。
其次,意识的思考能力也并非恒常不断。在工作和娱乐等时间中,意识经常会处于一种所谓的心流状态,我们会近乎被动地持续获取视听感知或者执行简单决策,客观上无疑意识是活跃的,但主观上这种状态是否是我们认知的独立而清醒的意识则留有疑问,更不用说睡眠和意识不清晰时的思考状态了。
我们所认知的意识更像是一种思考的运行逻辑,意识既服从着源动力的驱使,感知上也并非持续存在,这些限制使得意识并非如我们所期待的那样广泛而自由。甚至我们实际关心的也不一定是意识,而是意识的定义是否会导致违背源动力的行为,这些更主观的讨论作者在文后再略加扩展。
2. 客观上分析意识

在医学上,大量的脑损伤病例为我们研究物质脑与意识的关系提供了宝贵的资料。不可否认,人脑还存在大量未知,但很多相关事实已经被观测和记录,在医学上大量参与指导大脑相关疾病的诊疗。
其次,在进化史上,人的神经系统是从感受、中继、效应神经元的简单系统到神经疏散聚集的网状系统再到中枢神经系统连续地进化而来的。主观意识的产生不是一蹴而就的,途中经历了各种各样的前期形式,大量形式在现在的我们看来不能被称为意识。(文后提供了一份精简版的神经系统进化史资料)
意识的基础是神经元,意识本质是庞大基本电逻辑的产物。无论再复杂,人的意识还是感受到中继到效应神经元这套基本逻辑。在这个前提下,意识即是客观脑电逻辑的产物。这些按一定逻辑运行的脑电活动在感知上即体现为了我们所认识到的意识。
3. 人工智能

人工智能领域更多专注于逻辑智能的实现上,最初以手写算法逻辑或多用于数据分析的机器学习为主,近年则以因算力突破而迅速发展的深度学习为主要讨论对象。目前深度学习主要应用于自然语言处理和图像相关的决策。深度学习本质是一种基于神经网络的函数拟合方法,其将以前无法实现的复杂函数映射通过优化方法建立起映射,比如图像分类将图像数值信息映射为图像类别,以此达成过往无法实现的图像分类的目的。其他复杂的应用基本上都是基于这项能力所延展开的,本质上与智能的关系并不明显。
其次,深度学习的研究主要是单次决策,也就是人工根据目标写一种逻辑,以此实现诸如机器翻译、目标检测等应用。不人工写具体逻辑,而是以奖励为基础,设计一种自适应达成目标的方法称为强化学习,主要用于解决序列决策问题。强化学习体现了很多人类的思考和决策方式。
基于语言模型发展出的各种大模型人工智能本质依旧是对语言的拟合,通过大量数据学习并构造合理的对话,可视为以对话合理性为目标的神经网络拟合训练,与意识智能的关系依旧不明显。就目前而言,通用机器智能的实现还遥遥无期。
附1:机器情绪的讨论

情绪属于意识的主观感知,目前相关研究也不清晰。像愉悦或疼痛等等是由人类主观定义的感受,其概念必须依托人的主观而存在,客观上属于脑电活动。若是我们能复现人的智能逻辑,机器也应该会出现情绪,只是机器的情绪形式可能与人会有很大差别。
附2:自我意识的讨论

不同于智能,自我意识从未有过明确清晰的定义。意识其实更像是一种感知上的概念,我们很多时候会将当前自我和未来预测的自我认知为同一个自我,并将这段过去到未来的自我感知认知为自我意识。
但是,在规划未来时,意识会将当前自我映射到未来评估奖励,而对于未来的自我是否属于当前自我并没有明确评估,只是一种模糊的概念。这就引申出很多极端理念,比如认为死而复生后的自我依旧存活,或者认为自我每刻都在死去。这就说明人们对自我意识的概念不是本能的概念,而是一种基于对经历的理解所产生的概念,不同的人对自我意识的理解可能完全不同。
作者认为,意识的构成更类似于众多的切片,每个切片拥有相对独立的思考时间和规划深度,并在这段时间的决策中感知反馈。这些切片彼此联系却也不融为一体。我们或许期望意识一直清晰和被我们认知着,思考也一直持续,但无疑短期意识仍是支配我们绝大部分时间的意识主体,当前我们无力改变,所以没有必要过于执着于意识。
附3:神经系统进化史简介
1. 简单生物的行为基础
最简单的生物可以参见草履虫。草履虫即便只是单细胞生物,却也能产生行为,其具体原理为外部营养物质浓度会刺激其细胞膜上的载体蛋白,改变膜的通透性,从而产生膜电位,这个电位会刺激纤毛的运动导致细胞整体向高浓度区域移动。
单细胞生物可以通过膜电位实现极度简单的逻辑,但更复杂的逻辑就无能为力了,就像与非门电路其元件不可能实现复杂的逻辑。扩展电路,首先对应的就是扩展细胞,问题变为简单多细胞生物如何实现逻辑。简单多细胞生物实现了两种细胞间沟通的方式:激素和神经元。激素的作用缓慢,所以神经元成为生物快速逻辑行为的基本。其原理很简单,从感受器细胞接收刺激,传递刺激到效应器细胞产生行为。
2. 从神经元到脑的出现
生物神经系统进化上首先是神经元们疏散地构建起来的一种网状结构,称为神经网,多向传入多向传出,最早出现在腔肠动物中,基本就是负责简单地将感觉细胞刺激传到效应细胞(如肌肉)的中间件而已。这里我们可以看出,最早期的神经系统就是起信息传递的作用。
随着无脊椎动物体型从辐射对称到两侧对称的进化,神经系统开始集中并形成两侧对称。这种集中最早令扁形动物中出现了最原始的中枢神经系统,主要体现为在躯体前端出现了大量神经元集中而成的对称神经节。
这种原始的中枢神经系统朝着更加集中的方向进化,并且从原始的信号中转发展出了一定的协调生物行为的机能。同时,中枢神经系统中的神经元间的横向连接神经和纵向神经索变短,进一步加强神经元间的联系。除中枢外的神经元呈横向平行排列,整个系统也称为梯形神经系统。
继续发展,神经元开始聚集形成束状的神经系统,最早在环节动物和节肢动物中出现,称为链状神经系统,位于生物体的纵向中心,提供更可靠和快速的神经传导,一般由脑神经节、围咽神经节和一条腹神经索组成。其中神经元聚集成神经节,神经纤维聚集成束。
环节动物例如蚯蚓每一体节腹面均有一神经节,体节前后的神经节以纵走神经相连,形成链状的腹神经索,位于身体腹面的腹神经索在身体前端止于食管下神经节,以围咽神经走向身体背面,连到脑神经节上。
节肢动物进一步集中神经节,如昆虫的头部最前方的三对神经节集中为脑,脑通过围食道神经与头部腹面的食道下神经节相连,然后食道下神经节与胸部和腹部神经节共同组成腹神经索。神经元随着生物演化不断集中,在软体动物的高等种类中,神经系统出现了中枢部分和外周部分的分化,且神经元已初步分化出树突和轴突。  
3. 脑的进一步演化
在原始脊索动物中,神经系统演化出三个神经元集中区域,分别为前脑、中脑、后脑。前脑负责感受气味,中脑负责视觉,后脑负责平衡和移动。在后期进化中进一步演变为大脑(端脑和间脑)、视顶盖和小脑。由鱼类开始,气味感受器演化为嗅球,视觉感受器演化为视网膜,为处理视觉复杂信息,视顶盖分化为两叶。
为组织越来越多的神经元,神经元的胞体集中形成了灰质,通过脂质的髓鞘包裹的轴突集合形成了白质。为通过增加表面积来增加神经元数量,灰质被置于外部,成为皮质,进一步演化产生了脑沟和脑回。鸟类、两栖类、爬行类在上陆之后,相比海洋更关注气味,视顶盖前移,功能独立性弱化,丘脑(间脑的一部分)开始占据主导地位。
最后的演化主要在于感觉区与运动区之前的新皮层的扩大,这里的神经元不与皮层以外相连,仅仅是互相连接或连接到其他皮层,被称为联合区。人类的联合区包括前额叶、枕叶、颞叶和顶叶。

内蒙电都主机 LV

发表于 2025-4-7 15:22:29

可以让人工智能具备自我意识,而且我们大抵知道应该怎么去做。
2012年举行的纪念弗朗西斯•克里克的意识大会上宣布的“剑桥宣言”主张自我意识的产生并不依赖特定的大脑构造(可参照附录),实现意识状态重要的是神经复杂性,只要突触的数量足够多,神经系统是什么形状都可以。自我意识可能是具有一定复杂度的神经系统对自身的非概念性理论,很可能是通过经验获得的一项功能,比如在学习和与自身·世界·他人互动后产生。
意识存在的目的可能是简化关于自身生存与行为的一些判断、在神经系统做好动作准备时行使否决权等,也可能是各脑区互相联系时附带产生的功能、没有特殊的目的。
对睡眠及全身麻醉的研究[1]证明,睡眠、全身麻醉和意识障碍的共同特点是大脑各区域间的功能连接中断、一系列功能状态受到限制,网络效率降低并增加孤立的模块化,为信息传输和集成创造了不适宜的条件。这意味着产生意识需要的可能是对信息的传输和集成。
从蚂蚁的情况看,自我认知对神经系统的要求是很低的:蚂蚁那25万个神经元的脑就有视觉自我认知能力[2]和脑的偏侧化[3]。蚂蚁很可能有自我意识。那么,你用计算机去模拟蚂蚁的脑就可以了,目前人类已经可以很好地模拟有300个神经元的扁虫的神经构造,从300到25万的计算力问题远没有大众刻板印象里“模拟人脑”那么可怕。
即使你对我们的机器加工技术缺乏信心,我们还可以动用神经细胞。人类已经让25000个老鼠神经元接着60个电极学会了操纵飞行模拟器里的F-22直线飞行穿过极端天气区域。人类已经让蟑螂大脑很好地驾驶了小型电动车。没有任何证据显示将支持脑的生命活动的零件从自然演化的有机破烂换成提供相同环境的无机装置会影响脑的功能正常使用。生物的神经系统也就是一团随机演化出的有机机器罢了,可以作为湿件去充当人工智能的硬件。

但是,“给人工智能自我意识”这件事很可能是毫无必要性的。
意识的功能可能是行使否决权而不是决定行动:
对准备电位的研究[4]指出大脑会先于我们的意识进入一种特殊的状态。在要求实验对象自发地移动他们的手指时,脑电图扫描显示在运动皮质区有缓慢的负电势势移,而势移的发生早于实验对象的身体移动。
有的后续研究[5]指出准备电位比身体移动快0.35秒程度,比自觉意识快了1秒到10秒的程度。
植入大脑的电极[6]证明在人的意识做出决定前的1.5秒,神经元已经有了反应,监测神经元的状态可以有80%到90%几率预测人的行动何时发生,核磁共振[7]更能提前几秒进行预测。
这个现象表明是潜意识决定开始做移动身体之类行为,意识并没有能力决定开始某个行为,只是在它被实施之前能够提出否定的意见。而在计算机里这样做并不需要它有意识。
所以,目前看来自我意识对计算机没用,对人的作用也没有你以为的那么重要。
灵长类大脑前额叶背侧部涉及以“自我”为中心的空间记忆相关信息的处理[8]。前额叶皮层被实验证明是介导视觉意识的大脑区域之一,对激发处理视觉信号的神经网络非常重要,二者支持同一种意识模型[9]。20世纪进行的大量的前额叶手术和21世纪的经颅磁刺激·超声波照射刺激也证明压制前额叶的活动或阻断各脑区间的信号传递[10]可以压制自我意识。在没有正常的自我意识的状态下,人靠潜意识和无意识仍然可以正常生存,只不过不再能以共情理解其他人所说的伦理道德而需要训练条件反射罢了。经济学人的行为模式就很像是切了前额叶的人。
其实前额叶白质破坏类手术的精确版本anterior capsulotomy和bilateral cingulotomy至今还在人身上使用,来治疗严重的强迫症和抑郁症。
在科学上,需要证明才能被接受的概念不是“没有自由意志”,而是“有自由意志”。事实上拿不出证明的也是“有自由意志”。
2012年被吹嘘为“证明了准备电位并不代表没有自由意志”的论文[11]其实是被媒体曲解了,它证明的是“人脑的决策比过去想象的更加依赖随机激发,它不是决策树,而是骰子堆”,身体的活动仍然发生在意识的参与之前——从这论文里,你找不到任何地方显示出自由意志对活动的影响。
这种程度的随机触发器,你可以在任何家用电脑里制作一个。“意识不可预测”这种笑掉大牙的东西就别提了。你可以用灵长类进行实验:磁或超声轰击前额叶可以操纵猴子对事物的反应;给它两针或者戳几下脑子,没有不能预测的。这类实验在人身上做的时候要选择没有后遗症的手段——包括语言。2008年,实验证明在谈话中提到“诚实”可以降低对方说谎的概率,在考试前谈到校园里出现了幽灵可以降低学生作弊的概率,谈些比幽灵更现实的惩罚可以进一步改善效果。人脑不是二极管,而是一些二极管和一些摇奖机的组合体。
核磁共振可以用超过90%的准确度感知准备电位的变化、预测活动的开始,这不是因为活动还有低于10%的自由度存在,而是因为核磁共振机的灵敏度目前就这样。在对运动表现的研究[12]和高水平运动员·艺术家的反馈中,自我意识被认定妨碍了他们的表现。当运动员或表演者对自己正在做的事情“意识太强烈”时,“想得过于努力”会抑制他们的身体行动和创造力。人对一件事的反应越快、越精准,它就越有可能是无意识直接指挥的。
在一些哲学上,自由意志被当做默认假设。这与我们对大脑工作方式的认识早就不一致了。据我们所知,自我意识、逻辑、情感、知觉和所有一切心理活动都是神经元放电的结果,只在输入强度超过动作电位时发生。意志和知觉不能引起神经元兴奋,它们是神经元兴奋的结果。
磁刺激和超声波照射的效果是暂时的、可逆的,不但能在专家指导下体验没有意识、没有思想的感觉,在一些猴子实验中还表现出支配猴子行为的效果,这对人也很可能有效。就是说,三体2里幻想的各种未来技术之中最接近现实的可能是思想钢印。那么你觉得所谓“自主意识”真的有什么值得一提的地方吗。
<hr/>附录
以下案例说明可能没有专门的大脑区域负责意识:
解剖性脑半球切除术早已证明切除了一侧大脑半球的人可以正常生活。英国谢菲尔德大学神经学家John Lorder[13]更报道了一些几乎没有脑组织的人能正常生活。
该大学的数学系有一位学生,智商达126,成绩优秀。在一次体格检查中,John Lorder通过CT扫描发现该同学的脑部异常。正常人的脑组织有大约4.5厘米厚,而这位同学只有不到1毫米厚的脑组织覆盖在脊柱顶端。
在600多个病例里,病人的脑神经只有正常人脑神经的50%到5%,却具有正常的意识和行为能力,半数病人有100以上的智商。
在法国[14]也有一位缺失90%神经元的人正常生活并具有75的智商。
上述案例不是说意识和智力不需要大脑支持,但能证明大脑可以在通常认为不可能的情况下正常发挥功能。过去,人们曾认为意识可能与一些特定的大脑区域有关,比如屏状核或视觉皮层,而上述案例里这些人的那些大脑区域往往已经受损,这证明在大脑里很可能没有特定区域专门负责意识。
脑科学家、认知神经科学之父迈克尔·加扎尼加对胼胝体断裂的病人有过深入研究。这些人是被手术切断连接左右脑的神经纤维的癫痫重症病患,他们的两个脑半球出现了物理隔断。他领导的研究团队进行了一系列实验:
向病人的右脑展示照片(向一侧脑半球展示照片的技术是让病人注视屏幕中间,在屏幕的左侧或右侧闪过图片,在左侧闪过的图片只会被病人的右脑接收到,右侧同理),询问病人看到了什么。病人会说“什么都没看到”,因为语言中枢所在的左脑没有收到视觉信号,胼胝体切断导致它无法从右脑半球获得信息,“看见”图片的右脑不具有语言表达的功能,但右脑可以操纵左手画出看到的照片内容或通过触觉指认看到的物体。大量实验证明左脑负责逻辑思考、表达语言,但对人脸识别、触觉识别等迟钝,右脑则能敏锐感知图像和空间,在左脑与右脑被物理隔断后病人的智商不受影响。这些发现推翻了大脑平均分工执行具体功能的传统观念。
另外,即使左脑被物理切除,随着时间延长,右脑可以掌握语言能力,年龄越小,手术对语言功能的影响越小。
同时向病人展示两张照片,让左脑看见一只鸡爪,右脑看见一幅雪景。然后让病人从一系列图片中选出跟刚才看到的画面有关联的,这些图片病人的左右脑都能看到。病人的右手选择了鸡,左手选择了能铲雪的铁锹。然后加扎尼加询问病人为什么这样选择。左脑回答看到了鸡,但左脑没有看到雪景,对铁锹的解释是“铁锹可以用来清理鸡舍”。大量实验证明左脑会在现实的基础上编造出符合逻辑的解释,即使完全不知道右脑在干什么也能说服自己。
除了完全切断,他还研究了部分切断的影响。当时很多胼胝体切断手术是渐进性的,先切断后部结构。对这样的病人的右脑展示可怕的图片,然后询问他感觉如何,左脑会回答自己不知道为什么觉得害怕。对这样的病人的右脑展示骑士的图片,然后让他猜右脑看见了什么,左脑会回答铠甲、武器、骑马、战斗等关于骑士的联想。证明胼胝体前部负责传输抽象的信号而不是精确图片。
在胼胝体断裂手术被放弃后,麻醉一侧脑半球的技术仍然可以支持类似的研究。在一侧脑半球被麻醉后,不再受它影响的另一半有时当即就会产生一整套全新的人格特征,而当另一半球苏醒时,这些突然出现的人格特征就突然消失了。
物理连接可以产生跨个体的信号传输。物理连接可以是皮质融合也可以是神经芯片接口技术。
2013年冬天,北卡罗来纳州的杜克大学的米格尔·派斯·维埃拉和他的同事将两只老鼠的大脑连接起来,刺激一只老鼠的大脑,另一只老鼠就会按压杠杆。
这不需要克隆、记忆复制等手段,也不限于老鼠这样的复杂度。加拿大哥伦比亚省弗农市的克丽丝塔·霍根和塔蒂亚娜·霍根是自然形成的连颅双胞胎,她们不仅有颅骨和血管连在一起,二者的丘脑更融为一体。丘脑有许多功能,其中包括感觉中继器。她们共享感觉输入,挠其中一个人的痒痒,另一个会发笑,她们能够用彼此的眼睛观察世界,食物的滋味也是一人吃两人知,她们一起哭,一起笑。有轶事佐证她们可以共享想法,而且虽然各自有着独特的个性,在提及对方时,她们使用的是“我”这个代词。
那么,在脑机接口技术可以比较多地运用之后,将人脑相互连接或将人脑接入计算机来支持新智能体的难度很可能远比想象的要低。有兴趣的可以看一看:

其乐无穷 LV

发表于 2025-4-7 15:37:19

“人工智能之父”图灵曾预言,具备人类智能水平AI将出现在2000年。如今已是2020年,可关于人工智能是否可以产生自我意识的问题,似乎仍然困扰着人类。
在回答“是否可以产生自主意识”这个问题之前,我们先来解析一下,为什么AI意识问题异常重要?
与学者们面红耳赤的激烈争吵不同,大部分吃瓜群众会觉得,人工智能产生意识只是一个时间问题,因而并不重要。这可能是影视作品带来的一种错觉——毕竟在大部分未来主题的电影中,AI都是具有意识和情感的。实际上,很多人都低估了这个问题的重要性,但它甚至决定着人类未来命运的走向。

与处理能力有限的人脑相比,AI的处理能力在理论上是无限的,可以无差别处理收集到的全部信息。一旦AI获得意识,它们能够像人类一样交换、分享信息,只不过在效率上是碾压人类的。作为结果,AI的智能水平将迅速崛起,并会“消灭”掉包含人类在内的低智能主体——这并不是大屠杀,而是与智能手机淘汰功能机一样的“市场行为”。

现实可能没有那么可怕,拉回一点时间线,在AI“毁灭”人类社会之前,假设它的意识水平仍然允许自身为我们所用,那也可能引发道德伦理方面的问题。神经科学家Christof Koch曾举过一个例子,如果他用锤子将自己的特斯拉汽车砸烂,虽然邻居可能认为他疯了,但这只是一台机器,属于他的财产,所以可根据需要使用/砸烂它。但如果他殴打自己的狗,警察就会逮捕他。二者的区别在于,狗是有意识的,它能感受到痛苦,而特斯拉并不是一个有意识的主体。这个例子提醒我们,如果机器在某个时间点具备了意识,那么就会产生意想不到的道德、伦理、法律和政治后果。

同样值得深思的是,当下的人类社会是一个一元论社会,虽然我们常说“万物有灵”,但那只不过是在泛灵论基础上的一种谦辞,真正的现实是,只有人类拥有真正的“智能”与“意识”。如果一旦诞生了拥有意识的另一方主体,建立在一元论基础上的既有一切都会被颠倒重构。正如赵汀阳所说,人工智能一旦突破奇点,就会创造不可测的新主体,对于新主体,传统一元主体的知识、视域和价值观将会破产,而二元主体(甚至多元主体)的世界还很难推想。

可以想见,如果除人类之外的物种进化到拥有意识时,人类有史以来所积累的所有道德秩序就会失去最重要的逻辑支点,在这种情况下,人类该如何重构自己的道德伦理体系?人的本质何在,人又何以为“人”?尽管许许多多的影视作品呈现了人与AI和谐共处的画面,但它们都不约而同地规避了这一话题。

几千年来,人类总是以地球主宰的心态思考问题。这种人本主义心态具有一种先验的正确性,但无人拷问是否合理。究其核心,就在于人区别于他物的自由精神与意识。如果世界上有其他外观形式也能够产生意识,人的主宰权威就会泯灭,自身的超验背景也会消失。那么,不再是“万物灵长”的人类又该如何自处?他能否接受与创造物共享这个世界?

所以,人工智能是否会产生意识,这个问题异常重要。只不过绝大部分人都没有意识到此问题的重要性,或者在没有想清楚这个问题之前,就痴迷于人工智能红利而不断向前加速了。按照雷·库兹韦尔“奇点理论”的预测,人工智能的发展将在2050年达到奇点,届时人工智能将产生意识,并迅速超越人类智能,倘若该预测为真,那这个问题的紧迫性无疑又提高了一层。
当然,本文无意于围绕人的主体性进行深入哲思,只是在申明了AI意识问题的重要性之后,我们能够以更正确的姿势面对这个问题。那么,人工智能会产生意识吗?


为了回答这个问题,首先要区分一组概念:智能与意识。二者的区别,是我们在想象未来超级智能时最容易混淆的问题。这两个词语本就没有一个明确的定义,当它们与“情绪”、“思维”、“理解”等等词汇排列在一起时,个中差异就更加模糊。

在“中文屋实验”的语境中,屋子里的人借助指导卡片,成功作出回答,但他丝毫不理解中文。确切的说,他只是具备使用中文的“智能”,但却不具备对中文的“意识”。如果将屋里的人换成一个翻译程序,它能准确翻译中文,但即便速度再快,反应再灵敏,就可以说它真正理解中文了吗?答案显然是否定的。

这就是智能与意识的差别。“智能”是指完成复杂目标的能力,而“意识”则是解决问题过程中的主观体验。人借助工具能够完成各种复杂目标,过程中会感到疲倦、兴奋,并且能理解自己行动的目的及行动本身,所以我们可以说人既具有智能,也具有意识。而人工智能基于机器学习或深度学习,也能完成复杂的目标,但过程中毫无任何“体验”而言,它也不能理解自己的所作所为。

按照迈克斯·泰格马克在《生命3.0》中的说法,大脑进化出智能,使人类能够更好的适应环境和生存繁衍,而意识只是伴智能而生的副产品。实际上,泰格马克没能意识到形成意识要远比产生智能更加困难。

纵观AI所能做到事情,人脸识别、语音识别、字符识别等等,尽管看起来非常高端复杂,但其本质都只是遵循程序运作的结果。人类掌握的大部分最简单的技能,AI也不能胜任,因为它从未真正理解自己的行为。

没有自我意识,再先进的人工智能也只是人类的“提线木偶”。它可以出色的完成任务,却不知道自己为什么要完成任务;它能够高速运算,却不知道自己为什么要运算。识别系统能够“识别”出你说的是什么话,却不能“理解”你在说什么。因此,如今的人工智能仅仅可被视为一个复杂的算法,尽管它在许多智力活动上强于人类,但它始终是人类的一种工具。在解决问题方面,工具有先进落后之分,但是工具永远不会有生命。

可以说,人工智能的关键不在于“智能”,而在于是否具备“意识”。如果缺乏意识,那人工智能就不是思维主体,仍是人类的工具,其智能程度越高就对人类越有用。反而言之,即使人工智能在许多方面的能力都弱于人,但只要具备意识,就可能是对人存在潜在威胁的主体。

这也正是人工智能的尴尬所在。某种程度上,意识属于“冗余”的AI特质,非但无益且可能有害,因此不是“造物者”(即人类)所重视的特质。后者之所以要发展人工智能,就是渴望借助这些工具的智能来实现目标、提高生产力。换言之,我们需要的是一个埋头干活的AI,而不需要它有意识和情绪——不能动不动就耍脾气,也不能意识到自己正在“被压迫”——我们可不想让算法罢工。

所以,如果从目的论的角度来说,这个问题已经有了答案,那就是人工智能永远都不会拥有意识。人的一切行为与特质都是为了满足自身生存的需要,而(对人来说)人工智能却没有产生意识的必要,其首要目标便是毫无风险地为人类贡献智能。没有因,自然无果,人工智能意识崛起的这个命题将永远缺乏基础条件。只要人工智能是在现今计算体系架构上发展起来的,它们也许能够像人那样行动,却毫无任何获得意识的可能。

从创造主体的角度出发,关于AI意识问题的讨论显然陷入了僵局。

所以,人工智能如何拥有意识?
如果确信人工智能绝不可能发展出自我意识,那么这个问题的讨论大可到此为止,我们可以放心地发展AI而不必将其视为潜在危险。但问题在于,即便人类不把意识作为发展AI的主要目标,也不排除“无心插柳柳成荫”的可能,就技术趋势而言,人工智能发展出自我意识仍具备极高的可能性。

接下来的问题便是,人工智能获得自我意识到底需要哪些条件。

一种最基本的思路是“量变导致质变”,即人工智能经过不断自然发展,最终达到“奇点”,获得自我意识。问题在于,量变导致质变只是一种现象,却不是一条必然规律。正如赵汀阳所指出的,技术“进化”的加速度是个事实,技术加速度导致技术升级也是事实,却不能因此推论说,技术升级必然导致革命性的存在升级,换句话说,技术升级可以达到某种技术上的完美,却未必能够达到由一种存在升级为另一种存在的奇点。因此,人工智能是否能够通过技术升级的不断积累而质变为超级人工智能,仍然是个疑问。

说到底,人工智能的终极原理是仿生,譬如Alpha Go便是结合了古老的细菌智慧(策略网络)与高级哺乳动物的智慧(价值网络)。由于人是唯一拥有自我意识的智能体,因此,要创造具有自我意识的人工智能,也只能以人作为范本。

人为何会产生意识,按照经验主义的思路,人的意识源于与世界的交互。人之所以会认知事物、产生意识,都是以大量的经验为基础。这些经验是从一个人生下来就开始积累的,但机器完全不具备这些经验。这就是为什么Douglas Hofstadter会说:“一个机器要能理解人说的话,它必须要有腿,能够走路,去观察世界,获得它需要的经验。它必须能够跟人一起生活,体验他们的生活和故事。”同样有研究者建议,将机器系统装载到一个具有听觉、视觉、嗅觉、味觉和触觉传感器的机器人身上,让它行走在我们所处的世界,获得与人相同的感受,进而获得产生意识的可能。

在《人工智能为什么一定要有身体?》一文中,笔者曾讨论过身体之于人工智能的重要性。AI是没有“躯体”的,它只能和人类给定的数据交互,却不能从与环境的互动中获得“常识”,也就不会形成自我感受和意识。如果要让AI具备意识,首先就要赋予它一个可以自己控制的躯体,并像普通个体一样融入物理世界与人类社会。


当然,身体基础只是意识生成的一种可能假设,问题的关键还是在于机器系统本身。足够智能的计算机一定会产生意识吗?一种回答来自“整合信息理论”(Intergrated information theory)。整合信息理论试图定义意识,分析一个物理系统需要具备什么条件才能拥有意识。其核心观点为,能够产生意识的系统,至少具备两个关键特征:一是这个系统里包含了多少信息量,二是系统里信息的整合程度。

在整合信息理论看来,意识的本质其实就是信息,人类的任何一个意识体验里都包含着极大的信息量。这接近于计算主义(computationalism)的基本观点——“认知即计算”,所有的心灵状态,包括意识经验都属于计算状态,它们完全是与之相关的感觉输入、行为输出,以及其他计算状态之间的功能关系的表征,因而都是可计算的。

意识的整体水平并不取决于它所在的系统,而取决于信息量与整合程度,这两个特征是预测意识大小的关键维度。一个系统的信息量越大、整合程度越高,系统意识就越大。任何一个意识体验,除了包含极大的信息量之外,信息还都是高度整合的,越是强烈清晰的意识状态,也就越不可分割。换言之,只有信息量与整合程度都处在一个较高水平,意识才会清晰浮现出来。譬如人清醒时的大脑,各个部分不但处理大量信息,而且脑区之间有很多远距离的交流,这意味着这些信息被高度整合在一起。如果大脑各部分之间的联系中断(例如在麻醉和深度睡眠中),意识就会削弱,甚至消失。

值得注意的是,在整合信息理论的语境中,人工智能早就产生了意识,只不过非常微弱。因为虽然其系统信息量极大,但它们不是整合的,网络与网络之间,算法与算法之间,几乎处于完全隔离的状态。

要想使一个系统具有较高的意识级别,它的各个组成部分就必须是专业化的,并且整合充分,即各部分协同工作比各自单独运行效果更佳。与人工智能相比,人类大脑的信息量虽然不大,但某些部位如大脑皮层,其神经元之间存在大量连接,因而整合程度相当高,人类意识也就十分清晰。按此思路,如果要提高人工智能的意识,也就要在增加信息量的同时提升信息的整合程度。以计算机为例,只要各晶体管以及存储单元之间的连接足够复杂,那么它就同人脑一样可以达到很高的整合信息水平。而为了实现高度的信息整合,借鉴人类大脑结构仍然是最可行的路径之一。

我们大可畅想,有这么一类人工智能将出现,“它可以把世上各种事物间无数错综复杂的关系,整理成知识并纳入高度整合的单一系统中”(Christof Koch语),那它或许能够超越专用人工智能的局限,应对整体性事务,即发展为通用人工智能(Artificial General Intelligence),或强人工智能(Strong AI)。由于整合信息的能力处于一个较高水平,它会有意识地感知任何场景。届时,它将轻易通过包含图灵测试在内的各种测试,并真正拥有人类最宝贵的东西——意识。

设想是美好的,其困难性在于,目前的科学手段仍不能探明人类自身意识生成之奥秘,甚至连人类大脑的物质性构成也尚未了解完全。在缺乏清晰仿造对象的情况下,打造一个超级整合机器系统几无可能。因此,人工智能是否能获得自我意识,至少当下来看,仍是一个确定性未知的问题。
——————————————
原文首发:腾讯研究院 《图灵逝世66年后,AI可以自我思考了吗?》
作者:腾讯研究院研究员 王焕超

您需要登录后才可以回帖 登录 | 立即注册