关于人工智能的哲学思考
前言
因为《西方哲学史》的录屏阅读起来实在困难,我没能读完。但是作为替代,我结合最近看的两本书,并且蹭一下人工智能的热点,来分享一个关于人工智能的哲学思考。
《星之继承者》:来自未来的启示

这是我最近看完一的一部三册的小说,此书是 James Hogan 首次出版于 1977 年的一本科幻小说,2021 年国内出版。虽然其完成的年代久远,但是其中涉及到的硬核技术,包括基因技术、故事的最后一段是这样写的:
但是这场战争真正的英雄,是任何地方的任何人或是任何事物都不能替代的,这就是维萨。凯拉赞同意让維萨接管尤坦星,全权管理这颗行星,享受它独立做主的喜悦。在此过程中,它可以以自己的方式,按照自己的设计,更进一步自由发展自己的智能。但维萨与其创造者的关系不会被打破。在今后的数年乃至若干世纪里,向银河系的扩张将会证明,人类与伽星人的联盟、有机体与无机体的联盟、本能与能力的联盟,将会是所向披靡的组合,这是已经经过实践验证的。
其中维萨是一颗叫做苏利恩的星球的智能计算机,凯拉赞是这个星球的领袖。在消除了来自另外一颗叫做尤坦的星球的危机之后,它将接管那颗星球。那个时代碳基的人类和伽星人,以及可以掌控整个星球的计算机成为宇宙生命活动的主宰。强大无比的智能计算机,仍然是其创造者也就是有机生命的工具,回看我们当下的语言大模型 ChatGPT,毫无疑问正在变得愈发强大,虽然他会继续深刻的影响人类社会,但是我相信他们永远无法取代人类。
回答这个问题我们需要通过对这个问题的哲学思考来探究问题的本质。
《人类的终极命运》: 从哲学的角度

这本书写于 2015 年,那个时候还没有 ChatGPT,作者从文学,哲学和计算机科学三个方面探索了人工智能。以下是关于哲学的部份观点。
维特根斯坦在他的著作《逻辑哲学论》中希望如何净化语言。在那本书中,这位20 世纪最伟大的哲学家试图构建一种完美的逻辑语言,他假定意义必须是客观的,就像物理世界中的事物一样,像是科学家在实验室研究的东西一样。像是原子理论家,他也假定存在〝逻辑原子”,一种完美意义的片段,纯净而客观,可以用来构建绝不可能误解的命题。一定存在唯一的真理。维特根斯坦无比热衷于此,他全情投入以保证罗素和怀特海关于逻辑学基础的伟大发现能够确立。他逐行检查他们的《数学原理》,提出的修正让这本书在逻辑上无懈可击,不会再有矛盾或者悖论。从第一原理出发,依据逻辑的准则,一切都可以推理出来。然而,哥德尔用不完备性定理击碎了《数学原理》 在他之后,所有认为逻辑是通向真理坚固道路的想法都破灭了。这是逻辑学、科学与哲学的转折点,促使维特根斯坦重新思考他最初的目标。维特根斯坦最后的著作在身后出版,名为《哲学研究》‘在这本书中,他背离了《逻辑哲学论》,他放弃了寻觅“哲学原子”这种意义的基本单元。然而他依然坚持最基本的哲学问题来自语言引发的概念混滑,例如我们关于心智的思想以及是否能在机器中制造心智,但他现在持有完全不同的方法。他认为任何词语的意义并不是来自定义,而是来自对词语的使用,对词语来说要达到一个可理解的定义是极为困难的。实际上,不可能设计一个规则来对任何事物得出无可争辦的定义。语言只不过是“游戏”,输赢、生死等对于比赛来说意义不大。每一个意义的例子都有自己的规则。换言之,不像《逻辑哲学论》 希望的那样,意义无法通过“形式逻辑系统”获取。维特根斯坦进一步承认我们不需要先有一个精确的词语定义就可以使用它。意义来自对语言的使用,因此也就不可能脱离词语而定义意义。维特根斯坦进一步推论,意义只是语言的使用者之间的社会构建。这一惊人的观点被人工智能研究的发现完美反映。尽管我们可以编程一合计算机,让它处理信息,具有自动化的行为,我们却无法为计算机编程让它理解意义。这种理解的缺失对于维特根斯坦来说永远无法避免。计算机将永远不能理解我们使用的语言的意义(即便是它们自己使用自然语言交流时也无法理解其意义)。这是因为计算机是利用形式语言编码的。这让计算机语言和我们人类用于交流的自然语言迥然不同。计算机程序员必须先验地定义事物才能开始处理信息。如同维特根斯坦指出的,我们则不需要事先定义就可以有意义地使用我们的语言。
维萨与其创造者的关系不会被打破
人工智能当前的主要是手段是算法,虽然这远不是人工智能的全部。算法的简单理解是依赖输入和规则给出确定性的输入得到确定性的输出,其实更准确地说,这是运算,并不是智能。但是有的时候复杂的算法结合计算机的快速处理会给人带来错觉运行了算法的计算机比人更聪明,比如使用图论的数学工具解决邮差问题。这里无论是图论还是计算机,他们都是人类发明的工具,就像我们发明的轮子一样,这个发现的过程用到了人类的智能,但是这个发明或者发现的结果并不是智能。同样的,电子辞典的功能也并不是人工智能,那只不过是通过查询一个数据库基于给一定的对应关系得到答案。
ChatGPT 作为一个大模型的应用刷新了人们对人工智能的认知。尤其是其在自然语言的问答方面的应用给人以错觉具备了人的智能。大模型可以学习所有人类的知识,这是碳基的生物依靠生物化学反应进行一切活动的方式所无法企及的,然而这并不意味着AI 就具备人类同等的智力。
无论多大的模型都是基于知识的,所有的算发都需要学习,一个空白的硬盘或者存储器无论其结构再复杂精妙也不会凭空产生知识和答案。然而人类智能的不同在于人类的创造力绝不仅仅依赖于学习。交流电机的发明人尼古拉 ·特斯拉在他的自传中说他的发明在实现之前的所有精妙的细节都能以清晰的图像呈现在大脑中,这从无到有的过程是无法通过大模型的产生的;艺术的领域也是如此,《尼伯龙根的指环》的创作者,剧作家瓦格纳在他的自传中也说在他动手写乐谱的时候他已经掌握了所有细节,只不过是把他们写下来而已。这种从无到有的过程依赖的是心智,并不依赖于任何知识,也不依赖于推理。比尔盖茨对巴菲特解释人工智能的时候说,ChatGPT现在还不具备幽默感,本质上这是在判断人工智能是否真正具备人类的智能水平。
大模型利用现有知识可以跟人进行对话,写出通顺完美的短文,但只不过是掌握了相关的信息并且是用正确的语法的逻辑关系描述出来而已。这个突破在于其生成式的功能,这的确跟人的语言功能很相似,但是本质仍然是基于规则的,所谓的 Transformer 模型无非是更大规模的神经网络,仍然是基于学习的。事实上,人类智力之复杂即使是人类自己都还没有充分了解,而且可能永远无法解释。哥德尔的不完备定理并不是一个数学或者逻辑学的结论,而是告诉我们,我们作为具有智能的本体自身,却很可能永远无法完全认识自己的全部。而对于 AI,这个人类创造之物,我们理解它的一切,从这个角度而言,AI永远是更加低级的存在。它可能会改变人类社会和个体,影响人们的的生活,甚至飞跃发展,也可能带来灾难。但是正如《星之继承者》中最后所说的那样:“维萨与其创造者的关系不会被打破。” ,我们更需要担心的不是被AI奴役,而是要担心AI背后的控制者。