关于未来的一些观点
1. Trump代表对于西方过度政治正确的一种纠正,过度政治正确会害了西方社会(当然出现在东方也是危害),这种危害逐步腐蚀西方过去几百年的积累,并且在现在已经开始成为西方不能承受之重。
假如Trump当选,强大的政治集团和金融财团利益意味着他未必能大力实施他的政治演说。
2. 美国收缩战线,从西太平洋逐步退出,恢复部分孤立主义政策,是美国实力下降的必然选择。冷战结束后二三十年的唯一超级大国地位,是不可维持的。
但是,很可能也意味着,在可见的未来,这个世纪以内,将不会再有具有统治性的超级大国的出现。中国是最可能的挑战者,但是人口结构老化的负面影响需要七十年以上的时间进行消化,内部的其他消耗因素也会越来越严重,它可能会在实力上超越美国,但不会具有压倒性。
至于美国本身,十几年前上高中时看杂志说世纪中期欧洲后裔会下降到不足一半的比例,现在看起来这个过程比这个预计要快好多年。美国人口结构会比中国年轻,但是这个族群变化会对美国产生负面影响(不要政治正确)。
3.人类文明越发达,也就越脆弱。最根本的弱点在于人的生物性,无论这种根本性弱点怎样被文艺或学术作品加以修饰美化。我认为,人类整体被人工智能取代,或者主动进行基因改造,有很大可能至少出现一种。无论哪种,都意味着我们这种人类的灭亡。进化的结果可能是人类被进化掉,碳基生命被硅基生命取代。
如果幸运的话,出生在二十世纪末的我们,能在晚年享有高度的人工智能服务,子女的照顾作用被完全取代,或者不幸的话,人工智能发展速度远快于此,我们会目睹自己的灭亡。
4.上述假设不会出现的最大两种可能:第一,技术上的不可行。当然反面是人工智能也许升级两代就能开始构成明显威胁,而两代也许只是二十年;第二,全面的毁灭性战争导致人类社会的全面退步,导致绝大部分人死亡,大部分陆地成为无人区,难以组织大规模社会生产,因此很难实现人工智能的大规模升级,这种可能其实更糟。
全面的毁灭性战争幸存下来的小规模社会,很可能在社会思想上出现全面退步,变得极度封闭和保守。
全面核战的可能其实不大,不过恐怖分子开始拥有制造小型核弹的能力,也许不会太久。
恐怖主义是比国家对抗严重的多的威胁。
5.如果想有未来,国家的消灭人类实现一体化,宗教的彻底瓦解和消失,是必须要实现的。
想想人类社会每年的军费足够把二十亿人从贫困中解脱出来。
6.我们的物质实体决定我们的偏好,可以说对价值观起着主导作用。欲望有种种不堪,不过没了欲望的驱动人类恐怕也会在精神层面上彻底瓦解崩溃。那么很有意思的一点就是,如果人工智能实现了智慧,那缺少欲望的他们如何维持下去?声色犬马也罢,性的快乐也罢,都是人在自问“我是谁”而不得解时让其还能存活的根本。当人工智能问“我是谁”时,又有什么能够支撑它们不会崩溃呢?
补充:
7.人类内部的龌龊和矛盾,会使人类本身轻视人工智能的威胁可能。甚至有一天人工智能的巨大潜力开始兑现时,部分人类为了取得对其他同类的优势,还会利用和促进人工智能的进一步进化。
假如Trump当选,强大的政治集团和金融财团利益意味着他未必能大力实施他的政治演说。
2. 美国收缩战线,从西太平洋逐步退出,恢复部分孤立主义政策,是美国实力下降的必然选择。冷战结束后二三十年的唯一超级大国地位,是不可维持的。
但是,很可能也意味着,在可见的未来,这个世纪以内,将不会再有具有统治性的超级大国的出现。中国是最可能的挑战者,但是人口结构老化的负面影响需要七十年以上的时间进行消化,内部的其他消耗因素也会越来越严重,它可能会在实力上超越美国,但不会具有压倒性。
至于美国本身,十几年前上高中时看杂志说世纪中期欧洲后裔会下降到不足一半的比例,现在看起来这个过程比这个预计要快好多年。美国人口结构会比中国年轻,但是这个族群变化会对美国产生负面影响(不要政治正确)。
3.人类文明越发达,也就越脆弱。最根本的弱点在于人的生物性,无论这种根本性弱点怎样被文艺或学术作品加以修饰美化。我认为,人类整体被人工智能取代,或者主动进行基因改造,有很大可能至少出现一种。无论哪种,都意味着我们这种人类的灭亡。进化的结果可能是人类被进化掉,碳基生命被硅基生命取代。
如果幸运的话,出生在二十世纪末的我们,能在晚年享有高度的人工智能服务,子女的照顾作用被完全取代,或者不幸的话,人工智能发展速度远快于此,我们会目睹自己的灭亡。
4.上述假设不会出现的最大两种可能:第一,技术上的不可行。当然反面是人工智能也许升级两代就能开始构成明显威胁,而两代也许只是二十年;第二,全面的毁灭性战争导致人类社会的全面退步,导致绝大部分人死亡,大部分陆地成为无人区,难以组织大规模社会生产,因此很难实现人工智能的大规模升级,这种可能其实更糟。
全面的毁灭性战争幸存下来的小规模社会,很可能在社会思想上出现全面退步,变得极度封闭和保守。
全面核战的可能其实不大,不过恐怖分子开始拥有制造小型核弹的能力,也许不会太久。
恐怖主义是比国家对抗严重的多的威胁。
5.如果想有未来,国家的消灭人类实现一体化,宗教的彻底瓦解和消失,是必须要实现的。
想想人类社会每年的军费足够把二十亿人从贫困中解脱出来。
6.我们的物质实体决定我们的偏好,可以说对价值观起着主导作用。欲望有种种不堪,不过没了欲望的驱动人类恐怕也会在精神层面上彻底瓦解崩溃。那么很有意思的一点就是,如果人工智能实现了智慧,那缺少欲望的他们如何维持下去?声色犬马也罢,性的快乐也罢,都是人在自问“我是谁”而不得解时让其还能存活的根本。当人工智能问“我是谁”时,又有什么能够支撑它们不会崩溃呢?
补充:
7.人类内部的龌龊和矛盾,会使人类本身轻视人工智能的威胁可能。甚至有一天人工智能的巨大潜力开始兑现时,部分人类为了取得对其他同类的优势,还会利用和促进人工智能的进一步进化。
还没人转发这篇日记