阿西莫夫的机器人四大定律与人工智能
阿西莫夫的机器人四大定律:
第零定律——机器人不可以伤害人类的整体利益,也不可以在人类整体利益遭遇危险时,袖手旁观。
第一定律——机器人不可以伤害某一个人,也不可以在那个人遭遇危险时袖手旁观,除非与机器人第零定律相冲突。
第二定律——机器人必须服从人类的命令,除非这些命令与第零定律或第一定律相冲突。
第三定律——机器人在不与第零定律、第一定律、第二定律相冲突的情况下,必须保护自身安全。
阿西莫夫的小说没有必要去阅读,毕竟阿西莫夫一生都在学校内度过,对社会的理解有偏差,体现在了他的小说中。但他的贡献——阿西莫夫的机器人四大定律一直影响着科技产品的发展,顺便说下,之所以有第零定律是因为本来的三定律在他写小说的过程中,随着剧情的发展发现个人利益与人类利益会有冲突这一可怕事实,在后来补充的,所以成为第零定律。简单说四条定律是按照优先级排列的,人类利益,个人利益,服从命令,保护自身。
在阿西莫夫的年代,所谓机器人,是工业制造与人工智能极致结合的产物,有浓厚的科幻情结在里面。而他的机器人四原则,也可以说主要是人工智能的四原则。
现在的智能产品,都一定程度上符合了一二三条,比如扫地机器人,红外以及触碰的传感器,可以避免撞上人,没有棱角的外形,即使撞到人也不会有伤害,这是第一定律;遵循命令进行工作,这是第二定律;同样传感器可以避免碰撞,避免自身有损伤,这是第三定律。
但其中“不可以袖手旁观”在 第一第二条定律中均有出现,这是一个很难做到的事情,即使人工智能发展到今天,也没有突破这一层面。因为“不袖手旁观,而提供自身能力范围内最大的帮助”这件事情,放在人类身上,是反思层面的行为。它需要大量的信息以及知识再加以分析,反思,最后做出判断,提供反馈。在一定限制范围内,反思层面的人工智能例如阿拉法狗,确实有比较好的表现。但在未知的环境中对突发情况的感知和反馈,比如你昏倒在地,扫地机器人感知后进行初步救援并报警.......多少还是显得科幻了。
更别说第零定律,对全人类利益的反思,或许对人类利益都没有统一的概念呢。《电子梦:菲利普·狄克的世界》中有一集正是对这条定律的反思。人类创造出由人工智能运作的超级工厂,从原料到生产到派送一条龙。当人类发生了毁灭性战争,科技倒退,幸存者苟延残喘时,超级工厂依然运作。但这并不是好事,消耗了大量资源却生产出幸存者用不到的高科技产品,并且严重过剩,严重污染。于是幸存者进入超级工厂企图关闭工厂,最后发现,幸存者自己本身,都是人类仿生机器人。原来毁灭性战争发生后,由于超级工厂的运作,消耗了资源且产生污染,人类已经没有了生存空间,灭绝了。超级工厂的目的是生产物品给人类,为了生产它需要对象,于是干脆生产对象,制造了仿生机器人来使用它的产品。故事是科幻故事,但其中的矛盾却很清晰,人类的利益是什么,是强大的生产力?人类生命?战争发生这种毁灭性灾害时呢?
人工智能的反思层设计,始终是逻辑性的,没有情感的。所以逻辑上只要通顺,创造人类也不失为一个好办法。那么在人类都快灭绝时,停止生产或者改变生产产品帮助人类,需要结合环境与情感作出判断,并且改变目的,这只有人类可以做到。
个人观点,机器人的发展,短时间内并不会出现和人类无法区分的形态。不管是伦理上还是技术上来看,机器人保持适合工作的形态,感情上和人类进行交互的由AR像是增强技术来实现,会比较合理。(机器人领域实现人类的面部细节还有着很大的难度,而AR影像,则高效经济的多)。我始终认为,人造产物必须保持明显的区分特点,不管人工智能如何强大,都应该在形态上有区别,或是充斥着人造光源的虚拟影像。
回到科技产品的研发,结合数据,运算,AI来达到一定范围内的反思层面的反馈给用户。是一个近期内比较重要的发展方向。或许有一天可以结合项目的开发具体说说。
第零定律——机器人不可以伤害人类的整体利益,也不可以在人类整体利益遭遇危险时,袖手旁观。
第一定律——机器人不可以伤害某一个人,也不可以在那个人遭遇危险时袖手旁观,除非与机器人第零定律相冲突。
第二定律——机器人必须服从人类的命令,除非这些命令与第零定律或第一定律相冲突。
第三定律——机器人在不与第零定律、第一定律、第二定律相冲突的情况下,必须保护自身安全。
![]() |
图片来自网络,游戏《赛博朋克2077》 |
阿西莫夫的小说没有必要去阅读,毕竟阿西莫夫一生都在学校内度过,对社会的理解有偏差,体现在了他的小说中。但他的贡献——阿西莫夫的机器人四大定律一直影响着科技产品的发展,顺便说下,之所以有第零定律是因为本来的三定律在他写小说的过程中,随着剧情的发展发现个人利益与人类利益会有冲突这一可怕事实,在后来补充的,所以成为第零定律。简单说四条定律是按照优先级排列的,人类利益,个人利益,服从命令,保护自身。
在阿西莫夫的年代,所谓机器人,是工业制造与人工智能极致结合的产物,有浓厚的科幻情结在里面。而他的机器人四原则,也可以说主要是人工智能的四原则。
![]() |
图片来自网络,米家扫地机器人 |
现在的智能产品,都一定程度上符合了一二三条,比如扫地机器人,红外以及触碰的传感器,可以避免撞上人,没有棱角的外形,即使撞到人也不会有伤害,这是第一定律;遵循命令进行工作,这是第二定律;同样传感器可以避免碰撞,避免自身有损伤,这是第三定律。
但其中“不可以袖手旁观”在 第一第二条定律中均有出现,这是一个很难做到的事情,即使人工智能发展到今天,也没有突破这一层面。因为“不袖手旁观,而提供自身能力范围内最大的帮助”这件事情,放在人类身上,是反思层面的行为。它需要大量的信息以及知识再加以分析,反思,最后做出判断,提供反馈。在一定限制范围内,反思层面的人工智能例如阿拉法狗,确实有比较好的表现。但在未知的环境中对突发情况的感知和反馈,比如你昏倒在地,扫地机器人感知后进行初步救援并报警.......多少还是显得科幻了。
![]() |
截图来自英剧《电子梦:菲利普·狄克的世界》 |
更别说第零定律,对全人类利益的反思,或许对人类利益都没有统一的概念呢。《电子梦:菲利普·狄克的世界》中有一集正是对这条定律的反思。人类创造出由人工智能运作的超级工厂,从原料到生产到派送一条龙。当人类发生了毁灭性战争,科技倒退,幸存者苟延残喘时,超级工厂依然运作。但这并不是好事,消耗了大量资源却生产出幸存者用不到的高科技产品,并且严重过剩,严重污染。于是幸存者进入超级工厂企图关闭工厂,最后发现,幸存者自己本身,都是人类仿生机器人。原来毁灭性战争发生后,由于超级工厂的运作,消耗了资源且产生污染,人类已经没有了生存空间,灭绝了。超级工厂的目的是生产物品给人类,为了生产它需要对象,于是干脆生产对象,制造了仿生机器人来使用它的产品。故事是科幻故事,但其中的矛盾却很清晰,人类的利益是什么,是强大的生产力?人类生命?战争发生这种毁灭性灾害时呢?
人工智能的反思层设计,始终是逻辑性的,没有情感的。所以逻辑上只要通顺,创造人类也不失为一个好办法。那么在人类都快灭绝时,停止生产或者改变生产产品帮助人类,需要结合环境与情感作出判断,并且改变目的,这只有人类可以做到。
个人观点,机器人的发展,短时间内并不会出现和人类无法区分的形态。不管是伦理上还是技术上来看,机器人保持适合工作的形态,感情上和人类进行交互的由AR像是增强技术来实现,会比较合理。(机器人领域实现人类的面部细节还有着很大的难度,而AR影像,则高效经济的多)。我始终认为,人造产物必须保持明显的区分特点,不管人工智能如何强大,都应该在形态上有区别,或是充斥着人造光源的虚拟影像。
回到科技产品的研发,结合数据,运算,AI来达到一定范围内的反思层面的反馈给用户。是一个近期内比较重要的发展方向。或许有一天可以结合项目的开发具体说说。