以伦理为界:谁才是人机关系中的主导者?
(社会科学报 2017-11-30 1585期 )
今年7月,国务院印发了《新一代人工智能发展规划》,作为国际竞争新焦点、经济发展新引擎的人工智能,在当时引发了各领域关注者的讨论,福祉还是挑战,自控还是他控等等涉及政治、经济、文化、教育、伦理各方面的争议言犹在耳。本月15号,从规划到实施,科技部召开新一代人工智能发展规划暨重大科技项目启动会,在自动驾驶、城市大脑、医疗影像、智能语言四个领域开放创新平台,正式实施新一代人工智能战略。当科幻小说内容变成真实生活,公共领域的关注点也发生了微妙的变化,在科技高速发展的表面事实下,对伦理和社会意识的担忧逐渐为人们重视。
人类对高科技的向往与恐惧是共生的。从基本生活到休闲娱乐,从旅游出行到金融医疗,从传统交通到无人驾驶,这样的列举可以写上数十种,它们都明确地指向同一点:在人工智能概念首次提出60年之后,人类真的进入人工智能时代了。伴随AI和机器人的迅猛发展,挑战应运而生。传统的朴素伦理学信念,是以人类为中心建构的,而“为了人和人类利益”发展出的人工智能,却无端地制造出一种“人类的终结”的恐惧。基于大数据、统计学和数字计算法则建立的AI原则,能否在生活的方方面面做出合理的判断?或者说,在一个真实的有情天地中,机器人,真的能保障人类未来的利益和安全,而不是挑战人类社会的秩序从而主导我们的生活吗?
很多人可能不会想到,对人工智能的隐忧,发生在实体机器人产生之前。著名的科幻小说家阿西莫夫在上世纪四十年代提出“机器人学三大法则”,定律一要求机器人不得伤害人类个体,不能在个体遭受危险时袖手旁观;定律二要求机器人必须服从人的命令,除非与第一定律冲突;定律三要求机器人在不违背一、二原则下尽可能保护自己的生存。显而易见,这三条法则是以人为中心设定的。阿西莫夫可能没有预料到,一个世纪还没结束,机器人已经发展到拥有自我意识等高级人工智能的程度了。但在当时,作为小说家的他,也意识到智能领域可能会产生的关于人类地位、伦理意识的冲突问题。这种严肃思考,在当代被分散到经济学家、哲学家、人类学家、伦理学家甚至文学家、导演的身上。起码大多数普通人除了使用移动支付这一功能之外,对AI了解的渠道都集中在科幻小说或欧美科幻电影。齐泽克在分析电影《银翼杀手2049》时提到:“电影的确很好地渲染了在我们的全球资本主义中,统治精英内部的那种对抗:即国家及其机器与追求进步到自我毁灭的地步的大企业之间的对抗。”人格化的企业,在AI的加持下,已经逐步实现。从交配人到基因变异到仿真人,电影的想象超不出人类的野心,却提前为大众提供了一种试探性结果:人类是有可能毁灭的。
但是在此之外,科学、公正地探讨人工智能的伦理界限依然十分必要。机器人才艺的超越性极有可能使普通人在未来社会无法立足,对人类命运的这一担忧某种程度上已经成为现实。被沙特授予公民身份的机器人索菲亚就声称她的目标是去上学、成立家庭,并且,毁灭人类。这句带着调侃意味的话当然是设计者开的一句玩笑,可你无法否认,这是未来人类社会必须承担的风险。如何健全智能系统,不仅仅是科学领域的技术任务,也是其他领域的伦理责任。近一年来,以中科院为核心,研究者们已经举办了如“2017人工智能:技术、伦理与法律研讨会”、“人工智能的技术、伦理与法律的关键科学问题”等等研讨会,焦点无一例外是如何应对当下人工智能中法律和伦理边界仍然模糊的困境。
人类会被AI挑战吗?答案是肯定的。
人类会被掌控吗?这是我们努力避免的。
法律的边界易划,伦理的探索难明,但价值观是人类永不会被超越的优势。对人工智能伦理边界的讨论,不是要人为制造出科技恐慌的舆论,接受人工智能给我们的生活创造多样的可能,就必须同时直面每一种多样性背后的挑战。如此,才能真正做到安全管控,保证人类的生活稳定和幸福。科技改变生活,然而科技不会取代生活。