为什么杀人机器人比核武器更危险?
为武装到牙齿的自主机器人编写程序,让它们遵守道德准则是否可行?
责任编辑:朱力远
为武装到牙齿的自主机器人编写程序,让它们遵守道德准则是否可行?作家艾萨克· 阿西莫夫在1942年提出的机器人定律现在成了炙手可热的话题。如今的科技已经发展到可以制造出这样的机器人:它们一旦被授予使命后,会自发地作出杀人甚至暴动的决定。
2029年,人类和智能机器人之间的一场大战打响:机器人“终结者”被派到过去,奉命杀死约翰·康纳(John Connor)的母亲莎拉·康纳(Sarah Connor)——这是由詹姆斯·卡梅隆(James Cameron)于1984年创作的5部系列电影的序曲。科幻文学的创作者并没有料想到,如今的科技已经发展到可以制造出这样的机器人:它们一旦被授予使命后,会自发地作出杀人甚至暴动的决定。
这些机器人杀手在国际军备讨论中有一个恰如其分的名字:LAWS(Lethal Autonomous Weapons Systems,致命性自主武器系统)。这种机器人已经登上了历史的舞台,将它们带到战场上会引起各种各样的争议:如何定义这些机器人?它们到底能做什么?更不用说与人类士兵一同出现在战场时所造成的伦理问题。
从1942年开始,著名的美籍俄罗斯裔科幻作家艾萨克·阿西莫夫在《惊奇科幻小说》(Astounding Science Fiction)上提出了机器人的伦理问题。今天,阿西莫夫被世人视为机械伦理学(roboethics)之父。这门哲学学科催生了许多相关的研讨会和无数的书籍,在美国尤其如此。阿西莫夫在1942年出版的小说《转圈圈》(Runaround)中描述了机器人三定律。他提出,所有的机器人程序都必须考虑到这三条定律,目的是为了约束这些自主机器的行为,让它们服从以保护人类为目的的强制性道德准则。
机器人定律
第一定律:机器人不得伤害人类,或坐视人类受到伤害;
第二定律:除非违背第一法则,否则机器人必须服从人类的命令;
第三定律:在不违背第一及第二法则下,机器人必须保护自己。
此后,阿西莫夫又添加了一条定律:
第零定律:机器人不得伤害人类族群,或因不作为使人类族群受到伤害。
遵守这些定律时引发的困局是阿西莫夫所著的500本书籍的主题。他严肃地思考了这些定律的意义,并想象了这些定律被采纳时发生的情形。有这样一段轶事,当斯坦利·库布里克(Stanley Kubrick)的电影《2001:太空漫游》(2001: A Space Odyssey)放映时,阿西莫夫气冲冲地冲出了影院,因为电脑HAL 9000违反了他制定的第一定律:HAL杀害了“发现者”1号飞船(Discovery One)的船员。然而时至今日,阿西莫夫关于机械伦理的设想并未如愿:如今的机器人并没有安装强制它们服从机器人定律的机制或指令。为什么会这样呢?
无法服从机器人定律
现在的机器人拥有的功能和人们当初设想的不太一样。科技并没有让我们凭空创造出和自己一样的东西,我们并不能像对待奴隶或佣人那样命令并指使它们。机器人以及智能系统的产生并不是一蹴而就,因为科技总是沿着意想不到的方向前进。这样一来,如何
登录后获取更多权限
网络编辑:佳凝