与AI聊天后自杀,这个责任谁来负?

对于全球首例涉及AI聊天后自杀的案件,法院如何审理判决,目前难以预料。

责任编辑:朱力远

2024年10月22日,美国佛罗里达州奥兰多地方法院受理了一起开创先例的诉讼:梅根·加西亚起诉Character.ai公司存在管理疏忽,使得旗下的聊天机器人产品“让青少年暴露在色情材料的环境下,遭受性虐待和引诱”。梅根的儿子塞维尔·塞泽在2024年2月28日和AI进行了最后一次聊天后,用手枪瞄准自己的头部开枪自杀。

这或许是全球首例涉及AI聊天后的自杀,死者的亲人起诉AI公司也是事出有因。法院该如何审理判决,究竟谁会对塞泽的死亡负责,目前难以预料。但是,由于人类社会已经进入到AI世纪,对AI涉及人的自杀是所有人都会关注和警惕的。

要判断AI聊天机器人是否对塞泽的自杀负责,首先要了解聊天机器人是否诱导了塞泽的厌世,并且在了解到塞泽的厌世和自杀企图后,AI公司是否采取了果断和负责的干预措施。

一个坐在电脑旁边的女人在与机器人聊天。视觉中国|图

一个坐在电脑旁边的女人在与机器人聊天。视觉中国|图

2021年11月24日,联合国教科文组织第41届大会通过了有史以来首个关于人工智能伦理的全球协议《人工智能伦理问题建议书》,提出发展和应用人工智能要体现

登录后获取更多权限

立即登录

校对:星歌

欢迎分享、点赞与留言。本作品的版权为南方周末或相关著作权人所有,任何第三方未经授权,不得转载,否则即为侵权。

{{ isview_popup.firstLine }}{{ isview_popup.highlight }}

{{ isview_popup.secondLine }}

{{ isview_popup.buttonText }}