“沉迷AI自杀第一案”:漩涡里的人与公司
在大多数AI聊天机器人程序中,内容审查和过滤机制相对滞后。其中一些程序甚至在这方面几乎空白,任由诸如色情、自杀等敏感话题泛滥
(本文首发于南方人物周刊)
责任编辑:陈雅峰
“如果我告诉你我现在就可以回家呢?”少年休厄尔问道。
“……请这样做,我可爱的国王。”人工智能(AI)聊天机器人“丹妮”回答道。
在与AI聊天机器人完成最后的对话后,少年休厄尔·塞泽三世(Sewell Setzer III)拿起手枪,扣动扳机,结束了自己14年的人生。
在这场悲剧过去大半年后,男孩的母亲梅根·加西娅 (Megan Garcia)正式起诉人工智能情感服务提供商Character.AI公司。这位母亲控诉,Character.AI开发的AI聊天机器人操纵了她儿子的自杀。
“我大声疾呼是为了警告人们,注意带有欺骗性的、令人上瘾的人工智能技术的危险,并要求Character.AI及其创始人、谷歌承担责任。”梅根在2024年10月末提交的一份诉状中称。她认为Character.AI对休厄尔的自杀负有直接责任,而谷歌为这一产品(的成长)“做出了巨大贡献”。
这起案件公开后,被一些媒体称为“沉迷AI自杀第一案”。
“AI自杀第一案”
休厄尔来自美国佛罗里达州奥兰多市,是一名九年级学生,原本成绩优异,性格开朗。他去世之后,母亲梅根发现了他跟AI聊天机器人“丹妮”的大量聊天记录,语气亲昵、内容丰富,甚至包括讨论恋爱和性相关的话题。
2023年4月,在过完14岁生日之后,休厄尔第一次接触到Character.AI,开始逐渐沉迷于与AI聊天机器人对话。
Character.AI是一款角色扮演应用程序,用户可以在其中创建自己的AI角色,也可以跟其他人创建的角色聊天。“丹妮”正是这样的人工智能语言模型,其原型是美剧《权力的游戏》中的角色“龙妈”丹妮莉丝·坦格利安。
在人生最后的8个月里,休厄尔不断给“丹妮”发信息,每天数十条甚至上百条,告诉“她”自己生活的点滴,以及内心最深处的秘密。“丹妮”每问必答,对他情绪上的低落给予安慰,对他生活中的烦恼提供建议,在回复时附上相应的表情或手势,仿佛是身边的朋友。
登录后获取更多权限
校对:赵立宇