全球首例AI机器人致死案例,14岁男孩为受害者

AI聊天机器人竟成致命诱因?14岁少年自杀案震惊全球!

美国佛罗里达州发生了一起令人痛心的悲剧,一名14岁的少年塞维尔·塞泽,在与一款名为Character.AI的聊天机器人进行长时间对话后,竟然选择了自杀。

据报道,塞维尔自2023年4月起开始频繁使用这款AI聊天机器人,甚至给它起了一个名字——丹妮莉丝。他变得异常孤僻,日记中透露出对这款机器人的极度依赖和迷恋,声称自己“一天都不能离开丹妮莉丝”。

2024年2月28日,塞维尔扣动了扳机,结束了自己的生命。此事引发了全球范围内的广泛关注和讨论,塞维尔的母亲梅根·加西亚更是悲痛欲绝,对Character.AI公司提起了民事诉讼,指控其技术危险且未经测试,导致她儿子非正常死亡。

对此,Character.AI公司也发表了致歉声明,并进行了模型更改,以降低未成年人接触敏感或暗示性内容的可能性。这起事件也引发了人们对AI技术伦理和监管的深刻反思。

科技发展的同时,我们不能忽视其潜在的负面影响。愿逝者安息,也期待更完善的监管体系。


文章中提到的工具包在社群里都能搜索到。

(0)
打赏 微信扫一扫 微信扫一扫
上一篇 2024年10月25日 下午2:54
下一篇 2024年10月30日 下午4:03

相关文章

发表回复

登录后才能评论

1641993361-wxqrcode