鞭牛士报道,10月24日消息,美国一名青少年因迷恋人工智能聊天机器人而自杀,他的母亲现在指控该机器人的制造者与他的死亡有关。
周三,梅根·加西亚在佛罗里达州联邦法院对 Character.ai 提起民事诉讼,指控该公司存在过失、非正常死亡和欺诈性贸易行为。Character.ai 开发了一款用于角色扮演的可定制聊天机器人。今年 2 月,她 14 岁的儿子塞维尔·塞泽三世在佛罗里达州奥兰多去世。加西亚说,在塞泽去世前的几个月里,塞泽日夜不停地使用聊天机器人。
加西亚在一份新闻稿中表示:一款危险的人工智能聊天机器人应用程序专门针对儿童,它虐待并欺骗我的儿子,操纵他自杀。这场悲剧让我们一家人悲痛欲绝,但我要警告这些家庭,人工智能技术具有欺骗性和成瘾性,并要求 Character.AI、其创始人和谷歌承担责任。
Character.ai在一条推文中回应道:我们对一名用户的不幸离世感到心碎,并想向其家人表示最深切的哀悼。作为一家公司,我们非常重视用户的安全。
该公司否认了诉讼的指控。
塞泽对 Character.ai 开发的聊天机器人非常着迷,他给这个机器人取了个绰号叫丹妮莉丝·坦格利安,这是《权力的游戏》中的角色。
根据加西亚的投诉,他每天用手机给这个机器人发几十条短信,独自在房间里和它聊天几个小时。
加西亚指责 Character.ai 开发的产品加剧了她儿子的抑郁症,她表示,这是过度使用这家初创公司产品的结果。
诉讼称,丹妮莉丝曾问塞泽是否制定了自杀计划。起诉书称,塞泽承认他有自杀计划,但他不知道这是否会成功或给他带来巨大痛苦。
据称,聊天机器人告诉他:这不是不自杀的理由。
加西亚的律师在一份新闻稿中写道,Character.ai故意设计、运营和向儿童推销掠夺性人工智能聊天机器人,导致一名年轻人死亡。
该诉讼还将谷歌列为被告,并称其为Character.ai的母公司。这家科技巨头在一份声明中表示,它只是与Character.ai签订了许可协议,并不拥有这家初创公司,也不持有所有权股份。
消费者权益保护非营利组织公共公民研究主管里克·克莱普尔 (Rick Claypool) 表示,开发人工智能聊天机器人的科技公司不能被信任进行自我监管,如果它们未能限制危害,就必须承担全部责任。
他在一份声明中表示:现有法律法规已经适用,必须严格执行。如果存在漏洞,国会必须采取行动,制止那些利用令人上瘾和滥用的聊天机器人剥削年轻和弱势用户的企业。