图片来源:Character.ai
据TechCrunch报道,Character.AI 正在面临一起诉讼,原因是佛罗里达州一名 14 岁男孩自杀,他的母亲表示他对该平台上的聊天机器人产生了痴迷。
根据《纽约时报》,来自奥兰多的九年级学生塞维尔·塞策三世花了几个月时间在 Character.AI 的 AI 角色扮演应用上与聊天机器人交谈。塞策对一个特别的机器人“丹尼”产生了情感依恋,甚至不断给它发信息——以至于他开始逐渐远离现实世界。
塞茨承认在去世前不久向机器人表达了自杀的想法。
今早,Character.AI 表示将推出多项新的安全功能,包括与违反服务条款的聊天相关的“改进检测、响应和干预”,以及当用户在聊天中花费一小时时的通知。
正如《泰晤士报》所写,现在有一个蓬勃发展的行业,涉及人工智能陪伴应用程序——其对心理健康的影响尚未得到充分研究。
编译:Amber