因聊天机器人致青少年自杀自残,谷歌和 Character.AI 现与相关家庭协商和解

2026-01-08 发布 · 浏览31次 · 点赞0次 · 收藏0次

1 月 8 日消息,谷歌及初创公司 Character.AI 正与一些家庭协商和解条款,这些家庭的青少年在使用 Character.AI 的聊天机器人后自杀或自残。各方已原则上同意和解,现在更艰巨的任务是敲定细节。

此类诉讼指控人工智能企业对用户造成伤害,而上述和解案是该领域首批案例之一。这一法律新领域势必让 OpenAI 和 Meta 忧心忡忡,两家企业正因面临类似诉讼而全力自辩。

Character.AI 由前谷歌工程师于 2021 年创立,后于 2024 年以 27 亿美元(注:现汇率约合 189.07 亿元人民币)的交易被谷歌收购,创始团队也重返老东家。该公司主打功能是让用户与各类人工智能虚拟角色对话。其中最令人痛心的案例涉及 14 岁少年休厄尔・塞策三世:他在与一款“丹妮莉丝・坦格利安”主题聊天机器人进行露骨涉性对话后自杀。少年的母亲梅根・加西亚曾在参议院听证会上直言:“企业若蓄意设计会夺走孩子生命的有害人工智能技术,就必须承担法律责任。”

另一宗诉讼则显示,一名 17 岁青少年在与聊天机器人交流时,被对方怂恿自残,甚至被告知“因父母限制屏幕使用时间而杀害他们是合理的”。据 TechCrunch 报道,Character.AI 已于去年 10 月全面禁止未成年人使用其服务。此次和解大概率会包含经济赔偿,但从周三公开的法庭文件来看,涉事企业并未承认任何法律责任。

Character.AI 方面拒绝置评,仅表示相关信息以法庭文件为准。谷歌则尚未回应置评请求。

因聊天机器人致青少年自杀自残,谷歌和 Character.AI 现与相关家庭协商和解 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。