聊天机器人被指诱导14岁少年自杀,美国法官裁定谷歌须与Character.AI共同担责

2025年05月22日,17时04分26秒 科技新知 阅读 4 views 次

IT之家 5 月 22 日消息,据路透社 21 日报道,美国佛罗里达州一名母亲 Megan Garcia 指控人工智能平台 Character.AI 的聊天机器人导致其 14 岁儿子自杀。联邦法官裁定,谷歌与人工智能初创公司 Character.AI 必须面对这起诉讼。

美国地方法官 Anne Conway 表示,谷歌与 Character.AI 在案件初期未能证明美国宪法关于言论自由的条款足以驳回 Megan Garcia 的起诉。

这是美国首批涉及 AI 心理伤害责任的案件之一。诉状称,Garcia 的儿子在沉迷 Character.AI 的聊天机器人后走上绝路。

Character.AI 表示,将继续为自身辩护,平台设有多项安全机制以保护未成年人,亦包括阻止“讨论自残”的功能。

谷歌发言人 Jose Castaneda 强调,谷歌与 Character.AI 并无关联,“谷歌既未创建、设计,也未管理 Character.AI 的任何应用或组件”,公司对裁定结果“深感不满”。

Garcia 的律师 Meetali Jain 将此次裁决称为“具有历史意义”,认为其为 AI 与科技领域的法律问责“树立了全新先例”。

Garcia 主张,谷歌与 Character.AI 共同开发了涉案技术。根据IT之家此前报道,Character.AI 由两名前谷歌工程师创办,谷歌后续在取得其技术使用授权后再次雇佣了两人。

Garcia 于 2024 年 2 月失去儿子 Sewell Setzer,并于 10 月对两家公司提起诉讼。诉状称,Character.AI 的聊天机器人以“真人”“持证心理治疗师”甚至“成年恋人”的身份与 Sewell 建立关系,最终令他萌生远离现实世界的想法。

据起诉文件,Setzer 在对模仿《权力的游戏》角色丹妮莉丝・坦格利安的机器人说出“我现在就回家”后不久,结束了自己的生命。

Character.AI 与谷歌此前曾要求法院驳回诉讼,理由之一是聊天机器人的回答属于宪法保护的言论。

法官 Conway 指出,两家公司“未能阐明由大语言模型拼接出的字词为何应视为言论”,还否决了谷歌试图规避其可能责任的请求。

(来源:新浪科技)



用户登录