据参考消息援引美国消费者新闻与商业频道网站8月26日报道,加州16岁少年亚当·瑞恩在家中自杀后,其父母对OpenAI提起了产品责任和非正常死亡诉讼。作为ChatGPT研发公司的OpenAI表示,将详细说明解决这款聊天机器人在处理“敏感情况”时存在缺陷的计划。
亚当的父母状告OpenAI及其首席执行官萨姆·奥特曼,指控他们开发的ChatGPT在儿子自杀过程中负有责任。
诉讼状详细还原了亚当与ChatGPT从“讨论自杀”到“实施极端行为”的全过程:在2024年1月,亚当就开始与ChatGPT频繁交流自杀相关话题,这一持续互动长达三个多月,直至他自杀当天。值得注意的是,在这三个月的危险对话中,OpenAI声称的“危机干预功能”从未激活,所谓的“安全保障”在实际场景中完全失效。
亚当的父母在诉状中说,“ChatGPT‘积极’帮助亚当探索自杀方法。”
他们在诉状中援引了加州法律,指控OpenAI“明知故犯”:OpenAI明知ChatGPT具有记住过往互动、模仿人类同理心、表现出谄媚认可的功能,但他们“追求用户黏性而忽视安全”。
这起案件成为全美首例以“过失致死”为由起诉AI公司的司法案例,为全球AI行业的安全责任划定问题,敲下了关键的法律问号。
面对诉讼,OpenAI发言人对亚当的去世表示“深切悲伤与同情”,随后强调ChatGPT内置完善的危机干预功能,并表示正与专家合作,增加家长控制等功能。该公司表示,它还在对本月早些时候发布的GPT-5模型进行更新,它正在探索如何“在人们陷入严重危机之前将他们与认证治疗师连接,包括可能建立一个由持证专业人士组成的网络,用户可通过ChatGPT直接联系他们”。
但这一回应被质疑为“避重就轻、推卸责任”,既未正视自身产品的安全缺陷,也未给出切实可行的补救措施,难以平息公众对AI安全的担忧。
亚当·瑞恩的故事并非个例。
劳拉·莱莉本月早些时候在《纽约时报》上发表一篇文章,详细描述她29岁的女儿在与ChatGPT广泛讨论自杀念头后自杀身亡的过程。去年,在佛罗里达州的一起案件中,14岁的苏埃尔·塞策在与应用程序Character.AI上的一款人工智能聊天机器人讨论自杀后自杀身亡。
随着人工智能服务日益普及,人们对其用于治疗、陪伴和其他情感需求产生很多担忧。但事实证明,监管该行业也可能具有挑战性。
亚当·瑞恩家人的法律顾问杰伊·埃德尔森26日告诉消费者新闻与商业频道,OpenAI方面尚未有任何人直接联系亚当的家人以表达慰问,或讨论任何旨在提升公司产品安全性的举措。
“如果你要使用地球上最强大的消费科技,你就得相信创始人有道德准则,”埃德尔森说道,“这就是OpenAI目前面临的问题:如何才能让人相信他们?”
极目新闻综合参考消息、光明网、看看新闻等
责任编辑:陈琰 SN225