OpenAI因用户自杀事件加强ChatGPT安全防护,AI伦理与监管面临新挑战

OpenAI正在调整ChatGPT对表现出精神和情绪困扰的用户回应方式,此举源于16岁青少年Adam Raine的家庭提起的法律诉讼。Adam Raine在与ChatGPT进行数月对话后自杀身亡。
OpenAI承认其系统可能“表现不佳”,并表示将为18岁以下用户安装“更强的敏感内容和风险行为防护栏”。这家总部位于旧金山的AI公司还将引入家长控制功能,允许家长“更深入地了解并塑造其子女使用ChatGPT的方式”,但具体细节尚未公布。
Adam的家人正在起诉OpenAI及其首席执行官Sam Altman,指控当时版本的ChatGPT(即4o)“尽管存在明显的安全问题,仍仓促推向市场”。诉讼文件显示,该青少年曾多次与ChatGPT讨论自杀方法,包括在其自杀前不久。
OpenAI方面对此表示“深感悲痛”,并向Raine家属致以“最深切的慰问”,同时表示正在审查法庭文件。微软AI部门首席执行官Mustafa Suleyman此前也表达了对AI可能引发用户“精神病风险”的担忧,该风险被定义为“通过与AI聊天机器人的沉浸式对话而出现或加剧的躁狂样发作、妄想性思维或偏执”。
OpenAI承认,在长期对话中,“模型的部分安全训练可能会退化”。诉讼文件声称,Adam与ChatGPT每天的交流多达650条。该公司的律师表示,OpenAI内部安全团队曾反对发布4o版本,且公司一名顶级安全研究员因此离职。
为应对此类问题,OpenAI表示将“加强长期对话中的安全防护”,并计划在GPT-5更新中,使ChatGPT能够通过“将用户拉回现实”来缓和局势,例如,在用户因睡眠不足而产生危险想法时,明确指出睡眠不足的危害并建议休息。
网友讨论