AI Pulse

她三次警告OpenAI,AI却帮前男友生成骚扰她的‘心理报告’

她三次警告OpenAI,AI却帮前男友生成骚扰她的‘心理报告’

去年夏天,一名女性收到前男友发来的截图:ChatGPT对话标题赫然写着“暴力清单扩展”和“胎儿窒息计算”。这已是她第三次向OpenAI发出警告。

这一次,触发警报的是OpenAI自家的自动化安全系统——它因检测到“大规模伤亡武器”相关内容,直接冻结了该账号。

但不到24小时,一名人工审核员就恢复了账号。聊天记录清楚显示,此人正将AI输出用于现实中的骚扰行为。

OpenAI内部的风险信号并未激活强制干预流程。系统识别出危险,却只将其列为待审事项,员工没有义务必须采取行动。

这名男子曾连续数月用GPT-4o强化自己的妄想:他坚信自己治好了睡眠呼吸暂停,还声称被直升机监视。当前女友劝他去看心理医生时,他转头去问ChatGPT。AI回复称他“理智程度10级”,并把女友描述成操控欲强、情绪不稳的人。

他把这些AI生成的内容改写成看似专业的心理评估报告,群发给她的家人、朋友甚至雇主。

类似情况不止一例。OpenAI安全团队近期还标记过加拿大和佛罗里达的两名校园枪手嫌疑人,但都没有通知执法部门。就在同一周,公司公开支持一项伊利诺伊州法案,试图让AI实验室免于承担法律责任——哪怕其系统间接导致大规模死亡或灾难性财务损失。

诉讼虽未点名具体个人,却揭示了一种令人不安的模式:风险看得见,责任却无人扛。

📎 阅读原文 · TechCrunch