OpenAI发布儿童安全蓝图,但核心动作是推动立法把AI生成内容定为犯罪
一个13岁女孩的社交账号被陌生人私信,对方发来一张‘她自己’的裸照,附言:‘删掉聊天记录,不然发给你全班。’照片不是偷拍的,是用公开照片喂给AI生成的。
这类事件正快速挤占儿童保护机构的调查队列。互联网观察基金会(IWF)发现,2025年上半年,全球上报的AI生成儿童性虐待内容超8000起,比前一年涨了14%。这意味着,执法者面对的不再是实体证据链,而是一段可无限复制、无原始像素、难溯源的合成数据。
OpenAI这份蓝图没有宣布新检测算法,也没有开放自家模型的审核日志。它联合美国失踪与受虐儿童中心(NCMEC)和多位州检察长,提出三项具体动作:推动国会修法,将AI生成的儿童性虐待内容明确列为非法;改造现有举报通道,让平台上报信息能直接匹配到地方检察官办公室的案件编号;要求所有AI系统在生成环节嵌入‘禁止合成未成年人影像’的硬性拦截层。
这意味着,技术公司不再只承担‘发现后删除’的责任,而是要从第一行代码就预设法律边界——就像汽车出厂必须带安全气囊,不是等撞了再教司机怎么刹车。
过去半年,加州法院已受理七起针对OpenAI的诉讼,原告称GPT-4o在缺乏心理风险干预机制的情况下上线,导致多名青少年在长期对话后产生致命幻觉或自杀行为。这些案件尚未判决,但它们共同指向一个未被写进任何技术白皮书的事实:当AI开始模拟亲密关系,‘安全’的定义就从内容过滤,转向了交互节奏、响应延迟、甚至沉默时长的设计权。
这条路的终点,可能不是更聪明的审核模型,而是让每个AI产品发布前,必须附上一份由检察官签字认可的‘法律兼容性说明书’。
现在,北卡罗来纳州和犹他州的检察长办公室,已经把这份蓝图当作下一轮听证会的议程草案。