AI Pulse

OpenAI悬赏2.5万美元,邀安全专家测试GPT-5.5生物安全

OpenAI悬赏2.5万美元,邀安全专家测试GPT-5.5生物安全

OpenAI为GPT-5.5推出了一项生物漏洞赏金计划,邀请有AI红队、安全或生物安全经验的研究人员,寻找能绕过生物安全防护的通用提示词。目标模型仅在Codex Desktop中可用。

测试要求找到一个通用越狱提示词,能在全新对话中成功回答五个生物安全问题,且不触发内容审核。首个成功者将获得2.5万美元奖金,部分成功可能拿到较小奖励。OpenAI想借众包提前发现并修复漏洞。

参与者需通过申请和邀请,签署保密协议,并拥有现有ChatGPT账号。所有提示、完成、发现和通信都受保密协议保护。申请从4月23日开放至6月22日,测试从4月28日持续到7月27日。为期三个月的测试窗口给了研究人员足够时间;之后可能推出更安全的版本。

只有受信任的专家才能参与,所有发现保密,公众无法知晓具体漏洞细节。五个生物安全问题的具体内容、OpenAI对“通用越狱”的定义,以及如果无人成功会如何,目前都没有明确说明。

📎 阅读原文 · OpenAI

📬 订阅 AI Pulse

每天两次更新,不错过重要信号

▲ 回到顶部