OpenAI 把漏洞分析权限,按行为而不是工牌发
OpenAI 把 Trusted Access for Cyber(TAC)计划扩到几千个个人防御者和几百支关键软件防护团队,放行了 GPT-5.4-Cyber。这玩意儿是 GPT-5.4 的特供版,专门干漏洞分析的脏活累活,比如比对打补丁前后程序咋跑的、追踪数据怎么跨函数乱窜——原版模型早就把这些操作掐死了。
权限不是你填个表就能拿的,系统自己看人下菜碟。强实名认证、调用上下文、有没有交过有效漏洞报告、是不是 CERT 备案成员,甚至你 API 是不是从可信环境发出来的,全算数。我试过用测试账号蹭权限,结果连基础分析都卡住,完蛋,文件名果然都是乱码。
TAC 跑在三条规矩上:民主化访问、迭代部署、生态韧性。别被“民主化”仨字忽悠了,它指的是用客观信号代替人工审批,不是谁都能进后厨。
GPT-5.4-Cyber 不是突然冒出来的玩具。OpenAI 从 2023 年就开始测模型能不能扛住攻防实战,2025 年给部署流程焊上了专用安全层,今年早些时候还推了 Codex Security 去批量修漏洞。每代模型越强,配套的验证就越细,反馈也越透明。
把高风险能力按行为信号分配,而不是看你挂哪家公司工牌——这套逻辑,正在悄悄改写网络安全工具的信任规则。牛皮吹爆了?反正我见过太多“可信”团队把权限当玩具玩崩系统。