OpenAI 刚刚推出了一款全新的人工智能模型,专门用于防御性网络安全工作。他们把它叫做 GPT-5.4-Cyber。这款新工具彻底改变了聊天机器人处理潜在危险请求的方式。普通版本的模型通常会直接拒绝用户查询代码漏洞或分析恶意软件,而这个调整后的版本却允许进行这些操作。它就是为了帮助安全研究人员更快地发现并修复问题而设计的。
这款模型放宽了标准防护,允许开展安全研究
普通的 AI 模型一般都会拒绝看起来像黑客行为的任务。它们会自动屏蔽任何要求逆向工程软件或寻找计算机网络弱点的提示。OpenAI 打造 GPT-5.4-Cyber 的目的就是让它变得更加灵活。它为经过验证的安全专业人士移除了那些严格的拒绝边界。
这一调整让专家们无需原始源代码,就能分析编译后的软件是否存在恶意软件风险。通过放宽这些规则,OpenAI 希望帮助防御方在坏人利用漏洞之前,提前发现关键问题。
使用权限严格限制在经过验证的安全专业人士手中
由于这款工具能够发现网络缺陷,OpenAI 不会让随便什么人都能使用。它正在逐步向可信的安全厂商和经过验证的研究人员开放权限。想要使用这款软件的人必须通过特定的验证程序申请。这个过程包括核对政府身份证明,以确保用户确实是合法的防御工作者。
组织机构也可以为自己的内部安全团队申请权限。任何获得批准的人,都能使用这个限制较少的版本,来支持防御性编程和负责任的漏洞研究。
这次发布紧随一家主要竞争对手的类似举措
这次发布距离另一家人工智能公司推出类似项目没过多久。Anthropic 最近开始向选定的安全团队开放自家定制模型,帮助他们发现严重漏洞。两家公司都意识到,防御团队需要更好的工具来跟上网络威胁的步伐。技术发展得很快,防御措施也必须同步跟上。
OpenAI 希望,把 GPT-5.4-Cyber 交给正确的人,就能更好地保护我们每天都依赖的数字基础设施。

Tim
全部评论0