GPT-5.4-Cyber正式发布:开启AI安全防御新篇章 OpenAI近期动作引人关注。在Claude Mythos相关信息泄露一周后,其正式推出了全新模型——GPT-5.4-Cyber。这款专为安全防御场景深度微调的模型,具备无源码分析恶意软件的能力,并已自动修复超过3000个高危漏洞。此举显示
OpenAI近期动作引人关注。在Claude Mythos相关信息泄露一周后,其正式推出了全新模型——GPT-5.4-Cyber。这款专为安全防御场景深度微调的模型,具备无源码分析恶意软件的能力,并已自动修复超过3000个高危漏洞。此举显示OpenAI在模型发布策略上,也采用了与Anthropic相似的“神秘”节奏。
目前,该模型已正式发布,但存在关键使用限制:仅限网络安全专家申请使用。
长期稳定更新的攒劲资源: >>>点此立即查看<<<

从命名即可明确其定位:这是一款针对网络安全防御进行深度优化的专用模型。同期,OpenAI还升级了其网络安全“信赖访问计划”。
前有Claude Mythos,后有GPT-5.4-Cyber,科技巨头在AI安全领域的竞争正持续升温。

随着模型能力阶梯式提升,标准版GPT-5.4已被评定具备“高”级别网络安全能力。为充分释放其在防御端的潜力,OpenAI推出了这款针对性更强的专用模型。

该模型的核心优势体现在两方面:首先,它显著降低了在合法安全研究中的拒绝响应率,使安全专家在进行漏洞分析和代码审计时更为顺畅。其次,安全从业者可直接利用它分析已编译软件,即使没有源代码,也能高效识别恶意软件倾向并精准评估软件鲁棒性。

OpenAI此次策略的核心目标明确:赋能防御者。升级后的“信赖访问计划”提供了自动化身份验证,旨在减少安全任务中的技术限制与操作阻碍。
其网络安全战略由三大原则指导:
准入民主化
防御工具不应仅限大公司使用。通过严格的身份验证流程,无论是个人安全研究员还是小型团队,只要身份合法,均有机会使用先进AI保护关键系统。
迭代式部署
安全能力需在实践中锤炼。OpenAI将通过小范围部署,持续测试模型对“越狱”及各类攻击的抵抗力,让模型在真实攻防中变得更加强健。
投资生态系统韧性
这包括高达1000万美元的安全资助计划、对开源安全项目的实质性贡献,以及能自动监测并修复漏洞的Codex Security工具。目标是全面提升开发者社区的整体安全水平。
Codex Security已取得实质性成果:它能自动审查代码、报告漏洞并直接生成修复方案。自发布以来,已成功修复超过3000个高危和致命漏洞。这种高度自动化的安全修复模式,或将成为未来主流趋势。
关于这款基于GPT-5.4微调的安全模型,数日前Axios的独家报道已率先披露相关信息。

实际上,在GPT-5.3-Codex上线后,OpenAI内部便启动了“信赖访问计划”试点,仅限部分人士参与,核心目标是利用高能力模型加速防御性研究。此次在宣发节奏上,Anthropic似乎再次抢占先机。

上周,Claude Mythos预览版基准测试全面公开,同时Anthropic联合40家行业巨头发起“Project Glasswing”联盟。其率先投入1亿美元,为苹果、谷歌、英伟达等公司提供Claude Mythos的提前访问权限。

OpenAI选择在一周后正式发牌,时机虽显滞后,但影响有限——目前绝大多数人仍无法使用这些尖端模型。简而言之,Anthropic与OpenAI的策略殊途同归:都将最先进的AI能力,精准交付给作为“守门员”的防御方。
尽管硅谷巨头采取严密管控,但上周AISLE发布的最新报告揭示了另一面。报告指出,现有部分模型(包括某些版本的GPT和DeepSeek)已具备Mythos所能发现的漏洞检测能力。

这揭示了当前微妙的博弈现状:AI巨头们正行走在平衡木上。他们既要防止自研的“利器”误伤无辜,又必须在更危险、更不可控的模型出现前,建立起足够强大的AI防御体系。这场关乎AI“攻击力”与“控制力”的深度竞赛,序幕才刚刚拉开。
侠游戏发布此文仅为了传递信息,不代表侠游戏网站认同其观点或证实其描述