何が変わったか
これまで一般公開されている GPT 系モデルは、既知の脆弱性を突くエクスプロイトコード生成や攻撃シミュレーションのリクエストを安全フィルタで拒否してきた。同フィルタは正規のセキュリティ研究 (脆弱性再現・パッチ検証) も同時に阻害していた。
OpenAI は GPT-5.5 の利用を 3 階層に分け、最上位の GPT-5.5-Cyber では Trusted Access for Cyber プログラムで認可された重要インフラ防御者向けにフィルタを大幅に緩和し、テストサーバへの実攻撃・システム情報抽出までを直接実行可能にした。Cisco、CrowdStrike、Palo Alto Networks、Cloudflare、Intel、Snyk、SentinelOne がローンチパートナー。Codex Security 経由で主要 OSS 開発者にも割引アクセスが提供される。
社会にどんな影響があるか
フロンティア AI モデルへのアクセスが「全公開」「商用 API」「監査済み防御者向け非公開」の階層に分化し、攻撃能力をもつ AI モデルは事実上の規制ライセンス業として運用される構造へと移行する。Anthropic は Claude Mythos Preview を Project Glasswing 配下の 40 組織に絞り込んでおり、OpenAI はより広範な階層型で対応する戦略の違いが明確化した。White House (米国大統領府) は同種モデルのリリースに対する政府の関与を強める大統領令を検討中で、AI モデル輸出管理が次の規制論点に浮上する。
副作用として、ペネトレーションテスト・マルウェア解析の単価が下がり、中小セキュリティベンダーの市場参入余地が広がる一方、攻撃側に近いモデルが意図せぬ経路で漏出した場合のリスクが、組織監査では捕捉しきれないレベルに達する懸念が残る。
俺にどんな影響があるか
PRES の産学連携文脈では、大学研究室の AI セキュリティ系シーズ (例: 機械学習による脆弱性発見、自然言語からのエクスプロイト生成) を企業に提供する際、フロンティアモデルへの「監査済みアクセス権」を企業側が持てるかどうかが提携設計の前提条件になる。日本国内の大学・企業が OpenAI Trusted Access プログラムや Anthropic Project Glasswing に参加できる枠を確保することは、産学連携 AI セキュリティ案件の競争力に直結する。
ニュースの詳細
3 階層のアクセス制御:
- 最下層 (公開): 既知の脆弱性を突くエクスプロイト要求は拒否
- 中間層: ドキュメント付きでエクスプロイトコードを提供 (防御目的の研究者向け、フィルタ緩和)
- GPT-5.5-Cyber (最上位): デモシナリオではテストサーバへ実攻撃を実行し、システムを乗っ取り、システム情報を読み出した
OpenAI は「Cyber 版は標準モデルより賢いわけではなく、セキュリティ関連リクエストを通すように制限を緩めただけ」と説明。パスワード窃取や第三者システム攻撃などの行為は引き続きブロック。2026 年 6 月 1 日以降、最上位ティアの個人ユーザにはフィッシング耐性のある認証 (FIDO2/WebAuthn 等) の有効化を義務化。
Anthropic Mythos Preview とのベンチマーク比較: 英国 AI Security Institute (AISI) のテストでは、企業ネットワークに対する 32 ステップのシミュレート攻撃を、GPT-5.5 は 10 回中 2 回完遂、Mythos は 10 回中 3 回完遂。専門家レベルの個別タスクでは GPT-5.5 がやや優勢。
White House は同種モデルのリリースに対する政府の関与を強める方向で executive order を検討中と報道されている。
キーワード解説
Penetration testing (ペネトレーションテスト) とは、防御側が事前合意のもとで自社システムに対し攻撃者と同じ手法で侵入を試み、防御の弱点を洗い出す検査手法。レッドチーム演習やバグバウンティと並ぶサイバーセキュリティの中核施策。AI による自動化はコスト削減と網羅性向上に直結する。
Trusted Access とは、OpenAI が今回導入した、認可された組織にのみフィルタ緩和済みモデルを使わせる階層型アクセス制御。Anthropic の Project Glasswing と並んで、フロンティア AI を「ライセンス業」化する動きの一環。
FIDO2 / WebAuthn とは、物理セキュリティキーや生体認証を用いた、フィッシング耐性のある認証規格。パスワードに依存せず、認証情報がドメインに紐づく公開鍵暗号方式で実装される。AI モデルへの最上位アクセスにこのレベルの認証を要求する流れは、AI モデル自体の取り扱いを「機微情報」と同等に位置付ける動きを示す。
AI Security Institute (AISI) とは、英国政府が 2023 年 11 月の AI 安全サミットで設立した世界初の国家 AI 安全研究機関。米国 NIST AISI、日本 AISI と並んで国際的な AI モデル評価の中心機関を構成しつつあり、GPT-5.5 や Claude Mythos のような攻撃能力モデルのベンチマーク評価を担う。