何が変わったか
トランプ政権はこれまで前バイデン政権下のAI安全評価義務を巻き戻し、2025年7月には大統領自身がAIを「美しい赤ちゃん」と表現して「愚かなルールで止めるべきでない」と発言、AI皇帝のデイビッド・サックスも「過剰規制が変革産業を殺す」と発信してきた。脱規制を一貫姿勢としていた。
今回ニューヨーク・タイムズが報じたところによれば、ホワイトハウスは新しいAIモデルの公開前に政府レビューを義務付ける大統領令を内部検討に入った。 先週には Anthropic・Google・OpenAI に方針が説明されており、複数省庁が安全基準を評価する英国型のレビュー機構を雛形として参照しているという。トリガーは Anthropic の「Mythos」モデル — ソフトウェア脆弱性検出能力が高すぎるためAnthropic自身が一般公開を見合わせ、NSAが既に内部利用しているという経緯がある。
社会にどんな影響があるか
主たる影響として、米国のAIモデル公開ゲートが「能力ベンチマーク規制」から「サイバーセキュリティ実害シナリオ評価」へ重心を移す。Mythos が引き金になっている事実がそれを示しており、レビュー基準は「能力上限の制限」より「攻撃ベクトルとなり得るかの個別審査」に近い形になる。AI研究所側は政府が事前にモデルへアクセスする代わりに公開そのものは妨げない仕組み — つまり「ゲートキーパー」というより「先取り検査」 — を求めているとされる。
一方で副作用として、検討プロセス自体が雛形を欠いたまま政治判断に委ねられるリスクがある。スポークスパーソンは報道を「憶測」と否定し、政策発表は「トランプ大統領から直接行う」とコメントしており、組織的・恒久的な制度ではなく、その時々のホワイトハウス意向に左右される運用になる可能性が高い。
ニュースの詳細
報道の起点となったのはニューヨーク・タイムズで、Wall Street Journal と The Information が並行して内部協議の存在を確認した。新政策の発端は2026年4月の Anthropic Claude Mythos 投入で、同社は「ソフトウェア脆弱性発見能力がサイバーセキュリティの『清算 (reckoning)』を引き起こしうる」として公開を見合わせた経緯がある。NSAは既に Mythos を米政府ソフトウェアの脆弱性評価に使用している。
ホワイトハウス内部では、AI起因のサイバー攻撃が大規模被害を引き起こした場合の政治的影響を懸念する声が強まっている。レビュー機構の人選も変わった: 脱規制の旗振り役だった David Sacks は3月に AI皇帝職を退き、首席補佐官の Susie Wiles と財務長官 Scott Bessent が AI政策を引き取った形。両者は「AI政策においてより大きな役割を担うつもり」と政権外関係者に告げているという。
世論側でも風向きが変わっている。Pew の調査では、共和党支持者の50%、民主党支持者の51%が「AIの日常生活への浸透にワクワクするより不安を感じる」と回答しており、超党派で警戒感が拡大している。
キーワード解説
Claude Mythos とは、Anthropicが2026年4月に発表したClaude系列モデルのうち、サイバーセキュリティ分野で突出した能力を持つとされるモデル。同社は脆弱性発見能力が公開リスクを生むとして一般公開を見送り、限定的に米政府機関 (NSA) に提供する運用を選択した。GPT-2 の公開時にOpenAIが取った「リスクが高すぎるから出さない」スタイルの再来として注目されている。
大統領令 (Executive Order) とは、米大統領が議会通過なしに発行できる行政命令。連邦政府機関の運用方針を定める権限が中心で、立法ではなく既存法律の執行解釈を変える形で政策効果を出す。今回検討されているAIレビュー制度も、議会での新法成立を待たず大統領令で実装する想定。
英国AI Security Institute とは、英国政府が2023年に設立したAIモデル安全評価機関。複数省庁の専門家が連携して、フロンティアAIモデルのリスク (バイオ・サイバー・自律性) を評価する仕組みを持ち、米国 NIST の AI Safety Institute (CAISI) と並んでフロンティアモデル評価のひな形になっている。今回の米政府レビュー機構もこの英国型を参照している。