Shoji Times

#2026-05-12
20 sources → 23 news printed at 2026/05/12
ai

Baidu、ERNIE 5.1 を「Once-For-All 弾性訓練」で事前学習コスト 94% 削減して公開

「フロンティアモデルは数千億ドル規模の計算予算が必要」という前提は崩れつつあり、効率化アプローチが性能差を実用域まで縮めている

Baidu、ERNIE 5.1 を Once-For-All 弾性訓練で事前学習コスト 94% 削減して公開


何が変わったか

これまで最先端 LLM の開発は、モデルサイズごとに独立した数億〜数十億ドル規模の事前学習を必要としており、新サイズ展開のたびに同等の計算予算が再投入されていた。

Baidu は ERNIE 5.0 (2.4 兆パラメータ MoE) の事前学習基盤を共有しつつ、深さ・幅・専門エキスパート数を可変にする「Once-For-All 弾性訓練フレームワーク」でサブモデル ERNIE 5.1 を抽出する手法を採用し、事前学習コストを比較対象モデルの約 6% に抑えた。Arena Search Leaderboard では 1,223 点で世界 4 位、中国モデル中 1 位 (2026 年 5 月 9 日時点)。Claude Opus 4.6/4.7 と GPT-5.5 Search に次ぐ位置。

社会にどんな影響があるか

主たる影響として、「LLM 開発はトップ数社の計算独占構造に固定される」というナラティブが、Once-For-All のような知識蒸留・弾性訓練系手法の進歩によって緩む可能性が示された。中国勢は西側のフロンティアモデル全水準には届かないものの、計算効率の改善で実用域の性能をはるかに低コストで実現する戦略に重心を置いている。

副作用として、ERNIE 5.1 の重みは非公開のため、ベンチマークスコアと計算効率の主張は独立検証ができない。Baidu の自社申告に依存する数値である点は留保が必要。

ニュースの詳細

ERNIE 5.1 は ERNIE 5.0 の総パラメータの約 1/3、クエリあたりアクティブパラメータの約 1/2 に絞ったサブモデル。ベンチマーク面では autonomous AI agent タスク (tau3-bench, SpreadsheetBench-Verified) で DeepSeek V4 Pro を上回り、知識・推論ベンチ (GPQA, MMLU-Pro) で Gemini 3.1 Pro に肉薄、数学ベンチ AIME26 (ツール使用あり) では Gemini 3.1 Pro の僅差後位。ファインチューニングは 4 段階パイプライン (統合 SFT → コード・推論・エージェント専門エキスパート並列訓練 → 単一学生モデルへのオンポリシ蒸留 → 一般 RL) を採用し、シーソー効果 (複数能力同時訓練時の相互干渉) を抑制。ERNIE 5.1 は ernie.baidu.com と Baidu AI Studio でアクセス可能で、ロールプレイ Isekai Zero、クリエイティブエージェント Mulan AI、AI キャンバス Diting Huanliu、短編ドラマ生成 Storymaster などのクリエイティブプラットフォーム 10 以上にも展開される。重みは公開されない。

キーワード解説

Once-For-All 弾性訓練 とは、1 回の学習で深さ・幅・MoE エキスパート数の異なる複数モデル構成を同時最適化し、用途別に切り出して使えるサブモデル群を一度に得る訓練手法。各サイズで個別事前学習を回す従来コストを大幅に圧縮する。

シーソー効果 (seesaw effect) とは、LLM のポストトレーニングで複数能力 (コード生成・論理推論・創作など) を同時に強化しようとすると、ある能力の向上が別能力の劣化を引き起こす現象。専門エキスパート並列訓練 + 知識蒸留はこの問題への対処策として近年広まりつつある。

source: The Decoder , Baidu ERNIE Blog