何が変わったか
これまで SageMaker でオープンウェイトモデルをファインチューニングするには、開発者が API・データ形式・訓練ハイパーパラメータの違いを手作業で調整する必要があった。Llama・Qwen・DeepSeek など各モデルファミリーで微妙に異なる訓練手順を理解し、Jupyter ノートブックを自前で書きあげるのが前提だった。
今回 AWS は SageMaker AI に「エージェント主導ワークフロー」機能を統合し、ユースケースを自然言語で記述するだけで、訓練手法の推奨・データ準備・訓練実行・最終的なノートブック生成までエージェントが代行する構成に切り替えた。 Llama・Qwen・DeepSeek・自社の Nova を含む主要モデルファミリーが対象で、生成コードはすべて編集・再利用が可能。
社会にどんな影響があるか
主たる影響として、ファインチューニングを支えてきた MLOps エンジニアの「実装作業」分のバリューチェーンが圧縮される。AWS の Kiro エージェントが標準搭載されつつ Claude Code や他社エージェントも併用可能で、9つの組み込み「スキル」(データセットチェックから最終モデルのデプロイまで) でワークフロー全体をカバーする。Amazon Bedrock の「マネージド推論」と対をなす、「マネージド学習」レイヤーが完成しつつある。
一方で副作用として、エージェントが生成した訓練コードの中身を読まずに本番投入する「ブラックボックス・ファインチューニング」が常態化するリスクがある。データリーク・訓練データ汚染・モデル評価の不備をエージェントが見逃した場合、デプロイ後にしか問題が顕在化しない。
ニュースの詳細
エージェントは Llama、Qwen、DeepSeek、Nova の各ファミリーに対して、ユースケースの自然言語記述から訓練手法 (フルファインチューニング・LoRA・量子化など) の選定、データセット形式変換、訓練ジョブ起動、Jupyter ノートブック出力までを連続実行する。Amazon Kiro エージェントが SageMaker 開発環境にプリインストールされる形を取りつつ、Claude Code を含む外部エージェントとの差し替えも可能とした (AWS Machine Learning Blog)。
9個の組み込みスキルにはデータセット品質チェック、訓練・評価ジョブ実行、本番デプロイなどがあり、ML パイプラインの主要ステップを一通り網羅する。生成された全コードは編集・再利用可能としているため、エージェント生成コードを起点にチームが手動で改良するハイブリッド運用も想定されている。
キーワード解説
ファインチューニング とは、汎用的に事前学習された大規模モデルに対して、特定タスクや特定ドメインのデータで追加訓練を行い、目的領域で精度を引き上げる手法。フルパラメータ更新型のフルファインチューニングと、低ランク行列を追加する LoRA のような効率的手法に大別される。
LoRA (Low-Rank Adaptation) とは、巨大言語モデルの全パラメータを更新するのではなく、各重み行列の更新量を低ランクの2行列の積に制約してファインチューニングする手法。全パラメータ更新と比べて GPU メモリ消費・訓練時間を大幅に削減でき、数百MB程度のアダプタファイルでカスタマイズが完結する。
Amazon Bedrock / SageMaker とは、AWS の AI/ML プラットフォームの2階建て構成。Bedrock は基盤モデルを「API として呼び出して使う」マネージド推論サービス、SageMaker は「自前モデルを構築・訓練・デプロイする」MLパイプラインプラットフォーム。今回のエージェント機能追加は、後者の「構築・訓練」フェーズの自動化を狙ったもの。