楽天はGENIACの支援のもと、MoEアーキテクチャで約7,000億パラメータの日本語特化LLM「Rakuten AI 3.0」を発表しました。日本語性能でトップスコアを達成し、楽天エコシステムでは最大90%のコスト削減を実証しています。
Rakuten AI 3.0 の技術的特徴と楽天内展開
Rakuten AI 3.0はMixture of Experts(MoE)アーキテクチャを採用した日本語大規模言語モデルで、約7,000億個のパラメータを有しています。実際の推論では各トークンに対して約400億個のみをアクティブ化する設計で、共有エキスパートと8つの専門エキスパートを経由して処理する構造です。この構成により、規模を保ちながら計算効率を高めることが可能となっています。学習は楽天が設計した社内マルチノードGPUクラスタで実行され、隔離されたクラウド環境上でデータを外部に送らずに行われました。また、楽天独自の高品質なバイリンガルデータでファインチューニングを重ね、日本語のニュアンスや文化に最適化しています。
Rakuten AI 3.0は「Rakuten AIゲートウェイ」の生成AI API群に組み込まれ、「Rakuten AI」エージェントプラットフォームを通じて楽天の各サービスへ順次導入される予定です。社内試験では、他社同規模モデルと比較してトークン当たりコストが最大90%削減される結果が示されました。さらに、来春を目途にオープンウェイトモデルとしての公開も計画しており、GENIAC(経産省・NEDO)の補助を受けた研究開発の成果が社会実装へつながる見込みです。楽天のCAIDOは高品質でコスト効率の高いモデル開発によりユーザー体験を豊かにすると述べ、経産省側も高評価を示しています。
詳しくは「楽天グループ株式会社」の公式ページまで。
レポート/DXマガジン編集部






















