楽天、日本語最適化モデル「Rakuten AI 2.0」を発表
楽天グループ株式会社は、日本語処理に特化した大規模言語モデル「Rakuten AI 2.0」と、同社初の小規模言語モデル「Rakuten AI 2.0 mini」を発表した。この発表により、同社はAIを活用した日本語処理技術の効率化をさらに推進する狙いを明確にしている。両モデルは、2025年春を目処にオープンソースコミュニティに公開予定であり、企業や技術者がAIアプリケーションを開発する際の支援を目指している。
Rakuten AI 2.0は、8つの「エキスパート」と呼ばれるサブモデルを統合したMixture of Experts(MoE)アーキテクチャを採用。この構造により、入力トークンに応じて最適な2つのエキスパートが選定され、効率的な処理が可能となる。性能面では、従来モデルに比べて計算効率が大幅に向上しており、消費計算量を約4分の1に削減しながら、8倍規模のモデルと同等のパフォーマンスを発揮するという。
モデルの評価は、自然言語処理能力を測定するLM-Harnessを用いて実施された。その結果、Rakuten AI 2.0の日本語タスクにおける平均スコアは72.29とされ、従来の「Rakuten AI 7B」モデルの62.93を大きく上回る数値を記録した。国内外の競合モデルに対しても高いパフォーマンスを示している。
多様なニーズに応えるコンパクトな「Rakuten AI 2.0 mini」
同時に発表されたRakuten AI 2.0 miniは、小規模ながらも高い精度を備えたモデルだ。このモデルは15億パラメータで構成され、楽天独自の多段階データフィルタリングとアノテーションプロセスを通じて開発された。これにより、モバイル端末での使用を想定した軽量設計ながら、効率的で精度の高いテキスト生成が可能だ。
小規模であるがゆえの利点も多い。データをリモートサーバーに送信せず、端末内で処理できるため、プライバシー保護や低遅延といった要件を満たす。特定の用途に特化したAIアプリケーション開発において実用性が高い選択肢となる。
楽天はこれらのモデルを通じて、独自の技術力を発展させるだけでなく、「楽天エコシステム」の拡大も目指している。大規模から小規模まで幅広いニーズに応えるAIモデルを開発することで、技術者や企業にさらなる可能性を提供していく方針だ。
【関連リンク】
・楽天、日本語に最適化したAIモデル「Rakuten AI 2.0」と「Rakuten AI 2.0 mini」を発表(ZDNET Japan)
https://japan.zdnet.com/article/35227494/
関連記事
TEXT:PreBell編集部
PHOTO:iStock
この記事を気にいったらいいね!しよう
PreBellの最新の話題をお届けします。