楽天が日本語に特化したLLM「Rakuten AI 2.0」を発表。2025年春にオープンソース公開予定。効率的な処理と高精度を実現。
これらのモデルは、2025年春にオープンソースとして公開される予定です。
「Rakuten AI 2.0」は、Mixture of Experts(MoE)アーキテクチャを採用し、8つの70億パラメータモデルで構成されています。
この設計により、入力トークンは最適な2つの「エキスパート」(サブモデル)に振り分けられ、効率的な処理が実現されます。
楽天によると、このモデルは8倍の規模の高密度モデルに匹敵する性能を持ちながら、計算資源の使用を約4分の1に抑えることができるとのことです。
また、日本語の性能は、従来の「Rakuten AI 7B」と比較して、8つのタスクで62.93から72.29へと約15%向上し、高い精度を実現しています。
一方、「Rakuten AI 2.0 mini」は15億パラメータで構成され、モバイル端末への導入が可能で、データのローカル処理を実現します。
これにより、プライバシー保護や低遅延が求められる特定のアプリケーションに最適なモデルとなります。
楽天グループのChief AI & Data Officerであるティン・ツァイ氏は、これらのモデルが高品質な日本語データや革新的なアルゴリズム、エンジニアリングによって効率性が高まっていることを強調し、日本の企業や技術者がユーザーに役立つAIアプリケーションを開発するための重要なステップであると述べました。
参考リンクhttps://news.yahoo.co.jp/articles/176076dd91d2e028ed43e4b154c7e94457958127