楽天が発表した日本語特化AIモデルの性能と特徴

  • このエントリーをはてなブックマークに追加

楽天が発表した日本語特化型AIモデル「Rakuten AI 2.0」と「Rakuten AI 2.0 mini」は、性能向上とプライバシー保護を実現し、2025年にオープンソースとして公開予定です。

要約すると楽天グループは、2023年12月18日に日本語に特化した新しいAIモデル「Rakuten AI 2.0」と「Rakuten AI 2.0 mini」を発表しました。

これらのモデルは、近年のAI技術の進化に伴い、日本語特化型大規模言語モデル(LLM)に対する需要の高まりや、プライバシー保護、低遅延のニーズに応えるために開発されました。

「Rakuten AI 2.0」は、同社の基盤モデル「Rakuten AI 7B」を基にしており、Mixture of Experts(MoE)アーキテクチャを採用。

これにより、8つのサブモデルが70億パラメータを持ち、最適なエキスパートを選択して処理を行うことで、計算効率と性能を最適化しています。

具体的には、8倍の高密度モデルに匹敵する性能を、4分の1の計算量で実現することで、環境負荷を軽減することが可能です。

また、日本語と英語のデータで学習した結果、従来モデルと比較して日本語の処理能力が大幅に向上し、LM-Harnessによる評価では、平均日本語性能が62.93ポイントから72.29ポイントへと改善されました。

一方、「Rakuten AI 2.0 mini」は、15億パラメータのコンパクトなモデルで、リアルタイム処理やコスト削減に貢献します。

このモデルはモバイル端末への導入が可能で、データをリモートサーバに送信せずに自社で運用できるため、個人情報保護やセキュリティ強化にも寄与します。

両モデルは、AIアプリケーション開発を行う企業や技術者を支援することを目指しており、2025年春を目処にオープンソースコミュニティ向けに公開される予定です。

参考リンクhttps://news.yahoo.co.jp/articles/53a63c40f5f4266eb5bedcade7b8cd9e6c03e2a0

関連URL

2025年最新!LUUP(ループ)のニュースに関するまとめ

  • このエントリーをはてなブックマークに追加

SNSでもご購読できます。