楽天、LLM「Rakuten AI 2.0」を発表 – 日本語特化の新モデル

  • このエントリーをはてなブックマークに追加

楽天が日本語に特化したLLM「Rakuten AI 2.0」を発表。2025年春にオープンソース公開予定。効率的な処理と高精度を実現。

要約すると楽天グループは、2023年12月18日に日本語に最適化された大規模言語モデル(LLM)「Rakuten AI 2.0」と小規模言語モデル(SLM)「Rakuten AI 2.0 mini」を発表しました。

これらのモデルは、2025年春にオープンソースとして公開される予定です。

「Rakuten AI 2.0」は、Mixture of Experts(MoE)アーキテクチャを採用し、8つの70億パラメータモデルで構成されています。

この設計により、入力トークンは最適な2つの「エキスパート」(サブモデル)に振り分けられ、効率的な処理が実現されます。

楽天によると、このモデルは8倍の規模の高密度モデルに匹敵する性能を持ちながら、計算資源の使用を約4分の1に抑えることができるとのことです。

また、日本語の性能は、従来の「Rakuten AI 7B」と比較して、8つのタスクで62.93から72.29へと約15%向上し、高い精度を実現しています。

一方、「Rakuten AI 2.0 mini」は15億パラメータで構成され、モバイル端末への導入が可能で、データのローカル処理を実現します。

これにより、プライバシー保護や低遅延が求められる特定のアプリケーションに最適なモデルとなります。

楽天グループのChief AI & Data Officerであるティン・ツァイ氏は、これらのモデルが高品質な日本語データや革新的なアルゴリズム、エンジニアリングによって効率性が高まっていることを強調し、日本の企業や技術者がユーザーに役立つAIアプリケーションを開発するための重要なステップであると述べました。

参考リンクhttps://news.yahoo.co.jp/articles/176076dd91d2e028ed43e4b154c7e94457958127

関連URL

2025年最新!LUUP(ループ)のニュースに関するまとめ

  • このエントリーをはてなブックマークに追加

SNSでもご購読できます。