日本語能力強化のLlama 3.3 SwallowとAppleのWebKit脆弱性修正

  • このエントリーをはてなブックマークに追加

日本語能力を強化した「Llama 3.3 Swallow」が公開され、AppleがWebKit脆弱性を修正しました。

要約すると東京科学大学の岡崎研究室と横田研究室、国立研究開発法人産業技術総合研究所が共同で開発した大規模言語モデル「Llama 3.3 Swallow」が公開され、その日本語能力が強化されました。

このモデルは、Llama 3.3を基にしており、70Bのパラメータを持つものです。

日本語の理解と生成に特化したこのモデルは、GPT-4oやQwen2.5-72B、Sarashina2-70Bなどの他のモデルと比較され、日本語理解および生成タスクにおいて平均スコア0.629を記録し、GPT-4oの0.646に次ぐ性能を示しました。

しかし、指示チューニングモデル「Llama 3.3 Swallow 70B Instruct v0.4」の日本語MT-Benchの平均スコアは0.772で、GPT-4oの0.848やQwen2.5-72B-Instructの0.835には及びませんでした。

このモデルは、Gemma利用規約に従い、商業目的や研究目的での利用が可能ですが、合成データを学習に使用しているため、利用制限があります。

一方、Appleは3月11日にiPhoneiPad、macOSなどのセキュリティアップデートを配信し、WebKitの脆弱性(CVE-2025-24201)を修正しました。

この脆弱性は、悪意のあるWebコンテンツがサンドボックスを突破する可能性があるもので、iOS 17.2での攻撃に対する追加修正となっています。

特に、以前のバージョンのiOSでは特定個人に対する高度な攻撃が悪用された可能性が指摘されています。

これらのニュースは、最新の技術動向やセキュリティ対策の重要性を示しています。

参考リンクhttps://news.yahoo.co.jp/articles/86e16496aafe5bc45f74125da1f2c38788d8ea39

関連URL

2025年最新!iPadのニュースに関するまとめ

  • このエントリーをはてなブックマークに追加

SNSでもご購読できます。