富士通が発表したマルチAIエージェント技術は、複数のAIが協力して脅威に対処する新たなセキュリティ手法です。
この技術は、複数のAIエージェントが協調して動作することにより、脆弱性や新たな脅威に対して迅速かつ効果的なセキュリティ対策を提供することを目的としています。
具体的には、技術は三つの主要な要素から構成されています。
第一に、異なる組織や拠点で開発されたAIエージェントが、環境の差異を意識することなく情報を交換し、連携できる「マルチAIエージェント連携」があります。
これにより、データの秘匿やプライバシーの保護を維持しつつ、各エージェントが協力して機能することが可能になります。
第二に、攻撃シナリオを作成する「攻撃AIエージェント」、企業のリスク評価に基づいて防御策を提案する「防御AIエージェント」、そして仮想環境を自動構築して防御策の影響を分析する「テストAIエージェント」という三種類のAIエージェントが開発されました。
これらのエージェントは互いに連携し、攻撃と防御のシミュレーションを交互に行うことで、新たな脅威に対する効果的な防御策を講じることができます。
第三に、生成AIや大規模言語モデル(LLM)に対する攻撃リスクを軽減するために、「LLM脆弱性スキャナー」と「LLMガードレール」が開発されました。
これらは、自動で脆弱性をチェックし、攻撃的なプロンプトを検知して拒絶するガード規則を適用する機能を持っています。
この技術の開発には、カナダのCohereやイスラエルのネゲヴ・ベン・グリオン大学との共同研究が含まれ、2025年には一部の技術がオープンソースとして公開される予定です。
参考リンクhttps://news.yahoo.co.jp/articles/bc3eabd8e21232010e3f4b92e764a3c1a5f27029