JNSAが生成AIの安全な利用を促進するためのセキュリティ成熟度モデルを公開。4つの利用ケースに基づく脅威と対策を整理。
要約すると日本ネットワークセキュリティ協会(JNSA)の調査研究部会AIセキュリティワーキンググループ(WG)は、生成AIの安全な利用を促進するための「生成AIを利用する上でのセキュリティ成熟度モデル」を公開しました。
このモデルは、組織が生成AIを利用する際に直面するリスクや脅威を評価し、効果的な対策を講じるための指針を提供します。
資料はGitHubに公開されており、組織が生成AIを安全に活用するための具体的なステップを示しています。
具体的には、生成AIの利用ケースを4つに分類し、それぞれに関連する脅威や対策を詳述しています。
これらの分類は、外部サービスの利用(例えば、ChatGPTやGeminiなど)、APIを利用した独自環境、組織内データの利用、そして自組織向けモデルの開発に分かれています。
外部サービスの利用では、提供元のウェブインターフェースやアプリケーションを通じて生成AIを活用する方法が示されています。
API利用のケースでは、OpenAI APIやGemini APIを組織のサービスや社内環境と統合する手法が解説されており、データ利用のケースでは、ファインチューニングや検索拡張生成(RAG)技術を用いた自組織データの活用が取り上げられています。
また、自組織向けに独自の生成AIモデルを開発するケースも考慮されています。
WGは、このモデルを通じて、生成AIを導入する組織が安全かつ効果的に技術を利用できるようサポートすることを目的としています。
参考リンクhttps://news.yahoo.co.jp/articles/01395f5f479eb7f86f7e3f0f609a1aa8c54c94ea