生成AIの利用が増加する一方で、リスク対策は依然として初期段階であり、組織はデータセキュリティの強化が求められています。
調査によれば、2023年からフィッシング被害が2.9倍に増加し、88%の組織がクラウドアプリからの悪意あるコンテンツのダウンロードを月に1回以上経験しています。
特に、クラウドアプリを狙った攻撃の42%は「Microsoft Live」と「Microsoft 365」の認証情報に関連しています。
生成AIアプリの利用は増加しており、組織あたりの平均導入数は2023年の7.6個から2024年には9.6個に増加しました。
最も利用されているアプリは「ChatGPT」で、84%の組織が導入していますが、上位25%の組織では平均24個、下位25%では最大4個と大きな差が見られます。
また、組織の利用率は2023年の81%から2024年には94%に、従業員の利用率も2.6%から7.8%に増加しています。
特に小売業とテクノロジー業界では、毎月生成AIアプリを使用する従業員が平均13%以上に達しています。
一方で、生成AIアプリによるデータリスクへの対応は初期段階であり、データ漏えい防止(DLP)技術を導入している組織は45%にとどまっています。
業界別では電気通信業界が64%と最も高い割合を示しています。
リアルタイムな対話型ユーザーコーチングを利用している組織は34%ですが、ポリシー違反の警告を受けた際、73%のユーザーはコーチングに基づいた行動をとっていないことが分かりました。
さらに、73%の組織が少なくとも1つの生成AIアプリを遮断しており、平均で2.4個のアプリがブロックされています。
特に上位25%の組織では14.6個をブロックしており、2023年の6.3個から大幅に増加しています。
Netskopeは2025年までに職場での生成AI活用が加速すると予測し、組織はデータセキュリティを強化し、承認されたアプリへのデータ移動を管理することが重要としています。
参考リンクhttps://news.yahoo.co.jp/articles/5a52e90c9591cbc2160c8858a4e3be794651db27