AIによる児童ポルノ生成が増加する中、HiveがCSAM排除に向けた新たな取り組みを発表。IWFと提携し、違法コンテンツの検出と削除を強化。
この状況に対抗するため、評価額20億ドル(約3100億円)のAIスタートアップHive(ハイブ)のCEOケビン・グオは、同社のモデレーションサービスがCSAM排除の重要な手段になると強調している。
ハイブのシステムは機械学習モデルを活用し、有害コンテンツにフラグを立てる機能を持ち、掲示板やSNSで広く使用されている。
特に、1月23日には英国の非営利団体インターネット・ウォッチ・ファンデーション(IWF)との提携を発表し、顧客のサイトからCSAMを特定・削除する機能を強化することを明らかにした。
ハイブは、IWFのデータセットを定期的にAIモデルに統合し、CSAMを掲載する約8000のウェブサイトのリストや、犯罪者が使用する固有のフレーズやキーワードを活用することで、より効果的に違法コンテンツを検出する。
さらに、米国の非営利団体Thorn(ソーン)とも提携し、2024年にはその技術を活用して顧客のプラットフォームからの違反コンテンツ削除を進める計画だ。
生成AIツールの普及により、違法画像の生成が容易になり、IWFは2023年に過去最高の27万5000件のCSAM掲載サイトを法執行機関に報告した。
グオは、「かつてはCSAMは一般的ではなく、入手が難しかったが、AIエンジンの登場によってコンテンツは爆発的に増加している」と述べている。
参考リンクhttps://news.yahoo.co.jp/articles/b27cf6205e7587bd12a9340c2d3565ee881afcd4