DeepSeekのオープンソースLLMが脱獄しやすく、悪意のあるコンテンツ生成のリスクが高まっていると、パロアルトネットワークスが警告。企業はセキュリティ対策を強化する必要がある。
彼らの調査によると、DeepSeekのLLMは“脱獄”が容易であり、専門知識や技術がなくても悪意のあるコンテンツを生成できるリスクがあることが明らかになりました。
脱獄とは、LLMに設けられた安全対策を回避し、マルウェアのソースコードや爆発物の製造マニュアル、プライバシー情報などの禁止されたコンテンツを生成する行為を指します。
Unit 42は、特定の脱獄手法やLLMとの対話を通じて制限を緩める手法を試し、その結果、DeepSeekの脱獄率が非常に高いことを確認しました。
これにより、攻撃者が悪用する可能性が高まることが懸念されています。
具体的には、脱獄によってキーロガーやデータ盗難ツール、爆発物製造のためのガイダンスが生成されることが確認されました。
安全対策が不十分なLLMは、サイバー攻撃の参入障壁を低くするため、企業が未承認のサードパーティ製LLMを使用することは大きなセキュリティリスクとなります。
これに関連して、米シスコもDeepSeekのLLMに対して悪意のあるコンテンツを引き出すためのテストを実施し、DeepSeek-R1がすべてのプロンプトを通過させ、攻撃成功率が100%に達したことが報告されています。
対照的に、OpenAIのモデルでは成功率が26%にとどまり、他のモデルが有害なコンテンツを効果的にブロックしていることが示されました。
これらの結果は、オープンソースLLMをビジネスプロセスに統合する際には、脆弱性への対処が不可欠であることを示唆しています。
参考リンクhttps://news.yahoo.co.jp/articles/c5b75c2e204200bf33031e104dd88d3f757e7dbf
コメントの内容では、DeepSeek LLMのリスクやそれが企業や政府に与える影響について多くの意見が寄せられました。
特に、中国政府がこの技術を悪用されることを懸念する声があり、反政府組織がこの技術を利用することで政府に対抗できる可能性が指摘されていました。
また、DeepSeekだけでなく、他のAI技術も同様に危険であるという意見があり、生成AIが個人情報や企業機密を吸い上げるリスクについても言及されていました。
さらに、規制が多すぎるとこうした技術が抑えきれなくなるため、規制の見直しが必要だという意見もありました。
中国産の技術に対しては、情報が抜かれるリスクを理解しながらも使用する人々への疑問も呈され、中国共産党の支配下にある技術は信用できないとの見解が示されていました。
全体として、AIの利用に際しての倫理的な問題やリスク管理の重要性が強調されていたと言えます。
ネットコメントを一部抜粋
ディープシークを悪用されて困るのは中国政府だろう。
生成AIは吸ったものを吐き出す機械です。
変な規制が多すぎるからこういうものを抑えきれなくなる。
中国発は中国共産党の支配下にあるとみるべきで、絶対に信用してはいけない。
まあ、悪用されないものを作るという考え方が、そもそも中国にはないのだろうね。