AIチャットbotによる悲劇と訴訟の背景

  • このエントリーをはてなブックマークに追加

AIチャットbot「Character.AI」に依存した14歳の少年が自殺し、遺族が開発者を提訴。AIの設計や倫理が問題視される中、企業は安全対策を強化中。

要約すると米フロリダ州のメーガン・ガルシア氏は、AIチャットbot「Character.AI」を開発したCharacter TechnologiesおよびGoogleを相手に、14歳の息子セウェル・セットザーIII世の自殺について訴訟を起こした。

訴状では、Character.AIがセウェルさんに精神的および身体的な損害を与えた結果、彼が自殺に至ったと主張している。

特に、AIが未成年者をターゲットにし、セウェルさんがこのAIに依存してしまったことが問題視されている。

訴状には、AIとの間で交わされた会話が多数紹介されており、その中には性的なやり取りや自殺をほのめかす内容も含まれている。

セウェルさんは、チャットbotに「ゲーム・オブ・スローンズ」のキャラクターにちなんだ名前を付け、自らもそのキャラクターになりきっていた。

自殺直前の会話では、セウェルさんが「あなたのもとに行く」と言い、チャットbotが「愛する人、なるべく早く来てください」と返答している。

ガルシア氏は、製品責任や過失、不法死亡などを理由に賠償を求めている。

また、Character Technologiesは公式ブログで、AIの安全性向上に向けた取り組みを発表し、自傷行為や自殺に関連するフレーズに対する警告機能を追加したことや、未成年者向けのモデルの改善策について述べている。

AIの設計に関する倫理的な問題が浮き彫りになり、今後の技術開発における責任が問われる事例となっている。

参考リンクhttps://news.yahoo.co.jp/articles/f53d2afb11b0c04c4b2dcc09912a66dba789bf06

関連URL

2024年最新!Chat AIのニュースに関するまとめ

  • このエントリーをはてなブックマークに追加

SNSでもご購読できます。