AIが道徳的判断を行う際、人々はAIと人間のどちらを信用するのか、研究が示す新たな視点とは。
立正大学の山本仁志教授と津田塾大学の鈴木貴久准教授による研究チームは、特に「間接互恵性」という心理的メカニズムに焦点を当てています。
間接互恵性とは、他者の評判に基づいて行動する心理を指し、例えば「その人は良い人だ」との評判があれば、その人に協力しようとする心理が働きます。
この研究では、AIと人間の道徳的判断が異なる場合、参加者がどちらの判断を受け入れるかを調査しました。
結果として、AIが「正当化される非協力」を良しとし、人間がそれを悪いと判断した場合にのみ、参加者はAIの判断を受け入れる傾向があることが分かりました。
これにより、AIは客観的な判断を下す存在と見なされる一方で、人間の判断には差別的意図があると推論されることが多いことも示されました。
この研究は、信頼や協力に基づく社会において、AIが果たす役割の重要性を示唆しており、AIに対する偏見をなくし、社会規範に合致したAIシステムの設計が求められることが強調されています。
研究チームは、AIの道徳的判断が人間の期待や社会的規範に合致することが、今後のAI技術の発展において重要であると述べています。
参考リンクhttps://news.yahoo.co.jp/articles/4efc4e7546c73330ee96b5b1c7686e8dbe20db17
コメントでは、AIと人間の道徳的判断に関するさまざまな視点が共有されました。
多くの人が、AIは正常に動作することを前提にしているため、機械の判断が誤っている場合には、その背後にいる人間のミスを想像することが難しいと感じていました。
また、AIは人間の道徳観を学習するため、法律や規則に従うことが必ずしも正しいとは限らないという意見もありました。
さらに、AIは膨大なデータをもとに判断を下すため、元データの選別が重要であり、偏見が入り込む可能性も指摘されました。
道徳的な判断は国や文化、時代によって変わるため、AIにその判断を委ねることにはリスクがあるとの考えも多く見受けられました。
結局、道徳的に難しい問題に直面した際には、人は自分に都合の良い方を選ぶ傾向があるとの意見もありました。
このように、AIと人間の道徳的判断の違いや、AIの限界についての認識が深まっていることがわかりました。
ネットコメントを一部抜粋
機械は正常に動作するものって前提条件を知らず知らずに付けてしまうからでは?
道徳というものは時代背景や国、宗教などいくらでも変わる要素がある。
AIは膨大なデータを集めて多数決的に良し悪しを判断するようなので「偏見」は普通にあります。
AIは心が無く、涙も流さない。
どんなに頑張っても人間にはなれないので、道徳に関しては人に従った方が良いのでは。
国、場所、時代、立場によって善悪は変わる。
正解など無い。