Metaが「Instagram」のティーンアカウント機能を「Facebook」と「Messenger」にも導入し、子どもの安全を強化する動きが進行中です。新機能は、保護者の監督を促し、ティーンがより安全に利用できる環境を提供します。
この新機能は、米国、英国、オーストラリア、カナダから導入され、今後他の地域にも展開される予定だ。
ティーンアカウントには、16歳未満のユーザーが保護者の許可なしにライブ配信を行ったり、ダイレクトメッセージのヌード画像へのぼかしをオフにしたりできないようにする追加の保護機能が含まれている。
Metaは2024年9月にInstagramのティーンアカウントを初めて導入し、5400万件のアカウントが切り替えられたと報告している。
ティーンアカウントはデフォルトで非公開であり、問題のあるコメントやDMリクエストを自動でフィルタリングする機能も備えている。
保護者の同意があれば一部機能はオフにできるが、13~15歳のティーンの97%はデフォルトの安全策を利用しているという。
調査によると、保護者の94%がティーンアカウントを有用と感じているが、調査対象の人数や地域は不明である。
子どもの安全を求める活動家たちは、ソーシャルメディア企業に対し、子どもが安全に利用できる環境を整えるよう訴えてきた。
Metaの取り組みは進展とされるが、同社は他の安全策を後退させているとの批判も受けており、特にファクトチェックプログラムの終了が懸念されている。
専門家は、ティーンアカウントの導入による変化を最大限に活かすには、Meta全体で有害コンテンツを減らすための積極的な対策が必要だと指摘している。
参考リンクhttps://news.yahoo.co.jp/articles/aed0a1f8519c2965f7ff53be1c11ec845abffac4