米国のIT大手メタは、画像共有サイト「インスタグラム」で16歳未満の子どもたちが有害な内容のコンテンツを見るのを防ぐために、保護者による管理監督機能を強化すると発表した。インスタグラムは10代の若者を守るためにすでに50以上のツールを導入していると主張している。しかし、今年初めの規制当局の調査によるとどの子どももオンライン上で暴力的なコンテンツを見せられていた。そんな中、保護者の監督機能を高める新たな措置が導入される。18歳未満のユーザーのアカウントはもともと非公開に設定されているが、今後は16歳未満のユーザーが非公開設定を解除するには保護者の許可が必要になる。また、保護者は子どものメッセージのやり取りやフォローしている話題を見ることもできるようになる。16歳以上の場合は本人による年齢確認が必要。また、夜間は通知音が消され若者が1時間以上利用した場合、アラートが鳴る。最も大きな変更点は16歳未満のユーザーが設定を変える場合に保護者の許可が必要になる点。子どもたちの保護強化を求めて長年活動してきた人もいる。男性の娘はインスタグラムで自傷行為に関するコンテンツを見て2017年にみずから命を絶った。保護者の監督機能は強化されても、インスタグラムのアルゴリズムやアプリ内のコンテンツをコントロールできるわけではない。しかも一連の措置は、保護者がもっと責任を持つことを求め自分たちのすべきことを理解していることを前提としている。スナップチャットやTikTokなどのソーシャルメディアも利用時間制限や保護者の監督機能を提供している。インスタグラムは若者のアカウント制限と保護者の監督機能強化を組み合わせることで有害なコンテンツを見る若者が減ることを期待している。クリスマスに言及。