Google、Metaなど 子供の安全対策強化へ

2024/07/25 更新: 2024/07/25

GoogleMeta、Microsoft、Appleは、子供の虐待コンテンツ対策について、6か月ごとにeSafetyOfficeに報告する義務を負う。

同オフィスはDiscordやWhatsApp(メッセージングアプリ)などのSNSにたいしても、児童虐待コンテンツ、AI生成のディープフェイクやライブ配信中の虐待、性的恐喝の対策について詳細を報告するよう要求している。

対応しない場合、最大78万2500ドル(約1億1932万円)の罰金が科される。

eSafetyオフィスのジュリー・インマン・グラント長官は、これらの企業が子供のオンラインの安全を改善するために努力を強化することを期待している。

同氏は、AppleやMicrosoftがクラウドサービスでの児童虐待コンテンツの検出を積極的に行っていないことや、FaceTime、Discord、Skypeがライブ配信中の虐待検出技術を使用していないことを指摘した。

グラント氏は「2022年には、Microsoftは平均で対応に2日かかった」と述べた。一方、Snapは4分以内に対応したと報告している。迅速さが全てではないが、子供が危険にさらされている場合、1分1秒が重要だ」と指摘した。

今回の通知ラウンドの主な焦点は、成人が子供にオンラインで接触する能力を制限し、性的恐喝のリスク、ライブ配信、およびAI生成のディープフェイクを抑制することだ。

これらの企業は2025年2月15日までに最初の回答を提出しなければならない。

最も弱い立場の人々を守る

国際連合児童基金(UNICEF)はこの動きを歓迎し、技術企業に対する説明責任を強調した。

UNICEFオーストラリアのデジタル政策責任者ジョン・リビングストン氏は、「若者をオンラインで守ることは全員の責任であり、技術企業が最も脆弱な子供たちを保護するための取り組みについてeSafetyコミッショナーに情報を提供することが必要だ」と述べた。また、オンラインの世界が子供たちにとって安全な環境であるべきだと強調し、オンライン安全法においてより強力な措置を講じるよう引き続き求めた。

この動きは、eSafety委員会が技術企業に対し、児童のポルノアクセス禁止のための実施可能なコードの作成を求めた後に発表された。

グラント氏は、子供たちが過激なコンテンツを視聴する年齢がますます低年齢化していることに懸念を表明した。

同氏は7月2日、「我々の調査によれば、オーストラリアの子供たちが初めてポルノに遭遇する平均年齢は約13歳ですが、そのうちの3分の1はもっと若い年齢で、しかも偶然に見てしまう」と述べた。さらに、60%の若者がソーシャルメディアでポルノに触れていると報告していることを指摘した。

 

シドニーを拠点とする記者。オーストラリアとニュージーランドの国内時事を担当。
関連特集: アメリカ社会