2024年レビュー:児童オンラインの安全性
2024年を振り返り、特に未成年者を対象としたより強力なデジタル保護フレームワークの必要性に関する世界的なコンセンサスが高まっていることを反映して、世界中の児童オンライン安全規制の主な変化と新たな傾向を振り返ります。
2024年は、世界中の管轄区域がデジタル空間の青少年ユーザーを保護するための包括的な枠組みを実施するなど、児童オンライン安全規制の変革の年となりました。年齢保証の必要性がますます重視されるようになったこととは別に、コンテンツ管理基準、子どもをターゲットとするダークパターンに対する意識の高まり、透明性要件の強化など、他にも重要なテーマが浮かび上がってきました。
オンライン安全専用法からゲーム規制、消費者保護の枠組み、データプライバシー制度に至るまで、これらの進展は、若いユーザーが頻繁に訪れるデジタル環境における強固な保護措置の必要性に関する世界的なコンセンサスが高まっていることを反映しています。同時に、これらの法律は、保護とプラットフォームの自律性や表現の自由とのバランスを取るという課題も浮き彫りにしています。
コンテンツモデレーション
2024年、世界中の規制当局はオンラインプラットフォームでのコンテンツ管理へのアプローチを進化させました。全体的な法的傾向は、よりアクティブなコンテンツ管理とフィルタリングを義務付ける傾向にあります。しかし、米国など一部の法域では、表現の自由に関する懸念を理由にこれらの法律の適用を延期しています。
- 2月、欧州デジタルサービス法(DSA)が成立 オンラインプラットフォームへの適用を開始。DSAは、とりわけ、有害なコンテンツの拡散に対抗するための対策を講じること、およびコンテンツ管理慣行に関する情報を公開することをオンラインプラットフォームに要求しています。これに基づき、EU 委員会はすでに、コンテンツモデレーションを専門とする人材について、その資格、言語に関する専門知識、信頼される正確で自動化されたモデレーションシステムなど、その人材について理解を深めるための調査を十数件開始しています。
- 3月、イタリア競争市場局(「」AGCM「) 1000万ユーロの罰金を科した Bytedanceグループ内の3社、つまり英国、アイルランド、イタリアのTikTokエンティティについて(」TikTok「)。これは、AGCMがウイルス性の「フランス傷跡」の課題を調査したことがきっかけでした。この課題では、大きな傷跡を模した頬骨に赤いマークを付ける方法をユーザーが独学で学んでいました。コンテンツモデレーションに関して、AGCM は、自動コンテンツモデレーションでは複雑な違反に対応できないため、あまり目立たないケースでは人間によるレビューが不可欠であることを発見しました。TikTokのモデレーションチームは、一般的な基準(社会問題への認識、インターネット法、シフトの柔軟性など)に基づいて採用され、トレーニングは明らかに違法、暴力的、または性的なコンテンツに焦点を当てていました。また、自動システムは英語以外のコンテンツにはあまり効果的ではありませんでした。
- 7月、シンガポールのインフォコム・メディア開発局****(IMDA)が次のことを行うことが発表されました 導入する アプリ配信サービスの新しい行動規範。モバイルアプリストアに特定のコンテンツ管理措置を講じること、およびユーザー生成コンテンツを含むアプリのプロバイダーが有害なコンテンツを削除するためのコンテンツ管理措置を講じることを義務付けています。A) ドラフトコード は 10 月に公開協議用に公開されました。この公開協議では、「有害なコンテンツ」(性的コンテンツ、暴力、自殺、自傷行為、ネットいじめを含む)と「不適切なコンテンツ」の両方について、「有害なコンテンツ」にはより厳しい基準を適用して、コンテンツの管理を義務付けています。
- 11月、サイバースペース管理局は 中国 (キャック) 公開された 「未成年者向けモバイルインターネットモードの構築に関するガイドライン」、 とりわけ 「年齢に応じた素材」のコンテンツフィルターを義務付けています。
- 12月には、 イギリス Ofcom 公開された その違法コンテンツのリスク評価ガイダンスと違法危害行動規範の初版により、英国のオンライン安全法(OSA)に基づく最初の義務が開始されました。OSAは 比例アプローチ**—** サービスがどのように規制されるかは、サービスの規模と、サービス上で違法コンテンツに遭遇するリスクによって異なります。Ofcomは、サービスは費用対効果が高く、それに比例した方法で対策を実施すべきだと強調しています。コンテンツ管理に関しては、すべてのサービスに推奨される中核的な対策があり、大規模サービスやリスクの高いサービスにはより厳格な対策が推奨されています。大まかに言えば、
- すべてのU2Uサービスには、違法コンテンツに気づいたらそれを迅速に削除するように設計されたシステムとプロセスが必要です (事後対策)。
- マルチリスクのU2Uサービスと大規模なU2Uサービスの場合、より厳密に プロアクティブ 要件が適用されます。これには、内部コンテンツポリシー、パフォーマンス目標の策定と実施、コンテンツの口コミ性、潜在的な深刻度、違法性の可能性などの要因に基づくコンテンツレビューの優先順位付け(信頼できるフラッガーレポートを含む)が含まれます。
- このような大規模なサービスでは、モデレーターが適切なトレーニングを受けられるようにしながら、ポリシーとターゲットを効果的に実施するために、コンテンツ管理機能に適切なリソースを割り当てる必要があります。特に、Ofcomは、コンテンツモデレーションにおける人間によるレビューではなく、自動化ツールの使用に関して柔軟なアプローチを取っています。サービスでは通常、両方の方法を採用していますが、Ofcom の提案では、自動レビュープロセスと人間によるレビュープロセスの比率を明確にすることは求められていません。
- 特に大規模でリスクの高いサービスでは、CSAM(児童性的虐待資料)のコンテンツを分析するために、「ハッシュマッチング」やURL検出などの自動コンテンツ管理技術を実装する必要があります。
- 7月に、2つのケースで、 ムーディー対ネットチョイス そして ネットチョイス対パクストン、米国最高裁判所は、ソーシャルメディア企業が自社のプラットフォーム上のユーザー投稿を管理する方法を変えることを目的としたフロリダ州とテキサス州で可決された法律に関する2つの下級裁判所の判決を満場一致で無効にしました。これらの訴訟の結論は、満場一致の裁判所の見解では、 プラットフォーム上でどのコンテンツを表示し、どのコンテンツを優先するかについてのプラットフォーム側の決定は、それ自体が表現形式です。そして、それらの決定を規制しようとするいかなる立法上の試みも、顔面の違憲性がないか綿密に精査されなければならないということです。この決定は言論の自由を擁護する人々にとっての勝利であり、米国におけるコンテンツ管理法の将来に疑問を投げかけています。
ダークパターン
2024年の規制のもう1つの重要な焦点は、オンラインで子供の脆弱性を悪用する操作的なデザイン慣行への取り組みでした。7月、グローバル・プライバシー・エンフォースメント・ネットワークは 調査しました 1,000を超えるウェブサイトとモバイルアプリがあり、その大多数がユーザーがプライバシー保護に関する決定を下すのを困難にする不正なデザインパターンを使用していたと主張しています。GPENスイープには世界中の26のデータ保護当局が参加し、世界中の規制当局が調査と執行措置を講じるよう促されました。主な進展としては、規制協力のための新たな枠組みや、主要プラットフォームに対する実質的な執行措置などが挙げられます。
- 2月、EU DSAはアウトライトを導入しました 禁止 オンラインプラットフォームのインターフェースにおけるダークパターンの使用について、ユーザーが自律的かつ情報に基づいた選択や決定を下すことを妨げられているかどうかを確認するために、9件の調査を開始しました。
- 5月、オランダ消費者市場局(ACM)は 微細な Epic Gamesは、Epicがフォートナイトで子供を対象とした不当な商慣行を行ったと判断し、11億2500万ユーロ。ACMの判断では、エピックは子供たちに直接購入を促す広告を表示したり、提供されているアイテムに不正なカウントダウンタイマーを使用したりして、子供たちに購入する時間が限られていると誤解させることで、子供たちに過度の圧力をかけました。
- 7月には、GPENレポートの裏に、スペインデータ保護庁(AEPD)も 公開された 詐欺的なデザインパターンが未成年者に与える影響に関するレポート。
- 10月に、EU委員会はそれらを発表しました デジタルフィットネスチェックは、現在の欧州消費者保護の枠組みの有効性を評価し、将来のイニシアチブの基礎を設定しました。主な調査結果の中で、特に若いゲーマーにとって、ダークパターンと中毒性のあるゲームデザインの特徴が特に問題であることが判明しました。
- 11月、フランスのデータ保護機関(CNIL)と消費者保護機関(DGCCRF) 署名した 新しい協力議定書。両当局は、特にダークパターンに焦点を当てながら、データ保護と消費者保護の枠組みの解釈を調和させることを目指している。
透明性:プライバシーポリシーとルートボックスの開示
最後に、2024年には、特にプライバシーポリシーとルートボックスの開示という2つの主要分野において、子供へのオンラインサービスの提供における透明性を高めるようサービスプロバイダーに求める多くの規制措置が行われました。主な進展としては、プライバシーポリシーの策定に関する包括的なガイダンスや、ゲームにおけるルートボックスの確率的メカニクスの開示要件の厳格化などがあります。
プライバシー・ポリシー
- 3月、シンガポールの個人データ保護委員会(PDPC)は、 デジタル環境における子供の個人データに関するPDPAに関する諮問ガイドラインこれは、子どもがさまざまな速度で発達し、さまざまな能力を持っていることを認めています。すべての子どもに有効な単一のコミュニケーションアプローチは存在しないため、PDPCは、組織はインフォグラフィックやビデオクリップなど、年齢に応じた言語やメディア形式を使用してコンテンツを調整する必要があると考えています。重要なのは、同意を与えたり撤回したりすることの意味を子どもたちが理解できるように、プライバシーポリシーでは明確で子供に優しい言葉を使う必要があるということです。
- 4月、韓国の個人情報保護委員会は以下を発表しました 160 ページのガイド 個人情報処理ポリシーの作成方法について。このポリシーには、個別の子供向けプライバシーポリシーが推奨されており、子供向けのプライバシーポリシーの書き方の詳細な例も含まれています。一般的な項目を子供に優しい言葉に言い換える方法を列挙し、子供がデータ主体の権利を行使するための指示も記載されています。
- 8月、サウジデータ&AI局は 公開された 子供のデータを処理する場合、関連するプライバシーポリシーは年齢に応じたものでなければならないことを推奨する新しいガイダンス。
ルートボックス確率の仕組み
- 4月、韓国の公正取引委員会が報告されました アクションを開始 ルートボックスの確率メカニズムに関する不公平で欺瞞的な慣行を主張する多くのゲームパブリッシャーに対して。7月に、韓国のゲーム評価管理委員会 (GRAC) が報告しました。 レビューしました 2024年3月22日に新しいルートボックスの確率開示規則が施行されてから1,255ゲームがリリースされました。GRACは、ルール違反の疑いのあるゲームを合計266個(うち60%は外資系パブリッシャーのもの)を特定しました。訂正命令が出されており、GRACは、ルールに従わない場合はゲームの配布が禁止される可能性があるとしています。
- 7月、英国広告基準局(ASA)は 苦情を支持した モバイルゲームの広告でルートボックスの開示が不十分だったとして、エレクトロニック・アーツに反対。この場合、ゲームに関する警告が表示されます。」オプションのゲーム内購入が含まれます(ランダムアイテムを含む)「が小さい薄い灰色のフォントで表示され、2 秒間画面に表示されましたが、ASA では不十分であることがわかりました。
- 10月、欧州委員会の「デジタル・フィットネス・チェック(Digital Fitness Check)」でも、消費者保護の改善が必要な分野として、ルートボックスがデザインの中毒性が懸念される点が指摘されました。このような背景のもと、欧州委員会はこうした。 発表された オンラインとオフラインの平等な公平性を確保するために、中期的に追加の法律やその他の措置が必要かどうかを分析するということです。
将来を見据えて
これらの進展は、特に未成年者を対象とした、より強力なデジタル保護フレームワークの必要性に関する世界的なコンセンサスが高まっていることを反映しています。コンテンツモデレーションの自動化と人間によるモデレーションのバランス、ダークパターンとの闘い、透明性の向上の推進は、今後も規制上の主要な優先事項であり続けると思われます。