2024 年回顾:儿童在线安全
回顾2024年,以及全球儿童在线安全监管的主要变化和新兴趋势,反映出全球对需要更强有力的数字保护框架,特别是针对未成年人的数字保护框架的共识日益增强。
2024年是儿童在线安全监管的变革性一年,世界各地的司法管辖区都在实施全面的框架来保护数字空间中的年轻用户。除了越来越重视年龄保障的需求外,围绕内容审核标准、提高对针对儿童的深色模式的认识以及提高透明度要求等其他关键主题也出现了。
从专门的在线安全法到游戏法规、消费者保护框架和数据隐私制度,这些发展反映了全球对年轻用户经常光顾的数字环境中需要强有力的保障措施的必要性的共识。同时,这些法律也凸显了在保护与平台自主权和言论自由之间取得平衡所面临的挑战。
内容审核
2024年,全球监管机构不断发展在线平台内容审核方法。总体立法趋势是要求更积极的内容审核和筛选;但是,一些司法管辖区,例如美国,以对言论自由的担忧为由推迟了这些法律。
- 二月份,《欧盟数字服务法》(DSA) 开始申请在线平台。除其他外,DSA要求在线平台采取措施打击有害内容的传播,并发布有关其内容审核做法的信息。在此基础上,欧盟委员会已经开始了十几项调查,以进一步了解专门从事内容审核的人力资源,包括他们的资格和语言专业知识以及所依赖的准确性和自动审核系统。
- 3月,意大利竞争与市场管理局(”AGCM“) 处以一千万欧元的罚款 关于字节跳动集团内的三家公司,即英国、爱尔兰和意大利的抖音实体(”抖音“)。这是由AGCM对病毒式 “法国疤痕” 挑战的调查引发的,该挑战涉及用户自学如何在颧骨上获得模仿大疤痕的红色标记。关于内容审核,AGCM发现,自动内容审核难以应对复杂的违规行为,因此人工审查对不太明显的案例至关重要。TikTok的审核小组是根据通用标准(例如对社会问题的认识、互联网法律和轮班灵活性)招募的,他们的培训侧重于公开的非法、暴力或色情内容,他们的自动化系统对非英语内容的效果较差。
- 7月,新加坡信息通信媒体发展局****(IMDA)宣布将 介绍 新的《应用程序分发服务行为守则》,要求移动应用商店制定特定的内容审核措施,并确保包含用户生成内容的应用程序提供商采取内容审核措施来删除有害内容。一个 代码草稿 已于10月发布供公众咨询,要求对 “有害内容”(包括性内容、暴力、自杀和自残以及网络欺凌)和 “不当内容” 进行内容审核,更严格的标准适用于 “有害内容”。
- 11月,美国网络空间管理局 中国 (CAC) 已出版 《未成年人移动互联网模式建设指南》, 除其他外 强制对 “适合年龄的材料” 进行内容过滤。
- 在十二月, 英国 Ofcom 已出版 其非法内容风险评估指南和第一版非法危害行为准则,启动了英国《在线安全法》(OSA)下的第一套职责。OSA 需要一个 相称的方法**—** 如何监管服务取决于服务的规模以及在服务中遇到非法内容的风险。Ofcom强调,服务部门应以具有成本效益且与之相称的方式执行这些措施。在内容审核方面,建议对所有服务采取一系列核心措施,对规模较大和/或风险较高的服务采取更严格的措施。从广义上讲:
- 所有 U2U 服务都必须具有旨在在发现非法内容后迅速删除非法内容的系统和流程(被动措施)。
- 对于多风险的 U2U 服务和大型 U2U 服务,更为严格 积极主动 要求适用。其中包括制定和实施内部内容政策、绩效目标,以及根据内容病毒性、潜在严重程度和非法可能性等因素(包括可信举报者报告)对内容审查进行优先排序。
- 这些大型服务机构还必须为其内容审核职能提供适当的资源,以有效实施其政策和目标,同时确保版主接受适当的培训。值得注意的是,Ofcom在使用自动化工具而不是人工审查进行内容审核方面采取了灵活的方法。尽管服务通常采用两种方法,但Ofcom的提案并未规定自动和人工审查过程之间的具体比例。
- 具体而言,对于规模较大、风险较高的服务,必须实施诸如 “哈希匹配” 和 URL 检测之类的自动内容审核技术来分析 CSAM(儿童性虐待材料)的内容。
- 在七月,在两个案例中, 穆迪诉网络选择案 和 NetChoice 诉帕克斯顿案,美国最高法院一致撤销了两个下级法院关于佛罗里达州和德克萨斯州通过的法律的裁决,这些法律旨在改变社交媒体公司审核其平台上用户帖子的方式。从这些案件中得出的结论是, 法院一致认为, 平台决定在其平台上显示哪些内容和确定哪些内容的优先顺序,本身就是表达的言论形式, 而且任何监管这些决定的立法尝试都必须经过严格审查, 看其是否违宪.这一决定是言论自由倡导者的胜利,也使人们对美国内容审核法的未来产生了怀疑。
深色图案
2024年的另一个主要监管重点是解决利用儿童在线漏洞的操纵性设计行为。7月,全球隐私执法网络 已检查 超过1,000个网站和移动应用程序,并声称其中大多数使用了欺骗性的设计模式,使用户难以做出保护隐私的决定。GPEN Sweep涉及来自世界各地的26个数据保护机构,促使世界各地的监管机构采取调查和执法行动。主要进展包括新的监管合作框架,以及针对主要平台的实质性执法行动。
- 二月份,欧盟DSA推出了一项彻底的协议 禁止 关于在在线平台界面上使用深色图案的问题,并启动了9项调查,以验证是否阻止用户做出自主和知情的选择或决定。
- 5月,荷兰消费者与市场管理局(ACM) 罚款 Epic Games11.5万欧元,认定Epic在Fortnite中使用了针对儿童的不公平商业行为。在ACM的决定中,Epic对儿童施加了不必要的压力,他们使用广告直接劝告孩子购物,对所售物品使用欺骗性的倒计时器,误导孩子们相信他们的购买时间有限。
- 7月,根据GPEN报告,西班牙数据保护局(AEPD)还 已出版 关于欺骗性设计模式对未成年人的影响的报告。
- 10月,欧盟委员会发布了他们的 数字体能检查, 该报告评估了当前欧洲消费者保护框架的有效性, 为未来的举措奠定了基础.在主要发现中,深色图案和令人上瘾的游戏设计特征被认为特别成问题,尤其是对于年轻玩家而言。
- 11月,法国数据保护局(CNIL)和消费者保护局(DGCCRF) 已签署 新的合作协议。这两个机构旨在协调数据保护和消费者保护框架之间的解释,特别关注深色模式
透明度:隐私政策和战利品箱披露
最后,2024年出现了许多监管举措,要求服务提供商提高向儿童提供在线服务的透明度,特别是在两个关键领域:隐私政策和战利品箱披露。主要进展包括对隐私政策撰写的全面指导,以及对披露游戏中战利品箱概率机制的更严格要求。
隐私政策
- 3月,新加坡个人数据保护委员会(PDPC)发布了 关于数字环境中儿童个人数据PDPA的咨询指南, 它承认儿童的成长速度不同, 能力也不同.由于没有一种单一的沟通方式适用于所有儿童,PDPC认为,组织必须使用适合年龄的语言和媒体格式(例如信息图表和视频片段)来定制其内容。重要的是,隐私政策必须使用清晰、对儿童友好的语言,以确保儿童能够理解给予和撤回同意的影响。
- 4月,韩国个人信息保护委员会发布了 160 页指南 关于如何制定个人信息处理政策,该政策建议单独制定儿童隐私政策,甚至包括如何撰写儿童隐私政策的详细示例。它列举了如何将常见项目改写为儿童友好型语言,并包括儿童行使数据主体权利的说明。
- 8月,沙特数据与人工智能管理局 已出版 新指南建议,如果处理儿童数据,相关的隐私政策应适合年龄。
战利品箱概率机制
- 4月份,据报道,韩国公平贸易委员会 开始行动 针对一些游戏发行商,指控他们在战利品箱概率机制方面存在不公平和欺骗性的行为。7月,据报道,韩国游戏评级和管理委员会(GRAC) 审查 自新的战利品箱概率披露规则于2024年3月22日生效以来,已有1,255款游戏。GRAC共发现了266款他们声称违反规定的游戏(其中60%来自总部设在国外的发行商)。更正令已经发布,GRAC表示,如果游戏不遵守规定,可能会被禁止发行。
- 7月,英国广告标准局(ASA) 维持了申诉 反对 Electronic Arts,理由是手机游戏广告中的战利品箱披露不足。在这种情况下,警告指出 “游戏”包括可选的游戏内购买(包括随机物品)“以浅灰色的小字体显示,并在屏幕上显示了两秒钟,ASA认为这还不够。
- 10月,欧盟委员会的数字健身检查还将战利品箱确定为令人担忧的令人上瘾的设计功能,这是改善消费者保护的一个领域。在这种背景下,欧盟委员会 宣布了 它将分析中期内是否需要额外的立法或其他行动,以确保在线和离线的平等公平。
展望未来
这些事态发展反映了全球越来越多的共识,即需要加强数字保护框架,特别是针对未成年人的数字保护框架。自动化内容审核和人工内容审核之间的平衡、打击暗黑模式以及推动提高透明度可能仍然是未来监管的关键优先事项。