发生了什么:范围、监管和执行
爱尔兰的在线安全准则标志着该国对视频分享平台监管方式的重大转变。TikTok、YouTube、Instagram和Facebook Reels等平台将需要在下个月内遵守新的内容标准。该准则特别针对那些经常逃避现有法律的有害内容,如网络欺凌、自残宣传、饮食失调、煽动暴力和恐怖主义。
虽然该准则特别适用于向爱尔兰用户提供的视频服务,但许多科技公司可能会在整个欧盟范围内应用这些规定,以确保其运营的一致性。这一举措将爱尔兰对在线内容的监管方式从自我监管转变为正式的监管框架。
该准则不仅通过涵盖有害但不一定是非法的内容来补充欧盟的《数字服务法》(DSA),还要求这些平台实施强大的系统,使用户能够报告有害内容。爱尔兰媒体委员会将负责执行该准则,这标志着爱尔兰社交媒体自我监管的终结。值得注意的是,该准则要求允许成人内容的平台实施“适当”的年龄验证系统——尽管具体技术由各平台自行决定,基于其适用性。
为了进一步支持年轻用户,视频分享平台预计将引入易于使用的内容评级系统和家长控制功能,以保护可能对16岁以下儿童发展产生负面影响的内容。
关键要点
- 范围:该准则适用于总部设在爱尔兰的主要视频分享平台,并有可能在整个欧盟范围内扩展以确保一致性。
- 内容监管:必须禁止在平台的条款和条件中出现有害内容,如网络欺凌、自残宣传、种族主义和恐怖主义。
- 无上传过滤器:欧盟法律禁止强制上传过滤器,这意味着执行机制将基于“通知和删除”模式。
- 执行机构:爱尔兰媒体委员会将执行该准则,重点关注爱尔兰从行业自我监管的转变。
- 年龄保证:平台必须为可能不适合未成年人的内容提供年龄保证机制。
- 家长控制:将要求提供用户友好的内容评级系统和家长控制功能,以保护16岁以下的用户。
深入分析:在线安全监管的新时代
爱尔兰的在线安全准则是在线安全,特别是对儿童安全的重要一步。与之前主要关注非法内容的监管尝试不同,该准则扩大了范围,包括有害但技术上合法的内容。这种细致入微的方法填补了欧盟《数字服务法》(DSA)留下的空白,该法主要针对非法活动。
依赖“通知和删除”机制而不是强制上传过滤器,反映了在更严格的内容审核和尊重用户言论自由权之间的平衡。欧盟未强制上传过滤器意味着平台不能被强制预先审查内容——这一举措旨在防止大规模监控,但也留下了有害内容检测效率的问题。
该准则中一个更有趣的元素是要求允许成人或潜在有害内容的平台提供年龄保证。虽然没有强制特定的年龄验证技术,但这种灵活性为平台提供了创新的机会,但也给他们带来了证明其方法有效的重大负担。这一措施的成功将在很大程度上取决于平台如何在保护未成年人与用户隐私之间取得平衡。
引入内容评级系统和家长控制功能也强化了为儿童营造更安全网络环境的广泛承诺。鉴于用户生成内容的不断增加,确保平台对家长保持透明和可访问性是这一监管的重要组成部分。这与全球范围内的安全优先监管趋势相一致,包括英国的《在线安全法》和美国提出的《儿童在线安全法》(KOSA)。
你知道吗?
- 不再自我监管:爱尔兰在线安全准则的引入标志着社交媒体平台在爱尔兰自我监管能力的正式结束。多年来,这些平台在很大程度上能够自行设定有害内容的相关规则。
- 不仅仅是爱尔兰:虽然该准则直接适用于爱尔兰,但像TikTok和YouTube这样的主要平台很可能会将这些措施扩展到欧盟其他地区。这可能会在欧洲创造一个更加协调的监管环境。
- 全球趋势:爱尔兰的做法是全球范围内旨在保护青少年在线安全的更大监管浪潮的一部分。英国的《适合年龄的设计准则》和美国提出的《儿童在线安全法》(KOSA)也是这一趋势的一部分。
这项新准则有力地提醒我们,尤其是儿童经常访问的网络空间,正在受到越来越多的审查。爱尔兰通过在线安全准则的这一步,象征着全球范围内在不断变化的数字环境中优先考虑安全的努力。