2025年4月,爱尔兰儿童权利联盟(Children's Rights Alliance)发布的首份《在线安全监测报告 2025》(Online Safety Monitor 2025)为我们提供了一个关键的视角,审视爱尔兰在保障儿童在线权利方面取得的进展和面临的挑战。
数字世界的双刃剑:儿童权利的机遇与风险
报告开宗明义地指出,儿童的基本权利——包括受保护权、发展权、参与权和不受歧视权(基于联合国《儿童权利公约》及其第25号一般性意见)——这些权力并不会因为他们登录设备或进入虚拟空间而消失。然而,现实情况却令人担忧。以下是报告指出的一些数据:
•普遍的数字接入:爱尔兰的儿童是深度网络用户。CyberSafeKids 的数据显示(基于对爱尔兰101所学校7176名8-14岁儿童的调查):
•94%的儿童拥有智能设备。
•57%拥有游戏主机。
•59%拥有平板电脑。
• 在12岁仍在小学教育阶段的儿童中,74%拥有智能手机;在12-14岁的中学生中,这一比例高达97%;而在15-17岁的青少年中,更是超过90%。
• 令人担忧的是,尽管社交媒体和消息应用的最低年龄限制为13岁,但82%的8-12岁儿童拥有自己的账户,12-14岁儿童的这一比例更是达到100%。
•严峻的网络风险:与高接入率相伴的是显著的风险。
•网络欺凌:国家反欺凌研究与资源中心的研究发现,高达40%的爱尔兰儿童经历过网络欺凌。
•接触不适宜内容:报告引用研究指出,相当比例的儿童(如23%的9-17岁儿童在过去一年看过色情图片)接触到暴力、色情等有害内容。一项爱尔兰研究显示,53.3%的男性学生和23.1%的女性学生表示他们在10-13岁时首次接触色情内容。
•在线剥削与虐待:儿童性虐待材料(CSAM)和网络诱骗(Grooming)问题日益严重。2023年,全球疑似在线儿童性虐待的报告达到创纪录的3620万份,而诱骗事件在2021年至2023年间激增超过300%。 令人警惕的是,大部分(59%)被检测到的CSAM托管在欧洲,且几乎所有(99%)内容位于公开网络区域,而非隐藏的暗网。 爱尔兰的 Hotline.ie 在2023年收到了29,044份包含CSAM的报告,比2022年显著增加,其中自我生成的CSAM(儿童在被诱导或胁迫下自行拍摄的材料)增加了280%。 2024年上半年,爱尔兰警方正在调查25起涉及爱尔兰儿童的CSAM活跃案件。
•隐私问题:许多儿童对隐私设置缺乏了解。CyberSafeKids 发现,32%的8岁儿童和23%的9岁儿童不确定自己的社交媒体隐私设置。 只有32%的受访儿童(8-14岁)账户设置为私密,低于去年的39%。
•报告意愿低:令人不安的是,只有45%的受访儿童会向父母或信任的成年人报告令人不快的在线经历,低于往年的54%。更有36%的孩子选择不告诉任何人,比上一年增加了5%。
弥合鸿沟:监管执法的进展与不足
鉴于众多大型科技公司的欧洲总部设在爱尔兰(如苹果、谷歌、Meta、TikTok等),爱尔兰在网络安全监管方面肩负着独特的国际责任。
•立法框架:爱尔兰通过了《2022年在线安全与媒体监管法案》(OSMR Act),并设立了媒体委员会(Coimisiún na Meán)作为监管机构,任命了在线安全专员。 该法案旨在为所有用户(尤其侧重儿童)建立在线安全框架,并引入了欧盟的《视听媒体服务指令》(AVMSD)。
•在线安全准则(Online Safety Code):这是监管的核心工具,分两部分实施。
•A部分(2024年11月生效):对指定的视频共享平台(VSP),如Facebook、Instagram、YouTube、TikTok等,规定了保护用户(特别是未成年人)免受有害内容侵害的一般性义务。
•B部分(预计2025年7月生效):将包含更严格的措施,针对被定义为“受限有害内容”的类别,如鼓励欺凌、饮食失调、自残或危险挑战的内容,以及针对儿童的商业广告、无端暴力和色情内容。
•监管挑战与报告指出的不足:
•儿童优先原则缺失:OSMR法案未明确规定服务提供商需将“儿童最大利益”作为首要考虑因素,这与联合国儿童权利委员会第25号一般性意见的核心原则存在差距。
•定义模糊与平台自由裁量权:《在线安全准则》在界定“可能损害儿童身心发展的内容”方面较为模糊,很大程度上依赖平台自行判断。 “成人内容”和“受限有害内容”等关键术语未被明确定义。
•年龄验证机制不足:尽管准则要求建立年龄验证系统,但规定笼统,且更具体的年龄验证要求(B部分)仅限于“成人内容”,这使得主流平台上保护儿童免受有害内容的屏障可能不足。 指导材料虽提及年龄保证方法,但缺乏具体标准和隐私保障措施。
•算法与推荐系统监管缺位:媒体委员会决定不通过《在线安全准则》直接监管算法和推荐系统,而是依赖欧盟《数字服务法案》(DSA)的规定。报告认为这是一个令人担忧的缺口,可能无法充分保护儿童免受算法驱动的风险。
•投诉机制不完善:缺乏要求平台优先处理涉及儿童投诉的规定。 现有机制(平台内部投诉、可信举报者(尚未指定)、庭外争议解决机构(ODS,决定无约束力))复杂且分散,难以保证儿童获得及时有效的救济。 公众个人投诉机制尚未建立。
•国内法罪行覆盖不足:《在线安全准则》主要关注欧盟层面的非法内容(如恐怖主义、儿童色情制品传播),未能明确涵盖爱尔兰法律规定的所有相关罪行,如向儿童发送性露骨材料、性诱骗、为促进对儿童的性剥削而进行的交流等。
•CSAM 立法困境:旨在打击CSAM的欧盟新法规和修订指令因隐私担忧等原因未能如期通过,导致儿童保护出现潜在的法律真空,尤其是在现有自愿监测机制将于2026年4月到期的情况下。
构筑数字韧性:教育与预防的现状与需求
有效的预防和教育是保护儿童在线安全的关键支柱。
•国家战略与课程:爱尔兰发布了《2024-2033年识字、计算与数字素养战略》,旨在将数字素养融入从早期教育到中学的各个阶段。更新的社会、个人与健康教育(SPHE)课程也涵盖了网络欺凌、非自愿分享图片和数字福祉等议题。
•教育领域的挑战:
•实施不均:尽管有战略指导,但数字素养教育的实施仍不均衡,缺乏专门的、系统性的在线安全课程嵌入。
•教师能力不足:CyberSafeKids 报告显示,45%的教师认为自己缺乏足够的知识和技能来有效传授在线安全信息。
•教育科技(EdTech)风险:报告引用人权观察组织的调查指出,高达89%的EdTech产品存在数据操作风险,可能侵犯儿童隐私权,甚至将数据传输给广告技术公司。
•“安全设计”(Safety-by-Design)理念缺失:平台设计(如无限滚动、自动播放、算法推荐、对陌生人开放的连接功能等)本身可能带来风险,需要从源头进行安全设计,例如默认关闭面向儿童用户的某些高风险功能。
•意识提升举措:政府和媒体委员会已开始提供在线安全资源,并召开了在线安全峰会。设立了在线健康工作组,并拨款900万欧元用于中学配备手机锁袋以创建无智能手机干扰的学习环境(此举引发争议)。然而,报告强调仍需开展更广泛、更有针对性的公众意识运动,特别是关于CSAM、诱骗、网络欺凌及其他在线犯罪行为的危害。
前路漫漫:关键建议
报告最后提出了一系列跨领域的建议,呼吁政府、监管机构、科技行业和教育界共同努力:
1.强化儿童权利核心地位:修订OSMR法案,明确将“儿童最大利益”作为首要考虑;扩大媒体委员会青年咨询委员会,纳入18岁以下成员。
2.加强监管与执行:建立有效的个人公共投诉机制,优先处理涉童投诉;指定可信举报者;确保平台对“单一严重侵权”事件迅速响应;加强对DSA合规性的监督,尤其关注安全设计、算法透明度和隐私保护;强制推行儿童权利影响评估(CRIA)。
3.深化教育与预防:制定新的跨部门在线安全行动计划;将全面的在线安全教育嵌入各级课程;审查和监管EdTech应用;确保平台采用“安全设计”原则,默认禁用针对儿童的某些高风险功能(如基于个人数据的推荐算法);加强打击CSAM,并通过针对性宣传提高公众对在线风险的认识。
一些思考
• 尽管报告详细阐述了爱尔兰及欧盟层面(OSMR Act, Online Safety Code, DSA, AVMSD等)的监管框架,并指出了其中的不足(如定义模糊、执行延迟、覆盖不全等)。然而,现实中监管的实施依然面临巨大挑战。科技发展日新月异,立法和监管往往滞后;其次,科技巨头拥有强大的资源和法律团队,可能会在合规性上进行博弈,导致监管效果打折扣。
• 数据明确显示,13+的年龄门槛在现实中形同虚设。孩子们能够轻易绕过(比如虚报年龄),平台也缺乏严格有效的年龄验证机制。平台方不可能完全不知道有大量低龄用户存在。而且,在COMMON SENSE的报告也指出,孩子很早就拥有自己的电子产品,如果孩子们在更早就在使用这些“13+”的产品,那么我们的在线安全教育、数字素养培养、风险意识建立就必须大大提前,不能等到他们“理论上”符合年龄要求时才开始。
引伸阅读
领取专属 10元无门槛券
私享最新 技术干货