当前位置:

Enjoy出海 >

新闻资讯>

欧盟突查Snapchat、苹果与谷歌:DSA未成年人保护的“第一刀”落下

欧盟突查Snapchat、苹果与谷歌:DSA未成年人保护的“第一刀”落下
Enjoy出海小编(刚)  ·  Oct 17, 2025 5:34:53 PM

添加微信 nowiski 进入出海政策讨论群,每日同步Google Play、App Store等平台开发者政策,研究解决方案

欧盟的《数字服务法案》(Digital Services Act,简称 DSA)自生效以来,一直被视为数字平台监管史上的转折点。它并非简单的内容审查法律,而是一套全面的“平台责任体系”,旨在为整个欧盟数字生态建立一个透明、可问责、可追踪的运行机制。从打击虚假信息,到要求平台披露算法逻辑,再到建立广告透明度标准,DSA 试图用法律框架让互联网平台承担更多社会责任。

在所有条款中,未成年人保护是最受关注的部分之一。欧盟委员会明确认为,未成年人是数字空间中最脆弱的群体,他们既是内容消费的主力,又最容易受到算法推送、广告诱导、以及有害信息的负面影响。于是,一份针对“未成年人保护”的执行指南在今年正式发布,要求平台建立有效的年龄验证、内容分级、以及算法风险防控机制。

就在这份指南公布数月后,欧盟委员会突然出手,向 Snapchat、YouTube、苹果 App Store 和 Google Play 四大平台发出正式信息请求。这是 DSA 在“未成年人保护”领域的第一次实质性执法行动,也是欧洲数字监管体系正式“启动引擎”的信号。


调查焦点


这次调查的焦点非常清晰,欧盟并不是单纯质疑平台的表态是否积极,而是直接针对执行层面的具体机制展开问询。首先是年龄验证问题。委员会希望平台能够解释,如何确保注册用户的年龄真实、如何防止未成年人冒充成年人使用平台服务、以及在不同国家和语言环境下,是否存在一致的验证标准。对于社交类平台而言,这个问题几乎直击核心,因为用户身份体系、隐私保护、以及广告精准化的逻辑,往往与年龄信息交织在一起。

其次,调查聚焦于内容防护体系。欧盟委员会要求平台说明,他们如何防止未成年人接触到被视为“有害但未必违法”的内容,比如涉及自残、极端减肥、毒品、电子烟、甚至是心理暗示性广告。这些内容往往藏在算法推荐之中,不以明显的违规形式出现,却能在潜移默化中影响未成年人的心理健康。

第三个重点落在算法推荐与个性化分发上。对于 YouTube、Google Play 乃至 Snapchat 来说,算法决定了用户看见什么内容。委员会关心的不仅是推荐机制的逻辑本身,更在意平台是否对未成年用户设置了足够的防护边界,是否提供关闭个性化推荐的选项,以及是否在界面上给予用户知情权。

至于苹果和谷歌的应用商店,问题则集中在内容分级与上架审核。欧盟希望了解,这些商店是否真正落实了年龄评级制度,是否有效阻止了带有成人内容、赌博元素或深度AI换脸工具的应用被未成年人下载。这意味着,即使是间接平台——比如提供内容分发的商店,也必须对“谁能看到、谁能下载”负起直接责任。


调查性质


虽然媒体普遍将这次行动形容为“调查”或“突袭”,但在法律程序上,它更准确的性质是信息披露与合规问询。欧盟委员会要求这些平台在限定时间内提交详尽报告,说明它们如何遵守 DSA 指南、采取了哪些技术与管理手段、并展示自我评估的风险结果。

这更像是一次强制体检。欧盟并未直接指控这些公司存在违规行为,但这种问询往往是未来正式调查的前奏。一旦平台提供的材料不足、数据含糊或措施被认为“形式主义”,下一步可能就是立案、整改甚至巨额罚款。根据 DSA 的规定,违规企业最高可能被处以其全球营业额 6% 的罚金。对于苹果、谷歌这样体量的公司,这无疑是一种高压信号。

同时,欧盟也在通过这种方式试探自身监管体系的执行能力。此前 DSA 更多停留在框架层面,各国监管机构仍在摸索执行细则。如今,通过向头部平台开出第一封问询函,欧盟等于宣布:法规从“纸上约束”正式转向“现实约束”。


选择头部平台开刀的深层原因


欧盟之所以挑中这四家公司,是因为它们代表着当下互联网的四个关键入口:社交媒体、视频内容、移动应用分发和操作系统生态。每个入口都直接影响未成年用户的上网体验,而这四个平台几乎覆盖了青少年的数字生活全场景。

Snapchat 在欧洲年轻人中的普及率极高,其短暂消息和滤镜功能长期被批评“过度娱乐化”。YouTube 则是青少年获取视频内容的主要平台,算法推荐的不可控性一直备受争议。苹果和谷歌则掌控着移动应用生态的分发权,任何家长控制或年龄保护机制能否落地,很大程度取决于它们的审核逻辑。

从更宏观的角度看,这次调查也是欧盟在与美国科技巨头博弈的一部分。通过 DSA,欧盟希望重新定义科技企业在社会责任上的边界,让监管权力不再掌握在企业自己手中。这不仅是合规问题,更是一场制度话语权的争夺。


挑战与矛盾


在具体执行层面,年龄验证始终是一道难题。过度验证会侵犯隐私,验证不足又可能形同虚设。欧盟既要求“有效识别”,又强调“最小化数据收集”,这让平台在技术方案上左右为难。例如,要求用户上传身份证会引发隐私担忧,而采用AI判断年龄则可能带来算法歧视。

算法透明度同样存在结构性矛盾。平台担心披露过多算法细节会削弱竞争力,而监管机构希望看到可审计、可解释的逻辑结构。二者之间的平衡,仍需要时间摸索。更复杂的是,欧盟27个成员国在文化、法律与舆论标准上并不统一,平台必须在不同国家制定细化策略,这让全球化产品在合规路径上增加了巨大的碎片化成本。

未成年人保护将成为硬门槛


这次调查的意义远超四家公司本身。它预示着未成年人保护不再只是政策倡议,而将成为跨国科技公司的强制性门槛。对于未来计划进入欧洲市场的中国互联网公司来说,这无疑是一个重要信号。

首先,企业需要在产品设计阶段就考虑合规性,而不是事后补救。无论是实名认证、内容推荐、广告投放还是家长控制,都应成为系统架构的一部分。其次,企业必须建立算法可解释和合规追踪机制,以应对可能的监管问询。最后,全球化公司还需要具备“差异化合规能力”,能根据地区法规快速切换策略。

更深层的启示在于,未成年人保护的国际化趋势正在形成。欧盟的行动可能会引发连锁反应,日韩、印度、东南亚乃至中国本土监管机构都可能借鉴这一模式,强化平台责任体系。谁能最早建立符合国际标准的保护机制,谁就能在未来的政策洪流中抢占先机。


结语


欧盟此次针对 Snapchat、YouTube、苹果和谷歌的调查,标志着数字平台治理进入了新的阶段。监管不再停留在广告透明度或隐私声明,而是深入到算法、用户识别和内容推荐等核心层面。这是一场制度上的变革。

开通会员,查看完整内容