欧盟调查发现,Meta与TikTok均未能妥善保护儿童安全,包括在其应用程序中设置障碍,导致用户难以举报儿童性虐待材料。
与此同时,Meta在美国多州提起的诉讼中遭遇挫败。各州指控该公司在明知其应用对青少年有害的情况下,仍故意设计成令人上瘾的模式……
Meta与TikTok的违规行为
根据欧盟公布的初步调查结果,两家公司均违反了《数字服务法》中关于儿童保护的条款。
调查指出,两家企业非法为研究人员获取数据设置障碍,这些数据关乎儿童是否接触非法或有害内容的评估。
欧盟委员会初步认定,TikTok和Meta未能履行《数字服务法》规定的义务,未向研究人员开放足够的公共数据访问权限[…]
初步调查显示,Facebook、Instagram和TikTok可能设置了繁琐的研究数据申请流程和工具,导致研究人员只能获取不完整或不可靠的数据,影响其评估用户(包括未成年人)是否接触非法或有害内容的研究能力。
Meta还被发现使用户难以举报非法内容(如儿童性虐待材料)。
Facebook和Instagram均未提供便捷易用的“通知与处理”机制,供用户标记儿童性虐待材料和恐怖内容等非法信息。
更严重的是,Meta被指控使用“暗黑模式”,故意将举报流程设计得复杂且令人困惑。
在“通知与处理”机制中,Facebook和Instagram似乎使用了具有欺骗性的界面设计。
两家公司将有机会审阅报告并提交申辩。若回应未被采纳,企业可能面临最高达全球年营业额6%的罚款。
隐瞒青少年危害报告的指控
早在2021年,Meta就被指控压制内部研究,该研究显示Instagram对少女心理健康有害。《华尔街日报》调查曝光后,公司辩称研究结果被断章取义。
美国多州提起诉讼,指控Meta在明知应用对青少年有害的情况下,仍故意设计成令人上瘾的产品。
据称公司律师曾建议Meta隐瞒研究结果,并试图以“律师-客户特权”为由阻止法庭采纳相关证据。
彭博法律频道报道,法官已驳回这一论点。
伊冯娜·威廉姆斯法官裁定,Meta不得以律师-客户特权为由,阻止华盛顿特区检察长在青少年心理健康诉讼中使用其内部文件。
法官认为,文件中涉及的沟通属于“犯罪-欺诈例外”情形,因为Meta寻求法律建议的目的是混淆潜在责任或实施欺诈。
“法庭注意到,Meta律师明确建议研究人员‘删除’‘封锁’‘限制’和‘更新’研究数据,此类法律建议专门用于规避Meta的潜在法律责任。”
首起诉讼将于明年开庭审理。


















