欧盟的大规模监控是正确的做法吗?
欧盟正在用错误的方法应对严重问题:实时大规模监控
发表于2022年10月21日,作者:Glyn Moody
目前,网络隐私面临的一个最严重的新威胁正在欧洲联盟的立法系统中酝酿。原则上,没有一个正直的人会反对“制定规则以预防和打击儿童性虐待”的法规,但所提议的立法方式却存在很大问题。
如果这项新法律通过,可能会导致其有害的理念在全球范围内蔓延,紧随欧盟的步伐。由德国和欧洲海盗党的欧盟议会议员Patrick Breyer整理的关于被称为“聊天监管”的有用页面,列出了该法律的深远影响:
欧盟委员会提议要求服务提供商自动搜索所有私人聊天、消息和电子邮件,查看可疑内容这一般是宽泛且不加区别的。
该提案的其他方面包括低效的网络封锁、个人云存储的筛查包括私人照片、强制年龄验证,这将导致匿名通信的终结、应用商店审查以及将未成年人排除在数字世界之外。
专家和公众对此表示怀疑
聊天监管提议中的每一个方法都是糟糕的主意,公众对此也心知肚明。2021年,欧盟对该提案进行了公开咨询。详细分析显示,414条评论中只有34条支持,而这些支持中有24条来自参与儿童保护的非政府组织。
在欧洲议会绿党/欧洲自由联盟进行的一项民意调查中,样本量更大,结果显示72的欧盟民众反对这一立法,只有18的人支持。特别是德国公民对此表示担忧:一项在线请愿收集了超过160000个签名反对该提案。
即便是欧盟委员会自己的专家也表示怀疑。一份内部文件担心聊天监管可能无法承受法律挑战,在欧盟最高法院欧洲法院,这一法院曾禁止“广泛监控”,而新法律明显要求这类监控。
同样,欧盟的主要数据保护机构欧洲数据保护委员会EDPB和欧洲数据保护监事会EDPS表示,该提案存在“对基本权利的严重风险”。特别是,“EDPB和EDPS认为,该提案在目前的形式下,对个人及社会总体可能带来的风险,超出了针对儿童性虐待材料CSAM嫌疑人的风险”。
尝试使用私人互联网访问
聊天监管是有效的解决方案吗?
软件后门从来不是一个好主意
对聊天监管提案的另一个分析指出,罪犯可以通过加密非法材料并将其上传至标准文件共享服务来绕过提案所设措施。因为这些文件是加密的,所以无法对其进行扫描,罪犯可以简单地使用链接与他人共享非法材料,从而使其难以被发现。
该分析还指出,涉及两种检测方式:
一种是已知的儿童性虐待材料CSAM。首选的检测方法是客户端扫描,其问题在去年PIA博客中曾被探讨。更令人担忧的是,试图利用人工智能检测未知的CSAM。欧盟委员会声称AI有能力检测CSAM,但正如前海盗党MEP雅尔斯费利克斯雷达所发现的,这些都是完全基于行业自我宣称的,并未经过独立验证。即便如此,所引用的数字90的准确率和99的精确度每天都会导致数十亿的误报,因为消息流量非常巨大。
瑞士联邦警察早前已经报告称,90的AI报告材料并不违法。如果将AI检测强制适用于欧盟所有服务,这一数字可能会进一步上升。
破坏端到端加密的意想不到后果
能够应用这些有缺陷的技术,假设端到端加密某种程度上是被打破的,推测是通过强制使用后门。正如许多人的先前的文章所指出的,这是一个极具短视的想法,只会减少每个人的隐私和安全。
聊天监管也将伤害到它原本应帮助的儿童,因为这剥夺了他们安全的沟通渠道,并可能让他们在遭受虐待时不敢举报。正如英国儿童保护慈善机构NSPCC所指出的,“绝大多数遭受性虐待的儿童是被他们所认识的人所侵犯。”因此,为受害者提供私人和安全的沟通尤为重要。
我们能做些什么?
这个统计数据也暗示了聊天监管方法的错误所在,以及该如何应对。剑桥大学的安全专家罗斯安德森强调,“我们应该从面临暴力风险的儿童视角来看待儿童安全辩论,而不是从安全和情报机构及卖监控软件公司的角度出发。”安德森建议,而不是欧盟的聊天监管方案所提倡的幼稚技术解决主义:
有效的警务工作,特别是在解决深层社会问题时,必须由地方主导,并涉及多个利益相关者;用“人工智能”取代警察、社会工作者和教师的想法,只是那种导致糟糕政策的幻想思维。辩论还必须在设定的人权和隐私法的边界条件下进行,务实地也应考虑合理的警务优先事项。
换句话说,欧盟提议的立法不仅有害它试图削弱在线隐私和安全而且也极其误导。保护儿童和维护基本权利之间的所谓不兼容性并不能通过技术手段解决,而应通过解决问题的深层根源来应对,这些根源是社会性的问题。
获取私人互联网访问
生成的封面图片来自稳定扩散。
蚂蚁加速器app