king

2022 年互联网隐私方面的一些趋势预测

king 安全防护 2022-12-30 275浏览 0

2022 年互联网隐私方面的一些趋势预测

网络聊天不仅仅是为了娱乐或与朋友聊天,这是支撑着我们社会最基本的功能,例如物流、政府服务和银行业务。消费者通过即时通讯工具与企业联系并订购外卖,而不是去实体店,科学会议在虚拟会议平台上举行,远程工作成为越来越多行业的新常态。

网络上的这些行为都涉及到隐私,隐私保护技术是今年讨论最多的话题之一,尽管对某些看法还存在分歧,例如对NeuralHash 或Federated Learning of Cohorts的使用。有研究人员通过逆向编译,发现苹果用于检测 iCloud 照片中是否存在儿童性虐待材料 (CSAM) 的 NeuralHash 算法存在漏洞,可能会被黑客利用;年初,谷歌公布了一种新的 API,名叫 Federated Learning of Cohorts (FLoC),该 API 有望在 Chrome 浏览器上取代 Cookie。FLoC 使用机器学习算法来分析用户数据,然后根据个人访问的站点创建人群的集合。广告商不会获得用户的本地数据,而是直接获得更广泛的人群画像,从而进行广告投放。然后谷歌的这一改进却引起了诸多批评。尽管如此,网络隐私还是在不断在向前迈进,比如苹果已经公开回应,为打消用过户的顾虑,将对Siri进行一些更改。

在默认情况下,将不再保留Siri互动的录音,另外,Android 12还有一个Android隐私运算核心(Android Private Compute Core),把特定功能的数据处理维持在设备上,像是即时字幕、可查询附近所播放音乐的Now Playing,以及智慧回覆(Smart Reply)等,以保障用户隐私;最近隐私浏览器Brave开发公司Brave Software近日宣布与美国加州大学圣地亚哥分校合作提出一种解决方案SugarCoat,允许在不牺牲网络规模兼容性的情况下改善隐私。

SugarCoat通过自动创建跟踪库的隐私保护实现,以帮助解决这种隐私与兼容性的权衡。据悉,Brave将于今年第四季度开始向Brave浏览器用户推出SugarCoat生成的脚本,此外还会与流行内容拦截工具的维护者合作,以便这些工具可以增强用户隐私。

另外,我们还看到了许多新的私人服务,许多专注于隐私的公司迈出了货币化的第一步,并且在 iOS 和 Android 上都在技术和营销方面大力推动隐私。 Facebook(现在的 Meta)也开始为用户提供更多隐私,在 WhatsApp 中提供端到端的加密备份,并从 Facebook 中完全删除面部识别系统。

虽然我们希望 2022 年是大流行的最后一年,但我们认为隐私趋势不会逆转。这些过程会产生什么后果?在这里,我们提出了一些关于哪些关键力量将在 2022 年塑造隐私格局的想法。

BigTech(大型科技企业)将为人们提供更多的工具来保护他们的隐私

今年4月,苹果顶着Facebook的激烈反对,强硬调整隐私政策推行了ATT,所有App Store上架的App都必须遵守这一新政策,即App开发者需要征得用户许可,才能跟踪用户或访问其设备的IDFA(Identifier for Advertising,广告标识)。

简而言之,App要想获得及处理苹果用户的数据,必须征得同意。

毫无疑问,这一新政当然会获得那些在乎个人数据安全及隐私的用户的欢迎,而Facebook则是其最大的反对者。

如果无法便利地追踪用户行为,Facebook的广告推送将不再那么精准。苹果公司软件工程高级副总裁克雷格·费德里吉(Craig Federighi)曾用8秒钟一句话概述了苹果隐私新政ATT到底是什么:ATT给予用户是否愿意被App和网站追踪的选择权。今年的Facebook可谓困难重重。一边是被苹果的隐私新政处处掣肘,还因各种数据和青少年保护问题被美国国会和各行政部门反复摩擦,而另一边它自己也在寻求变化。

由于公司必须在全球范围内遵守更严格和更多样化的隐私法规,因此他们为用户提供了更多工具来控制他们在使用服务时的隐私。有了更多的设置,有经验的用户或许可以根据自己的需要设置隐私。对于不太懂电脑的人,不要指望默认隐私设置可以保护你的隐私:即使在法律上有义务默认提供隐私,那些靠数据收集为底线的企业也会继续寻找漏洞诱使人们选择较少隐私的设置。

随着政府建立自己的数字基础设施,让更简单和更广泛地获得政府服务,并希望提高透明度和问责制,以及对人口的更深入了解和对其进行更多控制,难怪他们会对通过大型商业生态系统传递的有关本国公民的数据表现出更大的兴趣。这将导致更多的监管,如隐私法、数据本地化法,以及对哪些数据和何时可被执法人员访问的更多监管。苹果CSAM扫描隐私难题恰恰表明,一方面要找到加密和用户隐私之间的平衡,另一方面要找到犯罪行为之间的平衡是多么困难。近日,中国发布了《网络数据安全管理条例(征求意见稿)》,对数据存储、数据流通、数据使用等数据合规问题进行约束。《征求意见稿》紧密贴合当下网络数据安全管理热点,在数据分级、数据“出海”、大数据杀熟、身份认证、信息泄露报备等方面给予了详细的指导意见。另外,中国还先后发布了《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》。

数据保护和机器学习的矛盾将继续存在

现代机器学习通常需要训练具有惊人数量参数的巨大神经网络(虽然这并不完全正确,但人们可以将这些参数视为大脑中的神经元),有时达到数十亿的数量级。多亏了这一点,神经网络不仅可以学习简单的关系,还可以记住整块数据,这可能导致私人数据和受版权保护的材料泄露或导致社会偏见。此外,这导致了一个有趣的法律问题:如果机器学习模型是使用我的数据训练的,我是否可以(例如,在 GDPR 下)要求消除我的数据对模型的所有影响?如果答案是肯定的,这对数据驱动的行业意味着什么?一个简单的答案是,公司必须从头开始重新训练模型,这有时可能代价高昂。这就是为什么我们期待更有趣的发展,无论是在防止记忆的技术方面,还是在使研究人员能够从已训练的系统中删除数据的技术方面。

机器学习算法的透明度是一把双刃剑

复杂的算法,例如机器学习,越来越多地影响我们的决策,从信用评分到人脸识别再到广告。

随着大数据、云计算、人工智能等技术叠加发展,人工智能伦理和算法公平的问题亦逐渐受到关注。大数据杀熟,电商平台有偿搜索、有偿排名,个人信息精准推算引发的算法歧视,短视频和游戏行业的“成瘾”机制等问题逐步引发了舆论的广泛关注。公众认识到“算法”不仅被用来对消费者的喜好进行画像,在一定程度上还参与了劳动秩序和规则的制定,参与社会治理。因此,“算法”是否公平不仅仅是某个平台和企业的内部管理问题,还涉及公共利益。

虽然有些人可能喜欢个性化,但对其他人来说,这可能会导致令人沮丧的经历和歧视。想象一个在线商店,它根据一些模糊的LTV(终身价值)预测算法将其用户划分为更有价值和更低价值的用户,并为更有价值的用户提供实时的客户支持聊天,而将不那么幸运的用户留给一个远远不够完美的聊天机器人

“宅”家办公所带来的个人和企业隐私问题将会持续存在

随着疫情的发展,企业纷纷发出远程办公的倡议,特别是高科技企业更是如此,现在,Facebook、Twitter、Okta和Box等科技公司宣布将更永久性地转向混合办公的模式转换。“宅”家办公期间,企业将高度依赖第三方办公平台进行公司的日常运营,以及核心会议与相关决策。一旦所选择的平台有风险,公司的商业机密以及关键资料均存在泄漏可能,严重时将危害公司生存与发展的命脉。

企业远程办公时的最大担忧,就是关键数据库内容有可能丢失或被不轨方窃取,造成用户数据、运营决策、商业机密外泄等严重隐私问题。从员工角度来讲,他们在家里的一举一动受到跟踪,这又似乎侵犯了他们的隐私。为应对远程办公,员工被戴上了“数字枷锁”。当人们在家工作时,采用摄像头监控其办公情况这一行为可能存在很大问题。摄像头可能会捕捉到员工的家人或同住者的画面,意味着他们的隐私会遭到侵犯。有些公司使用人工智能和算法等工具来跟踪员工和他们全天的工作,甚至是面部识别,以确保员工确实是在坐在办公桌前办公。

本文翻

继续浏览有关 安全 的文章
发表评论