主页 > 格力 > 你的数据被“锁起来”了
你的数据被“锁起来”了

  美国小说家菲利普·迪克曾在他2013年出版的小说《少数派报告》的开篇为我们描绘了这样的一幅图景:在未来,人们发明了测罪系统,通过将海量数据源源不断注入到三个先知的大脑中进行分析,就可提前对可能犯罪的人进行抓捕,从而将重案的犯罪率,降低百分之九十九点八。

  而在斯皮尔伯格的同名改编电影中,将对于未来“数据分析”的想象进一步具像化。当主角阿汤哥走在路上时,广告可以随时随地识别他的视网膜,通过提前预测人们的个人需求,追着你到处跑。

  那个年代的小说和电影的创作者,似乎都有着同一种焦虑,我们是否真正的需要这样三百六十度无死角,被科技笼罩着的未来?

  然而,不管是正方还是反方,都无法否认,这个五十多年前的科幻小说情节,已经借由“大数据”“机器学习”“人工智能”,这样的人造“先知”逐渐的变为了现实。

  2018年欧盟发布《通用数据保护条例》,2021年我国出台的《个人信息保护法》,都加强了企业对于用户个人信息获取的监管,但与此同时也都并没有一刀切彻底断绝“精准化营销”的发展可能。

  就在2月16日,谷歌宣布正式推出自己研发了两年多的新产品Android“隐私沙盒”,企图在效率和隐私间做好平衡。

  简单来说,谷歌传统的广告推送模式是,基于此前用户的行为搜集,得到一个用户画像,然后推送相关的广告,广告商可以精确地看到具体用户的个人信息、爱好等数据。

  隐私沙盒的模式则是,将具体的人隐秘在人群中,通过机器学习,将具有相似兴趣的人群划到一堆,让广告商向这一群人投放个性化广告。这样,既享受了大数据的便利,又保护了隐私,阻止广告商过度使用用户的数据。

  谷歌隐私沙盒一经推出就引起了国外反垄断机构的注意,广告商能看到什么级别的用户信息。

  全是平台一个人说了算,自己又当选手又当裁判,公众的隐私安全,只能全依赖于平台的商业道德之上,实在是令人无法信服。

  所以问题绕了一圈,似乎由技术引发的问题,也只能在技术上寻求突破。毕竟,人性是经不起考验的。结局似乎也就只能想到如《少数派报告》最后那种,将系统彻底关停了。

  而现在,在我们普通人接触不到的前沿领域。存在更为现实的“解决方案”吗?数据和隐私之间是否天然矛盾?

  知识博主“江湖举人”采访了浙江大学计算机系博士、数据安全专家,蚂蚁集团可信隐私计算框架“隐语”负责人王磊,王磊给出了这样的解答——通过隐私计算技术,可以实现数据与隐私可以共存,但现在仍处在探索的阶段。

  王磊认为,从技术上来看,谷歌推出的隐私沙盒是把原来通过第三方cookie精准收集的个人信息模糊化保护起来的处理,是针对数据使用和隐私保护矛盾问题的一个很好的尝试,使用了隐私计算领域常见的联邦学习、差分隐私的技术。

  但其中一个问题是,谷歌出于商业的考虑,为商家制定广告投放规则和人群分析,而商家只能按照既定规则来选择广告投放人群,这种做法难以避免“既当裁判,又当运动员”的争议,因此也引来了很多同行的反对。

  实际上,隐私计算技术的技术方案、应用空间远远不止这些。除了隐私沙盒使用的技术,其他如多方安全技术、同态加密、可信执行环境等技术,都是可以解决数据使用和隐私保护问题的技术方案。

  隐私计算是一系列试图实现数据安全的技术统称。当我们在享受各种app、应用精准化、个性化的服务同时,我们的收入、职业、兴趣、等等一大批的个人信息,如何能不暴露在阳光之下,是研究者最为关心的问题。

  目前,市面上有三种主流隐私计算技术发展的方向:联邦学习、多方安全计算和可信执行环境。

  联邦学习是把数据在本地加密好发给需求者,如果想利用这些数据建模,只能使用这个打包好的数据包,不能看到里面详细原始数据。

  多方安全计算则有点像玩狼人杀这样的游戏,想要公平公正进行,就必须要一个大家都信得过的中间人,只不过,这里法官是加密算法。通过数学理论保证参与计算的各方成员输入信息不暴露,且同时能够获得准确的运算结果。

  可信执行环境,就是通过硬件,提供物理层面的安全隔离和计算环境,在保护用户隐私和数据安全的前提下,以此来保证其内部加载的程序和数据,在机密性和完整性上得到保护。

  但三个方向各有优劣,并不能单独完美地解决这一矛盾。联邦学习可以解决复杂的算法建模问题,性能也不错,但是安全性不如多方安全计算,且不能处理数据分析类问题。可信执行环境具备更好的性能和算法适用性,但是对国外的硬件有极大的依赖性。多方安全计算不依赖硬件,且具备较高的安全性,但是性能相对较差。正如王磊说,如何用最小的成本实现最大的效果,是国内外公司都在关注的问题,隐私计算技术尚属一片蓝海。

  未来,随着平均生活水平的提高,公民个人隐私保护意识,数据安全的意识也一定会随之提高,未来对数据的使用一定不是简单粗暴的“裸奔”形式,通过隐私计算技术为数据加上一把“锁”,这把锁锁得住隐私,但是锁不住价值,也就是现在互联网行业常说的,我们正在迈向数据密态时代。

  关于未来如何进一步解决隐私保护的问题,在技术领域寻求新的突破,王磊认为,把数据真正流通起来是个系统化的工程,需要法律法规上,技术上也要突破。但当前的技术有一定的限制,比如单一技术只能解决一定场景下的一些问题,因此我们能不能把这些技术融合起来,形成一个能够解决更大范围内场景的更通用技术,正是王磊团队基于隐语框架在解决的一个问题。

  “让数据流动起来,并且能够确保数据安全和用户隐私,是一个系统化的工程。想要通过隐私计算技术实现数据与隐私的共存,需要整合技术实现突破。”

  王磊是蚂蚁集团可信隐私计算框架隐语开发团队的带头人,他和他的团队应该属于全中国最想也是最懂怎么把数据用起来的那一小拨人。但有意思的是,这样一群人,天天研究的却是“怎么把数据保护起来用。”

  现在,相比于王磊这样的前沿技术专家,很多人普通人对自己的隐私可能并不是那么上心,相比于要不要告诉APP的信息,有时可能更关注点的外卖能不能早到5分钟。

  但在王磊看来,随着数据应用越来越广泛,用户对隐私保护的心智会逐渐被建立起来。以https协议为例,刚开始其实并没有人意识到https在整个交互过程中对信息做加密有什么意义,但当这个协议被大家接受以后,最终所有的上网都会采用协议,来保护整个访问链路的安全性。

  “一个技术是不是真的好,需要实践去检验,有没有价值,要看能不能解决实际中的问题。”王磊说,“现在大家对隐私计算的认知并不清晰,但当用户能在使用中感受到技术的安全性,他就会更信任这个技术,并注重隐私的保护。”

  正如福山在《我们的后人类未来》中所说:“我们站在人类与后人类的历史这一巨大分水岭的另一边,但我们却没意识到,分水岭已经形成。”

  作为被数据化的第一代人,参与其中的我们可能还没有完全意识到,我们正在见证着某种历史的诞生。我们对于隐私抱持什么态度,直接决定了我们将获得一个什么样的未来。

  2020年中共中央国务院发布文件,将数据列为了除土地、劳动力、资本、技术外第五大生产要素。随着政府开始重视起个人隐私保护和数据价值的平衡,相信我们国家能够让数据发挥最大的价值。

  正如王磊所说,随着隐私计算技术迭代,用户在使用场景中感受到了安心,更加放心的投入使用,只有完成了这种信任的闭环,才能让数据产业真正地腾飞。#技术专家探讨数据时代隐私保护#

  原发视频标题为《我们是否需要被数据笼罩着的未来? 对谈顶尖技术专家》返回搜狐,查看更多