AI技术的探索,连马赛克都阻挡不了。有时候,为了保护个人隐私,人们会对一些出现在照片或视频里的人脸或其他不宜泄露的信息打上马赛克,但是这种对图像或视频做模糊处理的方法很快就会变得毫无用处,因为 AI 软件可以透视马赛克并还原图像的本来面目。
软件工程师 Richard McPherson 利用机器学习教会一款软件图像识别技术,用来识别一些被打了马赛克的人脸或物体,而这种基于人工神经网络的图像识别方法可以将被模糊处理过的图像重新还原。目前,该软件能识别图像处理软件 Photoshop 马赛克处理过的图像和视频网站 Youtube 进行过模糊处理的视频。
AI时代的发展,离不开深度学习和神经开发,就以目前现有的技术与数据来说,远不能满足它。像是无人车,AI系统与汽车的结合物,谷歌对旗下的无人车进行测试与训练ANI系统,都是为了提升它的识别与感知能力。
譬如对视觉指示系统(Vis),是为预测声音,预测环境进行物理互动后果的一个重要环节,它能识别分析棍子击打、刮擦或是捅一系列物理声音,最主要的还是帮助机器人理解物体的物理属性、环境互动。但这些能力的前提是深度学习,它目前的训练方式是注入4.6万种声音的1000段视频,以深度学习的算法对其声音解析并与数据库配对。
总得来说,AI比起互联网更依赖于数据库,一切能力的强化都需要数据库配对训练,也正是因为AI时代对于数据的需求量大,我们消费者的信息隐私才显得岌岌可危。
日常里那些成精了似的人工智能语音助手,例如Sirl,真的能为我们带来,包括让个人和企业效率的提高吗?为了高效便利的生活,我们真的就可以对个人数字AI助理坦露自己最隐秘的事情吗?就像亚马逊CEO贝佐斯在 Re/code 大会上讲的那样,保护隐私是这个时代的难题,对于AI来说,更甚。
守口如瓶,对于人类来说都很难成真,而为AI作为一个离不开共享数据库的个人助理又能如何将那数据半道劫持,不会真正的外传呢?为了应对数据上的保护,苹果的应对方式是想将(一定会收集用户信息的)科技公司在隐私保护方面的级别,提升到新的高度,而“差分隐私 (Differential Privacy)”,正是它找到的答案。这项密码学前沿技术的基本原理,就是向包含个体信息的大量数据集里注入噪音(或者说扰动),目标是保证每个个体信息都无法泄露,同时这个数据集的统计学信息依然可以被外界分析,目前科学家们正在研究,究竟注入多少噪音,可以实现隐私保护和数据分析的最佳平衡。
可被外界分析就意味着没有绝对安全性,像是经典案例里的Netflix,曾放出“经过匿名处理的”上亿条电影评分数据,“仅仅保留了每个用户对电影的评分和评分的时间戳”,希望通过竞赛的形式,找到更好的影片推荐算法。但是 2009年,德州大学的两位研究人员,通过这些匿名数据与公开的IMDB数据做对比,成功将匿名数据与具体的用户对应了起来。为此,Netflix 不得不取消了,这项原计划每年举行的竞赛。
数据隐私在这个互联网主控的时代里都难以保护,就像接力棒似得投掷到下一个更危险的棒手AI手中,未来我们的生活或许会越加趋近智能,与此同时我们的隐私如同软肋般,被AI把控着。在不能阻止技术迭代发展的前提下,未来的科技作态就只能精索安全级别,尽可能的是保护用户数据隐私了。