April启梦■人工智能对我们有什么影响呢( 三 )


2019年8月 , 一个「人工智能换脸」软件在一夜之间刷屏了 , 各大社交媒体 , 用户只需在软件里拍摄或上传一张照片 , 就能将影片中明星的脸融合替换成自己的脸 。 此事引发了一场网友关于人工智能技术触及隐私和安全问题的大讨论 。
事实上 , 在这之前 , “剑桥「分析」事件”就曾经引发过人们关于人工智能和数据安全的争议 。 一家名叫剑桥分析的政治咨询公司 , 利用人工智能软件分析了数千万美国Facebook用户的性格、喜好和政治倾向 , 并以此为依据 , 有针对性的散布政治消息 , 从而影响公众的投票决定 。
人工智能面临的问题
你怎么看待现在全球对于个人信息的安全隐私 , 而不被过度的使用或者是操纵这样的一种担心?
其实到今天这个时代 , 的确我们也越来越享受AI技术带来的这种所谓的个性化、更智能的信息获取的方便跟好处 , 但同时的确也带来了很多我们个人的这种所谓的信息内容的隐私 , 还有内容的安全的这样一些顾虑 , 今天这个问题是的确非常重要的一个问题 , 但它也不是一个单一 , 就只靠技术就能解决 。
所以我觉得还是需要大家一起 , 从产品的设计 , 法规 , 比如说一旦出这些事情 , 我们怎么样来有效的惩罚 。 2018年5月在剑桥分析事件被媒体曝光 , 两个月后 , 一般数据保护条例在欧盟开始执行 , 该条例被誉为史上最严的个人数据保护法案 。 他从法律上明确了「个人对数据资产的所有权」规定 , 要保障数据主体的知情权、更正权、被遗忘权、携带权和拒绝权 。
不过在明确的所有权之后 , 我们仍然有很多问题需要去思考和解决 , 比如由数据产生的经济效益该如何分配?如何去监督管理对数据资产的使用?在数据资产的最大化利用和合理保护之间 , 将如何寻求平衡点?
智能时代人类的生活变得更加便捷 , 这很大程度上是基于我们对数据的出让 , 而如今数权的概念已经被明确定义 , 人权、物权、数权被认为是人类未来生活中的三项基本权利了 。 如果说60年前我们启动研究的初衷是为了模仿人 , 我们到现在在落地的过程中 , AI的核心是如何服务于人 , 如何以人为本 。
偏见是人工智能面临的另一个挑战 , 是包括数据的偏见和算法的偏见 , 人工智能程序所采用的大型数据集不可避免的包含着丰富的信息 , 包括人们的肤色、性别、性格、爱好等等 。 如果在信息的采集和计算过程中产生了偏差 , 结果就有可能带来歧视和误导 。
在2015年的一项研究中显示 , 使用Google搜索「CEO」的图片 , 其中只有11%的人是女性 。 我知道男性CEO的确比女性CEO比例要多很多 , 但实际上美国有27%的CEO是女性 。
另一大巨头也曾遇到过AI歧视的问题 。 2014年的时候亚马逊在爱丁堡成立了一个工程团队以寻求一种自动化的招聘方式 。 他们创建了500种模型 , 通过对过去的入职员工简历进行搜索 , 然后得出大约50000个关键词 。 「当时他们在这个算法上寄予了很大期望 , 喂给它100份简历 , 然后它会自动吐出前五名 , OK , 我们就雇佣这些人 。 」
然而一年后 , 工程师们有一些不安的发现——它不喜欢女性 。 显然这是因为人工智能所获取过去十年的数据几乎都是男性的 , 因此它得出了「男性更可靠」的观点 , 并降低了简历里包含女性字样简历的权重 。 性别偏见还不是这套算法唯一的问题 , 它还吐出了不合格的求职者 。 2017年 , 亚马逊放弃了该项目 。
人工智能技术的强大远不止改变我们的生活那么简单 , 事实上他还在考验着人类的道德伦理和价值观念 。
亚德诺曼是麻省理工大学媒体实验室副教授 , 他所领导的研究小组建立了一个叫做道德机器的网站 , 专门进行伦理学上的电车难题的调查研究 。 不同的是他们将电车换成了自动驾驶汽车 , 在险情不可避免时 , 人类驾驶员一般只能做出本能的反应 , 后果随机不可预料 。 而自动驾驶技术却有能力在瞬间计算出事故的后果 , 并作出选择 。