特斯拉的警钟,让多少人脊背发凉?( 二 )


面向物联网设计的华为鸿蒙系统 , 在这方面可以提供一些参考 。
首先 , 华为把手机上的可信执行环境无缝移植到不同设备上 , 保证了每一个接入设备本身和手机一样安全 。
第二 , 在连接方面 , 需要云账号和设备访问凭据双重认证 , 并且对家庭中枢设备再叠加一层中枢 , 所有对家庭设备的访问 , 必须先经过中枢再过来 , 安全等级进一步提升 。
第三 , 用户识别方面 , 分布式系统中用户的脸部信息、指纹信息、心率信息、呼吸特征、行为特征等可以多维度立体地验证使用者 。
虽然这样可以实现极高的安全级别 , 但也做不到完全杜绝风险 , 因为黑客们也在与时俱进 。
除了传统的网络攻击 , 黑客们也在利用最新的科技——人工智能、机器学习等 , 来获得更强的攻击力 。
比如 , 被控制的物联设备(“僵尸”)可以对系统进行规模化攻击 , 它们有能力相互交流 , 并且会在攻击过程中自主学习 , 变得越来越聪明 , 能够规避检测 , 在没有“僵尸网络牧人”的指导下自己行动 。
人工智能已经成为网络攻击者和安全守卫者之间 , 获得军备竞赛胜利的关键因素 。
人工智能本身的隐患人工智能 , 就是让机器通过深度学习大数据具备人的感知、思考和行动能力 。 最显著的特点是:机器可以自主学习、自主判断、自主行动 。
特斯拉的警钟,让多少人脊背发凉?文章插图
图源:视觉中国
大家身边最常见的人工智能就是手机上的语音助手 , 它可以理解你的一些语音命令 , 并自主进行相应操作;学习你的使用习惯 , 并进行相应的系统设置 , 适时给出功能推荐等 。
目前的人工智能还处于弱人工智能阶段 , 机器具备观察和感知的能力 , 可以做到一定程度的理解和推理 。 等到了强人工智能阶段 , 机器拥有的能力 , 将在广度和适应度上可以媲美人类 , 因此也被称为通用人工智能 。
一项针对352名机器学习研究者的调查显示 , 人工智能有一半的几率在45年内赶超人类在所有领域的工作 , 并在2140年实现取代 。 到时候 , 人类将从劳动中解放出来 。
人工智能的未来很美好 , 但其本身也存在着方方面面的隐患 。
一、学习过程是“黑箱操作” 。 人工智能通过对大数据进行深度学习从而形成能力 , 但它的整个学习过程是一个“黑箱” , 人们看不到 , 也解释不了其中的因果关系 , 而且学习过程不可逆 。 这意味着 , 学习过程并不完全可控 , 由此形成的人工智能方案有概率存在致命缺陷 。
二、学习工具可能存在风险 。 人工智能产品和应用的研发主要基于谷歌、微软、亚马逊、脸谱、百度等科技巨头发布的人工智能学习框架和组件 , 而这些开源框架和组件 , 也会存在漏洞 。
三、学习数据可能有瑕疵 。 如果学习用的大数据中存在瑕疵 , 那么由此训练出的人工智能在自主判断中自然就会出现偏见 。 如果用在自动驾驶或者医疗应用方面 , 可能会导致人员死亡 。
四、人工智能没有道德属性 。 人工智能的动机 , 取决于人类给它设定的目标是什么 。 为了实现目标 , 人工智能可能毫无恶意地做出毁灭人类的决定和举动 。 举个例子 , 你让机器人把盒子从一个房间移动到另一个房间 。 如果花瓶阻挡了机器人的路线 , 它可能会将其击倒以完成目标 。
以上风险都有可能导致人工智能出现某种程度的“失控” 。 虽然目前距离机器智能超过人类智力的“奇点”还比较遥远,但显而易见的风险已经有足够的理由要求我们谨慎 。
【特斯拉的警钟,让多少人脊背发凉?】5G+人工智能 , 是大势所趋 , 我们不能因为面临风险就裹足不前 。 提出问题 , 是为了解决问题 , 从而才能创造一个更安全的泛智能时代 。