打开人工智能的“黑匣子”,让AI更加透明

打开人工智能的“黑匣子”,让AI更加透明

数以百万计的人每天都在以某种形式使用着人工智能(AI),而其中大部分都是在不知不觉中进行的。全世界的人们都在通过手机上的、或者其他平台上的应用来使用它。

例如,谷歌搜索提示、Facebook好友建议、自动更正和预测文本都是通过使用人工智能技术进行的。正因为如此,比以往任何时候都更重要的是,我们需要在全球范围内提高人工智能的透明度,从而能够了解这项技术的工作原理,然后做出决策,并为医疗和金融等行业提供关键的应用程序。

我想我们都应该认可赋予的人工智能权力不应该凌驾于法律之上,但与此同时,人工智能技术也不应受到过于严格的监管。至少在彻底分析新标准和新规是否能保护消费者,或者实际上能限制其往坏的方向发展之前,我们不应该这样看待人工智能。分析的范围应该集中在人工智能的当前应用下、它在新领域的部署对经济的潜在影响、以及公众对该技术看法的评估等方面。

与此同时,我们这些在全球科技圈研发人工智能的人需要共同解决其可审核性和透明度的问题。我们应该致力于投资新兴人工智能技术的研发,而这正是许多人在仅仅观察算法层面上是无法理解的。值得肯定的是,企业、政府和学术领域的利益相关方都有责任帮助人们理解人工智能何时对于他们最有用,为什么它能提高生产力,以及很重要的一点,关于收集相关数据以呈现出人们互动的方式。

打开人工智能的“黑匣子”

打开人工智能的“黑匣子”,让AI更加透明

加强和扩大人工智能透明度、知识和理解的关键需要从几个方面来说,接下来让我来说明。

与人工智能互动的每个人都应该意识到这并不是人类在跟我们对话,而且,在此应用下人类也不应该假装成机器人。利用人工智能技术进行客户和人员互动的公司应该清楚地知道其产生的数据将会带给他们什么。与人工智能驱动的平台和系统进行聊天测试的人应该需要记录他们的谈话记录,并在出现差异、问题或需要确认的情况下对他们进行调整。

为企业和企业应用开发人工智能的人需要负责任地创建、获取和测试各种数据。我们需要引入偏差检测测试,以确定人工智能是否符合标准和商定的测试协议。或者我们具体来说,在人工智能测试实验结束之前,工程师需要模拟和掌握其体内的数据集如何在各种环境中与用户交互的情况。

工程师需要测试产品以确保它们不会对人类有害。为了保护用户,他们对人工智能应用的可用性、安全性、可扩展性和安全性进行产品测试,但目前还没有对它们在社交、道德或情感方面可能对人类造成的伤害做相关的测试。作为一个新兴行业,我们为什么不在开发周期添加偏见测试,以确保人工智能应用程序中的算法不存在偏见,从而不会造成对用户慢性的或传统意义上的伤害呢?

人工智能行业应该实现自我管理,并与企业董事会和管理团队目标保持一致。这些要求应该有一个统一的,并且是可选择的原则准则,比如我们在Sage上发布的用于开发和应用人工智能解决方案的人工智能伦理指南。政府和企业之间也应该建立合作伙伴关系,这样他们就可以实时分享关于人工智能安全相关的信息。假如实现这样的真正伙伴关系的话,这会极大地提高人工智能使用的透明度,并可以为其他考虑转向“人工智能用于商业发展、公共服务和社会公益”为目标的司法管辖区提供了范例。

公司考虑应该对人工智能进行内部审查去了解人工智能在哪里可以得到最大化应用,以及需要培训多少人才能更好地实施人工智能驱动的服务。他们应该创建培训和加速劳动力的相关项目,以鼓励更多具备人工智能研发技能的人才从事技术驱动这项工作。

人工智能实现透明化是一项全球性的努力

打开人工智能的“黑匣子”,让AI更加透明

从根本上讲,我们的科技社区需要定义人工智能透明化的含义并共同努力,将透明度应用于创新人工智能技术中。我们需要停止持有将人工智能视为一个黑匣子的这种观念,并解决其可审计性和可追溯性问题,而解决这些问题将引领我们走上正确的道路。我们需要普及关于人工智能的知识,并阐明它的无数用例——从技术到医疗,从交通到社会安全再到家庭生活。

如果需要争取普遍透明度,我们必须在算法和数据层面上来实现它。全球人工智能社区需要共同努力,通过适当的测试、培训和教育来遏制、消除偏见,这也是我在职业生涯中一直致力于做的事情。而且我并不是唯一一个这样做的人,包括英国议会的人工智能委员会、纽约大学的人工智能学院和麻省理工学院媒体实验室的人工智能和治理倡议等项目,都在努力打造透明的、合乎道德的人工智能。我们仍有很多工作要做。但人工智能的透明化是我们非常值得努力去实现的。