要构建可以信赖的人工智能

2019年09月21日 23728次浏览


计算机系统需要了解时间,空间和因果关系。现在他们没有。

人工智能有一个信任问题。我们越来越依赖于AI,但尚未赢得我们的信任。


例如,以自动驾驶模式驾驶的特斯拉汽车具有撞车事故的令人不安的历史。亚马逊的面部识别系统在大多数情况下都能正常运行,但是当被要求将535名国会议员的脸庞与25,000张公开逮捕的照片进行比较时,它发现了28个符合,而实际上却一个都没有。发现一种旨在审查亚马逊求职者的计算机程序可以系统地歧视妇女。每个月都会发现AI的新弱点。


问题不在于当今的AI需要做得更好。问题是当今的AI需要尝试做完全不同的事情。


特别是,我们需要停止构建仅能越来越好地检测数据集中的统计模式的计算机系统(通常使用称为深度学习的方法),并开始构建从组装之初就掌握三个基本概念的计算机系统:时间,空间和因果关系。


当今的AI系统对这些概念几乎一无所知。花点时间。我们最近在Google上搜索了“乔治·华盛顿是否拥有一台计算机吗?” —该查询的答案需要在一个单一的时间框架内关联两个基本事实(华盛顿生活时,计算机被发明时)。Google的前10个搜索结果中没有一个给出正确答案。结果甚至没有真正解决这个问题。排名最高的链接是《卫报》上的一则新闻报道,内容是关于玛莎·华盛顿的计算机化肖像,因为她可能年轻时就看上去像。


Google的Talk to Books是一家人工智能企业,旨在通过提供庞大的文本数据库中的相关段落来回答您的问题,但这种做法并没有得到改善。它发表了20篇文章,内容各异,有的是关于乔治华盛顿的,有的是关于计算机发明的,但两者之间没有任何有意义的联系。


当涉及人工智能以及空间和因果关系的概念时,情况甚至更糟。即使是第一次碰到奶酪刨丝器的小孩,也可以弄清楚为什么它的孔带有锋利的边缘,哪些部分允许奶酪掉落,哪些部分可以用手指抓住等等。但是,现有的AI都无法正确理解对象的形状与其功能之间的关系。机器可以识别事物是什么,但不能识别事物的物理特征如何与其潜在的因果关系相对应。


对于某些AI任务,主导的数据关联方法可以正常工作。您可以轻松地训练一台深度学习机,例如识别暹罗猫的照片和德里克·杰特的照片,并在两者之间进行区分。这就是为什么此类程序适用于自动照片标记的原因。但是他们没有概念上的深度来实现,例如,有很多不同的暹罗猫,但只有一只德里克·杰特,因此显示两只暹罗猫的图片并不引人注目,而显示两只德里克·杰特的图片却没有什么意义。被篡改了。


这种理解上的失败在很大程度上是为什么像《 The Jetsons》中的管家Rosie这样的通用机器人仍然是一种幻想。如果Rosie无法理解世界运作的基本原理,那么我们就无法在家里相信她。


没有时间,空间和因果关系的概念,很多常识是不可能的。例如,我们都知道,任何给定动物的生命都始于其出生,直至死亡。在其生命的每一刻都占据着太空中的某个特定区域;两个动物通常不能同时处于同一空间; 两只动物可以在不同时间处在同一空间中;等等。


我们不必明确地学习这种知识。正是背景假设和概念框架的集合,使我们对世界的所有其他思考成为可能。


然而,从事人工智能工作的人很少尝试在机器中建立这样的背景假设。我们并不是说这样做很容易-相反,这是一个重大的理论和实践挑战-但是没有它我们就不会获得复杂的计算机智能。


如果我们构建的机器具备丰富的概念理解能力,那么其他一些担忧将消除。例如,哲学家尼克·博斯特罗姆(Nick Bostrom)曾设想过这样一种情况,即一台功能强大的AI机器被指示制作回形针,不知道何时停止,最终使整个世界(包括人们在内)变成了回形针。


我们认为,这种反乌托邦式的推测很大程度上是由于思考当今无意识的AI系统并从中推论得出的。如果您能计算出的只是统计相关性,就无法将危害概念化。但是知道时间,空间和因果关系的AI系统可以编程为遵循更一般的指令,例如“机器人可能不会伤害人类,或者由于无所作为而使人类受到伤害。 ”(艾萨克·阿西莫夫(Isaac Asimov)的三个机器人定律中的第一个)。


我们面临一个选择。我们可以坚持使用当今的AI方法,并极大地限制机器的操作(最后我们会导致自动驾驶汽车崩溃,并使机器永久存在偏差而不是减少偏差)。或者我们可以将方法转向AI,以期希望开发出对世界有足够丰富的概念性理解而无需担心其运行的机器。其他任何事情都会太冒险。


作者:Robust AI的创始人兼首席执行官Gary Marcus(@GaryMarcus)和纽约大学计算机科学教授Ernest Davis是即将出版的《重新引导AI:构建我们可以信赖的人工智能》一书的作者。这篇文章是改编的。


 

以上由AI翻译完成,仅供参考。

https://www.nytimes.com/2019/09/06/opinion/ai-explainability.html
您可能感兴趣的文章
 Hotline: 021-31266618   Email:hi@xinchou114.com