我们为什么不能只相信建立在深度学习基础上的人工智能系统

mac2024-12-17  16

来源:简书

本文摘自:

https://www.jianshu.com/p/55e1abcd896d

Gary Marcus介绍了如何实现通用智能以及为什么通用智能可能会让机器更安全。

加里•马库斯(Gary Marcus)对深度学习的大肆宣传并不感冒。尽管这位纽约大学教授认为,这项技术在推进人工智能方面发挥了重要作用,但他也认为,AI领域目前对深度学习过于重视了,这很可能会反噬这项技术。

马库斯是一名训练有素的神经学家,他的职业生涯一直处于人工智能研究的前沿。从技术角度看,深度学习可能擅长模仿人类大脑的感知任务,比如图像或语音识别。但它在理解对话或因果关系等其他任务上仍有很大不足。为了创造能力更强、智能范围更广的机器,也就是俗称的通用人工智能,深度学习必须与其他方法相结合。

当人工智能系统不能真正理解它的任务或它周围的世界时,这可能会导致危险的后果。即使是系统环境中最小的意外变化也可能使其出错。已经有无数这样的例子:容易被愚弄的仇恨语言检测器,长期存在歧视的求职申请系统,以及发生撞车事故、有时导致司机或行人死亡的自动驾驶汽车。对人工智能的探索不仅仅是一个有趣的研究问题。它也具有非常现实的含义。

马库斯和欧内斯特·戴维斯(Ernest Davis)在他们的新书《重启人工智能》(Rebooting AI)中主张开辟一条新的前进道路。他们相信,我们离获得这样的通用智能还差得很远,但他们也相信,我们最终能够做到这一点。

如下是马库斯在接受外媒采访时谈到的深度学习的弱点、这个领域可以从人类头脑中借鉴的经验以及他为什么乐观。为了篇幅和清晰度,对采访内容进行了适当编辑。

我们为什么需要通用人工智能?狭隘人工智能已经为我们创造了很多价值。

确实如此,而且还会产生更多。但狭隘人工智能有很多问题,比如能力范围有限。像自然语言对话理解、帮你打扫房间或做饭,这些都超出了狭隘人工智能所能做的范围。关于狭隘人工智能能否让我们拥有安全的无人驾驶汽车也是一个有趣的经验问题。目前的现实是,狭隘人工智能在异常情况下有很多问题,甚至在驾驶方面也是如此,这是一个相当受限的问题。

另外,我们都希望人工智能能帮助人类在医学上取得大规模的新发现。目前还不清楚当下的技术是否能让我们达到所想要的水平,因为生物学是很复杂的。这需要能够阅读并理解文献。从而让科学家知道分子是如何相互作用的以及理解背后的因果关系;或者可以让科学家发展关于轨道和行星的理论。而使用狭隘人工智能,我们无法让机器达到那样的创新水平。如果有了通用人工智能,我们很有可能彻底改变科学、技术和医学等各个领域。所以研究通用AI是一项非常有价值的工作。

听起来你是在用通用人工智能来指代强大的人工智能?

通用人工智能是让人工智能能够动态思考,并自行解决的新问题。

通用AI也将能够像推理医学一样轻松地推理科学理论。它是对人的模拟。任何一个相当聪明的人都能做很多很多不同的事情。比如一个本科实习生,给TA一些时间,让TA处理从法律问题到设计问题甚至做饭等任何事情。因为他们对世界有一个大致的了解,而且可以阅读、理解、实践、修正,所以他们能够对很多事情做出贡献。

这和强人工智能之间的关系是如果不够强大,你能做的事情就越少。因此,为了建立一个足够可靠的系统来应对一个不断变化的世界,AI至少需要接近通用智能。

但你知道,我们现在离那还很远。AlphaGo可以在19x19的棋盘上玩得很好,但实际上必须重新训练才能在矩形棋盘上玩。或者你用普通的深度学习系统,只要图片中大象的光线充足,能看到大象的纹理,系统就能认出大象。但如果你把大象放在剪影里,它很可能再也认不出来了。

深度学习因为缺少深度理解,所以它无法实现通用人工智能吗?

在认知科学中,人一般对事物有一个认知模型。比如我坐在酒店房间里,我知道有一个壁橱,一张床,还有一台以不同寻常的方式安装的电视。我知道这里有所有这些东西,我不只是识别它们。我也理解它们之间的关系。我对外界如何运作有一些想法。世界不是完美的,人人都可能会犯错,但整体上我们都处理的还行。我做了很多类似的推论来指导我的日常行为。

与之相反的另一面是类似于DeepMind开发的Atari游戏系统,当它看到屏幕上特定位置的像素时,它就会记住它需要做什么。如果你有足够的数据,看起来你已经理解了,但实际上是非常肤浅的理解。事实证明,如果你移动了3个像素,它的表现就会差很多。它没有随着变化而变化,经常是一变就乱。这与深刻理解背道而驰。

你建议回到经典人工智能来解决这个挑战。经典人工智能的优点是什么呢?

有几个。首先,经典人工智能实际上是构建一个世界认知模型的框架,你可以对其进行推理。其次,经典人工智能熟悉规则。在现在的深度学习中,人们总想要避免任何规则,比如无监督学习,这很奇怪。人是社会人,都需要遵守规则,为什么机器就不需要遵守呢。有的人想用神经网络模型做任何事情,却不做任何看起来像经典编程的事情。但也有一些问题通常是通过神经网络这种狭隘AI方式解决的,比如谷歌绘制地图路线。

我们实际上两种方法都需要。机器学习的东西很擅长从数据中学习,但它在表示计算机程序所代表的抽象方面却很差。经典人工智能非常擅长抽象,但所有这些都必须手工编码。另一方面世界上有太多的知识,不可能全部手工输入。所以很明显,我们想要的是某种混合这些方法的综合。

这与我们可以从人类思想中学到的事情有关。第一个是建立在我们已经讨论过的基础上的——我们的思想是由许多以不同方式工作的不同系统组成的。

换句话说就是:我们的每一个认知系统都在做着不同的事情。同样,人工智能中的对应项也需要设计成能够处理具有不同特征的不同问题。

现在,人们试图使用一种通用的技术来解决一些根本不同的问题。而理解一个句子与认识一个物体根本不同。但人们却试图利用深度学习来同时做到这两点。从认知的角度来看,这些问题本质上是不同的。为什么指望一颗银弹就能解决所有问题呢?这不现实。

你提到的人工智能系统需要理解因果关系。你认为解决方案将来自深度学习、经典人工智能,还是一些全新的东西?

这又是一个深度学习不是特别适合的地方。深度学习并不能解释事情发生的原因,而是给出在特定环境下可能发生的事情的概率。

我们正在讨论的这些东西,比如你看一些场景,你对为什么会发生这种情况有一些了解,如果某些事情被改变了会发生什么。我可以看着酒店电视上的画架,猜测如果我砍掉画架的一条腿,画架就会翻倒。这是因果推理。

经典人工智能为我们提供了一些工具。例如,它可以表示什么是支持关系,什么是失败。一个问题是经典人工智能主要依赖于非常完整的信息,而我只是在没有看到整个画架的情况下做出了这个推断。所以我能走捷径,推断出我看不见的画架会发生什么。我们还没有真正的工具可以做到这一点。

你提到的第三件事是人类拥有先天知识。你如何看待它被纳入人工智能系统?

对于人类来说,当你出生的时候,你的大脑实际上已经被精心构造好了。它不是固定不变的,但自然形成了一个原型,一个很粗略的草稿。然后在你的余生中用学习来修改你的草稿。

大脑的草图已经有了一定的功能。一个只有几个小时大的岩羚宝宝可以从陡峭高山上爬下来而不会出错。显然,它对三维空间、自身以及两者之间的相互关系有一定的认识。这是很复杂的东西。

这也是我们需要将经典AI和深度学习综合起来的部分原因。很难想象,如果从一开始就没有类似的知识,而是从零开始,通过大量的经验来学习,我们怎么能造出一个在这个世界上运行良好的机器人。

对于人类来说,我们的先天知识来自于我们随时间进化的基因组。对于人工智能系统来说,它们必须另辟蹊径。其中一些可能来自我们如何构建算法的规则。其中一些可能来自我们如何构建这些算法所需的数据结构的规则。其中一些可能来自我们直接教机器的知识。

建立值得信赖的AI系统的理念为什如此重要?

因为我认为现在到了AI发展的关键时刻。我们正生活在历史上一个奇怪的时刻,当前我们对不值得信任的软件给予了过多信任。这样的担忧也不会是永久性的。一百年后或者更早,人工智能会更值得我们的信任。

但目前人工智能还是有一定风险的,不是像埃隆•马斯克担心的那样危险。在求职面试系统中,不管程序员做什么都会歧视女性,因为他们使用的技术太简单。

我希望我们有更好的人工智能,如果认识到某些AI 的问题,就即刻尽快的解决,否则会很危险。因为当下的AI所处理的大量数据会影响到数以百万的人们。

你的观点实际上感觉非常乐观,因为构建值得信赖的人工智能,我们只需要换个方向看。

是的,这是非常短期的悲观和长期的乐观。如果这个领域对正确答案有一个更广阔的视野,我们当下遇到的每一个问题都是可以得到解决的。如果这种情况发生,世界将变得更加美好。

未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

最新回复(0)