技术开发 频道

“房间里的大象”暴露AI巨坑,AI视觉系统被夸嘘过头了?

  【IT168 评论】众所周知,人工智能虽说是一门新技术,但已经有一段历史了,如今沸腾起来的人工智能也只不过是经历了数次寒冬碾压出来的黄金期。

  但是近期关于深度学习掀起的又一波“AI寒冬”又一次将人工智能推向了舆论口波,一项旨在解决“房间里大象”的新研究推动了这次AI的负面炒作。深度学习系统真的存在严重缺陷吗?我们真的完全走错了路吗?

  关于卷积神经网的最新研究主要集中在目标跟踪器和检测器上,它们是更通用的卷积网络的专用版。与将照片分类为猫和狗的方法不同,目标检测器需要对整个图像进行处理,排除掉那些无关紧要的子区域,将检测到的物体用矩形框框起来。

  所有神经网络目前尚未解决的一个大问题是对抗性图像的存在。如果一个神经网正确的将照片分类为猫,那么,它就可能在极微的程度上改变图像中的像素,使得图像被分类成其他东西,例如狗,但这样的变化非常的小,人们几乎察觉不到。也就是说,敌对的形象看起来像一只猫,但它却被分类成狗或者其他东西。这是一个很脑洞的想法,但我们可以把它进一步推进,创建所谓的通用对抗图像,这可能会欺骗一系列的神经网络,忽视其确切的架构或训练。

  上个月,来自约克大学和多伦多大学的两名研究人员合作发表了一篇论文《The Elephant in the Room》(房间里的大象),在学界引起巨大反响,该论文揭露了利用神经网络进行物体检测的缺陷。他们将大象放在房间里创造了另一种对抗性形象。利用一个经过训练的目标检测器,显示出一个标签正确的场景。然后把一个意想不到的物体放到场景中(一个大象),结果发现,目标检测器不仅没有正确的显示出大象,而且对目标物体的分类也是不正确的。

  目标检测器没有检测出大象,个人而言,我还没有克服这样一个事实。

  是的,房间里有一头大象,目标检测器正在做人为的事情,而不是探讨它,并且杯子也没有被检测出来。

  但这足够可以论证当前的人工智能视觉系统存在巨大缺陷。

  引用Quanta最近的一篇文章:

  “这是一项聪明而重要的研究,它提醒我们‘深度学习’并不深。”纽约大学神经学家Gary Marcus说到。

  的确,深度学习并没有那么深刻,但这并不能成为说服大多数读者的理由。由于对人工智能的高估,人们对这项研究的反应是错误的,尤其是深度学习。我们还没有实现人工大脑,我们的深层神经网络与大脑相比还甚是微小。但是,我们不得不肯定它们在数据分析方面的能力,即便这个基层发生了变化,我们还是需要研究。

  与大脑相比,深度学习并不深。这项研究相当于给眼睛和视神经看了一些图片,然后惊讶地发现它竟然看不出来。

  我们的神经网络是未来人工智能的基石。深刻的神经网络对世界没有任何意义。它没有内部的语言表达,使它判断大象不在那里,因此它也不会再看大象第二眼。

  目前我们的深度神经网络只是一个统计分析器,如果你给它们一个统计异常,它们就会弄错。这并不是引起严厉批评的理由,把它当成一个3岁的孩子,它已经做的很好了。这不是一个人工的孩子,而是一个真正的孩子,是一小块孤立的“人造大脑”,里面有少量的模拟神经。

  尽管如此,这项研究还是提出了一些非常现实的问题。毕竟,从统计学的角度看,一头大象被分类错误并不奇怪,这只是统计异常。令大家意想不到的是,大象的出现能够导致图像其他区域的错误。

  为什么会有互扰?

  这让我们回到了另一种对抗性的形象。似乎对抗性图像不属于网络训练集的统计分布,因为它们跟自然图像不同。如果你发现被新添加到图形中的物体被错误分类,它们通常是一种较规则的波段或常规噪音,完全不同于自然图像中发生的事物。这种噪声将图像置于网络训练过的图像集之外,因此错误分类就属于情理之中了。

  这如何适用于房间里的大象?

  同样的论点。大象被切割并粘贴到图像中。编辑边缘和背景变化的存在可能将图像从自然图像集移动到操作图像集中,因此遇到的问题都是一样的。

  该论文的作者推测这确实是问题的一部分,但他们也提出了其他的可能性。尤其是,您可能认为,将大象放置在与错误分类的对象有一定距离的地方不会造成非位置性的问题,但这一预期没有考虑到这样一个事实,即目前神经网络没有适应性,它们必须经过训练来检测图像中不同大小的物体,这就引入了非局部效应。

  这项研究并没有强调深度学习网络夸大他们能力的事实。它强调的是,如果不了解正在发生的事情,人们就会误判是目标检测器异常的问题。我们需要继续研究对抗性输入到底是如何揭示神经网络的实际工作原理的,真正的人工智能不会只涉及一个神经网络,不管它有多深。

0
相关文章