我们不知道人工智能(AI)的“大脑”到底在做什么,因此我们无法准确预测它的行动。我们可以进行测试和实验,但我们不能总是预测和理解人工智能为什么会这样做。
就像人类一样,人工智能的发展也是基于经验(就人工智能而言,是以数据的形式)。这就是为什么人工智能的行为有时会让我们措手不及,而且有无数人工智能表现出性别歧视、种族歧视或只是不恰当的例子。
“仅仅因为我们可以开发一种算法,让人工智能在数据中找到模式,以最好地解决任务,这并不意味着我们理解它找到了什么模式。因此,即使我们创造了它,也不意味着我们知道它,”DTU计算机教授索伦·豪伯格说。
一个悖论叫做黑箱问题。一方面是根植于人工智能的自学习特性,另一方面,在事实上,到目前为止,还没有能看到艾城的“大脑”,看看它与数据形成的基础学习。
如果我们能找出人工智能处理什么数据以及如何处理,它将对应于介于考试和精神分析之间的某种东西——换句话说,这是一种更好地了解人工智能的系统方法。到目前为止,这还不可能,但现在S ren Hauberg和他的同事开发了一种基于经典几何学的方法,这使我们有可能看到人工智能是如何形成它的“个性”的。
混乱的大脑
教机器人抓取、扔、推、拉、走、跳、开门等需要非常大的数据集,而人工智能只使用能使它解决特定任务的数据。人工智能从无用数据中挑选出有用数据,并最终看到其行动所依据的模式,其方法是将数据压缩成神经网络。
然而,就像我们人类把东西放在一起一样,在别人看来很容易凌乱,而且很难弄清楚我们使用的是哪个系统。
例如,如果我们把我们的家和尽可能紧凑的目的组合在一起,那么枕头很容易就会在汤锅里,以节省空间。这并没有错,但局外人很容易得出错误的结论;枕头和汤锅是我们打算一起用的东西。到目前为止,当我们人类试图理解系统化人工智能的工作原理时,情况就是这样。然而,根据S ren Hauberg的说法,这已经成为过去:
“在我们的基础研究中,我们已经找到了一个从理论上倒退的系统解决方案,这样我们就可以跟踪哪些模式是源于现实,哪些是由压缩发明的。当我们能够将两者区分开来时,作为人类的我们可以更好地理解人工智能是如何工作的,同时也可以确保人工智能不会听从错误的模式。”
索伦和他的同事们将18世纪发展起来的数学用于绘制地图。这些经典的几何模型在机器学习中有了新的应用,它们可以用来绘制压缩如何移动数据的地图,从而回溯人工智能的神经网络,了解学习过程。
回馈控制
在许多情况下,该行业避免使用人工智能,特别是在那些安全是关键参数的生产部分。担心失去对系统的控制,如果算法遇到它无法识别的情况,不得不自己采取行动,就会发生事故或错误。
这项新研究让我们找回了一些失去的控制和理解。让我们更有可能将人工智能和机器学习应用到我们今天不做的领域。
不可否认,仍有一些未解释的部分,因为系统的一部分是由于模型本身在数据中找到了模式而产生的。我们无法证实这些模式是最好的,但我们可以看到它们是否合理。这是对人工智能信心的巨大进步。”
注:本文转载自网络,如有侵权,请联系删除
|