近几年,人工智能异常火爆,相关创业公司也如雨后春笋般纷纷冒了出来。论及它为何突然爆发,深度学习算法的提出无非是其中最重要的原因,以至于很多人开口闭口都是深度学习。然而,深度学习真是万能的吗?

在深度学习出现之前,人工智能领域应用最广泛、最活跃的方法便是专家系统,这是一种用大量 “如果-就” (If – Then) 规则定义的、自上而下的系统。专家系统可以根据某领域一个或多个专家提供的知识和经验,进行推理和判断,从而可以模拟人类专家的问题求解过程,解决那些只有专家才能解决的问题。

其中比较知名的就有1968年由美国斯坦福大学研制成功的DENDRAL系统,这是一种帮助化学家判断某待定物质的分子结构的专家系统。他用于根据有机化合物的分子式和质谱图判断分子结构,一般而言,当给出一个分子式时,其可能的分子结构可能有上千个,而DENDRAL则可以在给定的分子式和质谱图的情况下,根据化学专家的知识和质谱仪相关知识排除掉不可能的结构,从而找到正确的分子结构。

专家系统主要包括两个关键部分:知识库和推理机。知识库用于储存专家知识,推理机根据知识库中的专家知识进行推理,作出决策。知识库是专家系统质量是否优越的关键所在,然而,专家知识的获取又是研制专家系统最为困难的阶段,是专家系统研发的瓶颈所在。

为了构建专家系统,程序员需要花大量的时间和人类专家坐下来共同探讨,将特定领域的专家知识以规则的形式确定下来。然而,人类专家往往不能明确的将他所用到的知识罗列出来。同时,专家们往往也很难确切的表达出他们用到的真正有效的知识。

因此,专家系统最终并未成功。

而深度学习则正好解决了这个难题,专家系统需要找专家并花大量的时间来确定相关知识并制定规则,而深度学习只需要有一堆相关数据便能自我学习并总结出隐藏在数据背后的相关规则。简单来说,深度学习只需要确定输入和输出,算法便能自动生成从输入到输出之间的计算规则,比专家系统中的规则更容易实现。虽然人类并不理解这些黑盒般的计算规则,但在近年大数据和计算能力增加的情况下,深度学习在实际应用上变得非常有用,而且结果使人惊讶:

计算机如今能比人类更好地识别图像和视频中的物体以及将语音转录为文本。谷歌就用神经网络取代了谷歌翻译的架构,如今机器翻译的水平已经很接近人类了。谷歌以深度学习技术为基础的电脑程序 AlphaGo也已经打败了人类围棋冠军。

然而,深度学习也有巨大的瓶颈。

深度学习目前的巨大进步主要来自监督学习技术。监督学习的意思是,基于系统曾经接受过的其他实例的输入,来学习对结果进行预测或对东西进行分类。即深度学习一般只是“从输入到输出的映射”。比如教深度学习如何避免被汽车撞倒,那就需要巨量的汽车情境数据集,且明确标注了动作(如停止或移动),并需要训练一个算法来学习映射不同的情况和对应的行动。

为学习到在不同情况下躲避汽车,计算机可能需要先被撞上千次。反观人类却只需要告知一次便能学会如何避免被汽车撞上,我们具有从简单少量的例子中概括出事物的能力,并且能够想象操作的后果。我们不需要以被撞为代价,就能很快学会避免被车撞上,这是深度学习目前所无法达到的。

同时,输入数据不足将无法形成一个行之有效的算法。那大数据到底有多大才够用呢?因为数据不准确或不完整还将产生错误的令人尴尬的结果,比如Google 图像错误地将非洲裔美国人分类为大猩猩,微软的 Tay 在 Twitter 上学习了几个小时后,就出现了种族主义以及歧视女性的言论等。

另外,深度学习所得到的黑盒般的算法由于无法被人所理解,人们无法用数学方法对其进行证实或证伪,因此其得到的结果往往不能让人100%信服。除了上述Google 图像与微软 Tay的笑话以外,深度学习网络也可能被对抗性样本故意地欺骗。通过人眼不可见的方式在数学上处理图像,复杂的攻击者可以欺骗神经网络产生严重错误的分类。

73d522d192614e529a379076288c72d3

最后,深度学习所需要的用于训练的大数据必须是由人工事先已经打上相关标签的大数据,这在技术上并不难,难就难在我们所面临的数据不是一个两个数据,而是海量的数据。

而在深度学习之外,虽然有人在尝试新的方法,但或许就像吴恩达所说的,“我们仍然没有找到正确的思路。”

图片来自123RF