早在中兴事件之前,中国便已经悄然兴起了 AI 芯片热,不过,只有在中兴事件之后,AI 芯片才迅速爆红成人尽皆知的网红,就在人们为中国高端芯片业被美国掐住脖子而愤愤然之际,越来越多的 AI 企业也纷纷宣布入局 AI 芯片,给人一种造芯片跟买白菜一样简单的错觉。

然而,AI 芯片行业的真相究竟是怎样的?

为此,2018 年 7 月 2 日,在 TechCrunch 国际创新峰会杭州 2018 自动驾驶专题论坛上,我们特别邀请了异构智能中国区总裁周斌以及西井科技首席技术官张波,试图拨开行业迷雾,让大家一眼看清 AI 芯片真相。

什么是 AI 芯片?

这个问题看似简单,但可能是因为行业发展太快,目前业内对 AI 芯片的定义却没有一个共识,甚至有观点认为一块可以跑 AI 算法的电路板,也都可以称之为 AI 芯片。

显然,周斌与张波并不能直接替行业为 AI 芯片做定义,但他们观点或许有助于 AI 芯片共识定义的形成。

周斌认为,到现在为止全球其实还没有出现一款真正的 AI 芯片。“为什么?因为我们远远没有实现真正的人工智能,现在所有套着 AI 芯片大帽子的,其实都只是在做某些特定领域内的工作,这是不是真正的人工智能呢?这要打一个大大的问号。”周斌更倾向于将目前所谓的 AI 芯片叫做增强的机器学习和增强的模式识别。

当然,如果硬要将这种芯片叫做 AI 芯片,周斌认为其必须满足如下条件。即相应设备必须能够高效地执行人工智能里最核心的算法,比如深度学习等。“我们认为深度学习性能要足够高,比如超过 10 万亿次每秒,因为只有到了这样的性能指标,机器才能够有足够强的能力完成复杂任务。否则纵然是挂了芯片的外衣,我们也不能称之为真正的 AI 芯片。”周斌表示。

周斌似乎只关注 AI 芯片的性能指标,而并不关心芯片的具体形态。对此,张波补充认为,AI 芯片实现的方案可能有多种,包括 CPU、GPU、DSP 等等。至于为什么要把它称之为 AI 芯片?张波与周斌的观点颇有几分相似:“火爆的深度学习需要大量的计算,而这就需要有硬件来提供如此大的计算。因此,如果非要把能跑深度学习算法的设备称作 AI 芯片,我认为也有一定的道理。”

最后,周斌表示,对于什么是 AI 芯片,其实每个人都有自己的观点,要想形成一个社会普遍认可的 AI 芯片定义,可能还需要很长时间。

自动驾驶 AI 芯片的必要性与特殊性

动点科技了解到,此前,很多自动驾驶企业都不敢将样车的后备箱打开,因为后备箱里塞满了用于数据处理的 GPU 以及相应的散热器等,整个体积会非常大,而且功耗也不小。而这就是自动驾驶行业急需高性能、低功耗、低成本 AI 芯片的一个重要原因。

除此之外,自动驾驶行业急需 AI 芯片是否还有其他更重要的原因?

“现在车上相机比较多,而且还有激光雷达等,这里就有一个重要的问题,这么多传感器怎么有效融合?”据了解,在自动驾驶的实现上,目前业内比较公认的观点是,依靠单传感器绝对是不行的,多传感器融合是实现自动驾驶的必由之路。对此,张波介绍,在融合过程中有一个需要解决的关键问题,那就是传感器之间的同步。“如果不同传感器传输(速度)不同,最后的融合效果则会受到很大的影响。”

张波以相机举例介绍,传统相机数据的处理是先将相机产生的原始数据传回到数据处理中心进行处理,而这个时间延迟会比较大。因此,张波认为,利用 AI 芯片将运算前移,让传感器直接“吐”出可用数据,可以减少数据传输时间,“而这也是 AI 芯片发挥作用的地方”。

关于减少时延的另一个好处,周斌补充认为这可以在关键时刻救人命。“前一段时间有家著名的出行公司(Uber)自动驾驶撞死了一个行人,明明是所有人都能够避免的事,为什么这么多传感器、这么多设备、这么明显的目标,该车却没有明显的刹车就直接撞上去了?是它的电脑死机、蓝屏了,还是传感器出现问题了?刚刚提到的问题可能性不大,可能性最大的是它的处理速度不够快和延迟问题,它的处理系统从发现目标到检算,到决策,到最后的执行动作延迟过大,导致它在很短时间内没有办法做出反应。”

因此,周斌认为,不管在前端还是后端,都需要高效率、低延迟、高性能的芯片(即 AI 芯片)来发现问题并作出决策。

然而有意思的是,既然自动驾驶 AI 芯片如此重要,但动点科技观察到,虽然目前业内做 AI 芯片的企业不少,但很多都是在做语音识别、人脸识别等芯片,为自动驾驶行业做专门 AI 芯片的企业反而并不多,而这就涉及到了自动驾驶 AI 芯片的难度和特殊化问题。

对此,周斌表示,汽车电子是一个要求极高、收效极慢、投入极大的行业,而自动驾驶 AI 芯片则是一个更加难上假难的事情。“为什么?首先,芯片关系到我们车的安全本身。这就要求芯片计算能力必须要达到一定的高度,只有这样才能完成足够好的自动驾驶算法运算,才能够足够好地完成相应任务,如果没有好的算力提供,我们的自动驾驶就是空谈。”

如何解决 AI 芯片与算法升级问题?

一般而言,软件算法的更新迭代都是比较快的,然而,我们一旦将算法芯片化之后,算法升级的空间就会减少很多,那么,行业内是否有办法解决这一问题?

对此,周斌认为这个问题其实并不难解决。“AI 算法本质上来说就是一些基础的运算,而现在主流的深度学习算法的基础数学运算在一定时间内其实是稳定的,因此,只要在基础运算的层面上提供一整套的解析系统,芯片就可以非常广泛的适应各种各样的模型。当然,如果未来的模型算法完全不是现在的深度学习架构,那芯片就可能要顺应变化了,但是我们认为在可见的未来两三年之内,深度学习还是这一代 AI 的主流,所以只要我们能够非常好的支持深度学习,我们就一定能够解决掉大部分的应用算法问题。”

另外,张波补充道,芯片能否规模化也是算法是否需要固化的重要指标。“前期在芯片规模不是很成熟的情况下,可以通过其他的一些替代方案,比如 FPGA 方案去实现,等场景成熟可实现规模出货之后,再将算法固化成 AI 芯片。”

如何评价中兴事件揭露的中国高端芯片被美国“卡脖子”的事实?

对于这个问题,周斌认为全球化的趋势是不可避免的,这种封锁,这种所谓的卡脖子只是一个暂时的现象。

“举一个例子,一台通信基站里面有成百上千个芯片,尤其是一些核心的芯片,显然没有一个国家现在能够把所有芯片都做完。即使打开美国的设备,里面也有大量的日本的、韩国的芯片,全球化的大分工是一个竞合的关系,我们只有发展自己核心的技术,并在这里找到自己的一席之地,那我们也可以去卡别人的脖子,这样反过来就不怕被别人卡脖子了。”周斌如此表示。

因此,周斌强调,在发展 AI 芯片行业的过程中,我们一定要掌握自己的核心技术。

另外,对于市场受中兴事件影响而旋起的造芯浪潮,周斌表示,有热点总归是一件好事。不过,周斌也强调做芯片并不是一蹴而就的,也不是有了资本,就可以大力去发展的。尤其是在国内芯片方面人才短缺的现状下,周斌建议创业者一定要理性、客观对待这个造“芯”这件事。

中美在造芯方面的差距?

关于中美在造芯方面的差距问题,张波认为中国目前从芯片设计到生产制造以及封装其实都是有一定基础的,而且在加上现在资本的投入,这已经使得中国在芯片尤其是 AI 芯片的制造方面有了新的机会。“因为 AI 芯片是专用处理芯片,而在这个领域,我们和欧美也算是在一个起跑线上。”张波如此表示。

对于中国已经有了芯片制造基础的观点,周斌表示同意,并强调我们的某些基础条件已经非常好了,很多地方甚至已经超过了美国。

不过,两位嘉宾还是指出了中国在很多方面依然存在不足。

张波认为,目前国内缺乏经历过芯片生命周期人才的事实可能将成为中国发展芯片产业的瓶颈。

而周斌则表示中国在相关的软件配套、激励机制、行业氛围的建设等方面可能与美国相比还有一个较大的差距。尤其是美国企业更愿意静下心来扎扎实实地、充满敬畏心地做事,即使是坐 10 年冷板凳也不在乎,而国内创业企业则更倾向于追风口。

“我们已经看到了芯片行业无数次的起起落落,而炒完之后一定是一地鸡毛。”周斌如此表示。