baidu

近日,百度硅谷人工智能实验室发布了一项新的研究成果技术,该技术可以加快深层递归神经网络(RNNs)的训练速度。

该项技术于由百度硅谷AI实验室的科学家 Jesse Engel在github上发布,Jesse Engel表示,此前已经发表过这项技术的第一阶段研发成果,关注的是Minibatch和存储配置在递归通用矩阵乘法(GEMM)的性能上所发挥的作用。本次发布的第二阶段将重点关注对算法本身的优化。

Jesse在文章中提到,Differentiable Graphs(可微图形)对于计算复杂的衍生工具是一个简单、实用又可视化的工具,同时也可以激发算法的优化。对于需要使用具有明确梯度计算功能框架的研究人员、开发新的迭代算法的研究人员以及开发应用自动分化深度学习框架的研究人员,这项新的技术将更好地提升研发能力。

未来,该技术被应用在更多的百度产品上,促进百度深度学习技术的研发及在百度各项应用服务中的应用。例如把人工神经网络应用在杀毒软件,通过神经网络提供的大量已知在案的恶意软件训练,百度的杀毒系统就能学会识别全新的病毒,即便系统从未见过这类病毒。此前,百度还推出过一款名为“慧眼”的4.0杀毒系统,除了百度杀毒,该软件还内置了百度深度学习研究院(IDL)的深度学习智能引擎。

wuenda

公开资料显示,百度于2013年正式成立了深度学习研究院(IDL),2014年5月挖角谷歌大脑之父吴恩达,出任首席科学家并领导百度硅谷研究院工作,负责语音识别和无人车技术研发。百度硅谷研究院目前正在围绕用GPU提升计算效率,处理海量训练数据,语音识别,OCR识别,人脸识别,图像搜索水平等方面进行研究。

此前,该实验室还开源了其核心的人工智能系统:Warp-CTC,该系统是一种在CPU和GPU上快速的CTC的并行实现。这项举动举动对于促进机器学习、人工智能领域的技术研究与发展与有重要意义。Warp-CTC可用于解决比如语音识别这样的,将输入序列映射到输出序列的监督问题。