点击进入客流产品网站  全国客服热线:400-000-9680

行业动态

当前位置:首页 | 新闻动态 | 行业动态

GPU并行计算掀起深度学习研究的革命
作者: 发布日期:2015-03-21 点击数:2711

 

       深度学习贯穿了今年GTC大会的整个主题。深度学习通过模仿人类的学习方式,通过构建并训练神经网络,让计算机产生自我学习能力。

 

       深度学习的理论源于上世纪90年代的图像识别系统,但直到2012年之前这种识别的准确率都不高,错误率超过四分之一。自2012年开始应用CUDA并行计算技术之后,这一错误率大幅降低了一半,最近,百度、微软和谷歌更把这一错误率降到了5%左右,已经接近了人类的能力。

 

 

       以图像识别为例,要赋予计算机识别图片的能力,首先是给予深度学习系统大量的相关学习样本,并标识这些样本的含义。

 

       比如给予深度学习系统大量“兔子”的照片,告知系统这种生物叫做兔子,深度学习系统会将这些图片拆分出大量的图层,构建神经网络,逐层分析这种被称为“兔子”的事物的特征,进而学习到什么是兔子。

 

 

       诸如此类,你还可以放入小狗、考拉等动物的照片信息到神经网络中,让系统自我训练和学习。只要神经网络足够大,学习的效果就会越好。

 

       大会期间,黄仁勋为我们介绍一套名为DIGITS的用于数据分析的深度GPU训练系统,它设计用于深度学习网络、支持虚拟化和管理多套训练任务。

 

 

        这套系统可以分析照片描述的内容并作出叙述,比如一只落在树杈上的小鸟、一架停泊在跑道上的汽车、一辆沿着街道前行的上面坐了一个人的马车、一只停泊在有很多大型建筑的港口的船、一只飞跃在海面上的白鸟、一个拿着棒球棒的小孩、坐在板凳上的大人和小孩。

 

 

        很显然,大部分图片的识别还是很准确的。像是马车那张,系统仅通过一顶貌似即识别出示一个人。当然,还是能看出一些识别上的略微错误,比如飞跃在海上的飞鱼就被认为是鸟,而那个拿着牙刷的小孩被识别为拿着棒球棒。

 

       不过,只要通过更进一步的学习,向神经网络中放入更多的信息,这种识别就会更加精准。

 

       深度学习并非仅用于图像识别,在医学研究方面也取得了显著的进展,例如用于推测药物、做癌细胞预测等等。目前,包括谷歌、雅虎、脸书、推特以及中国的阿里巴巴、百度等都已积极投入到深度学习的研究当中,同时还包括像科大讯飞、爱奇艺、乐视、北京文安等等。

 

 

       针对深度学习,NVIDIA还推出了一套专门用于该领域研究的DIGITS DevBox开发平台,配备了4个TITAN X GPU,从内存到电源都做了最优化的配置,以实现在最出色的深度学习研究的性能。

 

 

        DIGITS DevBox预装了所有数据科学家和研究人员所需的软件,包括DIGITS数据包以及最流行的深度学习框架,比如Caffe、Theano、Torch以及NVIDIA的GPU加速深度学习库cuDNN 2.0。在关键深度学习测试中,DIGITS DevBox可以提供4倍于单TITAN X的性能,训练AlexNet模型可以在13小时内完成,而最好的单GPU PC也需要超过2天时间。

 

       毫无疑问,GPU并行计算正引发深度学习的革命。

 

      源自:http://p.t.qq.com/longweibo/page.php?lid=11028222587040668967