新技术旨在通过简化GPU内部内存来帮助神经网络扩展和更快地学习

齐容才
导读富士通实验室的工程师专注于显卡中的内存,以加快神经网络上的机器学习。富士通实验室本周宣布了一项新技术。官员表示,这项技术可以简化GP

富士通实验室的工程师专注于显卡中的内存,以加快神经网络上的机器学习。富士通实验室本周宣布了一项新技术。官员表示,这项技术可以简化GPU的内部内存,以满足对更大规模神经网络日益增长的需求,这是迈向人工智能(AI)的基础之一。测试表明,该技术本质上使神经网络的功能增加了一倍,内部GPU的内存使用量减少了40%以上。

GPU正在进入越来越多的领域,例如高性能计算(HPC),它可以用作基于CPU的系统的加速器。关键是能够并行运行应用和工作负载,这可以大大提高运行特定工作负载的系统的性能,同时控制功耗。

GPU在机器学习和人工智能的增长中也发挥着关键作用,包括在训练神经网络的深度学习领域。在AI的帮助下,系统可以收集输入(如来自周围环境的语音命令或图像),立即处理数据,然后做出相应的响应。通过对周围环境和经验的学习和反应,它基本上像人脑一样工作。

机器学习本质上有两个部分:训练(其中训练了神经网络,例如,物体识别)和推理(在训练中,它们利用这种训练来识别和处理未知的输入,例如,苹果的Siri理解用户的问题,然后做出正确的反应)。神经网络上的大部分训练任务都是由GPU完成的,而推理往往是在Intel CPU上完成的。

不过,英伟达和英特尔都想扩展功能。英伟达看中的是其GPU的推理工作量,而英特尔希望通过基于x86的芯片进行训练。

富士通实验室的官员表示,在过去几年中,他们越来越依赖GPU来处理深度学习处理所需的大量计算。他们表示,为了运行这些高速工作负载,计算中使用的数据需要存储在GPU的内存中,这阻碍了规模,因为它受到内存容量的限制。

富士通的新技术旨在通过大幅重用GPU的内存资源来提高内存效率,而不是简单地增加内部内存的数量。据富士通实验室官员称,当机器学习开始时,将分析神经网络的每一层结构,并可以改变计算顺序,以便重用分配了更大数据的存储空间。

该技术对神经网络进行分析,确保处理计算和数据的方式更有效地利用GPU的存储空间。因此,组织可以扩展神经网络的规模,神经网络可以在单个GPU上高速运行学习工作量。此外,本研究得出的模型更加准确。

神经网络的层数越多,它执行对象识别和分类等任务的精度就越高。但是,随着神经网络的发展,提高了精度,这种提高延长了学习时间。一些组织已经转向以类似于超级计算机的方式并行使用多个GPU,但这会降低学习速度。

富士通实验室的研究人员已经在Caffe开源深度学习框架中实现并测量了GPU内存的使用。使用AlexNet和VGGNet网络对该技术进行评估表明,它使GPU能够在神经网络上扩展学习,并减少GPU内存的使用。

富士通实验室官员在本月早些时候的2016年IEEE机器学习信号处理大会上概述了这项技术的细节,并计划通过使其成为富士通AI技术的一部分来实现商业化。

标签:

免责声明:本文由用户上传,如有侵权请联系删除!