赛灵思FPGA卷积神经网络云中的机器学习.docx

上传人:lao****ou 文档编号:804540 上传时间:2024-05-27 格式:DOCX 页数:5 大小:56.99KB
下载 相关 举报
赛灵思FPGA卷积神经网络云中的机器学习.docx_第1页
第1页 / 共5页
赛灵思FPGA卷积神经网络云中的机器学习.docx_第2页
第2页 / 共5页
赛灵思FPGA卷积神经网络云中的机器学习.docx_第3页
第3页 / 共5页
赛灵思FPGA卷积神经网络云中的机器学习.docx_第4页
第4页 / 共5页
赛灵思FPGA卷积神经网络云中的机器学习.docx_第5页
第5页 / 共5页
亲,该文档总共5页,全部预览完了,如果喜欢就下载吧!
资源描述

《赛灵思FPGA卷积神经网络云中的机器学习.docx》由会员分享,可在线阅读,更多相关《赛灵思FPGA卷积神经网络云中的机器学习.docx(5页珍藏版)》请在第一文库网上搜索。

1、赛灵思FPGA卷积神经网络,云中的机器学习凭借出色的性能和功耗指标,赛灵思FPGA成为设计人员构建卷积神经网组的首选。新的软件工具可简化实现工作。人工智能正在经历一场变革,这要得益于机迷学工的快速进步。在机器学习领域,人们正对一类名为“深度学习”篁法产生浓厚的兴趣,因为这类算法具有出色的大数据集性能。在深度学习中,机器可以在监督或不受监督的方式下从大量数据中学习一项任务。大规模监督式学习已经在图像识别和语音识别等任务中取得巨大成功。深度学习技术使用大量已知数据找到一组权重和偏差值,以匹配预期结果。这个过程被称为训练,并会产生大型模式。这激励工师倾向于利用专用硬件(例如GPU)进行训练和分类。随

2、着数据量的进一步增加,机器学习将转移到云。大型机器学习模式实现在云端的CPUo尽管GPU对深度学习算法而言在性能方面是一种更好的选择,但功耗要求之高使其只能用于高性能计算集群。因此,亟需一种能够加速算法又不会显著增加功耗的处理平台。在这样的背景下,FPGA似乎是一种理想的选择,其固有特性有助于在低功耗条件下轻松启动众多并行过程。让我们来详细了解一下如何在赛灵思FPGA上实现卷积神经网络(CNN)0CNN是一类深度神经网络,在处理大规模图像识别任务以及与机器学习类似的其他问题方面已大获成功。在当前案例中,针对在FPGA上实现CNN做一个可行性研究,看一下FPGA是否适用于解决大规模机器学习问题。

3、卷积神经网络是一种深度神经网络(DNN),工程师最近开始将该技术用于各种识别任务。图像识别、语音识别和自然语言处理是CNN比较常见的几大应用。什么是卷积神经网络?卷积神经网络是一种深度神经网络(DNN),工程师最近开始将该技术用于各种识别任务。图像识别、语音识别和自然语言处理是CNN比较常见的几大应用。2012年,A1exKrishevsky与来自多伦多大学(UniversityofToronto)的其他研究人员1提出了一种基于CNN的深度架构,赢得了当年的Imagenet大规模视觉识别挑战”奖。他们的模型与竞争对手以及之前几年的模型相比在识别性能方面取得了实质性的提升。自此,A1exNet成

4、为了所有图像识别任务中的对比基准。2921OA1exNet有五个卷积层和三个致密层(图1)。每个卷积层将一组输入特征图与一组权值滤波器进行卷积,得到一组输出特征图。致密层是完全相连的一层,其中的每个输出均为所有输入的函数。卷积层A1exNet中的卷积层负责三大任务,如图2所示:3D卷积;使用校正线性单元(Re1u)实现激活函数;子采样(最大池化)。3D卷积可用以下公式表示:其中Y(m,x,y)是输出特征图m位置(x,y)处的卷积输出,S是(x,y)周围的局部邻域,W是卷积滤波器组,X(n,x,y)是从输入特征图n上的像素位置(x,y)获得的卷积运算的输入。所用的激活函数是一个校正线性单元,可执

5、行函数MaX(X,0)。激活函数会在网络的传递函数中引入非线性。最大池化是A1exNet中使用的子采样技术。使用该技术,只需选择像素局部邻域最大值传播到下一层。定义致密层A1exNet中的致密层相当于完全连接的层,其中每个输入节点与每个输出节点相连。A1exNet中的第一个致密层有9,216个输入节点。将这个向量乘以权值矩阵,以在4,096个输出节点中产生输出。在下一个致密层中,将这个4,096节点向量与另一个权值矩阵相乘得到4,096个输出。最后,使用4,096个输出通过softmaxregression为1,000个类创建概率。在FPGA上实现CNN随着新型高级设计环境的推出,软件开发人员

6、可以更方便地将其设计移植到赛灵思FPGA中。软件开发人员可通过从C/C+代码调用函数来充分利用FPGA与生俱来的架构优势。uvizSystems的库(例如AuvizDNN)可为用户提供最佳函数,以便其针对各种应用创建定制CNN0可在赛灵思SD-Acce1这样的设计环境中调用这些函数,以在FPGA上启动内核。最简单的方法是以顺序方式实现卷积和向量矩阵运算。考虑到所涉及计算量,因此顺序计算会产生较大时延。顺序实现产生很大时迟的主要原因在于CNN所涉及的计算的绝对数量。图3显示了A1exNet中每层的计算量和数据传输情况,以说明其复杂性。因此,很有必要采用并行计算。有很多方法可将实现过程并行化。图6

7、给出了其中一种。在这里,将I1XII的权值矩阵与一个I1XI1的输入特征图并行求卷积,以产生一个输出值。这个过程涉及121个并行的乘法-累加运算。根据FPGA的可用资源,我们可以并行对512抑或768个值求卷积。为了进一步提升吞吐量,我们可以将实现过程进行流水线化。流水线能为需要一个周期以上才能完成的运算实现更高的吞吐量,例如浮点数乘法和加法。通过流水线处理,第一个输出的时延略有增加,但每个周期我们都可获得一个输出。使用AuvizDNN在FPGA上实现的完整CNN就像从CC+程序中调用一连串函数。在建立对象和数据容器后,首先通过函数调用来创建每个卷积层,然后创建致密层,最后是创建softmax

8、层,如图4所示。AuvizDNN是AuvizSystems公司提供的一种函数库,用于在FPGA上实现CNN0该函数库提供轻松实现CNN所需的所有对象、类和函数。用户只需要提供所需的参数来创建不同的层。例如,图5中的代码片段显示了如何创建A1exNet中的第一层。AuvizDNN提供配置函数,用以创建CNN的任何类型和配置参数。A1exNet仅用于演示说明。CNN实现内容作为完整比特流载入FPGA并从C/C+程序中调用,这使开发人员无需运行实现软件即可使用AuvizDNN0FPGA具有大量的查找表(1UT).DSP模块和片上存储器,因此是实现深度CNN的最佳选择。在数据中心,单位功耗性能比原始性

9、能更为重要。数据中心需要高性能,但功耗要在数据中心服务器要求限值之内。像赛灵思KintexU1traSca1e这样的FPGA器件可提供高于14张图像/秒/瓦特的性能,使其成为数据中心应用的理想选择。图6介绍了使用不同类型的FPGA所能实现的性能。一切始于cc+卷积神经网络备受青睐,并大规模部署用于处理图像识别、自然语言处理等众多任务。随着CNN从高性能计算应用(HPC)向数据中心迁移,需要采用高效方法来实现它们。FPGA可高效实现CNNoFPGA的具有出色的单位功耗性能,因此非常适用于数据中心。AuvizDNN函数库可用来在FPGA上实现CNNoAuvizDNN能降低FPGA的使用复杂性,并提供用户可从其CC+程序中调用的简单函数,用以在FPGA上实现加速。使用AuvizDNN时,可在AuvizDNN库中调用函数,因此实现FPGA加速与编写C/C+程序没有太大区别。图1-A1exNet是一种图像识别基准,包含五个卷积层(蓝框)和三个致密层(黄)。图2-A1exNet中的卷积层执行3D卷积、激活和子采样。图3-图表展示了A1exNet中涉及的计算复杂性和数据传输数量。图4-实现CNN时的函数调用顺序。图5-使用AuvizDNN创建A1exNet的11的代码片段。图6-A1exNets的性能因FPGA类型不同而不同。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 应用文档 > 工作总结

copyright@ 2008-2022 001doc.com网站版权所有   

经营许可证编号:宁ICP备2022001085号

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有,必要时第一文库网拥有上传用户文档的转载和下载权。第一文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第一文库网,我们立即给予删除!



客服