优化基于FPGA的深度卷积神经网络的加速器设计.docx

上传人:lao****ou 文档编号:796751 上传时间:2024-05-26 格式:DOCX 页数:8 大小:143.94KB
下载 相关 举报
优化基于FPGA的深度卷积神经网络的加速器设计.docx_第1页
第1页 / 共8页
优化基于FPGA的深度卷积神经网络的加速器设计.docx_第2页
第2页 / 共8页
优化基于FPGA的深度卷积神经网络的加速器设计.docx_第3页
第3页 / 共8页
优化基于FPGA的深度卷积神经网络的加速器设计.docx_第4页
第4页 / 共8页
优化基于FPGA的深度卷积神经网络的加速器设计.docx_第5页
第5页 / 共8页
亲,该文档总共8页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《优化基于FPGA的深度卷积神经网络的加速器设计.docx》由会员分享,可在线阅读,更多相关《优化基于FPGA的深度卷积神经网络的加速器设计.docx(8页珍藏版)》请在第一文库网上搜索。

1、优化基于FPGA的深度卷积神经网络的加速器设计CNN已经广泛用于图像识别,因为它能模仿生物视觉神经的行为获得很高识别准确率。最近,基于深度学习算法的现代应用高速增长进一步改善了研究和实现。特别地,多种基于屿平台的深度CNN加速器被提出,具有高性能、可重配置、快速开发周期等优势。尽管目前FPGA加速器已经展示了相比通用处理器更好的性能,加速器设计空间并没有很好发掘。一个严重的问题是,一个FPGA平台的计算吞吐并未很好匹配内存带宽。因此,已有的方案要么未充分利用逻辑资源,要么未充分利用内存带宽,都不能获得最佳性能。同时,深度学习应用不断增加的复杂度和可扩展性让这个问题更加严重。为了克服这个问题,我

2、们利用roof1ine模型提出一种设计分析方法。对于任意CNN设计方案,我们量化分析它使用不同优化技术(循环分块、变换)的计算吞吐和所需内存带宽。在roof1ine模型帮助下,我们可以发现最好性能和最低FPGA资源需求的解决方案。作为案例研究,我们在VC707FPGA板卡上实现了一个CNN加速器,并将它与之前的方案对比。我们的实现在IOOMHz工作频率下可获得61.62GF10PS的峰值处理能力,大大优于之前的方案。1.简介】CNN是著名的深度学习架构,从人工神经网络扩展而来,它已经大量用于不同应用,包括视频监控,移动机器人视觉,数据中心的图像搜索引擎等【6】781014受生物视觉神经行为的启

3、发,CNN用多层神经元相连处理数据,在图像识别中可获得很高准确率。最近,基于深度学习算法的现代应用快速增长进一步改善了区NN的研究。由于CNN的特殊计算模式,通用处理器实现CNN并不高效,所以很难满足性能需求。于是,最近基于FPGA,GPU甚至AS于的不同加速器被相继提出349以提升CNN设计性能。在这些方案中,基于FPGA的加速器由于其更好的性能,高能效,快速开发周期以及可重配置能力吸引了越来越多研究者的注意12361214O对于任意CNN算法实现,存在很多潜在解决方案,导致巨大的设计空间。在我们的实验中,我们发现使用同样FPGA逻辑资源的不同方案性能有最大90%差距。寻找最优解不无价值,尤

4、其当考虑FPGA平台计算资源和内存带宽限制时。实际上,如果一个加速器结构并未仔细设计,它的计算吞吐与内存带宽不匹配。未充分利用逻辑资源或内存带宽都意味着性能下降。不幸的是,FPGA技术进步和深度学习算法同时将该问题复杂化了。一方面,当前FPGA平台不断提升的逻辑资源和内存带宽扩大了设计空间,采取不同FPGA优化技术(如循环分块、变换)会进一步扩大设计空间。另一方面,为了满足现代应用需求,深度学习可扩展性和复杂性在持续增长。因此,在巨大的设计空间中寻找最优解就更加困难,亟需一种高效检索基于FPGA的CNN设计空间的方法。为了高效检索设计空间,本文提出了分析设计的方法。我们的工作优于以前的方法,原

5、因有二:首先,1,2,3,6,14主要关注计算引擎优化,要么忽视了外部存储器操作,要么直接将他们的加速器接入外部存储器。我们的工作则考虑了缓冲区管理和带宽优化。其次,【12】通过数据重用减少了外部数据获取从而获得加速。但是这种方法不必导致最优全局性能。另外他们的方法需要对每层重新配置,不太方便。我们的加速器无需重编翌FPGA就能执行不同层的计算。本文主要贡献如下:* 量化分析可能解决方案的计算吞吐和所需内存带宽;* 在计算资源和内存带宽限制下,我们用roof1ine模型识别所有可能的解决方案,讨论了不同层如何寻找最优解;* 我们提出一种CNN加速器设计,对每层使用统一的循环展开因子;* 实现了

6、CNN加速器,获得61.62GF1OPS处理性能,是目前最优的;2.背景2.1CNN基础CNN受神经科学研究的启发,经过长达20多年的演变,CNN在计算机视觉、AI(119)领域越来越突出。作为一种经典有监督学习算法,CNN使用前馈处理用于识别,反馈用于训练。在工业实践中,很多应用设计者离线训练CNN,然后用训练好的CNN实现实时任务。因此,前馈计算速度是比较重要的。本文关注用基于FPGA的加速器设计前馈计算加速。一个典型CNN由两部分组成:特征提取器+分类器。特征提取器用于过滤输入图像,产生表示图像不同特征的特征图。这些特征可能包括拐角,线,圆弧等,对位置和形变不敏感。特征提取器的输出是包含

7、这些特征的低维向量。该向量送入分类器(通常基于传统的人工神经网络)分类器的目的是决定输入属于某个类别的可能性。一个典型CNN包括多个计算层,例如,特征提取器可能包括几个卷积层和可选的下采样层。图1展示了卷积层的计算。weightsInputfeaturemapsOutputfeaturem;Figure1:Graphofaconvo1utiona1yer卷积层收到N个特征图作为输入,每个输入特征图被一个K*K的核卷积,产生一个输出特征图的一个像素。滑动窗的间隔为S,一般小于K。总共产生M个输出特征图用于下一卷积层。卷积层的伪代码如下:for(row=0;rowR;row+)(for(co1=0

8、;co1C;co1+)(for(to=0;toM;to+)(for(ti=0;tiN;ti+)(for(i=0;iK;i+)(for(j=0;jesign如图4所示,一个CNN加速器设计包括:处理单元(PE),片上缓存,外部存储器以及片内外互联。PE是卷积的基本计算单元。用于处理的所有数据放在外部存储器。由于片上资源限制,数据首先缓存到片上buffer,之后送入PE。这里使用双缓冲将传输时间掩盖于计算时间。片上互联用于PE和片上缓冲的通信。在FPGA平台上有这样几个设计挑战阻碍了高效的CNN加速器设计:首先,片上数据只有很小一部分,故循环分块(1oopti1ing)是必要的,不合适的循环分块可

9、能降低数据重用和数据并行处理效率。其次,PE和缓冲区组织及其互联应仔细考虑,这样能高效处理片上数据。第三,PE的数据处理吞吐应该匹配FPGA平台的片外访存带宽。本节我们从Code1开始优化,提供了连续步骤获得最优处理效率。使用了循环分块的代码如下:Externa1dataIraTobediscussedfor(row=0;rowR;row+=Tr)for(coI=0;coIC;coI+=Tc)for(to=0;toM;to+=Tm)for(ti=0;tiN;ti+=Tn)/1oadoutputfeaturemaps/1oadweights/1oadinputfeaturemapsOn-chip

10、dataccTobediscussedfor(trr=row;trrmin(rowTr,R);trr+)for(tcc=co1;tccmin(coI+TcrC);tcc+)for(too=to;toomin(to-Tm,M);too+)for(tii=ti;tiimin(ti+Tn,N);tii+Rfor(i=0;iK;i+)for(j=0;jK;j+)1:output_fmtootrrtcc+=weightstootiiij*input-fmtiiS*trriS*tccj/store_output_feature_mapsFigure 5: Pseudocodeofati1edconvo1utie注意到循环变量i和j并未分块,因为CNN中卷积层kerne1尺寸K太小(311)o第二,我们讨论了计算引擎优化并将计算性能与分块系数建立联系。第三,我们使用数据重用技术减少外存访问,建立了计算-访存比和分块系数的联系;第四,利用上述两个变量,我们定义了设计空间,在FPGA平台上找最优解;第五,我们讨论了怎样为多层CNN应用选择最好的加速器。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 应用文档 > 工作总结

copyright@ 2008-2022 001doc.com网站版权所有   

经营许可证编号:宁ICP备2022001085号

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有,必要时第一文库网拥有上传用户文档的转载和下载权。第一文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第一文库网,我们立即给予删除!



客服