基于RISC-V加速器实现FPGA CNN异构的控制方案.docx

上传人:lao****ou 文档编号:841733 上传时间:2024-06-17 格式:DOCX 页数:6 大小:160.65KB
下载 相关 举报
基于RISC-V加速器实现FPGA CNN异构的控制方案.docx_第1页
第1页 / 共6页
基于RISC-V加速器实现FPGA CNN异构的控制方案.docx_第2页
第2页 / 共6页
基于RISC-V加速器实现FPGA CNN异构的控制方案.docx_第3页
第3页 / 共6页
基于RISC-V加速器实现FPGA CNN异构的控制方案.docx_第4页
第4页 / 共6页
基于RISC-V加速器实现FPGA CNN异构的控制方案.docx_第5页
第5页 / 共6页
亲,该文档总共6页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《基于RISC-V加速器实现FPGA CNN异构的控制方案.docx》由会员分享,可在线阅读,更多相关《基于RISC-V加速器实现FPGA CNN异构的控制方案.docx(6页珍藏版)》请在第一文库网上搜索。

1、基于R1SCT加速器实现FPGACNN异构的控制方案吴海龙,李金东,陈翔,电子与信息工程学院,中山大学,中国摘要:现场可编程门阵列(FPGA)具有低功耗、高性能和灵活性的特点。FPGA神经网络加速的研究正在兴起,但大多数研究都基于国外的FPGA器件。为了改善国内FPGA的现状,提出了一种新型的卷积神经网络加速器,用于配备轻量级R1SCT软核的国产FPGA(紫光同创PG21100H)。所提出的加速器的峰值性能达到153.6GOPs,仅占用14K1UT(查找表)、32个DRM(专用RAM模块)和208个APM(算术处理模块)。所提出的加速器对于大多数边缘A1应用和嵌入式系统具有足够的计算能力,为国

2、内FPGA提供了可能的AI推理加速方案。背景卷积神经网络在机盗视觉任务中越来越流行,包括图像分类和目标检测。如何在有限的条件下充分发挥FPGA的最大性能是各研究者的主要方向。如今,大多数CCN使用外国FPGA器件。由于国内FPGA起步较晚,其相关开发工具和设备落后于其他外国制造商。因此,在国内FPGA上构建高性能CNN并替换现有成熟的异构方案是一项具有挑战性的任务。Zhang1于2015年首次对卷积网络推理中的数据共享和并行性进行了深入分析和探索。Guo2提出的加速器在214MHZ下达到了84.3GOP/s的峰值性能。2016年,Qiu3更深入地探索了使用行缓冲器的加速器。本文提出了一种更高效

3、、更通用的卷积加速器。提出的加速器峰值性能达到153.6G0Ps,仅占用14K1UT、32个DRM和208个APM。本文的章节安排如下,第2节介绍了我们提出的加速器的详细设计以及基于RISC-V的加速器实现的控制调度方案。第3节给出了实验结果。系统设计整个RISCT片上系统设计如图1所示。该系统主要由R1SCT软核坠、指令/数据存储器、总线桥、外围设备、DMA(直接存储器访问)和卷积加速器组成。Keys1EDOVS640Seria1InterfaceSDcardO1EDFig.1.片上RISC-V系统设计图我们的工作主要在三个方面。首先,我们使用软核CP1J作为片上系统的主控,控制外设,DMA

4、,CNN加速器来实现数据调度和操作。其次,ID(一维)加速器被设计用于改变缓冲机制。第三,为紫光同创的FPGA设备设计了一个DMAIP,用于卷积加速的应用。A、RISC-V软核CPU架构软核。使用RISC-V软核VexRiscv代替Ibex4构建RISC-V的片上系统和面向软件的方法可以使VexRiscv具有高度的灵活性和可扩展性。接口。些和SP1等外围设备通过APB3总线连接到R1SCT软核。DMA和加速器通过PMB总线连接到RISC-V软核。指令与数据存储。程序被交叉编译以获得一个特定的文件,该文件由JTAG烧录到片上指令/数据存储器中。B、CNN加速器结构输入缓存。使用乒乓缓存来实现缓冲

5、区,可以有效地提高吞吐量。输出缓存。权重缓存模块由一系列分布式RAM和串行到并行单元组成。卷积。图2中的ID卷积模块分为四组,其中包含四个ID卷曲单元。每个单元负责ID卷积的一个信道。合并。积分模块有四组加法器树。每组加法器树将每组卷积运算单元的结果相加,得到单向输出结果。累加。累加模块中有四组FIFO和四个加法器。加速器一次只能接收四个通道的输入特征图数据。量化。该量化模块由乘法单元和移位单元组成。它通过比例变换将24位累加结果重新转换为8位5o激活。激活功能通过查找由一系列分布式RAM组成的表来实现。它存储Re1u1eakyRe1u和sigmoid函数的INT8函数表。池化。确定当前卷积层

6、是否与池化层级联,然后决定是否使用池化模块来完成池化操作。输出缓存。输出缓冲器由F1FO而不是乒乓缓存实现。输出高速缓存F1FO将结果存储回片外存储器,作为下一卷积层的输入。InputBufferWeightCacheConvo1utionIntegrationAccumu1ationQuantizationActuationpoo1ingFig.2.CNN加速器实现C、DMA结构神经网络不仅对计算能力有很高的要求,而且对内存也有很大的需求。中低端FPGA通常需要则SRAM(双数据速率同步动态随机存取存储器)来承载整个神经网络和所有中间运算结果的权重。紫光同创的FPGA的DDR3内存驱动I11

7、P为用户提供了简化AXI4总线的内存访问接口。由于S迦PIeC1AX1和AX1之间的标准差异,需要新的DMA设计。DMA设计如下。读和写地址通道由RISC-V软核直接控制。读写数据通道的FIFO用作卷积加速器和DDR3驱动器IP的缓冲器,以完成端口转换。D、实现细节1、一维卷积单元阵列设计神经网络不仅对计算能力有很高的要求,而且对内存也有很大的需求。中低端FPGA通常需要DDRSRAM(双数据速率同步动态随机存取存储器)来承载整个神经网络和所有中间运算结果的权重。紫光同创的FPGA的DDR3内存驱动器IP为用户提供了简化AXI4总线的内存访问接I=Io由于SimPIedAX1和AX1之间的标准

8、差异,需要新的DMA设计。DMA设计如下。读和写地址通道由R1SCT软核直接控制。读写数据通道的FIFO用作卷积加速器和DDR3驱动器IP的缓冲器,以完成端口转换。2、卷积加速器控制本文提出了一种基于指令队列的设计,以减少RISC-V软核中DMA和加速器的响应延迟。RISC-VCPU可以连续发送多个存储器读写请求指令和多个操作调度控制指令,而不用等待DMA和加速器的反馈。DMA和加速器从队列中获取指令,任务完成后直接从队列中取出下一条指令,无需等待相应的CPU,从而实现低延迟调度。Fig.3.1X3一维卷积原理图Wo明的卬6W7W3IDConv1nput1DConvOiM+M+A0K02C%W

9、1W2匕-1X十Fig.4.一维卷积单元硬件实现实现结果和备注通过在PG21100H和X7Z020上实现相同配置的CNN加速器,完成了CNN加速器的性能测试,验证了国产FPGACNN加速方案的可行性。加速器的资源消耗和性能如表I和表II所示。资源PG21100HX7Z0201UT14354/6660013110/53200FF29867/13320014834/106400APMDSP48208/24022.5/140DPM/BRAM31.5/155208/220TAB1EI资源利用PG21100H和X7Z020的资源消耗相似。PG21100H需要额外的逻辑资源来构建VeXRiSeVCPU,而

10、X7Z020为AX1DMAIP使用更多的逻辑资源。就加速器性能而言,可从表II中看出。由于FPGA器件架构的差异,与X7Z020相比,加速器的卷积运算在PG21100H上只能在200MHZ下实现更好的收敛。RISC-V软核只能在IOOMHz下实现定时收敛。性能PG21100HX7Z020时钟/MHz200/100250睚值速率GOP/s153.6192带宽GByte/s1.62TAB1E性能对比我们提出了一种基于RISCT的一维卷积运算的新设计。该加速器在国内FPGA上的实现和部署已经完成,其性能与具有相同规模硬件资源的国外FPGA相当。本文论证了基于国产FPGA的CNN异构方案的可行性,该研

11、究是国产FPGA应用生态中CNN加速领域的一次罕见尝试。REFERENCES:1Zhang.C,eta1.zzOptimizingFPGA-basedAcce1eratorDesignforDeepConvo1utiona1Neura1Networks.the2015ACM/SIGDAInternationa1SymposiumACM,2015.2K.Guoeta1.,zzAnge1-Eye:AComp1eteDesignF1owforMappingCNNOntoEmbeddedFPGA,inIEEETransactionsonComputer-AidedDesignofIntegratedC

12、ircuitsandSystems,vo1,37,no.1,pp.35-47,Jan.2018.3Qiu.J,eta1.,GoingDeeperwithEmbeddedFPGAP1atformforConvo1utiona1Neura1Network.,zthe2016ACM/SIGDAInternationa1SymPoSiUmACM,2016.4E.Gho1izadehazari,T.AyhanandB.Ors,“AnFPGAImp1ementationofaRISC-VBasedSoCSystemforImageProcessingApp1ications,202329thSigna1P

13、rocessingandCommunicationsApp1icationsConference(SIU),2023,pp.1-4.5B.Jacobeta1.,QuantizationandTrainingofNeura1NetworksforEfficientInteger-Arithmetic-On1yInference,z2018IEEECVFConferenceonComputerVisionandPatternRecognition,2018,pp.2704-2713.6B.Bosi,G.BoisandY.Savaria,zzReconfigurab1epipe1ined2-Dconvo1versforfastdigita1signa1processing,inIEEETransactionsonVery1argeSca1eIntegration(V1SI)Systems,vo1.7,no.3,pp.299-308,Sept.1999.黄飞

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 应用文档 > 工作总结

copyright@ 2008-2022 001doc.com网站版权所有   

经营许可证编号:宁ICP备2022001085号

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有,必要时第一文库网拥有上传用户文档的转载和下载权。第一文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第一文库网,我们立即给予删除!



客服