《【市场报告】面向6G物联网的端侧计算白皮书_市场营销策划_重点报告20230901_doc.docx》由会员分享,可在线阅读,更多相关《【市场报告】面向6G物联网的端侧计算白皮书_市场营销策划_重点报告20230901_doc.docx(29页珍藏版)》请在第一文库网上搜索。
1、呻智库器器骤?端侧计算白皮书MiqKQp1OpOOOWmjoo.w.0.001001011011前言6G技术将提供更高的速率、更多的连接,以及更广的网络覆盖,以满足在高度动态环境中的各类应用需求。6G“万物智联,数字挛生”的愿景对终端处理时延、功耗、数据隐私保护等提出更高要求。面向6G物联网的端侧计算在云、边、端构成的立体计算范式中的作用日益凸显,但端侧计算的概念、技术架构、发展趋势还不明确。中国移动希望联合产业合作伙伴共同推动面向6G的端侧计算整体架构和关键技术的成熟,推动面向6G“万物智联,数字李生”的立体计算架构的发展和落地应用。本白皮书由中移智库、中国移动研究院、清华大学、北京邮电大学
2、、北京知存科技有限公司联合撰写,版权归中国移动及合作伙伴所有,未经授权,任何单位或个人不得复制或拷贝本建议之部分或全部内容。目录1概述11.1 背景与意义21.2 内容与目的32典型应用场景42.1 大流量场景52.2 实时计算场景52.3 隐私保护场景62.4 离线自治场景73关键技术及挑战83.1 算力受限93.2 功耗敏感103.3 信息孤岛124新兴技术134.1 存算一体:打破后摩尔时代的算力危机144.2 类脑智能:低功耗的下一代人工智能154.3 端边云协同:泛在算力184.3.1纵向端边云协同184.3.2横向端端协同205总结展望23缩略语列表25参考文献261概述6G物联网
3、终端实时数据爆炸式增长,芯片先进工艺的发展带来单位算力成本下降,AI模型及软硬件协同创新带来算法性能提升,新型人工智能场景对低时延计算需求强劲,端侧实时计算迎来新机遇。1.1 背景与意义实时数据爆炸式增长。物联网应用实现了更大连接、更广覆盖和更优体验,连接规模已经实现了“物超人”。随着联网设备的进一步增多和高带宽业务的进一步普及,全网数据吞吐量将呈现爆发式增长。据预测,到2030年,网络吞吐量将达到5000EB/月,随着实时数据的井喷,云计算架构面临网络压力大、响应速度慢、数据安全及隐私保护不足等问题。新型场景不断湖蓝人工智能技术与智能终端的结合对终端实时计算提出了新的需求,以智能终端XR场景
4、为例,包含追踪定位、沉浸声场、手势追踪、眼球追踪、三维重建、机器视觉、肌电传感、语音识别、气味模拟、虚拟移动、触觉反馈、脑机接口等多个环节,需要低时延计算能力提升用户实时体验。IDC预计,2023年中国搭载3D空间性和运动性传感技术的终端设备将超过40%o算力成本逐步下降。芯片先进工艺制程逐步提升,据IDC预计,2023年7nm制程芯片将成为主流,搭载7nm芯片的智能终端设备占比将超过32%o芯片制程的提升将使单位算力的成本逐步下降,如图1所示,7nm制程的芯片单位算力成本仅为16nm制程的19.4%。图1每ToPS算力成本随着工艺逐步下降(数据来源:IBS)算法性能持续提升。人工智能算法性能
5、随着算法创新、软件优化、硬件加速等持续提升。算法方面,深度学习网络模型不断演进,AI模型轻量化等技术不断发展,模型的尺寸和计算量大幅缩减。据OpenAI统计,自2012年以来,人工智能模型在ImageNet分类中训练神经网络达到相同性能所需的计算量,每16个月减少了2倍。软件方面,面向移动端的AI计算框架发展迅猛,对终端兼容性越来越好且对AI模型的推理性能持续提升。硬件方面,通过增加深度学习专用硬件电路等方式,可大幅提升A1计算性能。综上,随着6G物联网实时数据的爆炸式增长、新型场景不断涌现、算力成本的逐步下降、算法性能的持续提升,端侧计算将迎来前所未有的发展新机遇。1.2 内容与目的端侧计算
6、,指在具备一定的计算能力和存储能力的物联网终端设备中进行计算。端侧计算主要满足低功耗、高隐私保护、低时延的计算需求,应用场景包括大流量智能视频监控、低时延的自动驾驶、高隐私性保护的人脸识别和离线自治的智能家居等。6G物联网,即6G使能的物联网,是以6G网络为通信基础设施的物联网。基于6G技术的深度赋能,物联网端到端系统将能够实现更强大的智能和自主性,能够实时精准感知环境、做出智能决策并提供个性化的服务。端侧计算在云、边、端构成的立体计算范式中的作用日益凸显。本文希望系统梳理端侧计算的场景需求、关键技术挑战以及新兴端侧计算技术。目前端侧计算技术整体发展仍处于初级阶段,未来还有很多技术和商业层面的
7、挑战,中国移动希望联合产业合作伙伴共同推动端侧计算整体架构和关键技术的成熟,推动面向6G物联网的立体计算架构的发展和落地应用。2典型应用场景2.1大流量场景视频物联网近年来呈逐年增长趋势。据IDCG1obaIDataSphere,2023全球视频监控产生的数据约18.IPB(1PB=1O24TB),占同期物联网总数据量831%。智慧城市、智慧交通、智能家居等物联网领域中存在大量的视频终端。使用MPEG-4压缩,30fps1280X1024分辨率的单一连续视频每天产生约128G数据;搭配了摄像头和雷达的12辅助驾驶系统的车载系统每30秒就会生成超过6GB的数据。此类视频分析场景特别是高清视频分析
8、类场景需要占用大量的带宽资源,并且大流量的视频数据传输易引发网络拥塞、服务质量下降等问题。端侧计算应用于此类大流量场景,可第一时间对收集的视频数据进行处理分析,将处理和分析后的结果再上传至云侧数据中心,大幅减少网络数据传输、降低网络带宽负荷、缓解云数据中心存储与计算的压力,并能够提升系统的实时响应能力。随着端侧A1芯片的性能不断提升,A1安防等视频监控应用向端侧前移趋势愈加明显。A1安防端侧算力需求如表1所示。表IA1安防端侧算力支持像素2M4M8M16M算力0.5T0PSITOPS2T0PS4T0PS功耗1wIw2-2.5w3w2.2实时计算场景在自动驾驶、工业控制、虚拟现实等时延敏感类应用
9、场景中,终端采集数据上传到云端,云端计算后再将结果返回终端,将会引入网络和平台处理时延,考虑网络不稳定等因素,时延可能会更大。随着6G人工智能技术的进一步发展,车联网将在深度学习、多传感器融合等方法的使能下形成车辆、路侧、云端的全场景一体化感知决策架构,实现协同决策,更好地助力自动驾驶。IDC报告显示,2023年第一季度12级自动驾驶在乘用车市场的新车渗透率达23.2%,整个市场处于12向13发展的阶段。辅助驾驶对于端到端时延的要求在100毫秒,自动驾驶对于端到端时延的要求进一步提高到20100毫秒。在工业控制中,诊断信息的时延要求为10毫秒,运动控制的时延要求提高至25-100微秒。虚拟现实
10、的需要保证所有捕捉动作到头显中动作小于20ms,以避免用户产生眩晕感。端侧计算应用于此类实时计算场景中的全部或者部分计算,可有效降低端到端时延,满足业务低时延实时计算需要。目前芯片厂商纷纷布局端侧大算力,助力自动驾驶等实时计算场景。自动驾驶算力需求如表2所示。表2自动驾驶算力需求自动驾驶级别1213IA15算力10TOPS30-60TOPS100TOPS1000TOPS功耗5w1530w50W500w2.3 隐私保护场景在人脸验证、可穿戴设备等隐私保护场景下,用户对个人数据的隐私性较为敏感,对于在设备端读取的用户人脸、语音、视频等数据上传云端进行分析,存在数据安全与隐私泄露风险。据中国互联网协
11、会中国网民权益保护调查报告(2023)显示,82.3%的网民亲身感受到了由于个人信息泄露对日常生活造成的影响,49.7%的网民认为个人信息泄露情况严重或非常严重。端侧计算应用于此类隐私保护场景,可在端侧对数据完成预处理,对数据进行去标识化、匿名化处理等,将脱敏数据与平台进行交互,提升用户隐私数据保护能力。端侧人脸识别算力需求如表3所示。表3端侧人脸识别算力需求场景手机人脸验证闸机视频监控算力ITOPSITOPSIOTOPS功耗1-5w5w3关键技术及挑战1.1 算力受限为了降低人工智能模型对计算空间及时间的消耗,模型压缩作为以深度学习为代表的人工智能领域研究的一个重要的分支,旨在对原有的人工智
12、能模型进行参数压缩、维度缩减等操作或者重新设计轻量化的网络结构,以提高网络的训练和推理速度。虽然模型压缩在一部分场景下取得了比较好的效果,但在一些场景下压缩后的模型可能引起推理精度的严重下降,另外压缩后的模型存在难以应用于通用计算平台等问题。在对精度要求较高的场景下,依然优先用硬件满足需求。Operation:Energy(pj)8bAdd0.0316bAdd0.0532bAdd016bFPAdd0.432bFPAdd0.98bMu1t0.232bMu1t316bFPMu1t1.1Q32bFPMu1t3.7C32bSRAMRead(8KB)532bDRAMRead640qRe1ativeEne
13、rgyCost110100100010000图2不同精度计算的消耗能量和硅片面积101001000然而端侧单点算力的提升面临瓶颈。一方面随着工艺的制程升级,摩尔定律已经开始放缓。到了2018年,根据摩尔定律得出的预测与当下实际能力差了15倍。另一方面,登纳德缩放比例定律似乎已经失效。尽管集成电路中的晶体管数量仍在增加,但由此带来的性能改善却更为缓慢。主要原因是在芯片尺寸不变,晶体管数量变多的情况下,电流泄漏会带来更大的挑战,也会导致芯片升温,从而造成热失控的威胁,从而进一步增加能源成本。如图3所示(数据来源:John1.Hennessy,DavidA.Patterson.2019)。图3单点算
14、力面临瓶颈1.2 当前的端侧计算芯片仍然基于冯诺依曼架构,其数据存储与处理分离,存储器与处理器之间通过数据总线进行数据传输。随着半导体技术的发展,存储单元性能发展远落后于计算单元,如图4所示(引用自John1.Hennessyeta1.)。在面向大数据处理等应用场景中,这种计算架构带来的存储墙和功耗墙己成为高算力与低功耗设备的主要瓶颈之一。相关研究报告指出,在22纳米工艺节点下,一比特浮点运算所需要的数据传输功耗是数据处理功耗的约200倍。存储墙与功耗墙问题并称为冯诺依曼架构瓶颈。数据的爆发式增长进一步加剧了冯诺依曼架构瓶颈。1.3 功耗敏感一方面根据摩尔定律,集成电路每隔18-24个月性能提升一倍,智能手机的AI计算、设备互联等功能不断增加;另一方面5G手机采用MassiveMIMO的技术以增强手机对信号的接收,耗能显著增加。然而,电池领域却没有摩尔定律,受能量密度和电池尺寸限制,电池容量仅能以较低幅度