《CXL协议和标准介绍 CXL2.0和3.0有什么新功能?.docx》由会员分享,可在线阅读,更多相关《CXL协议和标准介绍 CXL2.0和3.0有什么新功能?.docx(4页珍藏版)》请在第一文库网上搜索。
1、CX1协议和标准介绍,CX12.O和3.O有什么新功能?指数级的数据增长促使计算行业开始进行突破性的架构转变,以从根本上改变数据中心的性能、效率和成本。为了继续提高性能,服务器正越来越多地转向异构计算架构,使用专门构建的加速器从CPU卸载专门的工作负载。CX1的内存缓存一致性允许在CPU和加速器之间共享内存资源。此外,CX1支持部署新的内存层,可以弥合主内存和SSD存储之间的延迟差距。这些新的内存层将增加带宽、容量、提高效率并降低总体拥有成本(TCO)O凭借这些诸多优势,业界果断地将CX1融合为处理器、内存和加速器的高速缓存一致性互连。CX1通过一个叫做CX1联盟的开放行业标准组织开发技术规范
2、,促进新兴使用模型的性能突破,同时支持数据中心加速器和其他高速增强功能的开放生态系统。CX1简介:什么是ComputeExpress1ink?CX1是一个开放标准的行业支持的缓存一致性互连,用于处理器、内存扩展和加速器。从本质上讲,CX1技术在CPU内存空间和连接设备上的内存之间保持内存一致性。这支持资源共享(或池化)以获得更高的性能,降低软件堆栈的复杂性,并降低整体系统成本。CX1联盟已经确定了将采用新互连的三类主要设备:类型1设备:皙能NIC等加速器通常缺少本地内存。通过CX1,这些设备可以与主机处理器的DDR内存进行通信。类型2设备:GPUASIC和FPGA都配备了DDR或HBM内存,并
3、且可以使用CX1使主机处理器的内存在本地可供加速器使用,并使加速器的内存在本地可供CPU使用。它们还共同位于同一个缓存一致域中,有助于提升异构工作负载。类型3设备:内存设备可以通过CX1连接,为主机处理器提供额外的带宽和容量。内存的类型独立于主机的主内存。CX1协议和标准CX1标准通过三种协议支持各种用例:CX1.ioCX1.cache和CX1.memoryoCX1.io:该协议在功能上等同于PCIe协议,并利用了PCIe的广泛行业采用和熟悉度。作为基础通信协议,CX1io用途广泛,适用于广泛的用例。CX1.cache:该协议专为更具体的应用程序而设计,使加速器能够有效地访问和缓存主机内存以优
4、化性能。CX1.memory:该协议使主机(例如处理器)能够使用加载/存储命令访问设备连接的内存。这三个协议共同促进了计算设备(例如CPU主机和AI加速器)之间内存资源的一致共享。从本质上讲,这通过共享内存实现通信简化了编程。用于设备和主机互连的协议如下:类型1设备:CX1.io+CX1.cache类型2设备:CX1.io+CX1.cache+CX1.memory类型3设备:CX1.io+CX1.memoryComputeExpress1ink与PCIe:这两者有什么关系?CX1建立在PCIe的物理和电气接口之上,其协议建立了一致性、简化了软件堆栈并保持与现有标准的兼容性。具体来说,CX1利用
5、PCIe5功能,允许备用协议使用物理PCIe层。当支持CX1的加速器插入x16插槽时,设备会以每秒2.5千兆传输(GTs)的默认PCIExpress1.0传输速率与主机处理器的端口进行协商。只有双方都支持CX1,CX1交易协议才会被激活。否则,它们作为PCIe设备运行。CX111和2.0使用PCIe5.0物理层,允许通过16通道链路在每个方向上以32GT/s或高达64GB/s的速度传输数据。CX13.0使用PCIe6.0物理层将数据传输扩展到64GT/s,支持通过x16链路进行高达128GB/s的双向通信。CX12.0和3.0有什么新功能?首先在内存池方面,CX12.0支持切换以启用内存池。使
6、用CX12.0交换机,主机可以访问池中的一个或多个设备。尽管主机必须支持CX12.0才能利用此功能,但内存设备可以是支持CX11.0、11和2.0的硬件的组合。在1.0/1.1中,设备被限制为一次只能由一台主机访问的单个逻辑设备。然而,一个2.0级别的设备可以被划分为多个逻辑设备,允许多达16台主机同时访问内存的不同部分。HostsNM2H3H4CX12.0InterconnectsDevices例如,主机1(H1)可以使用设备1(D1)中一半的内存和设备2(D2)中四分之一的内存,以将其工作负载的内存需求与内存池中的可用容量完美匹配.设备D1和D2中的剩余容量可由一台或多台其他主机使用,最多
7、可达16台。设备D3和D4分别启用了CX11O和1.1,一次只能由一台主机使用。CX13.0引入了对等直接内存访问和对内存池的增强,其中多个主机可以一致地共享CX13.0设备上的内存空间。这些功能支持新的使用模型并提高数据中心架构的灵活性。其次来到交换方面;通过转向CX12.0直连架构,数据中心可以获得主内存扩展的性能优势,以及池内存的效率和总体拥有成本(TeO)优势。假设所有主机和设备都支持CX12.0,则“切换”通过CX1内存池皿中的交叉开关集成到内存设备中。这可以保持较低的延迟,但需要更强大的芯片,因为它现在负责交换机执行的控制平面功能。通过低延迟直接连接,连接的内存设备可以使用DDRD
8、RAM来扩展主机主内存。这可以在非常灵活的基础上完成,因为主机能够访问处理特定工作负载所需的尽可能多的设备的全部或部分容量。CX13.0引入了多层交换,支持交换结构的实施。CX12.0支持单层交换。借助CX13.0,启用了交换结构,其中交换机可以连接到其他交换机,从而大大增加了扩展的可能性。第三,“按需”内存范例;类似于拼车,CX12.0和3.0在“按需”的基础上为主机分配内存,从而提供更高的内存利用率和效率。该架构提供了为标称工作负载(而不是最坏情况)配置服务器主内存的选项,能够在需要时访问池以处理高容量工作负载,并为TCO带来更多好处。最终,CX1内存池模型可以支持向服务器分解和可组合性的
9、根本转变。在此范例中,可以按需组合离散的计算、内存和存储单元,以有效地满足任何工作负载的需求。第四,完整性和数据加密(IDE);分解一一或分离服务器架构的组件增加了攻击面。这正是CX1包含安全设计方法的原因。具体来说,所有三个CX1协议都通过完整性和数据加密(IDE)来保护,IDE提供机密性、完整性和重放保护。IDE在CX1主机和设备芯片中实例化的硬件级安全协议引擎中实现,以满足CX1的高速数据速率要求,而不会引入额外的延迟。应该注意的是,CX1芯片和系统本身需要防止篡改和网络攻击的保护措施。在CX1芯片中实现的硬件信任根可以为安全启动和安全固件谴的安全和支持要求提供此基础。第五,将信令扩展到
10、64GT/s;CX13.0带来了标准数据速率的阶跃函数增加。如前所述,CX111和2.0在其物理层使用PCIe5.0电气:32GT/s的NRZ信号。CX13.0秉承了以广泛采用的PCIe技术为基础构建的相同理念,并将其扩展到2023年初发布的最新6.0版PCIe标准。使用PAM4信号将CX13.0数据速率提高到64GT/sO我们涵盖了PCIe6中PAM4信令的详细信息一一您需要知道的一切。得益于CX1的出现,开发者可以简化和改进低延迟连接和内存一致性,显著提高计算性能和效率,同时降低TCOo此外,CX1内存扩展功能可在当今服务器中的直接连接DIMM插槽之上实现额外的容量和带宽。CX1使得通过CX1连接设备向CPU主机处理器添加更多内存成为可能。当与持久内存配对时,低延迟CX1链路允许CPU主机将此额外内存与DRAM内存结合使用。大容量工作负载的性能取决于大内存容量,例如AIo考虑到这些是大多数企业和数据中心运营商正在投资的工作负载类型,CX1的优势显而易见。编辑:黄飞