Serie de descripción general del desarrollo de tecnología DPU (2) el papel de DPU

La función más directa de la DPU es servir como motor de descarga para la CPU , haciéndose cargo de los servicios de la capa de infraestructura, como la virtualización de redes y la agrupación de recursos de hardware, y liberando la potencia informática de la CPU a las aplicaciones de la capa superior. Tomando como ejemplo el procesamiento de protocolos de red, se requieren aproximadamente 4 núcleos de CPU Xeon para procesar una red de 10 G a una velocidad de cable. Es decir, solo la mitad de la potencia informática de una CPU de gama alta de 8 núcleos se puede utilizar para la red. procesamiento de paquetes . Si se consideran las redes de alta velocidad de 40G y 100G , la sobrecarga de rendimiento es aún más insoportable. Amazon llama a estos gastos " Tasa del centro de datos " , es decir, los recursos informáticos que se ocuparán al acceder a los datos de la red antes de ejecutar los programas comerciales. La familia de productos AWS Nitro tiene como objetivo descargar la sobrecarga del centro de datos ( proporcionando recursos remotos para máquinas virtuales, cifrado y descifrado, seguimiento de fallas, políticas de seguridad y otros programas de servicio) de la CPU a la tarjeta aceleradora Nitro , que liberará el 30 % del original. recursos para aplicaciones de capa superior ¡La potencia informática utilizada para pagar " impuestos " !

DPU puede convertirse en una nueva puerta de enlace de datos, elevando la seguridad y la privacidad a un nuevo nivel. En el entorno de red, la interfaz de red es el límite ideal de la privacidad, pero los algoritmos de cifrado y descifrado son costosos, como el algoritmo de cifrado asimétrico estándar secreto nacional SM2 , el algoritmo hash SM3 y el algoritmo de cifrado de bloque simétrico SM4 . Si se utiliza la CPU para el procesamiento, solo se puede cifrar una pequeña cantidad de datos. En el futuro, a medida que la cadena de bloques madure gradualmente, la ejecución del algoritmo de consenso POW y la verificación de firmas también consumirán una gran cantidad de potencia informática de la CPU . Y todo esto se puede lograr solidificándolo en la DPU , e incluso la DPU se convertirá en una raíz de confianza.

DPU también puede ser la entrada del almacenamiento, localizando el almacenamiento distribuido y el acceso remoto. A medida que la relación rendimiento-rendimiento de los SSD se vuelve cada vez más aceptable, es posible migrar parte del almacenamiento a dispositivos SSD . El protocolo SATA tradicional para discos duros mecánicos no es adecuado para almacenamiento SSD . Por lo tanto, conectar SSD al El sistema a través de PCI e local o red de alta velocidad se convierte en ruta técnica obligatoria. NVMe ( Non Volatile Memory Express ) es un protocolo estándar de interfaz de alta velocidad para acceder al almacenamiento SSD . PCIe se puede utilizar como protocolo de transmisión subyacente para aprovechar al máximo las ventajas de ancho de banda de los SSD . Al mismo tiempo, en un sistema distribuido, también se puede extender a nodos InfiniBand , Ethernet o Fibre Channel a través del protocolo NVMe over Fabrics ( NVMe-o F ) y RDMA .Almacenamiento compartido y acceso remoto en forma de almacenamiento. Estos nuevos protocolos de procesamiento se pueden integrar en la DPU para lograr un procesamiento transparente para la CPU . Además, la DPU puede asumir el papel de varios controladores de protocolo de interconexión para lograr un mejor punto de equilibrio en términos de flexibilidad y rendimiento.

La DPU se convertirá en una caja de arena para la aceleración de algoritmos y el portador de aceleradores más flexible. DPU no es completamente un ASIC solidificado Bajo el pavimento de protocolos de acceso de coherencia de datos como CPU , GPU y DPU recomendados por organizaciones estándar como C XL y CCIX , eliminará aún más las barreras de programación de DPU y combinará FPGA y otros dispositivos programables , El hardware personalizable tendrá más espacio para jugar, " software y hardware " se convertirán en la norma, y ​​el potencial de la computación heterogénea se realizará por completo debido a la popularidad de varias DPU . Las DPU correspondientes pueden aparecer en los campos donde aparece " Aplicación Killer " , como aplicaciones de bases de datos tradicionales como OLAP , OLTP , computación de borde 5G , conducción inteligente V2X , etc.

Fuente: Libro blanco sobre el procesador de datos dedicado (DPU), Instituto de Tecnología Informática, Academia de Ciencias de China, Yan Guihai, etc.

Descarga de texto completo: https://www.yusur.tech/zkls/zkys/dpu_whitepaper.html

Supongo que te gusta

Origin blog.csdn.net/yusur/article/details/123867395
Recomendado
Clasificación