banner

Blog

Dec 24, 2023

Revisión de AMD Epyc 9654 Genoa: rendimiento en diferentes dimensiones

Tras cinco años de desarrollo, Epyc está listo para el horario de máxima audiencia.

Saltar a: Arquitectura | Modelos | Servidor | Rendimiento | Conclusión

La chispa brillante en los resultados financieros del tercer trimestre de 2022 de AMD publicados la semana pasada es el rendimiento del centro de datos. En un momento en el que las principales empresas de tecnología advierten contra una demanda débil y menores ingresos, AMD registró unos ingresos trimestrales un 45 por ciento superiores a los de hace exactamente un año. La mayor parte de esa ganancia se atribuye al impulso continuo mostrado por los procesadores Epyc. Donde hay ying, hay yang, y la próspera fortuna de los centros de datos de AMD contrasta marcadamente con la de su principal rival Intel, cuyos ingresos por segmento cayeron un 27 por ciento en el mismo período y, lo que es más preocupante, el margen operativo se redujo de 2.290 millones de dólares en el tercer trimestre de 2021 a prácticamente nada en el tercer trimestre de este año.

Es en este contexto de progreso que AMD mantiene el pie en el suelo e introduce los procesadores Epyc de cuarta generación anteriormente conocidos con el nombre en clave Genoa. Aprovechando hasta un 50 por ciento más de núcleos e hilos en el extremo superior que la generación anterior de Milán, y utilizando la naciente arquitectura Zen 4 al máximo, los últimos chips Epyc son una fuerza importante a tener en cuenta.

Preparado para ampliar el liderazgo de AMD en materia de computación, densidad y eficiencia energética sobre Intel Ice Lake Xeon de tercera generación en el mercado y adelantarse a las CPU Xeon Sapphire Rapids de cuarta generación que llegarán el 10 de enero de 2023, existen innumerables razones para que AMD sea optimista sobre Genoa. perspectivas para reclamar una creciente participación de mercado en el lucrativo espacio de servidores.

Comprender los últimos procesadores Genoa Epyc requiere contexto. AMD presentó la primera generación de Naples Epyc en junio de 2017. Construido con la arquitectura Zen limpia que también debutó en el escritorio Ryzen ese mismo año, Epyc de 32 núcleos y 64 hilos demostró ser un buen caso de prueba de alto rendimiento. potencial del servidor. Noviembre de 2018 trajo procesadores Rome Epyc de segunda generación, pero esta vez con un número de núcleos y subprocesos que se duplicó a 64/128, respectivamente.

Llegar a la ejecución con regularidad en el momento preciso y fortuito en el que Intel fracasó con los lanzamientos posteriores de Xeon ha proporcionado a Milan Epyc de tercera generación el trampolín perfecto para una mayor incursión en el mercado de servidores x86. El último participante enriquecido con caché, Milan X, abre oportunidades de ingresos que antes eran inaccesibles en segmentos como la informática técnica.

“El centro de datos es la división más importante de AMD”

Dependiendo de las notas de investigación de mercado que lea, AMD actualmente disfruta de una participación de mercado de servidores x86 del 20 por ciento, frente a prácticamente nada hace cinco años. Epyc de cuarta generación, que abarca múltiples carriles de natación, es la clave preciosa para desbloquear mayores oportunidades.

Lo que nos lleva al portafolio de Epyc en constante expansión. AMD históricamente ha utilizado un diseño por generación. Al apreciar que Epyc ahora tiene tracción entre los jugadores de renombre que lo han visto desarrollarse con el tiempo, AMD está ampliando la gama de productos al introducir cuatro variantes, cada una de las cuales aborda un segmento diferente del mercado de servidores grandes.

El impulso inicial de cuarta generación lo proporciona el Genoa estándar que utiliza la arquitectura Zen 4 y escala hasta 96 núcleos y 192 subprocesos. A principios de 2023 veremos una versión con caché ampliada conocida como Genoa-X, que albergará hasta 1152 MB de L3, de la misma manera que Milan aumenta con Milan-X. El tercer carril de natación de Epyc es Bérgamo, que utiliza una arquitectura de densidad optimizada conocida como Zen 4c. El propósito es habilitar la misma cantidad de núcleos y subprocesos en la mitad del espacio del chip (se imagina que los cachés tendrán que ser más pequeños que los del Zen 4 normal), brindando la oportunidad de impulsar hasta 128C/256T por socket. Finalmente, para entornos sensibles a los costos donde el valor es más importante que el rendimiento total (piense en la computación de vanguardia, por ejemplo), Siena pasa a primer plano el próximo año. ¿Tiene la sensación de que Epyc está a punto de entrar en horario de máxima audiencia?

Aunque otros procesadores Epyc de cuarta generación son lo suficientemente potentes por sí mismos, el foco de la revisión de hoy es Genoa. Las notas clave sobre Epyc de última generación son innumerables: más núcleos e hilos, nuevo socket, mejor arquitectura, canales de memoria adicionales, DDR5, PCIe 5, CXL, etc. Analicemos cada uno de ellos antes de comparar un servidor Titanite 2P con los mejores chips Epyc 9654 de su clase que albergan 192 subprocesos cada uno.

Habiendo estado estancado en 64 núcleos y 128 subprocesos desde los procesadores Epyc de segunda generación, AMD finalmente aumenta el recuento máximo en un 50 por ciento, a 96/192. La razón principal por la que aumenta la densidad por zócalo radica en el cambio de fabricación del cómputo de 7 nm de Milán y el IOD de 14 nm a 5 nm/6 nm, respectivamente, para Génova. Aprovechar el proceso más pequeño y más eficiente energéticamente de TSMC es luz verde para escalar más en núcleos y frecuencia.

La estrategia pionera de diseño de chiplets introducida con Epyc/Ryzen en 2017 rinde claros dividendos con procesadores de alto número de núcleos. AMD mantiene los mismos ocho núcleos por chiplet, pero esta vez aumenta el número total de los ocho (7 nm) de la última generación a 12 CCD (5 nm), lo que representa el método más simple para aumentar el número de núcleos e hilos en un sustancial 50 por ciento. Al igual que las CPU de escritorio Ryzen serie 7000 y en comparación con la generación anterior, AMD duplica el L2 por núcleo a 1 MB, pero mantiene el L3 por CCD en 32 MB.

Hasta 12 CCD, según el modelo, continúan conectándose a una unidad de E/S central conocida convenientemente como IOD. AMD puede crear varias configuraciones de caché L3 y de núcleos masajeando la cantidad de CCD. Las matemáticas simples nos informan que los chips de 96 núcleos del compartimiento superior usan los 12 CCD y transportan 384 MB de L3.

Se ofrecen tres paquetes distintos de Génova: una configuración de cuatro CCD, ocho CCD y 12 CCD de pila superior. Si AMD quiere una gran cantidad de caché L3 y relativamente pocos núcleos, entonces se utilizan 8 o 12 CCD; recuerde, cada CCD tiene 32 MB de L3. En teoría, por ejemplo, se puede construir un Epyc de 32 núcleos con cualquiera de las tres configuraciones. En ese caso, el primero estaría completamente poblado, el segundo medio poblado y el tercero sólo utilizaría un tercio de los recursos. Todos también tendrían distintos niveles de caché L3. En términos generales, los CCD aumentan junto con los núcleos necesarios.

Estas complicadas diapositivas detallan cómo la expansión de Génova (Serdes, GMI, etc.) queda fuera del IOD. El número total de carriles PCIe no cambia entre generaciones, ya que hay 128 disponibles en un entorno de un solo procesador, aumentando a 160 en una solución 2P, y el resto se utiliza para unir chips. Mucho más útil en un procesador de centro de datos, el beneficio es duplicar la velocidad de rendimiento al actualizar de PCIe 4.0 a PCIe 5.0, y esta es también la razón por la que vemos que los enlaces Serdes aumentan de 25G en Milán a 32G en Génova.

La flexibilidad en la distribución de carriles permite a los proveedores de sistemas llave en mano diferenciar sus productos. Puede haber una gran cantidad de dispositivos PCIe colgando de los carriles (hasta nueve por enlace x16), muchos SATA, xGMI para gráficos o CXL para expansión de memoria (más sobre esto más adelante).

AMD ha dado gran importancia al mantenimiento de la compatibilidad de los sockets de la placa base a través de múltiples generaciones de procesadores de escritorio y de servidor, permitiendo así una actualización sin problemas a lo largo del tiempo. Es discutible que AMD podría haber mantenido el socket SP3 original que ha estado en servicio durante las tres generaciones anteriores, incluso con los SoC de 12 CCD actuales, pero ha decidido no hacerlo. Se considera necesario cambiar a un zócalo SP5 nuevo debido a los requisitos consiguientes de mayor suministro de energía, canales de memoria ampliados, velocidad Infinity Fabric, PCIe 5.0, etc.

Dada la longevidad y el alcance del actual SP3, no tenemos reparos en la actualización de toda la plataforma de AMD para esta generación, especialmente porque cubre múltiples líneas de productos Epyc de cuarta generación.

Una plataforma de servidor bien pensada logra un buen equilibrio entre el rendimiento informático, las cachés y la capacidad de memoria discreta y el ancho de banda. Es por eso que Génova pasa del DDR4 de ocho canales presente en Milán al DDR5 de 12 canales. El ancho de banda máximo aumenta de los 204,8 GB/s (DDR4-3200, 8 canales) de la última generación a 460 GB/s, o un aumento considerable de 2,47 veces.

Sin embargo, en la práctica, AMD ve un ancho de banda 2,3 veces mayor al comparar generaciones. Más impresionante es la eficiencia mejorada cuando se ejecuta memoria de rango único en comparación con la memoria de rango dual preferida. Un talón de Aquiles para Epyc de tercera generación donde el rendimiento cayó hasta un 25 por ciento, AMD mantiene esta vez una eficiencia mucho mayor.

Los nuevos tipos de memoria suelen llegar a costa de la latencia. DDR5 es peor en este sentido, por supuesto, aunque la latencia total no está muy lejos de la de Epycs solo DDR4. En el lado positivo, tener más canales de memoria allana el camino para mayores capacidades por socket y caja... y eso sin tener en cuenta el novedoso CXL.

Las funciones se integran en el silicio cuando los arquitectos de chips lo consideran más prudente. Epyc de cuarta generación se diseñó originalmente para no aprovechar la tecnología Compute Express Link (CXL) desarrollada por Intel. Según el CTO, Mark Papermaster, habiendo quedado impresionado con el estándar abierto y con la mirada puesta en los desarrollos futuros, AMD decidió al final del juego integrar CXL en Genoa.

Aunque Genoa es rico en memoria y velocidad, la tecnología CXL emergente ofrece un medio simple para agregar aún más RAM al sistema a través de la interfaz PCIe. Cuanto más rápida sea la interfaz, mejor será el rendimiento de la memoria y el uso de PCIe 5.0 da sus frutos.

“Al final del partido decidimos que CXL tenía que estar en Génova”

La asignación de 64 carriles de AMD se centra en la memoria en lugar de aceleradores especializados (Tipo 1) o aceleradores de uso general (Tipo 2), que aparentemente es el mismo nivel de soporte CXL que los próximos Intel Sapphire Rapids.

Agregar memoria adicional a un sistema que ya está lleno sigue siendo útil en segmentos donde el conjunto de datos de trabajo es grande (piense en bases de datos y aprendizaje automático), pero existe una penalización de latencia, aunque pequeña, al atravesar otro bus. CXL está en su infancia y los proveedores de memorias compatibles aún son escasos. La buena noticia es que Samsung ya anunció un expansor de memoria CXL Tipo 3 que ofrece módulos de 512 GB.

CXL se vuelve verdaderamente inventivo cuando los productos Tipo 1 y Tipo 2 aún no compatibles están disponibles e implementados en hardware de próxima generación. El protocolo abre la tentadora oportunidad de tener computación verdaderamente desagregada, vinculando núcleos a periféricos y memoria a través de múltiples interfaces CXL. ¿Quizás menos dependencia de futuros IOD?

Por ahora, sin embargo, el soporte de AMD sienta las bases para tener extrañas y maravillosas cantidades de memoria en un servidor. Al incorporar también características de CXL 2.0 Tipo 3, es decir, agrupación de memoria y uso de memoria persistente, esperamos ver cómo los socios aventureros construyen cajas futuras.

Combinando más núcleos en el extremo premium de la pila y frecuencias más altas posibles gracias a la producción de núcleos de 5 nm, AMD continúa tirando el fregadero de la cocina a Génova utilizando la última arquitectura Zen 4.

Al replicar las mejoras de IPC observadas en la versión de escritorio de Zen 4, AMD afirma una mejora del 14 por ciento sobre Zen 3 en frecuencias idénticas.

Los avances en la predicción de front-end y de rama proporcionan la mayor parte de la ganancia de IPC (alrededor del 60 por ciento) y la clave aquí es el aumento en el tamaño y la capacidad de procesamiento de la caché de operaciones. El razonamiento es bastante simple, porque Zen 4, al igual que su predecesor, mantiene una tasa de decodificación de cuatro instrucciones regulares por ciclo, lo cual es débil cuando la cola puede enviar seis a los motores de ejecución.

AMD soluciona esto al tener un caché de operaciones L0 de 4K en Zen 3, pero esto se incrementa a alrededor de 7K en Zen 4, junto con buffers de soporte más grandes. Y ese ha sido un sello distintivo de la evolución Zen a lo largo de los años. Zen 2, por ejemplo, tenía un Branch Target Buffer (BTB) L1 de sólo 512 entradas; Zen 3 aumentó eso a 1.024 y Zen 4 sube a 1.536 entradas. No nos sorprendería ni un ápice si Zen 5 duplicara el tamaño del búfer y la caché nuevamente.

La forma más sencilla de visualizar el beneficio general es imaginar que el front-end es un embudo hacia el motor central: cuanto más amplio y eficiente sea, mejor se podrán saturar los motores de ejecución. Algunos de los arquitectos de CPU más buscados son comerciantes de front-end de alta calidad... y con razón.

Si vas a alimentar a la bestia, será mejor que tenga estómago para digerir porciones más grandes. Aquí es donde entran en juego colas de retiro de instrucciones más grandes y archivos de registro. Agregarlos requiere espacio de transistores, lo que explica por qué Zen 4 es fundamentalmente más grande que Zen 3, aunque se considera que vale la pena el gasto ya que los beneficios de rendimiento superan el costo de implementación, ayudado por ese cambio de 7 nm a 5 nm.

Pasando a las unidades de carga/almacenamiento, Zen 4 es, como lo has adivinado, más grande en áreas importantes. De particular interés es el aumento del 50 por ciento en L2 DTLB, aunque por lo que podemos deducir, puede ser menos asociativo.

Esta vista panorámica de los cambios clave refuerza el mensaje expuesto anteriormente. AMD gasta la mayor parte de los recursos adicionales de Zen 4 en expandir buffers, cachés y colas. La desventaja de hacerlo es una mayor latencia en cachés L2 y L3 más grandes y más lentas; sin embargo, algunos ciclos pueden quedar enmascarados por un mayor procesamiento en vuelo.

¿Olvidamos mencionar la compatibilidad con AVX-512? Qué negligente. De hecho, Zen 4 admite la mayoría del conjunto de funciones, pero lo hace de una manera interesante. En lugar de optar por una única ALU de 512 de ancho, que es la forma óptima pero costosa, AMD opta por bombear dos veces instrucciones de 256 bits de ancho. Este enfoque es más lento que una implementación nativa, por supuesto, y Zen 4 lo hace de esta manera, imaginamos, para no dañar demasiado la frecuencia. Las cargas de trabajo completas de AVX-512 tienen la costumbre de reducir las velocidades y aumentar las térmicas. Optar por la doble bomba, aunque no es lo ideal, es un buen término medio para equilibrar el espacio del dado con el rendimiento total.

Al fortalecer Génova a través de múltiples frentes, ya sabemos que será más rápido que Milán de centro a núcleo. También sabemos que hay modelos que ofrecen un 50 por ciento más de núcleos que cualquier Epyc anterior. Esta embriagadora mezcla se fusiona en 18 modelos disponibles a partir de hoy.

Aquí está la veta madre. El primer aspecto a tener en cuenta es el aumento del consumo de energía en todos los ámbitos. El TDP predeterminado más bajo de 210 W es 55 W más que el Milan de tercera generación, mientras que la potencia superior aumenta de 280 W a 360 W. Esto es un tanto extraño, especialmente para los modelos básicos, ya que reducirlo a 5 nm debería ahorrar energía.

También podemos ver cómo se construye cada modelo desde el punto de vista del packaging. Como se analiza más adelante, AMD elige entre topologías de 4, 8 y 12 CCD, dependiendo de cómo considera que el chip encaja en el panorama más amplio. Por ejemplo, el 9124 de 16 núcleos usa el paquete de cuatro CCD, pero el 9174F también de 16 núcleos, que es más de 3 veces más caro, funciona con una configuración de 8 CCD.

Las cosas se vuelven aún más detalladas una vez que se considera cuánto caché está encendido en cada CCD. Volviendo a nuestro ejemplo de 16 núcleos, el 9124 de 1.083 dólares tiene sólo 64 MB, mientras que el 9174F de alta frecuencia utiliza el límite de ocho paquetes de 256 MB. Caballos de carreras.

Es instructivo comparar modelos de la misma pila de Génova y Milán, para tener una idea de cómo se desarrollan el rendimiento y los precios a lo largo de generaciones.

Las comparaciones de rendimiento no son válidas entre pares, ya que existen ventajas de rendimiento por plataforma y por núcleo para Genoa. Sin embargo, Epyc 9654 es único en su clase, lo que significa que AMD cobra más de 10.000 dólares por primera vez. Los clientes a gran escala no pagan esto, por supuesto, pero es una guía útil para evaluar hacia dónde se dirige el precio de venta promedio.

Los modelos de 64 núcleos son más interesantes. Epyc 9554 es un mejor chip de servidor que Epyc 7763 porque opera a frecuencias más altas y tiene todos los beneficios adicionales de Genoa. El aumento de precio de 1.197 dólares parece justificado. Hacia abajo, la frecuencia viene a través de una mayor potencia para los mejores modelos de 48 núcleos de su clase. Mientras tanto, el modelo principal Genoa de 32 núcleos tiene un precio atractivo.

¡Advertencia emptor! El silicio inicial e incluso el costo de implementación de nuevas plataformas y memorias no son necesariamente los principales impulsores del costo total de propiedad (TCO). Más bien, el rendimiento y la densidad informática se vuelven cada vez más importantes a nivel de rack y centro de datos.

Como lo demuestra este gráfico proporcionado por AMD, un servidor 2P Epyc 9654 obtiene una puntuación de alrededor de 1550 en el punto de referencia SPECrate2017_int_base estándar de la industria, que se considera indicativo de cargas de trabajo comunes con muchos enteros. Mientras tanto, el resultado 2P más alto registrado para Epyc 7763 en el mercado es 861 y para Intel Xeon 8380 es 602 (archivo csv externo), aunque debe tenerse en cuenta que un servidor Xeon de 8 vías ha gestionado un Epyc Genoa de 1.570.

Tomado como proxy, lograr una puntuación de 10.000 requiere siete servidores Epyc configurados con Titanite en comparación con los 17 de Intel Platinum 8380. Lo que es más revelador, si se sigue la narrativa, es un ahorro de energía de 300.000 kWh durante un período de tres años. Incluso si se suministra electricidad al centro de datos a un precio ridículamente bajo de 15 peniques por kilovatio, eso supone un ahorro de energía de £ 45 000 en un solo bastidor.

Somos muy conscientes de que Intel lanzará Sapphire Rapids Xeons de cuarta generación en enero de 2023, lo que sin duda sesgará menos los resultados a favor de AMD, pero con un máximo de 60 núcleos y 120 subprocesos por chip, no se llevarán la corona de densidad para números enteros. tipo de cargas de trabajo.

Está muy claro que Genoa es una plataforma de CPU de servidor fundamentalmente mejor que cualquier Epyc anterior. ¿Eso lo hace perfecto? La respuesta depende del tipo de carga de trabajo que se ejecute... y de lo que promete la competencia en el mismo espacio.

Sabemos que la compatibilidad con DDR5 de 12 canales de AMD proporciona un aumento de ancho de banda de 2,3 veces en el mundo real para los núcleos, lo que es especialmente útil para las SKU de 84 y 96 núcleos. Intel cree que tiene la mejor implementación de memoria al integrar 64 GB de memoria HBM2e en CPU Xeon Max de cuarta generación, citando un ancho de banda de más de 1 TB/s y enormes ganancias de rendimiento con respecto al Epyc 7773X en el campo en HPC y cargas de trabajo de computación técnica, todo sin tener que usar ¡Memoria DDR5 en absoluto! No sabremos cuán válidas son tales afirmaciones hasta que se compare Sapphire Rapids, pero es difícil ignorar la grandilocuencia de Intel.

En una línea similar, Intel está apostando fuerte por la IA/aprendizaje automático incorporando Extensiones de Matriz Avanzadas (AMX) en silicio. Diseñados para aumentar enormemente la computación mediante, de hecho, el uso de una potente calculadora matricial, los últimos Epycs no cuentan con una tecnología tan detallada. Por último, pero no menos importante, el Acelerador de transmisión de datos (DSA) de Intel también se considera de gran beneficio, ya que descarga muchas operaciones comunes de movimiento de datos desde la CPU a un acelerador dedicado, lo que mejora el rendimiento al liberar núcleos para realizar las tareas informáticas que necesitan. Haz lo mejor.

Aquí no hay ningún bien o mal obvio; ambas empresas ven que las cargas de trabajo de los servidores a corto plazo se propagan de manera diferente; AMD apuesta mucho por la informática, Intel se centra en el aprendizaje automático basado en CPU, la memoria de gran ancho de banda y la descarga de la mayor cantidad posible de recursos de los núcleos.

Muestra tu apoyo aClub imparcial386 opiniones

Club386 se enorgullece de brindar reseñas detalladas y de alta calidad basadas en análisis honestos y sabios consejos de compra. Como publicación independiente, libre de influencia comercial o de accionistas, estamos comprometidos a mantener los estándares que nuestros lectores esperan.

Para ayudar a respaldar nuestro trabajo, considere hacer una donación a través de nuestro canal Patreon.

Cada contribución hace la diferencia y le agradecemos su apoyo.

AMD proporcionó a Club386 un servidor de plataforma en rack Epyc Genoa Titanite SP5 2U completamente equipado para evaluación técnica. Al adaptarse a un factor de forma de 19 pulgadas estándar de la industria, el diseño se aleja un poco de la plataforma Daytona que también tenemos en los laboratorios, utilizada para probar los chips Milan/X de tercera generación.

Con soporte para 24 ranuras U.2 de 2,5 pulgadas en la parte frontal y aumentadas con un solo PCIe 3.0 x4 y dos PCIe 3.0 x1 en la propia PCB, la energía proviene de dos fuentes de alimentación Murata CRPS con factor de forma nominal de 1200 W y con certificación 80 Plus Titanium. Capaz de alcanzar un máximo de 2592 W, consideramos que es mejor enchufar ambos a la pared, aunque solo sea para controlar el chirrido agudo cuando está bajo carga. Curiosamente, las fuentes de alimentación utilizan un factor de forma más pequeño que los modelos LiteOn en Daytona.

El sistema Titanite es simplemente para evaluación del rendimiento y no para funcionamiento a largo plazo, por lo que varias tecnologías de ahorro de energía no están activas, lo que se traduce en un máximo de más de 1000 W en la evaluación comparativa.

Gran parte de ese consumo lo cubren las dos CPU que se esconden bajo una refrigeración mejorada en Titanite. Utilizando ocho disipadores de calor más robustos conectados con heatpipes, se fuerza el aire sobre los procesadores. El zócalo SP5 más grande se observa indirectamente por el enfriamiento significativamente más amplio que requiere no menos de ocho tornillos para aflojar antes de que las CPU aparezcan a la vista.

Tal como se envió, AMD equipa Titanite con dos chips Epyc 9654 de 96 núcleos y 192 hilos para un máximo rendimiento multinúcleo. Haga los cálculos y rápidamente se dará cuenta de que contiene casi 400 subprocesos Zen 4, que funcionan a alrededor de 3 GHz cuando se encuentra bajo presión.

Una mejora clave de esta generación es la memoria DDR5 de 12 canales. En realidad, hay 28 pines en Titanite, aunque 24 están poblados en una topología de un DIMM por canal en los dos procesadores.

Samsung es el proveedor de referencia para una capacidad de 1,5 TB (DIMM de 24 x 64 GB) que funciona a la velocidad predeterminada de 4800 MT/s. Eso es un montón de ancho de banda y huella para aplicaciones con poca memoria.

Visto desde arriba, Titanite tiene algunas orientaciones de cableado curiosas. Diseñada para facilitar el acceso, la ruta tiene sentido cuando se ve en persona.

Titanite también cuenta con una nueva placa Hawaii H BMC con tecnología AST2600 que ofrece conexiones en el panel posterior como mini-DisplayPort, Gigabit Ethernet para acceso remoto, M.2 2230, Micro-SD y los siempre útiles LED de depuración.

Quitar el importante disipador de calor es un ejercicio de paciencia. Tornillos desacoplados en orden inverso, hay que tener cuidado para garantizar que el disipador de calor de 920 g no se incline demasiado en ninguna dirección.

Por cierto, el procesador y el zócalo LGA6096 son grandes y miden 75,4 mm por 72 mm.

Limpiar grandes cantidades de material de interfaz térmica, tanto en el disipador térmico como en la CPU, revela esta belleza. Contempla el procesador Socket SP5 AMD Epyc 9654 ocupando una gran cantidad de espacio en la placa base. Los socios de placas de servidor, cómodamente más grandes que la última generación, deben ser creativos a la hora de ubicar todos los componentes de soporte.

El Epyc 9654 de cuarta generación (96C192T) hace que el Epyc 7763 de tercera generación (64C128T) parezca débil en comparación. En realidad, los chips tienen el mismo ancho, aunque, como es evidente, Epyc 9654 es significativamente más alto. Aprobado por traer de vuelta el trineo naranja también.

Menos mal que AMD hizo que el asa del operador fuera más ancha; ¡Manejar un procesador de 12.000 dólares e introducirlo en el mecanismo de retención no es trabajo para manos temblorosas!

Actualizaciones abundantes para esta generación de servidor.

2P Epyc 9654 se compara con los mejores procesadores de servidor AMD de la última generación, incluidos el cache-king Epyc 7773X y Epyc 7763, ambos también en una configuración 2P. Las pruebas se realizaron en Ubuntu 22.04 LTS. La BIOS del servidor Titanite era RTL1001_L mientras que la del Daytona era RYM1009B. Planeamos agregar números Intel Sapphire Rapids de cuarta generación tan pronto como haya un servidor disponible.

Aquí hay un gráfico que hará reír a muchos entusiastas. Vale la pena recordar que la generación anterior Epyc 7773X y 7763 han sido los mejores procesadores de su clase desde sus inicios, que es lo que le brindan 64 núcleos y 128 subprocesos. Su rendimiento es enormemente más rápido que el de un Ryzen 9 5950X de escritorio, lo cual es lógico.

Puede que Epyc 9654 solo sea 17/18 segundos más rápido que el dúo antes mencionado... pero eso lo hace dos veces más rápido que cualquier cosa anterior. Extrapola a proyectos que toman horas en lugar de segundos y la métrica de tiempo de finalización se vuelve significativa. Increíble rendimiento.

¿Está ejecutando aplicaciones de servidor multinúcleo? No hay nada ni remotamente parecido a la doble Génova.

Siguiendo con el tema de los números que superan los puntos de referencia, Epyc de cuarta generación se destaca con respecto al rendimiento 2P. Es dos veces más rápido que una máquina dual Epyc 7763.

Génova es el Cosworth de la Sierra de Milán, típica de los pantanos. Al incluir más núcleos, cachés, frecuencia, IPC, canales de memoria, velocidad de la memoria y todo lo demás, el enfoque de fuerza bruta de AMD funciona bien por ahora.

Se pueden transponer mejoras a otras aplicaciones. Podemos imaginar un aumento del 60 al 80 por ciento en la computación pura con respecto a los procesadores del mercado, aprovechado a través de un mayor número de núcleos e IPC.

Comprender dónde encaja Epyc 9654 en el panorama de servidores 2P es fácil. No hay nada más rápido para cargas de trabajo de múltiples núcleos, punto.

Preparándose para el horario de máxima audiencia en los centros de datos, los procesadores Epyc de cuarta generación de AMD llevan el rendimiento informático a un nuevo nivel. Aprovechando la inercia creada por las generaciones anteriores, las CPU Genoa aportan ruido al blandir una nueva plataforma, memoria DDR5, conectividad CXL y, lo más importante de todo, los martillos gemelos de la última arquitectura Zen 4 aliados a un 50 por ciento más de núcleos e hilos. por socket, que cualquier Epyc anterior.

Ofreciendo rendimiento con creces, las CPU Epyc 9654 de primera línea establecieron nuevos récords para soluciones 2P comunes. Ninguna otra combinación de procesador x86 se acerca a las cargas de trabajo que aprovechan el poder de los números enteros y de punto flotante, y es un hecho que los admiradores de Epyc aplauden fácilmente, quienes ven la Serie 9004 como AMD convirtiéndose en una verdadera corriente principal en el lucrativo mundo de los servidores.

Su rival Intel está ocupado construyendo Sapphire Rapids Xeons de cuarta generación listos para luchar contra AMD, particularmente con los modelos Max con memoria HBM2e que se destacan en aplicaciones vinculadas a memoria, y los servidores Ampere Altra basados ​​en ARM están logrando un progreso inexorable para las cargas de trabajo nativas de la nube. Sin embargo, tampoco lo es el rendimiento de cómputo que ofrecen los últimos campeones de AMD.

Al ofrecer un rendimiento de diferentes dimensiones para cargas de trabajo eclécticas de centros de datos, AMD ha elevado un listón ya alto con el lanzamiento de la serie Epyc 9004 de cuarta generación. Al proporcionar un mejor TCO, los argumentos de AMD para su inclusión en la próxima ola de compras de servidores son más sólidos que nunca.

AMD Epicc 9654

Veredicto:Un rendimiento informático colosal y una plataforma con visión de futuro hacen que Epyc sea más atractivo que nunca.

Ventajas

Súper rendimientoPlataforma de vanguardiaConectividad TCOCXL mejorada

Contras

Sin tecnología HBM

Comprar

Club386 puede ganar una comisión de afiliado cuando compra productos a través de enlaces en nuestro sitio. Esto ayuda a mantener nuestro contenido gratuito para todos. Tenga la seguridad de que nuestros consejos de compra siempre serán imparciales e imparciales.

ModeloTDPCaché L3Reloj básicoReloj de impulsoLanzar MSRPEpyc 965496/192360W384MB2,40 GHz3,70 GHz$11,805Epyc 955464 / 128360W256MB3,10 GHz3,75 GHz$9,087Epyc 9474F48 / 96360W256MB3,60 GHz4,10 GHz$6,780Epyc 9374F32 / 64320W256MB3,85 GHz4,30 GHz$4,850Muestra tu apoyo aMuestra tu apoyo aMuestra tu apoyo aMuestra tu apoyo aClub imparcial386 opinionesClub imparcial386 opinionesClub imparcial386 opinionesClub imparcial386 opinionesCada contribución hace la diferencia y le agradecemos su apoyo.AMD Epicc 9654AMD Epicc 9654Veredicto:VentajasContrasComprar
COMPARTIR