Con la ayuda de PIM, ¿Samsung quiere recortar las ganancias de los fabricantes de chips?

Samsung presentó la idea de PIM a principios de año, poco después de CES, y la demostró junto con las memorias HBM, específicamente HBM2 Aquabolt, ya que la compañía se refiere a chips con tasas de transferencia por encima del estándar (> 2 Gb / s). La idea radica en el hecho de que, en circunstancias estándar, muchas combinaciones de operaciones y datos consumen una parte significativa del presupuesto de energía (en general) de un sistema informático para transportar datos, y se puede dedicar una cantidad significativa de tiempo de cómputo a la espera de datos. transferencias.

Samsung pensó entonces en integrar un acelerador simple directamente a nivel de memoria (chips, módulos), que pudiera realizar algunas operaciones sin necesidad de mover datos al acelerador principal (CPU, GPU, FPGA, ASIC…). El acelerador PIM utiliza instrucciones de estilo RISC de 32 bits, que admite un total de 9, y que se pueden dividir en tres grupos: aritmética (ADD, MUL, MAC, MAD), para transferencias de datos (MOV, FILL) y para flujo de datos. control (NOP, JUMP, EXIT).

Implementó la primera solución (HBM-PIM) en cooperación con Xilinx en su tarjeta aceleradora de la serie Xilinx Alveo AI y, por lo tanto, logró (sin duda el mayor éxito) un aumento de rendimiento de 2,54-2,85 veces al tiempo que redujo los requisitos de energía en un 62%.

Samsung ahora ha decidido anunciar la preparación de otros productos basados ​​en PIM. Estos serán LPDDR5, DDR5, GDDR6 y HBM3. Si bien proporciona soporte para formatos de datos INT8 e INT6 para memorias de tipo DDR, también ofrece FP16 y FP32 para HBM3. En el caso de LPDDR5 móvil de bajo consumo, logra un rendimiento de 1,1 a 2,4 veces mayor y un consumo de 1,12 a 4,35 veces menor en las tareas objetivo, pero para DIMM grandes (servidor DDR5) mostró un cambio de rendimiento ligeramente menor (1,8 ×) y un disminución levemente menor del consumo (42,6%). Sin embargo, no debe pasarse por alto que el consumo absoluto de memorias convencionales (DDR5 DIMM) es significativamente mayor que el consumo de HBM o LPDDR5, por lo que incluso una disminución porcentual menor puede significar ahorros significativamente mayores en números absolutos.

Samsung presenta la idea completa de PIM como un esfuerzo para resolver una situación en la que, dados los límites físicos y las barreras, no se puede esperar un salto importante en el rendimiento de los datos de la memoria en el futuro previsible y, por lo tanto, tiene sentido implementar un sistema tan poco convencional. solución.


Sin embargo, la situación también se puede ver desde otro ángulo, del que Samsung ciertamente es consciente, pero no tiene por qué presentarlo en comunicados de prensa. Regresemos unos años a una época en la que el pináculo de la ciencia y la tecnología y GDDR5 y nada disponible comercialmente que ofreciera al menos capacidades comparables alcanzaban velocidades de datos más altas. Sin embargo, en el momento de la llegada de estas memorias, ya estaba claro para los fabricantes de chips gráficos y aceleradores (AMD, Nvidia) que la situación requeriría transferencias de datos significativamente más altas que incluso el GDDR5 más avanzado, por lo que ambas compañías resolvieron el problema. Cada uno de una manera ligeramente diferente. AMD ha seguido el camino de trabajar con los fabricantes de memoria y desarrollar un nuevo estándar, que ha dado sus frutos varias veces, especialmente para GDDR3 y GDDR5. Nvidia, por otro lado, ha comenzado a poner más énfasis en reducir la necesidad de transferencias de datos a nivel de arquitectura.

AMD Fiji (HBM)

El enfoque de Nvidia demostró ser más ventajoso, aunque debe reconocerse que el enfoque de AMD se vio afectado negativamente por el liderazgo de la compañía en ese momento, liderado por Rory Read, quien despidió al decenas de por ciento de los ingenieros en varias oleadas y también recortó el gasto en I + D varias veces. En cualquier caso, la situación resultó que AMD primero esperó a que se completara el desarrollo y la puesta en marcha de la primera generación de HBM (GPU). Fiyi), que duró y no fue barato (lo que probablemente se esperaba) y la próxima generación (HBM2, GPU Vega), que se suponía que iba a reducir los precios, no los redujo demasiado. Si bien los precios de todos los tipos de memoria estaban cayendo, HBM2 seguía siendo caro, ya que los fabricantes de memorias decidieron convertir HBM en una gama alta si no podían ganar dinero con otra cosa. Por lo tanto, una idea interesante y sucesora de la tecnología GDDR se ha convertido en un problema para los aceleradores informáticos costosos.

Paquete Vega 10 01

AMD Vega 10 (HBM2)

Esta amarga espera por el desarrollo de los precios de HBM2 (acompañada de una pérdida de competitividad) a un estado en el que será rentable lanzar una nueva generación basada en ellos (la corriente principal con HBM2 fue finalmente cancelada por AMD por completo porque no funcionaría ) se reflejó en la filosofía de un mayor desarrollo arquitectónico. Si restamos cuatro años del lanzamiento de RDNA2, que es el tiempo habitual de desarrollo, llegamos exactamente al momento en que la arquitectura Vega habló, había muestras, pero la producción en masa aún no se ejecutó. En ese momento, se puede buscar el inicio de la idea de Infinity Cache, un enorme caché integrado en el kernel, que reducirá significativamente la dependencia del chip de la tecnología de memoria utilizada, eliminando así los riesgos que conllevaban retrasos y deficiencias. Éxito generacional. Vega.

Infinity Cache, una alternativa a HBM independiente de los productos de memoria

La idea funcionó y su verificación en la práctica probablemente dio luz verde a otros proyectos que reducen de manera similar la dependencia de memorias separadas mediante el uso de grandes cachés de su propia producción, uno de ellos es el V-cache (caché L3 extendido), que se estrenará en la arquitectura Zen 3 a finales de este año.

Teniendo en cuenta que las grandes marcas tienen información sobre los proyectos y planes de la competencia y empresas colaboradoras mucho antes que los usuarios y periodistas, está claro que al menos datos generales sobre estas intenciones han llegado a Samsung. Desde el punto de vista del fabricante de la memoria, tal estrategia por parte del fabricante de la CPU / GPU no puede percibirse de otra manera que el intento (parcialmente) de derivar el fabricante de la memoria a partir de sus productos. Por ejemplo, un Samsung tiene en la Radeon RX 6900 XT equipada con un caldo GDDR6 literalmente convencional significativamente más pequeño que si tuviera que estar equipada con la última generación del HBM2E más rápido. Con Ryzeny con V-cache, AMD evita elegantemente la necesidad de DDR5 al comienzo de su era, cuando son más caras y su producción más atractiva financieramente.

Ryzen con V-cache: rendimiento de datos más eficiente sin necesidad de DDR5

La tecnología PIM puede verse como un contrapeso: mientras que las tendencias en CPU, GPU y otros aceleradores están llevando a una reducción significativa en la dependencia de las memorias más rápidas (lo que significa menos bolsillos de memoria), PIM hace lo mismo, pero en la dirección opuesta: reduce la dependencia de la memoria del chip al que están conectados y, al cambiar parte de la potencia de cálculo al nivel de la memoria, le da a Samsung el espacio para recortar una mayor parte del presupuesto de todo el acelerador. El resultado puede ser un interesante tira y afloja tecnológico y financiero.


Source: Diit.cz by diit.cz.

*The article has been translated based on the content of Diit.cz by diit.cz. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!