Atos comenzará a trabajar en un sistema EFLOPS con hardware Nvidia

El 16 de noviembre, The Next Platform publicó una entrevista con el CEO de Nvidia, Jen-Hsun Huang, en la que el editor no perdonó las alusiones sobre los aceleradores AMD Instinct MI250X, contratos para la construcción de sistemas EFLOPS, que AMD ganó como proveedor de procesadores y aceleradores. , y en posición competitiva corta. En el momento de la entrevista, no había indicios de que Nvidia hubiera ganado un contrato para el sistema EFLOPS. El CEO respondió trivializando la frase “asesino de Nvidia”, que el editor no usó, y al afirmar que la competencia siempre estuvo ahí, algún “asesino de Nvidia” viene todos los años y así sucesivamente. Sin embargo, admitió que la competencia ahora era muy intensa.

Solo podemos especular qué efecto tuvieron esta entrevista y preguntas relativamente desagradables en los próximos eventos, pero estos se llevaron a cabo de la siguiente manera:

El 18 de noviembre, Atos emitió un comunicado de prensa para preparar el sistema EFLOPS con Nvidia. Este sistema no es el resultado de ganar un contrato (como AMD Frontier, Intel Aurora, AMD El Capitan, etc.), sino puramente la decisión de Nvidia y Athos de construir una supercomputadora que será parte de una iniciativa llamada Excellence AI Lab. (EXAIL). Su objetivo es reunir a científicos e investigadores europeos centrados principalmente en el clima y la salud, que de alguna manera tendrán acceso a la potencia informática de esta supercomputadora.

Sin embargo, no sabemos qué rendimiento específico logrará este sistema, sobre qué aceleradores se construirá o cuándo se planea completarlo. Se supone que es un sistema de clase BullSequana X, los procesadores estarán basados ​​en la arquitectura Nvidia Gracia (ARM), los aceleradores de Nvidia serán de una generación futura no especificada y los elementos individuales estarán conectados por Atos BXI Exascale Interconnect en combinación con Nvidia Quantum-2 InfiniBand.

La prensa también afirma que “Atos desarrollará…”, por lo que es posible que estemos preguntando por parámetros que aún no se han fijado y de momento no es más que una decisión que ambas empresas prepararán un sistema EFLOPS. Si queremos al menos una fecha indicativa de su finalización, podemos inferir de la información sobre el uso de alguna generación futura de aceleradores que será una generación Tolva. Se espera que Nvidia lo informe a mediados del próximo año, pero no parece probable que el sistema EFLOPS construido sobre él pueda estar en el mundo hasta el próximo año. Entonces 2023.

supercomputadoracompleto.Potencia FP64consumadoUPC(GP) GPU
Cumbre20180,2 EFLOPS13 MWIBMNvidia
Sierra20180,125 EFLOPS11 MWIBMNvidia
Perlmutter20200,1 EFLOPS21,5 MWAMDNvidia
Megaproyecto HPC?0,275 EFLOPS?AMDAMD
Fugaku20210,415 EFLOPS18 MWFujitsu
Frontera2021> 1,5 EFLOPS27 MWAMDAMD
Oceanlite20211,3 EFLOPS35 MWSW26010
Tianhe-320211,3 EFLOPS?FeiTeng
Aurora2022?~ 2,4 EFLOPS60 MWIntelIntel
Capitán2022/23> 2 EFLOPS33 MWAMDAMD
? (pro EXAIL)2023?? EFLOPS?NvidiaNvidia

Además, se anunció el llamado sistema JUWELS Booster construido sobre la plataforma Atos BullSequana XH2000 con “casi 2.5 EFLOPS AI” y 3744 × Nvidia A100 Tensor Core GPU y Nvidia Quantum InfiniBand.

Traducido del lenguaje de marketing al lenguaje de supercomputadora, será un sistema con un rendimiento de menos de 39 PFLOPS. El diablo está en el detalle, es decir, en la nota “AI”. Esto sugiere que 2.5 EFLOPS no es ni potencia de cálculo universal ni rendimiento en la precisión tradicionalmente establecida de FP64. A partir del número de aceleradores (3744), se puede calcular fácilmente que esos 2,5 EFLOPS se relacionan con operaciones de tensor en precisión Int8.


Source: Diit.cz by diit.cz.

*The article has been translated based on the content of Diit.cz by diit.cz. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!