Intel DG2-512 / Arc de gráficos de modelo superior se ve muy bien en papel

Leaker Locuza ha recopilado especificaciones y datos sobre la configuración arquitectónica de la GPU Intel DG2-512, que contará con la tarjeta gráfica más poderosa de Intel, que esperamos se lance en la primera mitad del próximo año. Los parámetros se pueden comparar con Radeon RX 6700 XT de AMD y GeForce RTX 3070 de Nvidia.

Comencemos con Radeon. Arc de Intel llevará 4096 unidades de cómputo, que es un 60% superior a 2560 para Radeon. Arc probablemente se ejecutará en barras ligeramente más bajas, por lo que la diferencia resultante en la potencia aritmética probablemente será de alrededor del 40% (a favor de Arc). Las mismas diferencias porcentuales se aplican a los equipos con unidades de texturizado. El ROP tiene un Arco igual a dos veces, e incluso teniendo en cuenta las frecuencias del reloj, la tasa de llenado resultante es más de un 70% mayor. También tiene un bus de memoria más amplio (256 bits en comparación con 192 bits). Aunque Radeon compensa Infinity Cache (L3), no se puede pasar por alto que Radeon tiene solo 3 MB de caché L2, mientras que Arc está equipado con 16 MB, que tiene una capacidad cercana a los modelos inferiores de Radeons con Infinity Cache.

Intel Arc ???AMD Radeon
RX 6700 XT
Nvidia GeForce
RTX 3070
GPUDG2-512Navi 22GA104
índice> 2,2 GHz<2,6 GHz~ 1,9 GHz
SP409625605888
FP32> 18 TFLOPS13 TFLOPS23 TFLOPS
RTU324046
TMU256160184
texturizado> 563 GT / s413 GT / s353 GT / s
ROP1286496
tasa de relleno282 GP / s165 GP / s184 GP / s
Caché L216 MB3 MB4 MB
Caché L396 MB
autobús256 bits192 bits256 bits
VRAMGDDR6 de 16 GHz
8-16 GB

GDDR6 de 16 GHz
12 GB

GDDR6 de 14 GHz
8 GB

permeabilidad512 GB / s384 GB / s448 GB / s

En comparación con la GeForce RTX 3070, la Arc tiene un poder aritmético más bajo (que es básicamente exactamente entre Radeon y GeForce), pero un poder de texturizado ~ 60% más alto y un índice de relleno ~ 55% más alto. Además, caché L2 4 veces más grande y memoria más rápida en el mismo bus.

En la mayoría de los parámetros, el Arc de Intel es bastante significativo tanto en la Radeon RX 6700 XT como en la GeForce RTX 3070. En comparación con la Radeon, es casi mejor compararla con la RX 6800, ya que está mucho más cerca en el papel. Aleatorio: 3840 procesadores de flujo (4096 para Arc), 96 ROP (128 para Arc), bus de 256 bits (256 bits para Arc).

En las características básicas, Arc definitivamente no sufrirá. Si no fuera un rumor del rendimiento de las Radeon RX 6700 XT y GeForce RTX 3070 más competitivas, estos números sugerirían que será un producto más rápido que la GeForce RTX 3070 Ti, que al menos debería igualar a la Radeon RX 6800. Parece que no solo los controladores, sino la arquitectura también tendrán reservas considerables, lo que, dado el primer intento de Intel, no sería muy especial.

La pregunta (aunque más bien retórica o académica) es cuál será la esencia de estas reservas. Las reservas pueden ser de diversa índole. Por ejemplo, cuando el equipo de desarrollo sobrepasa o sobrepasa qué tan rápido (y en qué dirección) irán las demandas de los juegos / gráficos 3D, al colocar los cimientos. Si no se alcanza y todavía hay un retraso, la situación puede resultar en que la arquitectura sea bastante efectiva en los juegos antiguos, pero cada novedad del juego nuevo significará un nuevo clavo en el ataúd de la línea de productos. Un ejemplo es la infame GeForce FX de Nvidia, que se basó en la arquitectura de Shader Model 1.x, mientras que en el momento de su lanzamiento ya se habían lanzado juegos con Shader Model 2.x (que la arquitectura admitía formalmente, pero con muy bajo rendimiento).

La situación opuesta puede sobrepasarse. Esto lo hizo ATi / AMD, por ejemplo, con la R600 / Radeon HD 2900 XT. Dejando de lado el error de las unidades ROP, que reducían el rendimiento en anti-aliasing, la mayor debilidad de la carta era demasiado énfasis en el alto rendimiento aritmético (núcleo unificado) y poco énfasis en las unidades fijas (unidades de texturizado y ROP). Con el advenimiento de los juegos más nuevos, la posición de esta generación comenzó a mejorar, pero en rápida sucesión vinieron varias generaciones de procesos de producción exitosos y baratos y, por lo tanto, varias generaciones de tarjetas gráficas baratas y exitosas, que tenían una relación potencia / rendimiento mucho más interesante. por lo que el comportamiento de esta arquitectura en los juegos nuevos, la mayoría de los clientes rápidamente se desinteresó.

Recientemente, se ha rumoreado que las tarjetas gráficas Intel se retrasan significativamente más de lo esperado inicialmente. No es que deban lanzarse más tarde de lo que se espera actualmente en la primera mitad de 2022, sino que el plan de lanzamiento original preveía una fecha varios años antes. Hay pistas que podrían confirmar tal cosa: recordemos los informes iniciales de las GPU Intel independientes, que hablaban sobre la posición de los chips independientes de arquitecturas desarrolladas para gráficos integrados (mientras que el tiempo necesario para preparar es, en última instancia, el mismo que el de para AMD o Nvidia en el desarrollo de una generación completamente nueva: los primeros informes aparecieron 4.5 años antes del lanzamiento ahora esperado). Otra indicación se puede ver en los informes que explican las dificultades en torno al proceso de fabricación de 10 nm, según el cual el proceso se diseñó originalmente para GPU independientes (orientadas a la densidad, no orientadas al reloj) y no a una CPU que no se pudo fabricar con un precio razonable. resultados. Pero por fallas con el proceso de 10 nm, la directora de producción de Intel, Renee James, fue despedida ya en 2015, lo que indica que los planes para una GPU independiente son muy antiguos.

En este contexto, tanto la tasa de relleno muy alta como el rendimiento de texturizado muy alto de Arc parecen como si DG2-512 no se hubiera diseñado originalmente como una GPU convencional para 2022, sino como una GPU de gama alta para 2018-2020, que ha sido sujeto a una serie de retrasos debido a problemas. con el proceso de desarrollar un chip más grande que la arquitectura originalmente diseñada para la GPU integrada.


Source: Diit.cz by diit.cz.

*The article has been translated based on the content of Diit.cz by diit.cz. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!