Preguntas de la comunidad sobre NVIDIA GeForce RTX Serie 30: Respuestas a tus preguntas

Por Tim Adams el 3 de septiembre de 2020 | Featured Stories GeForce RTX GPUs

Tras la presentación de GeForce RTX Serie 30, organizamos una sesión de preguntas y respuestas de la comunidad en NVIDIA e invitamos a ocho de nuestros principales expertos en la materia de NVIDIA para que respondieran tus preguntas. Si bien no pudimos responder a todas, encontramos las más comunes y nuestros expertos dieron su opinión.

GeForce RTX Serie 30

¿Por qué solo 10 GB de memoria para la RTX 3080? ¿Cómo se determinó que era un valor suficiente, cuando es el mismo de la generación anterior?

Link

[Justin Walker] Analizamos constantemente los requisitos de memoria de los juegos más recientes y consultamos periódicamente a los desarrolladores de juegos para comprender sus necesidades de memoria para los juegos actuales y futuros. El objetivo de la 3080 es brindarles un gran rendimiento con una resolución de hasta 4k con todas las opciones de configuración al máximo y al mejor precio posible. Para hacer esto, necesitas una GPU muy potente con memoria de alta velocidad y suficiente memoria para satisfacer las necesidades de los juegos. Algunos ejemplos: Si nos fijamos en Shadow of the Tomb Raider, Assassin's Creed Odyssey, Metro Exodus, Wolfenstein Youngblood, Gears of War 5, Borderlands 3 y Red Dead Redemption 2 que se ejecutan en una 3080 a 4k y con la configuración máxima (incluido cualquier paquete de texturas de alta resolución que corresponda) y RTX On, cuando el juego lo permite, obtienes un rango de 60-100 cuadros por segundo (FPS) y usas entre 4 GB y 6 GB de memoria. Siempre es bueno tener más memoria, pero aumentaría el precio de la tarjeta gráfica, por lo que debemos encontrar el equilibrio adecuado.

En la diapositiva dice que la RTX 3070 es igual o más rápida que la 2080 Ti, ¿estamos hablando de rasterización tradicional o cargas de trabajo de DLSS y RT? Me parece importante aclararlo, ya que no se mostraron puntos de referencia de rasterización tradicionales, solo de juegos compatibles con RT y DLSS.

Link

[Justin Walker] Estamos hablando de ambos. Juegos que solo admiten la rasterización tradicional y juegos que admiten RTX (RT + DLSS). Puedes verlo en nuestro artículo de lanzamiento aquí.

¿Ampere admite HDMI 2.1 con el ancho de banda completo de 48 Gbps?

Link

[Qi Lin] Sí. La arquitectura NVIDIA Ampere admite la velocidad de enlace HDMI 2.1 más alta de 12 Gbs/carril en los 4 carriles y soporta Display Stream Compression (DSC) para permitir una resolución de hasta 8K y 60 Hz en HDR.

¿Podrían desarrollar un poco sobre esta duplicación de núcleos CUDA? ¿Cómo afecta a las arquitecturas generales de las GPCs? ¿Qué desafío implica mantener alimentadas todas esas unidades FP32? ¿Qué se hizo para garantizar una alta ocupación?

Link

[Tony Tamasi] Uno de los objetivos de diseño clave para el SM (Multiprocesadores para Streaming) de Ampere de la Serie 30 era lograr el doble de rendimiento para las operaciones FP32 en comparación con el SM de Turing. Para lograr este objetivo, el SM (Multiprocesadores para Streaming)) de Ampere incluye nuevos diseños de rutas de datos para las operaciones FP32 e INT32. Una ruta de datos en cada partición consta de 16 núcleos CUDA FP32 capaces de ejecutar 16 operaciones FP32 por frecuencia. Otra ruta de datos consta de 16 núcleos CUDA FP32 y 16 núcleos INT32. Como resultado de este nuevo diseño, cada partición de SM (Multiprocesadores para Streaming) de Ampere es capaz de ejecutar 32 operaciones FP32 por frecuencia o 16 operaciones FP32 y 16 INT32 por frecuencia. Las cuatro particiones de SM (Multiprocesadores para Streaming) combinadas pueden ejecutar 128 operaciones FP32 por frecuencias (el doble del valor de FP32 del SM de Turing) o 64 operaciones FP32 y 64 INT32 por frecuencia.

Duplicar la velocidad de procesamiento para FP32 mejora el rendimiento de una serie de algoritmos y operaciones gráficas y de computación comunes. Las cargas de trabajo de sombreado moderno suelen tener una combinación de instrucciones aritméticas FP32 como FFMA, adiciones de punto flotante (FADD) o multiplicaciones de punto flotante (FMUL), combinadas con instrucciones más simples como adiciones de enteros para direccionar y obtener datos, realizar comparaciones de puntos flotantes u obtener valores mín./ máx. para procesar resultados, etc. Las ganancias de rendimiento variarán en el nivel de sombreado y aplicación según la combinación de instrucciones. Los sombreadores de eliminación de ruido de ray tracing son buenos ejemplos que podrían beneficiarse enormemente de la duplicación del rendimiento de FP32.

Duplicar el rendimiento matemático requirió duplicar las rutas de datos que lo soportan, razón por la cual el SM (Multiprocesadores para Streaming) de Ampere también duplicó la memoria compartida y el rendimiento de la caché L1 para el SM. (128 bytes/frecuencias por SM (Multiprocesadores para Streaming) de Ampere frente a 64 bytes/frecuencia en Turing). El ancho de banda L1 total para GeForce RTX 3080 es de 219 Gb/s, frente a 116 Gb/s para GeForce RTX 2080 Super.

Al igual que las GPUs de NVIDIA anteriores, Ampere se compone de grupos de procesamiento de gráficos (GPC), grupos de procesamiento de texturas (TPC), multiprocesadores de transmisión (SM), operadores de ráster (ROPS) y controladores de memoria.

El GPC es el bloque de hardware de alto nivel dominante con todas las unidades de procesamiento de gráficos clave que residen dentro del GPC. Cada GPC incluye un motor de rasterización dedicado y ahora también incluye dos particiones ROP (cada partición contiene ocho unidades ROP), que es una nueva característica para las GPU NVIDIA con arquitectura Ampere GA10x. Se pueden encontrar más detalles sobre la arquitectura NVIDIA Ampere en el Informe técnico de arquitectura Ampere de NVIDIA, que se publicará en los próximos días.

¿Alguna idea de si el diseño de flujo de aire dual se verá afectado en las carcasas invertidas? ¿Más que en los diseños anteriores? Parece que lo dirige hacia la cpu. Sin embargo, el enfriador de la CPU lo expulsaría del chasis. Quizás no sea tan malo.

Segunda pregunta. 10 veces más silencioso que Titan para la 3090 ¿es más o menos más silencioso que una 2080 Super (Evga ultra fx, por ejemplo)?

Link

[Qi Lin] El nuevo diseño de flujo a través de refrigeración funcionará muy bien siempre que los ventiladores del chasis estén configurados para llevar aire fresco a la GPU y luego muevan el aire que fluye a través de la GPU fuera del chasis. No importa si el chasis está invertido.

La Founders Edition RTX 3090 es más silenciosa que la Titan RTX y la Founders Edition RTX 2080 Super. No lo hemos probado con diseños de socios específicos, pero creo que te impresionará lo que escuches… o, mejor dicho, lo que no escuches. :-)

¿Las tarjetas de la Serie 30 admitirán la resolución 10 bits, 444, 120 cuadros por segundo (FPS)? Tradicionalmente, las tarjetas para clientes minoristas de NVIDIA solo admitían salidas de 8 bits o 12 bits, ni de 10 bits. La gran mayoría de los monitores y televisores HDR del mercado son de 10 bits.

Link

[Qi Lin] La serie 30 admite la resolución HDR de 10 bits. De hecho, HDMI 2.1 puede admitir hasta 8K a 6 0Hz con HDR de 12 bits, y eso incluye las pantallas HDR de 10 bits.

¿Qué avance tecnológico les permitió realizar el enorme salto a la línea 3xxx desde la línea 2xxx? Sabía que sería algo aterrador, pero es una locura pensar en lo eficientes y poderosas que son estas tarjetas. ¿Estas tarjetas admiten la resolución 4K a 144 hz?

Link

[Justin Walker] Hubo grandes avances en la arquitectura de GPU, la tecnología de procesos y la tecnología de memoria, por nombrar solo algunos. Una RTX 3080 es lo suficientemente potente para ejecutar ciertos juegos con la configuración al máximo y resolución 4K a 144 fps: Doom Eternal, Forza 4, Wolfenstein Youngblood, por nombrar algunos. Pero otros, Red Dead Redemption 2, Control, Borderlands 3, por ejemplo, están más cerca de 4k a 60 cuadros por segundo (FPS) con la configuración al máximo.

RTX IO

¿RTX IO estará disponible para bibliotecas de machine learning como Pytorch? Esto sería excelente para el rendimiento de aplicaciones en tiempo real.

Link

[Tony Tamasi] NVIDIA entregó soluciones de I/O de alta velocidad para una variedad de plataformas de análisis de datos hace aproximadamente un año gracias a NVIDIA GPU DirectStorage. Proporciona I/O de alta velocidad entre la GPU y el almacenamiento, específicamente para las cargas de trabajo y las aplicaciones de IA y HPC. Para obtener más información, consulta: https://developer.nvidia.com/blog/gpudirect-storage/

¿RTX IO permite el uso de espacio SSD como VRAM? ¿O lo estoy entendiendo completamente mal?

Link

[Tony Tamasi] RTX IO permite leer datos de SSD a una velocidad mucho mayor que los métodos tradicionales y permite que los datos sean almacenados y leídos en un formato comprimido por la GPU, cuya descompresión y uso está a cargo de la GPU. No permite que el SSD reemplace la memoria del búfer de cuadros, pero

permite que los datos del SSD lleguen a la GPU y a la memoria de la GPU mucho más rápido, lo que genera mucha menos sobrecarga de la CPU.

¿Habrá un cierto requisito de velocidad de SSD para RTX IO?

Link

[Tony Tamasi] No hay un requisito de velocidad de SSD para RTX IO, pero obviamente, SSD más rápidos (como la última generación de SSD Gen4 NVMe) producirán mejores resultados, lo que significa tiempos de carga más rápidos. Además, los juegos podrán transmitir más datos al mundo dinámicamente. Algunos juegos pueden tener requisitos mínimos para el rendimiento de SSD en el futuro, pero los desarrolladores del juego los determinarán. RTX IO acelerará el rendimiento de SSD independientemente de su velocidad, ya que reduce la carga de CPU requerida para I/O y habilita la descompresión basada en GPU. De esta manera, los recursos del juego se almacenan en un formato comprimido y se evita que docenas de núcleos de CPU hagan ese trabajo. Las relaciones de compresión suelen ser de 2:1, por lo que duplicaría realmente el rendimiento de lectura de cualquier SSD.

¿Funcionarán las nuevas GPU y RTX IO en Windows 7/8.1?

Link

[Tony Tamasi] Las GPU RTX Serie 30 son compatibles con Windows 7 y Windows 10. RTX IO es compatible con Windows 10.

Me entusiasma probar la función RTX I/O, pero en parte no entiendo cómo funciona exactamente. Digamos que tengo un SSD NVMe, una 3070 y los últimos drivers de Nvidia, ¿tengo que esperar a que se lance la actualización de Windows con la API de DirectStorage en algún momento del próximo año y listo o tengo que hacer algo más?

No se pudo encontrar el comentario original, ¡pero respondimos de todos modos!

[Tony Tamasi] RTX IO y DirectStorage requerirán aplicaciones que admitan esas características mediante la incorporación de las nuevas API. Microsoft tiene como objetivo presentar el próximo año una vista previa de DirectStorage para Windows orientada a los desarrolladores de juegos. Los jugadores con NVIDIA RTX podrán aprovechar los juegos mejorados con RTX IO tan pronto como estén disponibles.

RTX BROADCAST

¿Cuál es el alcance del programa “Nvidia Broadcast”? ¿Está destinado también a reemplazar las aplicaciones GFE y Shadowplay actuales para las grabaciones locales?

Link

[Gerardo Delgado] NVIDIA Broadcast es un complemento universal que mejora el micrófono, los altavoces y la cámara con funciones de IA como la reducción de ruido, el fondo virtual y el encuadre automático. Básicamente, seleccionas tus dispositivos como la entrada, decides qué efecto de IA aplicarás y, luego, NVIDIA Broadcast expone dispositivos virtuales en el sistema que puedes usar con aplicaciones populares de streaming en vivo, videochat o videoconferencia.

NVIDIA Broadcast no graba ni transmite vídeo. Tampoco sustituye a GFE ni a Shadowplay.

Jason, ¿habrá alguna mejora en el codificador RTX en las tarjetas de la serie Ampere, similar a lo que vimos para el lanzamiento de Turing? Vi información sobre el software Broadcast, pero estoy pensando más en mejorar la calidad general de la imagen con la misma tasa de bits.

Link

[Jason Paul] Para la RTX Serie 30, decidimos enfocar las mejoras en el lado de la decodificación de video y agregamos compatibilidad con la decodificación AV1. En el lado de la codificación, la RTX Serie 30 tiene el mismo gran codificador que nuestras GPU RTX Serie 20. También hemos actualizado recientemente nuestro NVIDIA Encoder SDK. En los próximos meses, las aplicaciones de streaming en vivo se actualizarán a esta nueva versión del SDK, lo que habilitará nuevas opciones de rendimiento para los streamers.

Me gustaría saber más sobre la nueva NVENC. ¿Se realizaron actualizaciones a esta tecnología en la Serie 30? Parece ser el futuro del streaming. Además, para muchas personas es la razón para comprar una tarjeta NVIDIA en lugar de cualquier otra.

Link

[Gerardo Delgado] La GeForce RTX Serie 30 aprovecha el mismo y excelente codificador de hardware que la GeForce RTX Serie 20. También hemos actualizado recientemente nuestro Video Codec SDK a la versión 10.0. En los próximos meses, las aplicaciones se actualizarán a esta nueva versión del SDK, lo que habilitará nuevas opciones de rendimiento.

Con respecto a la decodificación AV1, ¿es compatible con las tarjetas de la Serie 3xxx además de la 3090? De hecho, ¿se puede combinar esta pregunta con la de u/dylan522p sobre el nivel de asistencia:  ¿Cuáles son las funciones de codificación/decodificación de Ampere? ¿Cambian según la tarjeta Serie 30 que compre?

Link

[Gerardo Delgado] Todas las GPU GeForce RTX Serie 30 que anunciamos hoy tienen las mismas capacidades de codificación y decodificación:

• Todos cuentan con el codificador NVIDIA de 7.ª generación (el que lanzamos con la RTX Serie 20), que utilizarán nuestro Video Codec SDK 10.0 recientemente lanzado. En los próximos meses, se integrará este nuevo SDK a las aplicaciones de streaming en vivo para habilitar nuevos ajustes preestablecidos con más opciones de rendimiento.

• Todas tienen el nuevo decodificador NVIDIA de 5.ª generación, que permite la decodificación AV1 acelerada por hardware en la GPU. AV1 consume un 50% menos de ancho de banda y desbloquea la reproducción de video HDR de hasta 8K sin afectar mucho el rendimiento de la CPU.

NVIDIA MACHINIMA

¿Qué tan expandida está la compatibilidad de Machinima entre los desarrolladores? Como está basado en la nube, supongo que los desarrolladores y editores deben participar para que realmente tenga éxito (al menos indirectamente a través de la compatibilidad para la comunidad de modding o directamente con el acceso a los recursos). Además de esto, ¿cuál es el beneficio de que sea basado en la nube, en lugar de que sea puramente local?

Link

[Richard Kerris] Estamos trabajando activamente con los desarrolladores de juegos para expandir la compatibilidad de Omniverse Machinima y tendremos más detalles para compartir junto con el lanzamiento de la versión beta pública, que se realizará en octubre.

Omniverse Machinima se puede ejecutar localmente en una desktop GeForce RTX o en la nube. El beneficio de ejecutar Omniverse desde la nube es una colaboración en tiempo real más sencilla entre los usuarios.

NVIDIA STUDIO

Les habla un creador de contenido. ¿Estas tarjetas serán compatibles con procesadores de GPU como Octane, Arnold, Redshift, etc. desde el lanzamiento? Sé que, para las generaciones anteriores, el lanzamiento coincidió con una nueva versión de CUDA, lo que hizo que las tarjetas no pudieran renderizar hasta que el software de terceros solucionó este problema. Me pregunto si podré usarlas el día del lanzamiento con el software CUDA existente.

Link

[Stanley Tack] Para algunos renderizadores, se necesitará una actualización de CUDA. Hemos estado trabajando estrechamente con las principales aplicaciones creativas en estas actualizaciones y esperamos que la mayoría (¡con suerte todas!) estén listas el día en que estas tarjetas salgan a la venta.

NVIDIA REFLEX

¿Nvidia Reflex será una pieza de hardware en los nuevos monitores o será un software que puedan usar otras GPU de NVIDIA?

Link

[Seth Schneider] NVIDIA Reflex es ambas cosas. El Analizador de latencia de NVIDIA Reflex es una nueva y revolucionaria incorporación al procesador G-SYNC que permite la medición de latencia del sistema de un extremo a otro. Además, NVIDIA Reflex SDK está integrado en los juegos y habilita un modo de latencia baja que pueden utilizar las GPU GeForce GTX 900 y modelos superiores para reducir la latencia del sistema. Cada una de estas funciones se puede utilizar de forma independiente.

¿NVIDIA Reflex es solo un cambio de marca del modo de latencia ultrabaja de NVIDIA en el panel de control de NVIDIA?

[Seth Schneider] No, NVIDIA Reflex es diferente. El modo de latencia ultrabaja es una opción del panel de control, mientras que NVIDIA Reflex lo integra un desarrollador de juegos directamente en el juego.  Gracias a la integración nativa del juego y los algoritmos mejorados, NVIDIA Reflex es mucho más eficaz a la hora de optimizar el proceso de renderización de un juego para lograr la latencia más baja.

Consulta nuestro artículo sobre Reflex aquí para obtener más información: https://www.nvidia.com/en-us/geforce/news/reflex-low-latency-platform/.

El modo de latencia ultrabaja es compatible con CS:GO y Rainbow Six: ¿por qué NVIDIA Reflex no es compatible?

[Seth Schneider] A diferencia del modo de latencia ultra baja de NVIDIA, NVIDIA Reflex proporciona un SDK que los desarrolladores deben integrar. Tener nuestra tecnología directamente en el motor del juego nos permite alinear la simulación del juego y el trabajo de renderización de una manera que agiliza la latencia.  Actualmente, hemos anunciado la compatibilidad con los mejores juegos, incluidos Fortnite, Valorant, Apex Legends, Call of Duty: Black Ops Cold War, Call of Duty: Modern Warfare, Call of Duty: Warzone y Destiny 2.  Esperamos agregar tantos títulos como sea posible a nuestra lista de juegos compatibles. 

¿NVIDIA Reflex reduce el rendimiento de FPS para reducir la latencia?

[Seth Schneider] La industria se ha optimizado durante mucho tiempo para mejorar el valor de los FPS, tanto que se han realizado enormes compensaciones de latencia para exprimir hasta el último 0,5% de mejora de FPS. NVIDIA Reflex aporta un nuevo enfoque a la optimización del proceso de renderización para la latencia del sistema integral.  Si bien nuestra investigación demuestra que la latencia es la métrica clave para la precisión de la mira y la velocidad de reacción, entendemos que el valor de los FPS sigue siendo una métrica importante. Es por eso que NVIDIA Reflex tiene como objetivo reducir la latencia mientras mantiene los FPS. En la mayoría de los casos, Reflex puede lograr una reducción de la latencia sin afectar el valor de FPS.  En algunos casos, los jugadores pueden ver pequeños impactos de 0-2% de los FPS junto con mayores ganancias de latencia, lo que representa una buena compensación para los juegos competitivos.  Por supuesto, Reflex es una configuración del juego, por lo que los jugadores pueden elegir por sí mismos.  Sin embargo, según nuestras pruebas, creemos que encontrarán pocas razones para desactivar esta opción. 

PCIE GEN4

P: ¿Los clientes encontrarán una degradación del rendimiento en PCIE 3.0?

El rendimiento del sistema se ve afectado por muchos factores y el impacto varía según las aplicaciones. El impacto suele ser inferior a un pequeño porcentaje al pasar de un PCIE 4.0 x16 a un PCIE 3.0 x16. Si eliges usar la CPU, el rendimiento se verá más afectado. Esperamos que las nuevas plataformas puedan aprovechar al máximo las capacidades de Gen4 para lograr posibles aumentos de rendimiento. Ten en cuenta también que todos los puntos de referencia y los datos de rendimiento de nuestro sitio web y que presentó por Jensen eran de una plataforma PCIE 3.0.

No olviden visitar GeForce.com para obtener más información sobre las GPU GeForce RTX Serie 30, NVIDIA Broadcast, NVIDIA Reflex, NVIDIA Studio, NVIDIA Machinima y RTX IO. 

Las GPU GeForce RTX Serie 30 saldrán a la venta a partir del 17 de septiembre. Visita nuestra página de destino de GeForce RTX Serie 30 para conocer los socios participantes de nuestro bundle Watch Dogs: Legion y GeForce NOW, que estará disponible el mismo día.