Perguntas Frequentes da Comunidade sobre a GeForce RTX Série 30: Você Perguntou, Nós Respondemos

Por Tim Adams ligado 3 de setembro de 2020 | Featured Stories GeForce RTX GPUs

Depois do lançamento da GeForce RTX Série 30, realizamos uma sessão de perguntas e respostas da comunidade no fórum r/NVIDIA e convidamos oito dos principais especialistas da NVIDIA para responder suas perguntas.

GeForce RTX Série 30

Por que a memória da RTX 3080 é de apenas 10 GB? Como estabeleceram que esse número seria suficiente, já que é o mesmo da geração anterior?

Link

[Justin Walker] Nós estamos sempre analisando os requisitos de memória dos games mais atuais e consultando os desenvolvedores de games periodicamente para entender as necessidades de memória deles para os games de hoje e do futuro. O objetivo da 3080 é oferecer um desempenho excelente em uma resolução em até 4K com todas as configurações máximas pelo melhor preço possível. Para fazer isso, é preciso ter uma placa de vídeo potente com memória de alta velocidade e memória suficiente para atender às necessidades dos games. Darei alguns exemplos: em Assassin’s Creed Odyssey, Metro Exodus, Wolfenstein Youngblood, Gears of War 5, Borderlands 3 e Red Dead Redemption 2, games que rodam em uma 3080 a 4K com configurações máximas (inclusive os pacotes relevantes de textura de alta resolução) e RTX On, se o game for compatível, a taxa de frames fica entre 60 e 100 FPS, e o uso da memória fica entre 4 e 6 GB. É sempre bom ter mais memória, mas o preço da placa de vídeo subiria, então precisamos encontrar um equilíbrio perfeito.

O slide mostra que a RTX 3070 é tão ou mais rápida que a 2080 Ti. Nesse caso, ele está se referindo à rasterização tradicional ou às cargas de trabalho de DLSS/RT? Seria ótimo se pudessem esclarecer isso, já que nenhum benchmark de rasterização tradicional foi apresentado, somente os de games compatíveis com RT/DLSS.

Link

[Justin Walker] Ele se refere às duas coisas. Games compatíveis somente com a rasterização tradicional e games compatíveis com RTX (RT + DLSS). O artigo sobre o lançamento traz uma explicação sobre o assunto.

A Ampere é compatível com HDMI 2.1 e uma largura de banda total de 48 Gbps?

Link

[Qi Lin] Sim. A arquitetura NVIDIA Ampere é compatível com a taxa de conexão HDMI 2.1 mais alta, de 12 Gbs/faixa, em todas as quatro faixas e com a tecnologia Display Stream Compression (DSC), oferecendo uma resolução de até 8K a 60 Hz em HDR.

Podem falar um pouco mais sobre o aumento do número de núcleos CUDA? Como ele afeta as arquiteturas gerais dos GPCs? É muito difícil fornecer energia a todas as unidades FP32? Que medidas foram tomadas para garantir a ocupação alta?

Link

[Tony Tamasi] Um dos principais objetivos do design dos Multiprocessadores Simultâneos (SM) Ampere da Série 30 é garantir o dobro da taxa de transferência de operações FP32 observada no SM Turing. Para cumprir esse objetivo, colocamos no SM Ampere novos designs de caminhos de dados para operações FP32 e INT32. Cada partição tem um caminho de dados formado por 16 núcleos CUDA FP32 capazes de executar 16 operações FP32 por clock. Também há outro caminho de dados formado por 16 núcleos CUDA FP32 e 16 núcleos INT32. Com esse novo design, cada partição do SM Ampere é capaz de executar 32 operações FP32 por clock ou 16 operações FP32 e 16 operações INT32 por clock. Juntas, as quatro partições do SM são capazes de executar 128 operações FP32 por clock, ou seja, o dobro da taxa FP32 do SM Turing ou 64 operações FP32 e 64 operações INT32 por clock.

Com o dobro da velocidade de processamento para operações FP32, o desempenho é superior em uma série de operações e algoritmos comuns de computação e gráficos. Geralmente, as cargas de trabalho modernas de shaders seguem instruções aritméticas FP32 diversas, como FFMA, adições em ponto flutuante (FADD) ou multiplicações em ponto flutuante (FMUL), juntamente com instruções mais simples, como adições de números inteiros para o encaminhamento e o resgate de dados, a comparação em ponto flutuante ou o cálculo do mínimo/máximo para o processamento de resultados etc. Dependendo da série de instruções, o desempenho superior pode variar no nível do shader e do software. Os shaders de redução de ruído com Ray Tracing são bons exemplos de recursos que melhorariam muito com o dobro da taxa de transferência FP32.

Foi preciso dobrar o número de caminhos de dados compatíveis para garantir o dobro da taxa de transferência de operações, e é por isso que o SM Ampere também apresenta o dobro da memória compartilhada e do desempenho do cache L1 (128 bytes/clock por SM Ampere em comparação com 64 bytes/clock no Turing). A largura de banda total do L1 da GeForce RTX 3080 é 219 GB/s, e a da GeForce RTX 2080 Super é 116 GB/s.

Assim como nas placas de vídeo NVIDIA anteriores, a Ampere é formada por clusters de processamento de gráficos (GPCs), clusters de processamento de texturas (TPCs), multiprocessadores de transmissão (SMs), operadores de rasterização (ROPs) e controladores de memória.

O GPC é o componente dominante e de alto nível do hardware que contém todas as principais unidades de processamento de gráficos localizadas no GPC. Cada GPC contém um mecanismo de rasterização dedicado, e agora também conta com duas partições de ROPs (cada partição contém oito unidades de ROPs), um novo recurso para as placas de vídeo GA10x da arquitetura NVIDIA Ampere. Há mais detalhes sobre a arquitetura NVIDIA Ampere no White Paper da Arquitetura Ampere da NVIDIA, que será publicado nos próximos dias.

Já sabem se o design de fluxo de ar duplo será ineficiente em gabinetes invertidos? Mais do que os designs anteriores? Ao que parece, ele seria útil para resfriar a CPU. Só que o cooler da CPU ainda resfriaria o gabinete. Talvez não seja tão ruim assim.

Outra pergunta. A 3090 é dez vezes mais silenciosa que a Titan. Isso quer dizer que ela é mais ou menos silenciosa que a 2080 Super (EVGA FX Ultra, por exemplo)?

Link

[Qi Lin] O novo design de resfriamento por fluxo de ar funciona muito bem, contanto que as ventoinhas do chassi estejam configuradas para soprar ar fresco em direção à placa de vídeo e expulsar do chassi o ar que flui pela placa. Não tem problema se o chassi estiver invertido.

A Founders Edition RTX 3090 é mais silenciosa que a Titan RTX e a Founders Edition RTX 2080 Super. Ela não foi testada em designs específicos de parceiros, mas acho que você se surpreenderá com o ruído que ela produz. Aliás, que ela não produz. :-)

As placas da Série 30 reproduzem uma taxa de frames de 120 FPS em 10 bits e 4:4:4? Geralmente, as placas de vídeo NVIDIA são compatíveis somente com monitores de 8 ou 12 bits, e não de 10 bits. A grande maioria dos monitores/televisões HDR no mercado são de 10 bits.

Link

[Qi Lin] A Série 30 é compatível com HDR de 10 bits. Na verdade, o HDMI 2.1 é compatível com resoluções de até 8K a 60 Hz com HDR de 12 bits, ou seja, com monitores HDR de 10 bits também.

Que inovação tecnológica possibilitou a mudança significativa da linha 2xxx para a 3xxx? Sabia que me surpreenderia, mas a eficiência e a potência dessas placas são muito maiores. As placas rodam imagens em 4K a 144 Hz?

Link

[Justin Walker] Foram realizados avanços consideráveis na arquitetura, na tecnologia de processamento e na tecnologia de memória das placas de vídeo, entre outras inovações. Uma RTX 3080 tem potência suficiente para executar alguns games com configurações máximas em 4K a 144 FPS, como Doom Eternal, Forza 4 e Wolfenstein Youngblood. Porém, outros, como Red Dead Redemption 2, Control e Borderlands 3, rodam em uma resolução mais próxima de 4K a 60 FPS com as configurações máximas.

E/S RTX

O RTX IO será disponibilizado para bibliotecas de machine learning como o PyTorch? Seria ótimo para o desempenho em softwares em tempo real.

Link

[Tony Tamasi] A NVIDIA disponibilizou soluções de I/O de alta velocidade para diversas plataformas de análise de dados há cerca de um ano, com o NVIDIA GPUDirectStorage. Ele garante operações de I/O de alta velocidade entre a placa de vídeo e o armazenamento, especificamente para softwares e cargas de trabalho de AI e HPC. Acesse o link para saber mais informações: https://developer.nvidia.com/blog/gpudirect-storage/

Com o RTX IO, será possível usar o espaço da SSD como VRAM? Ou entendi tudo errado?

Link

[Tony Tamasi] Com o RTX IO, é possível ler dados da SSD a uma velocidade muito mais alta que a dos métodos tradicionais, além de armazená-los e lê-los em um formato compactado pela placa de vídeo, que também poderá descompactá-los e usá-los. Não é possível substituir a memória do buffer de frames pela SSD, mas

os dados da SSD são transferidos para a placa de vídeo e a memória da placa de vídeo muito mais rapidamente, diminuindo a sobrecarga da CPU.

O RTX IO exige algum requisito de velocidade da SSD?

Link

[Tony Tamasi] Não há nenhum requisito de velocidade da SSD para usar o RTX IO, mas, obviamente, SSDs mais rápidas, como as SSDs NVMe de 4ª geração, gerarão resultados melhores, ou seja, o tempo de carregamento será mais rápido, e os games poderão transmitir mais dados para o mundo de modo dinâmico. No futuro, alguns games poderão exigir requisitos mínimos para garantir o desempenho da SSD, mas eles serão determinados pelos desenvolvedores dos games. O RTX IO acelera o desempenho da SSD independentemente da velocidade, reduzindo a carga da CPU necessária para as operações de I/O e possibilitando a realização de descompactações baseadas na placa de vídeo. Assim, os elementos artísticos dos games podem ser armazenados em um formato compactado, e possivelmente dezenas de núcleos da CPU se livrarão dessas tarefas. Geralmente, as taxas de compactação são de 2:1, ou seja, o desempenho de leitura de qualquer SSD aumentaria efetivamente em duas vezes.

As novas placas de vídeo e o RTX IO funcionam no Windows 7/8.1?

Link

[Tony Tamasi] As placas de vídeo RTX Série 30 são compatíveis com o Windows 7 e o Windows 10. O RTX IO é compatível com o Windows 10.

Fiquei animado com o recurso RTX I/O, mas não entendo muito bem como ele funciona. Digamos que eu tenha uma SSD NVMe, uma 3070 e os drivers NVIDIA mais atuais. Agora basta esperar o lançamento da atualização do Windows com a API do DirectStorage no próximo ano ou preciso fazer mais alguma coisa?

Não foi possível encontrar o comentário original, mas respondemos a ele mesmo assim!

[Tony Tamasi] Para usar o RTX IO e o DirectStorage, os softwares precisarão ser compatíveis com os recursos, ou seja, deverão incorporar as novas APIs. A Microsoft está planejando uma prévia do desenvolvedor do DirectStorage for Windows para desenvolvedores de games no ano que vem, e os gamers da NVIDIA RTX poderão aproveitar os games aprimorados por RTX IO assim que forem disponibilizados.

RTX BROADCAST

Qual é o escopo do programa "NVIDIA Broadcast"? Ele também deve substituir o GFE/Shadowplay atual para a realização de gravações locais?

Link

[Gerardo Delgado] O NVIDIA Broadcast é um plug-in universal que melhora a qualidade do microfone, dos alto-falantes e da câmera com recursos de AI como redução de ruído, plano de fundo virtual e enquadramento automático. Basicamente, você seleciona os dispositivos de entrada, escolhe o efeito de AI que quer aplicar, e o NVIDIA Broadcast exibe os dispositivos virtuais do sistema que podem ser usados com softwares populares de livestreaming, videochamada ou videoconferência.

O NVIDIA Broadcast não grava nem transmite vídeos e não substitui o GFE/Shadowplay.

Jason, o encoder RTX apresentará alguma novidade nas placas da série Ampere, como aconteceu no lançamento da série Turing? Vi algumas informações sobre o software Broadcast, mas me refiro mais às melhorias na qualidade geral das imagens com a mesma taxa de bits.

Link

[Jason Paul] No caso da RTX Série 30, decidimos priorizar as melhorias na codificação de vídeo e adicionamos suporte à decodificação AV1. Quanto à codificação, a RTX Série 30 tem o mesmo encoder excelente que a placa de vídeo RTX Série 20. Recentemente, também atualizamos o SDK NVIDIA Encoder. Nos próximos meses, os softwares de livestreaming serão atualizados para serem compatíveis com essa nova versão do SDK, disponibilizando novas opções de desempenho para os streamers.

Gostaria de saber mais sobre o novo NVENC. A tecnologia passou por alguma atualização na Série 30? Pelo visto, ela é o futuro do livestreaming e é o que fará muitas pessoas comprarem uma placa NVIDIA, e não a de outra marca.

Link

[Gerardo Delgado] A GeForce RTX Série 30 usa o mesmo encoder de hardware excelente que a GeForce RTX Série 20. Recentemente, também atualizamos o SDK Video Codec para a versão 10.0. Nos próximos meses, os softwares serão atualizados para serem compatíveis com essa nova versão do SDK, disponibilizando novas opções de desempenho.

Com relação à decodificação AV1, as placas de vídeo da série 3xxx são compatíveis com ela ou apenas a 3090? Complementando a pergunta do usuário /dylan522p sobre o nível de suporte: quais são os recursos de codificação/decodificação da Ampere? Eles mudam dependendo da placa da série 3000 comprada?

Link

[Gerardo Delgado] Todas as placas de vídeo GeForce RTX Série 30 anunciadas hoje têm os mesmos recursos de codificação e decodificação:

• Todas contam com o NVIDIA Encoder de 7ª geração (lançado com a RTX Série 20), que usará o SDK Video Codec 10.0 lançado recentemente. Esse novo SDK será integrado aos softwares de livestreaming nos próximos meses, oferecendo novas predefinições com mais opções de desempenho.

• Todas têm o novo NVIDIA Decoder de 5ª geração, que possibilita a decodificação AV1 acelerada por hardware na placa de vídeo. O AV1 consome uma largura de banda 50% menor e possibilita a reprodução de vídeos em até 8K HDR sem afetar muito o desempenho da CPU.

NVIDIA MACHINIMA

Quão ativo é o suporte ao desenvolvedor no Machinima? Como o software é baseado na nuvem, imagino que os desenvolvedores/fabricantes precisem participar do processo para que ele funcione da melhor maneira possível (pelo menos indiretamente por meio do suporte da comunidade de modificações ou diretamente com acesso aos elementos artísticos). Além disso, qual é a vantagem de executá-lo na nuvem, e não em computadores?

Link

[Richard Kerris] Nós estamos trabalhando ativamente com desenvolvedores de games para garantir que eles recebam suporte com relação ao Omniverse Machinima e, em outubro, apresentaremos mais detalhes, juntamente com a versão Beta pública.

O Omniverse Machinima pode ser executado no local em um computador GeForce RTX ou na nuvem. A vantagem de executá-lo na nuvem é a capacidade de os usuários colaborarem em tempo real com mais facilidade.

NVIDIA STUDIO

Sou criador de conteúdo. As placas serão compatíveis com renderizadores de placa de vídeo, como o Octane/Arnold/Redshift/etc., desde o lançamento? Sei que, nas gerações anteriores, a nova versão do CUDA coincidia com o lançamento das placas, e elas só podiam ser usadas para renderização quando o fornecedor atualizava o software, mas quero saber se poderei usar os programas no dia do lançamento com o software CUDA existente.

Link

[Stanley Tack] Será preciso instalar uma atualização do CUDA para usar alguns renderizadores. Nós estamos trabalhando em parceria com os principais fornecedores de softwares de criação para agilizar essas atualizações e esperamos que a maioria (com sorte, todas!) esteja disponível no dia do lançamento das placas.

NVIDIA REFLEX

O NVIDIA Reflex será uma peça dos novos monitores ou um software que as outras placas de vídeo NVIDIA poderão usar?

Link

[Seth Schneider] O NVIDIA Reflex é as duas coisas. A Análise de Latência do NVIDIA Reflex é uma novidade revolucionária do processador G-SYNC que possibilita a medição da latência de todo o sistema. Além disso, o SDK NVIDIA Reflex é integrado aos games e, com ele, é possível usar o modo Baixa Latência nas placas de vídeo GeForce GTX 900 e em modelos mais recentes para reduzir a latência do sistema. Cada recurso pode ser usado de modo independente.

O NVIDIA Reflex é só uma reformulação do Modo Latência Ultrabaixa do painel de controle da NVIDIA?

[Seth Schneider] Não, o NVIDIA Reflex é diferente. O Modo Latência Ultrabaixa é uma opção do painel de controle. Já o NVIDIA Reflex é integrado diretamente ao game pelo desenvolvedor de games.  Com a integração nativa a games e os algoritmos avançados, o NVIDIA Reflex consegue otimizar o pipeline de renderização dos games com uma eficácia muito maior, reduzindo a latência.

Leia o artigo sobre o Reflex e saiba mais: https://www.nvidia.com/en-us/geforce/news/reflex-low-latency-platform/.

O Modo Latência Ultrabaixa é compatível com o CS:GO e o Rainbow Six: Siege. Por que o NVIDIA Reflex não é?

[Seth Schneider] Diferentemente do Modo Latência Ultrabaixa da NVIDIA, o NVIDIA Reflex é um SDK que os desenvolvedores precisam integrar. Com nossa tecnologia integrada diretamente à engine dos games, podemos alinhar a simulação dos games e renderizar gráficos para otimizar a latência.  Recentemente, anunciamos que, em breve, ele será compatível com os principais games, como Fortnite, Valorant, Apex Legends, Call of Duty: Black Ops Cold War, Call of Duty: Modern Warfare, Call of Duty: Warzone e Destiny 2.  Esperamos adicionar o maior número possível de títulos à lista de títulos compatíveis. 

O NVIDIA Reflex diminui o desempenho do FPS para reduzir a latência?

[Seth Schneider] Já faz algum tempo que os produtos do setor foram otimizados para o FPS, tanto que a latência aumentou consideravelmente para garantir cada 0,5% de aumento do FPS. O NVIDIA Reflex oferece uma nova perspectiva à otimização do pipeline de renderização para a latência de todo o sistema.  Embora as pesquisas mostrem que a latência é a principal métrica para a precisão da mira e a velocidade de reação, sabemos que o FPS ainda é uma métrica importante. Por isso, o NVIDIA Reflex visa reduzir a latência sem prejudicar o FPS. Na maioria dos casos, o Reflex consegue reduzir a latência sem afetar o FPS.  Já em outros casos, os gamers verão uma redução de 0 a 2% no FPS, mas, em compensação, a latência é bem menor, uma troca justa para games competitivos.  É claro, o Reflex é uma configuração in-game, então os próprios gamers podem escolher se querem usá-lo.  Porém, de acordo com os testes, acreditamos que você não encontrará muitos motivos para não jogar com ele ativado. 

PCIe de 4ª geração

P: Os clientes terão um desempenho inferior com a PCIe 3.0?

Diversos fatores afetam o desempenho do sistema, e o nível de comprometimento depende dos softwares. Geralmente, o desempenho de uma PCIe 3.0 x16 em comparação com o de uma PCIe 4.0 x16 é apenas um pouco menor. Muitas vezes, o que afeta mais o desempenho é a CPU selecionada. Esperamos que as novas plataformas consigam aproveitar todos os recursos da 4ª geração para possivelmente oferecer um desempenho superior. Lembre-se também de que todos os benchmarks e dados de desempenho encontrados no site e apresentados por Jensen são referentes a uma plataforma PCIe 3.0.

Fique ligado no site GeForce.com para saber mais informações sobre as placas de vídeo GeForce RTX Série 30, o NVIDIA Broadcast, o NVIDIA Reflex, o NVIDIA Studio, o NVIDIA Machinima e o RTX IO. 

As placas de vídeo GeForce RTX Série 30 estarão à venda a partir de 17 de setembro. Acesse a landing page da GeForce RTX Série 30 e confira os parceiros que estão participando da promoção de Watch Dogs: Legion e do GeForce NOW, que começa no mesmo dia.