GPU Nvidia Hopper GH100 pode ter 2,5 vezes mais transistores que antecessora
[ad_1]
Novos rumores divulgados no fórum Chiphell que uma GPU focada em computação Nvidia GH100, baseada na ainda não anunciada microarquitetura Hopper, pode trazer uma contagem de transistores cerca de 2,5 vezes maior que a antecessora, a GA100, com arquitetura Amperee ser maior até mesmo que a recém-anunciada Instin MI250Xrival da AMD com design de vários chips.
Nvidia GH100 pode ter 2,5 vezes mais transistores que GA100
Segundo os rumores, 140 bilhões de transistores, absurdamente equipados com 140 bilhões de transistores, absurdamente fáceis de operar. Em comparação, uma RTX 3090, com GPU GA102, 28,3 bilhões de transistores, enquanto a Navi 21 da Radeon RX 6900 XT é munida com 268 bilhões.
Chips nVidia HPC: transistores por SM
255M – GP100
251M – GV100
422M – GA100GH100: 486M se 70B transistores por matriz (e 140B no geral)
… ou: 972M se 140M de transistores por matriz (e 280B no general)https://t.co/99fLpRKC24— 3DCenter.org (@3DCenter_org) 8 de fevereiro de 2022
Quer ficar por dentro das melhores notícias de tecnologia do dia? Acesse e se inscreva no nosso novo canal no youtube, o Canaltech Information. Todos os dias um resumo das principais notícias do mundo tech para você!
Dentro do segmento de knowledge middle, o chip GA100, presente na placa de todos os bilhões Nvidia A100, oferece 54,2 transistores. A GPU Aldebaran, utilizada no Intuition MI250X, é um pouco maior, com 58,2 bilhões de transistores. Mesmo assim, com tamanhos que impressionaram em seus respectivos lançamentos, ambas são 2,5 vezes menores que a configuração que a Nvidia Deveria estar pensando em uma arquitetura Hopper.
As informações vão ao encontro de outros rumores recentes que indicam que uma nova GPU Hopper seria uma das maiores já lançadas, com próxima aos 900 mm². Veja este caso, somando-se a possibilidade de que o componente contará com 140 bilhões de transistores, esta também seria um dos chips gráficos mais densos a chegar ao mercado.
Talvez cerca de 900mm². 😂😂😂
Sinto muito, porque não sabia que você tinha uma resposta tão grande para o “1000”.— kopite7kimi (@kopite7kimi) 29 de janeiro de 2022
Tomando a GA100 como base novamente, cuja área é especulada para possuir 790 mm², temos uma densidade de 73,6 milhões de transistores por mm². Se considerarmos que a área do GH100 será de 900 mm², isso representaria 150 milhões de transistores por mm², um incremento de mais de duas vezes. Os números impressionam e mostram o que a suposta adoção da litografia de 5 nm da TSMC pode fornecer para a próxima geração de GPUs da companhia.
GPU Hopper pode trazer até 233 GB de RAM e 1,9 GB de cache
Não é apenas na contagem de transistores que a GH100 impressionaria — segundo os rumores, como da nova acelerada de knowledge facilities da Nvidia agitariam o mercado e colocariam a empresa de volta à liderança de efficiency no segmento, após sofrer uma com os grandes ganhos da Intuition MI250X e sua microarquitetura CDNA 2.
Uma enorme área de conversão em um general de 144 Streaming Multiprocessors (SMs) por sua vez, representariam 9.216 núcleos CUDA a contagem de 64 núcleos por SM vista na arquitetura Ampere para manutenção para manutenção. Levando em conta os rumores de uma suposta variante GH102 usando o design MCM de múltiplos chips, a capacidade pode aumentar para impressionantes 288 SMs, com 18.432 núcleos.
Outro ponto interessante seria uma maneira de comunicação como a GPU se comunicar com o cache e as memórias, ao adotar uma arquitetura redesenhada recém-anunciada em estudo da própria Nvidia, chamada Composable On-Bundle, ou apenas COPA, que permitiria a produção de diferentes designs para barbatanas variadas.
“Os resultados mostram que, quando comparado a um design de GPU convergente, o COPA-GPU com uma combinação de capacidade de cache 16x maior e largura de banda DRAM 1,6x maior escala por treinamento de GPU e desempenho de inferência em 31% e 35%, respectivamente. (… )” %.twitter.com/oXcg5e8Jfo
— Underfox (@Underfox3) 7 de abril de 2021
No momento, são apontadas duas possibilidades de aplicações das GPUs COPA: computação de alta efficiency (HPC) ou Deep Finding out (DL). Enquanto o formato C seguiria o padrão já conhecido da indústria, a arquitetura para DL teria um chip de cache completamente separado da GPU, completamente uma implementação de até 1.920 MB de cache LLC, trabalhando com extensão até 23 GB de RAM HBM2e e de banda de 6,3 TB/s.
[ad_2]
Fonte da Notícia


