Nvidia anuncia Blackwell Ultra B300 – 1,5x mais rápido que o B200 com 288 GB HBM3E e 15 PFLOPS densos FP4

A NVIDIA anunciou oficialmente a GPU do Data Center Blackwell Ultra B300 hoje durante a palestra do CEO Jensen Huang no GTC 2025 em San Jose, CA.

Oferecendo 50% mais de memória e computação de FP4 do que a solução B200 existente, ele levanta as apostas na corrida para modelos de IA mais rápidos e capazes mais capazes mais uma vez. A Nvidia diz que é “construída para a era do raciocínio”, referenciando a AI LLMS mais sofisticada como Deepseek R1, que faz mais do que apenas regurgitar informações digeridas anteriormente.

Naturalmente, o Blackwell Ultra B300 não é apenas uma única GPU. Juntamente com o bloco de construção da base B300, haverá novas soluções de rack de servidor B300 NVL16, uma estação GB300 DGX e soluções de rack completa GB300 NV72L. Coloque oito racks NV72L e você obtém o superpod completo Blackwell Ultra DGX: 288 GRACE CPUS, 576 GPUS BLACKWELL UTLRA, 300TB de memória HBM3E e 11,5 exaflops de FP4.

Estes podem ser vinculados em soluções de supercomputador que a NVIDIA classifica como “fábricas de IA”.

Embora a Nvidia diga que o Blackwell Ultra terá 1,5x de computação FP4 mais densa, o que não está claro é se outra computação escalou da mesma forma. Esperamos que fosse o caso, mas é possível que a Nvidia tenha feito mais do que simplesmente permitir mais SMS, aumentar os relógios e aumentar a capacidade das pilhas HBM3E. Os relógios podem ser um pouco mais lentos nos modos FP8 ou FP16, por exemplo. Mas aqui estão as principais especificações que temos, com alguma inferência de outros dados (indicados por pontos de interrogação).

No GTC 2025, a NVIDIA mostrou uma imagem do próximo DGX Superpod. (Crédito da imagem: Nvidia)
Deslizar para rolar horizontalmente
Nvidia Blackwell Ultra B300 vs Blackwell B200

Plataforma

B300

B200

B100

Configuração

Blackwell GPU

Blackwell GPU

Blackwell GPU

FP4 tensor denso/esparso

15/30 PETAFLOPS

10/20 PETAFLOPS

7/14 PETAFLOPS

FP6/FP8 Tensor denso/esparso

7.5/15 PETAFLOPS?

5/10 PETAFLOPS

3.5/7 PETAFLOPS

INT8 Tensor Denso/Esparso

7.5/15 PETAOPS?

5/10 PETAOPS

3.5/7 PETAOPS

FP16/BF16 Tensor denso/esparso

3,75/7.5 Petaflops?

2,5/5 PETAFLOPS

1.8/3.5 PETAFLOPS

TF32 Tensor denso/esparso

1,88/3,75 Petaflops?

1,25/2.5 Petaflops

0,9/1,8 PETAFLOPS

FP64 Tensor denso

68 terovlops?

45 Traflops

30 terovlops

Memória

288 GB (8×36 GB)

192 GB (8×24 GB)

192 GB (8×24 GB)

Largura de banda

8 tb/s?

8 TB/S.

8 TB/S.

Poder

?

1300W

700W

Source link

Artigos Relacionados

Botão Voltar ao Topo