Nvidia Lança Super Chip Grace Hopper com RAM HBM3e para Impulsionar IA Generativa

Nvidia Lança Super Chip Grace Hopper com RAM HBM3e para Impulsionar IA Generativa

A Nvidia busca capitalizar o crescimento da inteligência artificial generativa com o lançamento do super chip Grace Hopper, que apresenta a inovadora memória HBM3e, impulsionando o desempenho e a eficiência dos cálculos acelerados.


A Nvidia, líder em tecnologia de processamento gráfico e inteligência artificial, avança com o lançamento do super chip Grace Hopper, um marco na indústria ao ser o primeiro a adotar a vanguardista memória HBM3e. Este novo super chip visa capitalizar o crescimento exponencial da inteligência artificial generativa, consolidando a posição da Nvidia como uma das principais inovadoras no setor.

Com a crescente demanda por tecnologias de IA generativa, que incluem avanços notáveis como ChatGPT e Midjourney, a Nvidia viu suas ações valorizarem aproximadamente 200% desde o início deste ano. A empresa agora mira a ampliação de sua influência no mercado de servidores, onde a aceleração de cálculos é vital para impulsionar os avanços em IA e outras áreas.

O super chip Grace Hopper GH200 é uma evolução do seu antecessor, com 144 núcleos Arm V-series Neoverse em configuração dupla. A combinação da CPU Grace com a GPU Nvidia H100 Tensor Core (Hopper) resulta em desempenho impressionante, atingindo 8 petaflops de capacidade de IA e 51 teraflops de computação FP32.

Para elevar ainda mais o desempenho, a Nvidia incorporou 282 GB da mais recente memória HBM3e, que é 50% mais veloz que a HBM3 convencional, oferecendo uma largura de banda de 10 TB/s. Com essa melhoria, o GH200 consegue lidar com modelos 3,5 vezes maiores do que a geração anterior, estabelecendo-se como o primeiro chip a adotar a memória HBM3e.

A plataforma Grace Hopper é altamente escalável, permitindo que múltiplos chips Grace Hopper sejam conectados através da interconexão NVLink da Nvidia. Com suporte para até 1,2 TB de memória coerente, a plataforma oferece flexibilidade para aplicações complexas. A previsão é que sistemas com o GH200 estejam disponíveis em mais de 100 variações de servidor até o segundo trimestre de 2024, impulsionando ainda mais a adoção de IA generativa e acelerada em data centers.

Nvidia Lança Super Chip Grace Hopper com RAM HBM3e para Impulsionar IA Generativa

Fonte: nvidia

Share this content:

Eduardo Rodrigues

Apaixonado por tecnologia, video-games e jornalismo.