NVIDIA: CPU Grace e sistemas DGX H100 são novidades da marca

A NVIDIA anuncia sua primeira CPU de data center discreta baseada no ARM® Neoverse™ e projetada para infraestrutura de IA e computação de alto desempenho, fornecendo o maior desempenho e o dobro da largura de banda de memória e eficiência energética em comparação com os principais chips de servidor de hoje.

O Superchip da CPU NVIDIA Grace™ é composto por dois chips de CPU conectados, de forma coerente, através do NVLink®-C2C, uma nova interconexão de alta velocidade, baixa latência e chip para chip.

O Superchip de CPU Grace complementa o primeiro módulo integrado de CPU-GPU da NVIDIA, o Superchip Hopper Grace, anunciado no ano passado, que foi projetado para atender a aplicações de HPC e IA de escala gigante em conjunto com uma GPU baseada em arquitetura NVIDIA Hopper™. Ambos os superchips compartilham a mesma arquitetura de CPU subjacente, bem como a interconexão NVLink-C2C.

“Um novo tipo de data center surgiu – fábricas de IA que processam e refinam montanhas de dados para produzir inteligência”, diz Jensen Huang, fundador e CEO da NVIDIA. “O Superchip de CPU Grace oferece o mais alto desempenho, largura de banda de memória e plataformas de software NVIDIA em um chip e brilhará como a CPU da infraestrutura de IA do mundo.”

Apresentação da plataforma de CPU da NVIDIA

Criado para oferecer o mais alto desempenho, o Superchip de CPU Grace contém 144 núcleos Arm em um único soquete, oferecendo desempenho estimado líder do setor de 740 no benchmark SPECrate ®2017_int_base.(1) Isso é uma vez e meia maior que o envio de CPU duplo com o DGX™ A100 de hoje, conforme estimado nos laboratórios da NVIDIA com a mesma classe de compiladores.(2)

“Este superchip é mais uma excelente novidade que temos a honra de divulgar no GTC. Os setores precisam de processadores cada vez mais rápidos e contar com um chip como é esse pode ser algo que fará a diferença no dia a dia de diferentes profissionais”, comenta Marcio Aguiar, diretor da divisão Enterprise da NVIDIA para América Latina.

O Superchip de CPU Grace também fornece eficiência de energia e largura de banda de memória líderes do setor com seu subsistema de memória inovador que consiste em memória LPDDR5x com código de correção de erros para o melhor equilíbrio de velocidade e consumo de energia. O subsistema de memória LPDDR5x oferece o dobro da largura de banda dos designs DDR5 tradicionais a 1 terabyte por segundo, enquanto consome dramaticamente menos energia com toda a CPU, incluindo a memória que consome apenas 500 watts.

O Superchip de CPU Grace é baseado na mais recente arquitetura de data center, Arm®v9. Combinando o mais alto desempenho de núcleo de rosca única com suporte para a nova geração de extensões vetoriais da Arm, o Superchip de CPU Grace trará benefícios imediatos para muitas aplicações.

O Superchip de CPU Grace executará todas as pilhas de software de computação da NVIDIA, incluindo NVIDIA RTX™, NVIDIA HPC, NVIDIA AI e Omniverse. O Superchip de CPU Grace, juntamente com os NICs NVIDIA ConnectX®-7, oferecem a flexibilidade de ser configurado em servidores como sistemas exclusivos de CPU ou como servidores acelerados por GPU com uma, duas, quatro ou oito GPUs baseadas em Hopper, permitindo que os clientes otimizem o desempenho para suas cargas de trabalho específicas, mantendo uma única pilha de software.

Projetado para aplicações de IA, HPC, nuvem e hiperescala

O Superchip de CPU Grace se destacará no HPC, IA, análise de dados, computação científica e aplicações de computação de hiperescala mais exigentes com seu mais alto desempenho, largura de banda de memória, eficiência de energia e capacidade de configuração.

Os 144 núcleos e 1TB/s de largura de banda de memória do Superchip de CPU Grace fornecerão desempenho sem precedentes para aplicações de computação de alto desempenho baseados em CPU. As aplicações de HPC apresentam computação intensiva, exigindo os núcleos de maior desempenho, maior largura de banda de memória e a capacidade de memória certa por núcleo para acelerar os resultados.

A NVIDIA está trabalhando com clientes líderes em HPC, supercomputação, hiperescala e nuvem para o Superchip de CPU Grace. Tanto ele quanto o Superchip Grace Hopper devem estar disponíveis no primeiro semestre de 2023.

Para saber mais sobre o Superchip de CPU Grace, assista à palestra do GTC 2022 de Jensen Huang. Registre-se no GTC 2022 gratuitamente para participar de sessões com a NVIDIA e líderes do setor.

NVIDIA anuncia os sistemas DGX H100 – a infraestrutura de IA corporativa mais avançada do mundo

Combinado com o novo sistema de comutação NVLink, cada DGX SuperPOD fornece 1 exaflop de desempenho de IA; espera-se que o novo supercomputador NVIDIA Eos seja o sistema de IA mais rápido do mundo; On-Ramp direto para clientes através do serviço DGX Foundry expandido

GTC – A NVIDIA anuncia o sistema NVIDIA® DGX™ de quarta geração, a primeira plataforma de inteligência artificial (IA) do mundo a ser construída com as novas GPUs NVIDIA H100 Tensor Core.

Os sistemas DGX H100 oferecem a escala exigida para atender aos enormes requisitos de computação de grandes modelos de linguagem, sistemas de recomendação, pesquisas em saúde e ciência climática. Com oito GPUs NVIDIA H100 por sistema, conectadas como uma pelo NVIDIA NVLink®, cada DGX H100 oferece 32 petaflops de desempenho de IA com nova precisão FP8 – 6 vezes mais do que a geração anterior.

Os sistemas DGX H100 são os blocos de construção da última geração das plataformas de infraestrutura de IA NVIDIA DGX POD™ e NVIDIA DGX SuperPOD™. A mais recente arquitetura DGX SuperPOD apresenta um novo sistema de comutação NVIDIA NVLink, que pode conectar até 32 nós com um total de 256 GPUs H100.

Fornecendo 1 exaflop de desempenho de IA FP8, 6 vezes mais que seu antecessor, o DGX SuperPOD de próxima geração expande as fronteiras da IA com a capacidade de executar cargas de trabalho LLM (large language models) maciças com trilhões de parâmetros.

“A IA mudou fundamentalmente o que o software pode fazer e como ele é produzido. As empresas que estão revolucionando seus setores com a tecnologia percebem a importância de suas infraestruturas de IA”, afirma Jensen Huang, fundador e CEO da NVIDIA. “Nossos novos sistemas DGX H100 alimentarão as fábricas de IA corporativas para refinar os dados em nosso recurso mais valioso – inteligência”.

NVIDIA Eos — o supercomputador de IA mais rápido do mundo

A NVIDIA será a primeira a construir um DGX SuperPOD com a nova arquitetura de IA para impulsionar o trabalho dos pesquisadores da NVIDIA no avanço da ciência climática, biologia digital e o futuro da IA.

Espera-se que o supercomputador “Eos” seja o sistema de IA mais rápido do mundo após iniciar suas operações ainda este ano, apresentando um total de 576 sistemas DGX H100 com 4608 GPUs DGX H100.

Prevê-se que o NVIDIA Eos fornecerá 18,4 exaflops de desempenho de computação de IA, processamento de IA 4 vezes mais rápido do que o supercomputador Fugaku, no Japão, que atualmente é o sistema mais rápido do mundo. Para computação científica tradicional, espera-se que o Eos forneça 275 petaflops de desempenho.

O Eos servirá como um modelo para a infraestrutura avançada de IA da NVIDIA, bem como de seus parceiros OEM e de nuvem.

A IA corporativa escala facilmente com os sistemas DGX H100, DGX POD e DGX SuperPOD

Os sistemas DGX H100 são facilmente dimensionados para atender às demandas de IA à medida que as empresas crescem de projetos iniciais a implantações amplas.

Além de oito GPUs H100 com 640 bilhões de transistores agregados, cada sistema DGX H100 inclui duas DPUs NVIDIA BlueField®-3 para descarregar, acelerar e isolar serviços avançados de rede, armazenamento e segurança.

Oito adaptadores de rede NVIDIA ConnectX®-7 Quantum-2 InfiniBand fornecem taxa de transferência de 400 gigabits por segundo para conexão com computação e armazenamento — o dobro da velocidade do sistema da geração anterior. E um NVLink de quarta geração, combinado com NVSwitch™, fornece conectividade de 900 gigabytes por segundo entre cada GPU em cada sistema DGX H100, 1,5 vez mais do que a geração anterior.

Os sistemas DGX H100 usam CPUs x86 duplas e podem ser combinados com rede e armazenamento NVIDIA de parceiros NVIDIA para criar PODs DGX flexíveis para computação de IA em qualquer tamanho.

O DGX SuperPOD fornece um centro de excelência de IA empresarial escalável com sistemas DGX H100. Os nós DGX H100 e as GPUs H100 em um DGX SuperPOD são conectados por um sistema de comutação NVLink e NVIDIA Quantum-2 InfiniBand, fornecendo um total de 70 terabytes/s de largura de banda – 11 vezes mais que a geração anterior. O armazenamento dos parceiros da NVIDIA será testado e certificado para atender às demandas da computação DGX SuperPOD AI.

Várias unidades DGX SuperPOD podem ser combinadas para fornecer o desempenho de IA necessário para desenvolver modelos massivos em setores como automotivo, saúde, manufatura, comunicações, varejo e muito mais.

NVIDIA DGX Foundry acelera o sucesso do cliente com DGX SuperPOD

A solução de desenvolvimento hospedado NVIDIA DGX Foundry está se expandindo mundialmente para dar aos clientes DGX SuperPOD acesso imediato à infraestrutura de computação avançada enquanto seus sistemas estão sendo instalados. Novos locais adicionados na América do Norte, Europa e Ásia oferecem acesso remoto a DGX SuperPODs, ou parte de um.

O DGX Foundry inclui o software NVIDIA Base Command™, que permite que os clientes gerenciem facilmente o ciclo de vida de desenvolvimento de IA de ponta a ponta na infraestrutura DGX SuperPOD.

As empresas qualificadas podem experimentar os sistemas NVIDIA Base Command e DGX gratuitamente por meio de laboratórios selecionados disponíveis no NVIDIA LaunchPad hospedado nos data centers Equinix International Business Exchange™ (IBX®) em todo o mundo.

MLOps, Adoção crescente de IA pelos clientes de suporte de software de IA corporativa

Para oferecer suporte aos clientes DGX que estão operacionalizando o desenvolvimento de IA, as soluções MLOps dos parceiros NVIDIA DGX-Ready Software, incluindo Domino Data Lab, Run:ai e Weights & Biases, estão se juntando ao programa “NVIDIA AI Accelerated”.

Os aplicativos MLOps dos parceiros participantes serão validados para fornecer aos clientes DGX soluções de fluxo de trabalho e gerenciamento de cluster, agendamento e orquestração de nível empresarial.

Além disso, os sistemas NVIDIA DGX agora incluem o pacote de software NVIDIA AI Enterprise, que oferece suporte à infraestrutura bare-metal. Os clientes da DGX podem acelerar seu trabalho com os modelos, kits de ferramentas e estruturas da plataforma NVIDIA AI pré-treinados incluídos no pacote de software, como NVIDIA RAPIDS™, NVIDIA TAO ToolkitNVIDIA Triton Inference Server™ e muito mais.

Programa de serviços gerenciados prontos para DGX simplificam as implementações de IA

À medida que a adoção da IA corporativa cresce, os clientes buscam mais opções para adicionar a infraestrutura necessária para transformar seus negócios. A NVIDIA anuncia um novo programa de serviços gerenciados prontos para DGX para oferecer suporte aos clientes que desejam trabalhar com provedores de serviços para supervisionar sua infraestrutura.

A Deloitte é o primeiro fornecedor global a fazer parceria com a NVIDIA no programa e será certificado para oferecer suporte a clientes na Europa, América do Norte e Ásia, juntamente com os fornecedores regionais CGit, ePlus inc. Insight Enterprises e PTC System

“Os avanços nos negócios possibilitados pela IA só podem ser realizados se as empresas tiverem a capacidade de integrar a tecnologia em suas operações”, conta Jim Rowan, diretor e líder de ofertas de IA e operações de dados da Deloitte Consulting LLP. “Com o novo programa DGX-Ready Managed Services, os clientes podem adotar facilmente a IA líder mundial com sistemas e software NVIDIA DGX gerenciados por especialistas da Deloitte em todo o mundo”.

Programa de gerenciamento de ciclo de vida pronto para DGX permite atualizações fáceis

Os clientes agora podem atualizar seus sistemas DGX existentes com a mais nova plataforma NVIDIA DGX por meio do novo programa DGX-Ready Lifecycle Management.

Os parceiros de canal da NVIDIA que participam do programa DGX-Ready Lifecycle Management poderão atualizar os sistemas DGX da geração anterior para compra por novos clientes, expandindo o acesso aos sistemas universais do mundo para infraestrutura de IA.

Disponibilidade

Os sistemas NVIDIA DGX H100, DGX PODs e DGX SuperPODs estarão disponíveis nos parceiros globais da NVIDIA a partir do terceiro trimestre.

Os clientes também podem optar por implantar sistemas DGX em instalações operadas por parceiros NVIDIA DGX-Ready Data Center, incluindo os data centers Cyxtera, Digital Realty e Equinix IBX.

Para saber mais sobre os sistemas NVIDIA DGX, assista à palestra do GTC 2022 de Jensen Huang e registre-se no GTC 2022 gratuitamente para participar de sessões com a NVIDIA e líderes do setor.

 

Sobre a NVIDIA

A invenção da GPU pela NVIDIA (NASDAQ: NVDA), em 1999, estimulou o crescimento do mercado de games para PC e redefiniu a computação gráfica moderna, computação de alto desempenho e Inteligência Artificial. O trabalho pioneiro da empresa em computação acelerada e IA tem revolucionado setores de trilhões de dólares, como transporte, saúde e manufatura, enquanto incentiva o crescimento de muitos outros mercados. Saiba mais em http://nvidianews.nvidia.com/

Sobre Klaus Simões 455 artigos
Jornalista pela FIAM, Técnico em Comunicação Visual pela Etec de São Paulo, especialista em coberturas de eventos, esportivas e musicais, geek e alternativo. Responsável pelo NEXP Podcast.