Lançamentos 27 Ago
Depois de novidades par aumentar a performance e a eficiência energética de data centers, a NVIDIA apresentou os resultados da estreia da GPU NVIDIA Blackwell na inferência MLPerf, nesta quarta-feira (28).
A última rodada de benchmarks colocou a plataforma NVIDIA Blackwell na liderança em IA generativa, com até quatro vezes mais desempenho do que a GPU NVIDIA H100 Tensor Core. O resultado foi obtido no Llama 2 70B, considerado a maior carga de trabalho do MLPerf.
De acordo com a NVIDIA, os resultados foram positivos devido a um Transformer Engine de segunda geração e aos FP4 Tensor Cores. A GPU NVIDIA H200 Tensor Core se destacou ainda no LLM Mixtral 8x7B Mix of Experts (MoE) – considerados mais versáteis e eficientes.
“Estamos extremamente felizes por alcançar esse resultado notável no MLPerf, isso demonstra que as plataformas da NVIDIA apresentam um desempenho líder em todos os setores de data center. Isso contribui significativamente para fortalecer ainda mais nossa posição neste cenário além de tornar o trabalho mais eficiente para as empresas.”
Marcio Aguiar
Diretor da divisão Enterprise da NVIDIA para América Latina
Na parte de software, a NVIDIA ressaltou também o aumento no desempenho das suas plataformas NVIDIA Jetson e NVIDIA Triton, ambas na arquitetura Hopper, durante a nova rodada de inferência. No segundo caso, o servidor de inferência Triton mostrou desempenho praticamente similar ao dos bare-metal da empresa.
Já os módulos do sistema NVIDIA Jetson AGX Orin registraram mais de 6,2 vezes aprimoramentos na taxa de transferência e 2,4 vezes melhoria na latência dos benchmarks MLPerf, na comparação com a rodada anterior, dentro da carga de trabalho GPT-J LLM.
Qual é a sua avaliação sobre os resultados da inferência MLPerf a respeito da NVIDIA Blackwell? Interaja conosco!
Comentários