AWS e NVIDIA colaboram em um supercomputador

A Amazon Web Services e a NVIDIA anunciam uma expansão de sua colaboração estratégica

A Amazon Web Services, Inc. (AWS), uma empresa da Amazon.com, Inc. (NASDAQ: AMZN), e a NVIDIA (NASDAQ: NVDA) anunciam uma expansão de sua colaboração estratégica para fornecer a infraestrutura, o software e serviços que impulsionam a inteligência artificial (IA) generativa dos clientes.

A colaboração ampliada se baseia em um relacionamento de longa data que impulsionou a era da IA generativa, oferecendo aos pioneiros do aprendizado de máquina (ML) o desempenho de computação necessário para avançar o estado da arte nessas tecnologias.

Seja assinante O POVO+

Tenha acesso a todos os conteúdos exclusivos, colunistas, acessos ilimitados e descontos em lojas, farmácias e muito mais.

Assine

A AWS será o primeiro provedor de nuvem a trazer os NVIDIA® GH200 Grace Hopper Superchips com a nova tecnologia NVLink™ de vários nós para a nuvem. A plataforma de vários nós NVIDIA GH200 NVL32 conecta 32 Grace Hopper Superchips com as tecnologias NVIDIA NVLink e NVSwitch™ em uma única instância. A plataforma estará disponível nas instâncias do Amazon Elastic Compute Cloud (Amazon EC2) conectadas com a poderosa rede da Amazon (EFA), com suporte de virtualização avançada (AWS Nitro System) e clustering de hiperescala (Amazon EC2 UltraClusters), permitindo que os clientes conjuntos escalem para milhares de GH200 Superchips.

A NVIDIA e a AWS colaborarão para hospedar o NVIDIA DGX™ Cloud - o treinamento de IA como serviço da NVIDIA - na AWS. Será o primeiro DGX Cloud com o GH200 NVL32, oferecendo aos desenvolvedores a maior memória compartilhada em uma única instância. O DGX Cloud on AWS acelerará o treinamento de IA generativa de ponta e modelos de linguagem grandes que podem atingir mais de 1 trilhão de parâmetros.

Também anunciam uma parceria no Projeto Ceiba para construir o supercomputador de IA mais rápido do mundo alimentado por GPU - um sistema em escala com GH200 NVL32 e interconexão Amazon EFA, hospedado pela AWS para a própria equipe de pesquisa e desenvolvimento da NVIDIA. Esse supercomputador inédito - com 16.384 superchips NVIDIA GH200 e capaz de processar 65 exaflops de IA - será usado pela NVIDIA para impulsionar sua próxima onda de inovação de IA generativa.

O AWS será o primeiro provedor de nuvem a oferecer os superchips NVIDIA GH200 Grace Hopper com a tecnologia NVLink de vários nós. Cada GH200 Superchip combina uma CPU Grace baseada em Arm com uma GPU de arquitetura NVIDIA Hopper™ no mesmo módulo. Uma única instância do Amazon EC2 com o GH200 NVL32 pode fornecer até 20 TB de memória compartilhada para alimentar cargas de trabalho em escala de terabytes.

Supercomputador maciço do Project Ceiba para impulsionar o desenvolvimento de IA da NVIDIA

O supercomputador do Projeto Ceiba, no qual a AWS e a NVIDIA estão colaborando, será integrado aos serviços da AWS, como a rede criptografada do Amazon Virtual Private Cloud (VPC) e o armazenamento em bloco de alto desempenho do Amazon Elastic Block Store, dando à NVIDIA acesso a um conjunto abrangente de recursos da AWS.

A NVIDIA usará o supercomputador para pesquisa e desenvolvimento a fim de promover a IA para LLMs, gráficos e simulação, biologia digital, robótica, carros autônomos, previsão climática da Terra-2 e muito mais.

NVIDIA e AWS aumentam a IA geradora, HPC, design e simulação

Para potencializar o desenvolvimento, o treinamento e a inferência dos maiores LLMs, as instâncias do AWS P5e contarão com as mais recentes GPUs H200 da NVIDIA, que oferecem 141 GB de memória de GPU HBM3e, que é 1,8 vezes maior e 1,4x mais rápida do que as GPUs H100. Esse aumento na memória da GPU, juntamente com até 3.200 Gbps de rede EFA habilitada pelo AWS Nitro System, permitirá que os clientes continuem a criar, treinar e implantar seus modelos de ponta no AWS.

Para oferecer soluções econômicas e eficientes em termos de energia para cargas de trabalho de vídeo, IA e gráficos, a AWS anuncia novas instâncias do Amazon EC2 G6e com GPUs NVIDIA L40S e instâncias G6 com GPUs L4. As novas ofertas podem ajudar startups, empresas e pesquisadores a atender às suas necessidades de IA e gráficos de alta fidelidade.

As instâncias do G6e são criadas para lidar com cargas de trabalho complexas, como IA generativa e aplicações de digital twins. Usando o NVIDIA Omniverse, as simulações 3D fotorrealistas podem ser desenvolvidas, contextualizadas e aprimoradas usando dados em tempo real de serviços como o AWS IoT TwinMaker, chatbots inteligentes, assistentes, pesquisa e resumo. A Amazon Robotics e os Amazon Fulfillment Centers poderão integrar gêmeos digitais criados com o NVIDIA Omniverse e o AWS IoT TwinMaker para otimizar o design e o fluxo do armazém, treinar assistentes de robôs mais inteligentes e melhorar as entregas aos clientes.

As GPUs L40S fornecem até 1,45 petaflops de desempenho FP8 e apresentam núcleos de Ray Tracing que oferecem até 209 teraflops de desempenho de ray-tracing. As GPUs L4 apresentadas nas instâncias G6 fornecerão uma solução de baixo custo e com baixo consumo de energia para a implementação de modelos de IA para processamento de linguagem natural, tradução de idiomas, análise de vídeo e imagem de IA, reconhecimento de fala e personalização. As GPUs L40S também aceleram as cargas de trabalho gráficas, como a criação e a renderização de gráficos em tempo real com qualidade cinematográfica e streaming de jogos. Todas as três instâncias estarão disponíveis no próximo ano.

O software NVIDIA no AWS impulsiona o desenvolvimento de IA generativa

Além disso, a NVIDIA anunciou um software no AWS para impulsionar o desenvolvimento de IA generativa. O microsserviço NVIDIA NeMo™ Retriever oferece novas ferramentas para criar chatbots altamente precisos e ferramentas de resumo usando recuperação semântica acelerada. O NVIDIA BioNeMo™, disponível no Amazon SageMaker e chegando ao AWS no NVIDIA DGX Cloud, permite que as empresas farmacêuticas acelerem a descoberta de medicamentos, simplificando e acelerando o treinamento de modelos usando seus próprios dados.

O software NVIDIA no AWS está ajudando a Amazon a trazer inovações para seus serviços e operações. A AWS está usando a estrutura NVIDIA NeMo para treinar LLMs selecionados da próxima geração do Amazon Titan. A Amazon Robotics começou a aproveitar o NVIDIA Omniverse Isaac para criar digital twins para automatizar, otimizar e planejar seus armazéns autônomos em ambientes virtuais antes de implantá-los no mundo real.

 

Dúvidas, Críticas e Sugestões? Fale com a gente

Os cookies nos ajudam a administrar este site. Ao usar nosso site, você concorda com nosso uso de cookies. Política de privacidade

Aceitar