Instâncias G6e do Amazon EC2 já estão disponíveis na região Seul
A partir de hoje, as instâncias G6e do Amazon EC2 com GPUs NVIDIA L40S Tensor Core estão disponíveis na região Ásia-Pacífico (Seul). As instâncias G6e podem ser usadas em uma grande variedade de casos de uso de machine learning e computação espacial.
Os clientes podem usar as instâncias G6e para implantar tanto grandes modelos de linguagem (LLMs) com até 13 bilhões de parâmetros como modelos de difusão para gerar imagens, vídeo e áudio. Além disso, as instâncias G6e permitem que os clientes criem simulações 3D maiores e mais imersivas, bem como gêmeos digitais para workloads de computação espacial. As instâncias G6e apresentam até 8 GPUs NVIDIA L40S Tensor Core com 48 GB de memória por GPU e processadores AMD EPYC de terceira geração. Elas também oferecem suporte a até 192 vCPUs, 400 Gbps de largura de banda da rede, 1,536 TB de memória de sistema e até 7,6 TB de armazenamento local em SSD NVMe. Os desenvolvedores podem executar workloads de inferência de IA em instâncias G6e usando AMIs de deep learning da AWS, contêineres de deep learning da AWS ou serviços gerenciados, como Amazon Elastic Kubernetes Service (Amazon EKS), AWS Batch e Amazon SageMaker.
As instâncias G6e do Amazon EC2 estão disponíveis hoje nas regiões da AWS Leste dos EUA (N. da Virgínia, Ohio), Oeste dos EUA (Oregon), Ásia-Pacífico (Tóquio, Seul) e Europa (Frankfurt, Espanha, Estocolmo). Os clientes podem adquirir as instâncias G6e como instâncias sob demanda, reservadas e spot ou como parte de Savings Plans.
Para começar a usar, acesse o Console de Gerenciamento da AWS, a AWS Command Line Interface (CLI) e os SDKs da AWS. Para saber mais, acesse a página das instâncias G6e.