Las instancias G6e de Amazon EC2 ya están disponibles en la región de Seúl
A partir de hoy, las instancias G6e de Amazon EC2 equipadas con las GPU Tensor Core L40S de NVIDIA ya están disponibles en la región Asia-Pacífico (Seúl). Las instancias G6e se pueden usar para una amplia variedad de casos de uso de computación espacial y machine learning.
Los clientes pueden usar las instancias G6e para implementar modelos de lenguaje de gran tamaño (LLM) con hasta 13 000 millones de parámetros y modelos de difusión a fin de generar imágenes, video y audio. Además, las instancias G6e permitirán a los clientes crear simulaciones 3D más grandes e inmersivas y gemelos digitales para las cargas de trabajo de computación espacial. Las instancias G6e incluyen hasta 8 GPU Tensor Core L40S de NVIDIA con 48 GB de memoria por GPU y procesadores EPYC de tercera generación de AMD. También admiten hasta 192 CPU virtuales, hasta 400 Gbps de ancho de banda de la red, hasta 1,536 TB de memoria del sistema y hasta 7,6 TB de almacenamiento SSD NVMe local. Los desarrolladores pueden ejecutar cargas de trabajo de inferencia de IA en instancias G6e mediante las AMI de aprendizaje profundo de AWS, los contenedores de aprendizaje profundo de AWS o servicios administrados como Amazon Elastic Kubernetes Service (Amazon EKS), AWS Batch y Amazon SageMaker.
Las instancias G6e de Amazon EC2 ya están disponibles en las regiones este de EE. UU. (norte de Virginia, Ohio), oeste de EE. UU. (Oregón), Asia-Pacífico (Tokio, Seúl) y Europa (Fráncfort, España, Estocolmo). Los clientes pueden adquirir instancias G6e como instancias bajo demanda, instancias reservadas, instancias de spot o como parte de los Savings Plans.
Para comenzar, visite la consola de administración de AWS, la interfaz de la línea de comandos (CLI) de AWS y los SDK de AWS. Para obtener más información, visite la página de las instancias G6e.