Amazon EC2 G6e 인스턴스, 서울 리전에서 사용 가능

게시된 날짜: 2025년 3월 10일

오늘부터 아시아 태평양(서울) 리전에서도 NVIDIA L40S Tensor Core GPU로 구동되는 Amazon EC2 G6e 인스턴스를 사용할 수 있게 되었습니다. G6e 인스턴스는 광범위한 기계 학습 사용 사례와 공간 컴퓨팅 사용 사례에 사용할 수 있습니다.

고객은 G6e 인스턴스를 사용하여 이미지, 비디오, 오디오 생성을 위한 최대 130억 개의 파라미터와 확산 모델을 갖춘 대규모 언어 모델(LLM)을 배포할 수 있습니다. 아울러 G6e 인스턴스를 통해 공간 컴퓨팅 워크로드를 위한 몰입도 높은 대규모 3D 시뮬레이션과 디지털 트윈을 생성할 수 있습니다. G6e 인스턴스는 GPU당 48GB 메모리와 3세대 AMD EPYC 프로세서가 탑재된 최대 8개의 NVIDIA L40S Tensor Core GPU를 갖추고 있습니다. 또한 최대 192개의 vCPU, 최대 400Gbps의 네트워크 대역폭, 최대 1.536TB의 시스템 메모리, 최대 7.6TB의 로컬 NVMe SSD 스토리지를 지원합니다. 개발자는 AWS Deep Learning AMI, AWS Deep Learning Containers 또는 관리형 서비스인 Amazon Elastic Kubernetes Service(Amazon EKS), AWS Batch, Amazon SageMaker를 사용하여 G6e 인스턴스에서 AI 추론 워크로드를 실행할 수 있습니다.

Amazon EC2 G6e 인스턴스는 현재 AWS 미국 동부(버지니아 북부, 오하이오), 미국 서부(오리건), 아시아 태평양(도쿄, 서울), 유럽(프랑크푸르트, 스페인, 스톡홀름) 리전에서 사용할 수 있습니다. 고객은 온디맨드 인스턴스, 예약형 인스턴스, 스팟 인스턴스 또는 절감형 플랜의 일부로 G6e 인스턴스를 구매할 수 있습니다.

시작하려면 AWS Management Console, AWS Command Line Interface(AWS CLI), AWS SDK로 이동하시기 바랍니다. 자세한 내용은 G6e 인스턴스 페이지를 참조하세요.