게시된 날짜: Oct 25, 2017
차세대 EC2 컴퓨팅 최적화 GPU 인스턴스인 Amazon EC2 P3 인스턴스 출시 소식을 알려드리게 되어 기쁘게 생각합니다. P3 인스턴스는 최대 8개 최신 세대 NVIDIA Tesla V100 GPU에 의해 구동되며 ML(Machine Learning), HPC(고성능 컴퓨팅), 데이터 압축 및 암호화 등 고급 계산 워크로드에 이상적입니다. 또한 공학 컴퓨팅 및 시뮬레이션, 재무 분석, 이미지 및 비디오 처리 관련 산업 애플리케이션용으로 매우 적합합니다.
P3 인스턴스는 사용자 지정 Intel Xeon E5 프로세서를 사용하는 64개 vCPU, RAM 488GB, 그리고 Elastic Network Adapter 기술이 적용된 최대 25Gbps의 총 네트워크 대역폭을 활용하여 강력한 ML 및 HPC용 플랫폼을 제공합니다.
NVIDIA의 최신 Volta 아키텍처에 기반을 둔 각 Tesla V100 GPU는 125TFLOPS의 혼합 정밀도 성능, 15.7TFLOPS의 단정밀도(FP32) 성능 및 7.8TFLOPS의 배정밀도(FP64) 성능을 제공합니다. 이것이 가능한 이유는 각 Tesla V100 GPU에 5,120개 CUDA 코어와 640개 Tensor 코어가 탑재되어 있기 때문입니다. 300GB/s NVLink 하이퍼-메시 상호 연결을 통해 빠른 속도와 짧은 지연 시간의 GPU-to-GPU 통신이 실현됩니다.
ML 애플리케이션의 경우, P3 인스턴스는 P2 인스턴스에 비해 최대 14배에 이르는 성능 향상을 자랑하므로, 개발자는 몇 일이 아니라 몇 시간 안에 Machine Learning 모델을 교육하고 시장에 혁신적인 기술을 더 빨리 선보일 수 있습니다.
P3 인스턴스는 p3.2xlarge(1개 GPU), p3.8xlarge(4개 GPU) 및 p3.16xlarge(8개 GPU), 이렇게 세 가지 인스턴스 크기로 제공됩니다. 이 인스턴스는 미국 동부(버지니아 북부), 미국 서부(오레곤), EU 서부(아일랜드), 아시아 태평양(도쿄) 리전에서 사용할 수 있습니다. 고객은 온디맨드 인스턴스, 예약 인스턴스 또는 스팟 인스턴스 및 전용 호스트로 P3 인스턴스를 구입할 수 있습니다.
시작하려면 AWS Management Console, AWS CLI(명령줄 인터페이스) 및 AWS SDK를 참조하십시오. 자세한 내용을 보려면 Amazon EC2 P3 인스턴스 페이지를 참조하십시오.