อินสแตนซ์ Amazon EC2 G6e พร้อมให้ใช้งานแล้วในรีเจี้ยนโซล
ตั้งแต่วันนี้เป็นต้นไป อินสแตนซ์ Amazon EC2 G6e ที่ขับเคลื่อนโดย NVIDIA L40S Tensor Core GPU พร้อมให้ใช้งานแล้วในเอเชียแปซิฟิก (โซล) อินสแตนซ์ G6e ใช้กับกรณีการใช้งานของแมชชีนเลิร์นนิงและการประมวลผลเชิงพื้นที่ได้หลากหลายกรณี
ลูกค้าสามารถใช้อินสแตนซ์ G6e เพื่อติดตั้งใช้งานโมเดลภาษาขนาดใหญ่ (LLM) ที่มีพารามิเตอร์สูงสุด 13B และโมเดลการแพร่กระจายต่าง ๆ เพื่อสร้างภาพ วิดีโอ และเสียงได้ นอกจากนี้ อินสแตนซ์ G6e ยังช่วยให้ลูกค้าสามารถสร้างการจำลอง 3 มิติที่มีขนาดใหญ่และสมจริงยิ่งขึ้นและสร้าง Digital Twin สำหรับเวิร์กโหลดการประมวลผลเชิงพื้นที่ได้ด้วย อินสแตนซ์ G6e มี NVIDIA L40S Tensor Core GPU สูงสุด 8 ตัว พร้อมหน่วยความจำ 48 GB ต่อ GPU และโปรเซสเซอร์ AMD EPYC รุ่นที่สาม นอกจากนี้ยังรองรับ vCPU สูงสุด 192 ตัว, แบนวิดท์เครือข่ายสูงสุด 400 Gbps, หน่วยความจำของระบบสูงสุด 1.536 TB และพื้นที่จัดเก็บ NVMe SSD ในเครื่องสูงสุด 7.6 TB นักพัฒนาสามารถเรียกใช้เวิร์กโหลดการอนุมานด้วย AI บนอินสแตนซ์ G6e โดยใช้ AWS Deep Learning AMI, AWS Deep Learning Containers หรือบริการที่มีการจัดการ เช่น Amazon Elastic Kubernetes Service (Amazon EKS), AWS Batch และ Amazon SageMaker
อินสแตนซ์ Amazon EC2 G6e พร้อมให้ใช้งานแล้ววันนี้ในรีเจี้ยน AWS สหรัฐอเมริกาฝั่งตะวันออก (เวอร์จิเนียฝั่งเหนือ, โอไฮโอ), สหรัฐอเมริกาฝั่งตะวันตก (ออริกอน), เอเชียแปซิฟิก (โตเกียว, โซล) และยุโรป (แฟรงก์เฟิร์ต, สเปน, สตอกโฮล์ม) ลูกค้าสามารถซื้ออินสแตนซ์ G6e มาใช้เป็น On-Demand Instance, Reserved Instance, Spot Instance หรือใช้เป็นส่วนหนึ่งของ Savings Plans ก็ได้
ในการเริ่มต้นใช้งาน โปรดไปที่คอนโซลการจัดการของ AWS, อินเทอร์เฟซบรรทัดคำสั่ง (CLI) ของ AWS และ AWS SDK หากต้องการเรียนรู้เพิ่มเติม โปรดไปที่หน้าอินสแตนซ์ G6e