คำถามที่พบบ่อยเกี่ยวกับ Amazon SageMaker AI

ข้อมูลทั่วไป

เปิดทั้งหมด

Amazon SageMaker AI คือบริการที่มีการจัดการเต็มรูปแบบ ซึ่งได้รวบรวมชุดเครื่องมือที่หลากหลายเพื่อเปิดใช้งานแมชชีนเลิร์นนิง (ML) ที่มีประสิทธิภาพสูงและต้นทุนต่ำสำหรับทุกกรณีการใช้งาน เมื่อใช้ SageMaker AI คุณจะสามารถสร้าง ฝึก และปรับใช้โมเดล ML ได้ด้วยการปรับขนาดโดยใช้เครื่องมือ เช่น โน้ตบุ๊ก, Debuggers, Profilers, ไปป์ไลน์, MLOps และอื่น ๆ อีกมากมาย ทั้งหมดนี้รวมอยู่ในสภาพแวดล้อมการพัฒนาแบบผสานรวม (IDE) SageMaker AI รองรับข้อกำหนดด้านการกำกับดูแลพร้อมกับการควบคุมการเข้าถึงที่ง่ายขึ้นและมีความโปร่งใสสำหรับโครงการ ML ของคุณ นอกจากนี้ คุณยังสามารถสร้างโมเดลพื้นฐาน (FM) ของคุณเองซึ่งเป็นโมเดลขนาดใหญ่ที่ได้รับการฝึกบนชุดข้อมูลขนาดใหญ่ พร้อมด้วยเครื่องมือที่สร้างขึ้นโดยเฉพาะเพื่อปรับแต่ง ทดลอง ฝึกใหม่ และปรับใช้ FM SageMaker AI ยังนำเสนอการเข้าถึงโมเดลที่ได้รับการฝึกล่วงหน้าหลายร้อยโมเดล รวมถึง FM ที่เผยแพร่ต่อสาธารณะ ซึ่งคุณสามารถนำมาปรับใช้ได้ในขั้นตอนง่าย ๆ เพียงไม่กี่ขั้นตอน

สำหรับรายชื่อภูมิภาคที่รองรับ SageMaker โปรดไปที่หน้า AWS Regional Services สำหรับข้อมูลเพิ่มเติม โปรดดู ตำแหน่งข้อมูลภูมิภาค ในคำแนะนำสำหรับ AWS General Reference

SageMaker ออกแบบมาเพื่อความพร้อมการใช้งานสูง ไม่มีระยะเวลาการบำรุงรักษาหรือเวลาหยุดทำงานที่กำหนดไว้ API ของ SageMaker ทำงานในศูนย์ข้อมูลความพร้อมใช้งานสูงที่ได้รับการพิสูจน์แล้วจาก Amazon โดยมีการกำหนดค่าการจำลองสแต็คบริการในสิ่งอำนวยความสะดวก 3 แห่งในแต่ละภูมิภาค เพื่อให้ความทนทานต่อข้อผิดพลาดในกรณีที่เซิร์ฟเวอร์ทำงานล้มเหลวหรือโซนความพร้อมใช้งานหยุดทำงาน

SageMaker จัดเก็บรหัสในปริมาณการจัดเก็บ ML ซึ่งได้รับการรักษาความปลอดภัยโดยกลุ่มความปลอดภัยและเข้ารหัสทางเลือกในขณะที่พัก

SageMaker รับรองว่าโมเดล ML และสิ่งประดิษฐ์ของระบบจะได้รับการเข้ารหัสในขณะที่รับส่งและขณะที่จัดเก็บ ระบบจะส่งคำขอไปยัง SageMaker API และคอนโซลผ่านการเชื่อมต่อ (SSL) ที่ปลอดภัย คุณส่งบท บาทการจัดการตัวตนและการเข้าถึงของ AWS ไปยัง SageMaker เพื่อมอบสิทธิ์ในการเข้าถึงทรัพยากรในนามของคุณสำหรับการฝึกและการปรับใช้ คุณสามารถใช้บักเก็ตที่เข้ารหัสของ Amazon Simple Storage Service (Amazon S3) สำหรับสิ่งประดิษฐ์และข้อมูลแบบจำลอง รวมทั้งส่งคีย์ AWS Key Management Service (AWS KMS) ไปยังโน้ตบุ๊ค SageMaker งานฝึก และตำแหน่งข้อมูลเพื่อเข้ารหัสปริมาณที่เก็บข้อมูล ML ที่แนบมา SageMaker ยังรองรับระบบคลาวด์ส่วนตัวเสมือน Amazon Virtual Private Cloud (Amazon VPC) และการสนับสนุน AWS PrivateLink

SageMaker ไม่ใช้หรือแบ่งปันแบบจำลองของลูกค้า ข้อมูลการฝึก หรืออัลกอริทึม เราทราบว่าลูกค้าใส่ใจในความเป็นส่วนตัวและความปลอดภัยของข้อมูลเป็นอย่างมาก นั่นเป็นเหตุผลที่ว่าทำไม AWS จึงให้คุณเป็นเจ้าของและควบคุมเนื้อหาของคุณด้วยเครื่องมือที่เรียบง่ายแต่ทรงพลังที่ช่วยให้คุณสามารถกำหนดได้ว่าจะจัดเก็บเนื้อหาของคุณที่ใด ป้องกันเนื้อหาของลูกค้าระหว่างส่งหรือจัดเก็บ และจัดการการเข้าถึงบริการและทรัพยากรของ AWS สำหรับผู้ใช้ของคุณ นอกจากนี้ เราใช้การควบคุมทางเทคนิคและกายภาพที่ออกแบบมาเพื่อป้องกันการเข้าถึงที่ไม่ได้รับอนุญาตหรือการเปิดเผยเนื้อหาของคุณ ในฐานะลูกค้า คุณจะยังคงเป็นเจ้าของเนื้อหาของคุณ และคุณเลือกได้ว่าจะให้บริการใดของ AWS ประมวลผล จัดเก็บ และโฮสต์เนื้อหาของคุณ เราไม่เข้าถึงเนื้อหาของคุณเพื่อจุดประสงค์ใดๆ โดยไม่ได้รับการยินยอมจากคุณ

ระบบจะเรียกเก็บเงินสำหรับทรัพยากรการคำนวณ การจัดเก็บ และการประมวลผลข้อมูล ML ที่คุณใช้สำหรับการโฮสต์โน้ตบุ๊ก การฝึกโมเดล การทำการคาดการณ์ และการบันทึกเอาต์พุต ด้วย SageMaker คุณสามารถเลือกจำนวนและประเภทของอินสแตนซ์ที่ใช้สำหรับโน้ตบุ๊กที่โฮสต์ การฝึก และการโฮสต์โมเดลได้ คุณจะชำระค่าบริการเฉพาะส่วนที่คุณใช้เท่านั้น และตามที่คุณใช้จริง โดยไม่มีค่าบริการขั้นต่ำและไม่มีค่าธรรมเนียมล่วงหน้า สำหรับรายละเอียดเพิ่มเติม โปรดดูที่ค่าบริการของ Amazon SageMaker และเครื่องมือคำนวณค่าบริการของ Amazon SageMaker

มีแนวทางปฏิบัติที่ดีที่สุดหลายประการที่คุณสามารถนำมาใช้เพื่อใช้ทรัพยากร SageMaker ของคุณได้อย่างมีประสิทธิภาพยิ่งขึ้น วิธีการบางประการเกี่ยวข้องกับการเพิ่มประสิทธิภาพด้วยการกำหนดค่า และประการอื่นๆ เกี่ยวข้องกับโซลูชันแบบโปรแกรม สามารถดูคู่มือฉบับสมบูรณ์เกี่ยวกับแนวคิดนี้พร้อมบทช่วยสอนพร้อมภาพและตัวอย่างโค้ดได้ในบล็อกโพสต์นี้

SageMaker มีเวิร์กโฟลว์ที่ครบถ้วนและสมบูรณ์ แต่คุณสามารถใช้เครื่องมือที่มีอยู่เดิมต่อไปได้ใน SageMaker คุณสามารถถ่ายโอนผลลัพธ์ของแต่ละขั้นตอนเข้าและออกจาก SageMaker ได้อย่างง่ายดายตามความต้องการทางธุรกิจของคุณ

ใช่ คุณสามารถใช้ R ภายในอินสแตนซ์โน้ตบุ๊ก SageMaker ซึ่งรวมถึงเคอร์เนล R ที่ติดตั้งไว้ล่วงหน้าและไลบรารีเรติคูเลต เรติคูเลต นำเสนออินเทอร์เฟซ R สำหรับ Amazon SageMaker Python SDK ซึ่งช่วยให้ผู้ปฏิบัติงาน ML สร้าง ฝึกฝน ปรับแต่ง และปรับใช้โมเดล R นอกจากนี้ คุณยังสามารถเปิดตัว RStudio ซึ่งเป็นสภาพแวดล้อมการพัฒนาแบบบูรณาการ (IDE) สำหรับ R ใน Amazon SageMaker Studio ได้  

Amazon SageMaker Studio มีส่วนแสดงภาพบนเว็บที่คุณสามารถดำเนินขั้นตอนการพัฒนา ML ทั้งหมดในส่วนเดียวได้ SageMaker Studio ช่วยให้คุณเข้าถึง ควบคุม และมองเห็นในแต่ละขั้นตอนที่จำเป็นในการเตรียมข้อมูลและสร้าง ฝึก และติดตั้งใช้โมเดล คุณสามารถอัปโหลดข้อมูล สร้างสมุดบันทึกใหม่ ฝึกและปรับโมเดล ย้ายไปมาระหว่างขั้นตอนต่างๆ ได้อย่างรวดเร็ว เพื่อปรับการทดลอง เปรียบเทียบผล และติดตั้งใช้โมเดลในการผลิตทั้งหมดในที่เดียว ซึ่งช่วยให้ได้ประสิทธิผลมากขึ้น กิจกรรมการพัฒนา ML ทั้งหมดซึ่งรวมถึงสมุดบันทึก การจัดการการทดลอง การสร้างโมเดลแบบอัตโนมัติ การแก้ไขข้อบกพร่องและการทำแฟ้มประวัติ รวมถึงการตรวจจับโมเดลไม่ตรงกัน สามารถดำเนินการได้ในส่วนแสดงภาพ SageMaker Studio แบบรวมศูนย์

ไม่มีค่าใช้จ่ายเพิ่มเติมสำหรับการใช้งาน SageMaker Studio คุณจะจ่ายเฉพาะการประมวลผลและพื้นที่จัดเก็บข้อมูลพื้นฐานที่คุณใช้ภายใน Studio เท่านั้น

คุณสามารถค้นหาภูมิภาคที่รองรับ SageMaker Studio ได้ในคู่มือนักพัฒนาซอฟต์แวร์ Amazon SageMaker

Amazon SageMaker Clarify ช่วยปรับปรุงความโปร่งใสของโมเดลโดยการตรวจจับอคติทางสถิติในเวิร์กโฟลว์ ML ทั้งหมด SageMaker Clarify จะตรวจสอบความไม่สมดุลระหว่างการเตรียมข้อมูล หลังการฝึก และเมื่อเวลาผ่านไป และยังมีเครื่องมือเพื่อช่วยอธิบายโมเดล ML และการคาดการณ์ของโมเดลอีกด้วย สามารถแบ่งปันการค้นพบได้ผ่านรายงานการอธิบาย

RStudio บน SageMaker AI เป็นเวิร์กเบนช์ RStudio ที่จัดการอย่างเต็มรูปแบบแรกในคลาวด์ คุณสามารถเปิดใช้งานสภาพแวดล้อมการพัฒนาแบบบูรณาการของ RStudio (IDE) ที่คุ้นเคยได้อย่างรวดเร็ว และเรียกดูทรัพยากรการคำนวณพื้นฐานขึ้นและลงได้โดยไม่รบกวนการทำงานของคุณ ทำให้การสร้าง ML และโซลูชันการวิเคราะห์ใน R ในระดับได้ง่ายขึ้น คุณสามารถสลับระหว่างโน้ตบุ๊ค RStudio IDE และ SageMaker Studio สำหรับการพัฒนา R และ Python ได้อย่างราบรื่น งานทั้งหมดของคุณ รวมถึงรหัส ชุดข้อมูล ที่เก็บ และสิ่งประดิษฐ์อื่นๆ จะถูกซิงโครไนซ์โดยอัตโนมัติระหว่างสองสภาพแวดล้อมเพื่อลดการสลับบริบทและเพิ่มประสิทธิภาพการทำงาน

การวัดอคติในโมเดล ML เป็นขั้นตอนแรกในการบรรเทาอคติ สามารถวัดอคติได้ก่อนการฝึก (เป็นส่วนหนึ่งของการเตรียมข้อมูล) หลังการฝึก (โดยใช้ Amazon SageMaker Experiments) และระหว่างการอนุมานสำหรับโมเดลที่ปรับใช้ (ด้วย Amazon SageMaker Model Monitor) แต่ละเมตริกอคติมากกว่า 20 อย่างที่สอดคล้องกับแนวคิดที่แตกต่างกันเกี่ยวกับความเป็นธรรม คุณเลือกเมตริกที่ถูกต้องสำหรับแอปพลิเคชันและสถานการณ์ที่กำลังตรวจสอบอยู่ ตัวอย่างเช่น ก่อนการฝึก เมตริกอย่างเช่น Class Disbalance และความแตกต่างในการกระจายฉลากระหว่างกลุ่มจะตรวจสอบว่าข้อมูลการฝึกเป็นตัวแทนของประชากรโดยรวมหรือไม่ SageMaker Clarify พิจารณาทั้งความแตกต่างของผลลัพธ์เชิงบวก (ดี) และความแตกต่างของการกระจายฉลากแต่ละบุคคลเพื่อตรวจสอบว่ากลุ่มหนึ่ง ๆ มีตัวแทนต่ำไปหรือไม่ หลังการฝึกหรือระหว่างการปรับใช้ เมตริกอคติจะช่วยวัดว่าประสิทธิภาพของโมเดลแตกต่างกันไปในแต่ละกลุ่มหรือไม่ และมากแค่ไหน ตัวชี้วัดเช่นการแสดงความเท่าเทียมกันและผลกระทบที่แตกต่างกันวัดความแตกต่างในการคาดการณ์เชิงบวก เมตริกประสิทธิภาพที่เท่าเทียมกัน เช่น ความแตกต่างในความแม่นยำ (น่าจะเป็นการคาดการณ์เชิงบวกถูกต้อง) และการเรียกคืน (โอกาสที่โมเดลจะติดฉลากตัวอย่างเชิงบวกอย่างถูกต้อง) รวมถึงประเมินการกระจายข้อผิดพลาดที่เท่ากันระหว่างกลุ่ม เรียนรู้เพิ่มเติมจากโพสต์บล็อกนี้ 

SageMaker Clarify ถูกรวมเข้ากับ SageMaker Experiments เพื่อจัดเตรียมกราฟความสำคัญของคุณสมบัติโดยละเอียดถึงความสำคัญของแต่ละอินพุตสำหรับกระบวนการตัดสินใจโดยรวมของโมเดลของคุณหลังจากที่โมเดลได้รับการฝึก รายละเอียดเหล่านี้จะสามารถช่วยระบุได้ว่าอินพุตโมเดลเฉพาะมีอิทธิพลมากกว่าที่คาดไว้ต่อพฤติกรรมโดยรวมของโมเดล นอกจากนี้ SageMaker Clarify ยังให้คำอธิบายสำหรับการคาดการณ์แต่ละบุคคลพร้อมใช้งานผ่าน API 

SageMaker และ SageMaker AI

เปิดทั้งหมด

Amazon SageMaker AI (เดิมชื่อ Amazon SageMaker) เป็นบริการที่ได้รับการบริหารจัดการอย่างเต็มรูปแบบซึ่งรวบรวมชุดเครื่องมือที่หลากหลายเพื่อเปิดใช้แมชชีนเลิร์นนิง (ML) ที่มีประสิทธิภาพสูงและต้นทุนต่ำสำหรับกรณีการใช้งานใด ๆ ด้วย SageMaker AI คุณสามารถสร้าง ฝึก และใช้งานโมเดล ML ในระดับขยายได้ SageMaker เป็นแพลตฟอร์มแบบครบวงจรสำหรับข้อมูล การวิเคราะห์ และ AI มอบประสบการณ์การพัฒนาแบบครบวงจรใหม่ที่ขับเคลื่อนด้วย AI เพื่อให้ลูกค้าสามารถสร้างแอปพลิเคชันบน AWS ได้อย่างง่ายดายและรวดเร็ว

ที่ re:Invent 2024 ความสามารถที่รองรับ ได้แก่ ตำแหน่งข้อมูลการอนุมาน, JumpStart, Train, MLFlow, Model Registry, แอป AI ของพาร์ทเนอร์, HyperPod, Pipelines และอื่น ๆ เรามุ่งมั่นที่จะรวมฟังก์ชันที่มีอยู่ทั้งหมดที่สนับสนุนการพัฒนาแบบจำลองทั้งหมดตั้งแต่การฝึกไปจนถึงการปรับใช้ใน Unified Studio ใหม่

SageMaker มอบข้อมูลแบบครบวงจรและประสบการณ์ AI เพื่อค้นหา เข้าถึง และดำเนินการกับข้อมูลของคุณ เร่งการวิเคราะห์และการริเริ่มของ AI SageMaker AI จะยังคงได้รับการสนับสนุน ดังนั้นคุณจึงไม่จำเป็นต้องดำเนินการใด ๆ เพื่อให้แน่ใจว่าเวิร์กโฟลว์ที่มีอยู่ของคุณยังคงทำงานต่อไป ตัวอย่างเช่น คุณสามารถใช้คลัสเตอร์ Amazon SageMaker HyperPod ที่มีอยู่ต่อไปได้ตามที่เป็นอยู่ หากคุณต้องการใช้ใน SageMaker Unified Studio ใหม่ให้ตั้งค่าการเชื่อมต่อกับคลัสเตอร์นี้ การกำหนดค่า HyperPod ที่มีอยู่ทั้งหมดของคุณจะถูกย้ายไปยังโครงการของคุณใน SageMaker โดยอัตโนมัติและประสิทธิภาพและคุ้มค่าจะเหมือนกัน อย่างไรก็ตาม ประสบการณ์ SageMaker Unified Studio สามารถปรับปรุงประสิทธิภาพการทำงานได้โดยนำเครื่องมือทั้งหมดมาในที่เดียว

เรารู้สึกตื่นเต้นที่จะประกาศเกี่ยวกับสตูดิโอแบบครบวงจรที่ช่วยให้คุณทำงานร่วมกันและสร้างได้เร็วยิ่งขึ้น จาก SageMaker Unified Studio คุณสามารถค้นหาข้อมูล ข้อมูลแบบสอบถาม ฝึกโมเดล AI และสร้างแอปพลิเคชัน AI ช่วยสร้างได้ เราอยู่ที่นี่เพื่อช่วยเหลือคุณในทุกขั้นตอน เราจะจัดเตรียมแนวทางที่ใช้งานง่ายเพื่อนำโครงการที่มีอยู่ของคุณไปยังสตูดิโอแบบครบวงจรในไตรมาสที่ 1 ปี 2025 หากคุณมีคำถามใดโปรดติดต่อทีมบัญชีของคุณ

SageMaker Studio ยังคงเป็นตัวเลือกที่ยอดเยี่ยมสำหรับลูกค้าที่ต้องการประสบการณ์การพัฒนา ML ที่เชื่อถือได้และคล่องตัว องค์กรที่ต้องการสำรวจข้อมูลและความสามารถในการวิเคราะห์จะพบว่า การกำกับดูแลแบบบูรณาการ การวิเคราะห์ขั้นสูง และคุณสมบัติ AI ช่วยสร้างของแพลตฟอร์มแบบครบวงจรใหม่นี้น่าดึงดูด ด้วยประสบการณ์แบบบูรณาการ SageMaker Unified Studio ใหม่ คุณสามารถเตรียมและรวมข้อมูล เรียกดูข้อมูลโดยใช้ SQL ค้นพบและควบคุมข้อมูลด้วยแคตตาล็อกแบบครบวงจรได้

ใช่ HyperPod, JumpStart, MLFlow, JupyterLab และ Pipeline ทั้งหมดมีให้บริการใน SageMaker Unified Studio ใหม่ นอกจากนี้ ตำแหน่งข้อมูลการอนุมานของ Train Model Registry และความสามารถ SageMaker ยอดนิยมอื่น ๆ ยังได้รับการสนับสนุนใน Unified Studio ใหม่

การเดินทางที่ 1 เลือก ปรับแต่ง และปรับใช้โมเดลพื้นฐาน (FM):

  • เรียกดูและเลือกชุดข้อมูล
  • เลือก FM
  • ประเมินแบบจำลอง (อัตโนมัติและทำโดยมนุษย์)
  • ปรับ แต่ง: เพิ่มประสิทธิภาพราคา FM, ประสิทธิภาพ และคุณภาพ
  • เพิ่มประสิทธิภาพและปรับใช้สำหรับการอนุมาน
  • ทำให้เป็นอัตโนมัติด้วย FMOP และการตรวจสอบแบบจำลอง

การเดินทางที่ 2 สร้าง ฝึก และใช้โมเดล ML ที่ระดับขยาย

  • เร่งความเร็วและปรับขนาดการเตรียมข้อมูลสำหรับ ML
  • สร้างโมเดล ML
  • ฝึกและปรับแต่งโมเดล ML
  • ปรับใช้ในการผลิต
  • จัดการและตรวจสอบติดตาม
  • ทำให้วงจรชีวิต ML เป็นอัตโนมัติ

การเดินทางที่ 3 เลือกโมเดล สร้าง และปรับใช้แอปพลิเคชัน AI ช่วยสร้าง:

  • เลือกรุ่นและปรับแต่งให้เหมาะสม
  • นำเข้าโมเดลไปยัง Amazon Bedrock
  • สร้างและปรับใช้แอปพลิเคชัน AI ช่วยสร้างซึ่งรวมเข้ากับตำแหน่งข้อมูลของคุณ

การเดินทางที่ 4 เลือกและปรับใช้โมเดลไปยังตำแหน่งข้อมูล และเชื่อมต่อตำแหน่งข้อมูลเข้ากับแอป AI ช่วยสร้าง:

  • เลือกโมเดล
  • ปรับใช้โมเดลไปยังตำแหน่งข้อมูล SageMaker
  • เชื่อมต่อตำแหน่งข้อมูลเข้ากับแอปพลิเคชัน AI ช่วยสร้างของคุณ

ประสบการณ์การพัฒนาแบบครบวงจรใหม่มีรูปแบบการกำหนดราคาตามการใช้งานสำหรับสตูดิโอและการกำหนดราคาแบบส่งผ่าน (Pass-through) สำหรับบริการพื้นฐานทั้งหมด Unified Studio จะเรียกเก็บเงินสำหรับการจัดเก็บข้อมูลเมตา การร้องขอ API และการกำกับดูแล สำหรับรายละเอียดเพิ่มเติม โปรดไปที่ การกำหนดราคา Amazon SageMaker

การกำกับดูแล ML

เปิดทั้งหมด

SageMaker ให้เครื่องมือการกำกับดูแล ML ที่สร้างขึ้นตามจุดประสงค์ตลอดวงจรชีวิต ML ด้วย Amazon SageMaker Role Manager ผู้ดูแลระบบสามารถกำหนดสิทธิ์ขั้นต่ำได้ในไม่กี่นาที การ์ดข้อมูลโมเดลของ Amazon SageMaker ช่วยให้จับภาพ ดึงข้อมูล และแบ่งปันข้อมูลโมเดลที่สำคัญตั้งแต่แนวความคิดไปจนถึงการนำไปใช้จริงได้ง่ายขึ้น และแดชบอร์ดโมเดลบน Amazon SageMaker จะแจ้งให้คุณทราบเกี่ยวกับพฤติกรรมของโมเดลการผลิตทั้งหมดในที่เดียว สำหรับ
ข้อมูลเพิ่มเติม โปรดดู การดูแล ML ด้วย Amazon SageMaker

คุณสามารถกำหนดสิทธิ์ขั้นต่ำได้ในไม่กี่นาทีด้วย SageMaker Role Manager สิ่งนี้จะจัดเตรียมชุดการอนุญาตพื้นฐานสำหรับกิจกรรม ML และบุคคลด้วยแคตตาล็อกของนโยบาย IAM ที่สร้างไว้ล่วงหน้า คุณสามารถคงสิทธิ์พื้นฐานเอาไว้หรือปรับแต่งเพิ่มเติมตามความต้องการเฉพาะของคุณ จากการใช้คำสั่งแนะนำด้วยตนเองเพียงไม่กี่คำสั่ง คุณสามารถป้อนโครงสร้างการกำกับดูแลทั่วไปได้อย่างรวดเร็ว เช่น ขอบเขตการเข้าถึงเครือข่ายและคีย์เข้ารหัส จากนั้น SageMaker Role Manager จะสร้างนโยบาย IAM โดยอัตโนมัติ คุณสามารถค้นหาบทบาทที่สร้างขึ้นและนโยบายที่เกี่ยวข้องผ่าน AWS IAM Console หากต้องการปรับแต่งสิทธิ์ให้เหมาะกับกรณีการใช้งานของคุณเพิ่มเติม ให้แนบนโยบาย IAM ที่มีการจัดการของคุณกับบทบาทใน IAM ที่คุณสร้างด้วย SageMaker Role Manager นอกจากนี้ คุณยังสามารถเพิ่มแท็กเพื่อช่วยระบุบทบาทและจัดระเบียบในบริการต่างๆ ของ AWS ได้อีกด้วย

SageMaker Model Cards ช่วยให้คุณรวมศูนย์และกำหนดมาตรฐานเอกสารของโมเดลตลอดวงจรการใช้งานของ ML ได้โดยการสร้างแหล่งข้อมูลของโมเดลที่เป็นจริงเพียงแหล่งเดียว SageMaker Model Cards จะแสดงรายละเอียดการฝึกโดยอัตโนมัติเพื่อเร่งกระบวนการจัดทำเอกสาร คุณยังสามารถเพิ่มรายละเอียดต่างๆ เช่น วัตถุประสงค์ของโมเดลและเป้าหมายด้านประสิทธิภาพได้อีกด้วย คุณสามารถแนบผลการประเมินโมเดลลงในการ์ดโมเดลของคุณ และเพิ่มการแสดงภาพ เช่น แผนภูมิ เพื่อรับข้อมูลเชิงลึกที่สำคัญเกี่ยวกับประสิทธิภาพของโมเดล สามารถแบ่งปัน SageMaker Model Card กับผู้อื่นได้อย่างง่ายดายโดยส่งออกไปยังรูปแบบ PDF

แดชบอร์ดโมเดลบน SageMaker ให้ภาพรวมที่ครอบคลุมของโมเดลที่นำไปใช้จริงและตำแหน่งข้อมูล เพื่อให้คุณสามารถบันทึกทรัพยากรและการละเมิดพฤติกรรมของโมเดลได้ในที่เดียว ช่วยให้คุณสามารถตรวจสอบพฤติกรรมของโมเดลในสี่มิติ รวมถึงคุณภาพของข้อมูลและโมเดล อคติ และค่าดริฟต์ในการระบุแหล่งที่มาด้วยการผสานการทำงานกับ SageMaker Model Monitor และ SageMaker Clarify SageMaker Model Dashboard ยังมอบประสบการณ์แบบบูรณาการในการตั้งค่าและรับการแจ้งเตือนสำหรับงานตรวจสอบโมเดลที่หายไปและไม่ได้ใช้งาน และความเบี่ยงเบนในพฤติกรรมเพื่อคุณภาพของโมเดล คุณภาพของข้อมูล ค่าการเบี่ยงเบนที่อคติ และค่าการเบี่ยงเบนในการระบุแหล่งที่มาของฟีเจอร์ คุณสามารถตรวจสอบแต่ละโมเดลเพิ่มเติมและวิเคราะห์ปัจจัยที่ส่งผลต่อประสิทธิภาพของโมเดลเมื่อเวลาผ่านไป จากนั้นคุณสามารถติดตามผลกับผู้ปฏิบัติงาน ML เพื่อใช้มาตรการแก้ไขได้

โมเดลพื้นฐาน

เปิดทั้งหมด

SageMaker JumpStart ช่วยให้คุณเริ่มต้นกับ ML ได้อย่างรวดเร็วและง่ายดาย SageMaker JumpStart มีชุดโซลูชันสำหรับกรณีการใช้งานที่พบบ่อยที่สุดซึ่งสามารถนำไปปรับใช้ได้อย่างง่ายดายในไม่กี่ขั้นตอน โซลูชันนี้สามารถปรับแต่งได้อย่างเต็มที่และแสดงตัวอย่างการใช้เทมเพลต AWS CloudFormation และสถาปัตยกรรมอ้างอิงเพื่อให้การเดินทางไปในเส้นทางแห่ง ML ของคุณรวดเร็วขึ้นได้ นอกจากนี้ SageMaker JumpStart ยังมีโมเดลพื้นฐานและรองรับการนำไปใช้จริงในขั้นตอนเดียวและการปรับแต่งโมเดลแบบโอเพนซอร์สยอดนิยมมากกว่า 150 โมเดล เช่น โมเดล Transformer, โมเดลการตรวจจับสิ่งของ และโมเดลการจำแนกภาพ 

SageMaker JumpStart มีโมเดลที่เป็นกรรมสิทธิ์และแบบสาธารณะ สำหรับรายการโมเดลรองพื้นที่มีอยู่ โปรดดูที่ การเริ่มต้นใช้งาน Amazon SageMaker JumpStart

คุณสามารถเข้าถึงโมเดลพื้นฐานผ่าน SageMaker Studio, SageMaker SDK และคอนโซลการจัดการของ AWS หากต้องการเริ่มต้นใช้งานโมเดลพื้นฐานที่เป็นกรรมสิทธิ์ คุณต้องยอมรับเงื่อนไขการขายใน AWS Marketplace

ไม่ข้อมูลการอนุมานและการฝึกของคุณจะไม่ถูกใช้หรือแบ่งปันเพื่ออัปเดตหรือฝึกโมเดลพื้นฐานที่ SageMaker JumpStart เผยแพร่ให้กับลูกค้า

ไม่ได้ โมเดลที่เป็นกรรมสิทธิ์ไม่อนุญาตให้ลูกค้าดูน้ำหนักโมเดลและสคริปต์

สามารถพบโมเดลได้ในทุก ภูมิภาค ที่มี SageMaker Studio แต่ความสามารถในการปรับใช้โมเดลแตกต่างกันไปตามรุ่นและความพร้อมใช้งานอินสแตนซ์ของประเภทอินสแตนซ์ที่ต้องการ คุณสามารถอ้างอิงถึงความพร้อมใช้งานของภูมิภาค AWS และอินสแตนซ์ที่จำเป็นได้จากหน้ารายละเอียดโมเดลใน AWS Marketplace

สำหรับโมเดลที่เป็นกรรมสิทธิ์ จะมีการเรียกเก็บค่าซอฟต์แวร์ที่กำหนดโดยผู้ให้บริการโมเดลและค่าธรรมเนียมโครงสร้างพื้นฐาน SageMaker ตามอินสแตนซ์ที่ใช้ สำหรับโมเดลที่ให้ใช้งานสาธารณะ คุณจะถูกเรียกเก็บค่าธรรมเนียมโครงสร้างพื้นฐาน SageMaker ตามอินสแตนซ์ที่ใช้ สำหรับข้อมูลเพิ่มเติม โปรดดูที่ราคาของ Amazon SageMaker และ AWS Marketplace

ความปลอดภัยคือสิ่งที่สำคัญสูงสุดที่ AWS และ SageMaker JumpStart ได้รับการออกแบบมาให้มีความปลอดภั SageMaker จึงให้คุณเป็นเจ้าของและควบคุมเนื้อหาของคุณด้วยเครื่องมือที่เรียบง่ายแต่ทรงพลังที่ช่วยให้คุณสามารถกำหนดได้ว่าจะจัดเก็บเนื้อหาของคุณที่ใด ป้องกันเนื้อหาของลูกค้าระหว่างส่งหรือจัดเก็บ และจัดการการเข้าถึงบริการและทรัพยากรของ AWS สำหรับผู้ใช้ของคุณ

  1. เราไม่แชร์ข้อมูลการฝึกอบรมและการอนุมานของลูกค้ากับผู้ขายโมเดลใน AWS Marketplace ในทำนองเดียวกัน อาร์ทิแฟกต์แบบจำลองของผู้ขาย (เช่น น้ำหนักโมเดล) จะไม่ถูกแชร์กับผู้ซื้อ
  2. SageMaker JumpStart ไม่ใช้โมเดลของลูกค้า ข้อมูลการฝึกอบรม หรืออัลกอริทึมเพื่อปรับปรุงบริการ และไม่แชร์ข้อมูลการฝึกอบรมและการอนุมานของลูกค้ากับบุคคลที่สามแต่อย่างใด
  3. ใน SageMaker JumpStart อาร์ทิแฟกต์ของโมเดล ML จะได้รับการเข้ารหัสระหว่างการส่งผ่านและขณะพัก
  4. ภายใต้ รูปแบบความรับผิดชอบร่วมกันของ AWS ทาง AWS มีหน้าที่รับผิดชอบในการปกป้องโครงสร้างพื้นฐานระดับโลกที่ดำเนินงาน AWS ทั้งหมด คุณมีหน้าที่รับผิดชอบในการรักษาการควบคุมเนื้อหาของคุณที่โฮสต์บนโครงสร้างพื้นฐานนี้

เมื่อใช้โมเดลจาก AWS Marketplace หรือ SageMaker JumpStart ผู้ใช้จะรับผิดชอบในเรื่องคุณภาพเอาต์พุตของโมเดลและรับทราบความสามารถและข้อจำกัดที่อธิบายไว้ในคำอธิบายโมเดลแต่ละรายการ

SageMaker JumpStart ประกอบด้วยรุ่นที่เปิดเผยต่อสาธารณะมากกว่า 150 โมเดลจาก PyTorch Hub และ TensorFlow Hub สำหรับงานด้านการมองเห็น เช่น การจำแนกภาพและการตรวจจับวัตถุ คุณสามารถใช้โมเดลเช่น RESNET, MobileNet และเครื่องตรวจจับภาพเดียว (SSD) สำหรับงานข้อความ เช่น การจำแนกประโยค การจำแนกข้อความ และการตอบคำถาม คุณสามารถใช้แบบจำลองเช่น BERT, Roberta และ Distilbert

เมื่อใช้ SageMaker JumpStart นักวิทยาศาสตร์ข้อมูลและนักพัฒนา ML จะสามารถแบ่งปันอาร์ทิแฟกต์ ML รวมถึงโน้ตบุ๊กและโมเดลให้กับในองค์กรได้อย่างง่ายดาย ผู้ดูแลระบบสามารถตั้งค่าที่เก็บข้อมูลที่สามารถเข้าถึงได้โดยบรรดาผู้ใช้ที่กำหนด ผู้ใช้ทุกคนที่ได้รับอนุญาตให้เข้าถึงที่เก็บข้อมูลสามารถเรียกดู ค้นหา และใช้โมเดลและโน้ตบุ๊ก รวมถึงเนื้อหาสาธารณะภายใน SageMaker JumpStart ได้ ผู้ใช้สามารถเลือกอาร์ทิแฟกต์เพื่อฝึกโมเดล ปรับใช้ตำแหน่งข้อมูล และเรียกใช้โน้ตบุ๊กใน SageMaker JumpStart ได้

ด้วย SageMaker JumpStart คุณสามารถเร่งเวลาเข้าสู่ตลาดเมื่อสร้างแอปพลิเคชัน ML โมเดลและโน้ตบุ๊คที่สร้างขึ้นโดยทีมเดียวภายในองค์กรของคุณสามารถแชร์กับทีมอื่นภายในองค์กรได้อย่างง่ายดายในไม่กี่ขั้นตอน การแบ่งปันความรู้ภายในและการนำสินทรัพย์กลับมาใช้ใหม่สามารถเพิ่มประสิทธิภาพการทำงานขององค์กรของคุณได้อย่างมีนัยสำคัญ

Amazon SageMaker Clarify สนับสนุนการประเมินโมเดลพื้นฐานแล้วในปัจจุบัน คุณสามารถประเมิน เปรียบเทียบ และเลือกโมเดลพื้นฐานที่ดีที่สุดสำหรับกรณีการใช้งานเฉพาะของคุณ เพียงเลือกโมเดลที่คุณต้องการประเมินสำหรับงานที่กำหนด เช่น การตอบคำถามหรือสรุปเนื้อหา จากนั้นเลือกเกณฑ์การประเมินผล (เช่น ความถูกต้อง ความยุติธรรม และความแข็งแกร่ง) และอัปโหลดชุดข้อมูลที่รวดเร็วของคุณเองหรือเลือกจากชุดข้อมูลในตัวที่เปิดเผยต่อสาธารณะ สำหรับเกณฑ์หรือเนื้อหาที่ละเอียดอ่อนที่ต้องการการตัดสินของมนุษย์ที่ซับซ้อน คุณสามารถเลือกใช้บุคลากรของคุณเอง หรือใช้บุคลากรที่ได้รับการจัดการที่ AWS จัดหาให้เพื่อตรวจสอบการตอบสนอง เมื่อคุณเสร็จสิ้นกระบวนการตั้งค่าแล้ว SageMaker Clarify จะดำเนินการประเมินและสร้างรายงาน เพื่อให้คุณสามารถเข้าใจได้อย่างง่ายดายว่าโมเดลทำงานอย่างไรตามเกณฑ์ที่สำคัญ คุณสามารถประเมินโมเดลพื้นฐานใน SageMaker JumpStart โดยใช้ตัวช่วยสร้างการประเมินผลหรือโมเดลพื้นฐานใด ๆ ที่ไม่ได้โฮสต์บน AWS โดยใช้ไลบรารีโอเพนซอร์ส

ใช่ ผู้ดูแลระบบสามารถควบคุมโมเดล Amazon SageMaker JumpStart ใดที่มองเห็นได้และใช้งานได้กับผู้ใช้ในบัญชี AWS หลายบัญชี และผู้บริหารผู้ใช้หลายบัญชี หากต้องการเรียนรู้เพิ่มเติม โปรดดูที่เอกสารประกอบ

ชุดเครื่องมือเพิ่มประสิทธิภาพการอนุมานช่วยให้คุณใช้เทคนิคการเพิ่มประสิทธิภาพการอนุมานล่าสุดได้ง่ายเพื่อให้บรรลุประสิทธิภาพต้นทุนที่ล้ำสมัย (SOTA) บน Amazon SageMaker ในขณะที่ประหยัดเวลานักพัฒนาหลายเดือน คุณสามารถเลือกจากเมนูเทคนิคการเพิ่มประสิทธิภาพยอดนิยมที่จัดทำโดย SageMaker และเรียกใช้งานการเพิ่มประสิทธิภาพล่วงหน้า เกณฑ์มาตรฐานโมเดลสำหรับเมตริกประสิทธิภาพและความแม่นยำ จากนั้นปรับใช้โมเดลที่ปรับให้เหมาะสมกับปลายทาง SageMaker เพื่ออนุมานได้ ชุดเครื่องมือนี้จัดการทุกแง่มุมของการเพิ่มประสิทธิภาพแบบจำลอง เพื่อให้คุณสามารถมุ่งเน้นไปที่วัตถุประสงค์ทางธุรกิจของคุณได้มากขึ้น

ชุดเครื่องมือเพิ่มประสิทธิภาพการอนุมานช่วยให้คุณปรับปรุงประสิทธิภาพด้านต้นทุนและเวลาในการวางตลาดสำหรับแอปพลิเคชัน AI แบบสร้าง ชุดเครื่องมือเพิ่มประสิทธิภาพแบบจำลองที่มีการจัดการอย่างเต็มที่ช่วยให้คุณสามารถเข้าถึงเทคนิคการเพิ่มประสิทธิภาพล่าสุดด้วยเครื่องมือที่ใช้งานง่าย นอกจากนี้ยังง่ายต่อการอัปเกรดเป็นโซลูชันที่ดีที่สุดที่มีอยู่เมื่อเวลาผ่านไป เนื่องจากชุดเครื่องมือปรับให้เข้ากับนวัตกรรมล้ำสมัย ฮาร์ดแวร์ใหม่ และคุณสมบัติโฮสติ้งอย่างต่อเนื่อง

ชุดเครื่องมือเพิ่มประสิทธิภาพการอนุมานรองรับเทคนิคการเพิ่มประสิทธิภาพเช่นการถอดรหัสเก็งกำไร การหาปริมาณ และการรวบรวม คุณสามารถเลือกการเพิ่มประสิทธิภาพที่คุณต้องการเพิ่มลงในโมเดลของคุณได้ในไม่กี่คลิก และ Amazon SageMaker จะจัดการงานที่ยากต้องใช้เวลานานและใช้แรงงานมากที่ไม่แตกต่างทั้งหมดของการจัดหาฮาร์ดแวร์ เลือกสภาพแวดล้อมแบบล่วงหน้าการเรียนรู้เชิงลึกและพารามิเตอร์การปรับแต่งที่สอดคล้องกันเพื่อเรียกใช้งานการเพิ่มประสิทธิภาพ จากนั้นบันทึกสิ่งประดิษฐ์โมเดลที่ได้รับการปรับให้เหมาะสมในตำแหน่ง S3 ที่คุณจัดไว้

สำหรับการถอดรหัสเก็งกำไร คุณสามารถเริ่มต้นด้วย SageMaker รุ่นร่าง เพื่อให้คุณไม่ต้องสร้างโมเดลร่างของคุณเองตั้งแต่เริ่มต้น และขอกำหนดเส้นทางและการเพิ่มประสิทธิภาพระดับระบบ ด้วย Quantization คุณเพียงเลือกประเภทความแม่นยำที่คุณต้องการใช้และเริ่มงานเปรียบเทียบเพื่อวัดผลการเปรียบเทียบประสิทธิภาพและความแม่นยำ Amazon SageMaker จะสร้างรายงานการประเมินที่ครอบคลุมเพื่อให้คุณสามารถวิเคราะห์การแลกเปลี่ยนระหว่างประสิทธิภาพและความแม่นยำได้อย่างง่ายดาย ด้วย Compilation สำหรับโมเดลยอดนิยมและการกำหนดค่าโมเดล Amazon SageMaker จะดึงสิ่งประดิษฐ์โมเดลที่รวบรวมโดยอัตโนมัติระหว่างการตั้งค่าและปรับขนาดปลายทางซึ่งจะช่วยขจัดความจำเป็นที่คุณต้องเรียกใช้งานการรวบรวมล่วงหน้าช่วยประหยัดค่าใช้จ่ายด้านฮาร์ดแวร์

ชุดเครื่องมือเพิ่มประสิทธิภาพการอนุมานของ Amazon SageMaker ช่วยลดต้นทุนและเวลาของคุณในการเพิ่มประสิทธิภาพโมเดล GenAI ช่วยให้คุณมุ่งเน้นไปที่วัตถุประสงค์ทางธุรกิจของคุณ

SageMaker Canvas เป็นบริการแบบไม่มีโค้ดพร้อมอินเทอร์เฟซแบบชี้แล้วคลิก (point-and-click) ที่ใช้งานง่าย ซึ่งช่วยให้คุณสร้างการคาดการณ์ตาม ML ที่แม่นยำสูงจากข้อมูลของคุณได้ SageMaker Canvas ช่วยให้คุณสามารถเข้าถึงและรวมข้อมูลจากแหล่งข้อมูลที่หลากหลายโดยใช้อินเทอร์เฟซผู้ใช้แบบลากและวาง ทำความสะอาดและเตรียมข้อมูลโดยอัตโนมัติเพื่อลดความจำเป็นในการล้างด้วยตนเอง SageMaker Canvas ใช้อัลกอริทึม ML ล้ำสมัยที่หลากหลายเพื่อค้นหาแบบจำลองการทำนายที่แม่นยำสูงและให้อินเทอร์เฟซที่ใช้งานง่ายเพื่อทำการคาดการณ์ คุณสามารถใช้ SageMaker Canvas เพื่อทำการคาดการณ์ที่แม่นยำยิ่งขึ้นในแอปพลิเคชันทางธุรกิจที่หลากหลาย และทำงานร่วมกับนักวิทยาศาสตร์และนักวิเคราะห์ข้อมูลในองค์กรของคุณได้อย่างง่ายดายโดยแบ่งปันโมเดล ข้อมูล และรายงานของคุณ หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับ SageMaker Canvas โปรดดู คำถามที่พบบ่อยของ Amazon SageMaker Canvas

ด้วย SageMaker Canvas คุณจะจ่ายตามการใช้งานจริง SageMaker Canvas ช่วยให้คุณนำเข้าข้อมูล สำรวจ และเตรียมข้อมูลจากหลายแหล่งข้อมูลเชิงโต้ตอบ ฝึกโมเดล ML ที่มีความแม่นยำสูงด้วยข้อมูลของคุณ และสร้างการคาดการณ์ มีสององค์ประกอบที่กำหนดค่าใบเรียกเก็บเงินของคุณ ได้แก่ ค่าใช้จ่ายเซสชันตามจำนวนชั่วโมงที่ใช้ SageMaker Canvas หรือเข้าสู่ระบบ และค่าใช้จ่ายสำหรับการฝึกโมเดลตามขนาดของชุดข้อมูลที่ใช้ในการสร้างโมเดล หากต้องการทราบข้อมูลเพิ่มเติม โปรดดู ราคา Amazon SageMaker Canvas

เวิร์กโฟลว์ ML

เปิดทั้งหมด

Amazon SageMaker Pipelines ช่วยให้คุณสร้างเวิร์กโฟลว์ ML แบบอัตโนมัติเต็มรูปแบบตั้งแต่การเตรียมข้อมูลไปจนถึงการนำโมเดลไปใช้จริง เพื่อให้คุณสามารถปรับขนาดโมเดล ML หลายพันโมเดลในช่วงการผลิตได้ คุณสามารถสร้างไปป์ไลน์ด้วย SageMaker Python SDK รวมถึงดู เรียกใช้ และตรวจสอบจากอินเทอร์เฟซที่แสดงเป็นภาพของ SageMaker Studio ได้ SageMaker Pipelines ดูแลจัดการข้อมูลระหว่างขั้นตอน สร้างแพ็คเกจของสูตรโค้ด และควบคุมการเรียกใช้ ช่วยลดเวลาการเขียนโค้ดจากหลายเดือนให้เหลือเพียงไม่กี่ชั่วโมง ทุกครั้งที่เวิร์กโฟลว์เริ่มทำงาน จะมีการบันทึกข้อมูลที่ประมวลผลและการดำเนินการทั้งหมดไว้เพื่อให้นักวิทยาศาสตร์ข้อมูลและนักพัฒนา ML สามารถแก้ไขปัญหาได้อย่างรวดเร็ว

คุณสามารถใช้ขั้นตอนการลงทะเบียนโมเดลใน SageMaker Pipeline เพื่อรวมโมเดลทั้งหมดที่เป็นผู้สมัครสำหรับการปรับใช้ในที่เดียวได้ ในภายหลังคุณหรือคนอื่นในทีมของคุณสามารถค้นพบ ทบทวน และอนุมัติโมเดลเหล่านี้เพื่อปรับใช้ในรีจิสทรีโมเดล SageMaker ได้ทั้งผ่าน SageMaker Studio UI หรือ Python SDK
SageMaker Pipeline ประกอบด้วย 'ขั้นตอนต่าง ๆ' คุณสามารถเลือกประเภทขั้นตอนใดก็ได้ที่รองรับแบบดั้งเดิมเพื่อเขียนเวิร์กโฟลว์ที่เรียกใช้คุณสมบัติ SageMaker ต่างๆ (เช่น การฝึก การประเมินผล) หรือบริการ AWS อื่น ๆ (เช่น EMR, Lambda) นอกจากนี้ คุณยังสามารถยกและเปลี่ยนโค้ด ML Python ที่มีอยู่ของคุณไปใน SageMaker Pipeline โดยใช้ตัวตกแต่ง ‘@step’ python หรือเพิ่มโน้ตบุ๊ค python ทั้งหมดเป็นส่วนประกอบของ Pipeline สำหรับรายละเอียดเพิ่มเติม โปรดดูที่คู่มือผู้พัฒนา SageMaker Pipeline
SageMaker Pipelines จะติดตามส่วนประกอบของโมเดลทั้งหมดโดยอัตโนมัติและเก็บติดตามการตรวจสอบการเปลี่ยนแปลงทั้งหมด ซึ่งจะช่วยลดการติดตามด้วยตนเอง และสามารถช่วยให้คุณบรรลุเป้าหมายการปฏิบัติตามข้อกำหนด คุณสามารถติดตามข้อมูล รหัส โมเดลที่ผ่านการฝึก และอื่นๆ ได้ด้วย SageMaker Pipeline

ไม่มีค่าใช้จ่ายเพิ่มเติมสำหรับ SageMaker Pipeline คุณจ่ายเฉพาะสำหรับการคำนวณพื้นฐานหรือบริการ AWS แยกต่างหากที่คุณใช้ใน SageMaker Pipeline เท่านั้น

ใช่ Amazon SageMaker Components for Kubeflow Pipelines เป็นปลั๊กอินแบบโอเพนซอร์สที่อนุญาตให้คุณใช้ Kubeflow Pipelines เพื่อกำหนดเวิร์กโฟลว์ ML ของคุณและใช้ SageMaker สำหรับขั้นตอนการติดป้าย การฝึกอบรม และการอนุมานข้อมูล Kubeflow Pipelines เป็นส่วนเสริมของ Kubeflow ที่ให้คุณสร้างและใช้จริงไปป์ไลน์ ML แบบ ครบวงจรที่เคลื่อนย้ายได้และปรับขนาดได้ อย่างไรก็ตาม เมื่อใช้ Kubeflow Pipelines ทีม ML Ops จำเป็นต้องจัดการคลัสเตอร์ Kubernetes ด้วยอินสแตนซ์ CPU และ GPU และรักษาระดับการใช้งานให้สูงตลอดเวลาเพื่อลดต้นทุนในการดำเนินงาน การใช้คลัสเตอร์ให้เกิดประโยชน์สูงสุดในทีมวิทยาศาสตร์ข้อมูลเป็นเรื่องท้าทายและเพิ่มค่าใช้จ่ายในการดำเนินงานเพิ่มเติมให้กับทีม ML Ops SageMaker Components for Kubeflow Pipelines ที่เป็นทางเลือกสำหรับคลัสเตอร์ Kubernetes ที่ปรับให้เหมาะสมกับ ML ช่วยให้คุณสามารถใช้ประโยชน์จากคุณสมบัติ SageMaker ที่ทรงพลัง เช่น การติดป้ายข้อมูล การปรับแต่งไฮเปอร์พารามิเตอร์ขนาดใหญ่ที่มีการจัดการอย่างเต็มรูปแบบและงานฝึกแบบกระจาย การติดตั้งใช้จริงโมเดลที่ปลอดภัยและปรับขนาดได้เพียงคลิกเดียว และการฝึกที่มีประสิทธิภาพผ่านอินสแตนซ์สปอต Amazon Elastic Compute Cloud (Amazon EC2) โดยไม่จำเป็นต้องกำหนดค่าและจัดการคลัสเตอร์ Kubernetes โดยเฉพาะเพื่อเรียกใช้งานแมชชีนเลิร์นนิ่ง

ไม่มีค่าใช้จ่ายเพิ่มเติมสำหรับการใช้ส่วนประกอบ SageMaker สำหรับ Kubeflow Pipeline 

มนุษย์ทำงานร่วมกับระบบ

เปิดทั้งหมด

Human-in-the-Loop คือกระบวนการของการใช้ประโยชน์จากข้อมูลของมนุษย์ตลอดวงจรชีวิต ML เพื่อปรับปรุงความแม่นยำและความตรงประเด็นของโมเดล มนุษย์สามารถทำงานที่หลากหลาย ตั้งแต่การสร้างข้อมูลและการทำคำอธิบายประกอบไปจนถึงการตรวจสอบโมเดลและการปรับแต่ง การแทรกแซงของมนุษย์มีความสำคัญอย่างยิ่งสำหรับการใช้งาน AI ช่วยสร้าง โดยที่มนุษย์มักจะเป็นทั้งผู้ขอและผู้บริโภคเนื้อหา ดังนั้นจึงเป็นสิ่งสำคัญที่มนุษย์จะต้องฝึกฝนโมเดลพื้นฐาน (FM) ในการตอบสนองอย่างถูกต้อง ปลอดภัย และตรงประเด็นกับคำแนะนำของผู้ใช้ ข้อเสนอแนะของมนุษย์สามารถนำไปใช้เพื่อช่วยให้คุณทำงานหลายอย่างเสร็จสมบูรณ์ ประการแรก การสร้างชุดข้อมูลการฝึกฝนที่มีป้ายกำกับคุณภาพสูงสำหรับแอปพลิเคชัน AI ช่วยสร้างผ่านการเรียนรู้แบบมีผู้ดูแล (โดยที่มนุษย์จำลองสไตล์ ความยาว และความแม่นยำของวิธีที่โมเดลควรตอบสนองต่อคำแนะนำของผู้ใช้) และการเสริมสร้างการเรียนรู้ด้วยข้อเสนอแนะของมนุษย์ (โดยที่มนุษย์จัดอันดับและจำแนกการตอบสนองโมเดล) ประการที่สอง การใช้ข้อมูลที่มนุษย์สร้างขึ้นเพื่อปรับแต่ง FM ในงานที่เฉพาะเจาะจงหรือข้อมูลเฉพาะของบริษัท และหัวข้อของคุณ และทำให้ผลลัพธ์โมเดลมีความตรงประเด็นกับคุณ

ความสามารถของ Human-in-the-loop มีบทบาทสำคัญในการสร้างและปรับปรุงแอปพลิเคชัน AI ช่วยสร้างที่ขับเคลื่อนโดย FM พนักงานมนุษย์ที่มีทักษะสูงซึ่งได้รับการฝึกฝนเกี่ยวกับแนวทางของงานสามารถให้ข้อเสนอแนะ คำแนะนำ อินพุต และประเมินในกิจกรรม เช่น การสร้างข้อมูลสาธิตเพื่อฝึกฝน FM แก้ไขและปรับปรุงการตอบสนองของตัวอย่าง ปรับแต่งโมเดลตามข้อมูลของบริษัทและอุตสาหกรรม ทำหน้าที่เป็นการป้องกันความเป็นพิษและความอคติและอื่น ๆ ความสามารถของ Human-in-the-Loop จึงสามารถปรับปรุงความแม่นยำและประสิทธิภาพของโมเดลได้ 

Amazon SageMaker Ground Truth นำเสนอชุดความสามารถของ Human-in-the-Loop ที่ครอบคลุมที่สุด มีสองวิธีในการใช้ Amazon SageMaker Ground Truth ซึ่งเป็นข้อเสนอบริการตนเองและข้อเสนอที่ได้รับการจัดการของ AWS ในการให้บริการด้วยตนเอง ผู้ประกาศข้อมูล ผู้สร้างเนื้อหา และวิศวกรพรอมต์ (ภายในบริษัท ผู้จัดการ ผู้จัดจำหน่าย หรือใช้ประโยชน์จากฝูงชนสาธารณะ) สามารถใช้อินเทอร์เฟซผู้ใช้ที่มีการเขียนโค้ดน้อยที่สุดของเราเพื่อเร่งการทำงานของ Human-in-the-Loop ในขณะเดียวกันก็มีความยืดหยุ่นในการสร้างและจัดการเวิร์กโฟลว์ที่กำหนดเองของคุณเอง ในข้อเสนอที่มีการจัดการ AWS (SageMaker Ground Truth Plus) เราจัดการกับภาระหนักให้คุณ ซึ่งรวมถึงการเลือกและจัดการพนักงานที่เหมาะสมสำหรับกรณีการใช้งานของคุณ SageMaker Ground Truth Plus ออกแบบและปรับแต่งเวิร์กโฟลว์แบบครบวงจรแ (รวมถึงการฝึกฝนพนักงานโดยละเอียดและขั้นตอนการประกันคุณภาพ) และจัดเตรียมทีมที่มีทักษะที่ได้รับการจัดการของ AWS ซึ่งได้รับการฝึกฝนเกี่ยวกับงานเฉพาะและตรงตามข้อกำหนดด้านคุณภาพข้อมูล ความปลอดภัย และการปฏิบัติตามข้อกำหนดของคุณ 

เตรียมข้อมูล

เปิดทั้งหมด

SageMaker Data Wrangler ลดเวลาในการรวมและเตรียมข้อมูลสำหรับแมชชีนเลิร์นนิง (ML) ด้วย SageMaker Studio คุณจะสามารถเรียกดูและนำเข้าข้อมูลจาก Amazon S3, Amazon Athena, Amazon Redshift, AWS Lake Formation, Amazon EMR, Snowflake และ Databricks ได้ในไม่กี่ขั้นตอนจากอินเทอร์เฟซเดียว นอกจากนี้คุณยังสามารถสืบค้นและนำเข้าข้อมูลที่ถ่ายโอนจากแหล่งที่มาของข้อมูลมากกว่า 50 แหล่งและที่ลงทะเบียนในแค็ตตาล็อกข้อมูลของ AWS Glue ด้วย Amazon AppFlow SageMaker Data Wrangler จะโหลด รวม และแสดงข้อมูลดิบโดยอัตโนมัติ หลังจากนำเข้าข้อมูลของคุณไปยัง SageMaker Data Wrangler แล้วคุณจะมองเห็นสรุปคอลัมน์และฮิสโตแกรมที่สร้างขึ้นโดยอัตโนมัติ จากนั้นคุณสามารถเจาะลึกเพื่อทำความเข้าใจข้อมูลของคุณและระบุหาข้อผิดพลาดที่อาจเกิดขึ้นได้ด้วยรายงานด้านคุณภาพและข้อมูลเชิงลึกของ SageMaker Data Wrangler ซึ่งแสดงสถิติสรุปและคำเตือนด้านคุณภาพข้อมูล นอกจากนี้คุณยังสามารถวิเคราะห์อคติที่รองรับโดย SageMaker Clarify โดยตรงจาก SageMaker Data Wrangler ได้เพื่อตรวจจับอคติที่อาจเกิดขึ้นระหว่างการเตรียมข้อมูล จากจุดนั้น คุณสามารถใช้การแปลงข้อมูลที่สร้างไว้แล้วล่วงหน้าของ SageMaker Data Wrangler เพื่อเตรียมข้อมูลได้ เมื่อเตรียมข้อมูลแล้ว คุณสามารถสร้างเวิร์กโฟลว์ ML ที่เป็นอัตโนมัติด้วย Amazon SageMaker Pipelines แล้วส่งออกข้อมูลนั้นไปยัง Amazon SageMaker Feature Store

SageMaker Data Wrangler รองรับข้อมูลตาราง อนุกรมเวลา และข้อมูลภาพ โดยนำเสนอการแปลงข้อมูลที่กำหนดค่าไว้ล่วงหน้ามากกว่า 300 รายการเพื่อเตรียมรูปแบบข้อมูลที่แตกต่างกันเหล่านี้ สำหรับลูกค้าที่ต้องการเตรียมข้อมูลข้อความใน Data Wrangler สำหรับกรณีการใช้งาน NLP Data Wrangler รองรับไลบรารี NLTK เพื่อให้ลูกค้าสามารถเตรียมข้อมูลข้อความโดยการสร้างการแปลงแบบกำหนดเองใน Data Wrangler
SageMaker Data Wrangler มีตัวเลือกการแปลงข้อมูลตาม PySpark ที่สร้างไว้แล้วให้เลือกใช้กว่า 300 แบบ เพื่อให้คุณสามารถแปลงข้อมูลและปรับขนาดเวิร์กโฟลว์การเตรียมข้อมูลได้โดยไม่ต้องเขียนโค้ดแม้แต่บรรทัดเดียว นอกจากนี้ คุณสามารถแปลงข้อมูลสำหรับโมเดล ML ได้โดยใช้อินเทอร์เฟซภาษาธรรมชาติที่ขับเคลื่อนด้วย FM หรือเขียนส่วนย่อยของโค้ดแบบกำหนดเองจากไลบรารีส่วนย่อยของโค้ดของ SageMaker Data Wrangler
SageMaker Data Wrangler ช่วยให้คุณเข้าใจข้อมูลของคุณ ระบุข้อผิดพลาดและค่าสุดขีดที่อาจเกิดขึ้นได้ด้วยชุดเทมเพลตการสร้างภาพที่กำหนดค่าไว้ล่วงหน้าซึ่งทำงานได้อย่างมีประสิทธิภาพยอดเยี่ยม ฮิสโตแกรม แผนภูมิจุดแบบกระจัดกระจาย และการแสดงภาพเฉพาะสำหรับ ML เช่น การตรวจจับการรั่วไหลของเป้าหมาย ทั้งหมดสามารถใช้ได้โดยไม่ต้องเขียนโค้ดแม้แต่บรรทัดเดียว นอกจากนี้ คุณยังสามารถสร้างและแก้ไขการแสดงภาพของคุณเองได้อีกด้วย

คุณจ่ายเงินสำหรับทรัพยากรการคำนวณ การจัดเก็บ และการประมวลผลข้อมูล ML ทั้งหมดที่คุณใช้สำหรับ SageMaker Data Wrangler คุณสามารถตรวจสอบรายละเอียดทั้งหมดของราคา SageMaker Data Wrangler ได้ ที่นี่ ในฐานะส่วนหนึ่งของ AWS Free Tier คุณสามารถเริ่มต้นใช้งาน SageMaker Data Wrangler ได้ฟรี

SageMaker Data Wrangler มอบประสบการณ์แบบครบวงจรที่ช่วยให้คุณสามารถเตรียมข้อมูลและฝึกโมเดลแมชชีนเลิร์นนิงอย่างราบรื่นใน SageMaker Canvas SageMaker Canvas จะสร้าง ฝึก และปรับแต่งโมเดล ML ที่ดีที่สุดโดยอัตโนมัติโดยอ้างอิงจากข้อมูลของคุณ นอกจากนี้ คุณยังสามารถใช้ฟีเจอร์ที่เตรียมไว้ใน SageMaker Data Wrangler กับโมเดลที่คุณมีอยู่เดิมได้ คุณสามารถกำหนดค่างานการประมวลผลของ SageMaker Data Wrangler ให้ทำงานเป็นส่วนหนึ่งของไปป์ไลน์การฝึก SageMaker ของคุณได้ทั้งโดยการกำหนดค่างานที่อินเทอร์เฟซผู้ใช้ (UI) หรือการส่งออกโน้ตบุ๊กที่มีโค้ดการควบคุมระบบได้
คุณสามารถกำหนดค่าและเปิดใช้งานงานการประมวลผล SageMaker ได้โดยตรงจาก SageMaker Data Wrangler UI รวมถึงการจัดตารางงานการประมวลผลข้อมูลและการพารามิเตอร์แหล่งข้อมูลของคุณเพื่อเปลี่ยนชุดข้อมูลใหม่ในระดับได้อย่างง่ายดาย
เมื่อคุณเตรียมข้อมูลแล้ว SageMaker Data Wrangler มีตัวเลือกที่แตกต่างกันสำหรับการส่งเสริมโฟลว์ของ SageMaker Data Wrangler ของคุณไปยังการผลิตและรวมเข้ากับความสามารถ MLOP และ CI/CD ได้อย่างราบรื่น คุณสามารถกำหนดค่าและเปิดใช้งานงานการประมวลผล SageMaker ได้โดยตรงจาก SageMaker Data Wrangler UI รวมถึงการจัดตารางงานการประมวลผลข้อมูลและการพารามิเตอร์แหล่งข้อมูลของคุณเพื่อเปลี่ยนชุดข้อมูลใหม่ในระดับได้อย่างง่ายดาย อีกทางเลือกหนึ่ง SageMaker Data Wrangler รวมเข้ากับการประมวลผล SageMaker และคอนเทนเนอร์ SageMaker Spark ได้อย่างราบรื่น ช่วยให้คุณสามารถใช้ SageMaker SDK เพื่อผสานรวม SageMaker Data Wrangler เข้ากับเวิร์กโฟลว์การผลิตของคุณได้อย่างง่ายดาย
ในไม่กี่ขั้นตอน SageMaker Data Wrangler จะแยกและฝึกโมเดล XGBoost ที่มีไฮเปอร์พารามิเตอร์เริ่มต้น จากประเภทของปัญหา SageMaker Data Wrangler ให้ข้อมูลสรุปแบบจำลอง สรุปคุณลักษณะ และเมทริกซ์ความสับสนเพื่อให้ข้อมูลเชิงลึกแก่คุณได้อย่างรวดเร็ว เพื่อให้คุณสามารถทำซ้ำขั้นตอนการเตรียมข้อมูลได้
SageMaker Data Wrangler รองรับเทคนิคการสุ่มตัวอย่างต่าง ๆ เช่น Top-K การสุ่มตัวอย่างแบบสุ่มและแบบชั้นสำหรับการนำเข้าข้อมูล เพื่อให้คุณสามารถแปลงข้อมูลของคุณได้อย่างรวดเร็วโดยใช้ SageMaker Data Wrangler UI หากคุณใช้ชุดข้อมูลขนาดใหญ่หรือกว้าง คุณสามารถเพิ่มขนาดอินสแตนซ์ SageMaker Data Wrangler เพื่อปรับปรุงประสิทธิภาพได้ เมื่อคุณสร้างโฟลว์ของคุณแล้ว คุณสามารถประมวลผลชุดข้อมูลทั้งหมดได้โดยใช้งานประมวลผล SageMaker Data Wrangler
ใช่ คุณสามารถกำหนดค่า SageMaker Feature Store เป็นจุดหมายตำแหน่งข้อมูลสำหรับฟีเจอร์ของคุณที่เตรียมไว้ใน SageMaker Data Wrangler ได้ ขั้นตอนนี้สามารถทำได้โดยตรงใน UI หรือคุณสามารถส่งออกโน้ตบุ๊คที่สร้างขึ้นโดยเฉพาะสำหรับการประมวลผลข้อมูลด้วย SageMaker Feature Store เป็นตำแหน่งข้อมูล

SageMaker Feature Store เป็นพื้นที่เก็บข้อมูลที่สร้างขึ้นตามวัตถุประสงค์ที่มีการจัดการเต็มรูปแบบเพื่อจัดเก็บ แบ่งปัน และจัดการกับคุณสมบัติสำหรับโมเดลแมชชีนเลิร์นนิ่ง (ML) สามารถค้นพบและแชร์ฟีเจอร์เพื่อนำกลับมาใช้ใหม่ได้ง่ายในรุ่นและทีมด้วยการเข้าถึงและการควบคุมที่ปลอดภัย รวมถึงในบัญชี AWS SageMaker Feature Store รองรับทั้งฟีเจอร์ออนไลน์และออฟไลน์สำหรับการอนุมานแบบเรียลไทม์ การอนุมานแบบแบทช์ และการฝึก นอกจากนี้ ยังจัดการท่อวิศวกรรมคุณสมบัติแบบแบทช์และสตรีมมิ่งเพื่อลดการซ้ำกันในการสร้างฟีเจอร์และปรับปรุงความแม่นยำของโมเดล

ฟีเจอร์ออฟไลน์มักเป็นข้อมูลในอดีตจำนวนมากที่ใช้สำหรับการฝึกและการอนุมานแบบแบตช์ ฟีเจอร์ออฟไลน์จะถูกเก็บรักษาไว้เป็นอ็อบเจกต์ที่มีความพร้อมใช้งานและความคงทนสูง
ฟีเจอร์ออนไลน์ถูกใช้ในแอปพลิเคชันเพื่อทำการคาดการณ์แบบเรียลไทม์ ฟีเจอร์ออนไลน์ให้บริการจากร้านค้าที่มีอัตราการโอนถ่ายข้อมูลสูงซึ่งรองรับเวลาแฝงเป็นมิลลิวินาทีหลักเดียวจากแอปพลิเคชันไคลเอนต์เพื่อการคาดการณ์ที่รวดเร็ว
SageMaker Feature Store จะรักษาความสอดคล้องระหว่างคุณสมบัติออนไลน์และออฟไลน์โดยอัตโนมัติโดยไม่ต้องมีการจัดการหรือโค้ดเพิ่มเติม เพื่อความสอดคล้องกันในสภาพแวดล้อมการฝึกและการอนุมานได้
ที่เก็บฟีเจอร์ของ SageMaker เก็บรักษาไทม์แสตมป์ของฟีเจอร์ทั้งหมดและมีวิธีการในตัวในการช่วยให้คุณสามารถดึงข้อมูลฟีเจอร์จากทุกช่วงเวลาได้ สำหรับธุรกิจหรือความต้องการในการปฏิบัติตามข้อกำหนด แทนที่จะเขียนการสืบค้นข้อมูล SQL ที่ซับซ้อนหรือเขียนโค้ดจำนวนมาก คุณสามารถเรียกใช้วิธีการที่มีอยู่ในตัวเพื่อเดินทางย้อนเวลาและเชื่อมต่อไปยังจุดเวลานั้นๆ อย่างแม่นยำเพื่อสร้างชุดข้อมูลสำหรับการฝึกและการอนุมานแบบแบทต์ของช่วงเวลาที่คุณสนใจได้

สามารถเริ่มใช้งาน SageMaker Feature Store ได้โดยไม่ค่าใช้จ่ายเพราะเป็นส่วนหนึ่งของ AWS Free Tier ด้วย SageMaker Feature Store คุณจะจ่ายเงินสำหรับการเขียนลงในฟีเจอร์สโตร์ และการอ่านและการจัดเก็บจากร้านค้าฟีเจอร์ออนไลน์ สำหรับรายละเอียดราคา โปรดดู ราคา Amazon SageMaker

SageMaker มอบข้อเสนอการระบุประเภทข้อมูลสองแบบ ได้แก่ Amazon SageMaker Ground Truth Plus และ Amazon SageMaker Ground Truth ทั้งสองตัวเลือกช่วยให้คุณสามารถระบุข้อมูลดิบ เช่น รูปภาพ ไฟล์ข้อความ และวิดีโอ และเพิ่มป้ายกำกับข้อมูลเพื่อสร้างชุดข้อมูลการฝึกคุณภาพสูงสำหรับโมเดล ML ของคุณ หากต้องการเรียนรู้เพิ่มเติม โปรดดูการระบุประเภทข้อมูลของ Amazon SageMaker

ข้อมูลเชิงพื้นที่แสดงลักษณะหรือวัตถุบนพื้นผิวโลก ข้อมูลที่มีตำแหน่งที่ตั้งประเภทแรกคือข้อมูลเวกเตอร์ ซึ่งใช้รูปทรงเรขาคณิตสองมิติ เช่น จุด เส้น หรือรูปหลายเหลี่ยมเพื่อแสดงวัตถุ เช่น ถนนและอาณาเขตที่ดิน ข้อมูลที่มีตำแหน่งที่ตั้งประเภทที่สองคือข้อมูลแรสเตอร์ เช่น ภาพที่รวบรวมโดยดาวเทียม แพลตฟอร์มทางอากาศ หรือแพลตฟอร์มการสำรวจระยะไกล ชนิดข้อมูลนี้ใช้เมทริกซ์ของพิกเซลเพื่อกำหนดตำแหน่งของคุณสมบัติ คุณสามารถใช้ข้อมูลรูปแบบแรสเตอร์ในการจัดเก็บข้อมูลที่แตกต่างกันไปได้ ข้อมูลที่มีตำแหน่งที่ตั้งประเภทที่สามคือข้อมูลตำแหน่งที่ตั้งที่ติดแท็กทางภูมิศาสตร์ โดยจะมีจุดสนใจ อย่างเช่น หอไอเฟล โพสต์บนโซเชียลมีเดียที่แท็กตำแหน่ง พิกัดละติจูดและลองจิจูด หรือรูปแบบและรูปแบบต่างๆ ของที่อยู่
ความสามารถเชิงพื้นที่ของ SageMaker ช่วยให้นักวิทยาศาสตร์ข้อมูลและวิศวกร ML สร้าง ฝึก และนำโมเดล ML ไปใช้สำหรับการคาดการณ์ได้ง่ายขึ้นโดยใช้ข้อมูลเชิงพื้นที่ คุณสามารถนำข้อมูลของคุณมาใช้เองได้ ตัวอย่างเช่น ข้อมูลดาวเทียม Planet Labs จาก Amazon S3 หรือรับข้อมูลจาก Open Data บน AWS, Amazon Location Service และแหล่งที่มาของข้อมูลเชิงพื้นที่ของ SageMaker อื่นๆ
คุณสามารถใช้ความสามารถของ SageMaker ที่มีตำแหน่งที่ตั้งเพื่อคาดการณ์ข้อมูลที่มีตำแหน่งที่ตั้งได้เร็วกว่าโซลูชั่นที่ทำด้วยตนเอง SageMaker ที่มีตำแหน่งที่ตั้งช่วยให้เข้าถึงข้อมูลที่มีตำแหน่งที่ตั้งได้ง่ายขึ้นจาก Data Lake ชุดข้อมูลแบบโอเพนซอร์ส และแหล่งที่มาของข้อมูลที่มีตำแหน่งที่ตั้งอื่นๆ ของ SageMaker ที่มีอยู่ของคุณ ความสามารถเชิงพื้นที่ของ SageMaker ลดความจำเป็นในการสร้างโครงสร้างพื้นฐานแบบกำหนดเองและฟังก์ชันการประมวลผลข้อมูลล่วงหน้าโดยการนำเสนออัลกอริทึมที่สร้างขึ้นตามวัตถุประสงค์เพื่อการเตรียมข้อมูลที่มีประสิทธิภาพ การฝึกฝนโมเดล และการอนุมาน คุณยังสามารถสร้างและแชร์การแสดงภาพและข้อมูลที่กำหนดเองกับองค์กรของคุณจาก SageMaker Studio ความสามารถเชิงพื้นที่ของ SageMaker รวมถึงโมเดลที่ได้รับการฝึกฝนมาล่วงหน้าสำหรับการใช้งานทั่วไปในด้านการเกษตร อสังหาริมทรัพย์ การประกันภัย และบริการทางการเงิน

สร้างโมเดล

เปิดทั้งหมด
คุณสามารถใช้ Jupyter Notebook ที่มีการจัดการอย่างเต็มรูปแบบใน SageMaker เพื่อการพัฒนา ML ตั้งแต่ต้นจนจบได้ ปรับขนาดอินสแตนซ์การประมวลผลให้มากขึ้นหรือน้อยลงด้วยตัวเลือกอินสแตนซ์ที่หลากหลายทั้งแบบเพิ่มประสิทธิภาพการประมวลผลและเร่ง GPU ในระบบคลาวด์

SageMaker Studio Notebooks คือ Jupyter Notebook แบบคลิกเดียวที่สามารถเริ่มต้นการทำงานได้อย่างรวดเร็ว ทรัพยากรการประมวลผลที่สำคัญและซ่อนอยู่มีความยืดหยุ่นเต็มรูปแบบ คุณจึงสามารถปรับทรัพยากรที่มีอยู่ขึ้นหรือลงได้ง่าย ส่วนการเปลี่ยนแปลงก็จะเกิดขึ้นโดยอัตโนมัติในพื้นหลังโดยไม่รบกวนการทำงานของคุณ นอกจากนี้ SageMaker ยังช่วยให้สามารถแชร์โน๊ตบุ๊คได้ด้วยการคลิกครั้งเดียว คุณสามารถแชร์ Notebook กับผู้อื่นได้อย่างง่ายดาย และผู้อื่นก็จะได้ Notebook เดียวกันกับที่คุณบันทึกไว้ในที่เดียวกัน

ด้วยโน้ตบุ๊ค SageMaker Studio คุณสามารถลงชื่อเข้าใช้ด้วยข้อมูลประจำตัวขององค์กรของคุณโดยใช้ IAM Identity Center การแชร์โน้ตบุ๊คภายในและข้ามทีมเป็นเรื่องง่าย เนื่องจากการอ้างอิงที่จำเป็นในการเรียกใช้โน้ตบุ๊คจะถูกติดตามโดยอัตโนมัติในภาพการทำงานที่ห่อหุ้มเข้ากับโน้ตบุ๊คขณะแชร์

โน้ตบุ๊กใน SageMaker Studio IDE นำเสนอคุณสมบัติที่สำคัญบางประการที่แตกต่างจากโน้ตบุ๊กแบบอิงอินสแตนซ์ ขั้นแรก คุณสามารถเปิดใช้โน้ตบุ๊กได้อย่างรวดเร็วโดยไม่ต้องจัดเตรียมอินสแตนซ์ด้วยตนเองและรอให้ใช้งานได้ เวลาเริ่มต้นของการเปิดใช้งาน UI เพื่ออ่านและดำเนินการกับโน้ตบุ๊กนั้นเร็วกว่าโน้ตบุ๊กแบบอิงอินสแตนซ์ คุณยังมีความยืดหยุ่นในการเลือกคอลเลกชันประเภทอินสแตนซ์จำนวนมากจากภายใน UI ได้ตลอดเวลา คุณไม่จำเป็นต้องไปที่คอนโซลการจัดการของ AWS เพื่อเริ่มต้นอินสแตนซ์ใหม่และพอร์ตบนโน้ตบุ๊กของคุณ ผู้ใช้แต่ละรายมีโฮมไดเร็กทอรีแยกกัน โดยไม่ขึ้นอยู่กับอินสแตนซ์เฉพาะ ไดเร็กทอรีนี้จะถูกติดตั้งในเซิร์ฟเวอร์โน้ตบุ๊กและเคอร์เนลทั้งหมดโดยอัตโนมัติเมื่อเริ่มต้น ดังนั้นคุณจึงสามารถเข้าถึงโน้ตบุ๊กและไฟล์อื่นๆ ของคุณได้ แม้ว่าคุณจะสลับอินสแตนซ์เพื่อดูและเรียกใช้โน้ตบุ๊กของคุณก็ตาม โน้ตบุ๊ก SageMaker Studio ได้รับการผสานรวมกับศูนย์ข้อมูลประจำตัวของ AWS IAM (ต่อจาก AWS SSO) ทำให้ใช้ข้อมูลประจำตัวขององค์กรเพื่อเข้าถึงโน้ตบุ๊กได้ง่ายขึ้น นอกจากนี้ยังผสานรวมเข้ากับเครื่องมือ ML ที่สร้างขึ้นตามวัตถุประสงค์ใน SageMaker และบริการ AWS อื่นๆ เพื่อการพัฒนา ML ที่สมบูรณ์ของคุณ ตั้งแต่การเตรียมข้อมูลในระดับเพตะไบต์โดยใช้ Spark บน Amazon EMR โมเดลการฝึกและการแก้ไขจุดบกพร่อง ไปจนถึงการปรับใช้และตรวจสอบโมเดล และการจัดการไปป์ไลน์
โน้ตบุ๊ค SageMaker ใน Studio IDE ช่วยให้คุณเข้าถึงคุณลักษณะทั้งหมดของ SageMaker เช่น การฝึกแบบกระจาย การแปลงแบทช์ และการโฮสติ้ง คุณยังสามารถเข้าถึงบริการอื่น ๆ เช่นชุดข้อมูลใน Amazon S3, Amazon Redshift, AWS Glue, Amazon EMR หรือ AWS Lake Formation จากโน้ตบุ๊ค SageMaker
คุณจ่ายค่าทั้งการคำนวณและพื้นที่เก็บข้อมูลเมื่อคุณใช้โน้ตบุ๊ค SageMaker ใน IDE ของสตูดิโอ ดูราคา Amazon SageMaker สำหรับค่าใช้จ่ายตามประเภทอินสแตนซ์คำนวณ สมุดบันทึกของคุณและสิ่งประดิษฐ์ที่เกี่ยวข้องเช่นไฟล์ข้อมูลและสคริปต์จะคงอยู่ใน Amazon Elastic File System (Amazon EFS) ดูราคา Amazon EFS สำหรับค่าจัดเก็บ ในฐานะส่วนหนึ่งของ AWS Free Tier คุณสามารถเริ่มใช้งานโน๊ตบุ๊คใน SageMaker Studio ได้ฟรี

ไม่ คุณสามารถสร้างและเรียกใช้โน้ตบุ๊คหลายอันบนอินสแตนซ์คำนวณเดียวกันได้ คุณจ่ายเฉพาะสำหรับการคำนวณที่คุณใช้ไม่ใช่สำหรับรายการแต่ละรายการ คุณสามารถอ่านเพิ่มเติมเกี่ยวกับเรื่องนี้ได้ใน คู่มือการวัดของเรา

นอกจากโน้ตบุ๊คแล้ว คุณยังสามารถเริ่มและเรียกใช้เทอร์มินัลและเชลล์แบบโต้ตอบใน SageMaker Studio ทั้งหมดในอินสแตนซ์การประมวลผลเดียวกัน แต่ละแอปพลิเคชันทำงานภายในคอนเทนเนอร์หนึ่งหรือภาพหนึ่ง SageMaker Studio มีภาพในตัวหลายภาพที่สร้างขึ้นโดยเฉพาะและกำหนดค่าไว้ล่วงหน้าสำหรับวิทยาศาสตร์ข้อมูลและ ML

คุณสามารถตรวจสอบและ ปิด ทรัพยากรที่ใช้โดยโน้ตบุ๊ค SageMaker Studio ของคุณผ่านทั้งอินเทอร์เฟซภาพ SageMaker Studio และ AWS Management Console โปรดดูรายละเอียดเพิ่มเติมใน เอกสารประกอบ

ใช่ คุณจะถูกเรียกเก็บเงินสำหรับการคำนวณนั้นต่อไป ซึ่งคล้ายกับการเริ่มต้นอินสแตนซ์ Amazon EC2 ใน AWS Management Console แล้วปิดเบราว์เซอร์ อินสแตนซ์ Amazon EC2 ยังคงทำงานอยู่ และคุณยังคงต้องเสียค่าใช้จ่าย เว้นแต่คุณจะปิดอินสแตนซ์อย่างชัดเจน

ไม่ คุณจะไม่ถูกเรียกเก็บเงินสำหรับการสร้างหรือกำหนดค่าโดเมน SageMaker Studio รวมถึงการเพิ่ม อัปเดต และการลบโพรไฟล์ผู้ใช้

ในฐานะผู้ดูแลระบบ คุณสามารถดูรายการค่าใช้จ่ายเฉพาะสำหรับ SageMaker รวมถึง SageMaker Studio ในคอนโซลการเรียกเก็บเงิน AWS Billing จาก AWS Management Console สำหรับ SageMaker ให้เลือก บริการที่เมนูด้านบน พิมพ์ “การเรียกเก็บเงิน” ในช่องค้นหา แล้วเลือก การเรียกเก็บเงิน จากเมนูแบบเลื่อนลง จากนั้นเลือก เรียกเก็บเงิน ที่แผงด้านซ้าย ในส่วนรายละเอียด คุณสามารถเลือก SageMaker เพื่อขยายรายการภูมิภาค และดูค่าธรรมเนียมรายละเอียด

SageMaker Studio Lab เป็นสภาพแวดล้อมการพัฒนา ML ฟรีที่ให้การคำนวณ พื้นที่จัดเก็บ (สูงสุด 15 GB) และความปลอดภัยโดยไม่มีค่าใช้จ่ายสำหรับทุกคนที่จะเรียนรู้และทดลองกับ ML สิ่งที่คุณต้องใช้ในการเริ่มต้นคืออีเมลที่ถูกต้อง คุณไม่จำเป็นต้องกำหนดค่าโครงสร้างพื้นฐานหรือจัดการข้อมูลประจำตัวและการเข้าถึง หรือแม้แต่ลงทะเบียนสำหรับบัญชี AWS SageMaker Studio Lab เร่งการสร้างโมเดลผ่านการผสานรวม GitHub และมีการกำหนดค่าล่วงหน้าด้วยเครื่องมือ เฟรมเวิร์ก และไลบรารี ML ที่ได้รับความนิยมมากที่สุดเพื่อให้คุณเริ่มต้นได้ทันที SageMaker Studio Lab บันทึกงานของคุณโดยอัตโนมัติ ดังนั้นคุณจึงไม่จำเป็นต้องรีสตาร์ทระหว่างเซสชัน มันง่ายพอ ๆ กับการปิดแล็ปท็อปของคุณและกลับมาใช้อีกครั้งในภายหลัง
SageMaker Studio Lab มีไว้สำหรับนักเรียน นักวิจัย และนักวิทยาศาสตร์ข้อมูลที่ต้องการสภาพแวดล้อมการพัฒนาสมุดบันทึกฟรีโดยไม่มีการตั้งค่าสำหรับการเรียนและการทดลอง ML SageMaker Studio Lab เหมาะสำหรับผู้ใช้ที่ไม่ต้องการสภาพแวดล้อมการผลิต แต่ยังต้องการชุดย่อยของฟังก์ชัน SageMaker เพื่อปรับปรุงทักษะ ML ของพวกเขา เซสชัน SageMaker จะถูกบันทึกโดยอัตโนมัติ ช่วยให้ผู้ใช้สามารถเลือกตำแหน่งที่หยุดไว้สำหรับแต่ละเซสชันของผู้ใช้
SageMaker Studio Lab เป็นบริการที่สร้างขึ้นบน AWS และใช้บริการหลักหลายอย่างเดียวกับ Amazon SageMaker Studio เช่น Amazon S3 และ Amazon EC2 ลูกค้าจะไม่ต้องการบัญชี AWS ซึ่งแตกต่างจากบริการอื่น ๆ แต่จะสร้างบัญชีเฉพาะ SageMaker Studio Lab พร้อมที่อยู่อีเมล สิ่งนี้จะช่วยให้ผู้ใช้เข้าถึงสภาพแวดล้อมที่ จำกัด (พื้นที่เก็บข้อมูล 15 GB และเซสชัน 12 ชั่วโมง) เพื่อให้พวกเขาสามารถเรียกใช้โน้ตบุ๊ค ML

โมเดลฝึกฝน

เปิดทั้งหมด
Amazon SageMaker HyperPod สร้างขึ้นเพื่อเร่งการพัฒนาโมเดลพื้นฐาน (FM) มีโครงสร้างพื้นฐานที่ยืดหยุ่นมากขึ้นซึ่งได้รับการปรับแต่งเหมาะสมสำหรับการฝึกฝนแบบกระจายขนาดใหญ่ ช่วยให้คุณฝึกฝนกับตัวเร่งนับพันได้เร็วขึ้น โดยจะตรวจจับ วินิจฉัย และฟื้นตัวจากความผิดพลาดโดยอัตโนมัติ ดังนั้นคุณสามารถฝึกฝน FM เป็นเวลาหลายเดือนโดยไม่มีการหยุดชะงัก SageMaker HyperPod ได้รับการกำหนดค่าล่วงหน้าด้วยไลบรารีการฝึกฝนแบบกระจายของ SageMaker เพื่อช่วยให้คุณปรับปรุงประสิทธิภาพได้อย่างเป็นอย่างดีโดยการกระจายข้อมูลการฝึกฝนโมเดลเป็นชิ้นเล็ก ๆ เพื่อให้สามารถประมวลผลแบบขนานผ่านตัวเร่งได้
หากคุณต้องการเวิร์กโหลดการฝึกฝนที่ยาวนานขึ้นและใหญ่ขึ้นซึ่งต้องใช้อินสแตนซ์การประมวลผลจำนวนมาก เช่น GPU หรือตัวเร่ง AWS คุณสามารถใช้ SageMaker HyperPod เพื่อประสบการณ์ที่ยืดหยุ่นมากขึ้นเพื่อลดเวลาในการฝึกฝน

ใช่ SageMaker สามารถแจกจ่ายแบบจำลองการเรียนรู้เชิงลึกและชุดการฝึกขนาดใหญ่ในอินสแตนซ์ AWS GPU โดยอัตโนมัติในเวลาเพียงเล็กน้อยที่ต้องใช้ในการสร้างและเพิ่มประสิทธิภาพกลยุทธ์การกระจายเหล่านี้ด้วยตนเอง เทคนิคการฝึกแบบกระจายสองอย่างที่ SageMaker ใช้คือ ความขนานของข้อมูลและความขนานแบบจำลอง การขนานของข้อมูลถูกนำมาใช้เพื่อปรับปรุงความเร็วในการฝึกโดยแบ่งข้อมูลอย่างเท่าเทียมกันในอินสแตนซ์ GPU หลายอินสแตนซ์ ทำให้แต่ละอินสแตนซ์สามารถฝึกพร้อมกัน ความขนานของโมเดลมีประโยชน์สำหรับรุ่นที่มีขนาดใหญ่เกินไปที่จะจัดเก็บไว้ใน GPU เดียว และต้องแบ่งโมเดลออกเป็นส่วนที่เล็กกว่าก่อนที่จะกระจายผ่าน GPU หลายตัว ด้วยโค้ดเพิ่มเติมเพียงไม่กี่บรรทัดในสคริปต์การฝึก PyTorch และ TensorFlow ของคุณ SageMaker จะใช้ความขนานของข้อมูลหรือความขนานแบบจำลองสำหรับคุณได้โดยอัตโนมัติ ช่วยให้คุณสามารถพัฒนาและปรับใช้โมเดลของคุณได้เร็วขึ้น SageMaker จะกำหนดวิธีการที่ดีที่สุดในการแบ่งโมเดลของคุณโดยใช้อัลกอริทึมการแบ่งพาร์ติชันกราฟเพื่อปรับสมดุลการคำนวณของ GPU แต่ละตัว ในขณะที่ลดการสื่อสารระหว่างอินสแตนซ์ GPU นอกจากนี้ SageMaker ยังเพิ่มประสิทธิภาพงานการฝึกแบบกระจายของคุณผ่านอัลกอริทึมที่ใช้การประมวลผลและเครือข่าย AWS อย่างเต็มที่เพื่อให้ได้ประสิทธิภาพการปรับขนาดใกล้เชิงเส้น ซึ่งช่วยให้คุณฝึกเสร็จสมบูรณ์ได้เร็วกว่าการใช้งานโอเพนซอร์สแบบแมนนวล

Amazon SageMaker Experiments ช่วยให้คุณจัดระเบียบและติดตามการทำซ้ำโมเดล ML SageMaker Experiments ช่วยให้คุณจัดการการทำซ้ำโดยการบันทึกพารามิเตอร์อินพุต การกำหนดค่า และผลลัพธ์โดยอัตโนมัติ แล้วจัดเก็บข้อมูลดังกล่าวเป็น “Experiments” คุณสามารถสร้างการทดลอง Amazon SageMaker เพื่อติดตามเวิร์กโฟลว์ ML ของคุณด้วยโค้ดสองสามบรรทัดจากสภาพแวดล้อมการพัฒนาที่คุณต้องการได้ นอกจากนี้ คุณยังสามารถรวมการทดลอง SageMaker เข้ากับสคริปต์การฝึก SageMaker ของคุณได้โดยใช้ SageMaker Python SDK
SageMaker Debugger จับเมตริกแบบเรียลไทม์ในระหว่างการฝึกโดยอัตโนมัติ เช่น เมทริกซ์ความสับสนและการไล่ระดับการเรียนรู้เพื่อช่วยปรับปรุงความแม่นยำของโมเดล โดยสามารถมองเห็นเมตริกจาก SageMaker Debugger ได้ใน SageMaker Studio เพื่อให้ทำความเข้าใจได้อย่างง่ายดาย SageMaker Debugger ยังสามารถสร้างคำเตือนและคำแนะนำในการแก้ไขได้เมื่อตรวจพบปัญหาทั่วไปในการฝึก SageMaker Debugger ยังตรวจสอบและโพรไฟล์ทรัพยากรระบบเช่น CPU GPU เครือข่ายและหน่วยความจำแบบเรียลไทม์โดยอัตโนมัติและให้คำแนะนำเกี่ยวกับการจัดสรรทรัพยากรเหล่านี้อีกครั้ง สิ่งนี้ช่วยให้คุณใช้ทรัพยากรได้อย่างมีประสิทธิภาพในระหว่างการฝึกและช่วยลดต้นทุนและทรัพยากร
Managed Spot Training พร้อมด้วย SageMaker ช่วยให้คุณฝึกโมเดล ML ของคุณโดยใช้อินสแตนซ์ Amazon EC2 Spot ในขณะที่ลดต้นทุนในการฝึกโมเดลของคุณได้ถึง 90%
คุณเปิดใช้งานตัวเลือก Managed Spot Training เมื่อส่งงานฝึก และคุณยังระบุว่าคุณต้องการรอความจุของสปอตได้นานแค่ไหน จากนั้นSageMaker จะใช้ Amazon EC2 Spot Instances เพื่อเรียกใช้งานของคุณและจัดการความจุของ Spot คุณสามารถมองเห็นสถานะของงานฝึกของคุณได้อย่างเต็มที่ ทั้งในขณะที่กำลังใช้งานและขณะที่พวกเขากำลังรอความสามารถ
Managed Spot Training เหมาะอย่างยิ่งเมื่อคุณมีความยืดหยุ่นในการใช้งานการฝึกและเมื่อคุณต้องการลดค่าใช้จ่ายในการฝึกของคุณ ด้วย Managed Spot Training คุณสามารถลดค่าใช้จ่ายในการฝึกโมเดล ML ของคุณได้ถึง 90%
Managed Spot Training ใช้อินสแตนซ์ Amazon EC2 Spot สำหรับการฝึก และอินสแตนซ์เหล่านี้สามารถล่วงหน้าได้เมื่อ AWS ต้องการความจุ ด้วยเหตุนี้ งาน Managed Spot Training สามารถทำงานได้ทีละเล็กน้อยเมื่อมีกำลังการผลิต งานฝึกไม่จำเป็นต้องรีสตาร์ทตั้งแต่เริ่มต้นเมื่อมีการหยุดชะงัก เนื่องจาก SageMaker สามารถทำงานฝึกต่อโดยใช้จุดตรวจสอบรุ่นล่าสุด เฟรมเวิร์กในตัวและอัลกอริทึมการมองเห็นคอมพิวเตอร์ในตัวด้วย SageMaker เปิดใช้งานจุดตรวจสอบเป็นระยะ และคุณสามารถเปิดใช้งานจุดตรวจสอบด้วยโมเดลที่กำหนดเองได้
เราขอแนะนำจุดตรวจเป็นระยะเป็นแนวทางปฏิบัติทั่วไปสำหรับงานฝึกที่ยาวนาน วิธีนี้จะป้องกันไม่ให้งานการฝึกสปอตแบบจัดการของคุณเริ่มต้นใหม่หากความจุถูกตัดสินใจล่วงหน้า เมื่อคุณเปิดใช้งานจุดตรวจสอบ SageMaker จะกลับมาทำงานการฝึกสปอตที่มีการจัดการของคุณจากจุดตรวจสอบครั้งสุดท้าย
เมื่องาน Managed Spot Training เสร็จสิ้น คุณสามารถดูการประหยัดได้ใน AWS Management Console และยังคำนวณการประหยัดต้นทุนเป็นเปอร์เซ็นต์ความแตกต่างระหว่างระยะเวลาที่งานการฝึกดำเนินไปและระยะเวลาที่เรียกเก็บเงินจากคุณ ไม่ว่าจะมีการขัดจังหวะงานการฝึกสปอตแบบจัดการของคุณกี่ครั้ง คุณจะถูกเรียกเก็บเงินเพียงครั้งเดียวสำหรับระยะเวลาที่ดาวน์โหลดข้อมูล
การฝึกสปอตที่มีการจัดการสามารถใช้กับอินสแตนซ์ทั้งหมดที่รองรับใน SageMaker

การฝึกสปอตที่มีการจัดการได้รับการสนับสนุนในทุกภูมิภาคที่มี SageMaker อยู่ในปัจจุบัน

ไม่มีขีดจำกัดคงที่สำหรับขนาดของชุดข้อมูลที่คุณสามารถใช้สำหรับโมเดลการฝึกด้วย SageMaker

SageMaker มีอัลกอริธึมในตัวสำหรับรีเกรสชันเชิงเส้น รีเกรสชันทางโลจิสติก การจัดกลุ่ม K-Means การวิเคราะห์องค์ประกอบหลัก เครื่องแยกตัวประกอบ การสร้างแบบจำลองหัวข้อประสาท การจัดสรรไดริชเลต์แฝง แผนผังที่เพิ่มการไล่ระดับสี sequence2sequence การพยากรณ์อนุกรมเวลา word2vec และการจัดหมวดหมู่รูปภาพ SageMaker ยังมีคอนเทนเนอร์ Apache MXNet, Tensorflow, Chainer, PyTorch, Gluon, Keras, Horovod, Scikit-learn และ Deep Graph Library ที่ได้รับการปรับปรุงอีกด้วย นอกจากนี้ SageMaker ยังรองรับอัลกอริธึมการฝึกที่คุณกำหนดเองซึ่งจัดทำผ่าน Docker Image ที่เป็นไปตามข้อกำหนดเฉพาะที่จัดทำเป็นเอกสาร
อัลกอริทึม ML จะส่วนใหญ่เปิดเผยว่าพารามิเตอร์ที่หลากหลายที่ควบคุมการทำงานของอัลกอริทึมพื้นฐานอย่างไร พารามิเตอร์เหล่านั้นโดยทั่วไปเรียกว่าไฮเปอร์พารามิเตอร์และค่าที่ได้ส่งผลต่อคุณภาพของโมเดลที่ผ่านการฝึก การปรับแต่งโมเดลอัตโนมัติคือกระบวนการค้นหาชุดไฮเปอร์พารามิเตอร์สำหรับอัลกอริทึมที่สามารถให้โมเดลที่เหมาะสมได้
คุณสามารถเรียกใช้การปรับแต่งโมเดลอัตโนมัติใน SageMaker บนอัลกอริทึมใดก็ได้ตราบใดก็ตามที่สามารถทำได้ทางวิทยาศาสตร์ รวมถึงอัลกอริทึม SageMaker ในตัว เครือข่ายประสาทเชิงลึก หรืออัลกอริทึมตามอำเภอใจที่คุณนำไปใช้ SageMaker ในรูปแบบของภาพ Docker

ยังใช้ไม่ได้ในขณะนี้ ประสิทธิภาพและประสบการณ์การปรับแต่งรุ่นที่ดีที่สุดอยู่ใน SageMaker

ปัจจุบันอัลกอริทึมสำหรับการปรับแต่งไฮเปอร์พารามิเตอร์เป็นการนำไปใช้แบบปรับแต่งของ Bayesian Optimization มีจุดมุ่งหมายเพื่อเพิ่มประสิทธิภาพเมตริกวัตถุประสงค์ที่ลูกค้าระบุไว้ตลอดกระบวนการปรับแต่ง โดยเฉพาะอย่างยิ่ง จะตรวจสอบเมตริกวัตถุของงานฝึกที่เสร็จสมบูรณ์และใช้ความรู้เพื่อสรุปการรวมกันของไฮเปอร์พารามิเตอร์สำหรับงานฝึกต่อไป

ไม่ ไฮเปอร์พารามิเตอร์บางอย่างมีผลต่อประสิทธิภาพของโมเดลอย่างไรขึ้นอยู่กับปัจจัยต่างๆ และเป็นเรื่องยากที่จะบอกอย่างชัดเจนว่าไฮเปอร์พารามิเตอร์หนึ่งมีความสำคัญกว่าพารามิเตอร์อื่น ๆ ดังนั้นจึงจำเป็นต้องปรับแต่ง สำหรับอัลกอริทึมในตัวภายใน SageMaker เราจะแจ้งว่าไฮเปอร์พารามิเตอร์สามารถปรับได้หรือไม่

ระยะเวลาสำหรับงานปรับแต่งไฮเปอร์พารามิเตอร์ขึ้นอยู่กับปัจจัยหลายประการ รวมถึงขนาดของข้อมูล อัลกอริทึมพื้นฐาน และค่าของไฮเปอร์พารามิเตอร์ นอกจากนี้ลูกค้าสามารถเลือกจำนวนงานฝึกพร้อมกันและจำนวนงานฝึกทั้งหมด ตัวเลือกทั้งหมดเหล่านี้ส่งผลต่อระยะเวลาที่งานปรับแต่งไฮเปอร์พารามิเตอร์สามารถใช้งานได้นานเท่าใด

ยังใช้ไม่ได้ในขณะนี้ ปัจจุบัน คุณต้องระบุตัวชี้วัดวัตถุประสงค์เดียวเพื่อเพิ่มประสิทธิภาพหรือเปลี่ยนโค้ดอัลกอริทึมของคุณเพื่อปล่อยเมตริกใหม่ ซึ่งเป็นค่าเฉลี่ยถ่วงน้ำหนักระหว่างเมตริกที่มีประโยชน์สองตัวขึ้นไปและให้กระบวนการปรับแต่งให้เหมาะสมกับเมตริกวัตถุประสงค์นั้น

ไม่มีค่าใช้จ่ายสำหรับงานปรับแต่งไฮเปอร์พารามิเตอร์เอง คุณจะถูกเรียกเก็บเงินจากงานฝึกที่เปิดตัวโดยงานปรับแต่งไฮเปอร์พารามิเตอร์ โดยอิงจาก ราคาการฝึกแบบจำลอง

SageMaker Autopilot นั้นดำเนินการทุกอย่างโดยอัตโนมัติในเวิร์กโฟลว์ ML ทั่วไป รวมถึงการประมวลผลฟีเจอร์ล่วงหน้า การเลือกอัลกอริทึม และการปรับแต่งไฮเปอร์พารามิเตอร์ ในขณะที่มุ่งเน้นไปที่กรณีการใช้งานการจัดหมวดหมู่และการรีเกรสชั่นโดยเฉพาะ ในทางกลับกัน การปรับแต่งโมเดลอัตโนมัติ ได้รับการออกแบบมาเพื่อปรับแต่งโมเดลใดๆ ไม่ว่าจะขึ้นอยู่กับอัลกอริธึมในตัว เฟรมเวิร์กดีปเลิร์นนิง หรือคอนเทนเนอร์แบบกำหนดเองก็ตาม เพื่อแลกกับความยืดหยุ่น คุณต้องเลือกอัลกอริธึมที่ต้องการ ไฮเปอร์พารามิเตอร์ที่ต้องการปรับแต่ง และช่วงการค้นหาที่เกี่ยวข้องด้วยตนเอง

การเรียนรู้เสริมแรงเป็นเทคนิคหนึ่งของ ML ที่ช่วยให้เอเจนต์สามารถเรียนรู้ในสภาพแวดล้อมแบบโต้ตอบได้โดยการทดลองเพื่อเรียนรู้โดยใช้ข้อเสนอแนะจากการกระทำและประสบการณ์ของตนเอง

ได้ คุณสามารถฝึกโมเดลการเรียนรู้เสริมแรงได้ใน SageMaker นอกเหนือจากแบบจำลองการเรียนรู้ที่ควบคุมและไม่มีการดูแล

แม้ว่าทั้งการเรียนรู้ที่มีการควบคุมและการเสริมกำลังจะใช้การทำแผนที่ระหว่างอินพุตและเอาต์พุต แต่แตกต่างจากการเรียนรู้ที่ควบคุมโดยที่ข้อเสนอแนะที่ให้แก่เอเจนต์เป็นชุดการกระทำที่ถูกต้องสำหรับการปฏิบัติงาน การเรียนรู้แบบเสริมแรงใช้ข้อเสนอแนะที่ล่าช้าซึ่งสัญญาณรางวัลได้รับการปรับให้เหมาะสมผ่านลำดับของการกระทำต่าง ๆ เพื่อให้แน่ใจว่าเป้าหมายระยะยาว

ในขณะที่เป้าหมายของเทคนิคการเรียนรู้ที่มีการกำกับดูแลคือการค้นหาคำตอบที่ถูกต้องตามรูปแบบในข้อมูลการฝึก แต่เป้าหมายของเทคนิคการเรียนรู้ที่ไม่มีการดูแลคือการค้นหาความคล้ายคลึงกันและความแตกต่างระหว่างจุดข้อมูล ในทางตรงกันข้าม เป้าหมายของเทคนิคการเรียนรู้เสริมแรง (RL) คือการเรียนรู้วิธีบรรลุผลลัพธ์ที่ต้องการแม้ว่าจะไม่ชัดเจนว่าจะบรรลุผลลัพธ์นั้นได้อย่างไร ด้วยเหตุนี้ RL จึงเหมาะสำหรับการใช้งานอัจฉริยะที่ตัวแทนสามารถตัดสินใจได้อย่างอิสระ เช่น หุ่นยนต์ ยานพาหนะอัตโนมัติ HVAC การควบคุมอุตสาหกรรม และอื่นๆ

Amazon SageMaker RL รองรับสภาพแวดล้อมที่แตกต่างกันมากมายสำหรับการฝึกรุ่น RL คุณสามารถใช้บริการ AWS เช่น AWS RoboMaker สภาพแวดล้อมโอเพนซอร์สหรือสภาพแวดล้อมที่กำหนดเองที่พัฒนาโดยใช้อินเทอร์เฟซ Open AI Gym หรือสภาพแวดล้อมการจำลองเชิงพาณิชย์เช่น MATLAB และ SimuLink

ไม่ SageMaker RL มีชุดเครื่องมือ RL เช่น Coach และ Ray RlLib ที่นำเสนอการใช้งานอัลกอริทึมเอเจนต์ RL เช่น DQN, PPO, A3C และอื่น ๆ อีกมากมาย

ใช่ คุณสามารถนำไลบรารี RL และการใช้งานอัลกอริทึมของคุณเองใน Docker Containers และเรียกใช้ไฟล์เหล่านั้นใน SageMaker RL

ใช่ นอกจากนี้ คุณยังสามารถเลือกคลัสเตอร์ที่แตกต่างกันซึ่งการฝึกสามารถทำงานบนอินสแตนซ์ GPU และการจำลองสามารถทำงานบนอินสแตนซ์ CPU หลายอินสแตนซ์ได้

ปรับใช้โมเดล

เปิดทั้งหมด
หลังจากที่คุณสร้างและฝึกโมเดลแล้ว SageMaker จะมีตัวเลือกสามตัวเลือกในการปรับใช้ เพื่อให้คุณสามารถเริ่มคาดการณ์ได้ การอนุมานแบบเรียลไทม์เหมาะสำหรับเวิร์กโหลดที่มีความต้องการเวลาแฝงในระดับมิลลิวินาที ขนาดเพย์โหลดสูงสุด 6 MB และเวลาประมวลผลสูงสุด 60 วินาที การแปลงเป็นชุดเหมาะอย่างยิ่งสำหรับการคาดการณ์แบบออฟไลน์สำหรับข้อมูลจำนวนมากที่มีอยู่ล่วงหน้า การอนุมานแบบอะซิงโครนัสได้รับการออกแบบมาสำหรับเวิร์กโหลดที่ไม่มีข้อกำหนดด้านเวลาแฝงรองวินาที ขนาดเพย์โหลดสูงสุด 1 GB และเวลาประมวลผลสูงสุด 15 นาที
SageMaker Inferencia แบบอะซิงโครนัส จัดคิวคำขอที่เข้ามาและประมวลผลแบบอะซิงโครนัส ตัวเลือกนี้เหมาะสำหรับคำขอที่มีขนาดเพย์โหลดขนาดใหญ่และ/หรือเวลาในการประมวลผลที่ยาวนานซึ่งจำเป็นต้องประมวลผลเมื่อมาถึง นอกจากนี้ คุณยังสามารถกำหนดค่าการปรับขนาดอัตโนมัติให้ปรับการนับอินสแตนซ์เป็นศูนย์เพื่อประหยัดค่าใช้จ่ายได้

คุณสามารถลดขนาดอินสแตนซ์ตำแหน่งข้อมูล SageMaker Asynchronous Inference ให้เป็นศูนย์ได้ เพื่อประหยัดค่าใช้จ่ายเมื่อคุณไม่ได้กำลังประมวลผลคำขออยู่ คุณต้องกำหนดนโยบายการปรับขนาดที่ปรับขนาดตามเมตริกที่กำหนดเอง "ApproximateBacklogPerInstance" และตั้งค่า "MinCapacity" ให้เป็นศูนย์ สำหรับคำแนะนำทีละขั้นตอน โปรดไปที่ส่วน ตำแหน่งข้อมูลแบบอะซิงโครนัสปรับขนาดอัตโนมัติของคู่มือนักพัฒนา 

SageMaker Serverless Inference เป็นตัวเลือกการให้บริการ เป็นโมเดลไร้เซิร์ฟเวอร์ที่สร้างขึ้นโดยเฉพาะ ซึ่งทำให้ง่ายต่อการปรับใช้และปรับขนาดโมเดล ML จุดตำแหน่งข้อมูลของ SageMaker Serverless Inference จะเริ่มทรัพยากรการคำนวณโดยอัตโนมัติและปรับขนาดเข้าและออกขึ้นอยู่กับปริมาณการรับส่งข้อมูล ทำให้คุณไม่จำเป็นต้องเลือกประเภทอินสแตนซ์ เรียกใช้ความจุที่จัดเตรียมไว้ หรือจัดการการปรับขนาด คุณสามารถระบุข้อกำหนดของหน่วยความจำสำหรับตำแหน่งข้อมูลอนุมานแบบไร้เซิร์ฟเวอร์ของคุณได้ คุณจ่ายเฉพาะระยะเวลาในการเรียกใช้รหัสอนุมานและจำนวนข้อมูลที่ประมวลผลเท่านั้น ไม่ใช่สำหรับช่วงเวลาที่ไม่ได้ใช้งาน

SageMaker Serverless Inference ช่วยลดความยุ่งยากให้กับประสบการณ์นักพัฒนาโดยไม่จำเป็นต้องจัดเตรียมความจุล่วงหน้าและจัดการนโยบายการปรับขนาด SageMaker Serverless Inference สามารถปรับขนาดได้ทันทีตั้งแต่การอนุมานหลายสิบถึงหลายพันรายการภายในไม่กี่วินาทีตามรูปแบบการใช้งาน ทำให้เหมาะสำหรับแอปพลิเคชัน ML ที่มีการรับส่งข้อมูลไม่ต่อเนื่องหรือคาดเดาไม่ได้ ตัวอย่างเช่น บริการแชทบอทที่บริษัทประมวลผลเงินเดือนใช้ จะมีจำนวนการสอบถามเพิ่มขึ้นในช่วงปลายเดือนในขณะที่ส่วนที่เหลือของเดือนมีการเข้าชมเป็นระยะ ๆ การจัดสรรอินสแตนซ์สำหรับทั้งเดือนในสถานการณ์ดังกล่าวไม่คุ้มค่า เนื่องจากคุณต้องจ่ายสำหรับช่วงเวลาที่ไม่ได้ใช้งานด้วย SageMaker Serverless Inference ช่วยจัดการกับกรณีการใช้งานประเภทนี้โดยให้การปรับขนาดอัตโนมัติและรวดเร็วออกจากกล่องโดยไม่จำเป็นต้องคาดการณ์การเข้าชมล่วงหน้าหรือจัดการนโยบายการปรับขนาด นอกจากนี้คุณจ่ายเฉพาะเวลาในการคำนวณเพื่อเรียกใช้รหัสอนุมานของคุณ (เรียกเก็บเงินเป็นมิลลิวินาที) และสำหรับการประมวลผลข้อมูล ทำให้เป็นตัวเลือกที่คุ้มค่าสำหรับภาระงานที่มีการรับส่งข้อมูลเป็นระยะ
กระบวนการทำงานพร้อมกันมีการจัดสรรไว้ (Provisioned Concurrency) ที่ช่วยให้คุณสามารถปรับใช้โมเดลบนตำแหน่งข้อมูลแบบไร้เซิร์ฟเวอร์ด้วยประสิทธิภาพที่คาดการณ์ได้ พร้อมความสามารถในการปรับขนาดสูงเพื่อให้ดำเนินการ Warm ตำแหน่งข้อมูลของคุณสำหรับจำนวนคำขอพร้อมกันตามที่ระบุ

ด้วยตำแหน่งข้อมูลแบบไร้เซิร์ฟเวอร์แบบออนดีมานด์ หากตำแหน่งข้อมูลของคุณไม่ได้รับปริมาณการใช้งานเป็นระยะเวลาหนึ่ง และตำแหน่งข้อมูลของคุณจะได้รับคำขอใหม่ทันที อาจใช้เวลาสักครู่กว่าตำแหน่งข้อมูลของคุณจะหมุนทรัพยากรการคำนวณเพื่อประมวลผลคำขอ ซึ่งนี่เรียกว่าสตาร์ทแบบเย็น การสตาร์ทแบบเย็นอาจเกิดขึ้นได้หากคำขอพร้อมกันของคุณเกินการใช้งานคำขอพร้อมกันปัจจุบัน เวลาสตาร์ทแบบเย็นขึ้นอยู่กับขนาดโมเดลของคุณ ใช้เวลานานในการดาวน์โหลดโมเดลของคุณ และเวลาเริ่มต้นของคอนเทนเนอร์ของคุณ

เพื่อลดความแปรปรวนในโพรไฟล์ความหน่วงของคุณ คุณสามารถเปิดใช้งานการควบคู่กันแบบกำหนดไว้สำหรับตำแหน่งข้อมูลแบบไร้เซิร์ฟเวอร์ของคุณได้ ด้วยกระบวนการทำงานพร้อมกันที่มีการเตรียมใช้งาน ทำให้จุดตำแหน่งข้อมูลแบบไร้เซิร์ฟเวอร์ของคุณพร้อมเสมอและสามารถให้บริการปริมาณการรับส่งข้อมูลได้ทันทีโดยไม่ต้องเริ่มทำงานในช่วงเย็น

เมื่อใช้การอนุมานแบบไม่ต้องใช้เซิร์ฟเวอร์ตามความต้องการและเมื่อเปิดใช้งานกระบวนการทำงานพร้อมกันที่มีการจัดสรรไว้ คุณจะจ่ายค่าบริการสำหรับความสามารถในการคำนวณที่ใช้ประมวลผลคำขอการอนุมานเท่านั้น โดยจะเรียกเก็บเงินตามมิลลิวินาที และปริมาณของข้อมูลที่ประมวลผล นอกจากนี้ คุณยังต้องจ่ายเงินสำหรับกระบวนการทำงานพร้อมกันที่มีการจัดสรรไว้ โดยขึ้นอยู่กับหน่วยความจำที่กำหนดค่าไว้ ระยะเวลาที่จัดสรรไว้ และจำนวนของการทำงานพร้อมกันที่เปิดใช้งาน หากต้องการทราบข้อมูลเพิ่มเติม โปรดดู ราคา Amazon SageMaker

SageMaker ช่วยให้คุณสามารถเรียกใช้การทดสอบก่อนใช้งานจริง (Shadow Testing) เพื่อประเมินโมเดล ML ใหม่ก่อนการเปิดตัวจริงโดยการทดสอบประสิทธิภาพกับโมเดลที่ใช้งานอยู่ในปัจจุบัน SageMaker นำรุ่นใหม่ไปใช้ในโหมดเงาพร้อมกับรุ่นการผลิตปัจจุบัน และสะท้อนส่วนที่ผู้ใช้ระบุของปริมาณการผลิตไปยังรุ่นใหม่ ทางเลือกจะบันทึกการอนุมานแบบจำลองสำหรับการเปรียบเทียบแบบออฟไลน์ นอกจากนี้ยังมีแดชบอร์ดแบบสดพร้อมการเปรียบเทียบเมตริกประสิทธิภาพที่สำคัญ เช่น ความหน่วงและอัตราข้อผิดพลาด ระหว่างโมเดลการผลิตและแบบเงาเพื่อช่วยให้คุณตัดสินใจว่าจะส่งเสริมโมเดลใหม่ให้ผลิตหรือไม่
SageMaker ช่วยลดความยุ่งยากในการตั้งค่าและตรวจสอบตัวแปรเงาเพื่อให้คุณสามารถประเมินประสิทธิภาพของโมเดล ML ใหม่ในการรับส่งข้อมูลการผลิตแบบสด SageMaker ไม่จำเป็นต้องจัดระเบียบโครงสร้างพื้นฐานสำหรับการทดสอบเงา ช่วยให้คุณสามารถควบคุมพารามิเตอร์การทดสอบเช่น เปอร์เซ็นต์ของการรับส่งข้อมูลที่สะท้อนไปยังตัวแปรเงา และระยะเวลาของการทดสอบ เป็นผลให้คุณสามารถเริ่มต้นขนาดเล็กและเพิ่มคำขออนุมานไปยังรุ่นใหม่หลังจากที่คุณได้รับความมั่นใจในประสิทธิภาพของโมเดล SageMaker สร้างแดชบอร์ดแบบสดที่แสดงความแตกต่างของประสิทธิภาพในตัวชี้วัดที่สำคัญ เพื่อให้คุณสามารถเปรียบเทียบประสิทธิภาพของโมเดลได้อย่างง่ายดายเพื่อประเมินว่าโมเดลใหม่แตกต่างจากแบบจำลองการผลิตอย่างไร

SageMaker Inference Recomender ช่วยลดเวลาที่ต้องใช้ในการผลิตโมเดล ML โดยการเปรียบเทียบประสิทธิภาพและการปรับแต่งประสิทธิภาพของโมเดลโดยอัตโนมัติในอินสแตนซ์ SageMaker ML ตอนนี้คุณสามารถใช้ SageMaker Inference Recomender เพื่อปรับใช้โมเดลของคุณไปยังตำแหน่งข้อมูลที่ให้ประสิทธิภาพที่ดีที่สุดและลดต้นทุนได้แล้ว และคุณสามารถเริ่มต้นใช้งาน SageMaker Inference Recomender ได้ในไม่กี่นาทีในขณะที่เลือกประเภทอินสแตนซ์ และรับคำแนะนำสำหรับการกำหนดค่าตำแหน่งข้อมูลที่ดีที่สุดภายในไม่กี่ชั่วโมง ซึ่งจะช่วยลดเวลาในการทดสอบและปรับแต่งด้วยตนเองไปได้หลายสัปดาห์ ด้วย SageMaker Inference Recomender คุณจะจ่ายเฉพาะสำหรับอินสแตนซ์ SageMaker ML ที่ใช้ในระหว่างการทดสอบโหลด และไม่มีค่าใช้จ่ายเพิ่มเติม

คุณควรใช้ SageMaker Inference Recomender หากคุณต้องการคำแนะนำสำหรับการกำหนดค่าตำแหน่งข้อมูลที่ถูกต้องเพื่อปรับปรุงประสิทธิภาพและลดต้นทุน ก่อนหน้านี้ นักวิทยาศาสตร์ข้อมูลที่ต้องการปรับใช้โมเดลของพวกเขาต้องเรียกใช้เกณฑ์มาตรฐานด้วยตนเองเพื่อเลือกการกำหนดค่าตำแหน่งข้อมูลที่ถูกต้อง ก่อนอื่นพวกเขาต้องเลือกประเภทอินสแตนซ์ ML ที่เหมาะสมจากประเภทอินสแตนซ์ที่มีอยู่กว่า 70 ประเภทตามความต้องการทรัพยากรของโมเดลและเพย์โหลดตัวอย่าง จากนั้นจึงเพิ่มประสิทธิภาพโมเดลเพื่อคำนึงถึงฮาร์ดแวร์ที่แตกต่างกัน จากนั้นพวกเขาต้องทำการทดสอบโหลดอย่างกว้างขวางเพื่อตรวจสอบว่าตรงตามข้อกำหนดด้านความล่าช้าและปริมาณงานและต้นทุนต่ำ SageMaker Inference Recomender ช่วยลดความซับซ้อนนี้โดยทำให้ง่ายแก่คุณ: 1) เริ่มต้นใช้งานในไม่กี่นาทีด้วยคำแนะนำอินสแตนซ์ 2) ทำการทดสอบโหลดในประเภทอินสแตนซ์เพื่อรับคำแนะนำเกี่ยวกับการกำหนดค่าตำแหน่งข้อมูลภายในไม่กี่ชั่วโมง และ 3) ปรับพารามิเตอร์คอนเทนเนอร์และโมเดลเซิร์ฟเวอร์โดยอัตโนมัติ รวมทั้งดำเนินการเพิ่มประสิทธิภาพแบบจำลองสำหรับประเภทอินสแตนซ์ที่กำหนด
นักวิทยาศาสตร์ข้อมูลสามารถเข้าถึง SageMaker Inference Recomender จาก SageMaker Studio, AWS SDK สำหรับ Python (Boto3) หรือ AWS CLI พวกเขาสามารถรับคำแนะนำในการปรับใช้ภายใน SageMaker Studio ในรีจิสทรีโมเดล SageMaker สำหรับรุ่นที่ลงทะเบียน นักวิทยาศาสตร์ข้อมูลสามารถค้นหาและกรองคำแนะนำผ่าน SageMaker Studio, AWS SDK หรือ AWS CLI

ไม่ ขณะนี้เราสนับสนุนเฉพาะโมเดลเดียวต่อตำแหน่งข้อมูล

ปัจจุบันเรารองรับเฉพาะตำแหน่งข้อมูลแบบเรียลไทม์เท่านั้น

เราสนับสนุนภูมิภาคทั้งหมดที่รองรับโดย Amazon SageMaker ยกเว้นภูมิภาค AWS China

ใช่ รองรับ เราสนับสนุนคอนเทนเนอร์ทุกประเภท Amazon EC2 Inf1 ซึ่งใช้ชิป AWS Inferentia ต้องใช้สิ่งประดิษฐ์แบบจำลองที่รวบรวมโดยใช้คอมไพเลอร์ Neuron หรือ Amazon SageMaker Neo เมื่อคุณมีโมเดลที่รวบรวมสำหรับเป้าหมาย Inferentia และ URI ของภาพคอนเทนเนอร์ที่เกี่ยวข้อง คุณสามารถใช้ SageMaker Inference Recomender เพื่อเกณฑ์มาตรฐานประเภทอินสแตนซ์ Inferentia ที่แตกต่างกัน

SageMaker Model Monitor ช่วยให้นักพัฒนาตรวจพบและแก้ไขแนวคิดที่ไม่ตรงกัน SageMaker Model Monitor จะตรวจพบแนวคิดที่ไม่ตรงกันในโมเดลที่ติดตั้งใช้จริงและจะให้การแจ้งเตือนพร้อมรายละเอียดที่ช่วยระบุที่มาของปัญหา ทุกโมเดลที่ฝึกใน SageMaker จะกระจายเมตริกสำคัญโดยอัตโนมัติซึ่งสามารถเก็บรวบรวมและดูได้ใน SageMaker Studio คุณสามารถกำหนดค่าข้อมูลที่จะเก็บรวบรวม วิธีการดู และเวลาในการรับการแจ้งเตือนได้จากใน SageMaker Studio

ไม่ได้ เพราะ SageMaker ใช้งานโครงสร้างพื้นฐานการประมวลผลแทนคุณเพื่อให้สามารถตรวจสอบสุขภาพ ใช้แพทช์รักษาความปลอดภัย และดำเนินการซ่อมบำรุงประจำอื่นๆ ได้ คุณยังสามารถปรับใช้สิ่งประดิษฐ์แบบจำลองจากการฝึกด้วยโค้ดอนุมานที่กำหนดเองในสภาพแวดล้อมโฮสติ้งของคุณเอง

โฮสติ้ง SageMaker จะปรับขนาดตามประสิทธิภาพที่จำเป็นสำหรับแอปพลิเคชันของคุณโดยอัตโนมัติโดยใช้ Application Auto Scaling นอกจากนี้ คุณยังสามารถเปลี่ยนหมายเลขอินสแตนซ์และประเภทด้วยตนเองโดยไม่ต้องหยุดทำงานโดยการแก้ไขการกำหนดค่าตำแหน่งข้อมูล

SageMaker ปล่อยตัวชี้วัดประสิทธิภาพไปยัง Amazon CloudWatch Metrics เพื่อให้คุณสามารถติดตามเมตริก ตั้งค่าสัญญาณเตือน และตอบสนองต่อการเปลี่ยนแปลงของการเข้าชมการผลิตโดยอัตโนมัติ นอกจากนี้ SageMaker ยังเขียนบันทึกไปยัง Amazon CloudWatch Logs เพื่อให้คุณตรวจสอบและแก้ไขปัญหาสภาพแวดล้อมการผลิตของคุณด้วย

SageMaker สามารถโฮสต์โมเดลใดก็ได้ที่สอดคล้องกับข้อกำหนดที่บันทึกไว้สำหรับการอนุมานภาพ Docker ซึ่งรวมถึงโมเดลที่สร้างจากสิ่งประดิษฐ์แบบจำลอง SageMaker และโค้ดอนุมาน

SageMaker ได้รับการออกแบบมาเพื่อปรับขนาดธุรกรรมจำนวนมากต่อวินาที จำนวนที่แม่นยำจะแตกต่างกันไปตามโมเดลที่ปรับใช้และจำนวนและประเภทของอินสแตนซ์ที่โมเดลมีการปรับใช้

เนื่องจากเป็นบริการที่มีการจัดการแบบเต็มรูปแบบ Amazon SageMaker จะดูแลการตั้งค่าและการจัดการอินสแตนซ์ ความเข้ากันได้ของเวอร์ชันซอฟต์แวร์ และการแพตช์เวอร์ชัน นอกจากนี้ยังมีตัววัดและบันทึกในตัวสำหรับตำแหน่งข้อมูลที่คุณสามารถใช้เพื่อติดตามและรับการแจ้งเตือน ด้วยเครื่องมือ SageMaker และเวิร์กโฟลว์ที่มีแนวทาง ทำให้กระบวนการบรรจุภัณฑ์และการนำไปใช้จริงของโมเดล ML ทั้งหมดนั้นง่ายขึ้น ทำให้สามารถเพิ่มประสิทธิภาพตำแหน่งข้อมูลเพื่อให้ได้ประสิทธิภาพที่ต้องการและประหยัดค่าใช้จ่าย คุณสามารถปรับใช้โมเดล ML ของคุณรวมถึงโมเดลพื้นฐานได้อย่างง่ายดายด้วยการคลิกเพียงไม่กี่ครั้งใน SageMaker Studio หรือใช้ PySDK ใหม่

Batch Transform ช่วยให้คุณใช้การคาดคะเนบนชุดข้อมูลทั้งขนาดใหญ่หรือเล็กได้ ทำให้ไม่จำเป็นต้องแบ่งชุดข้อมูลออกเป็นหลายๆ ส่วนหรือจัดการตำแหน่งข้อมูลแบบเรียลไทม์ ด้วย API ที่เรียบง่าย คุณจะสามารถขอการคาดการณ์สำหรับบันทึกข้อมูลจำนวนมากและแปลงข้อมูลได้อย่างรวดเร็วและง่ายดาย

SageMaker รองรับตัวเลือกตำแหน่งข้อมูลต่อไปนี้: ตำแหน่งข้อมูลแบบโมเดลเดียว - โมเดลเดียวบนคอนเทนเนอร์ที่โฮสต์บน Dedicated Instance หรือแบบไม่ต้องใช้เซิร์ฟเวอร์เพื่อความหน่วงต่ำและอัตราการโอนถ่ายข้อมูลสูง ตำแหน่งข้อมูลหลายโมเดล - โฮสต์หลายโมเดลโดยใช้โครงสร้างพื้นฐานที่ใช้ร่วมกันเพื่อความคุ้มค่าและใช้ประโยชน์สูงสุด คุณสามารถควบคุมจำนวนการประมวลผลและหน่วยความจำที่แต่ละโมเดลสามารถใช้ได้เพื่อให้แน่ใจว่าแต่ละโมเดลสามารถเข้าถึงทรัพยากรที่จำเป็นในการทำงานได้อย่างมีประสิทธิภาพ ไปป์ไลน์อนุมานแบบอนุกรม - คอนเทนเนอร์หลายคอนเทนเนอร์ที่ใช้ร่วม Dedicated Instance และดำเนินการตามลำดับ คุณสามารถใช้ไปป์ไลน์การอนุมานเพื่อรวมงานด้านวิทยาศาสตร์ข้อมูลก่อนการประมวลผล การคาดคะเน และหลังการประมวลผลได้
คุณสามารถใช้นโยบายการปรับขนาดเพื่อปรับขนาดทรัพยากรการประมวลผลพื้นฐานโดยอัตโนมัติเพื่อรองรับความผันผวนในคำขอการอนุมาน คุณสามารถควบคุมนโยบายการปรับขนาดสำหรับ ML แต่ละโมเดลแบบแยกกันเพื่อจัดการกับการเปลี่ยนแปลงในการใช้งานโมเดลได้อย่างง่ายดาย และสามารถปรับต้นทุนโครงสร้างพื้นฐานให้เหมาะสมในขณะเดียวกันได้

SageMaker Edge Manager ช่วยให้การเพิ่มประสิทธิภาพ รักษาความปลอดภัย ตรวจสอบ และบำรุงรักษาโมเดล ML บนฟล็อตของอุปกรณ์ขอบได้ง่ายขึ้น เช่น กล้องอัจฉริยะ หุ่นยนต์ คอมพิวเตอร์ส่วนบุคคล และอุปกรณ์มือถือ SageMaker Edge Manager ช่วยให้นักพัฒนา ML ใช้งานโมเดล ML บนอุปกรณ์ขอบที่หลากหลายได้ในหลายระดับ

ในการเริ่มต้นใช้งาน SageMaker Edge Manager คุณจะต้องรวบรวมและจัดทำแพ็กเกจโมเดล ML ที่ได้รับการฝึกแล้วในระบบคลาวด์ ลงทะเบียนอุปกรณ์ของคุณ และเตรียมอุปกรณ์ของคุณด้วย SageMaker Edge Manager SDK เพื่อเตรียมโมเดลของคุณสำหรับการปรับใช้ SageMaker Edge Manager ให้ใช้ SageMaker Neo เพื่อรวบรวมโมเดลของคุณสำหรับฮาร์ดแวร์ Edge เป้าหมายของคุณ เมื่อรวบรวมโมเดลแล้ว SageMaker Edge Manager จะระบุโมเดลด้วยคีย์ที่ AWS สร้างขึ้น จากนั้นจัดแพ็กเกจโมเดลด้วยรันไทม์และข้อมูลประจำตัวที่จำเป็นของคุณเพื่อเตรียมพร้อมสำหรับการปรับใช้ ในด้านอุปกรณ์ คุณสามารถลงทะเบียนอุปกรณ์ของคุณกับ SageMaker Edge Manager ดาวน์โหลด SageMaker Edge Manager SDK จากนั้นทำตามคำแนะนำเพื่อติดตั้ง SageMaker Edge Manager บนอุปกรณ์ของคุณ โน้ตบุ๊กช่วยสอนมีตัวอย่างทีละขั้นตอนของวิธีการเตรียมโมเดลและเชื่อมต่อโมเดลของคุณบนอุปกรณ์ Edge ด้วย SageMaker Edge Manager

SageMaker Edge Manager รองรับอุปกรณ์ที่ใช้ CPU (ARM, x86) และ GPU (ARM, Nvidia) ทั่วไปพร้อมระบบปฏิบัติการ Linux และ Windows เมื่อเวลาผ่านไป SageMaker Edge Manager จะขยายเพื่อรองรับโปรเซสเซอร์แบบฝังตัวและแพลตฟอร์มมือถือที่ SageMaker Neo รองรับมากขึ้น

ไม่ คุณสามารถฝึกโมเดลของคุณที่อื่นหรือใช้โมเดลที่ผ่านการฝึกล่วงหน้าจากโอเพนซอร์สหรือจากผู้จำหน่ายโมเดลของคุณ

ใช่ คุณต้องใช้ SageMaker Neo แปลงและรวบรวมโมเดลของคุณให้เป็นไฟล์ปฏิบัติการซึ่งคุณสามารถแพ็คเกจและปรับใช้บนอุปกรณ์ Edge ของคุณได้ เมื่อมีการปรับใช้แพ็คเกจโมเดลเอเจนต์ SageMaker Edge Manager จะคลายแพ็คเกจโมเดลและเรียกใช้โมเดลบนอุปกรณ์

SageMaker Edge Manager จะจัดเก็บแพ็กเกจโมเดลไว้ในบัคเก็ต Amazon S3 ที่คุณระบุ คุณสามารถใช้ฟีเจอร์ Over-the-Air (OTA) ที่ให้บริการโดย AWS IoT Greengrass หรือกลไกการปรับใช้อื่นๆ ที่คุณเลือกเพื่อปรับใช้แพ็กเกจโมเดลจากบัคเก็ต S3 ของคุณไปยังอุปกรณ์

Neo dlr เป็นรันไทม์โอเพนซอร์สที่เรียกใช้เฉพาะโมเดลที่รวบรวมโดยบริการ SageMaker Neo เท่านั้น เมื่อเทียบกับ dlr แบบโอเพ่นซอร์ส SageMaker Edge Manager SDK ประกอบด้วยเอเจนต์บนอุปกรณ์ระดับองค์กรพร้อมคุณสมบัติการรักษาความปลอดภัย การจัดการโมเดล และการให้บริการโมเดลเพิ่มเติม SDK ของ SageMaker Edge Manager เหมาะสำหรับการปรับใช้การผลิตในระดับสเกล

SageMaker Edge Manager มีให้บริการในหกภูมิภาค ได้แก่ สหรัฐอเมริกาตะวันออก (เวอร์จิเนีย), สหรัฐอเมริกาตะวันออก (โอไฮโอ), สหรัฐอเมริกาตะวันตก (โอเรกอน), สหภาพยุโรป (ไอร์แลนด์), สหภาพยุโรป (แฟรงก์เฟิร์ต) และเอเชียแปซิฟิก (โตเกียว) สำหรับรายละเอียด โปรดดู รายการบริการภูมิภาค AWS

SageMaker Neo ช่วยให้โมเดล ML สามารถฝึกได้ครั้งเดียวและทำงานได้ทุกที่ในคลาวด์และที่ Edge SageMaker Neo เพิ่มประสิทธิภาพโมเดลที่สร้างขึ้นด้วยเฟรมเวิร์ก DL ยอดนิยมที่สามารถใช้ปรับใช้บนแพลตฟอร์มฮาร์ดแวร์ได้หลายแพลตฟอร์มโดยอัตโนมัติ โมเดลที่ปรับให้เหมาะสมจะทำงานได้เร็วขึ้นถึง 25 เท่าและใช้ทรัพยากรน้อยกว่าหนึ่งในสิบของโมเดล ML ทั่วไป

ในการเริ่มต้นใช้งาน SageMaker Neo ให้ลงชื่อเข้าใช้คอนโซล SageMaker เลือกโมเดลที่ผ่านการฝึก ทำตามตัวอย่างเพื่อคอมไพล์โมเดล และปรับใช้โมเดลผลลัพธ์บนแพลตฟอร์มฮาร์ดแวร์เป้าหมายของคุณ

SageMaker Neo มีองค์ประกอบหลักสองส่วนคือ คอมไพเลอร์และรันไทม์ ขั้นแรก คอมไพเลอร์ SageMaker Neo จะอ่านโมเดลที่ส่งออกโดยเฟรมเวิร์กต่างๆ จากนั้นจะแปลงฟังก์ชันและการดำเนินการเฉพาะของเฟรมเวิร์กเป็นการเป็นตัวแทนระดับกลางของเฟรมเวิร์กแบบใช้เทคโนโลยีต่างๆ ร่วมกันได้ ถัดไป คอมไพลเลอร์จะดำเนินการเพิ่มประสิทธิภาพหลายชุด จากนั้นคอมไพลเลอร์จะสร้างรหัสไบนารี่สำหรับการดำเนินการที่ได้รับการปรับปรุงให้เหมาะสมที่สุด และเขียนลงในไลบรารีอ็อบเจกต์ที่ใช้ร่วมกัน นอกจากนี้ คอมไพลเลอร์ยังบันทึกคำจำกัดความของโมเดลและพารามิเตอร์ลงในไฟล์แยกกัน ในระหว่างการดำเนินการรันไทม์ SageMaker Neo จะโหลดอาร์ทิแฟกต์ที่สร้างขึ้นโดยคอมไพลเลอร์ เช่น คำจำกัดความของโมเดล พารามิเตอร์ และไลบรารีอ็อบเจกต์ที่ใช้ร่วมกันเพื่อรันโมเดล

ไม่ คุณสามารถฝึกโมเดลที่อื่นและใช้ SageMaker Neo เพื่อเพิ่มประสิทธิภาพสำหรับอินสแตนซ์ SageMaker ML หรืออุปกรณ์ที่รองรับ AWS IoT Greengrass ได้

ปัจจุบัน SageMaker Neo รองรับโมเดล DL ที่ได้รับความนิยมมากที่สุดที่ขับเคลื่อนแอปพลิเคชันการมองเห็นคอมพิวเตอร์และโมเดลทรีการตัดสินใจที่ได้รับความนิยมมากที่สุดที่ใช้ใน SageMaker ในปัจจุบัน SageMaker Neo เพิ่มประสิทธิภาพของโมเดล AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet และ DenseNet ที่ได้รับการฝึกฝนใน MXnet และ TensorFlow และการจำแนกประเภทและแบบจำลองป่าตัดแบบสุ่มที่ฝึกใน XGBoost

คุณสามารถค้นหารายการ อินสแตนซ์คลาวด์ที่รองรับ, อุปกรณ์ Edge และเวอร์ชันเฟรมเวิร์กได้ในเอกสาร SageMaker Neo

หากต้องการดูรายการรีเจี้ยนที่รองรับ โปรดดู รายการบริการของ AWS Region

Amazon SageMaker Savings Plans

เปิดทั้งหมด
Savings Plans นำเสนอรูปแบบราคาตามการใช้งานแบบยืดหยุ่นสำหรับ SageMaker โดยแลกมาด้วยการใช้งานอย่างสม่ำเสมอ (วัดเป็น USD/ชั่วโมง) นานหนึ่งถึงสามปีตามระยะสัญญา SageMaker Savings Plans มอบความยืดหยุ่นสูงสุดและช่วยลดค่าใช้จ่ายได้สูงสุด 64% โดยแผนเหล่านี้จะมีผลกับการใช้งานอินสแตนซ์ SageMaker ML ที่มีสิทธิ์โดยอัตโนมัติ รวมถึง SageMaker Studio Notebooks, โน้ตบุ๊กแบบตามความต้องการของ SageMaker, การประมวลผล SageMaker, SageMaker Data Wrangler, การฝึกอบรม SageMaker, การอนุมานแบบเรียลไทม์ของ SageMaker และ SageMaker Batch Transform ไม่ว่าจะเป็นกลุ่มประเภทอินสแตนซ์ ขนาด หรือรีเจี้ยนใด ตัวอย่างเช่น คุณสามารถเปลี่ยนแปลงการใช้งานจากอินสแตนซ์ CPU ml.c5.xlarge ที่ทำงานในสหรัฐอเมริกาฝั่งตะวันออก (โอไฮโอ) เป็นอินสแตนซ์ ml.Inf1 ในสหรัฐอเมริกาฝั่งตะวันตก (ออริกอน) สำหรับเวิร์กโหลดการอนุมานได้ทุกเมื่อและยังคงชำระเงินตามราคาของ Savings Plans โดยอัตโนมัติ
หากคุณมีการใช้งานอินสแตนซ์ SageMaker ในจำนวนที่สม่ำเสมอ (วัดเป็น USD/ชั่วโมง) และใช้องค์ประกอบ SageMaker หลายองค์ประกอบ หรือคาดว่าการกำหนดค่าเทคโนโลยีของคุณ (เช่น ตระกูลอินสแตนซ์ หรือรีเจี้ยน) จะเปลี่ยนแปลงเมื่อเวลาผ่านไป SageMaker Savings Plans จะทำให้การเพิ่มประสิทธิภาพของระบบของคุณง่ายขึ้น ประหยัดในขณะที่ให้ความยืดหยุ่นในการเปลี่ยนแปลงการกำหนดค่าเทคโนโลยีพื้นฐานตามความต้องการใช้งานหรือนวัตกรรมใหม่ อัตรา Savings Plans จะใช้โดยอัตโนมัติกับการใช้งานอินสแตนซ์ ML ที่มีสิทธิ์ทั้งหมด โดยไม่ต้องทำการแก้ไขด้วยตนเอง
คุณสามารถเริ่มต้นใช้งาน Savings Plans ได้จาก AWS Cost Explorer ในคอนโซลการจัดการของ AWS หรือโดยการใช้ API/CLI คุณสามารถทำสัญญา Savings Plans ได้ง่าย ๆ เพียงใช้คำแนะนำที่ระบุใน AWS Cost Explorer เพื่อให้ได้รับราคาที่ประหยัดลงได้มากที่สุด สัญญารายชั่วโมงที่แนะนำจะขึ้นอยู่กับประวัติการใช้งานตามความต้องการและตัวเลือกประเภทแผน รวมถึงตัวเลือกการชำระเงิน เมื่อลงชื่อสมัครใช้งาน Savings Plans แล้ว การใช้งานการประมวลผลจะถูกเรียกเก็บเงินโดยอัตโนมัติตามราคา Savings Plan ที่ลดลงมาแล้ว และการใช้งานใด ๆ ที่เกินจากสัญญาจะถูกเรียกเก็บเงินในอัตราราคาตามความต้องการปกติ
ความแตกต่างระหว่าง Savings Plans สำหรับ SageMaker และ Savings Plans สำหรับ Amazon EC2 อยู่ที่บริการที่มีให้ SageMaker Savings Plans ใช้กับเฉพาะการใช้งานอินสแตนซ์ SageMaker ML เท่านั้น

สามารถซื้อ Savings Plans ได้ในบัญชีใดก็ได้ภายในกลุ่ม AWS Organization/Consolidated Billing ตามค่าเริ่มต้น สิทธิประโยชน์ที่ได้รับจาก Savings Plans จะใช้ได้กับการใช้งานในทุกบัญชีภายในกลุ่ม AWS Organization/Consolidated Billing อย่างไรก็ตาม คุณยังสามารถเลือกที่จะจำกัดสิทธิประโยชน์ของ Savings Plans เฉพาะบัญชีที่ซื้อเท่านั้น