Veröffentlicht am: Jun 23, 2023

Amazon SageMaker Inference Recommender ist eine Funktion von Amazon SageMaker, die den Zeitaufwand für die Produktion von Modellen für Machine Learning (ML) reduziert, indem Belastungstests und Modelloptimierung für alle SageMaker ML-Instances automatisiert werden. Heute kündigt SageMaker Inference Recommender zwei wichtige Features an. Zunächst können Sie Inference Recommender jetzt von der AWS-Konsole für SageMaker aus verwenden. Zweitens bietet Inference Recommender jetzt Empfehlungen für potenzielle Instances, um ein Modell zum Zeitpunkt der Modellerstellung bereitzustellen.

Kunden können jetzt im Rahmen des Workflows zur Modellerstellung die potenzielle Liste der Instances einsehen, um ihr Modell bereitzustellen. Um die bei der Modellerstellung bereitgestellten Empfehlungen auf optimale Kosten oder Leistung abzustimmen, können Benutzer Benchmarking- oder Belastungstests mit ihrer benutzerdefinierten Beispieleingabe-Payload ausführen. Benutzer können die Liste der empfohlenen Instances entweder programmgesteuert mithilfe der DescribeModel-API oder über die Benutzeroberfläche der SageMaker-Konsole anzeigen.

Darüber hinaus können Kunden jetzt in der AWS-Konsole auf SageMaker Inference Recommender zugreifen. Bisher konnten Kunden Inference Recommender-Jobs nur über das AWS-SDK, die AWS-CLI oder SageMaker Studio ausführen. Kunden, die die AWS-Konsole bevorzugen, mussten zwischen dem SDK, Studio und der AWS-Konsole navigieren, um Empfehlungen zu erhalten, und Kunden, die ausschließlich die AWS-Konsole verwenden, konnten überhaupt nicht davon profitieren. Mit dieser Einführung können AWS-Konsolenbenutzer nun Inference Recommender-Jobs in der Konsole ausführen, um potenzielle Instance-Typen zu erhalten, und Benchmarking-Jobs, um Empfehlungen zu erhalten, die hinsichtlich Kosten und Leistung optimiert sind.

Um mehr über die Produkteinführungen zu erfahren, besuchen Sie bitte die Dokumentationen hier und hier. Melden Sie sich zum Einstieg bei der Amazon-SageMaker-Konsole an.