MLOps-Workload-Orchestrator in AWS

Eine robuste Pipeline bereitstellen, die verwaltete Automatisierungstools und ML-Services nutzt, um die Entwicklung und Produktion von ML-Modellen zu vereinfachen

Übersicht

Machine Learning Operations (MLOps) Workload Orchestrator optimiert die Bereitstellung von ML-Modellen und setzt bewährte Methoden für Skalierbarkeit, Zuverlässigkeit und Effizienz durch. Diese AWS-Lösung ist ein erweiterbares Framework mit einer Standardschnittstelle zur Verwaltung von ML-Pipelines über AWS-ML- und Drittanbieter-Services.

Diese Lösung enthält eine AWS-CloudFormation-Vorlage: Diese Vorlage ermöglicht das Modelltraining, das Hochladen von vorab trainierten Modellen (auch bekannt als Bring Your Own Model oder BYOM), die Konfiguration der Pipeline-Orchestrierung und die Überwachung des Pipeline-Betriebs. Durch die Implementierung dieser Lösung kann Ihr Team seine Agilität und Effizienz steigern, erfolgreiche Prozesse in großem Maßstab zu wiederholen.

Vorteile

Eine vorkonfigurierte ML-Pipeline starten

Initiieren Sie eine vorkonfigurierte Pipeline durch einen API-Aufruf oder einen Amazon-S3-Bucket.

Automatisch ein geschultes Modell und einen Inferenz-Endpunkt bereitstellen

Automatisieren Sie die Modellüberwachung mit Amazon SageMaker BYOM und stellen Sie einen Serverless-Inferenzendpunkt mit Drift-Erkennung bereit.

Zentraler Überblick über Ihre ML-Ressourcen

Verwenden Sie das Amazon SageMaker Model Dashboard, um die von Ihnen erstellten Amazon-SageMaker-Ressourcen, einschließlich Modelle, Endpunkte, Modellkarten und Batch-Transformationsaufträge, anzuzeigen, zu durchsuchen und zu erkunden.

Technische Details

Sie können diese Architektur mit dem Implementierungsleitfaden und der dazugehörigen AWS-CloudFormation-Vorlage automatisch bereitstellen. Um mehrere Anwendungsfälle und Geschäftsanforderungen zu unterstützen, bietet diese Lösung zwei AWS-CloudFormation-Vorlagen:

  1. Nutzen Sie die Einzelkonten-Vorlage, um alle Lösungs-Pipelines im selben AWS-Konto einzurichten. Diese Option eignet sich für das Experimentieren, das Entwickeln und/oder kleinere Produktions-Workloads.
  2. Nutzen Sie die Vorlage für Multikonten, um mehrere Umgebungen (z. B. Entwicklung, Staging und Produktion) über mehrere AWS-Konten bereitzustellen. Dies verbessert die Governance, die Sicherheit und die Kontrolle der Bereitstellung der ML-Pipeline, bietet sicheres Experimentieren, schnellere Innovation und hält Produktionsdaten und Workloads sicher und zugänglich, um die Geschäftskontinuität zu gewährleisten.
  • Option 1 – Einzelkonto-Bereitstellung
  • Option 2 – Bereitstellen eines Multikontos
Fallstudie
Cognizant MLOps Model Lifecycle Orchestrator beschleunigt die Bereitstellung von Machine-Learning-Modellen mithilfe von AWS-Lösungen von Wochen auf Stunden

In Zusammenarbeit mit den Teams von AWS Partner Solutions Architect und AWS Solutions Library hat Cognizant seine Lösung MLOps Model Lifecycle Orchestrator auf der Lösung MLOps Workload Orchestrator aufgebaut.

Fallstudie lesen 
Anwendungsfälle für diese AWS-Lösung
  • Überschrift
Weitere Informationen ...
Über diese Bereitstellung
  • Datum der Veröffentlichung
Bereitstellungsoptionen
Sind Sie startbereit?
Stellen Sie diese Lösung bereit, indem Sie sie in Ihrer AWS-Konsole starten

Brauchen Sie Hilfe? Stellen Sie mit einem Partner bereit.
Finden Sie einen AWS-zertifizierten Drittanbieter-Experten, der Sie bei dieser Bereitstellung unterstützt

War diese Seite hilfreich?