Orchestrateur de charge de travail MLOps sur AWS

Déployez un pipeline robuste qui utilise des outils d’automatisation gérés et des services de ML pour simplifier le développement et la production de modèles de ML

Aperçu

L’orchestrateur de charges de travail MLOps vous permet de simplifier et d’appliquer les bonnes pratiques d’architecture pour la production de modèles de machine learning (ML). Cette solution AWS est un cadre extensible qui fournit une interface standard de gestion des pipelines ML pour les services AWS ML et les services tiers.

Le modèle de la solution vous permet d’entraîner les modèles, de charger les modèles entraînés (également appelés Bring Your Own Model, BYOM), de configurer l’orchestration du pipeline et de surveiller les opérations de ce dernier. En utilisant cette solution, vous pouvez améliorer l’agilité et l’efficacité de votre équipe en lui permettant de répéter les processus réussis à grande échelle.

Avantages

Tirez parti d’un pipeline de machine learning préconfiguré
Utilisez l’architecture de référence de la solution pour lancer un pipeline préconfiguré par le biais d’un appel d’API ou d’un référentiel Git.
Déploiement automatique d'un modèle entraîné et d'un point de terminaison d'inférence
Utilisez le framework de la solution pour automatiser le pipeline de Model Monitor ou le pipeline BYOM Amazon SageMaker. Fournissez un point de terminaison d'inférence avec détection de la dérive du modèle, empaqueté comme un micro-service sans serveur.
Afficher vos ressources dans un tableau de bord

Utilisez le tableau de bord du modèle Amazon SageMaker pour afficher les ressources Amazon SageMaker créées par votre solution (telles que les modèles, les points de terminaison, les cartes de modèle et les tâches de transformation par lots).

Détails techniques

Vous pouvez déployer automatiquement cette architecture à l’aide du guide d’implémentation et du modèle AWS CloudFormation qui l’accompagne. Afin de s’adapter aux différents cas d’utilisation et besoins professionnels, la solution fournit deux modèles AWS CloudFormation :

  1. Utilisez le modèle monocompte pour déployer tous les pipelines de la solution dans le même compte AWS. Cette option est idéale pour les charges de travail d’expérimentation, de développement et/ou de production à petite échelle.
  2. Utilisez le modèle multicompte pour allouer plusieurs environnements (par exemple pour le développement, le prédéploiement et la production) sur différents comptes AWS. Cette approche offre de nombreux avantages : amélioration de la gouvernance, renforcement de la sécurité et du contrôle du déploiement du pipeline ML, expérimentation sûre, innovation plus rapide et sécurité et disponibilité des données et des charges de travail de production garanties à des fins de continuité des activités.
  • Option 1 – Déploiement monocompte
  • Option 2 – Déploiement sur plusieurs comptes
Étude de cas
L'Orchestrateur de cycle de vie de modèle MLOps de Cognizant accélère le déploiement des modèles de machine learning de plusieurs semaines à quelques heures grâce aux solutions AWS

En collaboration avec les équipes AWS Partner Solutions Architect et la Bibliothèque de solutions AWS, Cognizant a créé sa solution MLOps « Orchestrateur de cycle de vie de modèle » à partir de la solution MLOps « Orchestrateur de charge de travail ».

Lire l’étude de cas 
Cas d’utilisation de cette solution AWS
  • Titre
Plus...
À propos de ce déploiement
  • Date de publication
Options de déploiement
Prêt à vous lancer ?
Déployer cette solution en la lançant dans votre console AWS

Vous avez besoin d'aide ? Déployez avec un partenaire.
Trouvez un expert tiers certifié AWS pour vous aider dans ce déploiement

Cette page vous a-t-elle été utile ?