Le présent guide explique comment calibrer et déployer un modèle de diffusion stable pour générer des avatars personnalisés à l'aide d'un simple énoncé textuel. La diffusion stable est un modèle texte-image, généré par un type d'intelligence artificielle (IA) qui tire parti des dernières avancées en matière de machine learning. Dans ce cadre, les modèles sont créés par Amazon SageMaker et calibrés grâce à l'approche DreamBooth. Cette dernière utilise 10 à 15 images de l'utilisateur pour capturer les détails précis du sujet. Le modèle génère ensuite un avatar personnalisé qui peut être utilisé dans diverses applications, notamment les réseaux sociaux, les jeux vidéo et les événements virtuels. Ce guide inclut également une fonctionnalité d'invite textuelle permettant aux utilisateurs de générer des avatars en fonction de descriptions spécifiques. Cette fonctionnalité étend les fonctionnalités des applications et offre aux organisations des médias et du divertissement davantage de moyens de développer du contenu personnalisé et sur mesure, adapté aux consommateurs.

Le présent guide propose une approche basée sur l'IA pour permettre aux organisations des médias et du divertissement de développer du contenu personnalisé et adapté à grande échelle. Cependant, les utilisateurs du présent guide doivent prendre des précautions pour garantir que ces capacités d'IA ne soient pas détournées ou manipulées. Reportez-vous à Modèles de génération et de diffusion d'images sécurisés avec les services de modération de contenu Amazon AI pour en savoir plus sur la protection du contenu grâce à un mécanisme de modération approprié.

Veuillez noter : [Clause de non-responsabilité]

Diagramme d'architecture

[texte]

Télécharger le diagramme d'architecture PDF 

Piliers AWS Well-Architected

Le cadre AWS Well-Architected vous permet de comprendre les avantages et les inconvénients des décisions que vous prenez lors de la création de systèmes dans le cloud. Les six piliers du cadre vous permettent d'apprendre les bonnes pratiques architecturales pour concevoir et exploiter des systèmes fiables, sécurisés, efficaces, rentables et durables. Grâce à l'outil AWS Well-Architected Tool, disponible gratuitement dans la console de gestion AWS, vous pouvez examiner vos charges de travail par rapport à ces bonnes pratiques en répondant à une série de questions pour chaque pilier.

Le diagramme d'architecture ci-dessus est un exemple de solution créée en tenant compte des bonnes pratiques Well-Architected. Pour être totalement conforme à Well-Architected, vous devez suivre autant de bonnes pratiques Well-Architected que possible.

  • Les points de terminaison multimodèles de SageMaker et Amazon CloudWatch sont utilisés tout au long du présent guide et conçus pour améliorer votre excellence opérationnelle. Tout d'abord, les points de terminaison multimodèles SageMaker vous permettent de déployer une multitude de modèles derrière un seul point de terminaison, ce qui réduit le nombre de points de terminaison que vous devez gérer. SageMaker gère les modèles de chargement et de mise en cache en fonction de vos modèles de trafic. Vous pouvez ajouter ou mettre à jour le modèle sans redéployer le point de terminaison. Il vous suffit de charger les modèles sur le site Amazon S3 géré par SageMaker. En outre, SageMaker s'intègre automatiquement à CloudWatch, qui vous permet de suivre les mesures, les événements et les fichiers journaux à partir du modèle et d'obtenir des informations sur les performances de vos modèles. Vous pouvez également configurer des alarmes et surveiller les problèmes de manière proactive avant qu'ils n'aient un impact sur l'expérience client.

    Lire le livre blanc sur l'excellence opérationnelle 
  • API Gateway fournit des mécanismes intégrés pour authentifier et autoriser les demandes d'API, empêchant ainsi les attaques par déni de service ou d'autres types d'abus susceptibles de surcharger les ressources de votre backend. Vous pouvez également utiliser les groupes d'utilisateurs Amazon Cognito, OAuth 2.0 ou les rôles IAM pour contrôler l'accès à vos API. Par ailleurs, pour protéger les données, API Gateway garantit que les données qui arrivent sur votre point de terminaison sont cryptées SSL/TLS. Il prend également en charge la limitation des API, ce qui contribue à protéger vos API contre un trafic excessif ou des abus. Pensez également à ajouter AWS WAF, un pare-feu pour applications Web, devant API Gateway afin de protéger les applications contre les attaques et les exploits Web. Enfin, pensez à AWS Shield pour protéger vos charges de travail contre les attaques par déni de service distribué (DDoS).

    Lire le livre blanc sur la sécurité 
  • API Gateway, Lambda et SageMaker sont déployés tout au long du présent guide pour améliorer la fiabilité de vos charges de travail. Tout d'abord, API Gateway fournit une tolérance aux pannes intégrée et un autoscaling pour gérer les pics de trafic. Il s'intègre également à Lambda et SageMaker pour vous permettre de créer facilement des API évolutives et sans serveur. De plus, SageMaker est conçu pour fournir une fiabilité et une disponibilité élevées pour exécuter des charges de travail de machine learning et servir des modèles de machine learning. Il fournit un autoscaling géré, une tolérance aux pannes, des surveillances de l'état, une surveillance et des diagnostics. Il fonctionne sur une infrastructure distribuée répartie sur plusieurs zones de disponibilité, garantissant une haute disponibilité. La fiabilité de l'entraînement et des inférences de votre modèle est ainsi garantie.

    Lire le livre blanc sur la fiabilité 
  • SageMaker est utilisé ici pour améliorer l'efficacité des performances, en fournissant un service d'inférence performant et à faible latence qui peut être utilisé pour héberger des modèles de machine learning. Vous pouvez facilement configurer le type d'instance, le nombre d'instances et d'autres configurations de déploiement pour dimensionner correctement votre charge de travail d'inférence, en optimisant la latence, le débit et les coûts.

    Lire le livre blanc sur l'efficacité des performances 
  • Les points de terminaison multimodèles SageMaker constituent un moyen évolutif et rentable de déployer un grand nombre de modèles. Ces points de terminaison utilisent le même conteneur pour héberger tous vos modèles, ce qui vous permet de réduire les frais liés à la gestion de points de terminaison distincts. Dans un contexte où certains modèles ne sont pas sollicités en permanence, le partage de ressources vous permet d'optimiser l'utilisation de l'infrastructure et de réduire les coûts par rapport à des points de terminaison distincts. 

    Lire le livre blanc sur l'optimisation des coûts 
  • L'inférence asynchrone SageMaker est une fonctionnalité qui met en file d'attente les demandes entrantes et les traite de manière asynchrone. En d'autres termes, SageMaker peut réduire à zéro automatiquement les instances lorsqu'elles ne sont pas utilisées, ce qui permet d'économiser des ressources de calcul en cas d'inactivité et de réduire au minimum l'impact environnemental de l'exécution de vos charges de travail dans le cloud. 

    Lire le livre blanc sur le développement durable 

Ressources d'implémentation

L'exemple de code est un point de départ. Il s'agit d'un document validé par l'industrie, prescriptif mais non définitif, et d'un aperçu pour vous aider à commencer.

AWS Machine Learning
Blog

Modèles de génération et de diffusion d'images sécurisés avec les services de modération de contenu Amazon AI

Le présent article explore l'utilisation des services d'IA AWS, Amazon Rekognition et Amazon Comprehend, ainsi que d'autres techniques, pour modérer efficacement et en temps quasi réel le contenu généré par le modèle de diffusion stable.

Clause de non-responsabilité

Les exemples de code, les bibliothèques de logiciels, les outils de ligne de commande, les preuves de concept, les modèles ou toute autre technologie connexe (y compris tout ce qui précède qui est fourni par notre personnel) vous sont fournis en tant que contenu AWS en vertu du contrat client AWS ou de l'accord écrit pertinent entre vous et AWS (selon le cas). Vous ne devez pas utiliser ce contenu AWS dans vos comptes de production, ni sur des données de production ou autres données critiques. Vous êtes responsable des tests, de la sécurisation et de l'optimisation du contenu AWS, tel que les exemples de code, comme il convient pour une utilisation en production, en fonction de vos pratiques et normes de contrôle de qualité spécifiques. Le déploiement de contenu AWS peut entraîner des frais AWS pour la création ou l'utilisation de ressources payantes AWS, telles que l'exécution d'instances Amazon EC2 ou l'utilisation du stockage Amazon S3.

Les références à des services ou organisations tiers dans ce guide n'impliquent pas une approbation, un parrainage ou une affiliation entre Amazon ou AWS et le tiers. Les conseils fournis par AWS constituent un point de départ technique, et vous pouvez personnaliser votre intégration avec des services tiers lorsque vous déployez l'architecture.

Cette page vous a-t-elle été utile ?