En esta guía, se muestra cómo calibrar e implementar un modelo Stable Diffusion para generar avatares personalizados mediante un simple mensaje de texto. Stable Diffusion es un modelo de conversión de texto a imagen generado a partir de un tipo de inteligencia artificial (IA) que aprovecha los últimos avances en machine learning. En este caso, Amazon SageMaker crea los modelos y los calibra con el enfoque DreamBooth, que utiliza entre 10 y 15 imágenes del usuario para capturar los detalles precisos del sujeto. El modelo genera un avatar personalizado que se puede usar en una variedad de aplicaciones, como redes sociales, videojuegos y eventos virtuales. La guía también incluye una característica de mensaje de texto que permite a los usuarios generar avatares en función de entradas de texto específicas. Esta característica amplía las capacidades de las aplicaciones y proporciona a las organizaciones de contenido multimedia y entretenimiento más formas de desarrollar contenido personalizado y adaptado al consumidor.

Esta guía contiene un enfoque basado en la inteligencia artificial para ayudar a las organizaciones de contenido multimedia y entretenimiento a desarrollar contenido personalizado y especializado a escala. Sin embargo, los usuarios de esta guía deben tomar precauciones para impedir el abuso o la manipulación de estas capacidades de la IA. Visite “Safe image generation and diffusion models with Amazon AI content moderation services” para obtener información sobre cómo proteger el contenido mediante un mecanismo de moderación adecuado.

Tenga en cuenta lo siguiente: [Descargo de responsabilidad]

Diagrama de la arquitectura

[Texto]

Descargue el diagrama de la arquitectura (PDF) 

Pilares de Well-Architected

AWS Well-Architected Framework le permite comprender las ventajas y desventajas de las decisiones que tome durante la creación de sistemas en la nube. Los seis pilares de este marco permiten aprender las prácticas recomendadas arquitectónicas para diseñar y explotar sistemas confiables, seguros, eficientes, rentables y sostenibles. Con la Herramienta de AWS Well-Architected, que se encuentra disponible gratuitamente en la Consola de administración de AWS, puede revisar sus cargas de trabajo con respecto a estas prácticas recomendadas al responder a un conjunto de preguntas para cada pilar.

El diagrama de arquitectura mencionado es un ejemplo de una solución que se creó teniendo en cuenta las prácticas recomendadas de una buena arquitectura. Para tener completamente una buena arquitectura, debe seguir todas las prácticas recomendadas de buena arquitectura posibles.

  • Los puntos de conexión multimodelo de SageMaker y Amazon CloudWatch se utilizan a lo largo de esta guía y están diseñados para mejorar su excelencia operativa. En primer lugar, los puntos de conexión multimodelo de SageMaker le permiten implementar diversos modelos detrás de un único punto de conexión, lo que reduce la cantidad de puntos que necesita administrar. SageMaker administra los modelos de carga y almacenamiento en caché en función de sus patrones de tráfico. Puede agregar o actualizar el modelo sin volver a implementar el punto de conexión. Simplemente cargue los modelos en la ubicación de Amazon S3 administrada por SageMaker. Además, SageMaker se integra automáticamente con CloudWatch, donde puede realizar un seguimiento de las métricas, los eventos y los archivos de registro del modelo y obtener información sobre el rendimiento de sus modelos. También puede configurar alarmas y supervisar los problemas de forma proactiva antes de que afecten la experiencia del cliente.

    Lea el documento técnico sobre excelencia operativa 
  • API Gateway proporciona mecanismos integrados para autenticar y autorizar las solicitudes de API, lo que evita los ataques de denegación de servicio u otros tipos de abuso que pueden sobrecargar sus recursos de backend. También puede usar los grupos de usuarios de Amazon Cognito, OAuth 2.0 o roles de IAM para controlar el acceso a sus API. Y para proteger los datos, API Gateway garantiza que los datos que llegan a su punto de conexión estén cifrados con SSL/TLS. También admite la limitación de API, lo que ayuda a proteger sus API contra el tráfico excesivo o el abuso. Además, considere agregar AWS WAF, un firewall de aplicaciones web, delante de API Gateway para proteger las aplicaciones de ataques y exploits basados en la Web. Por último, considere utilizar AWS Shield para proteger sus cargas de trabajo de los ataques distribuidos de denegación de servicio (DDoS).

    Lea el documento técnico sobre seguridad 
  • API Gateway, Lambda y SageMaker se implementan en esta guía para mejorar la fiabilidad de sus cargas de trabajo. En primer lugar, API Gateway ofrece tolerancia a errores integrada y escalado automático para gestionar los picos de tráfico. También se integra con Lambda y SageMaker para facilitar la creación de API escalables y sin servidor. Además, SageMaker está diseñado para ofrecer una alta fiabilidad y disponibilidad a fin de ejecutar cargas de trabajo de machine learning y ofrecer modelos de machine learning. Proporciona escalado automático administrado, tolerancia a errores, comprobaciones de estado, supervisión y diagnósticos. Se ejecuta en una infraestructura distribuida en varias zonas de disponibilidad, lo que garantiza una alta disponibilidad. Esto garantiza la fiabilidad del entrenamiento y las inferencias de sus modelos.

    Lea el documento técnico sobre fiabilidad 
  • SageMaker , en este caso, se utiliza para mejorar la eficacia del rendimiento, mediante un servicio de inferencia de alto rendimiento y baja latencia que se puede utilizar para alojar modelos de machine learning. Puede configurar fácilmente el tipo de instancia, el recuento y otras configuraciones de implementación para ajustar el tamaño correcto de su carga de trabajo de inferencia y optimizar la latencia, el rendimiento y el costo.

    Lea el documento técnico sobre eficacia del rendimiento 
  • Los puntos de conexión multimodelo de SageMaker proporcionan una forma escalable y rentable de implementar una gran cantidad de modelos. Estos puntos de conexión utilizan el mismo contenedor para alojar todos sus modelos, lo que le permite reducir la sobrecarga de administrar puntos de conexión independientes. En una situación en la que algunos de los modelos no se utilizan tanto, cuenta con el uso compartido de recursos para maximizar la utilización de la infraestructura y ahorrar costos en comparación con tener puntos de conexión separados. 

    Lea el documento técnico sobre optimización de costos 
  • La inferencia asincrónica de SageMaker es una capacidad que pone en cola las solicitudes entrantes y las procesa de forma asincrónica. Es decir, SageMaker puede escalarse automáticamente hasta cero instancias cuando no se usa, lo que ahorra recursos informáticos cuando está inactivo y ayuda a minimizar el impacto ambiental de la ejecución de las cargas de trabajo en la nube. 

    Lea el documento técnico sobre sostenibilidad 

Recursos de implementación

El código de muestra es un punto de partida. Está validado por el sector, es prescriptivo pero no definitivo, y le permite profundizar en su funcionamiento para que le sea más fácil empezar.

AWS Machine Learning
Blog

Safe image generation and diffusion models with Amazon AI content moderation services

En esta entrada, se explora el uso de los servicios de inteligencia artificial de AWS, Amazon Rekognition y Amazon Comprehend, junto con otras técnicas, para moderar de forma eficaz el contenido generado por el modelo Stable Diffusion prácticamente en tiempo real.

Descargo de responsabilidad

El código de muestra; las bibliotecas de software; las herramientas de línea de comandos; las pruebas de concepto; las plantillas; o cualquier otra tecnología relacionada (incluida cualquiera de las anteriores que proporcione nuestro personal) se brinda como contenido de AWS bajo el Contrato de cliente de AWS, o el contrato escrito pertinente entre usted y AWS (lo que sea aplicable). No debe utilizar este contenido de AWS en sus cuentas de producción, ni en producción ni en otros datos críticos. Es responsable de probar, proteger y optimizar el contenido de AWS, como el código de muestra, según corresponda para el uso de grado de producción en función de sus prácticas y estándares de control de calidad específicos. La implementación de contenido de AWS puede incurrir en cargos de AWS por crear o utilizar recursos con cargo de AWS, como ejecutar instancias de Amazon EC2 o utilizar el almacenamiento de Amazon S3.

Las referencias a servicios u organizaciones de terceros en esta Guía no implican un respaldo, patrocinio o afiliación entre Amazon o AWS y el tercero. La orientación de AWS es un punto de partida técnico, y puede personalizar su integración con servicios de terceros al implementar la arquitectura.

¿Le resultó útil esta página?