Esta Orientação mostra como calibrar e implantar um modelo Stable Diffusion para gerar avatares personalizados com um simples prompt de texto. O Stable Diffusion é um modelo de conversão de texto em imagem gerado por um tipo de inteligência artificial (IA) que aproveita os últimos avanços em machine learning. Aqui, os modelos são criados pelo Amazon SageMaker e calibrados com a abordagem DreamBooth, que usa de 10 a 15 imagens do usuário para capturar os detalhes precisos da pessoa. O modelo gera um avatar personalizado que pode ser usado em uma variedade de aplicações, incluindo mídias sociais, jogos e eventos virtuais. A Orientação também inclui um recurso de prompts de texto que permite aos usuários gerar avatares com base em entradas de texto específicas. Esse recurso expande as capacidades das aplicações e fornece às organizações de mídia e entretenimento mais formas de desenvolver conteúdo personalizado, adaptado ao consumidor.

Esta Orientação fornece uma abordagem baseada em IA para ajudar organizações de mídia e entretenimento a desenvolver conteúdo personalizado e individualizado em grande escala. No entanto, os usuários desta Orientação devem tomar precauções para garantir que esses recursos de IA não sejam manipulados ou usados de forma abusiva. Acesse Safe image generation and diffusion models with Amazon AI content moderation services para saber como proteger o conteúdo por meio de um mecanismo de moderação adequado.

Observação: [Isenção de responsabilidade]

Diagrama de arquitetura

[texto]

Baixe o diagrama de arquitetura de referência em formato PDF 

Pilares do Well-Architected

O AWS Well-Architected Framework ajuda a entender as vantagens e as desvantagens das decisões tomadas durante a criação de sistemas na nuvem. Os seis pilares do Framework permitem que você aprenda as melhores práticas de arquitetura, a fim de projetar e operar sistemas confiáveis, seguros, eficientes, econômicos e sustentáveis. Com a Ferramenta AWS Well-Architected, disponível gratuitamente no Console de Gerenciamento da AWS, você pode avaliar suas workloads em relação às práticas recomendadas ao responder a uma série de questões para cada pilar.

O diagrama de arquitetura acima exemplifica a criação de uma solução pautada nas melhores práticas do Well-Architected. Para ser totalmente Well-Architected, é preciso respeitar a maior quantidade possível das melhores práticas desse framework.

  • Os endpoints multimodelo do SageMaker e o Amazon CloudWatch são utilizados em toda esta Orientação e foram projetados para aprimorar sua excelência operacional. Primeiro, os endpoints multimodelo do SageMaker permitem que você implante vários modelos por trás de um único endpoint, reduzindo o número de endpoints que você precisa gerenciar. O SageMaker gerencia modelos de carregamento e armazenamento em cache com base em seus padrões de tráfego. Você pode adicionar ou atualizar o modelo sem implantar novamente o endpoint. Basta fazer o upload dos modelos para o local gerenciado pelo SageMaker no Amazon S3. Além disso, o SageMaker se integra automaticamente ao CloudWatch, em que você pode rastrear métricas, eventos e arquivos de log do modelo e obter insights sobre a performance de seus modelos. Você também pode configurar alarmes e monitorar proativamente os problemas antes que eles afetem a experiência do cliente.

    Leia o whitepaper sobre excelência operacional 
  • O API Gateway fornece mecanismos integrados para autenticar e autorizar solicitações de API, evitando ataques de negação de serviço ou outros tipos de abuso que podem sobrecarregar seus recursos de back-end. Você também pode usar grupos de usuários do Amazon Cognito, do OAuth 2.0 ou perfis do IAM para controlar o acesso às suas APIs. E para proteger os dados, o API Gateway garante que os dados que chegam ao seu endpoint sejam criptografados por SSL/TLS. Ele também é compatível com controle de utilização de APIs, ajudando a proteger suas APIs de tráfego excessivo ou uso abusivo. Além disso, considere adicionar o AWS WAF, um firewall de aplicações web, na frente do API Gateway para proteger as aplicações de explorações e ataques baseados na web. Por fim, considere o AWS Shield para proteger suas workloads de ataques distribuídos de negação de serviço (DDoS).

    Leia o whitepaper sobre segurança 
  • O API Gateway, o Lambda e o SageMaker são utilizados ao longo desta Orientação para aumentar a confiabilidade de suas workloads. Primeiro, o API Gateway fornece tolerância a falhas e ajuste de escala automático incorporados para lidar com picos de tráfego. Ele também se integra ao Lambda e ao SageMaker para facilitar a criação de APIs escaláveis e sem servidor. Além disso, o SageMaker foi projetado para fornecer alta confiabilidade e disponibilidade para executar workloads de machine learning e servir modelos de machine learning. Ele fornece ajuste de escala automático gerenciado, tolerância a falhas, verificações de integridade, monitoramento e diagnóstico. Ele é executado em uma infraestrutura distribuída em várias zonas de disponibilidade, garantindo alta disponibilidade. Isso garante a confiabilidade do treinamento e das inferências do seu modelo.

    Leia o whitepaper sobre confiabilidade 
  • O SageMaker é usado aqui para melhorar a eficiência da performance, fornecendo um serviço de inferência de alta performance e baixa latência que pode ser usado para hospedar modelos de machine learning. Você pode configurar facilmente o tipo de instância, a contagem e outras configurações de implantação para dimensionar corretamente sua workload de inferência, otimizando a latência, o throughput e o custo.

    Leia o whitepaper sobre eficiência da performance 
  • Os endpoints multimodelo do SageMaker oferecem uma maneira escalável e econômica de implantar um grande número de modelos. Esses endpoints usam o mesmo contêiner para hospedar todos os seus modelos, permitindo que você reduza a sobrecarga do gerenciamento de endpoints separados. Em uma situação em que alguns dos modelos não são tão utilizados, o compartilhamento de recursos é aplicado para maximizar a utilização da infraestrutura e economizar custos quando comparado a ter endpoints separados. 

    Leia o whitepaper sobre otimização de custos 
  • A Inferência assíncrona do SageMaker é um recurso que enfileira as solicitações recebidas e as processa de forma assíncrona. Ou seja, o SageMaker pode reduzir automaticamente até zero instância quando não usado, economizando recursos de computação quando ocioso e ajudando a minimizar os impactos ambientais da execução de suas workloads na nuvem. 

    Leia o whitepaper sobre sustentabilidade 

Recursos de implementação

O código de amostra é um ponto de partida. Ele é validado para o setor, é prescritivo, mas não definitivo, e mostra o que há por trás de tudo para ajudar você a começar.

AWS Machine Learning
Blog

Modelos seguros de geração e difusão de imagens com os serviços de moderação de conteúdo de IA da Amazon

Esta publicação explora o uso dos serviços de IA da AWS, o Amazon Rekognition e o Amazon Comprehend, junto com outras técnicas, para moderar com eficácia o conteúdo gerado pelo modelo Stable Diffusion em tempo quase real.

Isenção de responsabilidade

O código de exemplo, as bibliotecas de software, as ferramentas de linha de comando, as provas de conceito, os modelos ou outra tecnologia relacionada (incluindo qualquer uma das anteriores fornecidas por nossa equipe) são fornecidos a você como Conteúdo da AWS nos termos do Contrato de Cliente da AWS ou o contrato por escrito pertinente entre você e a AWS (o que for aplicável). Você não deve usar esse Conteúdo da AWS em suas contas de produção, na produção ou em outros dados essenciais. Você é responsável por testar, proteger e otimizar o Conteúdo da AWS, como código de exemplo, conforme apropriado para uso em nível de produção com base em suas práticas e padrões específicos de controle de qualidade. A implantação de Conteúdo da AWS pode gerar cobranças da AWS para criar ou usar recursos cobráveis, como executar instâncias do Amazon EC2 ou usar armazenamento do Amazon S3.

As referências a serviços ou organizações terceirizadas nesta orientação não implicam em endosso, patrocínio ou afiliação entre a Amazon ou a AWS e terceiros. A orientação da AWS é um ponto de partida técnico, e você pode personalizar sua integração com serviços de terceiros ao implantar a arquitetura.

Esta página foi útil?