Questa guida mostra come calibrare e implementare un modello di Stable Diffusion per generare avatar personalizzati con un semplice messaggio di testo. Stable Diffusion è un modello da testo a immagine, generato da un tipo di intelligenza artificiale (IA) che sfrutta i più recenti progressi nel machine learning. Qui, i modelli sono realizzati da Amazon SageMaker e calibrati con l'approccio DreamBooth, che utilizza 10-15 immagini dell'utente per catturare i dettagli precisi del soggetto. Il modello genera un avatar personalizzato che può essere utilizzato in una varietà di applicazioni, tra cui social media, giochi ed eventi virtuali. La Guida include anche una funzionalità di richiesta di testo che consente agli utenti di generare avatar in base a input di testo specifici. Inoltre, espande le funzionalità delle applicazioni e offre alle organizzazioni del settore dei media e dell'intrattenimento più modi per sviluppare contenuti personalizzati, su misura per il consumatore.

Questa Guida fornisce un approccio basato sull'IA per aiutare le organizzazioni dei media e dell'intrattenimento a sviluppare contenuti personalizzati e su misura su larga scala. Tuttavia, gli utenti di questa Guida dovrebbero prendere precauzioni per garantire che queste funzionalità di IA non vengano abusate o manipolate. Visita Modelli sicuri di generazione e diffusione di immagini con i servizi di moderazione dei contenuti di IA Amazon per scoprire come salvaguardare i contenuti attraverso un meccanismo di moderazione adeguato.

Nota: [Disclaimer]

Diagramma di architettura

[testo]

Scarica il diagramma dell'architettura (PDF) 

Principi di Well-Architected

Il framework AWS Well-Architected consente di valutare i pro e i contro delle decisioni prese durante il processo di creazione di sistemi nel cloud. I sei principi del framework consentono di apprendere le best practice architetturali per la progettazione e il funzionamento di sistemi affidabili, sicuri, efficienti, convenienti e sostenibili. Grazie allo strumento AWS Well-Architected, disponibile gratuitamente nella Console di gestione AWS, puoi rivedere i tuoi carichi di lavoro rispetto a queste best practice rispondendo a una serie di domande per ciascun principio.

Il diagramma dell'architettura sopra riportato è un esempio di una soluzione creata tenendo conto delle best practice Well-Architected. Per essere completamente Well-Architected, dovresti seguire il maggior numero possibile di best practice.

  • Gli endpoint multi-modello SageMaker e Amazon CloudWatch sono utilizzati in questa Guida e progettati per migliorare l'eccellenza operativa. Innanzitutto, gli endpoint multi-modello SageMaker consentono di implementare una moltitudine di modelli dietro un singolo endpoint, riducendo il numero di endpoint da gestire. SageMaker gestisce i modelli di caricamento e memorizzazione nella cache in base ai modelli di traffico. È possibile aggiungere o aggiornare il modello senza reimplementare l'endpoint. Basta caricare i modelli nella sede Amazon S3 gestita da SageMaker. Inoltre, SageMaker si integra automaticamente con CloudWatch, dove puoi tenere traccia di metriche, eventi e file di log dal modello e ottenere informazioni dettagliate sulle prestazioni dei modelli. È anche possibile impostare allarmi e monitorare in modo proattivo i problemi prima che influiscano sull'esperienza del cliente.

    Leggi il whitepaper sull'eccellenza operativa 
  • Gateway API fornisce meccanismi integrati per autenticare e autorizzare le richieste API, prevenendo attacchi denial-of-service o altri tipi di abuso che possono sovraccaricare le risorse di back-end. È anche possibile utilizzare i pool di utenti di Amazon Cognito, i ruoli OAuth 2.0 o IAM per controllare l'accesso alle API. E per proteggere i dati, Gateway API garantisce che i dati che arrivano all'endpoint siano crittografati con SSL/TLS. Supporta anche la limitazione delle API, aiutando a proteggerle da traffico eccessivo o abusi. Inoltre, prendi in considerazione l'aggiunta di AWS WAF, un firewall per applicazioni Web, davanti al Gateway API per proteggere le applicazioni da attacchi ed exploit basati sul Web. Infine, considera AWS Shield per proteggere i carichi di lavoro dagli attacchi DDoS (Distributed Denial of Service).

    Leggi il whitepaper sulla sicurezza 
  • Gateway API, Lambda e SageMaker sono implementati in questa Guida per migliorare l'affidabilità dei carichi di lavoro. Innanzitutto, Gateway API offre una tolleranza ai guasti integrata e un dimensionamento automatico per gestire i picchi di traffico. Si integra, inoltre, con Lambda e SageMaker per semplificare la creazione di API scalabili e serverless. Inoltre, SageMaker è progettato per fornire elevata affidabilità e disponibilità per l'esecuzione di carichi di lavoro di machine learning e per servire modelli di machine learning. Fornisce dimensionamento automatico gestito, tolleranza ai guasti, controllo dell'integrità, monitoraggio e diagnostica. Funziona su un'infrastruttura distribuita su più zone di disponibilità, garantendo un'elevata disponibilità. Questi garantiscono l'affidabilità dell'addestramento e delle inferenze dei modelli.

    Leggi il whitepaper sull'affidabilità 
  • SageMaker viene utilizzato qui per migliorare l'efficienza delle prestazioni, fornendo un servizio di inferenza ad alte prestazioni e bassa latenza che può essere utilizzato per ospitare modelli di machine learning. È possibile configurare facilmente il tipo di istanza, il conteggio e altre configurazioni di implementazione per dimensionare correttamente il carico di lavoro di inferenza, ottimizzando latenza, throughput e costi.

    Leggi il whitepaper sull'efficienza delle prestazioni 
  • Gli endpoint multi-modello SageMaker forniscono un modo scalabile ed economico per implementare un gran numero di modelli. Questi endpoint utilizzano lo stesso contenitore per ospitare tutti i modelli, consentendo di ridurre il sovraccarico della gestione di endpoint separati. In una situazione in cui alcuni modelli non vengono utilizzati così tanto, è possibile condividere le risorse per massimizzare l'utilizzo dell'infrastruttura e risparmiare sui costi rispetto all'utilizzo di endpoint separati. 

    Leggi il whitepaper sull'ottimizzazione dei costi 
  • L'inferenza asincrona SageMaker è una funzionalità che mette in coda le richieste in arrivo ed elabora tali richieste in modo asincrono. Ciò significa che SageMaker può ridurre verticalmente in modo automatico fino a zero le istanze inutilizzate, risparmiando risorse di calcolo in caso di inattività e contribuendo a ridurre al minimo gli impatti ambientali dell'esecuzione dei carichi di lavoro cloud. 

    Leggi il whitepaper sulla sostenibilità 

Risorse per l'implementazione

Il codice di esempio è un punto di partenza. È convalidato dal settore, prescrittivo ma non definitivo, ed è il punto di partenza per iniziare a lavorare.

AWS Machine Learning
Blog

Modelli sicuri di generazione e diffusione di immagini con i servizi di moderazione dei contenuti di IA Amazon

Questo post esplora l'utilizzo dei servizi di IA di AWS Amazon Rekognition e Amazon Comprehend, insieme ad altre tecniche, per moderare efficacemente i contenuti generati dal modello Stable Diffusion quasi in tempo reale.

Avvertenza

Il codice di esempio, le librerie software, gli strumenti della linea di comando, le proof of concept, i modelli e le altre tecnologie correlate (comprese tutte le tecnologie di cui sopra fornite dal nostro personale) vengono forniti all'utente sotto forma di contenuto AWS ai sensi dell'Accordo cliente AWS o del relativo accordo scritto stipulato tra l'utente e AWS (a seconda dei casi). Non bisogna utilizzare il contenuto AWS in questione negli account di produzione o sui dati di produzione o altri dati fondamentali. L'utente è responsabile dei test, della sicurezza e dell'ottimizzazione del contenuto AWS, come il codice di esempio, in modo appropriato per l'utilizzo in produzione sulla base delle pratiche e degli standard di qualità specifici. L'implementazione del contenuto AWS può comportare costi AWS per la creazione o l'utilizzo di risorse AWS addebitabili, quali le istanze Amazon EC2 in esecuzione o l'archiviazione Amazon S3.

Eventuali riferimenti a servizi o organizzazioni di terze parti contenuti in questa guida non implicano alcuna approvazione, sponsorizzazione o affiliazione tra Amazon o AWS e dette terze parti. La guida di AWS è un punto di partenza tecnico e l'integrazione con servizi di terze parti può essere personalizzata al momento dell'implementazione dell'architettura.

Questa pagina è stata utile?