Diese Anleitung zeigt, wie Sie ein Stable-Diffusion-Modell kalibrieren und einsetzen, um personalisierte Avatare mit einem einfachen Text-Prompt zu generieren. Stable Diffusion ist ein Text-zu-Bild-Modell, generiert durch einen Typ von künstlicher Intelligenz (KI), der die neuesten Fortschritte im Machine Learning nutzt. Dabei werden die Modelle von Amazon SageMaker erstellt und mit dem DreamBooth-Ansatz kalibriert, der 10–15 Bilder des Benutzers verwendet, um die genauen Details des Motivs zu erfassen. Das Modell generiert einen personalisierten Avatar, der in einer Vielzahl von Anwendungen verwendet werden kann, darunter soziale Medien, Spiele und virtuelle Veranstaltungen. Die Anleitung enthält auch ein Text-Prompt-Feature, mit dem Benutzer Avatare basierend auf bestimmten Texteingaben generieren können. Dieses Feature erweitert die Möglichkeiten der Anwendungen und bietet Medien- und Unterhaltungsorganisationen mehr Möglichkeiten, personalisierte Inhalte zu entwickeln, die auf den Verbraucher zugeschnitten sind.

Diese Anleitung bietet einen KI-basierten Ansatz zur Unterstützung von Medien- und Unterhaltungsorganisationen bei der Entwicklung personalisierter, maßgeschneiderter Inhalte im großen Maßstab. Nutzer dieser Anleitung sollten jedoch Vorkehrungen treffen, um sicherzustellen, dass diese KI-Funktionen nicht missbraucht oder manipuliert werden. Besuchen Sie Sichere Bildgenerierung und Diffusionsmodelle mit Amazon-KI-Services zur Inhaltsmoderation, um mehr über den Schutz von Inhalten durch einen geeigneten Moderationsmechanismus zu erfahren.

Bitte beachten: [Haftungsausschluss]

Architekturdiagramm

[text]

Architektur-Diagramm als PDF herunterladen 

Well-Architected-Säulen

Das AWS-Well-Architected-Framework hilft Ihnen, die Vor- und Nachteile der Entscheidungen zu verstehen, die Sie beim Aufbau von Systemen in der Cloud treffen. Die sechs Säulen des Frameworks ermöglichen es Ihnen, architektonische bewärhte Methoden für die Entwicklung und den Betrieb zuverlässiger, sicherer, effizienter, kostengünstiger und nachhaltiger Systeme zu erlernen. Mit dem AWS-Well-Architected-Tool, das kostenlos in der AWS-Managementkonsole verfügbar ist, können Sie Ihre Workloads anhand dieser bewährten Methoden überprüfen, indem Sie eine Reihe von Fragen für jede Säule beantworten.

Das obige Architekturdiagramm ist ein Beispiel für eine Lösung, die unter Berücksichtigung der bewährten Methoden von Well-Architected erstellt wurde. Um eine vollständige Well-Architected-Lösung zu erhalten, sollten Sie so viele bewährte Methoden von Well-Architected wie möglich befolgen.

  • SageMaker-Multimodell-Endpunkte und Amazon CloudWatch werden in dieser Anleitung verwendet und sind darauf ausgelegt, Ihre betriebliche Exzellenz zu verbessern. Erstens können Sie mit den Multi-Modell-Endpunkten von SageMaker eine Vielzahl von Modellen hinter einem einzigen Endpunkt bereitstellen, wodurch die Anzahl der zu verwaltenden Endpunkte reduziert wird. SageMaker verwaltet die Lade- und Zwischenspeichermodelle auf der Grundlage Ihrer Datenverkehrsmuster. Sie können das Modell hinzufügen oder aktualisieren, ohne den Endpunkt erneut bereitzustellen. Laden Sie die Modelle einfach an den von SageMaker verwalteten Amazon-S3-Speicherort hoch. Darüber hinaus lässt sich SageMaker automatisch in CloudWatch integrieren, wo Sie Metriken, Ereignisse und Protokolldateien des Modells nachverfolgen und Einblicke in die Leistung Ihrer Modelle gewinnen können. Sie können auch Warnungen einrichten und Probleme proaktiv überwachen, bevor sie sich auf das Kundenerlebnis auswirken.

    Whitepaper zur betriebliche Exzellenz lesen 
  • API Gateway bietet integrierte Mechanismen zur Authentifizierung und Autorisierung von API-Anfragen und verhindert so Denial-of-Service-Angriffe oder andere Arten von Missbrauch, die Ihre Backend-Ressourcen überlasten können. Sie können auch Amazon-Cognito-Benutzerpools, OAuth 2.0 oder IAM-Rollen verwenden, um den Zugriff auf Ihre APIs zu steuern. Und zum Schutz der Daten stellt API Gateway sicher, dass die an Ihren Endpunkt gelangenden Daten SSL/TLS-verschlüsselt sind. Es unterstützt auch die API-Drosselung und trägt so dazu bei, Ihre APIs vor übermäßigem Datenverkehr oder Missbrauch zu schützen. Erwägen Sie auch, AWS WAF, eine Firewall für Web-Anwendungen, vor dem API Gateway hinzuzufügen, um Anwendungen vor webbasierten Angriffen und Missbrauch zu schützen. Schließlich sollten Sie AWS Shield in Betracht ziehen, um Ihre Workloads vor DDoS-Angriffen (Distributed Denial of Service) zu schützen.

    Whitepaper zur Sicherheit lesen 
  • API Gateway, Lambda und SageMaker werden in dieser Anleitung eingesetzt, um die Zuverlässigkeit Ihrer Workloads zu verbessern. Erstens bietet API Gateway eine integrierte Fehlertoleranz und automatische Skalierung, um Datenverkehrsspitzen zu bewältigen. Es lässt sich auch in Lambda und SageMaker integrieren, um das Entwickeln skalierbarer, Serverless APIs zu vereinfachen. Darüber hinaus ist SageMaker so konzipiert, dass es eine hohe Zuverlässigkeit und Verfügbarkeit für die Ausführung von Machine-Learning-Workloads und die Bereitstellung von Machine-Learning-Modellen bietet. Es bietet verwaltete automatische Skalierung, Fehlertoleranz, Zustandsprüfungen, Überwachung und Diagnose. Es wird in einer verteilten Infrastruktur ausgeführt, die über mehrere Availability Zones verteilt ist und so eine hohe Verfügbarkeit gewährleistet. Diese garantieren die Zuverlässigkeit Ihres Modelltrainings und Ihrer Inferenzen.

    Whitepaper zur Zuverlässigkeit lesen 
  • SageMaker wird hier zur Steigerung der Leistungseffizienz verwendet. Es bietet einen leistungsstarken Inferenz-Service mit niedriger Latenzzeit, der zum Hosten von Machine-Learning-Modellen verwendet werden kann. Sie können den Instance-Typ, die Anzahl der Instances und andere Bereitstellungskonfigurationen einfach konfigurieren, um Ihren Workload richtig zu dimensionieren und für Latenz, Durchsatz und Kosten zu optimieren.

    Whitepaper zur Leistung und Effizienz lesen 
  • Multimodell-Endpunkte von SageMakerbieten eine skalierbare und kostengünstige Möglichkeit, eine große Anzahl von Modellen bereitzustellen. Diese Endpunkte verwenden denselben Container zum Hosten aller Ihrer Modelle, sodass Sie den Aufwand für die Verwaltung separater Endpunkte reduzieren können. In einer Situation, in der einige der Modelle nicht so häufig genutzt werden, können Sie die Ressourcen gemeinsam nutzen, um die Infrastrukturauslastung zu maximieren und Kosten im Vergleich zu separaten Endpunkten zu sparen. 

    Whitepaper zur Kostenoptimierung lesen 
  • Die asynchrone Inferenz von SageMaker ist eine Funktion, die eingehende Anfragen in die Warteschlange stellt und diese Anfragen asynchron verarbeitet. Dies bedeutet, dass SageMaker bei Nichtgebrauch automatisch auf Null Instances herunterskaliert werden kann. Dadurch werden Rechenressourcen im Leerlauf eingespart und die Umweltauswirkungen der Ausführung Ihrer Cloud-Workloads minimiert. 

    Whitepaper zur Nachhaltigkeit lesen 

Implementierungsressourcen

Der Beispielcode dient als Ausgangspunkt. Er ist in der Branche erprobt, präskriptiv, aber nicht endgültig, und ein Blick unter die Haube, der Ihnen den Einstieg erleichtert.

AWS Machine Learning
Blog

Sichere Bildgenerierung und Diffusionsmodelle mit Amazon-KI-Services zur Inhaltsmoderation

In diesem Beitrag wird die Verwendung der AWS-KI-Services Amazon Rekognition und Amazon Comprehend sowie anderer Techniken untersucht, um mithilfe des Stable-Diffusion-Modells generierte Inhalte nahezu in Echtzeit effektiv zu moderieren.

Haftungsausschluss

Der Beispielcode, die Softwarebibliotheken, die Befehlszeilentools, die Machbarkeitsnachweise, die Vorlagen oder andere zugehörige Technologien (einschließlich derjenigen, die von unseren Mitarbeitern bereitgestellt werden) werden Ihnen als AWS-Inhalte im Rahmen der AWS-Kundenvereinbarung oder der entsprechenden schriftlichen Vereinbarung zwischen Ihnen und AWS (je nachdem, was zutrifft) zur Verfügung gestellt. Sie sollten diese AWS-Inhalte nicht in Ihren Produktionskonten oder für Produktions- oder andere kritische Daten verwenden. Sie sind verantwortlich für das Testen, Sichern und Optimieren des AWS-Inhalts, z. B. des Beispielcodes, für die Verwendung in der Produktion auf der Grundlage Ihrer spezifischen Qualitätskontrollverfahren und -standards. Bei der Bereitstellung von AWS-Inhalten können AWS-Gebühren für die Erstellung oder Nutzung von kostenpflichtigen AWS-Ressourcen anfallen, z. B. für den Betrieb von Amazon-EC2-Instances oder die Nutzung von Amazon-S3-Speicher.

Verweise auf Services oder Organisationen von Drittanbietern in diesen Leitlinien bedeuten nicht, dass Amazon oder AWS eine Billigung, Förderung oder Zugehörigkeit zwischen Amazon oder AWS und dem Drittanbieter darstellt. Die Beratung durch AWS ist ein technischer Ausgangspunkt, und Sie können Ihre Integration mit Services von Drittanbietern anpassen, wenn Sie die Architektur bereitstellen.

War diese Seite hilfreich?