Diese Anleitung hilft Spieleentwicklern dabei, den Prozess der Erstellung eines Nicht-Spieler-Charakters (NSC) für ihre Spiele und die dazugehörige Infrastruktur zu automatisieren. Es verwendet Unreal Engine MetaHuman zusammen mit Basismodellen (FMs), beispielsweise den großen Sprachmodellen (LLMs) Claude 2 und Llama 2, um die Konversationsfähigkeiten von NSC zu verbessern. Dies führt zu dynamischen Reaktionen des NSC, die für jeden Spieler einzigartig sind und den geskripteten Dialog ergänzen. Mithilfe der Methodik für Large Language Model Ops (LLMOps) beschleunigt diese Anleitung die Prototypenerstellung und die Lieferzeit durch kontinuierliche Integration und Bereitstellen der generativen KI-Anwendung zusammen mit der Feinabstimmung der LLMs. Gleichzeitig wird sichergestellt, dass der NSC uneingeschränkten Zugriff auf eine sichere Wissensdatenbank über Spielgeschichten hat.

Diese Anleitung besteht aus vier Teilen: einer Übersichtsarchitektur, einer LLMOps-Pipeline-Architektur, einer Foundation Model Operations (FMOps)-Architektur und einer Architektur zur Datenbankhydrierung.

Bitte beachten: [Haftungsausschluss]

Architekturdiagramm

Architekturdiagramm als PDF herunterladen 
  • Übersicht
  • Dieses Architekturdiagramm zeigt einen Überblick über den Workflow zum Hosten eines Generative-KI-NSC in AWS.

  • LLMOps-Pipeline
  • Dieses Architekturdiagramm veranschaulicht die Prozesse der Bereitstellung einer LLMOps-Pipeline in AWS.

  • FMOps-Pipeline
  • Dieses Architekturdiagramm zeigt den Prozess der Optimierung eines generativen KI-Modells mithilfe von FMOps.

  • Datenbankhydrierung
  • Dieses Architekturdiagramm zeigt den Prozess zur Datenbankhydrierung durch Vektorisierung und Speicherung von Spielergeschichten für RAG.

Well-Architected-Säulen

Das AWS-Well-Architected-Framework hilft Ihnen, die Vor- und Nachteile der Entscheidungen zu verstehen, die Sie beim Aufbau von Systemen in der Cloud treffen. Die sechs Säulen des Frameworks ermöglichen es Ihnen, architektonische bewärhte Methoden für die Entwicklung und den Betrieb zuverlässiger, sicherer, effizienter, kostengünstiger und nachhaltiger Systeme zu erlernen. Mit dem AWS-Well-Architected-Tool, das kostenlos in der AWS-Managementkonsole verfügbar ist, können Sie Ihre Workloads anhand dieser bewährten Methoden überprüfen, indem Sie eine Reihe von Fragen für jede Säule beantworten.

Das obige Architekturdiagramm ist ein Beispiel für eine Lösung, die unter Berücksichtigung der bewährten Methoden von Well-Architected erstellt wurde. Um eine vollständige Well-Architected-Lösung zu erhalten, sollten Sie so viele bewährte Methoden von Well-Architected wie möglich befolgen.

  • Diese Anleitung verwendet AWS X-Ray, Lambda, API Gateway und CloudWatch, um alle API-Anfragen für den generierten NSC-Dialog zwischen dem Client von Unreal Engine Metahuman und dem FM von Amazon Bedrock nachzuverfolgen. Dadurch erhalten Sie umfassende Einblicke in den Status der Anleitung und können jede Anfrage und Antwort des Clients differenziert nachverfolgen, so dass Sie Probleme schnell identifizieren und entsprechend reagieren können. Darüber hinaus ist diese Anleitung als CDK-Anwendung mithilfe von CodePipeline kodifiziert. Dadurch können Betriebsteams und Entwickler Fehler und Schwachstellen durch geeignete Änderungskontrollmethoden beheben und diese Aktualisierungen oder Korrekturen mithilfe der CI/CD-Pipeline schnell bereitstellen.

    Whitepaper zur betrieblichen Exzellenz lesen 
  • Amazon S3 bietet verschlüsselten Schutz für die Speicherung der Dokumentation der Spielgeschichte im Ruhezustand, sowie einen verschlüsselten Zugriff auf Daten während der Übertragung. Gleichzeitig wird die Dokumentation der Spielgeschichte in den Vektor aufgenommen oder ein FM von Amazon Bedrock wird optimiert. API Gateway fügt eine zusätzliche Sicherheitsebene zwischen Unreal Engine Metahuman und dem FM von Amazon Bedrock hinzu, indem es eine TLS-basierte Verschlüsselung aller Daten zwischen dem NSC und dem Modell bereitstellt. Schließlich implementiert Amazon Bedrock automatische Mechanismen zur Missbrauchserkennung, um Verstöße gegen die AWS-Richtlinie zur akzeptablen Nutzung und die AWS-Richtlinie zur verantwortungsvollen KI besser zu identifizieren und zu mindern.

    Whitepaper zur Sicherheit lesen 
  • API Gateway verwaltet die automatische Skalierung und Drosselung von Anfragen des NSC an das FM. Da die gesamte Infrastruktur außerdem mithilfe von CI/CD-Pipelines kodifiziert ist, können Sie Ressourcen über mehrere AWS-Konten und mehrere AWS-Regionen hinweg parallel bereitstellen. Dies ermöglicht mehrere Szenarien zur gleichzeitigen erneuten Bereitstellung der Infrastruktur, um Sie bei der Behebung von Ausfällen auf AWS-Regionsebene zu unterstützen. API Gateway und Lambda als Serverless-Infrastrukturressourcen ermöglichen es Ihnen, sich auf die Spielentwicklung zu konzentrieren, anstatt die Ressourcenzuweisung und Nutzungsmuster für API-Anfragen manuell zu verwalten.

    Whitepaper zur Zuverlässigkeit lesen 
  • Serverless Ressourcen, wie Lambda und API Gateway, tragen zur Leistungseffizienz der Anleitung bei, indem sie sowohl Elastizität als auch Skalierbarkeit bieten. Dadurch kann sich die Anleitung dynamisch an eine Zunahme oder Abnahme der API-Aufrufe vom NSC-Client anpassen. Ein elastischer und skalierbarer Ansatz hilft Ihnen dabei, Ressourcen für eine optimale Leistung richtig zu dimensionieren und auf unvorhergesehene Zunahmen oder Rückgänge bei API-Anfragen zu reagieren – ohne dass Sie bereitgestellte Infrastrukturressourcen manuell verwalten müssen. So müssen die bereitgestellten Infrastrukturressourcen nicht manuell verwalten.

    Whitepaper zur Leistung und Effizienz lesen 
  • Durch die Codierung der Anleitung als CDK-Anwendung erhalten Spieleentwickler die Möglichkeit, schnell Prototypen ihrer NSC-Charaktere zu erstellen und diese in der Produktion einzusetzen. Entwickler erhalten schnellen Zugriff auf FMs von Amazon Bedrock über eine REST-API von API Gateway, ohne die FMs entwickeln, erstellen und vorab trainieren zu müssen. Die schnelle Erstellung von Prototypen trägt dazu bei, den Zeit- und Betriebsaufwand zu reduzieren, der mit der Erstellung von FMs von Grund auf verbunden ist.

    Whitepaper zur Kostenoptimierung lesen 
  • Lambda bietet einen Serverless-, skalierbaren und ereignisgesteuerten Ansatz, ohne dedizierte Rechenressourcen bereitstellen zu müssen. Amazon S3 implementiert Richtlinien für den Datenlebenszyklus sowie Komprimierung für alle Daten in dieser Anleitung und ermöglicht so eine energieeffiziente Speicherung. Amazon Bedrock hostet FMs in AWS-Silikon und bietet so eine bessere Leistung pro Watt an Standard-Rechenressourcen.

    Whitepaper zur Nachhaltigkeit lesen 

Implementierungsressourcen

Der Beispielcode dient als Ausgangspunkt. Er ist in der Branche erprobt, präskriptiv, aber nicht endgültig, und ein Blick unter die Haube, der Ihnen den Einstieg erleichtert.

[Betreff]
[Inhaltstyp]

[Titel]

[Untertitel]
Dieser [Blogbeitrag/E-Book/Anleitung/Beispielcode] zeigt, wie [kurze Beschreibung einfügen].

Haftungsausschluss

Der Beispielcode, die Softwarebibliotheken, die Befehlszeilentools, die Machbarkeitsnachweise, die Vorlagen oder andere zugehörige Technologien (einschließlich derjenigen, die von unseren Mitarbeitern bereitgestellt werden) werden Ihnen als AWS-Inhalte im Rahmen der AWS-Kundenvereinbarung oder der entsprechenden schriftlichen Vereinbarung zwischen Ihnen und AWS (je nachdem, was zutrifft) zur Verfügung gestellt. Sie sollten diese AWS-Inhalte nicht in Ihren Produktionskonten oder für Produktions- oder andere kritische Daten verwenden. Sie sind verantwortlich für das Testen, Sichern und Optimieren des AWS-Inhalts, z. B. des Beispielcodes, für die Verwendung in der Produktion auf der Grundlage Ihrer spezifischen Qualitätskontrollverfahren und -standards. Bei der Bereitstellung von AWS-Inhalten können AWS-Gebühren für die Erstellung oder Nutzung von kostenpflichtigen AWS-Ressourcen anfallen, z. B. für den Betrieb von Amazon-EC2-Instances oder die Nutzung von Amazon-S3-Speicher.

Verweise auf Services oder Organisationen von Drittanbietern in diesen Leitlinien bedeuten nicht, dass Amazon oder AWS eine Billigung, Förderung oder Zugehörigkeit zwischen Amazon oder AWS und dem Drittanbieter darstellt. Die Beratung durch AWS ist ein technischer Ausgangspunkt, und Sie können Ihre Integration mit Services von Drittanbietern anpassen, wenn Sie die Architektur bereitstellen.

War diese Seite hilfreich?