AWS Germany – Amazon Web Services in Deutschland

AWS Summit Berlin 2024 – Highlights und Recap

Der AWS Summit Berlin 2024 war ein Höhepunkt für die Cloud-Community in Deutschland! Über 13.000 begeisterte Teilnehmer trafen sich an zwei spannenden Tagen am 15. und 16. Mai in der Station Berlin, um die neuesten Cloud-Innovationen von AWS zu entdecken. Auf dem zweitägigen Event erwartete die Teilnehmende ein abwechslungsreiches Programm mit über 150 Vorträge und Hands-on-Workshops. Die Sessions fanden auf 18 Bühnen und in spezialisierten Bereichen wie der Startup Stage, der Automotive Garage oder der Community Stage statt. Besonders hervorzuheben und erstmals mit dabei: die „Women of the Cloud“-Bühne. Women of the Cloud zielt darauf ab, die herausragenden Beiträge und Innovationen von Frauen in Tech hervorzuheben. Ob Cloud-Neuling oder Experte – der AWS Summit Berlin 2024 bot für für alle jede Menge Spannendes und Lehrreiches. In dieser Zusammenfassung beleuchten wir einige der Highlights:

Die Keynote

 

Stefan Höchbauer (Managing Director, AWS Germany and Europe Central) eröffnete den AWS Summit Berlin mit der Ankündigung einer 7,8 Milliarden Euro Investition in die AWS European Sovereign Cloud in Brandenburg. Diese bis 2040 geplante Investition ist Teil der langfristigen Bestrebungen von AWS, das europäische Bedürfnis nach digitaler Souveränität und Datenkontrolle zu adressieren. Die erste Region der AWS European Sovereign Cloud in Brandenburg soll schon bis Ende 2025 eröffnet werden.
Als nächstes sprach Stefan Höchbauer über die erfolgreiche Zusammenarbeit zwischen DFL und AWS und verkündete, dass AWS auch in der kommenden Saison als offizieller KI-Partner der Bundesliga fungieren wird. Diese Zusammenarbeit demonstriert, wie Cloud und KI den Fußballsport auf ein neues Level heben und Fans datengestützte, interaktive Spielerlebnisse ermöglichen.

Im zweiten Teil der Keynote beleuchtete Mindy Ferguson (VP, AWS Streaming & Messaging), wie das Jahr 2023 den Beginn eines neuen Zeitalters markiert – des Zeitalters der Generativen KI. Generative KI als neuartige Softwarekomponente verleiht Systemen die Fähigkeit zu schlussfolgern (Reasoning).
AWS demokratisiert Generative KI mit einem dreistufigen Modell. Auf der ersten Ebene bietet AWS eine skalierbare Infrastruktur zum Trainieren Basismodelle (FMs). Ein beeindruckendes Beispiel ist der in Kooperation mit NVIDIA gebaute 414 Exaflops KI-Supercomputer Project Ceiba. Die zweite Ebene umfasst Werkzeuge und Dienste wie Amazon Bedrock zum Entwickeln von Generativen KI Anwendungen. Auf der dritten Ebene steht mit Amazon Q eine fertige Lösung für Generative KI Anwendungen zur Verfügung.

Die Keynote wurde durch spannende Kundenbeispiele ergänzt, so sprach Valeri Liborski
(CTO, HelloFresh) über deren Datenplattform auf AWS und wie FreshBot mit Amazon Bedrock die Effizienz interner Teams erhöht. Marina Stierstorfer (Head of Software Factory, BMW Group) präsentierte die preisgekrönte Softwareentwicklungs-Toolchain “CodeCraft”, die auf AWS umgesetzt wurde. Ein aktueller 7er BMW erfordert beeindruckende 500 Millionen Zeilen Code. Um diese und andere komplexe Entwicklungen effizient zu unterstützen, hat BMW CodeCraft entwickelt. Diese innovative Toolchain unterstützt über 12.000 Entwickler/-innen und 140.000 tägliche Builds. CodeCraft nutzt die Multi-Region-Möglichkeiten von AWS und ist auf drei AWS-Regionen in Europa verteilt, was eine hohe Verfügbarkeit und Skalierbarkeit sicherstellt. Dan Rosenthal (Global Head of Partnerships, Anthropic) stellte die Claude 3 Modell-Familie vor, die dank Fokus auf weniger Halluzinationen für mehr Sicherheit in der Generative KI sorgen soll. Isabelle Droll (CIO, TUI Airline) erzählte wie TUI die COVID-Jahre nutzte, um die Cloud-Transformation des Unternehmens voranzutreiben. Im Rahmen der Keynote präsentierte sie die cloud-native TUI-Plattform, die eine vollumfänglich vernetzte und End-to-End personalisierte KI-Umgebung bietet. Diese Transformation ermöglicht TUI, innovative und effiziente Lösungen zu implementieren, um den Bedürfnissen ihrer Kunden noch besser gerecht zu werden. Ein letztes Beispiel lieferte Adobe, die mit ihrer leistungsfähigen KI-Modellfamilie „Firefly“ und der AWS Cloud bereits über 6,5 Milliarden Bilder für Kunden erstellt hat.

Die volle Keynote sowie weitere spannende und informative Präsentation vom AWS Summit Berlin können Sie unter diesem Link sehen.

Große Expo, viele Demos und Breakout-Sessions

Eine Partner Expo mit knapp 100 Ausstellern bot den Teilnehmenden die Möglichkeit, mit zahlreichen Partnern, Dienstleistern und Trainings-Anbietern in Kontakt zu treten. Generative KI war ein hier Schwerpunktthema. Auf dem Summit gab es über 50 Vorträge und Demos, die unseren Kunden zeigten, wie diese Technologie das Kundenerlebnis verbessern und die Produktivität steigern kann. Die Demonstrationen reichten von intelligenten Shopping-Assistenten mit konversationeller KI bis hin zu Drohnen, die dank generativer KI-Funktionen auch ohne technisches Know-how leicht steuerbar sind. Im Play & Learn-Bereich konnten die Besucher AWS-Technologien auf unterhaltsame und interaktive Weise wie Rennsimulationen, intelligente Tischkicker und Escape Rooms praktisch ausprobieren. Offene Fragen ließen sich in persönlichen Gesprächen mit AWS-Experten klären. Wer sich einen technical deep dive zu einem spezifischen Thema wünschte, konnte zu einer der Ask-an-Architect Booths gehen, und sich von AWS Experten beraten lassen. In der Startup Loft konnten sich Startups mit dem AWS-Startup-Team vernetzen und erfahren, wie sie von der AWS-Cloud profitieren können. Überall auf dem Gelände brachte die AWS-Community Entwickler zusammen zum Erfahrungsaustausch und Netzwerken.

Auch die vielen Breakout-Sessions erzeugten positive Resonanz bei den Besuchern. So zum Beispiel die Präsentation der Solution Architekten Constantine Gonzalez und Elina Lesyk über Prompt engineering best practices für große Sprachmodelle (LLMs) auf Amazon Bedrock. Die Session bot den Teilnehmenden einen umfassenden Überblick über Prompt Engineering und konzentrierte sich darauf, die besten Formate, Phrasen, Wörter und Symbole auszuwählen, um die Leistung von Generative-KI-Lösungen zu verbessern. Als Hauptbeispiel dienten die Anthropic Claude LLMs, anhand derer demonstriert wurde, wie effektives Prompt Engineering komplexe Kundenanwendungsfälle adressieren kann. Die Teilnehmer lernten, wie Prompts in ihre bestehende Architektur integriert werden, erkundeten fortgeschrittene Prompting-Techniken und konnten Demonstrationen verschiedener Prompting-Methoden sehen. Zu den wichtigsten behandelten Techniken gehörten One-Shot-Prompting, Few-Shot-Prompting und Explicit Chain of Thought Prompting. Die Präsentation zeigte nicht nur die Vielfalt an Aufgaben, die mit Anthropic-Modellen gelöst werden können, sondern demonstrierte den Nutzern auch, wie sie von fortgeschrittenem Prompting profitieren können, um die größtmöglichen Vorteile zu erzielen. Die Session zeigte anschaulich, wie gut gestaltete Prompts die Leistung von LLMs deutlich steigern können. Sie ist daher sehr empfehlenswert für alle, die Generative KI optimal nutzen möchten.

Generative KI-Modelle verändern, wie wir Daten nutzen. Dennoch bleiben Datenbanken ein zentraler Baustein moderner Systeme. In der Session Deep dive into Amazon Aurora and its innovations, präsentiert von den Solution Architects Ovidiu Hutuleac und Katja-Maja Kroedel, lernten die Zuschauenden über die innovative Architektur von Amazon Aurora. Diese trennt Rechenleistung und Speicher voneinander und bietet fortschrittliche Funktionen wie Aurora Global Database und niedrig latente Read Replicas. Amazon Aurora bietet unübertroffene Leistung und hohe Verfügbarkeit im großen Maßstab, vollständig kompatibel mit Open-Source MySQL und PostgreSQL. Damit definiert Amazon Aurora relationale Datenbanken neu. Vorgestellte Neuerungen waren Aurora I/O-Optimized, die nahtlose Integration mit Amazon Redshift ohne ETL und Aurora Serverless v2, die zusammen Effizienz und Skalierbarkeit verbessern. Darüber hinaus wurde die pgvector-Erweiterung vorgestellt. Diese ermöglicht die Speicherung von Vektoreinbettungen und unterstützt Vektorsimilaritätssuchen für generative KI-Anwendungen. Die Erweiterung ist besonders relevant für Maschinelles Lernen, da sie fortschrittliche Datenverarbeitung und -abruf ermöglicht.

Einige weitere Sessions sind bereits online verfügbar und für Sie kostenlos zugänglich! Unter anderem:

  • Advanced integration patterns & trade-offs for loosely coupled systems – Dirk Fröhner, Principal Solutions Architect bei AWS, und Gregor Hohpe, Senior Principal Evangelist bei AWS, sprechen über Designkompromisse und Muster für verteilte Systeme in der Cloud-Automatisierung.
  • Building an AWS Solutions Architect agent with Amazon Bedrock – Viktor Vedmich, Senior Developer Advocate (CEE) bei AWS, und Viktoria Semaan, Senior Developer Advocate bei AWS, zeigen, wie sie einen AWS Solutions Architect-Agenten mithilfe von generativer KI entwickeln.
  • Building next-generation applications with event-driven architecture – Martin Sakowski, Senior Solutions Architect bei AWS, und Nensi Hakobjanyan, Associate Solutions Architect bei AWS, behandeln, wie sie Entkoppelung, Integrationsmuster und Best Practices für ereignisgesteuerte Architekturen bauen.
  • Deep dive into Amazon Aurora and its innovations – Ovidiu Hutuleac, Senior Solutions Architect bei AWS, und Katja-Maja Kroedel, Senior Database Specialist Solutions Architect bei AWS, besprechen, wie sie die fortschrittlichen Funktionen und die innovative Architektur von Amazon Aurora nutzen können. Sie heben die Leistungsfähigkeit, Skalierbarkeit und Kompatibilität mit Open-Source-Datenbanken hervor.
  • Do modern cloud applications lock you in? – Gregor Hohpe, Sr. Principal Evangelist bei AWS, und Jean-Francois Landreau, Sr. Solutions Architect bei AWS, beleuchten Kompromisse in modernen Cloud-Anwendungen. Sie diskutieren das Thema Cloud Service Lock-in und bewerten die Wirksamkeit von Abstraktionsschichten.
  • Innovate faster with generative AI (Zalando) – Nuno Castro, Sr. Applied Science Manager bei AWS, Ivan Sosnovik, Applied Scientist bei AWS, und Dr. Weiwei Cheng, Sr. Principal Scientist bei Zalando SE, erörtern die Auswirkungen von generativer KI auf verschiedene Branchen. Sie zeigen auf, wie AWS und Zalando diese Technologien nutzen, um Unternehmen zu transformieren.
  • Prompt engineering best practices for LLMs on Amazon Bedrock – Constantin Gonzalez, Principal Solutions Architect bei AWS, und Elina Lesyk, Associate Solutions Architect bei AWS, gebe einen Überblick über Best Practices beim Prompt Engineering mit Anthropic Claude LLMs.
  • Refactoring to serverless – Lukas Müller, Manager Solutions Architect bei AWS, und Patrick Meiler, Solutions Architect bei AWS, erläutern, wie sich mit serverloser Architektur und AWS CDK die Anwendungsentwicklung straffen lässt.
  • Reinventing with generative AI on AWS – Nahia Orduna, Head of Solutions Architecture für strategische Kundenkonten bei AWS, und Jamila Jamilova, Startup Solutions Architect bei AWS, erklären, wie Organisationen jeder Größe generative KI für Innovation und Produktivitätssteigerung nutzen können.
  • The Amazon Software Development Process – Jonathan Weiss, Managing Director des Amazon Development Center Germany bei AWS, beleuchtet den Übergang von Amazon von einer monolithischen hin zu einer verteilten, serviceorientierten Architektur.

Vielen Dank an alle Beteiligten und Teilnehmenden für einen einzigartigen AWS Summit Berlin 2024! Wir freuen uns auf ein Wiedersehen im nächsten Jahr in Hamburg!

Über die Autoren

Kaleb Alemayehu ist technischer Account Manager bei AWS. Er unterstützt hauptsächlich Kunden aus der Automobil- und Fertigungsindustrie auf ihrer Cloud-Reise und hilft Kunden mit Leidenschaft dabei, Hindernisse zu überwinden, während sie entdecken, was die Cloud zu bieten hat.
Oliver Möller ist Solutions Architect bei Amazon Web Services und unterstützt Medien- und Unterhaltungsunternehmen auf ihrem Weg in die Cloud. Er hat eine Leidenschaft für KI und ML und nutzt diese, um Innovation voranzutreiben und komplexe Kundenprobleme zu lösen.