Veröffentlicht am: Apr 23, 2024

Es freut uns sehr, Ihnen die Vorschau von Custom Model Import für Amazon Bedrock ankündigen zu können. Jetzt können Sie benutzerdefinierte Modelle in Amazon Bedrock importieren, um die Entwicklung Ihrer generativen KI-Anwendung zu beschleunigen. Dieses neue Feature erlaubt es Ihnen, vorherige Investitionen in die Anpassung des Modells innerhalb von Amazon Bedrock zu nutzen und diese auf dieselbe Weise wie die bestehenden Modelle in Bedrock einzusetzen. Mit unterstützten Architekturen wie Llama, Mistral oder Flan T5 können Sie angepasste Modelle nun von überall importieren und bei Bedarf darauf zugreifen.

Da die Umgebung der generativen KI sich schnell weiterentwickelt, entstehen weiterhin neue Modelle mit offenen Architekturen wie Mistral und Llama, die ein besseres Preis-Leistungs-Verhältnis als bestehende Modelle aufweisen. Kunden passen diese Modelle häufig an konkrete Anwendungsfälle an, um spezifische Geschäftsanforderungen zu erfüllen. Dies umfasst u. a. Techniken wie die Feinabstimmung oder die Domainanpassung anhand proprietärer Daten. Bisher mussten Kunden Modelle, die außerhalb von Bedrock angepasst wurden, auf einer selbstverwalteten Infrastruktur bereitstellen, weshalb bei Anwendungsentwicklern eine unzusammenhängende Erfahrung entstand, da diese zwischen verschiedenen Modellquellen wechseln. Nun mit dieser Markteinführung können Kunden die außerhalb von Bedrock angepassten Modelle (für unterstützte Modellarchitekturen) importieren und bei Bedarf mittels der Bedrock API zum Aufrufen von Modellen Zugriff erhalten, wodurch ein einheitliches Erlebnis für Basis-, benutzerdefinierte und importierte Modelle auf Amazon Bedrock geschaffen wird.

Dieses Feature ist in der Region USA-Ost (Nord-Virginia) als Vorschau verfügbar. Sie können beginnen, indem Sie den Workflow für die Modellimporte auf der Seite mit den benutzerdefinierten Modellen der Amazon-Bedrock-Konsole initiieren. Weitere Informationen zum Import benutzerdefinierter Modelle, finden Sie auf der Dokumentationsseite.