Veröffentlicht am: Jun 25, 2021
Amazon-EC2-Inf1-Instances und AWS Neuron unterstützen jetzt YOLOv5- und ResNext-Deep-Learning-Modelle sowie die neuesten Open-Source-Hugging-Face-Transformer. Wir haben auch den Neuron-Compiler optimiert, um die Leistung zu verbessern, und Sie können jetzt standardmäßig einen 12-mal höheren Durchsatz als vergleichbare GPU-basierte Instances für vortrainierte BERT-Basismodelle erzielen. Diese Verbesserungen ermöglichen es Ihnen, Ihre Hochleistungs-Inferenzanforderungen effektiv zu erfüllen und modernste Deep-Learning-Modelle zu geringen Kosten bereitzustellen.
EC2-Inf1-Instances werden von AWS Inferentia unterstützt, einem benutzerdefinierten Chip, der von AWS entwickelt wurde, um die Inferenz beim Machine Learning zu beschleunigen. Diese Instances bieten die niedrigsten Kosten für Deep-Learning-Inferenz in der Cloud. Sie können Ihre Modelle für Machine Learning ganz einfach in gängigen Frameworks für Machine Learning wie TensorFlow, PyTorch und MXNet trainieren und sie mit dem Neuron-SDK auf EC2-Inf1-Instances bereitstellen. Da Neuron in gängige Frameworks für Machine Learning integriert ist, können Sie Ihre vorhandenen Modelle mit minimalen Codeänderungen auf Inf1-Instances bereitstellen. Dies gibt Ihnen die Freiheit, die Portabilität der Hardware aufrechtzuerhalten und die neuesten Technologien zu nutzen, ohne an eine herstellerspezifische Lösung gebunden zu sein.
Inf1-Instances wurden von Kunden wie Snap, Autodesk und Conde Nast sowie Amazon-Services wie Alexa und Rekognition weitgehend übernommen und sind in 23 AWS-Regionen weltweit verfügbar. Unsere technischen Investitionen in Verbindung mit unserer Größe und unserer bewährten Fähigkeit, unsere Kapazitäten zu verwalten, ermöglichen es uns, die Kosteneinsparungen zu erkennen und an unsere Kunden weiterzugeben. Damit Sie Ihre Deep-Learning-Anwendungen in der Produktion auf Amazon-EC2-Inf1-Instances weiter skalieren können, kündigen wir eine Reduzierung unserer On-Demand(OD)-Preise um 38 % zum 1. Juni 2021 an. Für Kunden, die Savings Plans oder Reserved Instances (RI) nutzen möchten, um ihre Kosten weiter zu senken, senken wir unseren 1-Jahres-Savings-Plan und RI-Preise um 38 % und unseren 3-Jahres-Savings-Plan und RI-Preise um 31 %. Diese niedrigeren Preise wären auch für Kunden wirksam, die EC2-Inf1-Instances über Container-Orchestrierungsdienste wie Amazon ECS oder EKS nutzen.
Für Kunden, die einen vollständig verwalteten Machine-Learning-Service bevorzugen, reduzieren wir auch den Preis für ml.Inf1-Instances in Amazon SageMaker. Amazon SageMaker ist ein vollständig verwalteter Dienst, mit dem jeder Entwickler und Datenwissenschaftler Modelle für Machine Learning (ML) erstellen, trainieren und bereitstellen kann. Ab dem 1. Juni 2021 können Amazon-SageMaker-Kunden von 38 % niedrigeren Preisen für On-Demand-Instances profitieren. Ab heute reduzieren wir die Preise für den Amazon-SageMaker-1-Jahres-Savings-Plan um bis zu 38 % und den 3-Jahres-Savings-Plan um bis zu 25 %. Diese Preissenkungen erhöhen das Preis-Leistungs-Verhältnis von Inf1-Instances für Ihre Echtzeit-Inferenzanforderungen weiter. Informationen zu den Preisen für ml.Inf1-Instances in Amazon SageMaker finden Sie auf der Seite mit den Amazon-SageMaker-Preisen.
Amazon-EC2-Inf1-Instances sind in 23 Regionen verfügbar, darunter USA Ost (Nord-Virginia, Ohio), USA West (Oregon, N.Kalifornien), AWS GovCloud (USA-Ost, USA-West), Kanada (Zentral), Europa (Frankfurt, Irland, London, Mailand, Paris, Stockholm), Asien-Pazifik (Hongkong, Mumbai, Seoul, Singapur, Sydney, Tokio), Naher Osten (Bahrain), Südamerika (São Paulo) und China (Beijing, Ningxia). Sie können Amazon-EC2-Inf1-Instances in der Region nutzen, die Ihre Echtzeit-Latenzanforderungen für Machine-Learning-Inferenz am besten erfüllt, jetzt mit optimierter Leistung und niedrigeren Kosten.
Für weitere Informationen, besuchen Sie die Amazon-EC2-Inf1-Instance-Seite.