Scegli i servizi, i framework e i modelli di base di IA e ML giusti per supportare il tuo lavoro.
Introduzione
Nella sua forma più elementare, il machine learning (ML) è progettato per fornire strumenti e servizi digitali per imparare dai dati, identificare modelli, fare previsioni e quindi agire in base a tali previsioni. Quasi tutti i sistemi di intelligenza artificiale (IA) oggi vengono creati utilizzando il ML. Il machine learning utilizza grandi quantità di dati per creare e convalidare la logica decisionale. Questa logica decisionale costituisce la base del modello di intelligenza artificiale.
Un sottoinsieme del machine learning in rapida crescita è l'IA generativa, che si basa su modelli di grandi dimensioni preaddestrati su un vasto set di dati, comunemente denominati modelli di fondazione (FM). I servizi AWS basati sull'IA generativa includono:
- Amazon Bedrock (che consente di creare e scalare applicazioni generative basate sull'IA generativa utilizzando i FM)
- Amazon CodeWhisperer (un prodotto complementare di codifica IA che genera suggerimenti di codice in tempo reale in base ai tuoi commenti in linguaggio naturale e a qualsiasi codice precedente nel tuo ambiente di sviluppo integrato)
Questa guida decisionale ti aiuterà a porre le domande giuste, a valutare i tuoi criteri e i tuoi problemi aziendali e a determinare quali servizi sono più adatti alle tue esigenze.
In meno di due minuti, il Dott. Werner Vogels, CTO di Amazon, spiega come funziona l'IA generativa e come potresti utilizzarla. Questo video fa parte di una lunga discussione tra il Dott. Vogels e Swami Sivasubramanian, vicepresidente di AWS per database, analisi e machine learning, parlano dell'ampio panorama dell'IA generativa, del perché non è una campagna pubblicitaria e di come AWS stia democratizzando l'accesso a grandi modelli linguistici e di base.
Tempo di lettura
25 minuti
Scopo
Aiutarci a determinare quali servizi AWS ML sono più adatti alle tue esigenze.
Livello
Principiante
Ultimo aggiornamento
26 luglio 2023
Servizi coperti
Altre guide decisionali su
Scopri
Inoltre, AWS offre il seguente hardware specializzato e accelerato per la formazione e l'inferenza ML ad alte prestazioni.
- Le istanze P4d di Amazon EC2 sono dotate di GPU NVIDIA A100 Tensor Core, adatte sia per attività di addestramento che di inferenza nel machine learning. AWS Trainium è l’acceleratore di machine learning (ML) di seconda generazione che AWS ha creato appositamente per l'addestramento di deep learning di modelli parametrici 100B+.
- Le istanze Inf2 di Amazon EC2 basate su AWS Inferentia2 sono progettate per fornire prestazioni elevate al costo più basso in Amazon EC2 per le applicazioni di inferenza di DL e di IA generativa.
Prendi in esame
Quando risolvi un problema aziendale con i servizi AWS ML, la considerazione di diversi criteri chiave può contribuire a garantire il successo. La sezione seguente illustra alcuni dei criteri chiave da considerare nella scelta di un servizio ML.
-
Definizione del problema
-
Algoritmo
-
Sicurezza
-
Latenza
-
Precisione
-
AWS e IA responsabile
-
Il primo passo nel ciclo di vita del machine learning consiste nell'inquadrare il problema aziendale. Comprendere il problema che stai cercando di risolvere è essenziale per scegliere il servizio AWS ML giusto, poiché servizi diversi sono progettati per risolvere problemi diversi. È anche importante determinare se il ML è la soluzione migliore per il tuo problema aziendale.
Una volta stabilito che il machine learning è la soluzione migliore, puoi iniziare scegliendo tra una gamma di servizi di intelligenza artificiale AWS appositamente progettati (in aree come voce, visione e documenti).
Amazon SageMaker fornisce un'infrastruttura completamente gestita se devi creare e addestrare i tuoi modelli. AWS offre una serie di framework ML avanzati e scelte di infrastruttura per i casi in cui sono necessari modelli ML altamente personalizzati e specializzati. AWS offre anche un'ampia gamma di modelli di base popolari per la creazione di nuove applicazioni con IA generativa.
-
La scelta dell'algoritmo ML per il problema aziendale che stai cercando di risolvere dipende dal tipo di dati con cui stai lavorando e dai risultati desiderati. Le seguenti informazioni descrivono come ciascuna delle principali categorie di servizi AWS IA/ML ti consente di lavorare con i suoi algoritmi:
- Servizi di intelligenza artificiale specializzati: questi servizi offrono una capacità limitata di personalizzare l'algoritmo ML, in quanto sono modelli pre-addestrati ottimizzati per attività specifiche. In genere puoi personalizzare i dati di input e alcuni parametri, ma non hai accesso ai modelli ML sottostanti o la possibilità di creare i tuoi modelli.
- Amazon SageMaker: questo servizio offre la massima flessibilità e controllo sull'algoritmo di ML. Puoi usare SageMaker per creare modelli personalizzati utilizzando i tuoi algoritmi e framework o utilizzare modelli e algoritmi predefiniti forniti da AWS. Ciò consente un elevato grado di personalizzazione e controllo sul processo di machine learning.
- Framework e infrastruttura ML di livello inferiore: questi servizi offrono la massima flessibilità e controllo sull'algoritmo ML. È possibile utilizzare questi servizi per creare modelli ML altamente personalizzati utilizzando i propri algoritmi e framework. Tuttavia, l'utilizzo di questi servizi richiede una notevole esperienza di machine learning e potrebbe non essere fattibile per tutti i casi d'uso.
-
Se hai bisogno di un endpoint privato nel tuo VPC, le tue opzioni varieranno in base al livello di servizi AWS ML che stai utilizzando. Questi includono:
- Servizi di intelligenza artificiale specializzati: la maggior parte dei servizi di intelligenza artificiale specializzati attualmente non supporta gli endpoint privati nei VPC. Tuttavia, è possibile accedere alle etichette personalizzate Amazon Rekognition e Amazon Comprehend Custom utilizzando endpoint VPC.
- Servizi di intelligenza artificiale di base: Amazon Translate, Amazon Transcribe e Amazon Comprehend supportano tutti gli endpoint VPC.
- Amazon SageMaker: SageMaker fornisce un supporto integrato per gli endpoint VPC, consentendoti di distribuire i loro modelli addestrati come endpoint accessibile solo dall'interno del proprio VPC.
- Framework e infrastruttura ML di livello inferiore: puoi distribuire i tuoi modelli su istanze Amazon EC2 o in contenitori all'interno del tuo VPC, fornendo il controllo completo sulla configurazione di rete.
-
I servizi di intelligenza artificiale di livello superiore, come Amazon Rekognition e Amazon Transcribe, sono progettati per gestire un'ampia varietà di casi d'uso e offrono prestazioni elevate in termini di velocità. Tuttavia, potrebbero non soddisfare determinati requisiti di latenza.
Se utilizzi framework e infrastrutture ML di livello inferiore, ti consigliamo di utilizzare Amazon SageMaker. Questa opzione è generalmente più veloce rispetto alla creazione di modelli personalizzati grazie al servizio completamente gestito e alle opzioni di implementazione ottimizzate. Sebbene un modello personalizzato altamente ottimizzato possa superare le prestazioni di SageMaker, la sua creazione richiederà competenze e risorse significative.
-
L'accuratezza dei servizi AWS ML varia in base al caso d'uso specifico e al livello di personalizzazione richiesto. I servizi di intelligenza artificiale di livello superiore, come Amazon Rekognition, si basano su modelli pre-addestrati che sono stati ottimizzati per attività specifiche e offrono un'elevata precisione in molti casi d'uso.
In alcuni casi, puoi scegliere di utilizzare Amazon SageMaker, che fornisce una piattaforma più flessibile e personalizzabile per la creazione e l'addestramento di modelli ML personalizzati. Costruendo i tuoi modelli, potresti essere in grado di ottenere una precisione ancora maggiore di quella possibile con i modelli pre-addestrati.
Puoi anche scegliere di utilizzare framework e infrastrutture ML, come TensorFlow e Apache MXNet, per creare modelli altamente personalizzati che offrono la massima precisione possibile per il tuo caso d'uso specifico.
-
AWS crea modelli di fondazione (FM) pensando all'intelligenza artificiale responsabile in ogni fase del processo di sviluppo. Durante la progettazione, lo sviluppo, l'implementazione e le operazioni, prendiamo in considerazione una serie di fattori, tra cui:
- Precisione (quanto vicino un riassunto corrisponde al documento sottostante; se una biografia è effettivamente corretta)
- Equità (se i risultati trattano i gruppi demografici in modo simile)
- Considerazioni sulla proprietà intellettuale e sul copyright
- Utilizzo appropriato (filtraggio delle richieste degli utenti di consulenza legale, diagnosi mediche o attività illegali)
- Tossicità (incitamento all'odio, parolacce e insulti)
- Privacy (protezione delle informazioni personali e delle richieste dei clienti)
AWS crea soluzioni per risolvere questi problemi nei processi utilizzati per l'acquisizione dei dati di addestramento, negli stessi FM e nella tecnologia utilizzata per pre-elaborare le istruzioni utente e gli output di post-elaborazione.
Scegli
Ora che conosci i criteri in base ai quali valutare le opzioni del tuo servizio ML, sei pronto/a per scegliere il servizio AWS ML più adatto alle tue esigenze organizzative.
La tabella seguente evidenzia quali servizi ML sono ottimizzati per quali circostanze. Usala per determinare il servizio AWS ML più adatto al tuo caso d'uso.
Amazon Comprehend ti consente di eseguire attività di elaborazione del linguaggio naturale, come l'analisi del sentiment, il riconoscimento delle entità, la modellazione degli argomenti e il rilevamento del linguaggio, sui tuoi dati di testo.
Amazon Lex ti aiuta a creare chatbot e assistenti vocali in grado di interagire con gli utenti in un'interfaccia in linguaggio naturale. Fornisce funzionalità predefinite per la gestione dei dialoghi, la comprensione della lingua e il riconoscimento vocale.
Usa Amazon Polly per convertire il testo in parole realistiche, semplificando la creazione di applicazioni e servizi con tecnologia vocale.
Amazon Rekognition è progettato per consentirti di aggiungere analisi di immagini e video alle tue applicazioni. È sufficiente fornire un'immagine o un video all'API Amazon Rekognition e il servizio può identificare oggetti, persone, testo, scene e attività. Inoltre può rilevare contenuti non appropriati.
Amazon Textract ti aiuta a estrarre testo e dati da documenti, moduli e tabelle scansionati, semplificando l'archiviazione, l'analisi e la gestione di tali dati.
Amazon Transcribe consente ai clienti di trascrivere automaticamente le registrazioni audio e video in testo. Ciò consente di risparmiare tempo e fatica rispetto alla trascrizione manuale.
Utilizza questo servizio per tradurre il testo da una lingua all'altra in tempo reale. Ciò è particolarmente utile se la tua azienda opera in più paesi o ha bisogno di comunicare con persone non madrelingua.
Amazon Bedrock è un servizio completamente gestito che mette a disposizione i modelli di fondazione (FM) delle principali startup di IA e di Amazon attraverso un'API, così è possibile trovare il modello più adatto al tuo caso d'uso.
Amazon CodeWhisperer è un complemento di programmazione IA in tempo reale che aiuta a creare codice per attività indifferenziate e di routine che richiedono molto tempo, a lavorare con API o SDK sconosciuti, a fare un uso corretto ed efficace delle API AWS e ad altri scenari di codifica comuni come lettura e scrittura di file, elaborazione di immagini e scrittura di unit test.
Il pilota automatico Amazon SageMaker elimina il processo impegnativo di creazione dei modelli di ML. È sufficiente fornire un set di dati tabulare e selezionare la colonna di destinazione da prevedere e il pilota automatico SageMaker esaminerà automaticamente diverse soluzioni per trovare il modello migliore. È quindi possibile distribuire direttamente il modello in produzione con un solo clic o iterare nelle soluzioni consigliate per migliorare ulteriormente la qualità del modello.
Amazon SageMaker Canvas ti offre la possibilità di utilizzare il machine learning per generare previsioni senza dover scrivere alcun codice.
Amazon SageMaker Data Wrangler riduce il tempo richiesto per l'aggregazione e la preparazione dei dati tabulari e immagine per il machine learning (ML). Con SageMaker Data Wrangler è possibile semplificare il processo di preparazione dei dati e di ingegneria delle funzionalità e completare ciascuna fase del flusso di lavoro di preparazione dei dati, incluse la selezione, la pulizia, l'esplorazione, la visualizzazione e l'elaborazione su scala, da una singola interfaccia visiva.
SageMaker Ground Truth è un servizio gestito per l'etichettatura dei dati per addestrare e migliorare i modelli di machine learning. Fornisce un modo estremamente preciso ed efficiente per etichettare set di dati di grandi dimensioni utilizzando una combinazione di annotatori umani e algoritmi di machine learning. SageMaker Ground Truth supporta un'ampia gamma di tipi di dati, tra cui testo, immagini, video e audio, e si integra perfettamente con altri servizi SageMaker per flussi di lavoro di machine learning end-to-end.
SageMaker JumpStart fornisce modelli open source preaddestrati per un'ampia gamma di tipi di problemi per aiutarti a iniziare con il machine learning. È possibile addestrare e ottimizzare in modo incrementale questi modelli prima dell’implementazione. JumpStart fornisce anche modelli di soluzione che configurano l'infrastruttura per casi d'uso comuni e notebook di esempio eseguibili per il machine learning con SageMaker.
Utilizzando Pipeline Amazon SageMaker, puoi creare flussi di lavoro ML con un semplice SDK Python e visualizzare e gestire il tuo flusso di lavoro tramite Amazon SageMaker Studio. Pipeline Amazon SageMaker consente di archiviare e riutilizzare le fasi del flusso di lavoro create in Pipeline SageMaker.
Un ambiente di sviluppo integrato (IDE) che consente agli sviluppatori di creare, addestrare e implementare modelli di machine learning su larga scala. Fornisce un'unica interfaccia basata sul Web per gestire l'intero ciclo di vita del machine learning, dalla preparazione dei dati e dall’addestramento dei modelli all'implementazione e al monitoraggio. SageMaker Studio supporta anche strumenti popolari come i notebook Jupyter, Git e TensorFlow e offre una suite di algoritmi predefiniti per casi d'uso comuni.
Amazon SageMaker Studio Lab è un IDE basato su cloud per l'apprendimento e la sperimentazione con il machine learning utilizzando notebook Jupyter predefiniti. Include una gamma di notebook predefiniti che trattano argomenti come il riconoscimento delle immagini, l'elaborazione del linguaggio naturale e il rilevamento delle anomalie.
Apache MXNet è un framework di deep learning open source che supporta più linguaggi di programmazione, tra cui Python, Scala ed R. È noto per la sua scalabilità e velocità e offre una gamma di API di alto livello per la creazione e l'addestramento di reti neurali, nonché API di basso livello per utenti avanzati.
Hugging Face su Amazon SageMaker
Hugging Face su Amazon SageMaker è una libreria open source per l'elaborazione del linguaggio naturale (NLP) che fornisce un'ampia gamma di modelli e strumenti preaddestrati per lavorare con dati di testo. È noto per la sua facilità d'uso e le alte prestazioni ed è ampiamente utilizzato per attività come la classificazione del testo, l'analisi del sentimento e la traduzione linguistica.
PyTorch su AWS è un framework di machine learning open source che offre grafici di calcolo dinamici e differenziazione automatica per la creazione e l'addestramento di reti neurali. PyTorch è noto per la sua facilità d'uso e flessibilità e ha una vasta e attiva comunità di sviluppatori che contribuiscono al suo sviluppo.
TensorFlow è un framework di machine learning open source sviluppato da Google ampiamente utilizzato per la creazione e l'addestramento di reti neurali. È noto per la sua scalabilità, velocità e flessibilità e supporta una vasta gamma di linguaggi di programmazione tra cui Python, C++ e Java. TensorFlow offre un'ampia gamma di modelli e strumenti predefiniti per l'elaborazione di immagini e testi, nonché API di basso livello per utenti esperti che richiedono un maggiore controllo sui propri modelli.
AWS Inferentia e AWS Inferentia2
L'acceleratore AWS Inferentia di prima generazione alimenta le istanze Inf1 di Amazon Elastic Compute Cloud (Amazon EC2), che offrono una velocità di trasmissione effettiva fino a 2,3 volte superiore e un costo per inferenza fino al 70% inferiore rispetto alle istanze Amazon EC2 paragonabili. L'acceleratore AWS Inferentia2 migliora AWS Inferentia di prima generazione. Inferentia2 offre una velocità di trasmissione effettiva fino a 4 volte superiore e una latenza fino a 10 volte inferiore rispetto a Inferentia.
AWS Trainium è l’acceleratore di machine learning (ML) di seconda generazione che AWS ha creato appositamente per l'addestramento di deep learning di modelli parametrici 100B+. Ogni istanza Amazon Elastic Compute Cloud (EC2) Trn1 distribuisce fino a 16 acceleratori AWS Trainium da utilizzare nella formazione di deep learning (DL) nel cloud.
Utilizzo
Ora dovresti avere una chiara comprensione dei criteri da applicare nella scelta di un servizio AWS ML e puoi selezionare quali servizi IA/ML di AWS sono ottimizzati per le tue esigenze aziendali.
Per scoprire come utilizzare e saperne di più sui servizi che hai scelto, abbiamo fornito tre serie di percorsi per esplorare il funzionamento di ciascun servizio. La prima serie di percorsi fornisce documentazione approfondita, tutorial pratici e risorse per iniziare a usare Amazon Comprehend, Amazon Textract, Amazon Translate, Amazon Lex, Amazon Polly, Amazon Rekognition e Amazon Transcribe.
-
Amazon Comprehend
-
Amazon Textract
-
Amazon Translate
-
Amazon Lex
-
Amazon Polly
-
Amazon Rekognition
-
Amazon Transcribe
-
Amazon Comprehend
-
Nozioni di base su Amazon Comprehend
Usa la console Amazon Comprehend per creare ed eseguire un processo asincrono di rilevamento delle entità.
Inizia con il tutorial »Analizza in modo dettagliato le informazioni nel testo con Amazon Comprehend
Scopri come utilizzare Amazon Comprehend per analizzare il testo e ricavarne informazioni dettagliate.
Prezzi di Amazon Comprehend
Esplora informazioni sui prezzi e sugli esempi di Amazon Comprehend. -
Amazon Textract
-
Nozioni di base su Amazon Textract
Scopri come Amazon Textract può essere utilizzato con testo formattato per rilevare parole e righe di parole che si trovano l'una vicino all'altra e analizzare un documento alla ricerca di elementi come testo correlato, tabelle, coppie chiave-valore ed elementi di selezione.
Estrai testo e dati strutturati con Amazon Textract
Scopri come utilizzare Amazon Textract per estrarre testo e dati strutturati da un documento
AWS Power Hour: Machine learning
In questo episodio, ti immergerai in Amazon Textract, trascorrerai del tempo nella Console di gestione AWS e rivedrai esempi di codice che ti aiuteranno a capire come sfruttare al meglio le API di servizio.
-
Amazon Translate
-
Guida introduttiva ad Amazon Translate tramite la console
Il mezzo più semplice per iniziare a utilizzare Amazon Translate è la console. Scopri come tradurre fino a 10.000 caratteri utilizzando la console.
Traduzione di un testo in un'altra lingua nel cloud
In questo tutorial di esempio, come parte di un'azienda produttrice di bagagli internazionale, è necessario comprendere ciò che i clienti dicono del tuo prodotto nelle recensioni nella lingua del mercato locale: il francese.
Prezzi di Amazon Translate
Esplora i prezzi di Amazon Translate, incluso il piano gratuito, che fornisce 2 milioni di caratteri al mese per 12 mesi.
Esplora la guida »
Accelera i flussi di lavoro multilingue con una soluzione di traduzione personalizzabile
Scopri come creare una soluzione di traduzione unificata con funzionalità di personalizzazione utilizzando Amazon Translate e altri servizi AWS.
-
Amazon Lex
-
Guida per gli sviluppatori di Amazon Lex V2
Scopri le informazioni su come iniziare, come funziona e le informazioni sui prezzi di Amazon Lex V2.
Esplora la guida »Introduzione ad Amazon Lex
Ti presentiamo il servizio di conversazione Amazon Lex e ti spieghiamo alcuni esempi che mostrano come creare un bot e implementarlo su diversi servizi di chat.Segui il corso » (è richiesto il login)
Esplorazione dell'IA generativa nelle esperienze conversazionali
Scopri l'uso dell'IA generativa nelle esperienze di conversazione.
-
Amazon Polly
-
Cos'è Amazon Polly?
Esplora una panoramica completa del servizio cloud che converte il testo in voce realistica e può essere utilizzato per sviluppare applicazioni per aumentare il coinvolgimento e l'accessibilità dei clienti.Evidenzia il testo mentre viene pronunciato con Amazon Polly
Ti presentiamo gli approcci per evidenziare il testo mentre viene pronunciato per aggiungere funzionalità visive all'audio in libri, siti Web, blog e altre esperienze digitali.Crea audio per contenuti in più lingue con lo stesso personaggio vocale TTS in Amazon Polly
Spieghiamo Neural Text-to-Speech (NTTS) e spieghiamo come un ampio portafoglio di voci disponibili, che fornisce una gamma di parlanti diversi nelle lingue supportate, possa funzionare per te.
-
Amazon Rekognition
-
Cos’è Amazon Rekognition?
Scopri come utilizzare questo servizio per aggiungere analisi di immagini e video alle tue applicazioni.Rekognition pratico: analisi automatizzata di immagini e video
Scopri come funziona il riconoscimento facciale con lo streaming video, insieme a esempi di codice e punti chiave a un ritmo autoguidato.
Domande frequenti su Amazon Rekognition
Scopri le nozioni di base di Amazon Rekognition e come può aiutarti a migliorare il deep learning e analizzare visivamente le tue applicazioni. -
Amazon Transcribe
-
Cos'è Amazon Transcribe?
Scopri il servizio di riconoscimento vocale automatico AWS che utilizza il ML per convertire l'audio in testo. Scopri come utilizzare questo servizio come trascrizione autonoma o aggiungere funzionalità di sintesi vocale a qualsiasi applicazione.Prezzi di Amazon Transcribe
Ti presentiamo la trascrizione con pagamento in base al consumo di AWS, che include opzioni di modelli linguistici personalizzati e il piano gratuito di Amazon Transcribe.Creazione di una trascrizione audio con Amazon Transcribe
Scopri come usare Amazon Transcribe per creare una trascrizione di testo di file audio registrati utilizzando uno scenario di casi d'uso reale per testarli in base alle tue esigenze.
Creazione di un'applicazione di streaming Amazon Transcribe
Scopri come creare un'app per registrare, trascrivere e tradurre l'audio dal vivo in tempo reale, con i risultati inviati direttamente via e-mail.
Il secondo set di percorsi di servizi di IA/ML AWS fornisce documentazione approfondita, tutorial pratici e risorse per iniziare a usare i servizi della famiglia Amazon SageMaker.
-
SageMaker
-
Pilota automatico SageMaker
-
SageMaker Canvas
-
SageMaker Data Wrangler
-
SageMaker Ground Truth/Ground Truth Plus
-
SageMaker JumpStart
-
Pipeline SageMaker
-
SageMaker Studio
-
SageMaker
-
Come funziona Amazon SageMaker
Esplora la panoramica del machine learning e di come funziona SageMaker.Nozioni di base su Amazon SageMaker
Scopri come iscriverti a un dominio Amazon SageMaker, che ti consente di accedere ad Amazon SageMaker Studio e RStudio su SageMaker.
Esplora la guida »Usa Apache Spark con Amazon SageMaker
Scopri come usare Apache Spark per la pre-elaborazione dei dati e SageMaker per l’addestramento e l'hosting dei modelli.
Esplora la guida »Usa i container Docker per creare modelli
Scopri in che modo Amazon SageMaker fa ampio uso dei container Docker per le attività di compilazione e runtime. Scopri come implementare le immagini Docker predefinite per i suoi algoritmi integrati e i framework di deep learning supportati utilizzati per la formazione e l'inferenza.
Esplora la guida »
Framework e linguaggi di machine learning
Scopri come iniziare a usare SageMaker utilizzando Amazon SageMaker Python SDK. -
Pilota automatico SageMaker
-
Crea un esperimento di Pilota automatico Amazon SageMaker per dati tabulari
Scopri come creare un esperimento di Pilota automatico Amazon SageMaker per esplorare, pre-elaborare e addestrare vari modelli candidati su un set di dati tabulare.Crea i modelli di machine learning in modo automatico
Scopri come utilizzare il Pilota automatico Amazon SageMaker per creare, addestrare e ottimizzare automaticamente un modello di machine learning (ML) e implementare tale modello per effettuare delle previsioni.
Scopri la modellazione con Pilota automatico Amazon SageMaker con questi notebook di esempio
Esplora esempi di taccuini per il marketing diretto, la previsione del tasso di abbandono dei clienti e come importare il tuo codice di elaborazione dei dati in Pilota automatico Amazon SageMaker. -
SageMaker Canvas
-
Inizia a usare Amazon SageMaker Canvas
Scopri come iniziare a usare SageMaker Canvas.Generazione di previsioni di machine learning senza scrivere codice
In questo tutorial apprenderai come utilizzare Amazon SageMaker Canvas per creare modelli di machine learning (ML) e generare previsioni accurate senza scrivere una singola riga di codice.
Inizia con il tutorial »Approfondisci SageMaker Canvas
Dai uno sguardo approfondito a SageMaker Canvas e alle sue funzionalità di ML visive e senza codice.Usa Amazon SageMaker Canvas per creare il tuo primo modello ML
Scopri come utilizzare Amazon SageMaker Canvas per creare un modello ML per valutare la fidelizzazione dei clienti, basato su una campagna e-mail per nuovi prodotti e servizi. -
SageMaker Data Wrangler
-
Nozioni di base su Amazon SageMaker Data Wrangler
Scopri come configurare SageMaker Data Wrangler e segui la procedura dettagliata fornita utilizzando un set di dati di esempio esistente.
Esplora la guida »Preparazione dei dati di addestramento per il machine learning con un codice minimo
Scopri come preparare i dati per il machine learning utilizzando Amazon SageMaker Data Wrangler.
Inizia con il tutorial »Workshop di approfondimento di SageMaker Data Wrangler
Scopri come applicare i tipi di analisi appropriati sul tuo set di dati per rilevare anomalie e problemi, utilizzare i risultati/approfondimenti derivati per formulare azioni correttive nel corso delle trasformazioni sul set di dati e testare la scelta e la sequenza di trasformazioni giuste utilizzando le opzioni di modellazione rapida fornite da SageMaker Data Wrangler. -
SageMaker Ground Truth/Ground Truth Plus
-
Nozioni di base su Amazon Groud Truth
Scopri come utilizzare la console per creare un processo di etichettatura, assegnare una forza lavoro pubblica o privata e inviare il lavoro di etichettatura alla tua forza lavoro. Scopri come monitorare lo stato di avanzamento di un lavoro di etichettatura.
Etichettatura dei dati di addestramento per il machine learning
In questo tutorial imparerai come etichettare un processo in Amazon SageMaker Ground Truth per annotare i dati di addestramento per il tuo modello di machine learning (ML).
Guida introduttiva ad Amazon Ground Truth Plus
Scopri come completare i passaggi necessari per avviare un progetto Amazon SageMaker Ground Truth Plus, esaminare le etichette e soddisfare i prerequisiti di SageMaker Ground Truth Plus.Nozioni di base su Amazon Ground Truth
Guarda come iniziare a etichettare i dati in pochi minuti tramite la console SageMaker Ground Truth.
Amazon SageMaker Ground Truth Plus: crea set di dati di addestramento senza codice o risorse interne
Scopri Ground Truth Plus, un servizio chiavi in mano che utilizza una forza lavoro esperta per fornire rapidamente set di dati di addestramento di alta qualità e riduce i costi fino al 40%.
-
SageMaker JumpStart
-
Nozioni di base sul machine learning con SageMaker JumpStart
Esplora i modelli di soluzione SageMaker JumpStart che configurano l'infrastruttura per casi d'uso comuni e i notebook di esempio eseguibili per il machine learning con SageMaker.
Esplora la guida »Inizia a utilizzare rapidamente il tuo progetto di machine learning tramite Amazon SageMaker JumpStart.
Scopri come velocizzare il tuo progetto di machine learning (ML) utilizzando i modelli pre-addestrati e le soluzioni pre-integrate forniti da Amazon SageMaker JumpStart. Quindi potrai implementare il modello selezionato utilizzando i notebook Amazon SageMaker Studio.
Mettiti alla prova con Amazon SageMaker JumpStart con questo workshop sulle giornate immersive
Scopri come le funzionalità ML low-code disponibili in Amazon SageMaker Data Wrangler, Pilota automatico e Jumpstart semplificano la sperimentazione più rapida e portano in produzione modelli estremamente accurati.
-
Pipeline SageMaker
-
Nozioni di base su Pipeline Amazon SageMaker
Scopri come creare flussi di lavoro end-to-end che gestiscono e implementano i processi SageMaker. Pipeline SageMaker è dotato dell'integrazione con l’SDK SageMaker Python, in modo da poter creare ogni fase della pipeline utilizzando un'interfaccia basata su Python.
Esplora la guida »Automatizza i flussi di lavoro di machine learning
Scopri come creare ed automatizzare i flussi di lavoro di machine learning (ML) end-to-end utilizzando Pipeline Amazon SageMaker, Registro dei modelli Amazon SageMaker e Amazon SageMaker Clarify.
Inizia con il tutorial »Come creare flussi di lavoro di ML completamente automatizzati con Pipeline Amazon SageMaker
Scopri Pipeline Amazon SageMaker, il primo servizio di ML CI/CD al mondo progettato per essere accessibile a tutti gli sviluppatori e i data scientist. Pipeline SageMaker porta le pipeline CI/CD al machine learning, riducendo il tempo di codifica richiesto.
Guarda il video » -
SageMaker Studio
-
Crea e addestra un modello di machine learning in locale
Scopri come creare e addestrare un modello di machine learning (ML) in locale all'interno di un notebook Amazon SageMaker Studio.Workshop Integrazione di SageMaker Studio con EMR
Scopri come utilizzare l'elaborazione distribuita su larga scala per preparare i dati e successivamente addestrare modelli di machine learning.
La terza serie di percorsi di servizi di IA/ML AWS fornisce documentazione approfondita, tutorial pratici e risorse per iniziare a usare Amazon Bedrock, Amazon CodeWhisperer, AWS Trainium, AWS Inferentia e Amazon Titan.
-
Amazon Bedrock
-
Amazon CodeWhisperer
-
AWS Trainium
-
AWS Inferentia
-
Amazon Titan
-
Amazon Bedrock
-
Panoramica di Amazon Bedrock
Scopri come Amazon Bedrock mette a disposizione i modelli di fondazione (FM) delle principali startup di IA e di Amazon attraverso un'API, così è possibile trovare il modello più adatto al tuo caso d'uso.
Annuncio di nuovi strumenti per la creazione con l'IA generativa su AWS
Scopri il background sullo sviluppo di Amazon Bedrock, come si adatta al più ampio approccio AWS all'intelligenza artificiale e al machine learning e fornisce una panoramica dei potenziali usi dei servizi di IA generativa di AWS.
Demistificare l'IA generativa
In questo video, il Dott. Werner Vogels, CTO di Amazon e Swami Sivasubramanian, vicepresidente di AWS per database, analisi e apprendimento automatico, si siedono per discutere dell'ampio panorama dell'IA generativa, del perché non è una moda e di come AWS stia democratizzando l'accesso a linguaggi di grandi dimensioni e modelli di fondazione.
-
Amazon CodeWhisperer
-
Cos'è Amazon CodeWhisperer?
Scopri come CodeWhisperer è progettato per aiutarti a creare codice per attività indifferenziate di routine o dispendiose in termini di tempo, lavorare con API o SDK sconosciuti, fare un uso corretto ed efficace delle API AWS e altri scenari di codifica comuni come lettura e scrittura di file, elaborazione di immagini e scrittura di unit test.
Nozioni di base su Amazon CodeWhisperer
Scopri come configurare CodeWhisperer per l'uso con ciascuno dei quattro possibili IDE: Kit di strumenti AWS per JetBrains, Kit di strumenti AWS per Visual Studio Code, Lambda e AWS Cloud9.
Workshop su Amazon CodeWhisperer
Scopri come creare un'applicazione completa, basata sugli eventi e serverless per il riconoscimento delle immagini. Con l'aiuto di Amazon CodeWhisperer, scriverai il tuo codice da eseguire su AWS Lambda per interagire con Amazon Rekognition, Amazon DynamoDB, Amazon SNS, Amazon SQS, Amazon S3, API HTTP di terze parti per eseguire il riconoscimento delle immagini.
-
AWS Trainium
-
Dimensionamento dell’addestramento distribuito con AWS Trainium e Amazon EKS
Scopri come trarre vantaggio dalla disponibilità generale delle istanze Trn1 di Amazon EC2 basate su AWS Trainium, un acceleratore ML appositamente progettato e ottimizzato per fornire una piattaforma ad alte prestazioni, economica ed estremamente scalabile per l'addestramento di modelli di deep learning nel cloud.
Panoramica di AWS Trainium
Scopri di più su AWS Trainium, l’acceleratore di machine learning (ML) di seconda generazione che AWS ha creato appositamente per l'addestramento di deep learning di modelli parametrici 100B+. Ogni istanza Trn1 di Amazon Elastic Compute Cloud (EC2) implementa fino a 16 acceleratori AWS Trainium per fornire una soluzione a basso costo e ad alte prestazioni per l'addestramento di deep learning (DL) nel cloud.
Istanze Trainium consigliate
Scopri come le istanze di AWS Trainium sono progettate per fornire prestazioni elevate ed efficienza in termini di costi per i carichi di lavoro di inferenza dei modelli di deep learning.
-
AWS Inferentia
-
Panoramica di AWS Inferentia
Scopri come gli acceleratori sono progettati da AWS per fornire prestazioni elevate a costi più bassi per le applicazioni di inferenza di deep learning (DL).
AWS Inferentia2 si basa su AWS Inferentia1 offrendo una velocità di trasmissione effettiva quattro volte superiore e una latenza 10 volte inferiore
Scopri per cosa è ottimizzato AWS Inferentia2 ed esplora come è stato progettato da zero per offrire prestazioni più elevate riducendo al contempo il costo degli LLM e dell'inferenza di IA generativa.
Inferenza di machine learning con AWS Inferentia
Scopri come creare un cluster Amazon EKS con nodi che eseguono istanze Amazon EC2 Inf1 e (facoltativamente) implementare un'applicazione di esempio. Le istanze Inf1 di Amazon EC2, con chip con tecnologia di AWS Inferentia, sono create appositamente per offrire prestazioni elevate e l'inferenza più economica del cloud.
-
Amazon Titan
-
Panoramica di Amazon Titan
Scopri come i modelli di fondazione di Amazon Titan hanno ricevuto un pre-addestramento su set di dati di grandi dimensioni, il che li rende modelli potenti e per usi generici. Scopri come utilizzarli così come sono, o in privato, per personalizzarli con i tuoi dati per una particolare attività senza dover annotare grandi volumi di dati.
Esplora
Questi diagrammi dell'architettura di riferimento mostrano esempi di servizi di IA e ML AWS in uso.
Esplora i whitepaper per iniziare e apprendere le best practice per la scelta e l'utilizzo dei servizi IA/ML.
Esplora soluzioni verificate e linee guida architettoniche per i casi d'uso più comuni per i servizi IA e ML.