- Machine learning›
- Amazon SageMaker›
- Domande frequenti su Amazon SageMaker
Domande frequenti su Amazon SageMaker
Domande generali
Cos’è Amazon SageMaker?
In quali regioni AWS è disponibile SageMaker?
Per un elenco delle regioni SageMaker supportate, consulta la pagina dei Servizi regionali AWS. Per ulteriori informazioni, consulta inoltre la pagina Endpoint regionali nella guida Riferimenti generali AWS.
Qual è la disponibilità del servizio SageMaker?
In che modo SageMaker protegge il codice?
SageMaker memorizza il codice in volumi di archiviazione per il machine learning, protetti da gruppi di sicurezza crittografabili su disco.
Quali misure di sicurezza implementa SageMaker?
SageMaker crittografa gli artefatti di modello di ML e di altri elementi del sistema, sia inattivi sia in transito. Le richieste all'API e alla console di SageMaker vengono inoltrate tramite una connessione sicura (SSL). Puoi avvalerti dei ruoli AWS Identity and Access Management in SageMaker per fornire le autorizzazioni per accedere alle risorse per l'addestramento e l'implementazione per tuo conto. È possibile utilizzare bucket Amazon Simple Storage Service (Amazon S3) crittografati per dati e artefatti di modello, nonché applicare una chiave del Servizio di gestione delle chiavi AWS (AWS KMS) a notebook di SageMaker, processi di addestramento ed endpoint per crittografare il volume di archiviazione dedicato al ML collegato. SageMaker supporta inoltre Amazon Virtual Private Cloud (Amazon VPC) e AWS PrivateLink.
SageMaker utilizza o condivide modelli, dati di addestramento o algoritmi?
SageMaker non utilizza o condivide modelli, dati di addestramento o algoritmi dei clienti. Sappiamo quanto i clienti si preoccupino per la privacy e la sicurezza dei dati. È per questo che, in AWS, hanno sempre il controllo e la proprietà sui loro contenuti; grazie a strumenti semplici ma efficaci possono determinare dove i dati saranno memorizzati, proteggere le informazioni dei loro clienti sia in transito sia inattive e gestire l'accesso ai servizi e alle risorse di AWS per i loro utenti. AWS implementa anche tecnici e fisici, progettati per impedire accessi non autorizzati e divulgazione di dati riservati. La proprietà dei dati rimane al cliente, che potrà scegliere a quali servizi AWS consentirne elaborazione, memorizzazione e hosting. Non accediamo né utilizziamo i contenuti dei clienti per alcun motivo senza il loro consenso.
Come viene fatturato l'utilizzo di SageMaker?
Verranno addebitati i costi delle risorse di calcolo, archiviazione ed elaborazione dati utilizzate per hosting dei notebook, addestramento di modelli, elaborazione di previsioni e registrazione dei risultati. SageMaker permette di selezionare il numero e il tipo di istanze da utilizzare per il notebook in hosting, l'addestramento e l'hosting del modello. I prezzi sono calcolati solo in base all'uso effettivo, senza tariffe minime né impegni anticipati. Consulta la pagina dei prezzi di Amazon SageMaker per i dettagli e il Calcolatore dei prezzi di Amazon SageMaker per i dettagli.
Come posso ottimizzare i costi di SageMaker, ad esempio individuando e arrestando risorse inattive per evitare addebiti superflui?
Esistono diverse best practice da adottare per ottimizzare l'utilizzo delle risorse di SageMaker. Alcuni approcci prevedono la messa a punto della configurazione, altre soluzioni programmatiche. Una guida completa sull'argomento, completa di tutorial visivi ed esempi di codice, è disponibile in questo post del blog.
Se invece è già presente un notebook o un ambiente di formazione o hosting?
SageMaker offre un flusso di lavoro completo, ma è sempre possibile continuare a utilizzare gli strumenti esistenti insieme al servizio. Trasferire i risultati di ciascuna fase da o verso SageMaker in base ai requisiti aziendali è molto semplice.
R è supportato da SageMaker?
Sì. Puoi utilizzare R all'interno delle istanze notebook SageMaker, che includono un kernel R preinstallato e la libreria reticolare. La libreria reticolare offre un'interfaccia R per Amazon SageMaker Python SDK, consentendo ai professionisti del ML di costruire, addestrare, ottimizzare e implementare modelli R. Puoi anche avviare RStudio, un ambiente di sviluppo integrato (IDE) per R in Amazon SageMaker Studio.
Cos'è Amazon SageMaker Studio?
Amazon SageMaker Studio fornisce un'interfaccia visuale unica basata sul Web in cui si possono eseguire tutte le fasi di sviluppo di ML. SageMaker Studio offre accesso, controllo e visibilità completi su ogni fase necessaria alla progettazione, all'addestramento e all'implementazione dei modelli. Puoi velocemente caricare i dati, creare nuovi notebook, addestrare e regolare i modelli, andare avanti e indietro tra le fasi per modificare gli esperimenti, confrontare i risultati e implementare i modelli in produzione in un unico luogo, rendendo il tuo processo più produttivo. Tutte le attività di sviluppo con il machine learning che includono notebook, gestione degli esperimenti, creazione automatica dei modelli, profilatura, debug e rilevamento delle deviazioni del modello possono essere eseguite all'interno dell'interfaccia visiva unificata di SageMaker Studio.
Come sono calcolati i prezzi di SageMaker Studio?
Non sono previsti costi aggiuntivi per l'utilizzo di SageMaker Studio. Sono addebitati unicamente i costi base di elaborazione e di archiviazione per i servizi effettivamente utilizzati con SageMaker Studio.
In quali regioni è disponibile SageMaker Studio?
L'elenco delle regioni in cui è disponibile SageMaker Studio è consultabile nella Guida per gli sviluppatori di Amazon SageMaker.
Come faccio a verificare eventuali squilibri nel mio modello?
Amazon SageMaker Clarify aiuta a migliorare la trasparenza del modello rilevando distorsioni statistiche nell'intero flusso di lavoro di ML. SageMaker Clarify verifica la presenza di squilibri durante la preparazione dei dati, dopo l’addestramento e nel corso del tempo, includendo strumenti che aiutano a spiegare i modelli di ML e le loro previsioni. È possibile condividere i risultati tramite report di spiegabilità.
Che tipo di distorsione rileva SageMaker Clarify?
Come fa SageMaker Clarify a migliorare la comprensibilità del modello?
SageMaker Clarify è integrato con SageMaker Experiments per fornire un grafico che elenca l'importanza di ciascun input per il processo decisionale globale relativo al tuo modello dopo che il modello stesso è stato addestrato. Questi dettagli possono aiutare a stabilire se un particolare input abbia più influenza di quanto dovrebbe sul comportamento generale del modello. SageMaker Clarify rende anche disponibili spiegazioni per le singole previsioni tramite un'API.
Governance del ML
Quali strumenti di governance del ML fornisce SageMaker?
SageMaker fornisce strumenti di governance del ML creati ad hoc per l'intero ciclo di vita del ML. Con Gestore dei ruoli di Amazon SageMaker è possibile definire le autorizzazioni minime in pochi minuti. Schede dei modelli Amazon SageMaker facilita l'acquisizione, il recupero e la condivisione di informazioni essenziali relative al modello, dalla concezione all'implementazione, mentre Pannello di controllo dei modelli Amazon SageMaker riunisce in un unico posto tutte le informazioni sul comportamento del modello in produzione. Per
ulteriori informazioni, consulta Governance del ML con Amazon SageMaker.
Quale funzione ha Gestore dei ruoli di SageMaker?
Con Gestore dei ruoli di SageMaker è possibile definire le autorizzazioni minime in pochi minuti. Gestore dei ruoli di SageMaker fornisce una serie di autorizzazioni di base per le attività di ML e una varietà di profili con un catalogo di policy IAM predefinite. È possibile mantenere le autorizzazioni di base oppure personalizzarle sulla base delle proprie specifiche esigenze. Con una serie di istruzioni autoguidate, è possibile immettere rapidamente costrutti di governance comuni, come limiti di accesso alla rete e chiavi di crittografia. Dopodiché, SageMaker Role Manager genererà automaticamente la policy IAM. È possibile consultare il ruolo generato e le policy associate dalla console AWS IAM. Per personalizzare ulteriormente le autorizzazioni in base al caso d'uso, è possibile collegare le policy IAM gestite al ruolo IAM creato con SageMaker Role Manager. Per facilitare l'identificazione del ruolo e consentire un maggiore coordinamento tra i servizi AWS, è possibile aggiungere tag.
Quale è la funzione di Schede dei modelli SageMaker?
Schede dei modelli SageMaker facilita la centralizzazione e la standardizzazione della documentazione del modello per l'intero ciclo di vita del ML consentendo di creare una singola fonte di attendibilità per le informazioni relative al modello. Schede dei modelli SageMaker compila automaticamente i dettagli dell'addestramento per accelerare il processo di documentazione. Inoltre, è possibile aggiungere dettagli come lo scopo del modello e gli obiettivi di prestazione. È possibile collegare alla scheda dei modelli i risultati della rispettiva valutazione e fornire visualizzazioni per ottenere informazioni dettagliate chiave sulle sue prestazioni. Le schede dei modelli SageMaker possono essere facilmente condivise con altre persone tramite l'esportazione in formato PDF.
Quali sono le caratteristiche di Pannello di controllo dei modelli SageMaker?
Pannello di controllo dei modelli SageMaker fornisce una panoramica completa dei modelli implementati e degli endpoint, consentendo di monitorare le risorse e le violazioni di comportamento dei modelli in un unico pannello. Grazie all'integrazione con Amazon SageMaker Model Monitor e SageMaker Clarify, consente di monitorare il comportamento dei modelli rispetto a quattro dimensioni, incluse la qualità dei dati e del modello nonché la deviazione di distorsione e di attribuzione delle funzionalità. Inoltre, Pannello di controllo dei modelli SageMaker fornisce un'esperienza integrata per impostare e ricevere avvisi in merito ai processi di monitoraggio dei modelli assenti o non attivi e sulle deviazioni del comportamento dei modelli rispetto a qualità del modello, qualità dei dati, deviazione di distorsione e deviazione di attribuzione delle funzionalità. È possibile analizzare nel dettaglio i singoli modelli e i fattori che hanno un impatto sulle prestazioni nel corso del tempo. Dopodiché, è possibile consultarsi con i professionisti del ML per intraprendere le opportune misure correttive.
Modelli di base
Come posso iniziare a utilizzare subito SageMaker?
SageMaker JumpStart ti aiuta a iniziare a utilizzare il machine learning in modo facile e veloce. SageMaker JumpStart fornisce una serie di soluzioni per i casi d'uso più comuni che è possibile implementare subito con poche operazioni. Le soluzioni sono totalmente personalizzabili e mostrano l'utilizzo dei modelli e delle architetture di riferimento di AWS CloudFormation, in questo modo puoi accelerare nel percorso verso il ML. Inoltre, SageMaker JumpStart fornisce i modelli di base, supporta l'implementazione in un'unica fase e il perfezionamento di oltre 150 modelli open source popolari come il trasformatore, il rilevamento di oggetti e la classificazione delle immagini.
Quali modelli di base sono disponibili in SageMaker JumpStart?
SageMaker JumpStart fornisce modelli proprietari e pubblici. Per un elenco dei modelli di base disponibili, consulta Guida introduttiva ad Amazon SageMaker JumpStart.
Come posso iniziare a utilizzare i modelli di fondazione in SageMaker JumpStart?
Puoi accedere ai modelli di base tramite SageMaker Studio, l'SDK SageMaker e la Console di gestione AWS. Per iniziare a usare modelli di base proprietari, devi accettare le condizioni di vendita nel Marketplace AWS.
I miei dati vengono utilizzati o condivisi per aggiornare il modello base offerto ai clienti che utilizzano SageMaker JumpStart?
No. I dati di inferenza e addestramento non vengono utilizzati né condivisi per aggiornare o addestrare il modello base che SageMaker JumpStart offre ai clienti.
Posso vedere i pesi e gli script dei modelli proprietari con SageMaker JumpStart?
No. I modelli proprietari non consentono ai clienti di visualizzare i relativi pesi e script.
In quali regioni sono disponibili i modelli di base SageMaker JumpStart?
I modelli sono individuabili in tutte le regioni in cui è disponibile SageMaker Studio, ma la capacità di implementare un modello varia in base alla disponibilità del modello e dell'istanza del tipo di istanza richiesto. Puoi fare riferimento alla disponibilità della regione AWS e all'istanza richiesta dalla pagina dei dettagli del modello nel Marketplace AWS.
Qual è il prezzo dei modelli di base SageMaker JumpStart?
Per i modelli proprietari, vengono addebitati i prezzi del software determinati dal fornitore del modello e i costi dell'infrastruttura SageMaker in base all'istanza utilizzata. Per i modelli disponibili al pubblico, vengono addebitati i costi dell'infrastruttura SageMaker in base all'istanza utilizzata. Per ulteriori informazioni, consulta i prezzi di Amazon SageMaker e il Marketplace AWS.
In che modo SageMaker JumpStart contribuisce a proteggere e rendere sicuri i miei dati?
La sicurezza è la massima priorità di AWS e SageMaker JumpStart è progettato per essere sicuro. È per questo che SageMaker ti offre sempre il controllo e la proprietà sui tuoi contenuti; grazie a strumenti semplici ma efficaci che consentono di determinare dove i dati vengono archiviati, proteggere le informazioni dei contenuti sia in transito che a riposo e gestire l'accesso ai servizi e alle risorse di AWS per i tuoi utenti.
- Non condividiamo informazioni sull'addestramento dei clienti e sulle inferenze con venditori di modelli nel Marketplace AWS. Allo stesso modo, gli artefatti del modello del venditore (ad esempio, i pesi dei modelli) non vengono condivisi con l'acquirente.
- SageMaker JumpStart non utilizza modelli dei clienti, dati di addestramento o algoritmi per migliorare il servizio e non condivide i dati di addestramento e inferenza dei clienti con terze parti.
- In SageMaker JumpStart, gli artefatti del modello di ML vengono crittografati in transito e a riposo.
- Nell'ambito del Modello di responsabilità condivisa AWS, AWS si occupa di proteggere l'infrastruttura globale su cui vengono eseguiti tutti i servizi offerti con AWS. Sei responsabile del mantenimento del controllo sui tuoi contenuti ospitati su questa infrastruttura.
Utilizzando un modello del Marketplace AWS o di SageMaker JumpStart, gli utenti si assumono la responsabilità della qualità dell'output del modello e accettano le funzionalità e le limitazioni indicate nella descrizione del singolo modello.
Quali modelli disponibili al pubblico sono supportati da SageMaker JumpStart?
SageMaker JumpStart include oltre 150 modelli disponibili al pubblico preaddestrati da PyTorch Hub e TensorFlow Hub. Per attività visive come classificazioni di immagini e rilevamento di oggetti, è possibile usare modelli come RESNET, MobileNet e Single-Shot Detector (SSD). Per attività testuali come classificazioni di frasi, classificazione di testi e risposte a domande è possibile utilizzare modelli come BERT, RoBERTa e DistilBERT.
Come si condividono gli artefatti di ML con altre persone all'interno di un'organizzazione?
Con SageMaker JumpStart, data scientist e sviluppatori di ML possono condividere con facilità gli artefatti di ML, tra cui notebook e modelli, all'interno dell'organizzazione. Gli amministratori possono configurare un repository accessibile da un insieme di utenti prestabilito. Tutti gli utenti muniti di autorizzazioni di accesso al repository possono sfogliare, cercare e utilizzare modelli e notebook, nonché i contenuti pubblici all'interno di SageMaker JumpStart. Gli utenti possono selezionare artefatti per addestrare modelli, implementare endpoint ed eseguire notebook in SageMaker JumpStart.
Perché dovrei utilizzare SageMaker JumpStart per condividere gli artefatti di ML con altre persone all'interno della mia organizzazione?
Utilizzando SageMaker JumpStart, puoi accelerare il time-to-market quando sviluppi applicazioni di ML. Modelli e notebook costruiti da un team all'interno dell'organizzazione possono facilmente essere condivisi con altri team dell'organizzazione con pochi clic. La condivisione delle informazioni interne e il riutilizzo delle risorse può aumentare sensibilmente la produttività dell'organizzazione.
Come posso valutare e selezionare i modelli di fondazione?
Gli amministratori possono controllare quali servizi e risorse sono disponibili per i propri utenti?
Sì. Gli amministratori possono controllare quali modelli Amazon SageMaker JumpStart sono visibili e utilizzabili dai propri utenti su più account AWS e principali utenti. Per saperne di più, consulta la documentazione.
Cos'è il kit di strumenti di ottimizzazione dell'inferenza?
Il kit di strumenti di ottimizzazione dell'inferenza semplifica l'implementazione delle più recenti tecniche di ottimizzazione dell'inferenza per ottenere prestazioni in termini di costi (SOTA) all'avanguardia su Amazon SageMaker, risparmiando mesi di tempo per gli sviluppatori. È possibile scegliere da un menu di tecniche di ottimizzazione popolari fornite da SageMaker ed eseguire lavori di ottimizzazione in anticipo, confrontare il modello per le metriche di prestazioni e precisione e quindi distribuire il modello ottimizzato su un endpoint SageMaker per l'inferenza. Il kit di strumenti gestisce tutti gli aspetti dell'ottimizzazione del modello, così puoi concentrarti maggiormente sui tuoi obiettivi aziendali.
Perché dovrei usare il kit di strumenti di ottimizzazione dell'inferenza?
Il kit di strumenti di ottimizzazione dell'inferenza ti aiuta a migliorare i costi, le prestazioni e il time to market per le applicazioni di IA generativa. Il kit di strumenti di ottimizzazione dei modelli completamente gestito consente di accedere alle più recenti tecniche di ottimizzazione con strumenti facili da usare. Inoltre, è facile passare alla migliore soluzione disponibile nel tempo, poiché il kit di strumenti si adatta continuamente alle innovazioni all'avanguardia, al nuovo hardware e alle funzionalità di hosting.
Il kit di strumenti per l'ottimizzazione dell'inferenza supporta tecniche di ottimizzazione come la decodifica speculativa, la quantizzazione e la compilazione. Puoi scegliere le ottimizzazioni che desideri aggiungere al tuo modello in pochi clic: Amazon SageMaker gestirà il grosso del lavoro generico relativo all'approvvigionamento dell'hardware, selezionando il container di deep learning e i parametri di ottimizzazione corrispondenti per eseguire i lavori di ottimizzazione e quindi salvando gli artefatti del modello ottimizzato nella posizione S3 fornita da te.
Per la decodifica speculativa, puoi iniziare con il modello di bozza fornito da SageMaker, in modo da non dover creare i tuoi modelli di bozza da zero e richiedere ottimizzazioni di routing e a livello di sistema. Con la quantizzazione, è sufficiente scegliere il tipo di precisione che si desidera utilizzare e avviare un lavoro di benchmarking per misurare le prestazioni rispetto ai compromessi di precisione. Amazon SageMaker genererà un rapporto di valutazione completo in modo da poter analizzare facilmente il compromesso tra prestazioni e precisione. Con Compilation, per i modelli più diffusi e le relative configurazioni, Amazon SageMaker recupererà automaticamente gli artefatti del modello compilato durante la configurazione e il ridimensionamento degli endpoint, eliminando la necessità di eseguire i lavori di compilazione in anticipo, risparmiando sui costi hardware.
Il kit di strumenti di ottimizzazione delle inferenze Amazon SageMaker aiuta a ridurre i costi e i tempi per ottimizzare i modelli GenAI, consentendoti di concentrarti sui tuoi obiettivi aziendali.
ML a basso codice
Cos'è Amazon SageMaker Canvas?
SageMaker Canvas è un servizio senza codice con un'interfaccia intuitiva punta e clicca che consente di creare previsioni altamente precise basate sul ML partendo dai dati. SageMaker Canvas consente di accedere ai dati e di combinarli da una varietà di origini tramite un'interfaccia utente a trascinamento e rilascio, con funzioni automatiche di pulizia e preparazione dei dati per ridurre al minimo la necessità di pulizia manuale. SageMaker Canvas applica una varietà di algoritmi di ML all'avanguardia per individuare modelli predittivi altamente accurati e fornisce un'interfaccia intuitiva per effettuare previsioni. Puoi usare SageMaker Canvas per effettuare previsioni molto più precise in varie applicazioni aziendali e collaborare facilmente con i data scientist e gli analisti della tua azienda condividendo i modelli, i dati e i report. Per ulteriori informazioni su SageMaker Canvas, consulta le domande frequenti su Amazon SageMaker Canvas.
Come sono calcolati i prezzi di SageMaker Canvas?
Le tariffe di SageMaker Canvas sono addebitate in base all'uso. SageMaker Canvas consente di importare, esplorare e preparare i dati in modo interattivo dai molteplici origini, di addestrare modelli di ML altamente accurati sui dati forniti dall'utente e di generare previsioni. La fattura è determinata da due componenti: le spese di sessione, basate sul numero di ore di utilizzo o accesso a SageMaker Canvas, e i costi di addestramento del modello, sulla base della dimensione del set di dati utilizzato allo scopo. Per ulteriori informazioni, visita la pagina dei prezzi di Amazon SageMaker Canvas.
Flussi di lavoro di ML
Come posso creare un flusso di lavoro di ML ripetibile in SageMaker?
Pipeline Amazon SageMaker aiuta a creare flussi di lavoro di ML completamente automatizzati, dalla preparazione dei dati fino all'implementazione dei modelli, in modo da poter gestire migliaia di modelli di ML in produzione. È possibile creare pipeline con l'SDK Python di SageMaker e visualizzarle, eseguirle e verificarle dall'interfaccia visiva di SageMaker Studio. Pipeline SageMaker si occupa di gestire i dati tra una fase e l'altra, confezionare le ricette di codice e orchestrare la loro esecuzione, riducendo i mesi di codifica a poche ore. Ogni volta che un flusso di lavoro viene eseguito, viene tenuta una registrazione completa dei dati elaborati e delle azioni intraprese in modo che i data scientist e gli sviluppatori di ML possano eseguire rapidamente il debug dei problemi.
Come faccio a visualizzare tutti i miei modelli addestrati per scegliere il modello migliore per passare alla produzione?
Quali componenti di SageMaker possono essere aggiunti a Pipeline SageMaker?
Come faccio a monitorare i componenti del mio modello attraverso l'intero flusso di lavoro di ML?
Come sono calcolati i prezzi di Pipeline SageMaker?
Non sono previsti costi aggiuntivi per Pipeline SageMaker. Sono addebitati unicamente i costi base di elaborazione o qualunque servizio extra di AWS utilizzato con Pipeline SageMaker.
Posso usare Kubeflow con SageMaker?
Come sono calcolati i prezzi dei componenti di SageMaker per le pipeline di Kubeflow?
Non sono previsti costi aggiuntivi per l'utilizzo dei componenti di SageMaker per pipeline Kubeflow.
Human-in-the-loop
Cos'è human-in-the-loop e perché è importante per la creazione di applicazioni basate sull'IA?
Human-in-the-loop è il processo che sfrutta l'input umano durante tutto il ciclo di vita del ML per migliorare l'accuratezza e la pertinenza dei modelli. Gli esseri umani possono eseguire una serie di attività, dalla generazione e l'annotazione dei dati, alla revisione e la personalizzazione del modello. L'intervento umano è particolarmente importante per le applicazioni di IA generativa, in cui gli umani sono in genere sia il richiedente che il consumatore del contenuto. È quindi fondamentale che gli umani addestrino i modelli di fondazione (FM) a rispondere in modo accurato, sicuro e pertinente alle richieste degli utenti. Il feedback umano può essere applicato per aiutarti a completare più attività. Innanzitutto, la creazione di set di dati di addestramento etichettati di alta qualità per applicazioni di IA generativa tramite l'apprendimento supervisionato (in cui un essere umano simula lo stile, la lunghezza e la precisione di come un modello dovrebbe rispondere alle richieste dell'utente) e l'apprendimento per rinforzo con feedback umano (in cui un essere umano classifica le risposte del modello). In secondo luogo, utilizza i dati generati dall'uomo per personalizzare i modelli di fondazione su attività specifiche o con dati specifici dell'azienda e del dominio e rendere l'output del modello pertinente per te.
Come possono essere utilizzate le funzionalità human-in-the-loop per applicazioni di IA generativa basate sui modelli di fondazione?
Le funzionalità human-in-the-loop svolgono un ruolo importante nella creazione e nel miglioramento delle applicazioni di IA generativa basate sui modelli di fondazione. Una forza lavoro umana altamente qualificata e addestrata sulle linee guida degli incarichi può fornire feedback, indicazioni, input e valutazioni in attività come la generazione di dati dimostrativi per la formazione dei modelli di fondazione, la correzione e il miglioramento delle risposte dei campioni, la messa a punto di un modello basato su dati aziendali e di settore, la protezione dalla tossicità e dalle distorsioni e altro ancora. Quindi, le funzionalità human-in-the-loop possono migliorare la precisione e le prestazioni del modello.
Qual è la differenza tra le offerte self-service di Amazon SageMaker Ground Truth e quelle gestite da AWS?
Amazon SageMaker Ground Truth offre il set più completo di funzionalità human-in-the-loop. Esistono due modi per utilizzare Amazon SageMaker Ground Truth: un'offerta self-service e una gestita da AWS. Nell'offerta self-service, gli annotatori di dati, i creatori di contenuti e i tecnici di supporto (interni, gestiti dal fornitore o che sfruttano il pubblico) possono utilizzare la nostra interfaccia utente a basso codice per accelerare le attività human-in-the-loop, garantendo al contempo la flessibilità necessaria per creare e gestire i propri flussi di lavoro personalizzati. Nell'offerta gestita da AWS (SageMaker Ground Truth Plus), ci occupiamo del lavoro pesante, che include la selezione e la gestione della forza lavoro giusta per il tuo caso d'uso. SageMaker Ground Truth Plus progetta e personalizza un flusso di lavoro completo (inclusa la formazione dettagliata della forza lavoro e le fasi di garanzia della qualità) e fornisce un team qualificato gestito da AWS, formato su attività specifiche e che soddisfa i requisiti di qualità, sicurezza e conformità dei dati.
Preparazione dei dati
Come fa SageMaker a preparare i dati per il ML?
SageMaker Data Wrangler riduce il tempo richiesto per l'aggregazione e la preparazione dei dati per il ML. Da una singola interfaccia in SageMaker Studio, è possibile cercare e importare dati da Amazon S3, Amazon Athena, Amazon Redshift, AWS Lake Formation, Amazon EMR, Snowflake e Databricks in pochi passi. Inoltre, è possibile interrogare e importare dati trasferiti da oltre 50 origini dati e registrati nel Catalogo dati AWS Glue da Amazon AppFlow. SageMaker Data Wrangler carica, aggrega e visualizza automaticamente i dati grezzi. Dopo avere importato i dati in SageMaker Data Wrangler, è possibile visualizzare istogrammi e riepiloghi colonnari generati automaticamente. Per analizzare i dati in maggiore dettaglio e identificare errori potenziali, è possibile utilizzare il report sulla qualità dei dati e relativi approfondimenti di SageMaker Data Wrangler, che fornisce statistiche di riepilogo e segnalazioni relative alla qualità dei dati. Inoltre, è possibile eseguire l'analisi delle distorsioni supportata da SageMaker Clarify direttamente da SageMaker Data Wrangler per rilevare potenziali distorsioni durante la preparazione dei dati. Da qui, è possibile utilizzare le trasformazioni predefinite di SageMaker Data Wrangler per preparare i dati. Una volta che i dati sono pronti, è possibile costruire flussi di lavoro di ML completamente automatizzati con Pipeline Amazon SageMaker o importare i dati nell'archivio delle funzionalità di Amazon SageMaker.
Quali tipi di dati supporta SageMaker Data Wrangler?
Come faccio a creare le funzionalità del modello con SageMaker Data Wrangler?
Come faccio a visualizzare i miei dati in SageMaker Data Wrangler?
Come sono calcolati i prezzi di SageMaker Data Wrangler?
Verranno addebitati i costi di tutte le risorse di calcolo, archiviazione ed elaborazione dati di ML utilizzate per SageMaker Data Wrangler. È possibile rivedere tutti i dettagli dei prezzi di SageMaker Data Wrangler qui. Grazie al Piano gratuito AWS, puoi iniziare a utilizzare SageMaker Data Wrangler gratuitamente.
Come posso addestrare modelli ML con i dati preparati in SageMaker Data Wrangler?
Quando le funzionalità sono state preparate in base ai dati storici, in quale modo SageMaker Data Wrangler gestisce i nuovi dati?
Come funziona SageMaker Data Wrangler con i processi di CI/CD?
Quale modello utilizza Quick Model di SageMaker Data Wrangler?
Quali dimensioni di dati supporta SageMaker Data Wrangler?
SageMaker Data Wrangler funziona con l'archivio delle funzionalità di SageMaker?
Cos'è l'archivio delle funzionalità di SageMaker?
L'archivio delle funzionalità di SageMaker è una piattaforma dedicata e completamente gestita per archiviare, condividere e gestire funzionalità per i modelli di machine learning (ML). Le funzionalità possono essere scoperte e condivise per un facile riutilizzo tra modelli e team con accesso e controllo sicuri, anche su tutti gli account AWS. L'archivio delle funzionalità di SageMaker supporta funzionalità online e offline per l'inferenza in tempo reale, l'inferenza in batch e l'addestramento. Gestisce inoltre le pipeline di ingegneria delle funzionalità in batch e in streaming per ridurre la duplicazione nella creazione delle funzionalità e migliorare la precisione del modello.
Quali sono le funzionalità offline?
Quali sono le funzionalità online?
Come faccio a mantenere la coerenza tra le funzionalità online e offline?
Come faccio a riprodurre una funzionalità da un dato momento nel tempo?
Come sono calcolati i prezzi dell'archivio delle funzionalità di SageMaker?
Grazie al Piano gratuito AWS, puoi iniziare a utilizzare l'archivio delle funzionalità di SageMaker gratuitamente. Con SageMaker Feature Store, si paga per la scrittura nel feature store, e per la lettura e l'archiviazione dal feature store online. Per i dettagli sui prezzi, consulta la pagina dei prezzi di Amazon SageMaker.
Cosa offre SageMaker per l'etichettatura dei dati?
SageMaker fornisce due offerte di etichettatura dei dati, Amazon SageMaker Ground Truth Plus e Amazon SageMaker Ground Truth. Entrambe le opzioni consentono di identificare i dati non elaborati, come immagini, file di testo e video, e aggiungere etichette informative per creare set di dati di addestramento di alta qualità per i propri modelli di ML. Per ulteriori informazioni, consulta Etichettatura dei dati di Amazon SageMaker.
Cosa sono i dati geospaziali?
Cosa sono le capacità geospaziali di SageMaker?
Qual è il vantaggio del ML geospaziale su SageMaker?
Costruisci modelli
Cosa sono i notebook Amazon SageMaker Studio?
Come funzionano i notebook SageMaker Studio?
I notebook SageMaker Studio sono notebook Jupyter che possono essere ruotati rapidamente con un semplice clic. Le risorse di calcolo sottostanti sono completamente elastiche, in modo da calibrare le risorse disponibili, e le modifiche vengono attuate in modo automatico in background senza interrompere il lavoro. SageMaker permette anche la condivisione di notebook con un clic. Puoi condividere facilmente i notebook con altri utenti, i quali avranno a disposizione lo stesso identico notebook salvato nella medesima posizione.
Con i notebook SageMaker Studio è possibile accedere con le credenziali aziendali tramite il Centro identità IAM. La condivisione dei notebook all'interno e all'esterno dei team è semplice, poiché le dipendenze necessarie per far funzionare un notebook vengono automaticamente monitorate in immagini di lavoro condensate all'interno del notebook durante la sua condivisione.
In che modo i notebook SageMaker Studio sono diversi dall'offerta di notebook basati sulle istanze?
Come funzionano i notebook SageMaker Studio con altri servizi AWS?
Cosa sono gli spazi condivisi in SageMaker?
I professionisti del machine learning possono creare uno spazio di lavoro condiviso all'interno dei quali i membri del team possono leggere e modificare in maniera collaborativa i notebook SageMaker Studio. Utilizzando gli spazi condivisi, i colleghi possono modificare a più mani lo stesso file del notebook, eseguire simultaneamente il codice del notebook e rivedere insieme i risultati, eliminando le sequenze di passaggi e ottimizzando la collaborazione. Negli spazi condivisi, i team del ML dispongono di un supporto incorporato per servizi come BitBucket e AWS CodeCommit, potendo così gestire con facilità versioni differenti dei propri notebook e confrontare le modifiche nel corso del tempo. Le risorse create all'interno dei notebook, come esperimenti e modelli di ML, vengono automaticamente salvati e associati allo specifico spazio di lavoro in cui sono stati creati affinché i team possano coordinarsi e organizzarsi con maggiore facilità e accelerare lo sviluppo dei modelli di ML.
Come sono calcolati i prezzi dei notebook SageMaker Studio?
Sono addebitati costi separati per ogni notebook creato ed eseguito in SageMaker Studio?
No. È possibile creare ed eseguire più notebook sulla stessa istanza di calcolo. Paghi solamente in base al calcolo che utilizzi e non per i singoli elementi. Ulteriori informazioni a riguardo sono disponibili nella nostra guida alla tariffazione.
Oltre ai notebook, è inoltre possibile avviare ed eseguire terminali e shell (interpreti di comandi) interattive in SageMaker Studio, tutti sulla stessa istanza di calcolo. Ogni applicazione viene eseguita all'interno di un container o di un'immagine. SageMaker Studio offre diverse immagini incorporate appositamente create e preconfigurate per data science e ML.
Come è possibile monitorare e arrestare le risorse utilizzate dai notebook?
Puoi monitorare e arrestare le risorse utilizzate dai tuoi notebook SageMaker Studio tramite l'interfaccia visiva di SageMaker Studio e la Console di gestione AWS. Consulta la documentazione per ulteriori dettagli.
Se eseguo un notebook Amazon SageMaker Studio, mi verranno comunque addebitati costi se chiudo il browser, la scheda dei notebook o semplicemente lascio il browser aperto?
Vengono addebitati costi per la creazione e la configurazione di un dominio SageMaker Studio?
No, non viene addebitato alcun costo per la creazione o la configurazione di un dominio SageMaker Studio, inclusi l'aggiunta, l'aggiornamento e l'eliminazione dei profili utente.
Come visualizzo i costi dettagliati per i notebook SageMaker Studio o altri servizi SageMaker?
L'amministratore può visualizzare l'elenco degli addebiti dettagliati per SageMaker, incluso SageMaker Studio, nella Console AWS per la fatturazione. Dalla Console di gestione AWS per SageMaker, scegli Servizi nel menu in alto, digita "fatturazione" nella casella di ricerca e seleziona Fatturazione dal menu a discesa, quindi seleziona Fatture nel pannello di sinistra. Nella sezione Dettagli, seleziona SageMaker per espandere l'elenco delle regioni e fai clic ripetutamente fino a visualizzare gli addebiti in dettaglio.
Cos'è Amazon SageMaker Studio Lab?
Perché dovrei usare SageMaker Studio Lab?
In che modo SageMaker Studio Lab lavora con altri servizi AWS?
Quali origini dati supporta SageMaker Canvas?
SageMaker Canvas ti consente di scoprire senza problemi le origini dati AWS a cui il tuo account ha accesso, compresi Amazon S3 e Amazon Redshift. È possibile sfogliare e importare i dati usando l'interfaccia visiva e a trascinamento e rilascio di SageMaker Canvas. Inoltre, è possibile trascinare e rilasciare i file dal disco locale e utilizzare i connettori predefiniti per importare dati da origini di terze parti come Snowflake.
Come si costruisce un modello di ML per generare previsioni precise in SageMaker Canvas?
Una volta collegate le origini, selezionato un set di dati e preparati i dati, è possibile selezionare la colonna di destinazione che si vuole prevedere per iniziare un processo di creazione del modello. SageMaker Canvas identificherà automaticamente il tipo di problema, genererà nuove funzionalità rilevanti, testerà un set completo di modelli di previsione utilizzando tecniche di ML quali regressione lineare, regressione logistica, deep learning, previsione di serie temporali e gradient boosting, e costruirà un modello che effettua previsioni precise sulla base del set di dati.
Addestra modelli
Cos'è Amazon SageMaker HyperPod?
Quando devo utilizzare SageMaker HyperPod?
SageMaker supporta l'addestramento distribuito?
Sì. SageMaker è in grado di distribuire automaticamente modelli di deep learning e grandi set di addestramento fra istanze AWS GPU in una frazione del tempo necessario per costruire e ottimizzare queste strategie di distribuzione manualmente. Le due tecniche di addestramento distribuite che SageMaker applica sono il parallelismo dei dati e il parallelismo dei modelli. Il parallelismo dei dati viene applicato per migliorare la velocità di addestramento dividendo i dati equamente fra più istanze della GPU, permettendo a ciascuna istanza di addestrarsi contemporaneamente. Il parallelismo del modello è utile per i modelli troppo grandi per essere memorizzati su una singola GPU e richiedono che il modello sia partizionato in parti più piccole prima di essere distribuito su più GPU. Con solo poche righe di codice aggiuntivo nei tuoi script di addestramento PyTorch e TensorFlow, SageMaker applicherà automaticamente il parallelismo dei dati o il parallelismo dei modelli, consentendoti di sviluppare e distribuire i tuoi modelli più velocemente. SageMaker determinerà il miglior approccio per dividere il modello usando algoritmi di partizionamento dei grafici per bilanciare il calcolo di ciascuna GPU e minimizzando la comunicazione tra istanze GPU. Inoltre, SageMaker ottimizza i processi di addestramento distribuiti tramite algoritmi che sfruttano appieno le capacità di calcolo e la rete di AWS per raggiungere un'efficienza di scalabilità quasi lineare. In questo modo, è possibile completare l'addestramento più velocemente rispetto alle implementazioni open source manuali.
Cos'è Esperimenti Amazon SageMaker?
Cos'è il Debugger Amazon SageMaker?
Cos'è Managed Spot Training?
In che modo è possibile utilizzare Managed Spot Training?
In quali casi è indicato utilizzare Managed Spot Training?
Come funziona Managed Spot Training?
Con Managed Spot Training è necessario creare checkpoint periodicamente?
In che modo è possibile calcolare il risparmio sui costi con i processi di Managed Spot Training?
Quali istanze si possono utilizzare con Managed Spot Training?
Quali regioni sono supportate con Managed Spot Training?
Managed Spot Training è supportato in tutte le regioni nelle quali SageMaker è attualmente disponibile.
Le dimensioni del set di dati che è possibile utilizzare per l'addestramento sono limitate?
Non sono previsti limiti fissi alle dimensioni del set di dati utilizzabile per l'addestramento di modelli con SageMaker.
Quali algoritmi usa SageMaker per generare modelli?
Cos'è Regolazione automatica modelli?
A quali modelli può essere applicata la regolazione automatica dei modelli?
È possibile utilizzare la regolazione automatica dei modelli al di fuori di SageMaker?
No, al momento no. SageMaker fornisce il massimo livello di esperienza e prestazioni di regolazione dei modelli.
In cosa consiste l'algoritmo alla base della regolazione automatica dei modelli?
Al momento, l'algoritmo per la regolazione degli iperparametri è un'implementazione personalizzata dell'ottimizzazione bayesiana. Il suo scopo è ottimizzare una metrica obiettivo specificata dal cliente lungo l'intero processo di regolazione. In particolare, verifica le metriche dell'oggetto per i processi di addestramento completati e utilizza i dati ottenuti per dedurre la combinazione di iperparametri per il processo di addestramento successivo.
La regolazione automatica dei modelli suggerisce iperparametri specifici per la regolazione?
No. Il modo in cui i singoli iperparametri alterano le prestazioni di un modello dipende da diversi fattori e non è semplice stabilire se un iperparametro sia più importante di altri e debba essere quindi regolato. Per gli algoritmi in SageMaker, è già stabilito quali iperparametri possono essere ottimizzati.
Quanto tempo richiede un processo di ottimizzazione di iperparametri?
La durata di un processo di ottimizzazione degli iperparametri dipende da diversi fattori, tra cui le dimensioni dei dati, l'algoritmo sottostante e i valori degli iperparametri. Inoltre, i clienti potranno scegliere il numero di processi di addestramento simultanei e il numero totale. Tutte queste scelte influenzano la durata del processo di ottimizzazione.
È possibile ottimizzare diversi obiettivi simultaneamente, ad esempio ottimizzando un modello sia rapido sia preciso?
No, al momento no. Al momento è necessario specificare un singolo obiettivo di ottimizzazione, oppure modificare il codice dell'algoritmo in modo che emetta un nuovo parametro, che sarà confrontato con altri parametri per applicarvi il processo di addestramento secondo il nuovo obiettivo.
Quanto costa la regolazione automatica modelli?
Per il processo di ottimizzazione di per sé non è previsto alcun costo. Saranno tuttavia addebitati i costi dei processi di addestramento avviati dal processo di regolazione degli iperparametri in base ai prezzi di regolazione dei modelli.
Cosa determina la scelta di usare il pilota automatico o la regolazione automatica modelli di SageMaker?
Pilota automatico SageMaker automatizza tutto in un tipico flusso di lavoro di ML, tra cui la preelaborazione delle funzioni, la selezione dell'algoritmo e l'ottimizzazione dell'iperparametro, concentrandosi in particolare sui casi d'uso di classificazione e regressione. L'ottimizzazione automatica dei modelli, d'altra parte, è progettata per ottimizzare qualsiasi modello, indipendentemente dal fatto che si basi su algoritmi integrati, framework di deep learning o container personalizzati. Per ottenere flessibilità, è necessario selezionare manualmente l'algoritmo specifico, gli iperparametri da ottimizzare e gli intervalli di ricerca corrispondenti.
Cos'è il consolidamento dell'apprendimento?
Il consolidamento dell'apprendimento è una tecnica di ML che consente a un agente di imparare in un ambiente interattivo tramite prove ed errori utilizzando feedback dalle proprie azioni ed esperienze.
Posso formare i modelli di consolidamento dell'apprendimento in SageMaker?
Sì, è possibile formare i modelli di consolidamento dell'apprendimento in SageMaker oltre ai tradizionali modelli di apprendimento supervisionato e non supervisionato.
D: In cosa è diverso dal consolidamento dall'apprendimento supervisionato?
Sebbene sia l'apprendimento supervisionato che il consolidamento dell'apprendimento utilizzino la mappatura tra input e output, nell'apprendimento supervisionato il feedback fornito all'agente è un insieme di azioni corretto per eseguire un'attività, mentre il consolidamento dell'apprendimento utilizza un feedback ritardato dove i segnali di ricompensa sono ottimizzati per assicurare un obiettivo a lungo termine tramite una sequenza di azioni.
Quando è indicato utilizzare il consolidamento dell'apprendimento?
Mentre l'obiettivo delle tecniche di apprendimento supervisionato è di trovare la risposta esatta in base ai modelli nei dati di training, l'obiettivo delle tecniche di apprendimento non supervisionato è di trovare similitudini e differenze tra i punti di dati. Al contrario, l'obiettivo delle tecniche di apprendimento per rinforzo (RL, reinforcement learning) è di imparare come ottenere un risultato desiderato anche quando non è chiaro come raggiungere tale risultato. Di conseguenza, RL è più adatto per abilitare le applicazioni intelligenti dove un agente può prendere decisioni autonome come nella robotica, veicoli con pilota automatico, HVAC, controllo industriale e altro.
Che tipo di ambienti posso usare per addestrare i modelli RL?
Amazon SageMaker RL supporta un numero di ambienti diversi per la formazione di modelli di RL. È possibile utilizzare i servizi AWS come AWS RoboMaker, gli ambienti open source o personalizzati sviluppato utilizzando le interfacce Open AI Gym o gli ambienti di simulazione commerciale come MATLAB e SimuLink.
Devo scrivere i miei algoritmi di agenti RL per poter addestrare i modelli RL?
No, SageMaker RL include i kit di strumenti RL come Coach e Ray RLLib che offrono implementazioni o algoritmi di agente RL come DQN, PPO, A3C e molti altri.
Posso portare le mie librerie RL e l'implementazione di algoritmi ed eseguirli in SageMaker RL?
Sì, è possibile portare le librerie RL e le implementazione di algoritmi in container Docker ed eseguirle in SageMaker RL.
Posso effettuare rollout distribuiti utilizzando SageMaker RL?
Sì. È anche possibile selezionare un cluster eterogeneo in cui la formazione può essere eseguita su un'istanza GPU e le simulazioni possono essere eseguite su più istanze CPU.
Distribuisci modelli
Quali opzioni di implementazione fornisce SageMaker?
Cos'è Amazon SageMaker Asynchronous Inference?
Come configuro le impostazioni di dimensionamento automatico per ridurre a zero il conto delle istanze quando non sto elaborando le richieste attivamente?
È possibile ridurre a zero il conto delle istanze di endpoint di SageMaker Asynchronous Inference per risparmiare sui costi quando non stai elaborando le richieste attivamente. È necessario definire una policy di dimensionamento che dimensioni sul parametro personalizzato "ApproximateBacklogPerInstance" e imposti il valore "MinCapacity" su zero. Per istruzioni dettagliate, visita la sezione Dimensionamento automatico di un endpoint asincrono nella guida per gli sviluppatori.
Cos'è Inferenza serverless Amazon SageMaker?
Inferenza serverless SageMaker è un'opzione di servizio di modelli serverless dedicata che semplifica l'implementazione e la scalabilità dei modelli di ML. Gli endpoint di Inferenza serverless SageMaker avviano automaticamente le risorse di calcolo e le dimensionano dentro e fuori a seconda del traffico, eliminando la necessità di scegliere il tipo di istanza, eseguire capacità in provisioning o gestire il dimensionamento. Puoi opzionalmente specificare i requisiti di memoria per il tuo endpoint di inferenza serverless. Paghi solo per la durata dell'esecuzione del codice di inferenza e la quantità di dati elaborati, non per i periodi di inattività.
Perché dovrei usare Inferenza serverless SageMaker?
Cos'è la concorrenza assegnata per Inferenza serverless SageMaker?
Perché è indicato utilizzare la concorrenza assegnata?
Con gli endpoint serverless on demand, se l'endpoint non riceve traffico per un po' di tempo e poi riceve improvvisamente nuove richieste, l'endpoint può impiegare del tempo per attivare le risorse di calcolo per elaborare le richieste. Questo si chiama avvio a freddo. Un avvio a freddo può verificarsi anche se le richieste simultanee superano l'utilizzo corrente delle richieste simultanee. Il tempo di avvio a freddo dipende dalle dimensioni del modello, dal tempo necessario per scaricare il modello e dal tempo di avvio del container.
Per ridurre la variabilità del profilo di latenza, puoi facoltativamente abilitare la concorrenza assegnata per i tuoi endpoint serverless. Grazie alla concorrenza assegnata, i tuoi endpoint serverless sono sempre pronti e possono gestire istantaneamente picchi di traffico, senza avvii a freddo.
Quali costi vengono addebitati per la concorrenza assegnata?
Come per Inferenza serverless on demand, quando la funzionalità di concorrenza assegnata è abilitata, si paga in base alla capacità di calcolo utilizzata per elaborare le richieste di inferenza, fatturata al millisecondo, e alla quantità di dati elaborati. Paghi anche per l'utilizzo di concorrenza assegnata, in base alla memoria configurata, alla durata fornita e alla quantità di concorrenza abilitata. Per ulteriori informazioni, visita la pagina dei prezzi di Amazon SageMaker.
Cos'è lo shadow testing di Amazon SageMaker?
Quali sono i vantaggi di SageMaker per lo shadow testing?
Cos'è l'inferenza con funzione di suggerimento Amazon SageMaker?
L'inferenza con funzione di suggerimento SageMaker riduce il tempo necessario per mettere in produzione i modelli di ML automatizzando il benchmarking delle prestazioni e regolando le prestazioni del modello attraverso le istanze ML di SageMaker. Ora è possibile usare l'inferenza con funzione di suggerimento SageMaker per implementare il proprio modello in un endpoint che offre le migliori prestazioni e riduce al minimo i costi. Puoi iniziare con SageMaker Inference Recommender in pochi minuti selezionando un tipo di istanza e ottenere raccomandazioni per configurazioni ottimali di endpoint in poche ore, eliminando settimane di test manuali e i tempi di messa a punto. Con SageMaker Inference Recommender, paghi solo per le istanze di SageMaker ML utilizzate durante il test di carico, e non ci sono costi aggiuntivi.
Perché dovrei usare l'inferenza con funzione di suggerimento SageMaker?
Come funziona l'inferenza con funzione di suggerimento SageMaker con altri servizi AWS?
L'inferenza con funzione di suggerimento SageMaker può supportare endpoint multi-modello o endpoint multi-container?
No, attualmente supportiamo un solo modello per endpoint.
Che tipo di endpoint supporta l'inferenza con funzione di suggerimento SageMaker?
Attualmente supportiamo solo endpoint in tempo reale.
Posso utilizzare l'inferenza con funzione di suggerimento SageMaker in una regione ed effettuare un benchmark in regioni diverse?
Supportiamo tutte le regioni supportate da Amazon SageMaker, eccetto le regioni AWS Cina.
Inferenza con funzione di suggerimento SageMaker supporta le istanze Amazon EC2 Inf1?
Sì, supportiamo tutti i tipi di container. Amazon EC2 Inf1, basata sul chip AWS Inferentia, richiede un artefatto di modello compilato utilizzando il compilatore Neuron o Amazon SageMaker Neo. Una volta che disponi di un modello compilato per un target Inferentia e l'URI dell'immagine del container associato, puoi usare l'inferenza con funzione di suggerimento SageMaker per valutare diversi tipi di istanze Inferentia.
Che cos'è Amazon SageMaker Model Monitor?
È possibile accedere all'infrastruttura su cui viene eseguito SageMaker?
No. SageMaker gestisce automaticamente l'infrastruttura di elaborazione, consentendo l'esecuzione di controlli dell'integrità, l'applicazione di patch di sicurezza e altre attività di manutenzione di routine. È anche possibile distribuire artefatti di modelli provenienti dai processi di addestramento con codice di inferenza personalizzato nell'ambiente di hosting aziendale.
In che modo è possibile ricalibrare le dimensioni e le prestazioni di un modello di SageMaker una volta avviata la fase di produzione?
L'hosting di SageMaker viene ricalibrato automaticamente mediante Application Auto Scaling in base alle prestazioni necessarie all'applicazione. Inoltre, è possibile modificare manualmente il tipo e il numero di istanze senza interrompere l'operatività apportando modifiche alla configurazione dell'endpoint.
In che modo è possibile monitorare l'ambiente di produzione di SageMaker?
SageMaker può inoltrare i propri parametri delle prestazioni in Amazon CloudWatch per permetterne il monitoraggio, per impostare allarmi e configurare operazioni da eseguire in base alle variazioni del traffico. Inoltre, SageMaker trascrive i propri log in File di log Amazon CloudWatch per favorire monitoraggio e risoluzione dei problemi negli ambienti di produzione.
Quali tipi di modelli possono essere conservati in hosting con SageMaker?
SageMaker è compatibile con l'hosting di qualsiasi modello conforme alle specifiche documentate per le immagini Docker di inferenza. Sono pertanto inclusi i modelli creati a partire da codice di inferenza e artefatti di modello di SageMaker.
Quante richieste simultanee in tempo reale dell'API supporta SageMaker?
SageMaker è stato progettato per ricalibrare le risorse fino a supportare un numero elevato di transazioni al secondo. Il numero preciso varia in base al modello distribuito e a tipo e numero di istanze in cui il modello è stato implementato.
In che modo SageMaker supporta l'hosting e la gestione di modelli completamente gestiti?
Che cos'è la trasformazione in batch?
La trasformazione in batch abilita ad eseguire analisi predittive su batch di dati di piccole e grandi dimensioni. Non è necessario porzionare il set di dati o gestire gli endpoint in tempo reale. È possibile richiedere analisi predittive con una semplice API per un numero elevato di record di dati, eseguendone la trasformazione in modo rapido e semplice.
Quali opzioni di implementazione degli endpoint supporta SageMaker?
Cos'è il dimensionamento automatico per l'elasticità?
Cos'è Gestore Edge di Amazon SageMaker?
Il Gestore di bordo SageMaker semplifica l'ottimizzazione, la sicurezza, il monitoraggio e la manutenzione di modelli di ML su flotte di dispositivi edge come telecamere intelligenti, robot, personal computer e dispositivi mobili. Il Gestore di bordo SageMaker aiuta gli sviluppatori di ML a utilizzare i modelli di ML su una varietà di dispositivi edge su larga scala.
Come si inizia a usare Gestore Edge di SageMaker?
Per iniziare con SageMaker Edge Manager, è necessario compilare e confezionare i modelli addestrati di ML nel cloud, registrare i dispositivi e prepararli con l'SDK di SageMaker Edge Manager. Per preparare il modello per l’implementazione, SageMaker Edge Manager utilizza SageMaker Neo per compilare il modello per l'hardware edge di destinazione. Una volta compilato un modello, SageMaker Edge Manager firma il modello con una chiave generata da AWS, quindi confeziona il modello con il proprio runtime e le credenziali necessarie per prepararlo all’implementazione. Dal lato del dispositivo, si registra il dispositivo con SageMaker Edge Manager, si scarica l'SDK di SageMaker Edge Manager e si seguono le istruzioni per installare l'agente SageMaker Edge Manager sui propri dispositivi. Il notebook del tutorial fornisce un esempio passo per passo di come è possibile preparare i modelli e collegarli con SageMaker Edge Manager su dispositivi edge.
Quali dispositivi sono supportati da Gestore Edge di SageMaker?
Gestore di bordo SageMaker supporta i comuni dispositivi basati su CPU (ARM, x86) e GPU (ARM, Nvidia) con sistemi operativi Linux e Windows. Nel corso del tempo, Gestore di bordo SageMaker si espanderà per supportare più processori incorporati e piattaforme mobili che sono supportati anche da SageMaker Neo.
Devo utilizzare SageMaker per addestrare il mio modello e poter utilizzare Gestore Edge di SageMaker?
No. È possibile addestrare i propri modelli altrove o utilizzare un modello preaddestrato open source o un modello del tuo fornitore.
Devo utilizzare SageMaker Neo per compilare il mio modello e poter utilizzare Gestore Edge di SageMaker?
Sì. Amazon SageMaker Neo converte e compila i propri modelli in un eseguibile che è poi possibile confezionare e implementare sui tuoi dispositivi edge. Una volta che il pacchetto del modello è implementato, l'agente di Gestore di bordo SageMaker decomprimerà il pacchetto ed eseguirà il modello sul dispositivo.
Come faccio a distribuire i modelli ai dispositivi edge?
Gestore di bordo SageMaker archivia il pacchetto del modello nel proprio specifico bucket di Amazon S3. È possibile utilizzare la funzione di implementazione via etere (OTA) fornita da AWS IoT Greengrass o qualsiasi altro meccanismo di distribuzione a scelta per distribuire il pacchetto del modello dal proprio bucket S3 ai dispositivi.
In che modo l'SDK di Gestore Edge di SageMaker è diverso dal runtime di SageMaker Neo (dlr)?
Neo dlr è un runtime open source che esegue solo modelli compilati dal servizio SageMaker Neo. Rispetto all'open source dlr, l'SDK di Gestore di bordo SageMaker include un agente di livello aziendale integrato nel dispositivo con ulteriore sicurezza, gestione dei modelli e funzionalità di model serving. L'SDK di Gestore di bordo SageMaker è adatto per l'implementazione della produzione su larga scala.
Come è collegato il Gestore Edge di SageMaker con AWS IoT Greengrass?
Il Gestore di bordo SageMaker e AWS IoT Greengrass possono lavorare insieme alla tua soluzione di IoT. Una volta che il modello di ML è confezionato con Gestore di bordo SageMaker, è possibile utilizzare la funzione di aggiornamento OTA di AWS Iot Greengrass per implementare il pacchetto del modello sul proprio dispositivo. AWS IoT Greengrass permette di monitorare i dispositivi IoT da remoto, mentre Gestore di bordo SageMaker aiuta a monitorare e mantenere i modelli di ML sui dispositivi.
Come è collegato Gestore Edge di SageMaker con AWS Panorama? Quando si deve usare Gestore di bordo SageMaker e quando AWS Panorama?
AWS offre la massima portata e completezza delle funzionalità per l'esecuzione di modelli su dispositivi edge. Disponiamo di servizi che supportano una vasta gamma di casi d'uso tra cui la visione computerizzata, il riconoscimento vocale e la manutenzione predittiva.
Per le aziende che intendono eseguire la visione computerizzata su dispositivi edge come telecamere e elettrodomestici, è possibile utilizzare AWS Panorama. AWS Panorama offre applicazioni di visione computerizzata pronte all'uso per i dispositivi edge. È facile iniziare con AWS Panorama accedendo alla console cloud, specificando il modello che si desidera utilizzare in Amazon S3 o in SageMaker, e poi scrivendo la logica aziendale come script python. AWS Panorama compila il modello per il dispositivo di destinazione e crea un pacchetto di applicazioni in modo che possa essere distribuito ai propri dispositivi con pochi clic. Inoltre, i produttori di software indipendenti che vogliono creare le proprie applicazioni personalizzate possono utilizzare l'SDK AWS Panorama, mentre i produttori di dispositivi possono utilizzare l'SDK del dispositivo per certificare i propri dispositivi per AWS Panorama.
I clienti che vogliono creare i propri modelli e hanno un controllo più granulare delle caratteristiche del modello, possono utilizzare Gestore di bordo SageMaker. Gestore di bordo SageMaker è un servizio gestito per la preparazione, l'esecuzione, il monitoraggio e l'aggiornamento di modelli di machine learning (ML) in flotte di dispositivi edge come telecamere intelligenti, altoparlanti intelligenti e robot per qualsiasi caso d'uso, come l'elaborazione del linguaggio naturale, l'individuazione delle frodi e la manutenzione predittiva. SageMaker Edge Manager è concepito per gli sviluppatori edge di ML che vogliono avere il controllo del proprio modello tra cui la progettazione di diverse funzionalità e monitorare i modelli in caso di deviazione. Qualsiasi sviluppatore edge di ML può utilizzare SageMaker Edge Manager attraverso la console e le API di SageMaker. Gestore di bordo SageMaker trasferisce le funzionalità di SageMaker quali creazione, addestramento e distribuzione di modelli nel cloud ai dispositivi edge.
In quali regioni è disponibile Gestore Edge di SageMaker?
Il Gestore di bordo SageMaker è disponibile in sei regioni: Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (Oregon), Europa (Irlanda), Europa (Francoforte) e Asia Pacifico (Tokyo). Consulta l'elenco dei Servizi regionali AWS per maggiori dettagli.
Cos'è Amazon SageMaker Neo?
SageMaker Neo consente di addestrare una sola volta i modelli di ML e di eseguirli ovunque nel cloud e nell'edge. SageMaker Neo ottimizza automaticamente i modelli costruiti con framework comuni di deep learning che possono essere utilizzati per la distribuzione su più piattaforme hardware. I modelli ottimizzati vengono eseguiti fino a 25 volte più velocemente e consumano meno di un decimo delle risorse dei modelli tradizionali di machine learning.
Come si inizia a usare SageMaker Neo?
Per iniziare a usare SageMaker Neo, è necessario eseguire l'accesso nella SageMaker console, scegliere un modello formato, seguire l'esempio per compilare i modelli e distribuire il modello risultante nella piattaforma hardware di destinazione.
Quali sono i componenti principali di SageMaker Neo?
SageMaker Neo contiene due componenti principali: un compilatore e un runtime. Prima, il compilatore SageMaker Neo legge modelli esportati da diversi framework. Converte quindi le funzioni specifiche del framework e le operazioni in una rappresentazione intermedia indipendente dal framework. Inoltre, esegue una serie di ottimizzazioni. Quindi, il compilatore genera un codice binario per le operazioni ottimizzate e le scrive in una libreria di oggetti condivisa. Il compilatore salva inoltre la definizione del modello e i parametri in file separati. Durante l'esecuzione, il runtime SageMaker Neo carica gli artefatti generati dal compilatore, definizione del modello, parametri e libreria di oggetti condivisa per eseguire il modello.
Devo utilizzare SageMaker per addestrare il mio modello e poter utilizzare SageMaker Neo per convertirlo?
No. È possibile addestrare i modelli altrove e utilizzare SageMaker Neo per ottimizzarli per le istanze ML di SageMaker o i dispositivi supportati AWS IoT Greengrass.
Quali modelli supporta SageMaker Neo?
Al momento, SageMaker Neo supporta i modelli di deep learning più conosciuti che alimentano le applicazioni di visione artificiale e i modelli di albero delle decisioni utilizzati in SageMaker oggi. SageMaker Neo ottimizza le prestazioni dei modelli AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet e DenseNet addestrati in MXNet e TensorFlow, e i modelli classification e random cut forest addestrati in XGBoost.
Quali piattaforme hardware supporta SageMaker Neo?
È possibile trovare l'elenco delle istanze cloud supportate, dei dispositivi edge e delle versioni del framework nella documentazione relativa a SageMaker Neo.
In quali regioni è disponibile SageMaker Neo?
Per visualizzare l'elenco di regioni supportate, consulta l'elenco dei Servizi regionali AWS.
Savings Plans di Amazon SageMaker
Cosa sono i Savings Plans di Amazon SageMaker?
Perché dovrei usare i Savings Plans di SageMaker?
Come si cominciano a usare i Savings Plans di SageMaker?
Qual è la differenza tra i Savings Plans per SageMaker e i Savings Plans per l'elaborazione per Amazon EC2?
Come funziona Savings Plans con AWS Organizations/Fatturazione consolidata?
Savings Plans può essere acquistato in qualsiasi account all'interno di una famiglia AWS Organization/Fatturazione consolidata. Per impostazione predefinita, il vantaggio fornito da Savings Plans è applicabile all'uso in tutti gli account di una famiglia AWS Organization/Fatturazione consolidata. Comunque, si può anche scegliere di restringere il vantaggio di Savings Plans al solo account che li ha acquistati.