Domande frequenti su S3 - Informazioni generali

D: Che cos'è Amazon S3?

Amazon S3 è uno spazio di archiviazione di oggetti per archiviare e recuperare qualsiasi volume di dati da qualsiasi origine. S3 un servizio di archiviazione semplice che offre durabilità, disponibilità, prestazioni, sicurezza e scalabilità virtualmente illimitata leader nel settore a costi molto bassi.

D: Cosa permette di fare Amazon S3?

Amazon S3 offre un'interfaccia Web service semplice che consente di archiviare e recuperare qualsiasi volume di dati, in qualsiasi momento e da qualsiasi posizione. Grazie a questo servizio, è possibile realizzare, con la massima semplicità, applicazioni che si appoggiano allo storage nativo per il cloud. Poiché Amazon S3 è altamente scalabile e le sue tariffe sono calcolate sulle risorse effettivamente impiegate, è possibile iniziare con una soluzione di base per poi espandere l'applicazione secondo le specifiche esigenze, senza dover scendere a compromessi su prestazioni o affidabilità.

Amazon S3 è stato inoltre progettato per essere altamente flessibile. È possibile archiviare qualsiasi tipo e volume di dati, accedere agli stessi dati milioni di volte o soltanto in caso di ripristino di emergenza, costruire una semplice applicazione FTP oppure una sofisticata applicazione Web come il sito di vendita al dettaglio di Amazon.com. Amazon S3 consente di concentrarsi sull'innovazione anziché di occuparsi dell'archiviazione dei dati.

D: Che cosa occorre per cominciare a usare Amazon S3?

Per registrarsi per Amazon S3, visita la console S3. Per accedere a questo servizio devi avere un account Amazon Web Services. Se non possiedi un account, all'inizio della procedura di registrazione ad Amazon S3 ti verrà chiesto di crearne uno. Dopo aver effettuato la registrazione, per iniziare a utilizzare Amazon S3 fai riferimento alla documentazione di Amazon S3, visualizza i materiali introduttivi di S3 e visualizza le risorse aggiuntive nel centro risorse.

D: Quali operazioni non disponibili con le soluzioni on-premise posso eseguire con Amazon S3?

Amazon S3 consente di usufruire delle risorse su larga scala di Amazon senza investimenti anticipati o compromessi sulle prestazioni. Utilizzando Amazon S3, garantire che i dati siano rapidamente accessibili, sempre disponibili e sicuri è economico e semplice.

D: Quale genere di informazioni è possibile memorizzare in Amazon S3?

Si può archiviare praticamente qualsiasi tipo di dati in qualunque formato. Per i dettagli, consulta il contratto di licenza di Amazon Web Services.

D: Quali volumi di dati è possibile archiviare in Amazon S3

Il volume totale di dati e il numero di oggetti che si possono archiviare in Amazon S3 sono illimitati. I singoli oggetti di Amazon S3 possono variare nelle dimensioni da un minimo di 0 byte a un massimo di 5 terabyte. La dimensione massima che può essere caricata in un unico PUT è 5 gigabyte per oggetto. Per gli oggetti di dimensioni superiori ai 100 MB, è consigliabile utilizzare la funzionalità di caricamento in più parti.

D: Cos'è un bucket multiuso S3?

Un bucket è un container per oggetti archiviati su Amazon S3 in cui è possibile memorizzare un numero qualsiasi di oggetti. I bucket per uso generico sono il tipo di bucket S3 originale e possono contenere oggetti archiviati in tutte le classi di archiviazione ad eccezione di S3 Express One Zone. Sono consigliati per la maggior parte dei casi d'uso e dei modelli di accesso.

D: Cos'è un bucket di directory S3?

Un bucket è un container per oggetti archiviati su Amazon S3 in cui è possibile memorizzare un numero qualsiasi di oggetti. I bucket di directory S3 ammettono solo gli oggetti archiviati nella classe di archiviazione S3 Express One Zone, che fornisce un'elaborazione più rapida dei dati all'interno di una singola zona di disponibilità. Sono consigliati per casi d'uso a bassa latenza. Ogni bucket di directory S3 può supportare centinaia di migliaia di transazioni al secondo (TPS), indipendentemente dal numero di directory al suo interno.

D: Qual è la differenza tra un bucket per uso generico e un bucket di directory?

Un bucket è un container per oggetti archiviati su Amazon S3 in cui è possibile memorizzare un numero qualsiasi di oggetti. I bucket per uso generico sono il tipo di bucket S3 originale e possono contenere oggetti archiviati in tutte le classi di archiviazione ad eccezione di S3 Express One Zone. Sono consigliati per la maggior parte dei casi d'uso e dei modelli di accesso. I bucket di directory S3 ammettono solo gli oggetti archiviati nella classe di archiviazione S3 Express One Zone, che fornisce un'elaborazione più rapida dei dati all'interno di una singola zona di disponibilità. Sono consigliati per casi d'uso a bassa latenza. Ogni bucket di directory S3 può supportare centinaia di migliaia di transazioni al secondo (TPS), indipendentemente dal numero di directory al suo interno.

D: In che modo Amazon impiega i dati su Amazon S3?

Amazon archivia i dati e tiene traccia del loro uso a scopi di fatturazione. Amazon non accede ai dati per alcuno scopo estraneo al servizio Amazon S3, salvo nel caso in cui ciò le sia imposto dalla legge. Per i dettagli, consulta il contratto di licenza di Amazon Web Services.

D: Amazon archivia anche i propri dati in Amazon S3?

Sì. Le organizzazioni di Amazon utilizzano Amazon S3 per una vasta gamma di progetti. Per molti di questi progetti Amazon S3 è l'archivio dati principale di riferimento su cui ci si basa per le operazioni di importanza critica.

D: Come sono organizzati i dati in Amazon S3?

Amazon S3 è un semplice spazio di archiviazione di oggetti basato su chiavi. Quando si archiviano dei dati, si assegna loro una chiave oggetto unica che serve per recuperarli in seguito. Le chiavi possono essere costituite da qualsiasi stringa e possono essere formulate in modo da riprodurre attributi gerarchici. In alternativa, è possibile utilizzare l'applicazione di tag agli oggetti S3 per organizzare i dati in tutti i bucket S3 e/o i prefissi.

D: In che modo è possibile interfacciarsi con Amazon S3?

Amazon S3 utilizza una semplice interfaccia di servizio Web REST basata su standard, progettata per operare con qualsiasi kit di strumenti per lo sviluppo Web. Il funzionamento è stato semplificato per facilitare l'aggiunta di nuovi protocolli di distribuzione e livelli funzionali.

D: Qual è il livello di affidabilità di Amazon S3?

Con Amazon S3, è possibile accedere alla stessa infrastruttura di archiviazione di dati altamente scalabile, disponibile, veloce ed economica che Amazon impiega per gestire la sua rete globale di sito Web. La classe di archiviazione S3 Standard è progettata per offrire una disponibilità del 99,99%, le classi S3 Standard-IA, S3 Intelligent-Tiering e S3 Glacier Instant Retrieval del 99,9% e la classe S3 One Zone-IA del 99,5%, mentre le classi S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive sono progettate per offrire una disponibilità del 99,99% e uno SLA del 99,9%. Tutte le classi di archiviazione sono soggette all'Accordo sul Livello di Servizio (SLA) di Amazon S3.

D: In che modo reagisce Amazon S3 durante i picchi di traffico?

Amazon S3 è stato progettato sin dall'inizio per gestire il traffico di qualsiasi applicazione Internet. Il pagamento in base al consumo e le capacità illimitata assicurano la regolarità dei costi incrementali e la disponibilità del servizio. Le ingenti risorse di Amazon S3 consentono di distribuire il carico uniformemente, in modo che nessuna applicazione subisca conseguenze negative in caso di picchi di traffico.

D: Amazon S3 offre un accordo sul livello di servizio (SLA)?

Sì. Il contratto sul livello di servizio di Amazon S3 offre un credito sui servizi qualora la percentuale di disponibilità mensile del sistema durante qualsiasi ciclo di fatturazione sia inferiore a quella dichiarata da Amazon.

D: Qual è il modello di consistenza per Amazon S3?

Amazon S3 offre automaticamente una consistenza forte per la lettura e la scrittura, senza modifiche alle prestazioni o alla disponibilità, senza sacrificare l'isolamento regionale per le applicazioni e senza costi aggiuntivi.

Dopo la scrittura di un nuovo oggetto o la sovrascrittura di un oggetto esistente, ogni richiesta di lettura successiva riceve immediatamente l'ultima versione dell'oggetto. S3 fornisce anche una consistenza forte per le operazioni di elenchi, così dopo la scrittura è possibile eseguire immediatamente un elenco degli oggetti in un bucket con le eventuali modifiche applicate.

D: Perché la forte coerenza read-after-write è utile?

Una forte coerenza read-after-write (ovvero, lettura dopo scrittura) è utile quando si ha bisogno di leggere immediatamente un oggetto dopo una scrittura, ad esempio, quando spesso si leggono e si creano elenchi subito dopo aver scritto gli oggetti. È un vantaggio anche per i carichi di lavoro di calcolo ad alte prestazioni: quando un oggetto viene sovrascritto e poi letto più volte contemporaneamente, la forte coerenza per la lettura e la scrittura assicura che l'ultima scrittura venga letta in tutte le letture. La forte coerenza per la lettura e la scrittura costituisce automaticamente un vantaggio immediato per queste applicazioni. Inoltre, la forte coerenza di S3 riduce i costi perché non sono più necessarie infrastrutture aggiuntive.  

Regioni AWS

D: Dove sono memorizzati i dati?

Al momento della creazione di un bucket Amazon S3 è possibile specificare una regione AWS. Per le classi di archiviazione S3 Standard, S3 Standard-IA, S3 Intelligent-Tiering, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive, gli oggetti vengono archiviati automaticamente su più dispositivi in un minimo di tre zone di disponibilità (AZ). Le zone di disponibilità sono fisicamente separate tra loro da una distanza significativa, di molti chilometri, pur restando nel raggio di 100 km (60 miglia) l'una dall'altra. Gli oggetti archiviati nella classe di archiviazione S3 One Zone-IA vengono archiviati in modo ridondante all'interno di una singola zona di disponibilità nella regione AWS scelta. Per S3 su Outposts, i dati vengono memorizzati nel tuo ambiente Outpost on-premise, a meno che tu non decida di trasferili manualmente in una regione AWS. Per maggiori dettagli sulla disponibilità dei servizi di Amazon S3 per regione AWS, consulta l'elenco dei servizi regionali AWS.

D: Che cos'è una regione AWS?

Una Regione AWS è una posizione fisica in tutto il mondo in cui si trovano i data center dei cluster AWS.  Ogni gruppo di data center logici all'interno di una Regione è detto zona di disponibilità (AZ). Ogni regione AWS è costituita da un minimo di tre zone di disponibilità isolate e fisicamente separate all'interno di un'area geografica. A differenza di altri provider di cloud che spesso definiscono una regione come un singolo data center, la struttura composta da varie zone di disponibilità di ogni Regione AWS offre molti vantaggi ai clienti. Ogni zona dispone di capacità di alimentazione, raffreddamento e sicurezza fisica proprie ed è connessa grazie a reti ridondanti e a latenza bassissima.

D: Cos'è una zona di disponibilità (AZ) AWS?

Una zona di disponibilità (AZ) consiste in uno o più data center provvisti di alimentazione, rete e connettività ridondanti in una Regione AWS. Le zone di disponibilità (AZ) consentono ai clienti di eseguire applicazioni e database in ambienti di produzione con elevata disponibilità, tolleranza ai guasti e scalabilità, altrimenti impossibili da ottenere all'interno di un singolo data center. Tutte le zone di disponibilità in una regione AWS sono interconnesse tramite una rete a elevata larghezza di banda e a bassa latenza, su una fibra metropolitana dedicata completamente ridondante che distribuisce reti a alto throughput e bassa latenza tra esse.

Le classi di archiviazione Amazon S3 Standard, S3 Standard -Infrequent Access, S3 Intelligent-Tiering, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive replicano i dati in un minimo di tre zone di disponibilità per proteggerli in caso di guasto di un'intera zona. Queste condizioni valgono anche per le regioni in cui sono disponibili pubblicamente meno di tre zone. Gli oggetti memorizzati in queste classi di storage sono accessibili da tutte le zone di disponibilità presenti nella regione AWS.

La classe di archiviazione Amazon S3 One Zone-IA replica i dati in una singola zona di disponibilità. I dati archiviati in S3 One Zone-IA non sono resilienti alla perdita fisica di una zona di disponibilità dovuta a calamità come terremoti, incendi e alluvioni.

D: Come si sceglie la regione AWS in cui archiviare i propri dati?

Vi sono diversi i fattori da considerare a seconda dell'applicazione specifica. Per esempio, potresti voler archiviare i tuoi dati in una regione vicina ai tuoi clienti, data center o ad altre risorse AWS per ridurre le latenze di accesso ai dati. Potresti anche voler archiviare i dati in una regione distante dalle altre operazioni, per motivi di ridondanza geografica e di ripristino di sicurezza. Dovresti anche considerare le Regioni che ti permettono di affrontare specifici requisiti legali e normativi e/o di ridurre i costi di archiviazione: per risparmiare, puoi scegliere una Regione con un prezzo più basso. Per informazioni sui prezzi di S3, consulta la pagina dei prezzi di Amazon S3.

D: In quali regioni è disponibile Amazon S3?

Amazon S3 è disponibile in tutte le regioni AWS; è inoltre possibile utilizzare il servizio indipendentemente dalla posizione. È solo necessario decidere in quale regione o in quali regioni AWS memorizzare i dati di Amazon S3. Per un elenco delle regioni AWS in cui è disponibile S3, consulta l'elenco dei servizi regionali AWS.

Fatturazione

D: Quanto costa Amazon S3?

I prezzi di Amazon S3 sono calcolati solo in base all'uso effettivo. Non è prevista una tariffa minima. È possibile calcolare la fattura mensile con il Calcolatore dei prezzi AWS.

I servizi AWS sono meno caro nelle zone in cui i nostri costi sono inferiori. Alcuni prezzi possono variare in base alle regioni Amazon S3. I costi di fatturazione sono calcolati in base alla sede del bucket S3. Non è previsto alcun costo di trasferimento dei dati per i dati trasferiti all'interno di una regione Amazon S3 attraverso una richiesta COPY. I dati trasferiti tramite una richiesta COPY tra Regioni AWS sono addebitati alle tariffe specificate sulla prezzi dei prezzi di Amazon S3. Non è previsto alcun costo di trasferimento dei dati per i dati trasferiti tra Amazon EC2 (o qualsiasi servizio AWS) e Amazon S3 all'interno della stessa regione, ad esempio all'interno della regione Stati Uniti orientali (Virginia settentrionale). Tuttavia, Il trasferimento di dati tra Amazon EC2 (o qualsiasi servizio AWS) e Amazon S3 tra tutte le altre Regioni, ad esempio tra Amazon EC2 Stati Uniti orientali (Virginia settentrionale) e Amazon S3 Stati Uniti occidentali (California settentrionale), viene invece addebitato alle tariffe specificate nella pagina dei prezzi di Amazon S3. I costi di trasferimento dei dati vengono fatturati al proprietario del bucket di origine.

Per i prezzi di S3 su Outposts, visita la pagina dei prezzi di Outposts.

D: Come viene addebitato e fatturato l'utilizzo di Amazon S3?

L'utilizzo di Amazon S3 non richiede alcun impegno di lungo termine né costi di configurazione. Alla fine del mese, verrà automaticamente addebitato il costo delle risorse utilizzate nel corso del mese. È possibile visualizzare in qualunque momento gli addebiti per il periodo di fatturazione in corso accedendo al tuo account Amazon Web Services e selezionando il pannello di controllo della fatturazione associato al profilo della console.

Con il Piano di utilizzo gratuito di AWS* puoi cominciare a usare Amazon S3 gratuitamente in tutte le Regioni ad eccezione di quelle AWS GovCloud. Dopo la registrazione, i nuovi clienti AWS riceveranno 5 GB di archiviazione Amazon S3 Standard, 20.000 richieste GET, 2.000 richieste PUT e 100 GB di trasferimento dati in uscita (verso Internet, altre regioni AWS o Amazon CloudFront) al mese per un anno. Le risorse mensili non usate non saranno trasferite al mese successivo.

Amazon S3 prevede l'addebito per i tipi d'uso riportati di seguito. Nota: i calcoli riportati sotto valgono nel caso il piano di utilizzo gratuito AWS non sia attivo.

Spazio di archiviazione utilizzato:

I costi di archiviazione di Amazon S3 sono riassunti nella pagina dei prezzi di Amazon S3.

Il volume di archiviazione fatturato in un mese si basa sulla media dell'archiviazione utilizzata in quel mese. Includerà quindi tutti i metadati e i dati oggetto archiviati in bucket creati all'interno dell'account AWS. L'utilizzo dello storage è misurato in "Tempo di storage/ore-byte", che sono sommate alla fine del mese per determinare il costo mensile.

Esempio di archiviazione:

Supponiamo di memorizzare 100 GB (107,374,182,400 byte) di dati in Amazon S3 Standard nel tuo bucket per 15 giorni a marzo, e 100 TB (109,951,162,777,600 byte) di dati in Amazon S3 Standard per gli ultimi 16 giorni di marzo.

Alla fine di marzo il consumo in ore-byte è il seguente: consumo ore-byte totale = [107.374.182.400 byte x 15 giorni x (24 ore al giorno)] + [109.951.162.777.600 byte x 16 giorni x (24 ore al giorno)] = 42.259.901.212.262.400 ore-byte. Calcola le ore in base al numero effettivo di giorni un mese. Ad esempio, nel nostro esempio utilizziamo marzo, che ha 31 giorni o 744 ore.

Convertiamo questa cifra in GB/mese: 42.259.901.212.262.400 ore-byte / 1.073.741.824 byte per GB / 744 ore al mese = 52.900 GB al mese

A questo volume di utilizzo si applicano due scaglioni di prezzo. Supponendo che la regione sia Stati Uniti orientali (Virginia settentrionale), il costo di storage mensile è il seguente: Scaglione da 50 TB: 51.200 GB x 0,023 USD = 1.177,60 Scaglione da 50 TB a 450 TB: 1.700 GB x 0,022 USD = 37,40 USD

Costo di storage totale = 1.177,60 USD + 37,40 USD = 1.215,00 USD

Trasferimento dei dati di rete in entrata:

I costi per i trasferimenti di dati in entrata di Amazon S3 sono riassunti nella pagina dei prezzi di Amazon S3. Si tratta del volume di dati inviati ai bucket di Amazon S3. 

Trasferimento dei dati di rete in uscita:

I costi per i trasferimenti di dati in uscita di Amazon S3 sono riassunti nella pagina dei prezzi di Amazon S3. Per Amazon S3, queste tariffe sono applicate ogni volta che vengono letti dati di uno qualsiasi dei bucket da un percorso esterno alla regione Amazon S3 in cui si trovano.

Gli scaglioni di prezzo per i trasferimenti dati in uscita si basano sul totale dei dati trasferiti in uscita da una data Regione a Internet attraverso Amazon EC2, Amazon S3, Amazon RDS, Amazon SimpleDB, Amazon SQS, Amazon SNS e Amazon VPC. Questi scaglioni non si applicano ai trasferimenti dati in uscita da Amazon S3 verso una regione AWS differente.

Esempio di trasferimento dati in uscita:
Supponiamo di trasferire 1 TB di dati da Amazon S3 nella Regione Stati Uniti orientali (Virginia settentrionale) a Internet ogni giorno per un mese di 31 giorni. Supponiamo anche di trasferire, nello stesso periodo, 1 TB di dati da un'istanza Amazon EC2 della stessa Regione a Internet.

Il volume complessivo di dati trasferiti sarebbe di 62 TB (31 TB da Amazon S3 e 31 TB da Amazon EC2). Ciò equivale a 63.488 GB (62 TB * 1024 GB/TB).

A questo volume di utilizzo si applicano tre scaglioni di prezzo. Supponendo che la Regione sia Stati Uniti orientali (Virginia settentrionale), il costo mensile per il trasferimento di dati in uscita è il seguente:
Scaglione fino a 10 TB: 10.239 GB (10×1024 GB/TB - 1 (gratis)) x 0,09 USD = 921,51 USD
Scaglione da 10 TB a 50 TB: 40,960 GB (40×1024) x 0,085 USD = 3,481.60 USD
Scaglione da 50 TB a 150 TB: 12.288 GB (rimanenti) x 0,070 USD = 860,16 USD

Costo totale trasferimenti di dati in uscita = 921,51 USD + 3.481,60 USD + 860,16 USD = 5.263,27 USD

Richieste di dati:

I costi delle richieste di Amazon S3 sono riassunti nella pagina dei prezzi di Amazon S3.

Esempio di richiesta:
Supponiamo di trasferire 10.000 file in Amazon S3 e 20.000 fuori da Amazon S3 ogni giorno durante il mese di marzo. Il 31 marzo eliminiamo quindi 5.000 file.
Totale richieste PUT = 10.000 richieste x 31 giorni = 310.000 richieste
Totale richieste GET = 20.000 richieste x 31 giorni = 620.000 richieste
Totale richieste DELETE = 5.000 × 1 giorno = 5.000 richieste

Supponendo che il bucket si trovi nella Regione Stati Uniti orientali (Virginia settentrionale), il costo delle richieste è il seguente:
310.000 richieste PUT: 310.000 richieste x 0,005 USD/1.000 = 1,55 USD
620.000 richieste GET: 620.000 richieste x 0,004 USD/10.000 = 0,25 USD
5.000 richieste DELETE = 5.000 richieste x 0,00 USD (operazione gratuita) = 0,00 USD

Recupero dei dati:

I prezzi di Amazon S3 per il recupero dei dati si applicano a tutte le classi di archiviazione, esclusi S3 Standard e S3 Intelligent-Tiering, e sono riepilogati nella pagina dei prezzi di S3.

Esempio di recupero dei dati:
Supponiamo in un mese di recuperare 300 GB di dati S3 Standard-IA, di cui 100 GB verso la rete Internet, 100 GB verso EC2 nella stessa Regione AWS e 100 GB verso Amazon CloudFront nella stessa Regione AWS.

Il costo mensile del recupero dei dati viene calcolato come 300 GB x 0,01 USD per GB = 3,00 USD. Per la parte che ha utilizzato internet verrà addebitato anche il costo di trasferimento dei dati in rete.

* * L'utilizzo consentito all'interno del piano gratuito viene calcolato ogni mese in tutte le regioni, ad esclusione della Regione AWS GovCloud, e viene applicato automaticamente alla fattura; l'utilizzo mensile non sfruttato non verrà trasferito al mese successivo. Si applicano limitazioni. Consulta i termini dell'offerta per ulteriori dettagli.

D: Perché i prezzi variano a seconda della Regione Amazon S3 scelta?

I servizi AWS sono meno caro nelle zone in cui i nostri costi sono inferiori. Ad esempio, i nostri costi sono inferiori nella Regione Stati Uniti orientali (Virginia settentrionale) che nella Regione Stati Uniti occidentali (California settentrionale).

D: Quali costi vengono addebitati per l'uso della funzione Versioni multiple?

Per ogni versione di un oggetto salvata o richiesta vengono addebitati i normali costi di Amazon S3. Per illustrare i costi di storage quando viene utilizzata la funzione Versioni multiple, prendiamo come esempio il seguente scenario ambientato in un mese di 31 giorni:

1) Giorno 1 del mese: viene eseguita una richiesta PUT di 4 GB (4.294.967.296 byte) sul bucket.
2) Giorno 16 del mese: viene eseguita una richiesta PUT di 5 GB (5.368.709.120 byte) sullo stesso bucket tramite la stessa chiave usata il primo giorno del mese.

Durante l'analisi dei costi di storage per le operazioni descritte, è necessario tenere conto che l'oggetto da 4 GB caricato il primo giorno del mese non viene eliminato dal bucket quando l'oggetto da 5 GB viene aggiunto a metà mese. L'oggetto da 4 GB viene anzi conservato come versione precedente, mentre l'oggetto da 5 GB diventa la versione scritta più recente dello stesso oggetto nel bucket. Alla fine del mese:

Consumo ore-byte totale
= [4.294.967.296 byte x 31 giorni x (24 ore al giorno)] + [5.368.709.120 byte x 16 giorni x (24 ore al giorno)] = 5.257.039.970.304 ore-byte.

GB al mese totali
5.257.039.970.304 ore-byte x (1 GB/1.073.741.824 byte) x (1 mese/744 ore) = 6,581 GB/mese

I costi sono calcolati in base alle tariffe correnti nella Regione d'uso e sono riportati nella pagina dei prezzi di Amazon S3.

D: Come viene fatturato l'accesso ad Amazon S3 tramite la Console di gestione AWS?

Quando si accede al servizio attraverso la Console di gestione AWS si applicano le normali tariffe di Amazon S3. Per migliorare la fruibilità, la Console di gestione AWS potrebbe eseguire richieste in modo proattivo. Inoltre, alcune operazioni interattive richiedono l'esecuzione di più richieste al servizio.

D: Come viene fatturato l'accesso ai bucket Amazon S3 da un altro account AWS?

L'accesso allo storage da un altro account AWS viene fatturato secondo le tariffe standard di Amazon S3. È possibile scegliere di configurare un bucket con pagamento a carico del richiedente, nel qual caso sarà l'account che esegue l'accesso a farsi carico dei costi delle richieste e dei download dei dati in Amazon S3.

Per ulteriori informazioni sulla configurazione dei bucket con pagamento a carico del richiedente, consulta la documentazione di Amazon S3.

D: I prezzi includono le tasse?

Salvo diversamente specificato, i prezzi sono al netto di eventuali tasse e imposte doganali, inclusa l'IVA ed eventuali tasse di vendita. Per i clienti con indirizzo di fatturazione in Giappone, l'utilizzo dei servizi AWS è soggetto all'imposta sul consumo giapponese.

Ulteriori informazioni sulle imposte per i servizi AWS »

D: Dovrò sostenere costi per il trasferimento di dati su Internet quando trasferisco i miei dati da AWS?

AWS offre ai clienti idonei il trasferimento gratuito dei dati su Internet quando spostano tutti i loro dati da AWS, secondo la procedura riportata di seguito.

D: Desidero spostare i miei dati da AWS. Come posso richiedere il trasferimento gratuito dei dati su Internet?

Completa i seguenti passaggi:

1) Se disponi di un team dedicato all'account AWS, per prima cosa contattalo e informalo dei tuoi piani. In alcuni casi, se hai un impegno negoziato con AWS, ti consigliamo di discutere le opzioni con il tuo team per l’account AWS.

2) Rivedi i criteri e il processo descritti in questa pagina.

3) Contatta l'assistenza clienti AWS e indica che la tua richiesta riguarda il “trasferimento gratuito dei dati per lo spostamento da AWS.” L'assistenza clienti AWS ti chiederà di fornire informazioni, in modo da poter esaminare i tuoi piani di spostamento, valutare l’idoneità al trasferimento gratuito dei dati e calcolare un importo di credito adeguato.

4) Se l'assistenza clienti AWS approva lo spostamento, riceverai un credito temporaneo per il costo del trasferimento dei dati in uscita in base al volume di tutti i dati archiviati nei servizi AWS al momento del calcolo di AWS. L'assistenza clienti AWS notificherà l’eventuale approvazione e da quel momento avrai 60 giorni per completare il trasferimento da AWS. Il credito verrà conteggiato solo per il trasferimento dei dati all'esterno e non verrà applicato ad altri usi del servizio. Dopo aver abbandonato i servizi AWS, entro il periodo di 60 giorni devi eliminare tutti i dati e i carichi di lavoro rimanenti dal tuo account AWS, oppure chiudere il tuo account AWS.

I trasferimenti gratuiti di dati per i fornitori IT in fase di spostamento sono inoltre soggetti ai seguenti criteri:

a) Solo i clienti con un account AWS attivo e in regola hanno diritto al trasferimento gratuito dei dati in uscita.

b) Se hai meno di 100 GB di dati archiviati nel tuo account AWS, puoi spostare questi dati da AWS gratuitamente nell'attuale piano gratuito mensile da 100 GB di AWS per il trasferimento dei dati in uscita. I clienti con meno di 100 GB di dati archiviati nel proprio account AWS non hanno diritto a crediti aggiuntivi.

c) AWS ti fornirà il trasferimento gratuito dei dati su Internet quando sposti tutti i dati da AWS. Se desideri spostare solo l'utilizzo totale di un singolo servizio, ma non tutto, contatta l'assistenza clienti AWS.

d) Se i tuoi piani cambiano o non riesci a completare il trasferimento da AWS entro 60 giorni, devi avvisare l'assistenza clienti AWS.

e) I costi dei servizi standard per l'utilizzo dei servizi AWS non sono inclusi. Solo le spese di trasferimento dei dati a sostegno del trasferimento da AWS sono idonee per i crediti. Tuttavia, il trasferimento dei dati da servizi di trasferimento dati specializzati, come Amazon CloudFront, AWS Direct Connect, AWS Snow Family e AWS Global Accelerator, non è incluso.

f) AWS esamina l'utilizzo del servizio per verificare la conformità con questi requisiti. Se stabiliamo che il trasferimento dei dati in uscita è stato utilizzato per uno scopo diverso dallo spostamento da AWS, potremmo addebitarti il trasferimento dei dati che era stato accreditato.

g) AWS apporta modifiche rispetto ai trasferimenti gratuiti di dati su Internet in qualsiasi momento.

D: Perché è necessario richiedere in anticipo l’approvazione di AWS per il trasferimento gratuito dei dati su Internet prima di spostare i propri dati da AWS?

I clienti AWS effettuano centinaia di milioni di trasferimenti di dati ogni giorno e, generalmente, non conosciamo il motivo di un determinato trasferimento dati. Ad esempio, i clienti potrebbero trasferire dati a un utente finale della loro applicazione, a un visitatore del loro sito Web o a un altro ambiente cloud o on-premises per scopi di backup. Di conseguenza, l'unico modo per sapere che il trasferimento dei dati ha l’obiettivo di supportare il tuo spostamento da AWS è comunicarcelo in anticipo.

Amazon S3 e IPv6

D: cosa si intende per IPv6?

Tutti i server e i dispositivi connessi a Internet devono avere un indirizzo univoco. Lo schema di indirizzamento originale a 32 bit era l'Intel Protocol Version 4 (IPv4). La crescita esponenziale di Internet, tuttavia, in futuro saturerà tutti gli indirizzi IPv4 disponibili. Il protocollo IPv6 (Internet Protocol Version 6) è un meccanismo progettato per superare le limitazioni di assegnazione di indirizzi del protocollo IPv4.

D: A cosa serve IPv6?

Con il supporto di Amazon S3 per IPv6, le applicazioni possono connettersi ad Amazon S3 senza software o sistemi di conversione degli indirizzi IPv4 o IPv6. In questo modo è più semplice soddisfare i requisiti di conformità, eseguire l'integrazione con applicazioni basate su IPv6 esistenti in locale ed evitare l'acquisto di costose apparecchiature di rete per gestire la conversione degli indirizzi. Ora è anche possibile utilizzare le caratteristiche di filtro dell'indirizzo sorgente esistente in policy di IAM e di bucket con indirizzi IPv6, ampliando le opzioni per proteggere le applicazioni che interagiscono con Amazon S3.

D: Come si inizia a usare il protocollo IPv6 in Amazon S3?

È possibile iniziare indirizzando l'applicazione verso l'endpoint "dual stack" di Amazon S3, che supporta l'accesso tramite sia IPv4 sia IPv6. Nella maggior parte di casi non è necessario procedere ad alcuna configurazione aggiuntiva per accedere su IPv6, perché in molti client di rete il protocollo IPv6 è quello predefinito. Le applicazioni che riscontrano problemi usando IPv6 possono tornare in qualsiasi momento a collegarsi a endpoint standard compatibili esclusivamente con IPv4. IPv6 con Amazon S3 è supportato in tutte le Regioni AWS commerciali, tra cui le regioni AWS GovCloud (Stati Uniti), la regione Amazon Web Services Cina (Pechino), gestita da Sinnet, e la regione Amazon Web Services Cina (Ningxia), gestita da NWCD. 

D: Le prestazioni di Amazon S3 cambiano se si adotta il protocollo IPv6?

No, le prestazioni di Amazon S3 sono identiche a prescindere che il protocollo in uso sia IPv4 o IPv6.

Notifiche degli eventi S3

D: Che cosa sono le notifiche degli eventi di Amazon S3?

È possibile utilizzare le notifiche degli eventi di Amazon S3 per ricevere notifiche quando si verificano determinati eventi nel bucket S3, come gli eventi PUT, POST, COPY e DELETE. Le notifiche possono essere pubblicate in Amazon EventBridgeAmazon SNS, Amazon SQS o direttamente in AWS Lambda.

D: A che cosa servono le notifiche degli eventi di Amazon S3?

Le notifiche degli eventi di Amazon S3 consentono di eseguire flussi di lavoro, inviare avvisi o eseguire altre operazioni in risposta a modifiche negli oggetti archiviati in S3. È possibile usare le notifiche degli eventi S3 per configurare l'attivazione di operazioni quali la transcodifica di file multimediali durante il caricamento, l'elaborazione di file di dati non appena risultano disponibili e la sincronizzazione di oggetti S3 con altri archivi di dati. È anche possibile configurare notifiche degli eventi in base ai prefissi e ai suffissi del nome dell'oggetto. Ad esempio, è possibile scegliere di ricevere notifiche sui nomi di oggetto che iniziano con "images/".

D: Quali informazioni sono incluse nelle notifiche degli eventi di Amazon S3?

Per una descrizione dettagliata delle informazioni incluse nei messaggi di notifica degli eventi di Amazon S3, consulta la sezione Configurazione delle notifiche degli eventi di Amazon S3

D: Come si impostano le notifiche degli eventi di Amazon S3?

Per istruzioni dettagliate su come configurare le notifiche degli eventi, consulta la sezione Configurazione delle notifiche degli eventi di Amazon S3. Per ulteriori informazioni sui servizi di messaggistica di AWS, consulta la documentazione di Amazon SNS e la documentazione di Amazon SQS.

D: Quanto costa usare le notifiche degli eventi di Amazon S3?

Non sono previsti costi aggiuntivi per l'uso delle notifiche degli eventi di Amazon S3. Vengono addebitati solo i costi di invio dei messaggi di Amazon SNS o di Amazon SQS o i costi di esecuzione delle funzioni AWS Lambda. Consulta le pagine relative ai prezzi di Amazon SNS, Amazon SQS e AWS Lambda per avere informazioni dettagliate sulle relative tariffe.

Amazon S3 Transfer Acceleration

D: Cos'è S3 Transfer Acceleration?

Amazon S3 Transfer Acceleration consente il trasferimento rapido, semplice e sicuro di file a lunga distanza tra il tuo client e il tuo bucket Amazon S3. S3 Transfer Acceleration sfrutta le posizioni edge di AWS di Amazon CloudFront distribuite in tutto il mondo. Quando i dati raggiungono una posizione edge AWS, vengono instradati verso il bucket Amazon S3 selezionato seguendo un percorso di rete ottimizzato.

D: Come si inizia a usare S3 Transfer Acceleration?

Per iniziare a usare S3 Transfer Acceleration S3, abilita il servizio in un bucket S3 tramite la console Amazon S3, l'API di Amazon S3 oppure AWS CLI. Una volta abilitata la S3 Transfer Acceleration, è possibile selezionare come destinazione delle richieste PUT e GET di Amazon S3 il nome di dominio dell'endpoint s3-accelerate. Il tipo di endpoint che l'applicazione di trasferimento dei dati deve utilizzare per accedere al bucket con una velocità di trasferimento superiore è uno dei seguenti: .s3-accelerate.amazonaws.com oppure .s3-accelerate.dualstack.amazonaws.com per un endpoint "dual stack". Se desideri utilizzare il trasferimento di dati standard, puoi continuare a utilizzare gli stessi endpoint.

Sono previste alcune restrizioni in relazione ai bucket compatibili con S3 Transfer Acceleration. Per i dettagli, consulta la documentazione di Amazon S3.

D: Quali velocità consente S3 Transfer Acceleration?

La funzione S3 Transfer Acceleration consente di sfruttare l'intera larghezza di banda, riducendo al minimo gli effetti della distanza sulla velocità effettiva, ed è progettata per garantire trasferimenti di dati veloci e costanti verso Amazon S3 indipendentemente dalla posizione del client. L'accelerazione dipende dalla larghezza di banda disponibile, dalla distanza tra fonte e destinazione e dal tasso di perdita dei pacchetti sul percorso di rete. In generale, l'accelerazione sarà più evidente quando la fonte è più lontana dalla destinazione, quando la larghezza di banda disponibile è maggiore e/o quando le dimensioni degli oggetti trasferire sono superiori.

Uno dei nostri clienti ha registrato una riduzione del 50% nel tempo medio di inoltro di 300 MB di file dalla propria base utenti globale distribuita tra Stati Uniti, Europa e Asia in un bucket nella regione Asia Pacifico (Sydney). Un altro cliente ha visto il trasferimento dati migliorare di oltre il 500% per alcuni utenti nel Sud-est asiatico e in Australia che caricano 250 MB di file (in parti da 50 MB) in un bucket S3 nella regione Stati Uniti orientali (Virginia settentrionale).

Accedi allo strumento di confronto delle velocità di S3 Transfer Acceleration per ottenere un'anteprima dei vantaggi alle prestazioni dalla tua posizione.

D: A chi è rivolta la funzione S3 Transfer Acceleration?

S3 Transfer Acceleration è una funzione progettata per ottimizzare le velocità di trasferimento dei dati in tutto il mondo verso bucket S3. Quando occorre caricare dati in un bucket centralizzato a partire da diverse posizioni distanti tra loro, oppure quando occorre spostare regolarmente GB o TB di dati tra continenti diversi, con S3 Transfer Acceleration è possibile ridurre i tempi di trasferimento di ore o di giorni.

D: Quanto è sicuro S3 Transfer Acceleration?

S3 Transfer Acceleration fornisce lo stesso livello di sicurezza dei normali trasferimenti verso Amazon S3. Sono infatti supportate tutte le funzionalità di sicurezza di Amazon S3, ad esempio le restrizioni di accesso basate sull'indirizzo IP del client. S3 Transfer Acceleration comunica con i client tramite protocollo TCP standard e non richiede modifiche del firewall. I dati trasferiti non vengono mai salvati nelle posizioni edge AWS.

D: Cosa succede se S3 Transfer Acceleration non migliora la velocità di trasferimento di Amazon S3?

Ogni volta che usi S3 Transfer Acceleration per caricare un oggetto, verificheremo che il trasferimento sia effettivamente più rapido rispetto ai comuni trasferimenti in Amazon S3. Se il caricamento con S3 Transfer Acceleration non dovesse risultare più veloce del normale trasferimento con Amazon S3 dello stesso oggetto verso la stessa regione AWS di destinazione, non sarà addebitato alcun costo per il servizio e il sistema non sarà utilizzato per tale trasferimento.

D: È possibile utilizzare la funzione S3 Transfer Acceleration per i caricamenti in più parti?

Sì, S3 Transfer Acceleration supporta tutte le caratteristiche a livello di bucket, incluso il caricamento in più parti.

D: Quando è più conveniente scegliere S3 Transfer Acceleration o le richieste PUT/POST di Amazon CloudFront?

S3 Transfer Acceleration consente di ottimizzare il protocollo TCP e fornisce ulteriore intelligence tra il cliente e il bucket S3, perciò è una scelta migliore quando è necessaria una velocità effettiva superiore. Se gli oggetti o i set di dati da trasferire hanno dimensioni inferiori a 1 GB, consigliamo di impiegare i comandi PUT/POST di Amazon CloudFront per ottenere prestazioni ottimali.

D: Come scegliere tra S3 Transfer Acceleration e AWS Snow Family?

La famiglia di prodotti AWS Snow è una soluzione ideale per i clienti che devono trasferire grandi quantità di dati in una volta. AWS Snowball in genere richiede 5-7 giorni. Nello stesso periodo di tempo, S3 Transfer Acceleration è in grado di trasferire approssimativamente 75 TB di dati, se impiega completamente una linea da 1 Gb/s. In genere, se il trasferimento tramite Internet richiede più di una settimana, oppure se i processi di trasferimento sono ricorrenti e la larghezza di banda disponibile è superiore a 25 Mb/s, S3 Transfer Acceleration è l'opzione ideale. È anche possibile utilizzare entrambi i servizi: il trasferimento iniziale con la maggior parte dei dati può essere effettuato con AWS Snowball (una o più appliance), mentre i trasferimenti di modifiche incrementali permanenti possono essere eseguiti con S3 Transfer Acceleration.

D: È possibile utilizzare S3 Transfer Acceleration in sinergia con AWS Direct Connect?

AWS Direct Connect rappresenta una buona soluzione per i clienti che necessitano di una rete privata o che hanno accesso al traffico di AWS Direct Connect. S3 Transfer Acceleration è invece più utile per inoltrare dati da client sparsi in diverse posizioni su connessioni Internet pubbliche, oppure quando la velocità effettiva è inficiata da condizioni di rete variabili. Alcuni clienti di AWS Direct Connect si avvalgono di S3 Transfer Acceleration per velocizzare i trasferimenti di dati da filiali remote, dove la connessione Internet potrebbe essere rallentata.

D: È possibile utilizzare S3 Transfer Acceleration in sinergia con Gateway di archiviazione AWS o gateway di terze parti?

È possibile ottenere vantaggi configurando la destinazione di bucket nel gateway di terze parti, in modo che utilizzi un dominio di endpoint S3 Transfer Acceleration.

Per ulteriori informazioni sull'implementazione di AWS, consulta la sezione File delle Domande frequenti su Storage Gateway.

D: È possibile utilizzare S3 Transfer Acceleration in sinergia con software integrati di terze parti?

Sì. I pacchetti software che si connettono direttamente in Amazon S3 possono utilizzare S3 Transfer Acceleration quando inoltrano processi in Amazon S3.

Ulteriori informazioni sulle soluzioni dei partner di archiviazione »

D: S3 Transfer Acceleration è soggetto alla normativa HIPAA?

Sì, AWS ha esteso il proprio programma di conformità agli standard HIPAA in modo da includere S3 Transfer Acceleration. Se disponi di un contratto di società in affari con AWS, puoi utilizzare S3 Transfer Acceleration per trasferire i dati in modo rapido, facile e sicuro, incluse le informazioni sanitarie protette su grandi distanze tra il client e il bucket Amazon S3.

Sicurezza

D: Qual è il livello di sicurezza dei dati su Amazon S3?     

La sicurezza è una delle caratteristiche primarie di Amazon S3. Al momento della creazione, puoi accedere soltanto ai bucket Amazon S3 da te creati e hai il controllo assoluto di chi è autorizzato ad accedere ai tuoi dati. Amazon S3 è provvisto di funzionalità di autenticazione per controllare l'accesso ai dati. È possibile usare meccanismi di controllo degli accessi come policy dei bucket per autorizzare l'accesso in modo selettivo a utenti e gruppi di utenti. La console di Amazon S3 mostra i bucket accessibili pubblicamente, indica l'origine di tale accessibilità e avvisa qualora le modifiche di policy o liste di controllo degli accessi dei bucket ne rendessero pubblico l'accesso. È opportuno attivare il blocco dell'accesso pubblico Amazon S3 per tutti gli account e i bucket che non si desidera rendere accessibili al pubblico. Per impostazione predefinita, in tutti i nuovi bucket è attivato il Blocco dell'accesso pubblico.

Puoi caricare o scaricare in modo sicuro i propri dati su Amazon S3 attraverso endpoint con crittografia SSL impiegando il protocollo HTTPS. Amazon S3 crittografa automaticamente tutti i caricamenti di oggetti sul tuo bucket (a partire dal 5 gennaio 2023). In alternativa, puoi utilizzare le tue librerie di crittografia per codificare i dati prima di archiviarli in Amazon S3.

Per ulteriori informazioni sulla sicurezza in AWS, consulta la pagina sulla sicurezza di AWS e per informazioni sulla sicurezza di S3, visita la pagina sulla sicurezza di S3 o la guida alle best practice di sicurezza di S3.

D: Come si monitora l'accesso ai dati archiviati in Amazon S3?

I clienti possono usare una serie di meccanismi per controllare l'accesso alle risorse di Amazon S3, fra cui policy di AWS Identity and Access Management (IAM), policy di bucket, policy dei punti di accesso, liste di controllo accessi (ACL), autenticazione stringa della query, policy degli endpoint Amazon Virtual Private Cloud (Amazon VPC), policy di controllo dei servizi (SCP) in AWS Organizations e il blocco dell'accesso pubblico di Amazon S3.

IAM
IAM consente alle aziende che hanno molti dipendenti di creare e gestire più utenti su uno stesso account AWS. Grazie alle policy di IAM, i clienti possono definire in modo granulare l'accesso ai bucket o agli oggetti di Amazon S3 da parte dei loro utenti mantenendo il controllo completo di tutte le operazioni che fanno gli utenti.

Policy di bucket e punti di accesso
Con le policy di bucket e punti di accesso, i clienti possono definire regole applicabili globalmente a tutte le richieste per risorse Amazon S3, ad esempio la concessione di privilegi di scrittura a un sottogruppo di risorse di Amazon S3. È anche possibile limitare l'accesso in base a particolari elementi della richiesta, come referrer HTTP e indirizzo IP. 

ACL
Amazon S3 supporta il metodo di controllo degli accessi originale di S3, ovvero le liste di controllo degli accessi (ACL). Grazie alle ACL, i clienti possono concedere autorizzazioni specifiche (ovvero READ, WRITE, FULL_CONTROL) a utenti specifici per un singolo oggetto o bucket. Per i clienti che preferiscono utilizzare esclusivamente policy per il controllo degli accessi, Amazon S3 offre la funzionalità S3 Object Ownership per disabilitare le ACL. Puoi utilizzare S3 Inventory per esaminare l'utilizzo delle ACL nei bucket prima di abilitare S3 Object Ownership durante la migrazione a policy dei bucket basate su IAM.

Autenticazione stringa della query
Con l'autenticazione stringa della query, è possibile creare un URL per un oggetto Amazon S3 valido solo per un periodo di tempo limitato. Per ulteriori informazioni sulle varie policy di controllo degli accessi disponibili in Amazon S3, consulta la
documentazione di controllo degli accessi.

Amazon VPC
Quando i clienti creano un endpoint Amazon VPC, possono allegare una policy endpoint che controlli l'accesso alle risorse di Amazon S3 a cui desiderano collegarsi. I clienti possono anche usare le policy del bucket Amazon S3 per controllare l'accesso ai bucket da endpoint o VPC specifici.

Policy di controllo dei servizi
Le policy di controllo dei servizi (SCP) sono un tipo di policy di AWS Organizations che i clienti possono usare per gestire le autorizzazioni nella loro organizzazione. Le SCP offrono il controllo centralizzato sul numero di autorizzazioni disponibili massimo per tutti gli account in un'organizzazione. Con le SCP, i clienti possono assicurare che i loro account rispettino le linee guida sul controllo degli accessi dell'organizzazione.

Blocco dell'accesso pubblico S3
Il blocco dell'accesso pubblico Amazon S3 offre impostazioni relative a punti di accesso, bucket e account per aiutare i clienti a gestire l'accesso pubblico alle risorse di Amazon S3. Con il blocco dell'accesso pubblico di Amazon S3, gli amministratori degli account e i proprietari dei bucket possono impostare facilmente controlli centralizzati per limitare l'accesso pubblico alle loro risorse di Amazon S3 che vengono applicati a prescindere dalla modalità di creazione delle risorse. Per impostazione predefinita, per tutti i nuovi bucket è attivato il Blocco dell'accesso pubblico come best practice di sicurezza.

Ulteriori informazioni su policy e autorizzazioni sono disponibili nella documentazione di AWS IAM.

D: Amazon S3 supporta la verifica dell'accesso ai dati?

Sì. È possibile configurare i bucket di Amazon S3 in modo che vengano creati, nel log degli accessi, record di tutte le richieste che li riguardano. In alternativa, se occorre acquisire informazioni su IAM e sulle identità degli utenti nei fil di log, è possibile configurare gli eventi sui dati di AWS CloudTrail.

I record del registro di accesso contengono i dettagli della richiesta, quali tipo di richiesta, risorse specificate e ora e data in cui la richiesta è stata elaborata, pertanto possono essere utilizzati a fini di audit.

D: Quali opzioni di crittografia sono disponibili per i dati archiviati in Amazon S3?

Amazon S3 crittografa tutti i nuovi dati caricati su qualsiasi bucket. Amazon S3 applica la crittografia lato server gestita da S3 (SSE-S3) come livello base di crittografia a tutti gli oggetti caricati (a partire dal 5 gennaio 2023). SSE-S3 rappresenta una soluzione completamente gestita: Amazon gestisce le chiavi e la loro protezione utilizzando molteplici livelli di sicurezza. È consigliabile continuare a utilizzare SSE-S3 se si preferisce affidare ad Amazon la gestione delle chiavi. Inoltre, i dati possono essere crittografati mediante le tecnologie SSE-C, SSE-KMS, DSSE-KMS oppure mediante una libreria come il client di crittografia Amazon S3. Ciascuna opzione consente di archiviare i dati sensibili crittografati a riposo in Amazon S3.

SSE-C consente ad Amazon S3 di eseguire la crittografia e la decrittografia degli oggetti, mantenendo il controllo delle chiavi di crittografia. Con SSE-C non occorre implementare o utilizzare una libreria lato client per eseguire la crittografia e la decrittografia degli oggetti archiviati in Amazon S3, ma è necessario gestire le chiavi che si inviano ad Amazon S3 per crittografare e decrittografare gli oggetti. Se desideri mantenere il controllo delle chiavi di crittografia, ma non hai intenzione di implementare o utilizzare una libreria file crittografato lato client, consigliamo l'uso di SSE-C.

SSE-KMS consente ad AWS Key Management Service (AWS KMS) di gestire le tue chiavi di crittografia. L'impiego di AWS KMS per gestire le chiavi fornisce ulteriori vantaggi. AWS KMS prevede autorizzazioni separate per utilizzare la chiave KMS, il che fornisce un ulteriore livello di controllo e protezione contro l'accesso non autorizzato agli oggetti archiviati in Amazon S3. AWS KMS offre tracce di controllo per visualizzare chi abbia utilizzato la chiave per accedere agli oggetti, a quali oggetti e quando, nonché i tentativi di accesso ai dati non riusciti da parte di utenti sprovvisti di autorizzazione a decriptare i dati. Infine, AWS KMS offre ulteriori controlli di sicurezza per agevolare l'adeguamento ai requisiti di settore PCI-DSS, HIPAA/HITECH e FedRAMP.

DSSE-KMS semplifica il processo di applicazione di due livelli di crittografia ai dati, senza dover investire nell'infrastruttura necessaria per la crittografia lato client. Ogni livello di crittografia utilizza un'implementazione diversa dell'Advanced Encryption Standard a 256 bit con algoritmo Galois Counter Mode (AES-GCM) ed è controllato e accettato per l'uso su carichi di lavoro top secret. DSSE-KMS utilizza AWS KMS per generare chiavi dati e consente ad AWS KMS di gestire le tue chiavi di crittografia. AWS KMS prevede autorizzazioni separate per utilizzare la chiave KMS, il che fornisce un ulteriore livello di controllo e protezione contro l'accesso non autorizzato agli oggetti archiviati in Amazon S3. AWS KMS offre tracce di controllo per visualizzare chi abbia utilizzato la chiave per accedere agli oggetti, a quali oggetti e quando, nonché i tentativi di accesso ai dati non riusciti da parte di utenti sprovvisti di autorizzazione a decriptare i dati. Infine, AWS KMS offre ulteriori controlli di sicurezza per agevolare l'adeguamento ai requisiti di settore PCI-DSS, HIPAA/HITECH e FedRAMP.

Con una libreria di crittografia client, è possibile mantenere il controllo delle chiavi e completare la crittografia e la decrittografia degli oggetti lato client utilizzando una libreria di crittografia a scelta. Alcuni clienti preferiscono avere il controllo completo della crittografia e decrittografia degli oggetti; in questo modo, attraverso Internet ad Amazon S3 vengono trasmessi soltanto oggetti crittografati. Se desideri mantenere il controllo delle chiavi di crittografia, hai la possibilità di implementare o utilizzare una libreria file crittografato lato client e hai intenzione di crittografare gli oggetti prima che siano inviati ad Amazon S3 per l'archiviazione, consigliamo l'uso di una libreria di crittografia lato client.

Per maggiori informazioni sull'uso di Amazon S3 SSE-S3, SSE-C o SSE-KMS, consulta la sezione relativa alla protezione dei dati tramite la crittografia.

D: È possibile ottemperare alle normative europee sulla privacy dei dati utilizzando Amazon S3?

I clienti possono decidere i archiviare tutti i dati in Europa utilizzando la regione Europa (Francoforte), Europa (Irlanda), Europa (Parigi), Europa (Stoccolma), Europa (Milano), Europa (Spagna), Europa (Londra) o Europa (Zurigo). Puoi anche utilizzare Amazon S3 su Outpostsper mantenere tutti i dati on-premise nell'AWS Outpost e puoi anche scegliere di trasferire i dati tra AWS Outposts o a una Regione AWS. Garantire il rispetto delle leggi sulla privacy europee è responsabilità del cliente. Visualizza il Centro per il Regolamento generale sulla protezione dei dati (GDPR) e Centro sulla privacy dei dati AWS per ulteriori informazioni. Se hai requisiti più specifici relativi alla posizione o altre normative sulla privacy dei dati che ti impongono di conservare i dati un una posizione in cui non è presente una Regione AWS, puoi usare S3 su Outposts.

D: Cos'è un endpoint VPC Amazon per Amazon S3?

Un endpoint Amazon VPC per Amazon S3 è un'entità logica all'interno di un VPC che consente la connettività a S3 tramite la rete globale di AWS. Esistono due tipi di endpoint VPC per S3: endpoint VPC del gateway ed endpoint VPC di interfaccia. Gli endpoint gateway sono un gateway che specifichi nella tabella di instradamento per accedere a S3 dal tuo VPC tramite la rete AWS. Gli endpoint di interfaccia estendono la funzionalità degli endpoint gateway utilizzando IP privati per instradare le richieste a S3 dall'interno del VPC, on-premise o da una Regione AWS diversa. Per ulteriori informazioni, visita la pagina della documentazione di AWS PrivateLink per Amazon S3.

D: Posso consentire l'accesso a un bucket Amazon S3 da parte di un endpoint Amazon VPC specifico?

Utilizzando le policy dei bucket Amazon S3 puoi limitare l'accesso al bucket da un endpoint Amazon VPC specifico o da un set di endpoint. Le policy dei bucket S3 supportano la condizione aws:sourceVpce, che consente di restringere gli accessi. Per maggiori dettagli e le policy di esempio, consulta la documentazione degli endpoint gateway per S3

D: Cos'è AWS PrivateLink per Amazon S3?

AWS PrivateLink per S3 fornisce connettività privata tra Amazon S3 e gli ambienti on-premise. Puoi eseguire il provisioning degli endpoint VPC di interfaccia per S3 nel tuo VPC per connettere le applicazioni on-premise direttamente a S3 tramite AWS Direct Connect o AWS VPN. Non è più necessario utilizzare IP pubblici, modificare le regole del firewall o configurare un gateway Internet per accedere a S3 da ambienti on-premise. Per ulteriori informazioni, consulta la documentazione di AWS PrivateLink per S3.

D: Come inizio a usare gli endpoint VPC di interfaccia per S3?

Puoi creare un endpoint VPC di interfaccia utilizzando la console di gestione VPC di AWS, l'interfaccia della linea di comando AWS (AWS CLI), l'SDK AWS o l'API. Per ulteriori informazioni, consulta la documentazione.

D: Quando dovrei scegliere gli endpoint VPC gateway piuttosto che gli endpoint VPC di interfaccia basati su AWS PrivateLink?

AWS consiglia di utilizzare endpoint VPC di interfaccia per accedere a S3 da ambienti on-premise o da un VPC situato in un'altra Regione AWS. Per le risorse che accedono a S3 da un VPC situato nella stessa regione AWS di S3, consigliamo di utilizzare endpoint VPC gateway poiché il loro utilizzo non comporta costi. Per ulteriori informazioni, consulta la documentazione.

D: Posso utilizzare sia gli endpoint di interfaccia che gli endpoint gateway per S3 nello stesso VPC?

Sì. Se già disponi di un endpoint VPC gateway, crea un endpoint VPC di interfaccia nel tuo VPC e aggiorna le applicazioni client con i nomi endpoint specifici dell'endpoint VPC. Ad esempio, se l'ID dell'endpoint VPC di interfaccia è vpce-0fe5b17a0707d6abc-29p5708s nella Regione us-east-1, il nome DNS specifico dell'endpoint sarà vpce-0fe5b17a0707d6abc-29p5708s.s3.us-east-1.vpce.amazonaws.com. In questo caso, solo le richieste ai nomi specifici dell'endpoint VPC verranno instradate attraverso gli endpoint VPC di interfaccia a S3, mentre tutte le altre richieste continueranno a essere instradate attraverso l'endpoint VPC gateway. Per ulteriori informazioni, consulta la documentazione.

D: Cos'è Amazon Macie e come si può usare per proteggere i dati?

Amazon Macie è un servizio di sicurezza basato sull'IA che aiuta a prevenire la perdita di dati perché rileva, classifica e protegge i dati sensibili archiviati in Amazon S3. Amazon Macie utilizza il machine learning per riconoscere dati sensibili quali le informazioni di identificazione personale (PII) o i dati soggetti a proprietà intellettuale, vi assegna un valore e fornisce visibilità su relativi percorsi di memorizzazione e modalità di utilizzo in azienda. Amazon Macie monitora costantemente le attività di accesso ai dati per rilevare eventuali anomalie e invia avvisi quando individua rischi di accesso non autorizzato o di divulgazione accidentale di informazioni.

Amazon Macie costituisce una protezione contro le minacce alla sicurezza perché monitora costantemente i dati e le credenziali di un account. Amazon Macie è un servizio automatizzato con cui è possibile individuare e classificare i dati aziendali. I controlli sono disponibili tramite modelli di funzioni Lambda, che permettono di revocare l'accesso o attivare le policy di reimpostazione della password quando vengono individuati comportamenti sospetti o accessi non autorizzati ai dati con entità o applicazioni di terze parti. Quando viene generato un avviso, si può usare Amazon Macie per fornire una prima risposta, sfruttando Eventi Amazon CloudWatch per eseguire operazioni immediate a protezione dei dati. Per ulteriori informazioni, consulta la documentazione di Amazon Macie

Che cos'è Sistema di analisi degli accessi IAM per Amazon S3 e come funziona?

Access Analyzer per S3 è una funzionalità che semplifica la gestione delle autorizzazioni impostando, verificando e perfezionando le policy per i bucket S3 e i punti di accesso. Sistema di analisi degli accessi per S3 monitora le policy di accesso esistenti per verificare che forniscano solo l'accesso richiesto alle proprie risorse S3. Sistema di analisi degli accessi per S3 valuta le policy di accesso ai bucket e aiuta a identificare e risolvere rapidamente i bucket che non richiedono l'accesso.

Sistema di analisi degli accessi per S3 avvisa quando un bucket è configurato per consentire l'accesso pubblico o è condiviso con altri account AWS. Riceverai risultati sull'origine e sul livello di accesso pubblico o condiviso. Ad esempio, Access Analyzer for S3 ti informerà in modo proattivo in caso di accesso in lettura o scrittura indesiderato attraverso una lista di controllo accessi o una policy di bucket. Grazie a questi risultati potrai impostare o ripristinare immediatamente la policy di accesso necessaria.

Quando esamini i risultati relativi a un potenziale accesso condiviso a un bucket, ti basterà un solo clic per bloccare tutti gli accessi pubblici al bucket dalla console di S3. Inoltre, puoi eseguire il drill-down delle singole impostazioni relative alle autorizzazioni di accesso al bucket per configurare livelli di accesso granulari. Ai fini della verifica, è possibile scaricare i risultati di Access Analyzer for S3 come report CSV. 

Inoltre, la console S3 riporta avvisi di sicurezza, errori e suggerimenti da IAM Access Analyzer mentre si creano le policy S3. La console esegue automaticamente più di 100 controlli per convalidare le tue policy. Questi controlli ti fanno risparmiare tempo, ti guidano nella risoluzione degli errori e ti aiutano ad applicare le best practice di sicurezza.

Per ulteriori informazioni, consulta la documentazione del Sistema di analisi degli accessi IAM.

S3 Access Grants

D: Cosa sono gli Amazon S3 Access Grants?

Amazon S3 Access Grants associa le identità in directory come Active Directory o i principali AWS Identity and Access Management (IAM) ai set di dati in S3. Questo ti aiuta a gestire le autorizzazioni dei dati su larga scala concedendo automaticamente l'accesso S3 agli utenti finali in base alla loro identità aziendale. Inoltre, S3 Access Grants registra l'identità dell'utente finale e l'applicazione utilizzata per accedere ai dati S3 in AWS CloudTrail. Ciò consente di fornire una cronologia dettagliata degli audit fino all'identità dell'utente finale per tutti gli accessi ai dati nei bucket S3.

D: Perché dovrei utilizzare S3 Access Grants?

Dovresti utilizzare S3 Access Grants se i tuoi dati S3 sono condivisi e accessibili da molti utenti e applicazioni, in cui alcune delle loro identità si trovano nella tua directory aziendale, come Okta o Entra ID, e hai bisogno di un modo scalabile, semplice e verificabile per concedere l'accesso a questi set di dati S3 su larga scala.

D: Come inizio a utilizzare S3 Access Grants?

Puoi iniziare a utilizzare S3 Access Grants in quattro passaggi. Innanzitutto, configura un'istanza S3 Access Grants. In questo passaggio, se desideri utilizzare S3 Access Grants con utenti e gruppi nella tua directory aziendale, abilita il Centro identità AWS e collega S3 Access Grants alla tua istanza del Centro identità. In secondo luogo, registra la posizione con S3 Access Grants. Durante questo processo, assegni a S3 Access Grants un ruolo IAM che viene utilizzato per creare credenziali S3 temporanee che utenti e applicazioni possono utilizzare per accedere a S3. In terzo luogo, definisci le concessioni di autorizzazione che specificano chi può accedere a cosa. Infine, al momento dell'accesso, chiedi alla tua applicazione di richiedere una credenziale temporanea a S3 Access Grants e di utilizzare le credenziali vendute da Access Grants per accedere a S3.

D: Quali tipi di identità sono supportati per le concessioni di autorizzazione di S3 Access Grants?

S3 Access Grants supporta due tipi di identità: identità di utenti o di gruppi aziendali del Centro identità AWS e principali AWS IAM, inclusi utenti e ruoli IAM. Durante l'utilizzo di S3 Access Grants con il Centro identità AWS, è possibile definire le autorizzazioni per i dati sulla base delle appartenenze ai gruppi di directory. Il Centro identità AWS è un servizio AWS che si connette a provider di identità di uso comune, tra cui Entra ID, Okta, Ping e altri. Oltre a supportare le identità delle directory tramite il Centro identità AWS, S3 Access Grants supporta anche le regole di autorizzazione per il principale AWS IAM, inclusi utenti e ruoli IAM. Si tratta di casi d'uso che danno la possibilità sia di gestire una federazione delle identità personalizzata non tramite il Centro identità AWS ma tramite asserzioni IAM e SAML (esempio di implementazione) o di gestire le identità delle applicazioni basate su principali IAM, permettendo comunque l'utilizzo di S3 Access Grants grazie alla sua scalabilità e verificabilità.

D: Quali sono i diversi livelli di accesso offerti da S3 Access Grants?

S3 Access Grants offre tre livelli di accesso, READ, WRITE e READWRITE. READ consente di visualizzare e recuperare oggetti da S3. WRITE consente di scrivere ed eliminare da S3. READWRITE consente di eseguire sia READ che WRITE.

D: È possibile personalizzare i livelli di accesso?

No. È possibile utilizzare solo i tre livelli di accesso predefiniti (READ/WRITE/READWRITE) offerti da S3 Access Grants.

D: Esistono dei limiti a S3 Access Grants?

Sì. Puoi creare fino a 100.000 concessioni per istanza di S3 Access Grants e fino a 1.000 posizioni per istanza di S3 Access Grants.

D: L'accesso ai dati ha un impatto sulle prestazioni durante l'utilizzo di S3 Access Grants?

No. La latenza per ottenere credenziali temporanee da S3 Access Grants è simile a quella utilizzata oggi per ottenere credenziali temporanee da AWS STS. Dopo aver ottenuto le credenziali da S3 Access Grants, è possibile riutilizzarle, se non sono scadute, per le richieste successive. Rispetto ad altri metodi, non è prevista alcuna latenza aggiuntiva per le richieste successive autenticate tramite le credenziali di S3 Access Grants rispetto ad altri metodi.

D: Quali altri servizi AWS sono necessari per utilizzare S3 Access Grants?

Se si intende utilizzare S3 Access Grants per le identità delle directory, occorre prima configurare il Centro identità AWS IAM. Il Centro identità AWS IAM aiuta a creare o connettere le identità della forza lavoro, sia che siano create e archiviate nel Centro identità che in un provider di identità esterno di terze parti. Consulta la documentazione del Centro identità per il processo di configurazione. Una volta configurata l'istanza del Centro identità, è possibile connetterla a S3 Access Grants. Successivamente, S3 Access Grants si affida al Centro identità per recuperare gli attributi dell'utente, come l'appartenenza al gruppo, per valutare le richieste e prendere decisioni in materia di autorizzazioni.

D: S3 Access Grants richiede modifiche lato client?

Sì. Mentre attualmente il client S3 si inizializza con le credenziali IAM associate all'applicazione (ad esempio, credenziali del ruolo IAM per EC2 o IAM Roles Anywhere; o utilizzando credenziali utente IAM a lungo termine), l'applicazione dovrà invece ottenere le credenziali S3 Access Grants prima di inizializzare il client S3. Queste credenziali saranno specifiche per l'utente autenticato nell'applicazione. Una volta inizializzato con queste credenziali S3 Access Grants, il client S3 può regolarmente effettuare richieste di dati S3 utilizzando le credenziali.

D: Poiché sono necessarie modifiche lato client, quali servizi AWS e applicazioni di terze parti sono attualmente integrati e pronti all'uso con S3 Access Grants?

Attualmente, S3 Access Grants si integra già con EMR e Spark open source tramite il connettore S3A. Inoltre, si integra con software di terze parti, tra cui Immuta e Informatica, in modo da poter centralizzare la gestione delle autorizzazioni. Infine, S3 Access Grants supporta Terraform e CloudFormation per consentire il provisioning programmatico di S3 Access Grants.

D: S3 Access Grants è un sostituto di AWS IAM?

No. S3 Access Grants non sostituisce IAM e in effetti funziona bene con le strategie di protezione dei dati esistenti basate su IAM (regole di crittografia, rete, perimetro dei dati). S3 Access Grants è basato su primitivi IAM e consente di esprimere autorizzazioni S3 più granulari su larga scala.

D: S3 Access Grants funziona con KMS?

Sì. Per utilizzare S3 Access Grants per oggetti crittografati con KMS, i proprietari dei bucket includono nel ruolo IAM le autorizzazioni KMS necessarie che concedono a S3 Access Grants come parte della registrazione della posizione. S3 Access Grants può quindi utilizzare quel ruolo IAM in seguito per accedere agli oggetti crittografati con KMS nei bucket.

D: Come si visualizzano e si gestiscono le autorizzazioni concesse a S3 Access Grants?

È possibile utilizzare l'esperienza della console di S3 Access Grants nella Console di gestione AWS o le API SDK e CLI per visualizzare e gestire le autorizzazioni di S3 Access Grants.

D: È possibile concedere l'accesso pubblico ai dati con S3 Access Grants?

No, non è possibile concedere l'accesso pubblico ai dati con S3 Access Grants.

D: Come si controllano le richieste autorizzate tramite S3 Access Grants?

La richiesta dell'applicazione di avviare una sessione di accesso ai dati con S3 Access Grants verrà registrata su CloudTrail. CloudTrail distinguerà l'identità dell'utente che effettua la richiesta da quella dell'applicazione che accede ai dati per conto dell'utente. Ciò consente di verificare l'identità dell'utente finale per stabilire chi ha avuto accesso a quali dati e in quale momento.

D: Qual è il prezzo di S3 Access Grants?

S3 Access Grants viene addebitato in base al numero di richieste a S3 Access Grants. Per i dettagli sui prezzi, consulta la pagina dei prezzi.

D: Qual è la relazione tra S3 Access Grants e Lake Formation?

AWS Lake Formation è indicato per i casi d'uso in cui è necessario gestire l'accesso ai dati tabulari (come le tabelle Glue), in cui potrebbe esserci la necessità di imporre l'accesso a livello di riga e colonna. S3 Access Grants serve a gestire l'accesso per le autorizzazioni S3 dirette, come i dati non strutturati, inclusi video, immagini, log, ecc.

D: S3 Access Grants è integrato con il Sistema di analisi degli accessi IAM?

No. Al momento, S3 Access Grants non è integrato con il Sistema di analisi degli accessi IAM. Non è ancora possibile utilizzare il Sistema di analisi degli accessi IAM per analizzare le concessioni di autorizzazioni di S3 Access Grants. I clienti possono controllare le concessioni di autorizzazioni di S3 Access Grants direttamente accedendo alla pagina S3 Access Grants nella console S3 oppure utilizzando programmaticamente l'API ListAccessGrants.

Punti di accesso S3

D: Cosa sono i Punti di accesso Amazon S3?

Oggi, i clienti gestiscono l'accesso ai propri bucket S3 utilizzando un'unica policy di bucket che controlla l'accesso di centinaia di applicazioni con diversi livelli di autorizzazione.

I Punti di accesso Amazon S3 semplificano la gestione dell'accesso ai dati su vasta scala per applicazioni che utilizzano set di dati condivisi su Amazon S3. Ora, grazie ai Punti di accesso S3, puoi creare con facilità centinaia di punti di accesso per bucket, sviluppando un nuovo modo per garantire l'accesso a set di dati condivisi. I Punti di accesso garantiscono un percorso personalizzato in un bucket, con un nome host unico e una policy di accesso che implementa le autorizzazioni specifiche e i controlli di rete per qualsiasi richiesta avanzata attraverso il punto di accesso. I punti di accesso S3 possono essere associati ai bucket dello stesso account o di un altro account fidato. Ulteriori informazioni sono disponibili nella pagina dei Punti di accesso S3 e nella guida per l'utente.

D: Quali sono i vantaggi dei punti di accesso?

I Punti di accesso S3 semplificano la gestione delle modalità di accesso ai set di dati condivisi su S3. Non è più necessario gestire una singola e complessa policy di bucket con centinaia di diverse regole di autorizzazione che devono essere scritte, lette, tracciate e verificate. Grazie ai Punti di accesso S3, puoi creare punti di accesso o delegare autorizzazioni per account affidabili in modo da creare punti di accesso multi-account sul tuo bucket. Ciò consente di accedere ai set di dati condivisi con policy specifiche per l'applicazione.

Utilizzando i Punti di accesso, puoi scomporre una policy di bucket di grandi dimensioni in policy di punti di accesso separate e discrete per ogni applicazione che accede al set di dati condiviso. Ciò rende più semplice la creazione della giusta policy di accesso per un'applicazione, senza doversi preoccupare di interrompere l'attività di un'altra applicazione all'interno del dataset condiviso. Inoltre, puoi creare una policy di controllo del servizio (SCP) e richiedere che tutti gli access point vengano limitati a un Virtual Private Cloud (VPC), proteggendo i dati all'interno delle tue reti private. 

D: Come funzionano i Punti di accesso S3?

Ogni Punto di accesso S3 è configurato con una policy di accesso specifica per un caso d'uso o un'applicazione e un bucket può disporre di migliaia di punti di accesso. Ad esempio, puoi creare un punto di accesso per il bucket S3 che conceda a gruppi di utenti o applicazioni l'accesso al data lake. Un Punto di accesso potrebbe supportare un singolo utente o un'applicazione, oppure gruppi di utenti o applicazioni, consentendo una gestione separata di ciascun punto di accesso. 

Inoltre, puoi delegare autorizzazioni per account affidabili in modo da creare punti di accesso multi-account sul tuo bucket. I punti di accesso multi-account non garantiscono l'accesso ai dati finché non viene concessa l'autorizzazione dal proprietario del bucket.  Il proprietario del bucket mantiene sempre il controllo finale sui dati e deve aggiornare la policy di bucket per autorizzare le richieste dal punto di accesso multi-account. Nella guida per l'utente è riportato un esempio di policy di bucket.

Ogni punto di accesso è associato a un singolo bucket e contiene un controllo dell'origine della rete e un controllo di tipo Blocco dell'accesso pubblico. Ad esempio, puoi creare un punto di accesso con un controllo dell'origine della rete che permetta l'accesso all'archiviazione solo dal tuo cloud privato virtuale, una sezione logicamente isolata di AWS Cloud. Inoltre, puoi creare un punto di acceso configurandone la policy in modo da permettere l'accesso solo agli oggetti con un prefisso definito o ad oggetti con tag specifici.

Puoi accedere ai dati nei bucket condivisi tramite un punto di accesso in due modi. Per le operazioni sugli oggetti S3, puoi utilizzarel’ARN del punto di accesso al posto di un nome di bucket. Per le richieste con un nome bucket nel formato del nome bucket S3 standard, puoi invece utilizzare un alias del punto di accesso. Gli alias per i punti di accesso S3 vengono generati automaticamente e sono intercambiabili con i nomi dei bucket S3 ovunque utilizzi un nome di bucket per l'accesso ai dati. Ogni volta che crei un punto di accesso per un bucket, S3 genera automaticamente un nuovo alias punto di accesso. Per il set completo di operazioni e servizi AWS compatibili, consulta la documentazione di S3.

D: Esiste una quota relativa ai punti di accesso che si possono creare?

Per impostazione predefinita, è possibile creare 10.000 punti di accesso per ogni regione per ciascun account sui bucket nel tuo account e multi-account. A differenza dei bucket S3, non è previsto un limite fisso per il numero di punti di accesso per ciascun account AWS. Visita la pagina Service Quotas di AWS per richiedere un aumento della quota.

D: Quando si usa un punto di accesso, come vengono autorizzate le richieste?

Gli access point S3 hanno una propria policy di accesso IAM. Scrivi le policy degli access point come per una policy di bucket, utilizzando l'ARN dell'access point come risorsa. Le policy degli access point possono concedere o limitare l'accesso ai dati S3 richiesti tramite l'access point. Amazon S3 valuta tutte le policy rilevanti, incluse quelle relative a utente, bucket, access point, endpoint VPC, e le policy di controllo dei servizi per decidere se autorizzare o meno la richiesta.

D: Come si scrivono le policy per access point?

LE policy per access point si scrivono esattamente come le policy per bucket, usando le regole IAM per gestire le autorizzazioni e l'ARN dell'access point nel documento della policy.

D: Qual è la differenza tra le restrizioni di accesso a VPC specifici che usano controlli dell'origine della rete su access point e quelle che usano policy di bucket?

Puoi continuare ad utilizzare policy di bucket per limitarne l'accesso a VPC specificati. Gli access point offrono un modo più facile e controllabile per bloccarli tutti o un subset di dati in un set di dati condivisi a un traffico esclusivo VPC per tutte le applicazioni nella tua organizzazione che si avvalgono di controlli API. Puoi utilizzare una policy SCP AWS Organizations per esigere che qualsiasi access point creato nella tua organizzazione imposti il valore del parametro API "controllo dell'origine della rete" su "vpc". Qualsiasi nuovo access point creato automaticamente limita così l'accesso dei dati al traffico esclusivo VPC. Per assicurarsi che le richieste di dati siano elaborate solo dai VPC specificati, non è richiesta alcuna policy di accesso supplementare.

D: Si può applicare una policy "Nessun accesso a dati Internet" per tutti i punti di accesso di un'organizzazione?

Sì. Per applicare una policy "Nessun accesso a dati Internet" per i punti di accesso nella tua organizzazione, dovresti assicurarti che tutti i punti di accesso implementino un accesso esclusivo VPC. Affinché questo accada, scriverai una policy di controllo dei servizi AWS che supporti solo il valore "vpc" per il parametro "controllo dell'origine della rete" nell'API create_access_point(). In caso di punti di accesso connessi a Internet creati da te in precedenza, questi possono essere eliminati. Dovrai anche modificare la policy di bucket in ciascuno dei tuoi bucket per limitare ulteriormente l'accesso Internet al tuo bucket tramite il nome host del bucket. Dato che altri servizi AWS possono accedere direttamente al tuo bucket, assicurati di configurare l'accesso per abilitare i servizi AWS che desideri modificando la policy per abilitarli. Consulta la documentazione S3 per esempi su come farlo.

D: È possibile disabilitare completamente l'accesso diretto ad un bucket utilizzando il nome host del bucket?

Al momento non ancora, ma puoi collegare una policy di bucket che rifiuti le richieste non avanzate utilizzando un access point. Consulta la documentazione S3 per ulteriori dettagli.

D: È possibile sostituire o rimuovere un access point da un bucket?

Sì. Quando si rimuove un access point, l'accesso al bucket associato attraverso altri access point e l'host name del bucket non sarà interrotto.

D: Quanto costa il servizio Access Point di Amazon S3?

Non sono previste spese aggiuntive per access point o bucket che utilizzano access point. Si applicano le normali tariffe per richieste Amazon S3.

D: Come si iniziano a utilizzare i Punti di accesso S3?

Puoi iniziare a creare Punti di accesso S3 sui bucket nuovi ed esistenti mediante la Console di gestione AWS, l'Interfaccia della linea di comando AWS (AWS CLI), l'interfaccia di programmazione dell'applicazione (API) e il client del Software Development Kit (SDK) di AWS. Per ulteriori informazioni sui Punti di accesso S3, consulta la guida per l'utente.

Durabilità e protezione dei dati

D: Qual è la durabilità di Amazon S3?

Amazon S3 offre l'archiviazione più duratura nel cloud. Basato sulla sua unica architettura, S3 è progettato per superare il 99,999999999% (11 nove) di durabilità dei dati. Inoltre, per impostazione predefinita S3 archivia i dati in modo ridondante in un minimo di 3 zone di disponibilità (AZ), fornendo resilienza integrata contro i disastri diffusi. I clienti possono archiviare i dati in un'unica zona di disponibilità per ridurre al minimo i costi di archiviazione o la latenza, in più zone di disponibilità per la resilienza contro la perdita permanente di un intero data center o in più Regioni AWS per soddisfare i requisiti di resilienza geografica.

D: In che modo Amazon S3 è progettato per una durabilità del 99,999999999%?

La progettazione di Amazon S3 per la durabilità dipende dalla frequenza di guasto dei dispositivi di archiviazione e dalla velocità con cui S3 è in grado di rilevare i guasti e quindi replicare nuovamente i dati su tali dispositivi. S3 esegue un controllo dell'integrità end-to-end su ogni caricamento di oggetti e verifica che tutti i dati siano archiviati in modo corretto e ridondante su più dispositivi di archiviazione prima di considerare il caricamento riuscito. Una volta archiviati i dati in S3, S3 monitora continuamente la durata dei dati nel tempo con controlli periodici sull'integrità di tutti i dati a riposo. Inoltre, S3 monitora attivamente la ridondanza dei dati per verificare che gli oggetti siano in grado di tollerare il guasto simultaneo di più dispositivi di archiviazione.

D: I dati archiviati in una classe di archiviazione One Zone sono protetti da danni o perdite della zona di disponibilità?

Nell'improbabile caso di perdita o danneggiamento di tutta o di parte di una zona di disponibilità AWS, i dati in una classe di archiviazione One Zone potrebbero andare perduti. Questa perdita potrebbe essere provocata da eventi come incendi e danni causati dall'acqua. Oltre a questi tipi di eventi, le classi di archiviazione One Zone utilizzano design ingegneristici simili alle classi di archiviazione regionali per proteggere gli oggetti da guasti indipendenti a livello di disco, host e rack, e ciascuna è progettata per offrire una durabilità dei dati del 99,999999999%.

D: In che modo Amazon S3 riesce a superare la durabilità del 99,999999999%?

Amazon S3 ha una solida cultura della durabilità e le migliori pratiche di durabilità sono integrate nei sistemi e nei software sin dall'inizio. Ad AWS abbiamo più esperienza nella gestione di archiviazione ad alta durabilità rispetto a qualsiasi altro provider di cloud e la utilizziamo per ridimensionare il rischio connesso alla durabilità e per aggiungere misure di protezione della durabilità in tutto ciò che facciamo.

D: Con una durabilità così elevata, è comunque necessario eseguire il backup dei dati fondamentali?

Sì. Il sistema di durabilità di Amazon S3 non protegge da eliminazioni accidentali o intenzionali. S3 si affida ai clienti per decidere quali dati conservare, quali dati eliminare e quali controlli opzionali devono proteggere da eliminazioni errate, dovute a incidenti o danni intenzionali. Ordinando ad Amazon S3 di eliminare i dati, tali dati vengono immediatamente eliminati e AWS non può recuperarli. Rispettare una richiesta di eliminazione in questo modo è una caratteristica importante del servizio.

D: Quali funzionalità offre Amazon S3 per proteggere i dati da eliminazioni accidentali o intenzionali?

S3 Object Versioning, S3 Replication e S3 Object Lock sono tutte funzionalità opzionali da utilizzare per aggiungere ulteriore protezione dei dati, oltre alla durabilità fornita automaticamente da S3. Inoltre, è possibile utilizzare un'applicazione di backup per eseguire il backup di tutti o di parte dei dati nei bucket S3.

D: Quale tipo di checksum impiega Simple Storage Service (Amazon S3) per verificare l'integrità dei dati?

Per verificare l'integrità dei dati, Amazon S3 impiega una combinazione di checksum Content-MD5, Secure Hash Algorithm (SHA) e controlli di ridondanza ciclici (CRC). Amazon S3 esegue il checksum sui dati a riposo e corregge gli eventuali errori utilizzando i dati ridondanti. Inoltre, S3 calcola i checksum su tutto il traffico di rete per rilevare alterazioni dei pacchetti di dati durante il salvataggio o il recupero dei dati. Puoi scegliere tra quattro algoritmi di checksum supportati per la verifica dell'integrità dei dati sulle richieste di caricamento e download. A seconda delle esigenze della tua applicazione, puoi scegliere tra gli algoritmi di checksum SHA-1, SHA-256, CRC32 o CRC32C. Puoi calcolare e verificare automaticamente i checksum mentre archivi o recuperi dati da S3 e accedere alle informazioni relative al checksum in qualunque momento tramite l'API S3 GetObjectAttributes o il report sull'inventario S3. Il calcolo del checksum durante la trasmissione dei dati in S3 consente di risparmiare tempo, perché la verifica e la trasmissione dei dati sono riunite in unico passaggio anziché richiedere due operazioni successive. L'utilizzo dei checksum per la convalida dei dati è una best practice per la durata dei dati e queste funzionalità aumentano le prestazioni e riducono i costi associati.

D: Che cos'è il controllo delle versioni?

La funzione Versioni multiple consente di conservare, recuperare e ripristinare qualsiasi versione di ogni oggetto archiviato in un bucket Amazon S3. Quando si abilita la funzione Versioni multiple per un bucket, Amazon S3 conserva gli oggetti esistenti tutte le volte che si esegue un'operazione PUT, POST, COPY o DELETE su di essi. Di default, le richieste GET recuperano la versione più recente. Le versioni precedenti di un oggetto sovrascritto o eliminato possono essere recuperate specificando la versione nella richiesta.

D: Qual è il vantaggio di utilizzare la funzione Versioni multiple?

Amazon S3 mette a disposizione dei clienti un'infrastruttura di storage estremamente durevole. La funzione Versioni multiple offre un ulteriore livello di protezione in quanto consente di recuperare un oggetto sovrascritto o eliminato accidentalmente. In questo modo è possibile eseguirne il ripristino sia in seguito ad errori da parte dell'utente, sia in seguito a guasti dell'applicazione. È inoltre possibile utilizzare la funzione Versioni multiple a fini di conservazione e archiviazione dei dati.

D: Come si inizia a usare la funzione Versioni multiple?

È possibile iniziare a utilizzare il controllo delle versioni abilitando un'impostazione sul bucket di Amazon S3. Per ulteriori informazioni su come abilitare il controllo delle versioni, consulta la documentazione di Amazon S3.

D: In che modo il controllo delle versioni protegge gli oggetti dall'eliminazione accidentale?

Quando un utente effettua un'operazione DELETE su un oggetto, le successive richieste semplici (che quindi non specificano la versione) non recupereranno più quell'oggetto. Tuttavia, tutte le versioni di quell'oggetto continueranno ad essere mantenute nel bucket di Amazon S3 e potranno essere recuperate o ripristinate. Soltanto il proprietario del bucket Amazon S3 può eliminare definitivamente una versione. È possibile impostare delle regole del ciclo di vita per gestire la durata e il costo di archiviazione di molteplici versioni degli oggetti.

D: È possibile configurare una finestra di cestino, di cestino di riciclaggio o di un intervallo di ripristino dello stato precedente per gli oggetti Amazon S3 in modo da poterli recuperare dall'eliminazione o dalla sovrascrittura?

È possibile usare regole del ciclo di vita di Amazon S3 insieme alla funzione di Controllo delle versioni S3 per definire un intervallo per il ripristino dello stato precedente degli oggetti S3. Ad esempio, in un bucket con la funzione di controllo delle versioni abilitata, è possibile impostare una regola che determini l'archiviazione di tutte le versioni precedenti nella classe di archiviazione S3 Glacier Flexible Retrieval, la più economica, e la loro eliminazione dopo 100 giorni; in tal modo si avrà un intervallo di ripristino dello stato precedente di cento giorni per annullare le modifiche, riducendo allo stesso tempo i costi di archiviazione. Inoltre, puoi risparmiare sui costi eliminando le vecchie versioni (non correnti) di un oggetto dopo cinque giorni e quando ci sono almeno due nuove versioni dell'oggetto. Puoi modificare il numero di giorni o il numero di nuove versioni in base ai tuoi requisiti di ottimizzazione dei costi. Questo ti permette di mantenere versioni aggiuntive dei tuoi oggetti quando necessario ma ti fa risparmiare sui costi spostandole o rimuovendole dopo un certo periodo di tempo.

D: In che modo è possibile garantire la massima sicurezza per le versioni precedenti di un oggetto?

La funzionalità di eliminazione dell'autenticazione a più fattori (MFA) del controllo delle versioni può essere utilizzata per aggiungere un ulteriore livello di sicurezza. Di default, tutte le richieste verso il bucket Amazon S3 necessitano l'inserimento delle credenziali dell'account AWS. Abilitando il controllo delle versioni con l'eliminazione MFA sul bucket Amazon S3, per eliminare definitivamente una versione di un oggetto sono necessarie due forme di autenticazione: le credenziali dell'account AWS e un codice a sei cifre comprensivo di numero di serie proveniente da un dispositivo di autenticazione di proprietà dell'utente. Per ulteriori informazioni sul controllo delle versioni con l'eliminazione MFA e su come acquistare e attivare un dispositivo di autenticazione, consulta la documentazione di Amazon S3.

D: Quali costi vengono addebitati per l'uso del controllo delle versioni?

Per ogni versione di un oggetto salvata o richiesta vengono addebitati i normali costi di Amazon S3. Per illustrare i costi di storage quando viene utilizzata la funzione Versioni multiple, prendiamo come esempio il seguente scenario ambientato in un mese di 31 giorni:

1) Giorno 1 del mese: viene eseguita una richiesta PUT di 4 GB (4.294.967.296 byte) sul bucket.
2) Giorno 16 del mese: viene eseguita una richiesta PUT di 5 GB (5.368.709.120 byte) sullo stesso bucket tramite la stessa chiave usata il primo giorno del mese.

Durante l'analisi dei costi di storage per le operazioni descritte, è necessario tenere conto che l'oggetto da 4 GB caricato il primo giorno del mese non viene eliminato dal bucket quando l'oggetto da 5 GB viene aggiunto a metà mese. L'oggetto da 4 GB viene anzi conservato come versione precedente, mentre l'oggetto da 5 GB diventa la versione scritta più recente dello stesso oggetto nel bucket. Alla fine del mese:

Consumo ore-byte totale
= [4.294.967.296 byte x 31 giorni x (24 ore al giorno)] + [5.368.709.120 byte x 16 giorni x (24 ore al giorno)] = 5.257.039.970.304 ore-byte.

GB al mese totali
5.257.039.970.304 ore-byte x (1 GB/1.073.741.824 byte) x (1 mese/744 ore) = 6,581 GB/mese

I costi sono calcolati in base alle tariffe attuali nella regione d'uso secondo la pagina dei prezzi di Amazon S3.

S3 Object Lock

D: Cos'è Amazon S3 Object Lock?

Amazon S3 Object Lock è una caratteristica di Amazon S3 che impedisce l'eliminazione o la sovrascrittura della versione di un oggetto per un periodo di tempo fisso o indeterminato e che consente di applicare policy di conservazione come livello aggiuntivo di protezione dei dati o per adempiere alla conformità alle normative. È possibile migrare i carichi di lavoro dai sistemi WORM (Write-Once-Read-Many) esistenti in Amazon S3 e configurare S3 Object Lock a livello di oggetto e di bucket per prevenire l'eliminazione della versione di un oggetto prima della data di fine conservazione predefinita o a tempo indeterminato (date di fermo di legge). La protezione S3 Object Lock viene mantenuta indipendentemente dalla classe di storage in cui risiede la versione dell'oggetto e per tutte le transizioni del ciclo di vita di S3 tra le classi di storage. 

Si consiglia di usare S3 Object Lock se i requisiti normativi specificano che i dati devono essere protetti da WORM o se si desidera un ulteriore livello di protezione per i dati in Amazon S3. S3 Object Lock può aiutarti a soddisfare i requisiti normativi che stabiliscono di archiviare i dati in un formato non modificabile e a proteggere i dati da eliminazioni accidentali o dolose in Amazon S3.

Ulteriori informazioni sono disponibili nella guida per l'utente di S3 Object Lock.

D: Come funziona Amazon S3 Object Lock?

Amazon S3 Object Lock impedisce l'eliminazione della versione di un oggetto per la durata di un periodo di conservazione specificato o a tempo indeterminato fino alla revoca del fermo di legge. Con S3 Object Lock è possibile garantire che la versione di un oggetto sia immodificabile finché viene applicata la protezione WORM. È possibile applicare la protezione WORM assegnando la scadenza della conservazione o un fermo di legge alla versione di un oggetto, usando la console di gestione S3, l'API REST, la CLI o l'SDK di AWS. È possibile applicare le impostazioni di conservazione in una richiesta PUT o applicarle a un oggetto esistente dopo averlo creato.

La scadenza della conservazione definisce il periodo di tempo durante il quale la versione di un oggetto non sarà modificabile. Se all'oggetto è stata assegnata una scadenza della conservazione, la versione non potrà essere modificata o eliminata fino alla data indicata. Se un utente cerca di eliminare un oggetto prima che sia trascorsa tale data, l'operazione non sarà consentita.

In alternativa, è possibile rendere un oggetto non modificabile applicando un fermo di legge. Il fermo di legge impedisce la modifica o l'eliminazione della versione di un oggetto a tempo indeterminato finché non viene revocata esplicitamente. Per applicare o rimuovere il fermo di legge, l'account AWS deve avere l'autorizzazione in scrittura per l'operazione PutObjectLegalHold. Il fermo di legge può essere applicato a qualsiasi oggetto in un bucket abilitato per S3 Object Lock, indipendentemente dal fatto che l'oggetto sia protetto da WORM per un periodo di conservazione.

Per configurare S3 Object Lock è possibile scegliere tra due modalità. Se distribuiti in modalità di governance, gli account AWS con autorizzazioni IAM specifiche sono in grado di rimuovere la protezione WORM dalla versione di un oggetto. Qualora siano necessari requisiti di non modificabilità più severi per adempiere alle normative vigenti, è possibile usare a modalità di conformità. Nella modalità di conformità, la protezione WORM non può essere rimossa da alcun utente, neppure dall'account root.

Come si abilita Amazon S3 Object Lock su un bucket?

Per abilitare S3 Object Lock durante la creazione di un nuovo bucket o per configurare S3 Object Lock su bucket esistenti è possibile utilizzare la console Amazon S3, l'API AWS o l'AWS CLI. Per abilitare S3 Object Lock su bucket esistenti è possibile utilizzare la console Amazon S3 per modificare le impostazioni di S3 Object Lock nella scheda Proprietà del bucket, l'API AWS PutObjectLockConfiguration o l'AWS CLI. Una volta abilitato S3 Object Lock, è possibile impostare una modalità e un tempo di conservazione a livello di bucket predefiniti che saranno applicabili a tutti i nuovi oggetti caricati nel bucket. Per ulteriori informazioni, consulta la documentazione sulla configurazione di S3 Object Lock utilizzando la console S3, l'API AWS e l'AWS CLI

D: In che modo l'abilitazione di S3 Object Lock sui bucket esistenti influisce sui nuovi oggetti caricati nei bucket?

Dopo aver abilitato S3 Object Lock sui bucket esistenti, c'è la possibilità di impostare una modalità e un periodo di conservazione di S3 Object Lock predefiniti per tutti i nuovi oggetti caricati nel bucket. Sulla console S3, è possibile farlo utilizzando la scheda Proprietà per un bucket selezionato e abilitando la modalità e il periodo di conservazione predefiniti per tutti i nuovi oggetti caricati nel bucket. In alternativa, è possibile scegliere di non configurare alcuna impostazione di Object Lock a livello di bucket, che manterrà sbloccati i nuovi oggetti nei bucket. È quindi possibile bloccare singoli oggetti modificando le impostazioni di S3 Object Lock nella scheda Proprietà dell'oggetto o utilizzare Operazioni in batch S3 per bloccare gli oggetti in blocco. Per ulteriori informazioni, consulta la documentazione sulle impostazioni di conservazione predefinite.

D: In che modo l'attivazione di S3 Object Lock per i bucket esistenti influisce sugli oggetti già esistenti nei bucket?

Dopo aver abilitato S3 Object Lock sui bucket esistenti, le impostazioni di conservazione si applicano solo ai nuovi oggetti caricati nei bucket. Per bloccare gli oggetti già esistenti nei bucket, è possibile scegliere di modificare le singole proprietà di conservazione a livello di oggetto utilizzando la console Amazon S3, l'AWS CLI o l'API AWS. Sulla console S3, è possibile farlo nella scheda Proprietà dell'oggetto, modificando la conservazione legale Object Lock o le impostazioni di conservazione Object Lock. In alternativa, è possibile utilizzare Operazioni in batch S3 per gestire la conservazione o abilitare una conservazione legale per più oggetti contemporaneamente. Per ulteriori informazioni, consulta la documentazione sull'attivazione di S3 Object Lock utilizzando Operazioni in batch S3.

D: È possibile disabilitare S3 Object Lock dopo averlo abilitato?

No, non è possibile disabilitare S3 Object Lock o S3 Versioning per i bucket una volta abilitato S3 Object Lock.

D: Come si inizia a replicare oggetti da bucket con S3 Object Lock abilitato?

Per iniziare a replicare oggetti con S3 Replication da bucket con S3 Object Lock abilitato, è possibile aggiungere una configurazione di replica sul bucket di origine specificando un bucket di destinazione nella stessa Regione AWS o in una Regione AWS diversa e nello stesso account AWS o in uno diverso. È possibile scegliere di replicare tutti gli oggetti a livello di bucket S3 o filtrarli su un livello di prefisso condiviso o su uno di oggetto utilizzando i tag di oggetti S3. Inoltre, sarà necessario specificare un ruolo AWS Identity and Access Management (IAM) con le autorizzazioni necessarie per eseguire l'operazione di replica. È possibile utilizzare la console S3, l'API AWS, l'AWS CLI, gli SDK AWS o AWS CloudFormation per abilitare la replica ed è necessario che S3 Versioning sia abilitato sia per i bucket di origine che per quelli di destinazione. Inoltre, per replicare oggetti dai bucket abilitati per S3 Object Lock, è necessario che nel bucket di destinazione anche S3 Object Lock sia abilitato. Per ulteriori informazioni, consulta la documentazione sulla configurazione di S3 Replication e sull'utilizzo di S3 Object Lock con S3 Replication

D: Sono necessarie autorizzazioni aggiuntive per replicare oggetti da bucket con S3 Object Lock abilitato?

Sì, per replicare oggetti dai bucket abilitati per S3 Object Lock è necessario concedere due nuove autorizzazioni, s3:GetObjectRetention e s3:GetObjectLegalHold, sul bucket di origine nel ruolo IAM utilizzato per configurare la replica. In alternativa, se il ruolo IAM dispone di un'autorizzazione S3:Get*, soddisfa il requisito. Per ulteriori informazioni, consulta la documentazione sull'utilizzo di S3 Object Lock con S3 Replication.

D: Esistono limitazioni all'utilizzo di S3 Replication durante la replica dai bucket S3 Object Lock?

No, tutte le funzionalità di S3 Replication, come la replica nella stessa Regione di S3 (S3 SRR), la replica tra Regioni di S3 (S3 CRR), le metriche di replica di S3 per tenere traccia dell'avanzamento, il controllo del tempo di replica di S3 (S3 RTC) e la replica in batch di S3, sono supportate durante la replica dai bucket S3 Object Lock.

D: Come è possibile replicare gli oggetti esistenti dai bucket abilitati per S3 Object Lock?

È possibile utilizzare la replica in batch S3 per replicare oggetti esistenti da bucket abilitati per S3 Object Lock. Per ulteriori informazioni sulla replica di oggetti esistenti, consulta la documentazione sulla Replica in batch S3.

D: Qual è lo stato di conservazione delle repliche degli oggetti di origine protetti con S3 Object Lock?

Le repliche degli oggetti protetti con S3 Object Lock seguono la stessa policy di conservazione degli oggetti di origine. È possibile utilizzare i comandi GET Object o HEAD Object per visualizzare lo stato Object Lock degli oggetti di replica. Entrambi i comandi restituiscono la modalità di conservazione, la scadenza della conservazione e lo stato di conservazione legale per la versione dell'oggetto specificata. Inoltre, è possibile configurare i report dell'Inventario Amazon S3 sui bucket per includere la funzione scadenza della conservazione, la modalità di conservazione e lo stato di conservazione legale per tutti gli oggetti in un bucket. Per ulteriori informazioni, consulta la documentazione sulla visualizzazione delle informazioni di S3 Object Lock per un oggetto e sulla configurazione dell'Inventario Amazon S3.

Classi di archiviazione

D: Che cosa sono le classi di archiviazione Amazon S3?

Amazon S3 offre una gamma di classi di archiviazione che puoi scegliere in base ai requisiti di accesso ai dati, resilienza e costi dei tuoi carichi di lavoro. Le classi di archiviazione S3 sono costruite appositamente per fornire l'archiviazione più economica per diversi modelli di accesso. Le classi di archiviazione S3 sono ideali per qualsiasi caso d'uso, compresi quelli con esigenze di prestazioni impegnative, requisiti di residenza dei dati, modelli di accesso sconosciuti o variabili, o spazio di archiviazione. Ciascuna classe di archiviazione S3 prevede un costo per l'archiviazione dei dati e tariffe per l'accesso ai dati. Quando devi scegliere la classe di archiviazione S3 più adatta al tuo carico di lavoro, considera i modelli di accesso e il tempo di conservazione dei tuoi dati per ottimizzare il costo totale per tutta la vita utile dei dati.

Le classi di archiviazione S3 possono essere configurate a livello di oggetto e un singolo bucket può contenere oggetti archiviati in tutte le classi. Per trasferire oggetti in modo automatico da una classe a un'altra senza apportare modifiche alle applicazioni, è possibile usare anche le policy del ciclo di vita di S3.

D: Come si sceglie la classe di archiviazione S3 da usare?

Quando devi scegliere la classe di archiviazione S3 più adatta al tuo carico di lavoro, considera i modelli di accesso e il tempo di conservazione dei tuoi dati per ottimizzare il costo totale per tutta la vita utile dei dati. Molti carichi di lavoro presentano modelli di accesso variabili (contenuto generato dagli utenti), imprevedibili (analisi dei dati, data lake) o sconosciuti (nuove applicazioni), ecco perché S3 Intelligent-Tiering dovrebbe essere la classe di archiviazione di default per risparmiare automaticamente sui costi di archiviazione. Se conosci i modelli di accesso dei tuoi dati, puoi seguire queste linee guida. La classi di archiviazione S3 Standard è l'ideale per i dati ad accesso frequente; si tratta della scelta migliore se si accede ai dati più di una volta al mese. S3 Standard-Infrequent Access è l'ideale per i dati mantenuti per almeno un mese e a cui si accede una volta al mese od ogni due mesi.

Le classi di archiviazione di Amazon S3 Glacier sono dedicate all'archiviazione dei dati e forniscono le prestazioni migliori, la massima flessibilità in termini di recupero e il costo di archiviazione più basso nel cloud. Puoi scegliere fra tre classi di archiviazione ottimizzate a seconda dei modelli di accesso e della durata dell'archiviazione. Per i dati di archivio che richiedono l'accesso immediato, come le immagini mediche, le risorse della stampa o i dati sulla genomica, scegli la classe di archiviazione S3 Glacier Instant Retrieval, una classe di archiviazione che offre il recupero in millisecondi a un costo irrisorio. Per i dati di archivio che non richiedono l'accesso immediato ma per cui è necessaria la flessibilità per recuperare grandi set di dati a un costo irrisorio, come backup o casi d'uso di ripristino di emergenza, scegli S3 Glacier Flexible Retrieval, che eseguirà il recupero in pochi minuti oppure recuperi in massa gratuiti dalle 5 alle 12 ore. Per risparmiare ulteriormente sull'archiviazione a lungo termine come archivi di conformità e conservazione dei media digitali, scegli S3 Glacier Deep Archive, il servizio di archiviazione cloud più conveniente che ti permette di recuperare i dati entro 12 ore. Tutte queste classi di archiviazione offrono la resilienza su più zone di disponibilità archiviando i dati in modo ridondante su molteplici dispositivi e zone di disponibilità AWS fisicamente separate all'interno di una regione AWS.

Per i dati che presentano requisiti di resilienza inferiori, puoi ridurre i costi selezionando una classe di archiviazione a zona di disponibilità singola, ad esempio S3 One Zone-Infrequent Access. Se hai determinati requisiti sulla posizione o sulla latenza dei dati che non possono essere soddisfatti da alcuna regione AWS esistente, puoi scegliere S3 su Outposts per archiviare i dati on-premise.

Per ulteriori informazioni sulle classi, consulta la pagina delle classi di archiviazione di Amazon S3

S3 Intelligent-Tiering

D: Che cos'è S3 Intelligent-Tiering?

S3 Intelligent-Tiering è la prima soluzione di archiviazione nel cloud che riduce i costi di archiviazione a livello di oggetto granulare spostando automaticamente i dati al livello di accesso più conveniente in base alla frequenza di accesso, senza impatto su prestazioni, tariffe di recupero o investimenti operativi. S3 Intelligent-Tiering offre prestazioni con latenza nell'ordine dei millisecondi e velocità effettiva elevata per dati ad accesso frequente, infrequente e raro nei livelli Frequent, Infrequent e Archive Instant Access. Al costo di una tariffa mensile modica per il monitoraggio e l'automazione degli oggetti, S3 Intelligent-Tiering monitora i modelli di accesso e sposta gli oggetti automaticamente da un livello all'altro. S3 Intelligent-Tiering non prevede costi di recupero, pertanto non si verificano aumenti imprevisti degli importi delle fatture relative all'archiviazione al cambiamento dei modelli di accesso.

È possibile usare S3 Intelligent-Tiering come classe di archiviazione di default per qualsiasi carico di lavoro, in particolare per i data lake, l'analisi dei dati, il machine learning, le nuove applicazioni e i contenuti generati dagli utenti.

D: Come funziona S3 Intelligent-Tiering?

La classe di archiviazione Amazon S3 Intelligent-Tiering è progettata per ottimizzare i costi di archiviazione attraverso lo spostamento automatico dei dati nel livello di accesso più conveniente quando si verifica un cambiamento nei modelli di accesso. Al costo di una tariffa mensile modica per il monitoraggio e l'automazione degli oggetti, S3 Intelligent-Tiering monitora i modelli di accesso e sposta automaticamente gli oggetti a cui non è stato effettuato l'accesso per trenta giorni consecutivi nel livello Infrequent Access per risparmiare fino al 40% sui costi di archiviazione. Dopo novanta giorni consecutivi senza accesso, gli oggetti vengono spostati nel livello Archive Instant Access per risparmiare fino al 68% sui costi di archiviazione. S3 Intelligent-Tiering non influisce sulle prestazioni e non prevede costi di recupero. Se successivamente viene effettuato l'accesso a un oggetto nel livello Infrequent Access o Archive Instant Access, l'oggetto viene ritrasferito automaticamente nel livello Frequent Access.

Per ottenere il costo di archiviazione minimo sui dati a cui è consentito l'accesso asincrono, si può scegliere di attivare ulteriori funzionalità di archiviazione. Una volta abilitato un livello di accesso all'archivio asincrono oppure entrambi, S3 Intelligent-Tiering sposterà gli oggetti a cui non è stato effettuato l'accesso per un minimo di novanta giorni nel livello Archive Access per risparmiare fino al 71% e, dopo centottanta giorni senza accesso, nel livello Deep Archive Access per risparmiare fino al 95% per gli oggetti a cui si accede raramente. Se in seguito viene ripristinato, un oggetto nei livelli opzionali Archive o Deep Access viene spostato nuovamente nel livello Frequent Access e, prima di poterlo recuperare, è necessario ripristinarlo usando RestoreObject. Per informazioni sul ripristino di oggetti archiviati, consulta Ripristino di oggetti archiviati. In S3 Intelligent-Tiering non sono previsti costi di recupero. Lo spostamento di oggetti tra i livelli di accesso all'interno della classe di archiviazione S3 Intelligent-Tiering non comporta l'applicazione di costi di livello o del ciclo di vita aggiuntivi.

S3 Intelligent-Tiering non prevede una dimensione minima degli oggetti, ma gli oggetti più piccoli di 128 KB non sono idonei per l'assegnazione di livelli automatica. È possibile archiviare tali oggetti di dimensioni inferiori in S3 Intelligent-Tiering, ma si applicheranno sempre le tariffe del livello di Frequent Access e non quelle per monitoraggio e automazione.

Se desideri standardizzare S3 Intelligent-Tiering come classe di archiviazione di default per i dati appena creati, puoi modificare le applicazioni specificando INTELLIGENT-TIERING nell'header di richiesta dell'API PUT S3. S3 Intelligent-Tiering è progettata per garantire una disponibilità del 99,9% e una durabilità del 99,999999999%; allo stesso tempo, offre automaticamente le stesse prestazioni con bassa latenza e velocità effettiva elevata della classe S3 Standard. Puoi usare AWS Cost Explorer per misurare i risparmi aggiuntivi rispetto al livello Archive Instant Access.

D: Quali vantaggi offre S3 Intelligent-Tiering?

È possibile usare S3 Intelligent-Tiering come classe di archiviazione di default per qualsiasi carico di lavoro, in particolare per i data lake, l'analisi dei dati, il machine learning, le nuove applicazioni e i contenuti generati dagli utenti. S3 Intelligent-Tiering è la prima soluzione di archiviazione nel cloud che riduce i costi di archiviazione a livello di oggetto granulare spostando automaticamente i dati al livello di accesso più conveniente in base alla frequenza di accesso, senza impatto su prestazioni, tariffe di recupero o investimenti operativi. Se disponi di dati con modelli di accesso sconosciuti o variabili, tra cui data lake, analisi dei dati e nuove applicazioni, consigliamo l'uso di S3 Intelligent-Tiering. Se disponi di dati che non richiedono il recupero immediato, consigliamo di attivare il livello Deep Archive Access, che prevede il modico costo di 1 USD per TB al mese per i dati a cui si prevede di accedere raramente in periodi di tempo lunghi. S3 Intelligent-Tiering è indicato per i dati con modelli di accesso sconosciuti o variabili. L'uso della classe di archiviazione S3 Intelligent-Tiering non prevede l'addebito di tariffe per il recupero.

D: Quali prestazioni offre S3 Intelligent-Tiering?

S3 Intelligent-Tiering ottimizza automaticamente i costi di archiviazione senza incidere sulle prestazioni. I livelli di accesso Frequent, Infrequent e Archive Instant Access di S3 Intelligent-Tiering offrono prestazioni con latenza nell'ordine dei millisecondi e velocità effettiva elevata.

D: Quali prestazioni offrono i livelli opzionali Archive Access e Deep Archive Access?

Per i dati che consentono l'accesso asincrono, il livello opzionale Archive Access ha le stesse prestazioni di S3 Glacier Flexible Retrieval, mentre il livello Deep Archive Access ha le stesse prestazioni della classe di archiviazione S3 Glacier Deep Archive. È consigliabile attivare le funzionalità di archivio asincrono soltanto se l'applicazione può attendere da minuti a ore. Se l'oggetto da recuperare è archiviato nei livelli Archive o Deep Archive Access, prima di recuperarlo, dovrai ripristinare un oggetto usando RestoreObject. Per informazioni sul ripristino di oggetti archiviati, consulta Ripristino di oggetti archiviati. Gli oggetti del livello Archive Access vengono spostati nel livello Frequent Access in un lasso di tempo dalle 3 alle 5 ore, mentre quelli del livello Deep Archive Access entro 12 ore. Se hai bisogno di accedere più rapidamente a un oggetto nel livello di accesso Archive, puoi pagare il recupero più rapido utilizzando la console per selezionare l'opzione velocità di recupero maggiore.

D: Quali livelli di durabilità e disponibilità offre S3 Intelligent-Tiering?

S3 Intelligent-Tiering è progettato per avere la stessa durabilità (99,999999999%) della classe di storage S3 Standard. S3 Intelligent-Tiering è progettato per fornire il 99,9% di disponibilità ed è coperto da un contratto sul livello di servizio che offre al cliente dei crediti se durante un ciclo di fatturazione la disponibilità è inferiore a quella dichiarata.

D: Come si ottengono i dati in S3 Intelligent-Tiering?

Sono disponibili due metodi per ottenere i dati in S3 Intelligent-Tiering. Puoi effettuare il PUT direttamente in S3 Intelligent-Tiering specificando INTELLIGENT_TIERING nell'intestazione x-amz-storage-class o impostando le policy del ciclo di vita per eseguire la transizione degli oggetti da S3 Standard o S3 Standard-IA a S3 INTELLIGENT_TIERING.

D: Quali sono i costi di S3 Intelligent-Tiering?

I costi di S3 Intelligent-Tiering dipendono dall'archiviazione mensile, dalle richieste e dal trasferimento dei dati. È inoltre previsto un costo mensile modico per il monitoraggio e l'automazione dei singoli oggetti. La classe di archiviazione S3 Intelligent-Tiering archivia automaticamente gli oggetti in tre livelli di accesso: un livello Frequent Access al costo delle tariffe di archiviazione di S3 Standard, un livello Infrequent Access al costo delle tariffe di archiviazione di S3 Standard - Infrequent Access e un livello Archive Instant Access al costo delle tariffe di archiviazione di S3 Glacier Instant Retrieval. Inoltre, S3 Intelligent-Tiering offre due livelli di archiviazione opzionali progettati per l'accesso asincrono: un livello Archive Access al costo delle tariffe di archiviazione di S3 Glacier Flexible Retrieval e un livello Deep Archive Access al costo delle tariffe di archiviazione di S3 Glacier Deep Archive.

Pagando una tariffa di monitoraggio e automazione contenuta, S3 Intelligent-Tiering monitora i modelli di accesso e sposta automaticamente gli oggetti fra livelli di accesso a bassa latenza e velocità effettiva elevata, nonché fra due livelli di accesso all'archivio asincrono opzionali in cui i clienti ottengono i costi più bassi di archiviazione nel cloud per i dati che ammettono l'accesso asincrono.

S3 Intelligent-Tiering non prevede una dimensione minima degli oggetti fatturabile, ma gli oggetti più piccoli di 128 KB non sono idonei per l'assegnazione di livelli automatica. Questi oggetti di piccole dimensioni non saranno monitorati e saranno applicate le tariffe del livello Frequent Access, senza costi per monitoraggio e automazione. Per ogni oggetto archiviato nei livelli Archive Access o Deep Archive Access in S3 Intelligent-Tiering, Amazon S3 usa 8 KB di archiviazione per il nome dell'oggetto e altri metadati (fatturati alle tariffe di archiviazione di S3 Standard) e 32 KB di archiviazione per l'indice e i relativi metadati (fatturati alle tariffe di archiviazione di S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive).

D: È prevista una tariffa per il recupero dei dati da S3 Intelligent-Tiering?

No. S3 Intelligent-Tiering non prevede costi di recupero. S3 Intelligent-Tiering monitora i modelli di accesso dei dati e se si accede a un oggetto nei livelli Infrequent Access, Archive Instant Access o di archivio asincrono, S3 Intelligent-Tiering lo sposta automaticamente nel livello Frequent Access.

D: Come si attivano i livelli di accesso Archive di S3 Intelligent-Tiering?

Puoi attivare i livelli di accesso Archive e Deep Archive creando un bucket, un prefisso o una configurazione del livello di tag dell'oggetto utilizzando le API di Amazon S3, la CLI o la console di gestione S3. Se accedi agli oggetti in modo asincrono dalle tue applicazioni, dovresti attivare uno o entrambi i livelli di accesso Archive.

Posso estendere il tempo prima che gli oggetti vengano archiviati nella classe di storage di S3 Intelligent-Tiering?

Sì. Nel bucket, nel prefisso o nella configurazione del livello di tag dell'oggetto, puoi estendere l'ultima data di accesso per l'archiviazione di oggetti in S3 Intelligent-Tiering. Una volta abilitato il servizio, di default gli oggetti a cui non hai effettuato l'accesso per un minimo di novanta giorni consecutivi vengono automaticamente spostati nel livello Archive Access, saltando il livello Archive Instant Access. Gli oggetti a cui non accedi per almeno centottanta giorni consecutivi vengono invece spostati automaticamente nel livello Deep Archive Access. La configurazione predefinita per i giorni consecutivi dall'ultimo accesso prima dell'archiviazione automatica in S3 Intelligent-Tiering può essere estesa fino a 2 anni.

D: Come posso accedere a un oggetto dai livelli di accesso Archive o Deep Archive nella classe di storage S3 Intelligent-Tiering?

Per accedere a un oggetto nei livelli di accesso Archive o Deep Archive, devi emettere una richiesta di ripristino e l'oggetto inizierà a tornare nel livello di accesso frequente, sempre nella classe di storage S3 Intelligent-Tiering. Gli oggetti del livello di accesso Archive vengono spostati nel livello di Accesso frequente in 3-5 ore, mentre gli oggetti del livello Deep Archive entro 12 ore. Quando gli oggetti sono di nuovo nel livello Frequent Access, puoi inviare una richiesta GET per recuperarli.

D: Come faccio a sapere in quale livello di accesso di S3 Intelligent-Tiering sono archiviati i miei oggetti?

Puoi usare Amazon S3 Inventory per segnalare il livello di accesso degli oggetti archiviati nella classe di archiviazione S3 Intelligent-Tiering. Amazon S3 Inventory genera file di output CSV, ORC o Parquet che elencano i tuoi oggetti e i metadati corrispondenti giornalmente o settimanalmente per un bucket S3 o un prefisso condiviso. Inoltre, è possibile effettuare una richiesta HEAD sugli oggetti per riportare i livelli di accesso Archive di S3 Intelligent-Tiering.

D: È possibile modificare il ciclo di vita degli oggetti da S3 Intelligent-Tiering a un'altra classe di archiviazione?

Sì. È possibile modificare il ciclo di vita degli oggetti dai livelli Frequent Access, Infrequent e Archive Instant Access di S3 Intelligent-Tiering a S3 One-Zone Infrequent Access, S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive. Inoltre, puoi modificare il ciclo di vita degli oggetti dai livelli di accesso Archive opzionali di S3 Intelligent-Tiering a S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive, così come dal livello Deep Archive Access di S3 Intelligent-Tiering a S3 Glacier Deep Archive.

D: È prevista una durata minima per S3 Intelligent-Tiering?

No. La classe di archiviazione di S3 Intelligent-Tiering non prevede una durata di archiviazione minima.

D: È prevista una dimensione minima fatturabile degli oggetti per S3 Intelligent-Tiering?

No. La classe di archiviazione di S3 Intelligent-Tiering non prevede una dimensione minima degli oggetti fatturabile, ma gli oggetti più piccoli di 128 KB non sono idonei per il tiering automatico. A questi oggetti di piccole dimensioni saranno applicate le tariffe del livello Frequent Access, senza costi per monitoraggio e automazione. Per ogni oggetto archiviato nei livelli opzionali Archive Access e Deep Archive Access in S3 Intelligent-Tiering, Amazon S3 usa 8 KB di archiviazione per il nome dell'oggetto e altri metadati (fatturati alle tariffe di archiviazione di S3 Standard) e 32 KB di archiviazione per l'indice e i relativi metadati (fatturati alle tariffe di archiviazione di S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive). Per ulteriori dettagli, visita la pagina dei prezzi di Amazon S3

S3 Standard

D: Che cos'è S3 Standard?

Amazon S3 Standard è una soluzione di archiviazione durevole che offre prestazioni con latenza nell'ordine dei millisecondi e velocità effettiva elevata per i dati ad accesso frequente, in genere superiore a una volta al mese. S3 Standard è progettata per i casi d'uso in cui le prestazioni sono fondamentali, ad esempio data lake, applicazioni native per il cloud, website dinamici, distribuzione di contenuti, applicazioni per dispositivi mobili e per il gaming, analisi dei dati e modelli di machine learning. S3 Standard è progettata per offrire una disponibilità dei dati pari al 99,99% e una durabilità del 99,999999999% degli oggetti su più zone di disponibilità in un determinato anno. Si possono usare policy del ciclo di vita di S3 per controllare con precisione quando i dati vengono trasferiti fra S3 Standard e classi di archiviazione a costo inferiore senza modifiche all'applicazione.

D: Quali vantaggi offre S3 Standard?

S3 Standard è l'ideale per i dati a cui si accede o che si modificano più di frequente, per i quali sono necessari l'accesso entro millisecondi e una velocità effettiva elevata. S3 Standard è la soluzione migliore per i dati frequentemente sottoposti a lettura o scrittura, in quanto non prevede costi di recupero. Per questo motivo, S3 Standard è una classe ottimizzata per un'ampia gamma di casi d'uso, ad esempio data lake, applicazioni native per il cloud, siti Web dinamici, distribuzione di contenuti, applicazioni per dispositivi mobili e di gioco e analisi dei dati.

S3 Express One Zone

D: Cos'è la classe di archiviazione Amazon S3 Express One Zone?

Amazon S3 Express One Zone è una classe di archiviazione Amazon S3 ad alte prestazioni e a disponibilità singola creata appositamente per fornire un accesso coerente ai dati in millisecondi per le applicazioni più sensibili alla latenza dei clienti. Amazon S3 Express One Zone è la classe di archiviazione di oggetti cloud con la latenza più bassa attualmente disponibile, con una velocità di accesso ai dati fino a 10 volte superiore e con costi di richiesta più bassi del 50% rispetto ad Amazon S3 Standard. Con S3 Express One Zone, è possibile selezionare una specifica zona di disponibilità AWS all'interno di una Regione AWS per l'archiviazione dei dati. È possibile scegliere di co-localizzare l'archiviazione con le risorse di calcolo nella stessa zona di disponibilità per ottimizzare ulteriormente le prestazioni.

D: Perché scegliere di utilizzare la classe di archiviazione Amazon S3 Express One Zone?

S3 Express One Zone è la classe di archiviazione ideale per le applicazioni che richiedono la massima velocità di accesso ai dati e le massime prestazioni per applicazioni sensibili alla latenza. S3 Express One Zone è la migliore classe di archiviazione per operazioni ad alta intensità di richieste, come l'addestramento e l'inferenza di machine learning (ML), l'analisi interattiva e la creazione di contenuti multimediali.

D: Come si inizia a utilizzare la classe di archiviazione Amazon S3 Express One Zone?

È possibile iniziare creando un bucket di directory S3 in una zona di disponibilità (AZ) AWS a scelta. È possibile scegliere di co-localizzare l'archiviazione e le risorse di calcolo nella stessa AZ per ottimizzare ulteriormente le prestazioni. Per impostazione predefinita, i bucket di directory hanno il Block dell'accesso pubblico S3 attivo. Dopo aver creato il bucket di directory, è possibile caricare oggetti direttamente nella classe di archiviazione S3 Express One Zone o copiarli su S3 Express One Zone dalle classi di archiviazione S3 esistenti. Inoltre, è possibile importare i dati con un solo clic nella Console di gestione AWS su S3 Express One Zone o utilizzare Operazioni in batch S3 per copiare su S3 Express One Zone un intero bucket, prefisso o sottoinsiemi di dati da una classe di archiviazione S3 esistente.

D: Come si importano i dati nella classe di archiviazione Amazon S3 Express One Zone?

È possibile importare i dati dalla stessa Regione AWS nella classe di archiviazione S3 Express One Zone tramite la console S3 utilizzando l'opzione Import (Importa) dopo aver creato un bucket di directory. L'importazione semplifica la copia dei dati nei bucket di directory S3 consentendo di scegliere un prefisso o un bucket da cui importare i dati senza dover specificare singolarmente tutti gli oggetti da copiare. S3 Batch Operations copia gli oggetti nel prefisso o nel bucket per uso generico selezionato; è possibile monitorare lo stato di avanzamento del processo di copia di importazione tramite la relativa pagina dei dettagli.

D: In quante zone di disponibilità sono archiviati gli oggetti Amazon S3 Express One Zone?

Gli oggetti di S3 Express One Zone sono archiviati in un'unica zona di disponibilità (AZ) AWS a scelta. L'archiviazione degli oggetti in una zona consente di archiviare i dati localmente nel computer per ridurre al minimo la latenza. È possibile accedere ai dati da tutte le zone di disponibilità, anche se la latenza aumenterà.

D: Quali prestazioni offre la classe di archiviazione Amazon S3 Express One Zone?

S3 Express One Zone offre un'elasticità delle prestazioni simile a quella delle altre classi di archiviazione S3, ma con latenze di millisecondi a una cifra per richieste di latenza di lettura e scrittura costanti al primo byte, fino a 10 volte più veloci rispetto alle classi di archiviazione S3 esistenti. Con S3 Express One Zone, i clienti non devono pianificare o fornire in anticipo i requisiti di capacità o di velocità di trasmissione effettiva e beneficiano immediatamente del completamento più rapido delle richieste fino a un certo ordine di grandezza. S3 Express One Zone è ideale per i lavori di analisi in cui la latenza di archiviazione accelera i tempi di completamento dei lavori e riduce il costo totale di proprietà (TCO) complessivo. È ideale anche per carichi di lavoro interattivi, come l'editing video, in cui i professionisti creativi hanno bisogno dell'accesso più reattivo possibile ai dati S3.

D: In che modo la classe di archiviazione Amazon S3 Express One Zone raggiunge prestazioni elevate?

S3 Express One Zone utilizza un'architettura unica per ottimizzare le prestazioni e offrire una latenza delle richieste costantemente bassa. S3 Express One Zone archivia i dati su hardware ad alte prestazioni e il suo protocollo a oggetti è stato migliorato per semplificare l'autenticazione e il sovraccarico dei metadati. Inoltre, per aumentare ulteriormente la velocità di accesso e supportare centinaia di migliaia di richieste al secondo, i dati vengono archiviati in un nuovo tipo di bucket: un bucket di directory Amazon S3. Con S3 Express One Zone, è possibile selezionare una specifica zona di disponibilità AWS all'interno di una Regione AWS per l'archiviazione dei dati. È possibile scegliere di co-localizzare l'archiviazione con le risorse di calcolo nella stessa zona di disponibilità per ottimizzare ulteriormente le prestazioni.

D: Quali prestazioni di frequenza delle richieste supporta un bucket di directory S3?

Ogni bucket di directory S3 può supportare centinaia di migliaia di transazioni al secondo (TPS), indipendentemente dal numero di directory al suo interno.

D: Cosa succede a un bucket di directory S3 senza attività di richiesta per un periodo di tempo prolungato?

I bucket di directory S3 che non hanno attività di richiesta per un periodo di almeno 3 mesi passeranno a uno stato inattivo. Mentre è in uno stato inattivo, un bucket di directory è temporaneamente inaccessibile per le letture e le scritture. I bucket inattivi conservano tutto lo storage, i metadati degli oggetti e i metadati dei bucket. Le tariffe di archiviazione esistenti verranno applicate ai bucket inattivi. In caso di richiesta di accesso a un bucket inattivo, il bucket passerà a uno stato attivo, in genere entro pochi minuti. Durante questo periodo di transizione, le operazioni di lettura e scrittura restituiranno un codice di errore 503 SlowDown.

D: Come è consigliabile pianificare le esigenze di velocità di trasmissione effettiva dell'applicazione con la classe di archiviazione S3 Express One Zone?

S3 Express One Zone offre una velocità di trasmissione effettiva elastica ed elevata simile a quella delle altre classi di archiviazione Amazon S3. S3 Express One Zone è progettato da zero per consentire ai singoli clienti di portare la velocità di trasmissione effettiva a livelli aggregati molto elevati. Ad esempio, le applicazioni di addestramento dei modelli di machine learning possono essere addestrate su milioni di oggetti e petabyte di dati. È possibile ottenere le massime prestazioni distribuendo queste richieste su connessioni separate per massimizzare la larghezza di banda accessibile.

D: In che modo la richiesta di autorizzazione è diversa con Amazon S3 Express One Zone rispetto alle altre classi di archiviazione S3?

Con S3 Express One Zone, le richieste vengono autenticate e autorizzate tramite un nuovo meccanismo basato sulle sessioni, S3 CreateSession, ottimizzato per fornire la latenza più bassa. È possibile utilizzare CreateSession per richiedere credenziali temporanee che forniscono un accesso a bassa latenza al bucket. Queste credenziali temporanee sono assegnate a un bucket di directory S3 specifico. Per ulteriori informazioni su questo modello basato su sessioni, consulta S3 Create Session nella guida per gli sviluppatori.

D: Quanto è affidabile la classe di archiviazione Amazon S3 Express One Zone?

S3 Express One Zone è progettato per offrire una disponibilità del 99,95% all'interno di una singola zona di disponibilità, con un accordo sul livello di servizio (SLA) di disponibilità del 99,9%.

D: In che modo la classe di archiviazione Amazon S3 Express One Zones è progettata per fornire una disponibilità del 99,95%?

Con S3 Express One Zone, i dati vengono archiviati in modo ridondante su più dispositivi all'interno di una singola zona di disponibilità. Il servizio è stato concepito per far fronte al guasto concomitante di più dispositivi, rilevando e riparando rapidamente l'eventuale ridondanza persa. Ciò significa che S3 Express One Zone sposta automaticamente le richieste ai nuovi dispositivi all'interno di una zona di disponibilità se il dispositivo esistente riscontra un guasto. Questa ridondanza consente l'accesso ininterrotto ai dati all'interno di una zona di disponibilità.

D: Come viene addebitato il costo di Amazon S3 Express One Zone?

L'utilizzo di S3 Express One Zone non richiede alcun impegno di lungo termine né costi di configurazione. S3 Express One Zone addebita i costi per archiviazione e richieste. Il volume di archiviazione fatturato in un mese viene accumulato in base all'archiviazione totale utilizzata all'ora, misurata in gigabyte al mese (GB/mese). Inoltre, viene addebitata una tariffa per richiesta per l'accesso in base al tipo di richiesta, come PUT e GET. Verrà pagata una tariffa aggiuntiva per GB per la parte della dimensione della richiesta oltre i 512 KB.

Esempio 1:
Supponiamo di archiviare 10 GB di dati su S3 Express One Zone per 30 giorni, per un totale di 1.000.000 di scritture e 9.000.000 di letture, accedendo con Athena con una richiesta di 10 KB. Poi, eliminiamo 1.000.000 di file entro il termine di 30 giorni. Supponendo che il bucket si trovi nella Regione Stati Uniti orientali (Virginia settentrionale), il costo delle richieste è il seguente:

Costi di archiviazione
Consumo totale di bite/ora = 10 GB/mese
Costo totale di archiviazione = 10 GB/mese x 0,16 USD = 1,6 USD

Costi delle richieste
1.000.000 di richieste PUT: 1.000.000 di richieste x 0,0025 USD/1.000 = 2,5 USD
9.000.000 di richieste GET: 9.000.000 di richieste x 0,0002 USD/1.000 = 1,8 USD
1.000.000 di richieste DELETE = 1.000.000 richieste x 0,00 USD (nessun costo) = 0 USD

Costi totali = 1,6 USD + 2,5 USD + 1,8 USD = 5,9 USD

Esempio 2:
Supponiamo di archiviare 10 TB di dati per l'addestramento del machine learning per un carico di lavoro di 8 ore al giorno per poi eliminarli. Durante il carico di lavoro di 8 ore, effettuiamo 5.242.880 scritture e 10.485.760 letture per una richiesta di 2 MB. Supponiamo di farlo per 30 giorni (un mese).

Costi di archiviazione
Utilizzo totale di byte/ora = [10.995.116.277.760 byte x 30 giorni x (8 ore/giorno)] = 2.638.827.906.662.400 byte/ora = 3.303,77 GB/mese
Costo totale di archiviazione = 3.303,77 GB x 0,16 USD = 528,51 USD

Costi delle richieste
5.242.880 richieste PUT al giorno: 5.242.880 richieste x 30 x 0,0025 USD/1.000 = 393,22 USD
10.485.760 richieste GET al giorno: 10.485.760 richieste x 30 x 0,0002/1,000 = 62,91 USD
5.242.880 richieste DELETE al giorno = 5.242.880 richieste x 0,00 USD (nessun costo) = 0 USD

Per ogni richiesta di larghezza di banda aggiuntiva verrà applicato il seguente costo: 1,5 MB (2 - 0,5 MB) = 0,001465 GB
Costo della larghezza di banda PUT: 0,001465 GB x 5.242.880 x 30 x 0,008 USD = 1.843,20 USD
Costo della larghezza di banda GET: 0,001465 GB x 10.485.760 x 30 x 0,015 USD = 691,20 USD

Costi totali = 528,51 USD + 393,22 USD + 62,91 USD + 1.843,20 USD + 691,20 USD = 3.519,05 USD

D: Sono previsti costi aggiuntivi per il trasferimento dei dati per l'utilizzo della classe di archiviazione Amazon S3 Express One Zone all'interno della stessa Regione?

I costi di richiesta per accedere ai dati su S3 Express One Zone includono i costi per il trasferimento dei dati all'interno della rete AWS in una Regione e non sono previsti costi aggiuntivi per il trasferimento di dati tra Amazon EC2 (o qualsiasi servizio AWS) ed S3 Express One Zone all'interno della stessa Regione, come per esempio i dati trasferiti all'interno della Regione Stati Uniti orientali (Virginia settentrionale).

D: Sono previsti costi di rete aggiuntivi per l'utilizzo degli endpoint VPC del gateway con la classe di archiviazione Amazon S3 Express One Zone?

I costi di richiesta per l'accesso ai dati su S3 Express One Zone includono i costi per l'utilizzo degli endpoint VPC del gateway e non sono previsti costi aggiuntivi per l'utilizzo degli endpoint Gateway con S3 Express One Zone.

S3 Standard-Infrequent Access (S3 Standard-IA)

D: Cos'è S3 Standard-Infrequent Access?

Amazon S3 Standard-Infrequent Access (S3 Standard-IA) è una classe di archiviazione di Amazon S3 per i dati a cui si accede con minore frequenza, ma che necessitano di risposta rapida in caso di necessità. La classe S3 Standard-IA offre durabilità e velocità effettiva elevate, nonché la bassa latenza della classe di archiviazione Amazon S3 Standard, con un costo di archiviazione per GB e una tariffa di recupero dei dati inferiori. Questa combinazione di costi ridotti e prestazioni elevate rendono S3 Standard-IA la soluzione ideale per archiviazione a lungo termine, backup e datastore per il ripristino di emergenza. La classe di archiviazione S3 Standard-IA è configurata a livello di oggetto e può coesistere nello stesso bucket insieme alle classi S3 Standard o S3 One Zone-IA, consentendo l'impiego di policy del ciclo di vita con cui trasferire automaticamente gli oggetti da una classe a un'altra senza dover apportare modifiche alle applicazioni.

D: Qual è il vantaggio della classe S3 Standard-IA?

La classe S3 Standard-IA è la soluzione ideale per i dati a cui si accede con minore frequenza, ma che necessitano di risposta rapida in caso di necessità. È uno strumento ideale per l'archiviazione di file a lungo termine e il salvataggio di dati provenienti da condivisioni e sincronizzazioni e altri dati obsoleti.

D: Quali prestazioni offre S3 Standard-IA?

S3 Standard-IA offre prestazioni di latenza nell'ordine dei millisecondi e velocità effettiva elevata identiche a quelle della classe di archiviazione S3 Standard. 

D: Come si inseriscono i dati in S3 Standard-IA?

Sono disponibili due metodi per caricare dati nella classe S3 Standard-IA. Il primo consiste nel creare richieste PUT direttamente in S3 Standard-IA specificando STANDARD_IA nell'intestazione x-amz-storage-class. Il secondo prevede l'impostazione di policy sul ciclo di vita con cui trasferire gli oggetti dalla classe S3 Standard alla classe S3 Standard-IA.

D: Quali costi vengono addebitati per modificare la classe di storage di un oggetto daS3 Standard-IA a S3 Standard con una richiesta COPY?

Saranno addebitati costi per una richiesta COPY S3 Standard (classe di archiviazione di destinazione) e un recupero di dati S3 Standard-IA (classe di archiviazione di origine). Per ulteriori informazioni, consulta la pagina dei prezzi di Amazon S3.

D: È prevista una durata di archiviazione minima nella classe S3 Standard-IA?

La classe S3 Standard-IA è progettata per l'archiviazione a lungo termine di dati a cui si accede con minore frequenza e che è necessario conservare per mesi o anni. Ai dati eliminati da S3 Standard-IA entro trenta giorni sarà applicata la tariffa intera di trenta giorni. Per informazioni sui prezzi di S3 Standard-IA, consulta la pagina dei prezzi di Amazon S3.

D: È prevista una tariffa minima per l'archiviazione di oggetti nella classe S3 Standard-IA?

La classe S3 Standard-IA è stata progettata per il salvataggio di oggetti di grandi dimensioni e prevede una tariffa minima per lo storage di oggetti corrispondente a 128 KB. Agli oggetti di dimensioni inferiori a 128 KB sarà applicata una tariffa di archiviazione pari a quella degli oggetti da 128 KB. Ad esempio, a un oggetto di 6 KB nella classe di archiviazione S3 Standard-IA sarà applicata la normale tariffa per i 6 KB di archiviazione e una tariffa aggiuntiva per gli oggetti di dimensioni inferiore pari a 122KB al costo di archiviazione di S3 Standard-IA. Per informazioni sui prezzi di S3 Standard-IA, consulta la pagina dei prezzi di Amazon S3.

D: È possibile trasferire oggetti da S3 Standard-IA a S3 One Zone-IA oppure alla classe di archiviazione S3 Glacier Flexible Retrieval?

Sì. Oltre che per trasferire gli oggetti da S3 Standard a S3 Standard-IA, è possibile impostare policy del ciclo di vita per spostare di livello gli oggetti da S3 Standard-IA a S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval e alla classe di archiviazione S3 Glacier Deep Archive.

S3 One Zone-Infrequent Access (S3 One Zone-IA)

D: Cos'è la classe di storage S3 One Zone-IA?

S3 One Zone-IA è una classe di storage Amazon S3 che permette ai clienti di memorizzare gli oggetti in una singola zona di disponibilità. In questo modo, pur utilizzando strumenti di ridondanza, il costo dell'archiviazione risulta minore del 20% rispetto ai servizi che offrono ridondanza su più zone separate, ad esempio S3 Standard-IA.

La classe di archiviazione S3 One Zone-IA offre una disponibilità del 99% secondo il contratto sul livello di servizio e una durabilità del 99,999999999% all'interno della zona di disponibilità scelta. Tuttavia, i dati nella classe di archiviazione S3 One Zone-IA non sono resilienti alla perdita fisica di un'intera zona di disponibilità.

S3 One Zone-IA offre le stesse caratteristiche offerte dalle classi S3 Standard e S3 Standard-IA e può essere usata mediante l'API, la CLI e la console Amazon S3. La classe di storage S3 One Zone-IA è configurata a livello di oggetto e può coesistere nello stesso bucket insieme alle classi S3 Standard ed S3 Standard-IA. Per trasferire oggetti in modo automatico da una classe a un'altra senza apportare modifiche alle applicazioni, è possibile utilizzare le policy sul ciclo di vita di S3.

D: Per quali casi d'uso è destinata la classe di archiviazione S3 One Zone-IA?

La classe di storage S3 One Zone-IA è consigliata per lo storage di contenuti a cui non si accede in modo frequente, ad esempio copie di backup o di disaster recovery e altri dati che è possibile ricreare con facilità.

D: Quali prestazioni offre la classe di archiviazione S3 One Zone-IA?

La classe di archiviazione S3 One Zone-IA offre prestazioni di latenza e throughput identiche a quelle delle classi di archiviazione S3 Standard e S3 Standard-IA

D: Quali livelli di durabilità offre la classe di archiviazione S3 One Zone-IA?

La classe di archiviazione S3 One Zone-IA è progettata per garantire una durabilità del 99,999999999% all'interno di una zona di disponibilità. Tuttavia, i dati nella classe di archiviazione S3 One Zone-IA non sono resilienti alla perdita di disponibilità o alla perdita fisica di una zona di disponibilità. Le classi di archiviazione S3 Standard, S3 Intelligent-Tiering, S3 Standard - Infrequent Access e S3 Glacier, invece, sono in grado di superare la perdita di disponibilità o l'eliminazione di una zona di disponibilità. La classe S3 One Zone-IA offre durabilità e disponibilità paragonabili, se non migliori, alla maggior parte dei data center fisici moderni, oltre a una maggiore elasticità di archiviazione e al pacchetto di caratteristiche di Amazon S3.

D: Quando si parla della classe S3 One Zone-IA, per "zona" si intende una zona di disponibilità di AWS?

Sì. Ogni regione AWS si trova in un'area geografica differente. Ciascuna regione dispone di diverse zone di utilizzo isolate, note come zone di disponibilità. La classe di archiviazione Amazon S3 One Zone-IA impiega una sola zona di disponibilità all'interno di una regione AWS.

D: In quale misura l'uso della classe S3 One Zone-IA riduce le capacità di ripristino di emergenza?

Ciascuna zona di disponibilità impiega fonti di alimentazione e connessioni di rete ridondanti. All'interno di una regione AWS, le zone di disponibilità si trovano in aree soggette a diversi gradi di rischio per quanto riguarda inondazioni e terremoti, e sono distanti tra loro per evitare che siano soggette ad esempio a grandi incendi. La classi S3 Standard e S3 Standard-IA offrono protezione da questo genere di eventi perché archiviano i dati in modo ridondante su più zone di disponibilità. S3 One Zone-IA offre protezione dal guasto dell'apparecchiatura all'interno di una zona di disponibilità, ma i dati non sono resilienti alla perdita fisica della zona di disponibilità dovuta a calamità come terremoti o alluvioni. Le opzioni S3 One Zone-IA, S3 Standard e S3 Standard-IA permettono di scegliere il servizio più adatto alle singole esigenze di durabilità e disponibilità.

Classe di archiviazione Amazon S3 Glacier Instant Retrieval

D: Che cos'è la classe di archiviazione Amazon S3 Glacier Instant Retrieval?

La classe di archiviazione S3 Glacier Instant Retrieval offre l'archiviazione al costo minore per i dati di lunga durata a cui si accede raramente e che richiedono il recupero entro millisecondi. S3 Glacier Instant Retrieval offre l'accesso più veloce allo spazio di archiviazione, con la stessa velocità effettiva e lo stesso accesso entro millisecondi delle classi di archiviazione S3 Standard e S3 Standard-IA. S3 Glacier Instant Retrieval è progettata per offrire il 99,999999999% (undici nove) di durata dei dati e il 99,9% di disponibilità archiviando in modo ridondante i dati in un minimo di tre zone di disponibilità AWS fisicamente separate.

D: Quali vantaggi offre S3 Glacier Instant Retrieval?

S3 Glacier Instant Retrieval è l'ideale se si dispone di dati a cui si accede raramente (una volta a trimestre) e che richiedono il recupero entro millisecondi. È la classe di archiviazione ideale se si cercano le stesse prestazioni con bassa latenza e velocità effettiva elevata di S3 Standard-IA, ma si desidera archiviare i dati a cui si accede meno frequentemente rispetto a S3 Standard-IA, con un prezzo di archiviazione inferiore e costi di accesso ai dati leggermente superiori.

D: Quali sono la disponibilità e la durabilità di S3 Glacier Instant Retrieval?

La classe S3 Glacier Instant Retrieval è progettata per offrire una durabilità del 99,999999999% (undici nove) e una disponibilità del 99,9%, in modo analogo a S3 Standard-IA, e dispone di un Accordo sul Livello di Servizio (SLA) che garantisce crediti sul servizio se la disponibilità è inferiore al 99% in qualsiasi ciclo di fatturazione.

D: Quali prestazioni offre S3 Glacier Instant Retrieval?

S3 Glacier Instant Retrieval offre prestazioni di latenza nell'ordine dei millisecondi e velocità effettiva elevata identiche a quelle delle classi di archiviazione S3 Standard e S3 Standard-IA. A differenza delle classi S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive, che sono progettate per l'accesso asincrono, è necessario inviare una richiesta di ripristino per poter accedere ad un oggetto archiviato in S3 Glacier Instant Retrieval.

D: Come si inseriscono i dati in S3 Glacier Instant Retrieval?

Esistono due modi per inserire i dati in S3 Glacier Instant Retrieval. Il primo consiste nel creare richieste PUT direttamente in S3 Glacier Instant Retrieval specificando GLACIER_IR nell'header x-amz-storage-class. Il secondo prevede di impostare le policy del ciclo di vita di S3 affinché gli oggetti siano trasferiti da S3 Standard o S3 Standard-IA a S3 Glacier Instant Retrieval.

D: È previsto un costo per la durata di archiviazione minima in Amazon S3 Glacier Instant Retrieval?

La classe S3 Glacier Instant Retrieval è progettata per l'archiviazione a lungo termine di dati a cui si accede raramente e che è necessario conservare per mesi o anni. Gli oggetti archiviati in S3 Glacier Instant Retrieval hanno un minimo di novanta giorni di archiviazione e gli oggetti eliminati, sovrascritti o trasferiti prima di tale termine comportano un addebito proporzionale pari al costo di archiviazione per i giorni rimanenti. Per informazioni sui prezzi di Amazon S3 Glacier Instant Retrieval, consulta la pagina dei prezzi di Amazon S3.

D: È previsto un costo per dimensione minima di un oggetto in Amazon S3 Glacier Instant Retrieval?

S3 Glacier Instant Retrieval è progettato per oggetti di grandi dimensioni e prevede un costo per l'archiviazione di oggetti con dimensione minima di 128 KB. Agli oggetti di dimensioni inferiori a 128 KB sarà applicata una tariffa di archiviazione pari a quella degli oggetti da 128 KB. Ad esempio, a un oggetto di 6 KB in S3 Glacier Instant Retrieval saranno applicate le tariffe di archiviazione di S3 Glacier Instant Retrieval per 6 KB e un costo per dimensione minima di un oggetto pari a 122 KB al prezzo di archiviazione di S3 Glacier Instant Retrieval. Per informazioni sui prezzi di Amazon S3 Glacier Instant Retrieval, consulta la pagina dei prezzi di Amazon S3.

D: Come viene addebitato l'uso di S3 Glacier Instant Retrieval?

S3 Glacier Instant Retrieval prevede un addebito per l'archiviazione mensile, le richieste in base al tipo di richiesta e i recuperi di dati. Il volume di archiviazione fatturato in un mese si basa sulla media dell'archiviazione usata nel mese di riferimento, misurata in gigabyte al mese (GB-mese). Le richieste vengono addebitate in base al tipo, ad esempio PUT, COPY e GET. È inoltre previsto il pagamento di una tariffa a GB per ogni gigabyte di dati restituiti all'utente. 

Classe di archiviazione Recupero flessibile Amazon S3 Glacier

D: Che cos'è la classe di archiviazione Amazon S3 Glacier Flexible Retrieval?

La classe di archiviazione S3 Glacier Flexible Retrieval offre archiviazione a basso costo, fino al 10% in meno (rispetto a S3 Glacier Instant Retrieval), per dati di archivio a cui si accede una o due volte all'anno e che vengono recuperati in modo asincrono, con recuperi di tipo Bulk gratuiti. Per i dati di archivio che non richiedono l'accesso immediato ma per cui è necessaria la flessibilità per recuperare grandi set di dati a costo zero, come backup o casi d'uso di ripristino di emergenza, S3 Glacier Flexible Retrieval è la classe di archiviazione ideale. S3 Glacier Flexible Retrieval offre le opzioni di recupero più flessibili in assoluto, che bilanciano i costi con tempi di accesso compresi tra minuti e ore e recuperi di tipo Bulk gratuiti. È una soluzione ideale per il backup, il ripristino di emergenza, le esigenze di archiviazione dati fuori sede e nelle occasioni in cui alcuni dati devono essere recuperati entro pochi minuti senza il pensiero dei costi. S3 Glacier Flexible Retrieval è progettata per offrire il 99,999999999% (undici nove) di durata dei dati e il 99,99% di disponibilità archiviando in modo ridondante i dati in più zone di disponibilità AWS fisicamente separate in un dato anno.

D:  Quali vantaggi offre la classe di archiviazione S3 Glacier Flexible Retrieval?

Per i dati di archivio che non richiedono l'accesso immediato ma per cui è necessaria la flessibilità per recuperare grandi set di dati a costo zero, come backup o casi d'uso di ripristino di emergenza, S3 Glacier Flexible Retrieval è la classe di archiviazione ideale. S3 Glacier Flexible Retrieval offre le opzioni di recupero più flessibili in assoluto, che bilanciano i costi con tempi di accesso compresi tra minuti e ore e recuperi di tipo Bulk gratuiti. È una soluzione ideale per il backup, il ripristino di emergenza, le esigenze di archiviazione dati fuori sede e nelle occasioni in cui alcuni dati devono essere recuperati entro pochi minuti senza il pensiero dei costi di recupero.

D: Come si inseriscono i dati in S3 Glacier Flexible Retrieval?

Esistono due modi per inserire i dati in S3 Glacier Flexible Retrieval. Il primo consiste nel creare richieste PUT direttamente in Amazon S3 Glacier Flexible Retrieval specificando GLACIER nell'header x-amz-storage-class. Il secondo prevede di usare le regole del ciclo di vita di S3 per trasferire gli oggetti da una qualsiasi delle classi di archiviazione S3 per dati attivi (S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA, S3 One Zone-IA e S3 Glacier Instant Retrieval) ad Amazon S3 Glacier Flexible Retrieval in base all'età degli oggetti. Usa la console di gestione di Amazon S3, i kit SDK AWS o le API di Amazon S3 per creare direttamente richieste PUT in Amazon S3 Glacier o definire regole per l'archiviazione.

Nota: S3 Glacier Flexible Retrieval è disponibile anche attraverso le API di Glacier dirette originali e attraverso la console di gestione di Amazon S3 Glacier. Per un'esperienza migliore, completa di accesso all'intero set di funzionalità S3, tra cui la gestione del ciclo di vita, S3 Replication, S3 Storage Lens e altro ancora, si consiglia di usare le API S3 e la console di gestione di S3 per approfittare delle caratteristiche di S3 Glacier.

D: Come si recuperano gli oggetti archiviati in S3 Glacier Flexible Retrieval? Si riceve una notifica quando l'oggetto viene ripristinato?

Gli oggetti archiviati in S3 Glacier Flexible Retrieval consentono l'accesso asincrono. Per recuperare i dati archiviati in S3 Glacier Flexible Retrieval, è necessario avviare una richiesta di recupero mediante le API di Amazon S3 o la console di Amazon S3. La richiesta di recupero crea una copia temporanea dei dati nella classe di archiviazione S3 Standard e lascia intatti i dati archiviati in S3 Glacier Flexible Retrieval. È possibile specificare l'intervallo di tempo, in giorni, durante il quale la copia temporanea sarà archiviata in Amazon S3. Per accedervi da S3 è quindi necessaria una richiesta GET di Amazon S3 sull'oggetto archiviato. Nelle Regioni AWS in cui l’archiviazione con ridondanza ridotta ha un prezzo inferiore rispetto a S3 Standard, i dati disponibili temporaneamente vengono fatturati come archiviazione con ridondanza ridotta. Tuttavia, la classe di archiviazione con fatturazione con ridondanza ridotta non riflette il modo in cui i dati vengono archiviati.

Con le notifiche di ripristino, si riceve una notifica di evento S3 quando un oggetto viene ripristinato correttamente da S3 Glacier Flexible Retrieval e ne viene resa disponibile una copia temporanea. Il proprietario del bucket (o altri, secondo quanto consentito da una policy IAM) può chiedere che le notifiche vengano emesse ad Amazon Simple Queue Service (SQS) o ad Amazon Simple Notification Service (SNS). Le notifiche possono essere inviate anche ad AWS Lambda affinché vengano elaborate da una funzione Lambda.

D: Quanto tempo richiede il ripristino degli oggetti archiviati in Amazon S3 Glacier Flexible Retrieval?

Durante un'attività di recupero, Amazon S3 prima di tutto recupera i dati richiesti da S3 Glacier Flexible Retrieval, quindi ne crea una copia temporanea in Amazon S3. Ciò richiede generalmente alcuni minuti. La rapidità di accesso della richiesta dipende dall'opzione di recupero selezionata: Expedited, Standard o Bulk. Per gli oggetti con dimensioni inferiori ai 250 MB, i tempi di recupero dell'opzione Expedited sono in genere compresi tra 1 e 5 minuti. Gli oggetti ottenuti mediante recuperi Standard richiedono in genere dalle 3 alle 5 ore. I recuperi standard in genere iniziano in pochi minuti se avviati utilizzando Operazioni in batch S3. I tempi per i recuperi Bulk sono solitamente compresi tra le 5 e le 12 ore e non prevedono addebiti. Per ulteriori informazioni sulle opzioni di recupero di S3 Glacier Flexible Retrieval, consulta la sezione sul ripristino di un oggetto archiviato nella guida per l'utente di S3.

Con le unità di capacità assegnate della classe di archiviazione S3 Glacier, è possibile pagare una quota fissa anticipata per un determinato mese per garantire la disponibilità di capacità di recupero per i recuperi di tipo Expedited da S3 Glacier Flexible Retrieval. Puoi acquistare due unità di capacità assegnate al mese per aumentare la quantità di dati da recuperare. Ogni unità di capacità consente almeno tre recuperi di tipo Expedited a intervalli di 5 minuti e fornisce fino a 150 MB al secondo di velocità effettiva. Se il tuo carico di lavoro richiede un accesso altamente affidabile e prevedibile a un sottoinsieme di dati in pochi minuti, dovresti acquistare la capacità di recupero assegnata. Senza capacità assegnata, i recuperi di tipo expedited potrebbero non essere accettati durante i periodi di elevato afflusso di domande. Se hai bisogno di accedere a recuperi di tipo expedited in qualsiasi circostanza, ti raccomandiamo di acquistare capacità di recupero assegnata.

È possibile acquistare capacità assegnata utilizzando la Console Amazon S3, l'API REST di acquisto di capacità assegnata, i kit SDK AWS o AWS CLI. Un'unità di capacità assegnata dura un mese a partire dalla data e ora di acquisto, che rappresenta la data di inizio. L'unità scade alla data di scadenza, che è esattamente un mese dopo la data di inizio al secondo più vicino. Per informazioni sui costi della capacità assegnata, consulta prezzi di Amazon S3.

D: Come vengono calcolati i costi di archiviazione per gli oggetti di Amazon S3 archiviati in S3 Glacier Flexible Retrieval?

Il volume di archiviazione fatturato in un mese si basa sulla media dell'archiviazione utilizzata in tale mese, misurata in gigabyte al mese (GB-mese). Amazon S3 calcola le dimensioni dell'oggetto sommando alle dimensioni dei dati archiviati 32 KB di dati per S3 Glacier e 8 KB di dati per la classe di archiviazione Amazon S3 Standard. S3 Glacier Flexible Retrieval richiede 32 KB di dati aggiuntivi per oggetto per l'indice e i metadati di S3 Glacier in modo da poter identificare e recuperare i dati. Amazon S3 richiede 8 KB per archiviare e mantenere il nome e i metadati definiti dall'utente per gli oggetti archiviati in S3 Glacier Flexible Retrieval. In questo modo puoi avere un elenco aggiornato in tempo reale di tutti gli oggetti Amazon S3, inclusi quelli archiviati con S3 Glacier Flexible Retrieval, usando l'API LIST di Amazon S3 o il report S3 Inventory.

Ad esempio, se hai archiviato 100.000 oggetti da 1 GB ciascuno, i costi di archiviazione sono i seguenti:
1,000032 gigabyte per oggetto x 100.000 oggetti = 100.003,2 gigabyte di archiviazione in S3 Glacier.
0,000008 gigabyte per oggetto x 100.000 oggetti = 0,8 gigabyte di archiviazione in S3 Standard.

I costi sono calcolati in base alle tariffe correnti nella regione AWS in uso secondo la pagina dei prezzi di Amazon S3. Per altri esempi sui prezzi di Amazon S3, visita la pagina delle Domande frequenti sulla fatturazione di S3 o usa il calcolatore prezzi di AWS.

D: Il recupero flessibile Amazon S3 Glacier prevede una durata di archiviazione minima e costi minimi per l'archiviazione degli oggetti?

Gli oggetti archiviati in Recupero flessibile Amazon S3 Glacier hanno una durata di archiviazione minima di 90 giorni. Se un oggetto viene eliminato, sovrascritto o trasferito prima dello scadere dei 90 giorni, sarà addebitato un costo ripartito proporzionalmente pari alla tariffa di archiviazione per i giorni rimanenti.

Il recupero flessibile Amazon S3 Glacier richiede anche 40 KB di metadati aggiuntivi per ogni oggetto archiviato. Sono inclusi 32 KB di metadati addebitati alla tariffa di Recupero flessibile Amazon S3 Glacier necessari per identificare e recuperare i dati. Inoltre, 8 KB di dati aggiuntivi addebitati alla tariffa S3 Standard, necessari per mantenere il nome e i metadati definiti dall'utente per gli oggetti archiviati in Recupero flessibile Amazon S3 Glacier. Puoi così ottenere un elenco aggiornato di tutti gli oggetti di S3 utilizzando l’API S3 LIST o il report S3 Inventory. Per informazioni sui prezzi di Recupero flessibile Amazon S3 Glacier, consulta la pagina dei prezzi di Amazon S3. 

D: Quanto costa recuperare dati da Recupero flessibile Amazon S3 Glacier?

Ci sono tre modalità per recuperare i dati da S3 Glacier Flexible Retrieval: Expedited, Standard e Bulk Retrieval. Expedited e Standard prevedono una tariffa di recupero per GB ed una tariffa per richiesta (ad esempio, i prezzi sono elaborati in base alle richieste fatte per i propri oggetti di Amazon S3). I recuperi di tipo Bulk da S3 Glacier Flexible Retrieval sono gratuiti. Per ulteriori informazioni sui costi di S3 Glacier per regione AWS, consulta la pagina dei prezzi di Amazon S3.

D: Amazon S3 offre opzioni per l'archiviazione di oggetti in classi di archiviazione a prezzo ridotto?

Le classi di archiviazione di Amazon S3 Glacier sono dedicate all'archiviazione dei dati e forniscono le prestazioni migliori, la massima flessibilità in termini di recupero e il costo di archiviazione più basso nel cloud. Puoi scegliere fra tre classi di archiviazione ottimizzate a seconda dei modelli di accesso e della durata dell'archiviazione. Per i dati di archivio che richiedono l'accesso immediato, come le immagini mediche, le risorse della stampa o i dati sulla genomica, scegli la classe di archiviazione S3 Glacier Instant Retrieval, una classe di archiviazione che offre il recupero in millisecondi a un costo irrisorio. Per i dati di archivio che non richiedono l'accesso immediato ma per cui è necessaria la flessibilità per recuperare grandi set di dati a un costo irrisorio, come backup o casi d'uso di ripristino di emergenza, scegli S3 Glacier Flexible Retrieval, che eseguirà il recupero in pochi minuti oppure recuperi in massa gratuiti dalle 5 alle 12 ore. Per risparmiare ulteriormente sull'archiviazione a lungo termine come archivi di conformità e conservazione dei media digitali, scegli S3 Glacier Deep Archive, il servizio di archiviazione cloud più conveniente che ti permette di recuperare i dati entro 12 ore.

D: Qual è l'infrastruttura di back-end che supporta le classi di archiviazione S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive?

Preferiamo concentrarci sui risultati in termini di prestazioni, durata, disponibilità e sicurezza per il cliente. Tuttavia, questa domanda viene spesso posta dai nostri clienti. Utilizziamo diverse tecnologie che ci permettono di offrire ai nostri clienti le tariffe che proponiamo. I nostri servizi sono realizzati usando tecnologie per l'archiviazione dei dati comuni, specificatamente assemblate in sistemi ottimizzati per quanto riguarda i costi attraverso un software sviluppato da AWS. Le classi di archiviazione di S3 Glacier traggono vantaggio dalla nostra capacità di ottimizzare la sequenza di input e output per massimizzare l'efficienza nell'accesso all'archiviazione sottostante.

Amazon S3 Glacier Deep Archive

D: Che cos'è la classe di archiviazione Amazon S3 Glacier Deep Archive?

S3 Glacier Deep Archive è una classe di archiviazione di Amazon S3 che fornisce un servizio di archiviazione di oggetti sicuro e duraturo, per la conservazione a lungo termine dei dati a cui si accede una o due volte l'anno. A partire da soli 0,00099 USD per GB al mese (meno di un decimo di un centesimo o circa 1 USD per TB al mese), S3 Glacier Deep Archive offre le tariffe per l'archiviazione sul cloud più basse in assoluto, a costi nettamente inferiori rispetto all'archiviazione e alla gestione di dati su librerie a nastro magnetico on-premise o all'archiviazione di dati in remoto.

D: Quali sono i casi d'uso più adatti per la classe di archiviazione S3 Glacier Deep Archive?

S3 Glacier Deep Archive è una classe di archiviazione ideale per fornire protezione offline delle risorse dati più importanti dell'azienda o quando è richiesta la conservazione dei dati a lungo termine per i requisiti di conformità alle policy aziendali, contrattuali o alle normative. I clienti trovano S3 Glacier Deep Archive come una scelta convincente per proteggere la proprietà intellettuale, i registri finanziari e medici, i risultati di ricerca, documenti legali, studi di esplorazione sismica e backup a lungo termine, specialmente in settori altamente regolamentati, come i servizi finanziari, l'assistenza sanitaria, petrolio e gas e settori pubblici. Inoltre, ci sono organizzazioni come le società di media e intrattenimento, che desiderano conservare una copia di backup della proprietà intellettuale. Spesso i clienti che usano S3 Glacier Deep Archive riescono a ridurre o interrompere l'uso di librerie a nastro magnetico on-premise e di servizi di archiviazione su nastro in remoto.

D: Quali sono le differenze tra la classe di archiviazione S3 Glacier Deep Archive e le classi S3 Glacier Instant Retrieval e S3 Glacier Flexible Retrieval?

S3 Glacier Deep Archive espande la nostra offerta relativa all'archiviazione dei dati e ti permette di scegliere la classe di archiviazione più adatta alle tue necessità in base a costi di archiviazione e recupero e tempi di recupero. È opportuno scegliere S3 Glacier Instant Retrieval quando è necessario l'accesso entro millisecondi ai dati archiviati a basso costo. Per i dati di archivio che non richiedono l'accesso immediato ma per cui è necessaria la flessibilità per recuperare grandi set di dati a un costo irrisorio, come backup o casi d'uso di ripristino di emergenza, scegli S3 Glacier Flexible Retrieval, che eseguirà il recupero in pochi minuti oppure recuperi in massa gratuiti dalle 5 alle 12 ore. S3 Glacier Deep Archive, al contrario, è progettato per dati meno attivi a cui è molto improbabile accedere, ma che richiedono comunque un'archiviazione a lungo termine e duratura. S3 Glacier Deep Archive costa fino al 75% in meno rispetto a S3 Glacier Flexible Retrieval e fornisce il recupero entro 12 ore utilizzando il livello di recupero standard. I recuperi standard iniziano in genere entro 9 ore se avviati utilizzando Operazioni in batch S3. I costi di recupero possono essere ulteriormente ridotti selezionando il recupero di tipo Bulk, che restituisce i dati entro 48 ore.

D: Come si inizia a usare Amazon S3 Glacier Deep Archive?

Il modo più semplice per archiviare i dati in S3 Glacier Deep Archive consiste nell'utilizzare l'API S3 per caricarvi i dati direttamente. Basta specificare "S3 Glacier Deep Archive" come classe di archiviazione. Puoi farlo utilizzando la Console di gestione AWS, l'API S3 REST, gli SDK AWS o l'interfaccia a riga di comando AWS.

È inoltre possibile iniziare a utilizzare S3 Glacier Deep Archive creando policy per migrare i dati utilizzando S3 Lifecycle, che offre la possibilità di definire il ciclo di vita del proprio oggetto e riduce il costo dello storage. Queste politiche possono essere impostate per migrare oggetti in S3 Glacier Deep Archive in base all'età dell'oggetto. È possibile specificare la policy per un bucket S3 o per prefissi specifici. Le transizioni del ciclo di vita sono fatturate al prezzo di upload dell'archivio S3 Glacier Deep.

Tape Gateway, una funzionalità di libreria nastro virtuale basata su cloud di AWS Storage Gateway, ora si integra con S3 Glacier Deep Archive, consentendo di archiviare i backup e gli archivi virtuali basati su nastro a lungo termine in S3 Glacier Deep Archive e fornire così il livello più basso dei costi di archiviazione per tali dati nel cloud. Per iniziare, crea un nuovo nastro virtuale usando la console o l'API di AWS Storage Gateway e imposta il target di archiviazione su S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive. Quando l'applicazione di backup espelle il nastro, questo verrà archiviato sulla destinazione di archiviazione selezionata.

D: Che tipo di migrazione mi consigliate per spostare i dati dai miei archivi a nastro esistenti a S3 Glacier Deep Archive?

Esistono diversi modi per migrare i dati dagli archivi nastro esistenti a S3 Glacier Deep Archive. È possibile utilizzare AWS Tape Gateway per l'integrazione con le applicazioni di backup esistenti utilizzando un'interfaccia VTL (Virtual Tape Library). L'interfaccia presenta nastri virtuali per l'applicazione di backup. Questi possono essere usati immediatamente per archiviare i dati in Amazon S3, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive.

È anche possibile usare AWS Snowball per migrare i dati. Snowball accelera lo spostamento di terabyte a petabyte di dati in entrata e in uscita da AWS utilizzando dispositivi di archiviazione fisici progettati per essere sicuri per il trasporto. L'utilizzo di Snowball consente di risolvere alcuni dei problemi più comuni dei trasferimenti di volumi elevati di dati, tra cui gli elevati costi di rete, la durata del trasferimento e la sicurezza.

Infine, AWS Direct Connect si utilizza per stabilire connessioni di rete dedicate dai propri uffici ad AWS. In molti casi, Direct Connect può ridurre i costi di rete, aumentare la velocità effettiva della larghezza di banda e fornire un'esperienza di rete più coerente rispetto alle connessioni basate su Internet.

D: Come faccio a recuperare gli oggetti archiviati in S3 Glacier Deep Archive?

Per recuperare i dati archiviati in S3 Glacier Deep Archive, avvia una richiesta di "ripristino" utilizzando le API di Simple Storage Service (Amazon S3) o la console di gestione di Simple Storage Service (Amazon S3). La richiesta di recupero crea una copia temporanea dei dati nella classe di storage S3 Standard e lascia intatti i dati archiviati in S3 Glacier Deep Archive. È possibile specificare l'intervallo di tempo, in giorni, durante il quale la copia temporanea sarà conservata in S3. Per accedervi da S3 è quindi necessaria una richiesta GET di Amazon S3 sull'oggetto archiviato.

Quando si ripristina un oggetto archiviato, è possibile specificare una delle seguenti opzioni nell'elemento Tier del corpo della richiesta: Standard è il livello predefinito e consente di accedere a qualsiasi oggetto archiviato entro 12 ore, con recuperi che iniziano in genere entro 9 ore se avviati utilizzando Operazioni in batch S3. Bulk consente di recuperare grandi quantità di dati, anche petabyte di dati, in modo economico e in genere viene completato entro 48 ore.

D: Come mi viene addebitato l'utilizzo di S3 Glacier Deep Archive?

L'archiviazione di S3 Glacier Deep Archive è valutata in base alla quantità di dati archiviati in GB, al numero di richieste di transizione PUT/ciclo di vita, ai recuperi in GB e al numero di richieste di ripristino. Questo modello di prezzo è simile a quello di S3 Glacier Flexible Retrieval. Per informazioni sui prezzi di Deep Archive S3 Glacier, consulta la pagina dei prezzi di Amazon S3.

D: Come viene rendicontato l'utilizzo di S3 Glacier Deep Archive sulla mia fattura AWS e nello strumento Gestione costi AWS?

L'utilizzo e il costo dell'archivio S3 Glacier Deep vengono visualizzati come voce di un servizio indipendente sulla fattura AWS mensile, separati dall'utilizzo e dai costi di Amazon S3. Tuttavia, se si utilizza lo strumento Gestione costi AWS, l'utilizzo e il costo di S3 Glacier Deep Archive saranno inclusi nell'utilizzo e nel costo di Amazon S3 all'interno dei report dettagliati delle spese mensili, senza essere indicati come una voce di servizio separata.

D: Esistono una durata di archiviazione minima e dei costi minimi di archiviazione degli oggetti per Deep Archive Amazon S3 Glacier?

Gli oggetti archiviati in Deep Archive Amazon S3 Glacier hanno un minimo di 180 giorni di archiviazione. Se un oggetto viene eliminato, sovrascritto o trasferito prima dello scadere dei 180 giorni, sarà addebitato un costo ripartito proporzionalmente pari alla tariffa di archiviazione per i giorni rimanenti.

Deep Archive Amazon S3 Glacier richiede anche 40 KB di metadati aggiuntivi per ogni oggetto archiviato. Sono inclusi 32 KB di metadati addebitati alla tariffa di Deep Archive Amazon S3 Glacier necessari per identificare e recuperare i dati. Inoltre, 8 KB di dati aggiuntivi addebitati alla tariffa S3 Standard, necessari per mantenere il nome e i metadati definiti dall'utente per gli oggetti archiviati in Deep Archive Amazon S3 Glacier. Puoi così ottenere un elenco aggiornato di tutti gli oggetti di S3 utilizzando l’API S3 LIST o il report S3 Inventory. Per informazioni sui prezzi di Deep Archive Amazon S3 Glacier, consulta la pagina dei prezzi di Amazon S3.

D: Come si integra Deep Archive Amazon S3 Glacier con gli altri servizi AWS?

S3 Glacier Deep Archive è integrata con le caratteristiche di Amazon S3, tra cui S3 Object Tagging, le policy del ciclo di vita di S3, S3 Object Lock e S3 Replication. Con le caratteristiche di gestione dell'archiviazione S3, è possibile usare un singolo bucket Amazon S3 per archiviare una combinazione di dati S3 Glacier Deep Archive, S3 Standard, S3 Standard-IA, S3 One Zone-IA e S3 Glacier Flexible Retrieval. Ciò consente agli amministratori dell'archiviazione di prendere decisioni in base alla natura dei dati e ai modelli di accesso ai dati. I clienti possono utilizzare le politiche del ciclo di vita di Amazon S3 per migrare automaticamente i dati in classi di storage a costo inferiore con l'invecchiamento dei dati o le politiche di replica di S3 tra regioni diverse o all'interno della stessa regione per replicare i dati in un'altra regione.

Il servizio AWS Storage Gateway integra Tape Gateway con la classe di archiviazione S3 Glacier Deep Archive, che consente di archiviare nastri virtuali nella classe di archiviazione Amazon S3 più economica, riducendo il costo mensile per l'archiviazione dei dati a lungo termine nel cloud del 75%. Grazie a questa funzionalità, Tape Gateway supporta l'archiviazione dei nastri virtuali direttamente su S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive, così da aiutarti a rispettare i requisiti di backup, archiviazione e ripristino. Tape Gateway consente di spostare i backup basati su nastro in AWS senza apportare modifiche ai flussi di lavoro di backup esistenti. Tape Gateway supporta la maggior parte delle principali applicazioni di backup come Veritas, Veeam, Commvault, Dell EMC NetWorker, IBM Spectrum Protect (su sistema operativo Windows) e Microsoft Data Protection Manager.

S3 on Outposts

D: Cos'è Amazon S3 on Outposts?

Amazon S3 on Outposts offre l'archiviazione degli oggetti nel tuo ambiente on-premise utilizzando le API S3 e le capacità che utilizzi oggi in AWS. AWS Outposts è un servizio completamente gestito che estende l'infrastruttura, i servizi, le API e gli strumenti AWS praticamente a qualsiasi data center, spazio di co-locazione o struttura on-premise. Utilizzando S3 on Outposts, puoi elaborare e archiviare in modo sicuro i dati dei clienti generati on-premise prima di spostarli in una Regione AWS, accedere ai dati a livello locale per le applicazioni eseguite on-premise o archiviare i dati sul tuo Outpost per le aziende in località con requisiti di posizione dei dati o per quelle nei settori regolamentati. Per ulteriori informazioni su S3 su Outposts, visita la pagina della panoramica.
 

Gestione dell'archiviazione

Tag di oggetti S3

D: Cosa sono i tag di oggetti S3?

I tag di oggetti S3 sono coppie di tipo chiave-valore applicate a oggetti S3 che si possono creare, aggiornare o eliminare in qualsiasi momento durante la vita dell'oggetto. I tag consentono di creare policy di Identity and Access Management (IAM), configurare policy di ciclo di vita S3 e personalizzare parametri di archiviazione. Questi tag a livello di oggetto possono in seguito gestire trasferimenti fra classi di archiviazione e oggetti a scadenza in background. Si possono aggiungere tag a nuovi oggetti quando vengono caricati oppure aggiungerli a oggetti esistenti. A ciascun oggetto S3 possono essere aggiunti fino a dieci tag e per farlo si possono usare la console di gestione AWS, l'API REST, l'interfaccia a riga di comando di AWS o gli SDK AWS. 

Ulteriori informazioni sono disponibili nella guida per l'utente di S3 Object Tagging.

D: Qual è il vantaggio dei tag di oggetti?

I tag di oggetti sono uno strumento che può essere utilizzato per gestire in modo semplice lo storage S3. Grazie alla possibilità di creare, aggiornare ed eliminare tag in qualunque momento durante la durata di vita dell'oggetto, lo storage può adattarsi alle necessità della tua attività. Questi tag permettono di controllare l'accesso a oggetti che contengono tag con coppie chiave-valore specifiche e di aumentare così la protezione dei dati confidenziali per un gruppo o un utente selezionato. I tag possono essere usati anche per etichettare gli oggetti appartenenti a un progetto specifico o a una business unit e in combinazione con le policy del ciclo di vita di S3 per gestire le transizioni verso altre classi di archiviazione (S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive) o con S3 Replication per replicare selettivamente i dati tra regioni AWS.

D: Come si aggiornano i tag di oggetti?

I tag di oggetti possono essere modificati in qualunque momento durante il ciclo di vita di un oggetto S3, tramite la Console di gestione AWS, l'API REST, l'interfaccia a riga di comando di AWS o i kit SDK AWS. Le modifiche effettuate sui tag al di fuori della Console di gestione AWS vengono effettuate sull'intero gruppo di tag. Se disponi di cinque tag collegati a un oggetto particolare e ne vuoi aggiungere un sesto, devi includere i cinque tag originali nella richiesta.

D: Quanto costano i tag di oggetti?

Il costo dei tag di oggetti è calcolato in base alla quantità di tag impiegati e ai costi delle richieste necessarie per aggiungerli. Il costo delle richieste necessarie per aggiungere e aggiornare i tag di oggetti dipende dalle tariffe correnti delle richieste. Per ulteriori informazioni, consulta la pagina dei prezzi di Amazon S3.

D: Come posso iniziare a utilizzare Storage Class Analysis?

È possibile utilizzare la Console di gestione AWS o l'API PUT Bucket Analytics di S3 per configurare una policy di analisi della classe di archiviazione e identificare quindi i dati ad accesso infrequente che possono essere trasferiti nella classe S3 Standard-IA o S3 One Zone-IA oppure archiviati nelle classi S3 Glacier. Apri la scheda "Gestione" nella console di S3 per gestire i parametri di Analisi della classe di archiviazione, S3 Inventory ed S3 CloudWatch.

S3 Inventory

D: cos'è S3 Inventory?

S3 Inventory costituisce un'alternativa pianificata all'API List sincrona di Amazon S3. S3 Inventory può essere configurato per generare giornalmente o settimanalmente un output di file CSV, , ORC o Parquet dei tuoi oggetti e dei metadati corrispondenti per un prefisso o bucket S3. L'utilizzo di S3 Inventory consente di semplificare e accelerare i flussi di lavoro aziendali e le attività di Big Data. S3 Inventory può inoltre essere impiegato per verificare la crittografia e lo stato di replica degli oggetti e soddisfare le esigenze aziendali e di conformità alle normative. Ulteriori informazioni sono disponibili nella guida per l'utente di Amazon S3 Inventory.

D: Come si inizia a usare S3 Inventory?

È possibile usare la console di gestione AWS o l'API PUT Bucket Inventory Configuration per configurare un inventario giornaliero o settimanale di tutti gli oggetti in un bucket S3 o di un sottoinsieme di oggetti sotto un prefisso condiviso. Durante la fase di configurazione, è possibile specificare un bucket S3 di destinazione per il report S3 Inventory, il formato del file di output (CSV, ORC o Parquet) e i metadati specifici di oggetto necessari all'applicazione aziendale, ad esempio nome, dimensioni, data dell'ultima modifica, classe di storage, ID della versione, contrassegno di eliminazione, contrassegno di versione non corrente, contrassegno di caricamento in più parti, stato di replica o stato di crittografia dell'oggetto. S3 Inventory può essere usato come input diretto nei flussi di lavoro delle applicazioni o nei processi relativi ai Big Data. È anche possibile eseguire query in S3 Inventory attraverso il linguaggio SQL standard con Amazon Athena, Amazon Redshift Spectrum e altri strumenti quali Presto, Hive e Spark.

Ulteriori informazioni sono disponibili nella guida per l'utente di Amazon S3 Inventory.

D: Come viene fatturato l'uso di S3 Inventory?

Per informazioni sui prezzi di S3 Inventory, consulta la pagina dei prezzi di Amazon S3. Per la crittografia con SSE-KMS vengono addebitate le tariffe standard di AWS KMS. Per ulteriori dettagli, consulta la pagina dei prezzi di KMS.

S3 Batch Operations

D: Cos'è S3 Batch Operations?

S3 Batch Operations è una funzionalità che consente di automatizzare l'esecuzione di un'operazione singola (come la copia di un oggetto o l'esecuzione di una funzione AWS Lambda) su più oggetti. Con S3 Batch Operations si possono modificare miliardi di oggetti senza dover scrivere codici di applicazione personalizzati o eseguire cluster di calcolo per le applicazioni di gestione dello storage: sono sufficienti pochi clic nella console di S3 o una singola richiesta API. Oltre a gestire le operazioni di storage tra più oggetti, S3 Batch Operations gestisce nuovi tentativi, monitora i progressi, invia le notifiche, genera report di completamento e invia eventi ad AWS CloudTrail per tutte le operazioni effettuate sugli oggetti di destinazione. È possibile usare S3 Batch Operations dalla console di S3 o mediante l'SDK e la CLI di AWS. 

Ulteriori informazioni sono disponibili nella pagina di S3 Batch Operations e nella guida per l'utente.

D: Come si inizia a usare S3 Batch Operations?

Puoi iniziare a usare S3 Batch Operations dalla console di Amazon S3 o mediante l'SDK o la CLI di AWS per creare il primo processo S3 Batch Operations. Un processo S3 Batch Operations è costituito dall'elenco di oggetti di su cui agire e dal tipo di operazione da eseguire (consulta l'elenco completo delle operazioni disponibili). Inizia selezionando un report S3 Inventory o fornendo un elenco personalizzato di oggetti su cui desideri che S3 Batch Operations agisca. Un report S3 Inventory è un file che elenca tutti gli oggetti archiviati in un prefisso o bucket S3. A questo punto scegli tra una serie di operazioni di S3 supportate da S3 Batch Operations, ad esempio la sostituzione di set di tag, la modifica delle ACL, la copia dell'archiviazione da un bucket a un altro o l'avvio del ripristino da S3 Glacier Flexible Retrieval alla classe di archiviazione S3 Standard. Quindi puoi personalizzare i processi S3 Batch Operations con parametri specifici quali, ad esempio, valori tag, garanzie ACL e durata del ripristino. Per personalizzare ulteriormente le operazioni di storage, puoi scrivere una funzione Lambda e richiamare il codice attraverso S3 Batch Operations.

Una volta creato il processo, S3 Batch Operations elaborerà l'elenco di oggetti e, se richiesto, invierà il processo allo stato "in attesa di conferma". Dopo aver confermato i dettagli del processo, S3 Batch Operations inizierà ad eseguire l'operazione specificata. Puoi visualizzare l'avanzamento del processo in modo programmatico o tramite la console S3, ricevere notifiche al completamento e rivedere il report di completamento che elenca in dettaglio le modifiche apportate allo storage.

Per saperne di più su Operazioni in batch S3, guarda i video tutorial e consulta la documentazione.

D: Quali servizi AWS di archiviazione elettronica sono stati valutati sulla base delle normative riguardanti i servizi finanziari?

Per i clienti che operano nel settore dei servizi finanziari, S3 Object Lock offre supporto ulteriore a broker e dealer che hanno bisogno di conservare i record in un formato non cancellabile e non riscrivibile, in conformità ai requisiti della Rule 17a-4(f) della SEC, della Rule 4511 della FINRA o della Regulation 1.31 CFTC. È possibile impostare facilmente il tempo di conservazione dei record per mantenere gli archivi regolamentari nel formato originale per la durata richiesta, nonché applicare i vincoli di legge alla conservazione dei dati per un tempo indeterminato fino a quando tale vincolo non venga rimosso.

D: Quali sono i documenti di AWS a supporto dei requisiti per SEC 17a-4(f)(2)(i) e CFTC 1.31(c) da notificare all'autorità normativa?

È possibile comunicare all'autorità normativa oppure all'autorità di verifica designata (DEA, Designated Examining Authority) l'utilizzo di Amazon S3 per lo storage elettronico insieme a una copia del Cohasset Assessment. Ai fini della valutazione dei requisiti, AWS non è considerato una terza parte designata (D3P). Nella notifica alla DEA è necessario includere una D3P.

Parametri di S3 CloudWatch

D: Come si iniziano a usare i parametri di S3 CloudWatch?

Puoi utilizzare la Console di gestione AWS per abilitare la generazione di parametri di richiesta CloudWatch di un minuto per il tuo bucket S3 o configurare filtri per i parametri utilizzando un prefisso, un tag oggetto o un punto di accesso. In alternativa, è possibile richiamare l'API PUT Bucket Metrics di S3 per abilitare e configurare la pubblicazione dei parametri di archiviazione S3. I parametri delle richieste di CloudWatch saranno disponibili in CloudWatch entro 15 minuti dall'attivazione. Per impostazione predefinita, i parametri di storage di CloudWatch vengono abilitati per tutti i bucket e ogni giorno viene creato un report. Ulteriori informazioni sono disponibili alla pagina sui parametri CloudWatch per Amazon S3.

D: Quali avvisi è possibile configurare per i parametri di archiviazione?

È possibile utilizzare CloudWatch per stabilire soglie per qualsiasi conteggio, timer o velocità dei parametri di archiviazione e avviare un'operazione quando tale soglia viene superata. Ad esempio, è possibile stabilire una soglia relativa alla percentuale di risposte di errori di tipo 4xx; se la soglia è stata superata di almeno 3 punti, si attiva un allarme di CloudWatch per avvisare un ingegnere DevOps.

D: Quali costi vengono addebitati per l'uso dei parametri di S3 CloudWatch? 

I parametri di storage di CloudWatch sono gratuiti. I parametri delle richieste CloudWatch vengono addebitati come parametri personalizzati per Amazon CloudWatch. Per ulteriori informazioni sulle tariffe dei parametri di S3 CloudWatch, consulta la pagina dei prezzi di Amazon CloudWatch.

Gestione del ciclo di vita di S3

D: cos'è la gestione del ciclo di vita di S3?

Con S3 è possibile definire il ciclo di vita degli oggetti con policy predefinite, diminuendo così il costo dello storage. È possibile configurare una policy di trasferimento basata sul ciclo di vita per eseguire automaticamente la migrazione di oggetti dalla classe di storage S3 Standard alle classi S3 Standard-IA, S3 One Zone-IA e/o S3 Glacier in base alla data di creazione dei dati. È anche possibile impostare policy di scadenza del ciclo di vita per rimuovere automaticamente oggetti a seconda della loro età. Ad esempio, è possibile definire una policy che determini la scadenza di un caricamento in più parti incompleto in base alla sua età.

Ulteriori informazioni sono disponibili nella guida per l'utente di S3 Lifecycle.

D: Come si imposta una policy di gestione di S3 Lifecycle?

È possibile impostare e gestire le policy di ciclo di vita tramite la Console di gestione AWS, l'API REST di S3, i kit SDK AWS e l'interfaccia a riga di comando di AWS. La policy può essere specificata a livello di prefisso o a livello di bucket.

D: Come è possibile utilizzare la gestione del ciclo di vita di Amazon S3 per contribuire a ridurre i costi di archiviazione?

Con le policy del ciclo di vita di Amazon S3 è possibile configurare la migrazione degli oggetti dalla classe di archiviazione S3 Standard alle classi S3 Standard-IA o S3 One Zone-IA e/o l'archiviazione nelle classi S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive.

È anche possibile specificare una policy di gestione del ciclo di vita di S3 con cui eliminare gli oggetti dopo un determinato periodo di tempo. Queste funzioni di automazione basate su policy rappresentano un modo rapido e veloce per ridurre i costi di archiviazione e per risparmiare tempo. Per ciascuna regola è possibile specificare un prefisso, un periodo di tempo, un trasferimento nelle classi S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive e/o una scadenza. Ad esempio, puoi creare una regola che determini l'archiviazione in S3 Glacier Flexible Retrieval di tutti gli oggetti con prefisso "logs/" a trenta giorni dalla creazione e la scadenza a trecentosessantacinque giorni dalla creazione.

È anche possibile creare una regola a parte che determini la scadenza di tutti gli oggetti con prefisso "backup/" a novanta giorni dalla creazione. Le policy sul ciclo di vita di S3 si applicano agli oggetti S3 sia nuovi sia esistenti e consentono quindi di ottimizzare lo storage il risparmio per tutti i dati archiviati in S3 senza lunghe e onerose procedure manuali di revisione e migrazione dei dati.

In una regola del ciclo di vita, gli oggetti ai quali essa va applicata sono identificati dal prefisso. Per applicare la regola a un singolo oggetto, occorre specificare il nome chiave. Per applicare la regola a un set di oggetti, occorre specificare il loro prefisso comune (ad esempio "log/"). È possibile impostare un'azione di transizione per archiviare gli oggetti e un'azione di scadenza per rimuoverli. Per il periodo di tempo, specificare la data di creazione (ad esempio 31 gennaio 2015) oppure il numero di giorni dalla data di creazione (ad esempio 30 giorni), trascorso il quale si desidera che gli oggetti vengano archiviati o rimossi. È possibile creare più regole per diversi prefissi.

D: Quanto costa usare la gestione di S3 Lifecycle?

L'impostazione e l'applicazione di policy sul ciclo di vita non prevedono alcun costo. Vengono fatturate le richieste di transizione per ogni oggetto quando un oggetto diviene idoneo al trasferimento in base alla regola del ciclo di vita. Per informazioni sui costi, consulta la pagina dei prezzi di Amazon S3.

D: Qual è il vantaggio di usare una policy di S3 Lifecycle per determinare la scadenza dei caricamenti in più parti non completati?

Una policy sul ciclo di vita di S3 che consente di determinare la scadenza dei caricamenti in più parti non completati permette di risparmiare sui costi limitando la durata di conservazione massima dei dati di tali caricamenti. Ad esempio, se l'applicazione in uso carica diverse porzioni di un oggetto diviso in più parti ma non ne esegue il commit, i costi di storage relativi a tali porzioni inutilizzate verranno comunque addebitati. Questa policy consente di ridurre le spese per lo storage S3 rimuovendo automaticamente i caricamenti in più parti non completati e lo storage a essi correlato dopo un numero di giorni predefinito.

Ulteriori informazioni su come usare la gestione del ciclo di vita di S3 per la scadenza di caricamenti in più parti non completati »

D: Si possono impostare notifiche degli eventi di Amazon S3 per inviare avvisi quando il ciclo di vita di S3 dispone transizioni o la scadenza di oggetti?

Sì, puoi impostare notifiche degli eventi di Amazon S3 in modo da ricevere avvisi quando il ciclo di vita di S3 dispone transizioni o la scadenza di oggetti. Ad esempio, puoi inviare notifiche degli eventi di S3 a un argomento Amazon SNS, a una coda Amazon SQS o a una funzione AWS Lambda quando il ciclo di vita di S3 sposta gli oggetti in una classe di archiviazione S3 diversa o ne dispone la scadenza.

Informazioni dettagliate e analisi sull'archiviazione

D: Quali caratteristiche sono disponibili per analizzare l'utilizzo dell'archiviazione su Amazon S3?

S3 Storage Lens offre visibilità a livello di organizzazione dell'utilizzo e delle tendenze delle attività di archiviazione di oggetti e offre consigli sulle azioni da intraprendere per ottimizzare i costi e applicare best practice di protezione dei dati. S3 Storage Class Analysis ti consente di monitorare modelli di accesso negli oggetti per aiutarti a decidere quando trasferire i dati nella classe di archiviazione corretta per ottimizzare i costi. Puoi quindi utilizzare queste informazioni per configurare una policy del ciclo di vita S3 che effettui il trasferimento di dati. Amazon S3 Inventory fornisce un report degli oggetti e dei metadati corrispondenti su base giornaliera o settimanale per un prefisso o un bucket S3. Si può utilizzare questo report anche per soddisfare esigenze aziendali e di conformità alle normative verificando lo stato della crittografia e di replica degli oggetti.

D: Cos'è Amazon S3 Storage Lens?

Amazon S3 Storage Lens fornisce visibilità a livello di organizzazione dell'utilizzo e delle tendenze delle attività di archiviazione di oggetti e offre consigli sulle azioni da intraprendere per ottimizzare i costi e applicare best practice di protezione dei dati. Storage Lens offre un pannello di controllo interattivo che contiene un'unica vista dell'utilizzo e dell'attività di archiviazione di oggetti in decine o centinaia di account dell'organizzazione, con l'esecuzione del drill-down per generare informazioni a livello di più aggregazioni. Ciò include parametri come byte, conteggi di oggetti e richieste, nonché parametri con dettagli sull'utilizzo delle caratteristiche di S3, come conteggi di oggetti crittografati e conteggi di regole del ciclo di vita S3. S3 Storage Lens fornisce anche consigli contestuali per ridurre i costi di archiviazione e applicare best practice sulla protezione di dati in decine o centinaia di account e bucket. Per impostazione predefinita, i parametri gratuiti di S3 Storage Lens sono abilitati per tutti gli utenti di Amazon S3. Per sfruttare al meglio S3 Storage Lens, puoi attivare parametri e consigli avanzati. Ulteriori informazioni sono disponibili nella guida per l'utente di S3 Storage Lens.

D: Come funziona S3 Storage Lens?

S3 Storage Lens aggrega i parametri di utilizzo e di attività dell'archiviazione su base giornaliera in modo da renderli visibili nel pannello di controllo interattivo di S3 Storage Lens o poterli esportare in formato CSV o Parquet. Viene creato automaticamente un pannello di controllo predefinito a livello di account affinché tu possa creare pannelli di controllo personalizzati aggiuntivi. I pannelli di controllo S3 Storage Lens possono riguardare l'organizzazione AWS o account specifici, regioni, bucket o perfino il livello di prefisso (disponibile con i parametri avanzati di S3 Storage Lens). Puoi anche utilizzare i gruppi S3 Storage Lens per aggregare le metriche utilizzando filtri personalizzati basati sui metadati degli oggetti come tag, dimensioni ed età dell'oggetto. Durante la creazione del pannello di controllo, puoi utilizzare la selezione di parametri predefinita o eseguire l'aggiornamento per ricevere 35 parametri aggiuntivi e aggregazioni a livello di prefisso a un costo aggiuntivo. Inoltre, S3 Storage Lens fornisce consigli contestualmente ai parametri di archiviazione nel pannello di controllo, in modo da poter ottimizzare lo storage in base ai parametri.

D: Quali sono le domande chiave cui è possibile rispondere usando i parametri di S3 Storage Lens?

Il pannello di controllo di S3 Storage Lens è organizzato attorno a quattro tipi principali di domande sull'archiviazione cui è possibile rispondere. Con il filtro Summary (Riepilogo), puoi scoprire le principali domande correlate all'utilizzo e alle tendenze delle attività di archiviazione complessivi. Ad esempio, "Quanto rapidamente il mio conteggio complessivo dei byte e delle richieste aumenta nel tempo?" Con il filtro Cost Optimization (Ottimizzazione dei costi), puoi scoprire le domande correlate alla riduzione dei costi di archiviazione, ad esempio, "Posso risparmiare denaro mantenendo un numero minore di versioni non correnti?" Con i filtri Data Protection (Protezione dati) e Access Management (Gestione degli accessi) puoi rispondere a domande sulla protezione dei dati, ad esempio "La mia archiviazione è protetta dall'eliminazione accidentale o intenzionale?" Infine, con i filtri Performance (Prestazioni) ed Events (Eventi) puoi scoprire come migliorare le prestazioni dei flussi di lavoro. Ciascuna di queste domande rappresenta un primo livello di indagine che con elevata probabilità conduce ad analisi dettagliate.

D: Quali parametri sono disponibili in S3 Storage Lens?

S3 Storage Lens contiene oltre 60 parametri, raggruppati in parametri gratuiti e avanzati (disponibili a un costo aggiuntivo). All'interno dei parametri gratuiti, alcuni vengono impiegati per analizzare l'utilizzo (in base a uno snapshot giornaliero degli oggetti), questi sono organizzati nelle categorie di ottimizzazione dei costi, protezione dei dati, gestione degli accessi, prestazioni ed eventi. All'interno dei parametri avanzati, puoi riceverne alcuni correlati all'attività (come i numeri di richieste), all'ottimizzazione di costi (come il numero di regole del ciclo di vita S3), alla protezione dei dati aggiuntiva (come il numero di regole di S3 Replication) e ai codici di stato dettagliati (come gli errori di autorizzazione 403). Inoltre, vengono forniti parametri derivati mediante la combinazione di qualsiasi parametro di base. Ad esempio, il parametro "Velocità di recupero" viene calcolato dividendo i parametri "conteggio dei byte scaricati" per "archiviazione totale". Per visualizzare l'elenco completo dei parametri, visita la pagina della documentazione di S3 Storage Lens.

D: Quali sono le opzioni di configurazione disponibili nel pannello di controllo?

Viene configurato automaticamente un pannello di controllo predefinito per l'intero account affinché tu possa creare pannelli di controllo personalizzati aggiuntivi con ambito di organizzazione AWS, regioni specifiche o bucket all'interno di un account. Puoi configurare più pannelli di controllo personalizzati, che possono essere utili in caso fosse necessaria una separazione logica nell'analisi dell'archiviazione, come la segmentazione sui bucket per rappresentare vari team interni. Per impostazione predefinita, verranno inviati i parametri gratuiti di S3 Storage Lens nel pannello di controllo, ma puoi effettuare l'upgrade per ricevere i parametri avanzati e i consigli di S3 Storage Lens (a un costo aggiuntivo). I parametri avanzati di S3 Storage Lens presentano 7 opzioni distinte: parametri delle attività, parametri di ottimizzazione dei costi avanzata, parametri di protezione dati avanzata, parametri del codice di stato dettagliato, pubblicazione Cloudwatch e aggregazione dei gruppi di Storage Lens. Inoltre, per ciascun pannello di controllo puoi abilitare l'esportazione dei parametri, con la possibilità di specificare anche il bucket di destinazione e il tipo di crittografia.

D: Quanti dati cronologici sono disponibili in S3 Storage Lens?

Per i parametri visualizzati nel pannello di controllo interattivo, Storage Lens mantiene per 14 giorni i dati cronologici per i parametri gratuiti e per 15 mesi i parametri avanzati (a un costo aggiuntivo). Per l'esportazione dei parametri facoltativa, è possibile configurare qualsiasi periodo di conservazione desiderato e verranno applicati i costi di archiviazione standard di S3.

D: Quali sono i costi per l'uso di S3 Storage Lens?

S3 Storage Lens è disponibile in due livelli di parametri. I parametri gratuiti sono abilitati per impostazione predefinita e sono disponibili senza costi aggiuntivi a tutti i consumatori di S3. I dettagli sui prezzi dei parametri avanzati e dei suggerimenti di S3 Storage Lens sono disponibili alla pagina dei prezzi di S3. Con i parametri gratuiti di S3 Storage Lens si ricevono 28 parametri a livello di bucket ed è possibile accedere per 14 giorni ai dati cronologici nel pannello di controllo. Con i parametri avanzati e i suggerimenti di S3 Storage Lens si ricevono 35 parametri aggiuntivi, aggregazione a livello di prefisso, supporto per parametri CloudWatch e filtro dei metadati di oggetti personalizzati con gruppi di S3 Storage Lens ed è possibile accedere a 15 mesi di dati storici nel pannello di controllo.

D: Qual è la differenza tra S3 Storage Lens e S3 Inventory?

S3 Inventory fornisce un elenco di oggetti e i rispettivi metadati corrispondenti per un bucket S3 o un prefisso condiviso, che può essere utilizzato per eseguire l'analisi a livello di oggetti dell'archiviazione. S3 Storage Lens fornisce parametri che possono essere aggregati a livello di organizzazione, account, regione, classe di archiviazione, bucket, prefisso e gruppi di S3 Storage Lens, che consentono una visibilità migliore dell'archiviazione a livello di organizzazione.

D: Qual è la differenza tra S3 Storage Lens e S3 Storage Class Analysis (SCA)?

S3 Storage Class Analysis fornisce consigli per una classe di storage ottimale, creando gruppi di età degli oggetti in base ai modelli di accesso a livello di oggetto all'interno di un singolo bucket/prefix/tag per i 30-90 giorni precedenti. S3 Storage Lens fornisce suggerimenti quotidiani a livello di organizzazione sui modi per migliorare l'efficienza in termini di costi e applicare le best practice di protezione dei dati, con ulteriori suggerimenti dettagliati per account, regione, classe di archiviazione, bucket, gruppo di S3 Storage Lens o prefisso (disponibili con i parametri avanzati di S3 Storage Lens). Puoi anche utilizzare filtri personalizzati con i gruppi di S3 Storage Lens per visualizzare lo spazio di archiviazione in base all'età degli oggetti e definire la strategia di archiviazione dello storage.

Storage Class Analysis

D: Cos'è Storage Class Analysis?

Con Storage Class Analysis è possibile analizzare i modelli di accesso allo storage per determinare la classe di storage ottimale per le proprie esigenze. Questa funzionalità di S3 rileva automaticamente la frequenza di accesso ai dati per facilitarne il trasferimento nella classe S3 Standard-IA. È possibile configurare una policy per monitorare l'intero bucket, un prefisso o il tag di un oggetto. Quando viene individuato un modello di accesso infrequente, è possibile creare un'apposita policy di S3 Lifecycle. Questa funzione fornisce inoltre visualizzazioni giornaliere sull'uso dello storage nella console di gestione AWS ed è inoltre possibile abilitare un report di esportazione in un bucket S3 per analisi di business intelligence, ad esempio con Amazon QuickSight.

Scopri di più e comincia a usare il servizio consultando la guida per l'utente di S3 Storage Class Analysis.

D: Con quale frequenza viene aggiornato Storage Class Analysis?

Storage Class Analysis viene aggiornato quotidianamente nella console di gestione S3, ma i primi consigli per la transizione delle classi di storage vengono presentati dopo 30 giorni.

Query in Place

D: cos'è la funzione "Query in Place" (applicazione di query)?

Amazon S3 permette ai clienti di eseguire query sofisticate sui dati memorizzati senza doverli trasferire in piattaforme di analisi separate. La possibilità di applicare query su questi set di dati in Amazon S3 permette di migliorare in modo significativo le prestazioni e ridurre di conseguenza i costi per le soluzioni di analisi che sfruttano S3 come data lake. S3 offre diverse opzioni di query in loco, incluse Amazon Athena e Amazon Redshift Spectrum, ognuna con caratteristiche diverse per casi d'uso differenti.

D: Come posso interrogare i miei dati in Amazon S3?

Esistono diversi modi per interrogare i dati in S3 tra cui scegliere a seconda del caso d'uso specifico. Utilizza il filtro lato client per scaricare un oggetto Amazon S3 sul calcolo AWS e filtra i contenuti utilizzando le librerie di analisi dei dati sull'applicazione client. Ad esempio, in un'applicazione Python che interroga oggetti Parquet in Amazon S3, l'API GET di Amazon S3 viene utilizzata per scaricare l'oggetto e filtrare i contenuti utilizzando la libreria “Pandas”. Utilizza Amazon Athena per elaborare più oggetti S3 in una singola query oppure utilizza le operazioni di join e le funzioni finestra per interrogare gli oggetti S3. Utilizza Lambda per oggetti S3 aggiungendo il codice alle richieste S3 GET per filtrare i dati quando vengono restituiti a un'applicazione. Utilizza Lambda per oggetti S3 per aggiungere trasformazioni durante il filtraggio dei dati.

Leggi il post del sui metodi per interrogare i dati in Amazon S3.

D: Che cos'è Amazon Athena?

Amazon Athena è un servizio di query interattivo che semplifica l'analisi dei dati in Amazon S3 tramite query SQL standard. Athena è serverless, per cui non c'è un'infrastruttura da installare o gestire ed è quindi possibile iniziare immediatamente ad analizzare i dati. Non è neppure necessario caricare i dati in Athena poiché funziona direttamente con i dati archiviati in qualsiasi classe di S3. Per iniziare è sufficiente accedere alla console di gestione di Athena, definire gli schemi e cominciare a eseguire le query. Amazon Athena usa Presto con il supporto SQL standard completo e funziona con numerosi formati standard di dati, tra cui CSV, JSON, ORC, Apache Parquet e Avro. Athena è ideale per creare velocemente query ad hoc e, grazie all'integrazione con Amazon QuickSight, consente di ottenere visualizzazioni semplificate, ma è anche in grado di gestire analisi complesse, inclusi join di grandi dimensioni, funzioni finestra e array.

D: Cos'è Amazon Redshift Spectrum?

Amazon Redshift Spectrum è una caratteristica di Amazon Redshift che permette di eseguire query su exabyte di dati non strutturati in Amazon S3 senza caricamento o ETL richiesto. Quando viene inoltrata, la query raggiunge l'endpoint SQL di Amazon Redshift, il quale genera e ottimizza un piano di query. Amazon Redshift determinerà quindi quali dati si trovano in locale e quali in Amazon S3, genererà un piano per ridurre al minimo i dati che è necessario leggere in Amazon S3 e richiederà a specifiche risorse condivise di un pool di Amazon Redshift Spectrum la lettura e l'elaborazione dei dati da Amazon S3.

Redshift Spectrum, se necessario, aumenterà orizzontalmente migliaia di istanze, perciò le query saranno rapide indipendentemente dalle dimensioni. Inoltre, è possibile utilizzare lo stesso SQL per i dati Amazon S3 che utilizzi oggi per le query Amazon Redshift e connetterti allo stesso endpoint Amazon Redshift utilizzando gli stessi strumenti di business intelligence Redshift Spectrum permette di separare le funzioni di archiviazione e di calcolo, perciò è possibile dimensionarne le risorse separatamente. È possibile impostare tutti i cluster Amazon Redshift necessari per interrogare i data lake Amazon S3 fornendo disponibilità elevata ed esecuzioni simultanee illimitate. Redshift Spectrum offre la libertà di archiviare i dati dove è più conveniente e nel formato desiderato e al contempo di averli sempre a disposizione per poterli elaborare.

Replica

D: Cos'è la Replica Amazon S3?

La Replica di Amazon S3 permette di copiare in modo automatico e asincrono gli oggetti nei bucket di Amazon S3. I bucket configurati per la replica di oggetti possono appartenere allo stesso account AWS o ad account differenti. È possibile replicare i nuovi oggetti scritti nel bucket a uno o più bucket di destinazione tra diverse regioni AWS (S3 Replica tra regioni), o all'interno della stessa regione AWS (S3 Replica stessa regione). Puoi anche replicare il contenuto del bucket esistente (S3 Batch Replication), compresi gli oggetti esistenti, gli oggetti che precedentemente non sono riusciti a replicarsi e gli oggetti replicati da un'altra fonte. Ulteriori informazioni sono disponibili nella guida per l'utente di S3 Replication.

D: Cos'è Amazon S3 Cross-Region Replication (CRR)

CRR è una funzionalità di Amazon S3 che consente di replicare automaticamente i dati tra bucket in più regioni AWS. Con CRR, è possibile configurare una replica a livello di bucket, un livello di prefisso condiviso o un livello di oggetto utilizzando i tag dell'oggetto S3. CRR può essere impiegato per fornire accesso a latenza ridotta in aree geografiche differenti. Inoltre, CRR può risultare utile per soddisfare requisiti di conformità che richiedono di salvare copie dei propri dati a migliaia di chilometri di distanza. È possibile usare CRR per modificare la proprietà degli account per gli oggetti replicati così da proteggere i dati da eliminazioni accidentali. Per ulteriori informazioni, consulta la guida per l'utente di S3 CRR.

D: Cos'è Amazon S3 Same-Region Replication (SRR)?

SRR è una funzionalità di Amazon S3 che consente di replicare automaticamente i dati tra bucket nella stessa regione AWS. Con SRR, puoi configurare una replica a livello di bucket, di prefisso condiviso o di oggetto utilizzando i tag di oggetti S3. Puoi utilizzare SRR per creare una o più copie dei dati all'interno della stessa regione AWS. SRR ti aiuta a soddisfare i requisiti di sovranità e conformità dei dati mantenendo una copia dei dati in un account AWS separato all'interno della stessa regione dell'originale. È possibile utilizzare SRR per modificare la proprietà degli account per gli oggetti replicati così da proteggere i dati da eliminazioni accidentali. Puoi anche usare SRR per aggregare in modo semplice i log di diversi bucket S3 per l'elaborazione in-regione o di configurare la replicazione in tempo reale tra ambienti di test e di sviluppo. Per ulteriori informazioni, consulta la guida per l'utente di S3 SRR.

D: Cos'è Amazon S3 Batch Replication?

Amazon S3 Batch Replication replica oggetti esistenti tra bucket. Puoi utilizzare S3 Batch Replication per riempire i bucket appena creati con oggetti esistenti, riprovare gli oggetti che non era stato possibile replicare, migrare i dati tra account o aggiungere nuovi bucket a un data lake. Puoi iniziare con S3 Batch Replication con pochi clic nella console S3 o con una semplice richiesta API. Per scoprire di più visita la guida per l’utente S3 Batch Replication.

D: Come si abilita Amazon S3 Replication (Cross-Region Replication e Same-Region Replication)?

La funzionalità di Replica Amazon S3 (replica in più regioni e replica nella stessa regione) può essere configurata a livello di bucket, un livello di prefisso condiviso o un livello di oggetto utilizzando i tag dell'oggetto S3. Per configurare una replica in un bucket sorgente, è necessario specificare un bucket di destinazione per la replica nella stessa Regione o in una Regione AWS differente.

Puoi utilizzare la console di S3, l'API, AWS CLI, gli SDK AWS o AWS CloudFormation per abilitare una replica. Per abilitare la replica, la funzione di controllo delle versioni deve essere attivata sia per i bucket di origine sia per quelli di destinazione. Per ulteriori informazioni, consulta la panoramica della configurazione di replica S3 nella documentazione di Amazon S3.

D: Come posso utilizzare la replica batch S3?

Dovresti prima abilitare la replica S3 a livello del bucket. Consulta la domanda precedente per capire come fare. Quindi puoi avviare un lavoro S3 Batch Replication nella console S3 dopo aver creato una nuova configurazione di replica, cambiando una destinazione di replica in una regola di replica dalla pagina di configurazione della replica, o dalla pagina S3 operazioni in batch crea lavoro. In alternativa, puoi avviare un processo di replica batch S3 tramite la CLI o gli SDK AWS. Per ulteriori informazioni, consulta Replica S3 nella documentazione di Amazon S3.

D: Posso utilizzare la Replica S3 con le regole sul ciclo di vita di S3?

Con la Replica di S3, è possibile stabilire regole di replica per creare delle copie dei tuoi oggetti all'interno di un'altra classe di archiviazione, nella stessa regione o in una regione differente. Le azioni relative al ciclo di vita non vengono replicate; se desideri applicare le stesse configurazioni sul ciclo di vita al bucket sorgente così come al bucket di destinazione, basterà attivare la stessa configurazione su entrambi. 

Ad esempio, una regola del ciclo di vita può stabilire la migrazione dei dati dalla classe di archiviazione S3 Standard alle classi S3 Standard-IA o S3 One Zone-IA oppure l'archiviazione in una classe S3 Glacier nel bucket di destinazione.

Se hai configurato S3 Lifecycle per il tuo bucket di destinazione, ti consigliamo di disabilitare le regole del ciclo di vita mentre il processo di replica batch è attivo per mantenere la parità tra le versioni non correnti e correnti degli oggetti nei bucket di origine e di destinazione.

Per ulteriori informazioni sulla configurazione del ciclo di vita e la replica, consulta la
documentazione di Replica S3.

D: Posso utilizzare la Replica S3 per replicare più di un bucket di destinazione?

Sì. La Replica di S3 consente ai clienti di replicare i dati in più bucket di destinazione nelle stesse regioni o in regioni AWS diverse. In fase di impostazione, specifica semplicemente il nuovo bucket di destinazione nella configurazione della replica o creane una nuova con più bucket di destinazione. Per ogni nuova destinazione specificata, puoi scegliere la classe di archiviazione del bucket di destinazione, il tipo di crittografia, i parametri di replica e notifiche, il Controllo del tempo di replica e altre proprietà.

D: Posso utilizzare la Replica di S3 per impostare la replica bidirezionale tra bucket S3?

Sì. Per impostare la replicazione bidirezionale, crea una regola di replicazione dal bucket A al bucket B e configurane un'altra dal bucket B al bucket A. Assicurati di abilitare la sincronizzazione delle modifiche della replicazione su entrambi i bucket A e B per replicare le modifiche ai metadati di replica, come liste di controllo accessi (ACL), tag di oggetti o blocchi degli oggetti sugli oggetti replicati.

D: È possibile usare la replicazione su diversi account AWS per una maggiore protezione da eliminazioni accidentali o dolose?

Sì, è possibile impostare la replica in più regioni e nella stessa regione su diversi account AWS per archiviare i dati replicati in un account differente nella regione di destinazione. È possibile sovrascrivere le impostazioni di proprietà nella configurazione della replicazione per mantenere stack di proprietà distinti tra origine e destinazione e assegnare la proprietà dello storage replicato all'account di destinazione.

D: È prevista la replicazione dei tag di oggetti quando si usa Cross-Region Replication?

I tag di oggetti possono essere replicati in diverse regioni AWS utilizzando la funzionalità di replica in più regioni. Per i clienti già abilitati alla replica in più Regioni, sono necessari nuovi permessi per la replica dei tag. Per ulteriori informazioni sulla configurazione della replica in più Regioni, consulta la sezione Configurazione della replica in più regioni nella documentazione di Amazon S3.

D: Posso replicare i contrassegni di eliminazione da un bucket a un altro?

Sì, puoi replicare i contrassegni di eliminazione dall'origine alla destinazione se hai attivato la replica dei contrassegni di eliminazione nella configurazione di replica. Quando replichi i contrassegni di eliminazione, Amazon S3 si comporta come se l'oggetto fosse stato eliminato in entrambi i bucket. Puoi attivare la replica dei contrassegni di eliminazione per una regola di replica nuova o esistente. Puoi applicare la replica dei contrassegni di eliminazione all'interno bucket o agli oggetti Amazon S3 che hanno un prefisso specifico utilizzando regole di replica basate sui prefissi. La Replica di Amazon S3 non supporta la replica del contrassegno di eliminazione per le regole di replica basate su tag degli oggetti. Per ulteriori informazioni sull'attivazione della replica dei contrassegni di eliminazione, consulta Replica dei contrassegni di eliminazione da un bucket a un altro.

D: È possibile replicare i dati da altre regioni AWS alla Cina? È possibile replicare da un bucket in una regione Cina verso altre regioni?

No, la Replica di Amazon S3 non è disponibile tra le regioni AWS Cina e le regioni AWS diverse dalla Cina. È possibile replicare soltanto all'interno delle regioni Cina.

D: Posso replicare oggetti esistenti?

Sì. Puoi utilizzare S3 Batch Replication per replicare oggetti esistenti tra bucket. Per ulteriori informazioni, consulta la guida per l'utente di S3.

D: Posso ri-provare una replica se un oggetto non riesce a replicare inizialmente?

Sì. Puoi utilizzare S3 Batch Replication per ri-replicare oggetti che non riescono a replicare inizialmente. Per ulteriori informazioni, consulta la guida per l'utente di S3.

D: Quali tipi di crittografia supporta la replica di S3?

La replica di S3 supporta tutti i tipi di crittografia offerti da S3. S3 offre sia la crittografia lato server sia quella lato client. La prima richiede a S3 di crittografare gli oggetti per conto dell'utente, mentre la seconda consente all'utente di crittografare i dati lato client prima di caricarli su S3. Per la crittografia lato server, S3 offre le seguenti soluzioni: chiavi gestite di Amazon S3 (SSE-S3), chiavi KMS archiviate nel Servizio di gestione delle chiavi AWS (SSE-KMS) e chiavi fornite dal cliente (SSE-C). Per maggiori dettagli sui tipi di crittografia elencati e sul loro funzionamento, consulta la documentazione di S3 sull'uso della crittografia.

D: Quanto costa la replica dei dati tra account diversi?

In S3 Replication puoi configurare la replica di account incrociati dove i bucket sorgente e i bucket di destinazione sono detenuti da account AWS differenti. Escludendo l'archiviazione S3 e le tariffe di recupero applicabili, i clienti pagano per le richieste PUT di replica e il trasferimento dati tra Regioni IN USCITA da S3 alla Regione di destinazione quando utilizzano la Replica S3. Se disponi di S3 Replication Time Control (S3 RTC) abilitato sulle regole di replica, vedrai un trasferimento dati IN USCITA diverso e l'addebito della richiesta PUT di replica specifico per S3 RTC. Per la replica di account incrociati l'account fonte paga per tutti i trasferimenti di dati (S3 RTC e S3 CRR) e l'account di destinazione paga per la replica delle richieste PUT. Gli addebiti per il trasferimento dei dati si applicano solo a S3 Cross Region Replication (S3 CRR) e S3 Replication Time Control (S3 RTC), non ci sono addebiti per il trasferimento dei dati per S3 Same Region Replication (S3 SRR). 

Se stai usando S3 Batch Replication per replicare gli oggetti tra gli account, dovrai sostenere i costi di Operazioni in batch S3, oltre alle richieste PUT di replica e ai costi di Data Transfer OUT (nota che S3 RTC non è applicabile a Batch Replication). Gli addebiti per le operazioni batch includono gli addebiti per i lavori e per gli oggetti, che si basano rispettivamente sul numero di lavori e sul numero di oggetti elaborati. Inoltre, se si opta per il manifesto generato da Amazon S3, si incorrerà in un costo del manifesto basato sul numero di oggetti nel bucket di origine.

Visita la
pagina dei prezzi di Amazon S3 per ulteriori dettagli sui prezzi di Replica S3.

Controllo del tempo di replica di S3

D: Cos'è Amazon S3 Replication Time Control?

La funzionalità di controllo del tempo di replica di Amazon S3 offre prestazioni di replica prevedibili e consente di rispettare i requisiti di conformità o aziendali. Il controllo del tempo di replica di S3 è pensato per replicare la maggior parte degli oggetti in pochi secondi e il 99,99% degli oggetti in 15 minuti. La funzionalità di controllo del tempo di replica di S3 è coperta da un Contratto sul livello di servizio (SLA), secondo il quale il 99,9% degli oggetti verrà replicato in 15 minuti per ciascuna coppia di regioni di replica durante qualsiasi mese di fatturazione. Il tempo di replica funziona con tutte le altre funzionalità della Replica S3. Per ulteriori informazioni, consulta la documentazione relativa alla replica.

D: Come si attiva il controllo del tempo di replica Amazon S3?

È possibile attivare la funzionalità di Controllo del tempo di replica di Amazon S3 per ogni regola di replica. È possibile creare una nuova policy di Replica di S3 con la funzionalità di Controllo del tempo di replica di S3; oppure, puoi attivare la funzionalità su una policy esistente. Per configurare la replica è possibile utilizzare la console S3, l'API, AWS CLI, gli SDK AWS o AWS CloudFormation. Per ulteriori informazioni, consulta la panoramica della configurazione della replica nella Guida per gli sviluppatori di Amazon S3.

D: È possibile utilizzare il controllo del tempo di replica di Amazon S3 per replicare i dati entro e tra le regioni della Cina?

Sì, è possibile abilitare il controllo del tempo di replica di Amazon S3 per la replica dei dati entro e tra le regioni AWS Cina (Ningxia) e Cina (Pechino).

D: Che cosa sono i parametri e gli eventi di Replica Amazon S3?

Replica Amazon S3 fornisce quattro parametri dettagliati nella console Amazon S3 e in Amazon CloudWatch: operazioni in sospeso, byte in sospeso, latenza di replica e replica delle operazioni non riuscita. È possibile utilizzare questi parametri per monitorare il numero totale di operazioni e le dimensioni degli oggetti in attesa di replica, la latenza di replica tra i bucket di origine e destinazione e il numero di operazioni che non sono state replicate correttamente per ogni regola di replica. Inoltre, puoi configurare le notifiche di eventi di Amazon S3 di tipo s3:Replication per ottenere maggiori informazioni sugli oggetti che non sono stati replicati e sul motivo degli errori. Consigliamo di utilizzare i motivi degli errori di Replica Amazon S3 per diagnosticare rapidamente gli errori e correggerli prima di replicare nuovamente gli oggetti danneggiati con S3 Batch Replication. Infine, se hai attivato il controllo del tempo di replica di S3 (S3 RTC), riceverai una notifica di evento S3 nel caso in cui un oggetto richiede più di 15 minuti per essere replicato, così come nel caso in cui l'oggetto viene replicato con successo nella destinazione.

D: Come si attivano i parametri e gli eventi di Replica Amazon S3?

I parametri e gli eventi di Replica Amazon S3 possono essere attivati per regole di replica nuove o esistenti e sono abilitati per impostazione predefinita per le regole del Controllo del tempo di replica di Amazon S3 attivate. I parametri della replica di S3 sono accessibili dalla console di Amazon S3 e da Amazon CloudWatch. Così come per gli altri eventi di Amazon S3, gli eventi di Replica S3 sono disponibili su Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS) o AWS Lambda. Per ulteriori informazioni, visita la pagina Monitoraggio dell'avanzamento con i parametri di replica e le notifiche di eventi Amazon S3 nella Guida per gli sviluppatori di Amazon S3.

D: Quali informazioni mostra il parametro relativo alla replica delle operazioni non riuscite?

Il parametro di replica delle operazioni non riuscite mostrerà il numero totale di operazioni che non riescono a replicare al minuto per una regola di replica specifica. Il parametro si aggiorna ogni minuto per emettere +1 per ogni operazione non riuscita, 0 per le operazioni riuscite e nulla quando non vengono eseguite operazioni di replica per il minuto. Questo parametro viene emesso ogni volta che un'operazione non viene replicata correttamente.

D: Posso utilizzare i parametri e gli eventi di Replica Amazon S3 per tracciare la replica in batch di S3?

Non è possibile utilizzare parametri come byte in sospeso, operazioni in sospeso e latenza di replica per tenere traccia dell'avanzamento della replica in batch S3. Tuttavia, è possibile utilizzare il parametro relativo alla replica fallita delle operazioni per monitorare gli oggetti esistenti che non vengono replicati correttamente con S3 Batch Replication. Inoltre, puoi anche utilizzare i report di completamento di S3 Batch Operations per tenere traccia degli oggetti che si replicano con S3 Batch Replication.

D: Dove vengono pubblicati i parametri di Replica Amazon S3?

I parametri relativi ai byte in sospeso, alle operazioni in sospeso e alla latenza di replica sono pubblicati nell'account AWS di origine e nella regione AWS di destinazione. Tuttavia, il parametro relativo alla replica delle operazioni non riuscite viene pubblicato nell'account AWS di origine e nella regione AWS di origine anziché nella regione AWS di destinazione. Ciò è dovuto principalmente a due motivi. Innanzitutto, se il parametro relativo alla replica non riuscita delle operazioni viene pubblicato nell'area di destinazione, il cliente non vedrà il parametro quando il bucket di destinazione è configurato erroneamente. Ad esempio, se il cliente ha digitato male il nome del bucket di destinazione nella configurazione di replica e la replica non ha esito positivo perché il bucket di destinazione non è stato trovato, il cliente non sarà in grado di visualizzare alcun valore per questo parametro perché la regione di destinazione sarà sconosciuta quando il bucket di destinazione non viene trovato. In secondo luogo, se il cliente esegue la replica in una regione di destinazione opzionale come Hong Kong o il Bahrein, in caso di errori di replica, il cliente non vedrà alcun parametro se l'account di origine non ha optato per la regione di destinazione.

D: Che cos'è il contratto sul livello di servizio (SLA) del controllo del tempo di Replica Amazon S3?

La funzionalità di Controllo del tempo di replica di Amazon S3 è pensata per replicare il 99,99% degli oggetti in 15 minuti ed è supportata da un accordo sul livello di servizio (SLA). Nel caso in cui venga replicata una quantità minore del 99,9% degli oggetti in 15 minuti per ciascuna coppia di Regioni di replica durante un ciclo mensile di fatturazione, lo SLA per il Controllo del tempo di replica di S3 garantisce un credito di servizio su qualsiasi oggetto per cui vengano impiegati più di 15 minuti per completarne la replica. Il credito di servizio copre una percentuale per tutte le commissioni collegate alla replica associate agli oggetti che non hanno rispettato lo SLA, incluse la commissione per il Controllo del tempo di replica, la larghezza di banda della replica e gli addebiti relativi alle richieste, così come i costi associati all'archiviazione della replica nella Regione di destinazione all'interno del ciclo mensile di fatturazione in cui si è verificato l'evento. Per ulteriori informazioni, consulta lo SLA di S3 Replication Time Control.

D: Qual è il costo di S3 Replication e S3 Replication Time Control?

Per i casi di replica di S3 (Cross-Region Replication e Same Region Replication), è previsto il pagamento per l'archiviazione di S3 relativa alle classi di archiviazione di S3 di destinazione selezionate, oltre al pagamento per la copia principale, le richieste della replica PUT e le commissioni applicabili per il recupero di archiviazione per accessi non frequenti. Per CRR, puoi anche pagare per il trasferimento dati tra regioni IN USCITA da S3 alla tua Regione di destinazione. I parametri di replica S3 vengono fatturati alla stessa tariffa dei parametri personalizzati di Amazon CloudWatch. Inoltre, per l'utilizzo del controllo del tempo di Replica S3, è previsto anche il pagamento di un costo di trasferimento dei dati. Per ulteriori informazioni, consulta la pagina dei prezzi di Amazon S3.

Se l'oggetto di origine viene caricato tramite la funzione di caricamento in più parti, la replica avviene con lo stesso numero di parti e ogni parte avrà le stesse dimensioni. Ad esempio, su un oggetto da 100 GB caricato tramite la caratteristica di caricamento in più parti (800 parti da 128 MB ciascuna) vengono applicati, in caso di replica, i costi di richiesta associati alle 802 richieste (800 richieste per il caricamento delle parti + 1 richiesta Initiate Multipart Upload + 1 richiesta Complete Multipart Upload). Saranno perciò addebitati 0,00401 USD (802 richieste * 0,005 USD ogni 1.000 richieste) e (se la replica avviene tra regioni AWS differenti) saranno addebitati 2 USD (0,020 USD per GB trasferito * 100 GB) per il trasferimento tra regioni. Dopo la replica, ai 100 GB di dati saranno applicate le tariffe di archiviazione previste dalla Regione di destinazione.

D: Come vengono addebitati i costi per i parametri di replica S3 su Amazon CloudWatch?

Tutti i parametri di replica S3, inclusi byte in sospeso, operazioni in sospeso, latenza di replica e replica non riuscita delle operazioni, vengono fatturati alla stessa tariffa dei parametri personalizzati di Amazon CloudWatch: 0,30 USD per parametro al mese per i primi 10.000 parametri, 0,10 USD per parametro al mese per i successivi 240.000 parametri, 0,05 USD per parametro al mese per i successivi 750.000 parametri e 0,02 USD per parametro al mese per i parametri successivi al mese per oltre 1 milione di parametri.

Ad esempio, se il tuo bucket S3 ha 100 regole di replica con i parametri di replica abilitati per ogni regola, verrà addebitato un costo mensile di Amazon CloudWatch per 400 parametri di replica (100 regole di replica x 4 parametri per regola di replica). La tariffa mensile ripartita proporzionale per questi 400 parametri sarà di 120 USD (400 parametri di replica x 0,30 USD per metrica per i primi 10.000 parametri). Per informazioni sulla fatturazione di Amazon CloudWatch, consulta la pagina dei prezzi di Amazon CloudWatch.

Punti di accesso multi-regione S3

D: Che cosa sono i Punti di accesso multi-regione S3?

I Punti di accesso multi-regione di Amazon S3 accelerano le prestazioni fino al 60% quando si accede a set di dati replicati in più regioni AWS. Basati su AWS Global Accelerator, i punti di accesso multi-regione S3 considerano fattori come la congestione della rete e la posizione dell'applicazione richiedente per instradare dinamicamente le richieste sulla rete AWS alla copia dei tuoi dati con la latenza inferiore. Questo instradamento automatico ti permette di sfruttare l'infrastruttura globale di AWS mantenendo un'architettura dell'applicazione semplice.

D: Quali sono i vantaggi dei punti di accesso multi-regione S3?

I Punti di accesso multi-regione S3 accelerano e semplificano l'archiviazione per le tue applicazioni multi-regione. Instradando dinamicamente le richieste S3 nei confronti di un set di dati replicato, i punti di accesso multi-regione S3 riducono la latenza delle richieste, aumentando la velocità delle applicazioni fino al 60%. I punti di accesso multi-regione S3 possono anche aiutarti a creare applicazioni resilienti, multi-regione e con più account che siano maggiormente protette dall'eliminazione accidentale o non autorizzata dei dati. Inoltre, potrai sfruttare al massimo l'infrastruttura globale di AWS mantenendo un'architettura semplice e indipendente dalle regioni per le tue applicazioni.

D: Come funzionano i punti di accesso multi-regione S3?

I Punti di accesso multi-regione smistano dinamicamente le richieste del client a uno o più bucket S3 sottostanti. È possibile configurare i tuoi punti di accesso multi-regione per il routing tra un bucket per Regione AWS, in oltre 17 Regioni AWS. S3 genera automaticamente un nome compatibile con il DNS al momento della creazione di un punto di accesso multi-regione. Questo nome viene utilizzato come endpoint globale che può essere utilizzato dai tuoi client. Quando i tuoi client effettuano una richiesta a questo endpoint, S3 instraderà dinamicamente le richieste a uno dei bucket sottostanti indicati nella configurazione del tuo Punto di accesso multi-regione. Le richieste basate su Internet vengono importate nella rete globale AWS per evitare di congestionare i segmenti di rete su Internet, il che permette di ridurre la latenza di rete e il jitter, migliorando al tempo stesso le prestazioni. Basate su AWS Global Accelerator, le applicazioni che accedono a S3 attraverso Internet possono beneficiare di un miglioramento delle prestazioni fino al 60% grazie ai Punti di accesso multi-regione S3.

Per controllare direttamente l'instradamento, puoi gestire i punti di accesso multi-regione S3 in una configurazione attiva-attiva o attiva-passiva. In una configurazione attiva-passiva, puoi utilizzare i controlli di failover dei punti di accesso multi-regione S3 per avviare un failover per deviare il traffico delle richieste di accesso ai dati S3 verso l’account e la Regione AWS alternativa prescelta nell'arco di pochi minuti.

In una configurazione attiva-attiva, i punti di accesso multi-regione S3 considerano fattori come la congestione della rete e la posizione dell'applicazione richiedente per instradare dinamicamente le richieste sulla rete AWS alla copia più vicina dei tuoi dati. I Punti di accesso multi-regione S3 instradano le richieste al client attraverso la posizione AWS più vicina e poi a S3 attraverso la rete AWS privata globale.

In entrambe le configurazioni, i Punti di accesso multi-regione S3 permettono di sfruttare l'infrastruttura globale di AWS mantenendo un'architettura dell'applicazione semplice.

D: Come funzionano i controlli di failover dei Punti di accesso multi-regione S3?

Per impostazione predefinita, i punti di accesso multi-regione S3 instradano le richieste al bucket sottostante più vicino al client, in base alla latenza di rete in una configurazione attiva-attiva. Ad esempio, è possibile configurare un Punto di accesso multi-regione con i bucket sottostanti nelle Regioni Stati Uniti orientali (Virginia settentrionale) e Asia Pacifico (Mumbai). Grazie a questa configurazione, i client in Nord America effettuano l'instradamento verso gli Stati Uniti orientali (Virginia settentrionale) e i client in Asia verso la Regione Asia Pacifico (Mumbai). La latenza ridotta per le richieste effettuate a S3 permette di migliorare le prestazioni dell'applicazione. Se preferisci una configurazione attiva-passiva, tutto il traffico delle richieste di dati S3 può essere instradato attraverso un Punto di accesso multi-regione S3 agli Stati Uniti orientali (Virginia settentrionale) come Regione attiva, senza alcun instradamento verso la Regione Asia Pacifico (Mumbai). In caso di necessità pianificata o imprevista di eseguire un failover di tutto il traffico delle richieste di dati S3 verso la Regione Asia Pacifico (Mumbai), è possibile avviare un failover per configurare Asia Pacifico (Mumbai) come nuova Regione attiva in pochi minuti. Gli eventuali upload o download in corso nella Regione Stati Uniti orientali (Virginia settentrionale) continueranno fino al completamento, mentre tutto il nuovo traffico delle richieste di dati S3 attraverso il punto di accesso multi-regione S3 verrà instradato verso Asia Pacifico (Mumbai).

D: I punti di accesso multi-regione S3 possono funzionare con bucket di proprietà di diversi account AWS?

Sì, puoi aggiungere bucket in più account AWS a un nuovo punto di accesso multi-regione S3 inserendo gli ID account che possiedono i bucket al momento della creazione. Se i bucket non sono già configurati per la replica tra account, puoi configurare le regole di replica interregionale S3 per sincronizzare il contenuto dei bucket tra account e regioni AWS. Le tue applicazioni saranno quindi in grado di richiedere o scrivere dati tramite l'endpoint globale del punto di accesso multi-regione tra account e regioni AWS.

D: Come funzionano le impostazioni di blocco dell'accesso pubblico per i punti di accesso multi-regione che si estendono su più account AWS?

Ogni punto di accesso multi-regione S3 ha impostazioni distinte per il blocco dell'accesso pubblico Amazon S3. Queste impostazioni funzionano insieme alle impostazioni di blocco dell'accesso pubblico per i bucket che sono alla base del punto di accesso multi-regione, alle impostazioni di blocco dell'accesso pubblico per gli account AWS che possiedono il punto di accesso multi-regione e alle impostazioni di blocco dell'accesso pubblico per gli account AWS che possiedono i bucket sottostanti.

Quando Amazon S3 autorizza una richiesta, applica la combinazione più restrittiva di queste impostazioni. Se le impostazioni di blocco dell'accesso pubblico per una di queste risorse (il punto di accesso multi-regione, il bucket sottostante, l'account del proprietario del punto di accesso multi-regione o l'account del proprietario del bucket) bloccano l'accesso all'azione o alla risorsa richiesta, Amazon S3 rifiuta la richiesta.

Questo comportamento è coerente con i punti di accesso S3 multi-account. La stessa logica di autorizzazione viene applicata quando vengono inviate richieste di punti di accesso S3 tra account e punti multi-regione S3 tra account.

D: Qual è la differenza tra la replica tra replica tra Regioni di S3 (S3 CRR) e punti di accesso multi-regione S3?

S3 CRR e i Punti di accesso multi-regione S3 sono funzionalità complementari che cooperano per replicare dati tra le Regioni AWS e per effettuare, successivamente, l'instradamento delle richieste verso la copia replicata con la latenza inferiore. I Punti di accesso multi-regione S3 aiutano a gestire le richieste tra Regioni AWS, mentre CRR consente di trasferire i dati tra Regioni AWS per creare repliche isolate. Puoi utilizzare i Punti di accesso multi-regione S3 e CRR insieme per creare un set di dati multi-regione replicato indirizzabile da un singolo endpoint globale.

D: Qual è il costo dei Punti di accesso multi-regione S3?

Quando utilizzi un punto di accesso multi-regione S3 per instradare richieste all'interno di AWS, paghi i costi per il routing di dati per ogni gigabyte (GB) elaborato, nonché i costi standard per richieste, archiviazione, trasferimento dati e replica di S3. Se un'applicazione viene eseguita al di fuori di AWS e accede a S3 via Internet, i punti di accesso multi-regione S3 aumentano le prestazioni instradando automaticamente le richieste attraverso una posizione edge AWS, tramite la rete AWS privata globale, alla copia dei dati più prossima in base alla latenza di accesso. Quando acceleri le richieste effettuate via Internet, paghi il costo per l'instradamento dei dati e un costo per l'accelerazione di Internet. I prezzi per l'accelerazione di Internet per i Punti di accesso multi-regione S3 variano a seconda che il client di origine si trovi nella stessa posizione o in una posizione diversa dalla Regione AWS di destinazione e sono aggiuntivi rispetto ai prezzi standard per il trasferimento di dati S3. Per utilizzare i controlli di failover dei Punti di accesso multi-regione S3, ti vengono addebitati esclusivamente i costi dell'API S3 standard per visualizzare lo stato dei controlli di instradamento attuali di ciascuna Regione e per apportare eventuali modifiche ai controlli di instradamento per l'avvio di un failover. Per ulteriori informazioni sui prezzi, consulta la pagina dei prezzi di Amazon S3 e la scheda del trasferimento dati.

D: Posso usare il pagamento a carico del richiedente con i punti di accesso multi-regione S3?

Sì, puoi configurare i bucket del punto di accesso multi-regione S3 come bucket con pagamento a carico del richiedente. Con questo tipo di pagamento, il richiedente paga tutti i costi associati all'utilizzo dell'endpoint, inclusi i costi per le richieste e i costi di trasferimento dei dati associati sia al bucket che al punto di accesso multi-regione. In genere, si desidera configurare i bucket come bucket con pagamento a carico del richiedente se si desidera condividere i dati ma non incorrere in costi associati all'accesso di altri utenti ai dati. In generale, i proprietari dei bucket pagano per tutto lo spazio di archiviazione Amazon S3 associato al bucket. Per saperne di più, visita Pagamento a carico del richiedente con S3.

D: Quali sono le differenze tra l'accelerazione del trasferimento S3 e i punti di accesso multi-regione S3?

I Punti di accesso multi-regione S3 e l'Accelerazione del trasferimento S3 offrono vantaggi simili in termini di prestazioni. Puoi utilizzare l'Accelerazione del trasferimento S3 per accelerare i trasferimenti di contenuti da e verso Amazon S3 sfruttando la rete globale AWS. L'Accelerazione del trasferimento S3 può accelerare i trasferimenti a lunga distanza di oggetti più grandi da e verso un singolo bucket Amazon S3. Con i Punti di accesso multi-regione S3, puoi eseguire trasferimenti accelerati simili utilizzando la rete globale AWS, ma su molti bucket S3 in più Regioni AWS per richieste basate su Internet, basate su VPC e on-premise da e verso S3. Combinando i Punti di accesso multi-regione S3 con la replica tra Regioni di S3, puoi consentire ai Punti di accesso multi-regione S3 di instradare dinamicamente le richieste verso la copia a latenza minore dei tuoi dati per le applicazioni dei client in più posizioni.

D: Come si iniziano a utilizzare i punti di accesso multi-regione e i controlli di failover S3?

La console S3 offre un flusso di lavoro guidato semplificato per impostare in modo rapido tutto l'occorrente per eseguire l'archiviazione multi-regione su S3 in tre semplici operazioni. Per prima cosa, è necessario creare un endpoint del punto di accesso multi-regione S3 e specificare le Regioni AWS tra cui eseguire la replica e il failover. Puoi aggiungere bucket in più account AWS a un nuovo punto di accesso multi-regione S3 inserendo gli ID di account che possiedono i bucket al momento della creazione. Quindi, per ogni Regione AWS e bucket S3 relativi all’endpoint del punto di accesso multi-regione S3, bisogna specificare se lo stato di instradamento è attivo o passivo, dove le Regioni AWS attive accettano il traffico delle richieste di dati S3 e se le Regioni passive non ricevono l'instradamento finché non viene avviato un failover. Infine, è necessario configurare le regole di replica tra Regioni S3 per sincronizzare i dati in S3 tra regioni e/o account. Potrai quindi avviare in pochi minuti e in qualsiasi momento un failover tra le Regioni AWS per trasferire le richieste di dati S3 e monitorare il trasferimento del traffico S3 verso la nuova Regione AWS attiva in Amazon CloudWatch. In alternativa, puoi utilizzare AWS CloudFormation per automatizzare la configurazione dell'archiviazione multi-regione. Tutti i blocchi di costruzione richiesti per la configurazione dell'archiviazione multi-regione su S3, compresi i Punti di accesso multi-regione S3, sono supportati da CloudFormation. Ciò ti consente di automatizzare un processo di configurazione replicabile al di fuori della console S3.

Elaborazione di dati

Object Lambda

D: Cos'è S3 Object Lambda?

S3 Object Lambda permette di aggiungere il codice alle richieste GET, LIST e HEAD S3 per modificare ed elaborare i dati come se fossero restituiti dall'applicazione. Puoi utilizzare il codice personalizzato per modificare i dati restituiti dalle richieste GET S3 per filtrare le righe, ridimensionare le immagini in modo dinamico, revisionare i dati confidenziali e molto altro. Puoi inoltre utilizzare S3 Object Lambda per modificare l’output delle richieste LIST S3, per creare una visualizzazione personalizzata dell’oggetto in un bucket, e delle richieste HEAD S3, per modificare i metadati dell’oggetto, come il nome e le dimensioni dell’oggetto. S3 Object Lambda ti aiuta a soddisfare facilmente i requisiti del formato dei dati univoci di qualsiasi applicazione senza costruire e mettere in funzione infrastrutture aggiuntive, ad esempio un livello proxy, o creare e mantenere copie derivate dei dati. S3 Object Lambda utilizza le funzioni di AWS Lambda per elaborare automaticamente l'output di una richiesta GET, LIST o HEAD S3 standard. AWS Lambda è un servizio di calcolo serverless che esegue un codice definito dal cliente senza la necessità di gestire risorse di calcolo sottostanti. 

Sono sufficienti pochi clic nella Console di gestione AWS per configurare una funzione Lambda e allegarla ad un punto di accesso del servizio S3 Object Lambda. In questo modo, S3 chiamerà la funzione Lambda automaticamente per elaborare qualsiasi dato recuperato attraverso l'endpoint di S3 Object Lambda, restituendo un risultato trasformato all'applicazione. Puoi creare ed eseguire le tue funzioni Lambda personalizzate, adattando la trasformazione dei dati di S3 Object Lambda al tuo specifico caso d'uso.

È possibile cominciare a usare S3 Object Lambda attraverso la console di gestione, l'SDK o l'API di S3. Ulteriori informazioni sono disponibili nella pagina di S3 Object Lambda, o nella guida per l'utente di S3 Object Lambda.

D: Qual è il vantaggio di utilizzare S3 Object Lambda?

Utilizza S3 Object Lambda se desideri elaborare dati in linea con una richiesta GET, LIST o HEAD S3. Puoi utilizzare S3 Object Lambda per condividere una copia singola dei dati tra più applicazioni, evitando la necessità di creare e rendere operativa un'infrastruttura di elaborazione personalizzata o archiviare le copie derivate dei dati. Ad esempio, utilizzando S3 Object Lambda per elaborare le richieste GET S3 puoi nascondere i dati sensibili secondo eventuali requisiti di conformità, ristrutturare i dati grezzi con l'obiettivo di renderli compatibili con le applicazioni di machine learning, filtrare i dati per restringere l'accesso a determinati contenuti all'interno di un oggetto S3 o soddisfare una vasta gamma di casi d'uso aggiuntivi. Puoi utilizzare S3 Object Lambda per arricchire i tuoi elenchi di oggetti interrogando un indice esterno che contiene metadati di oggetti aggiuntivi, filtrare e mascherare i tuoi elenchi di oggetti per includere solo oggetti con un tag oggetto specifico o aggiungere un'estensione di file a tutti i nomi di oggetti nei tuoi elenchi di oggetti. Ad esempio, se hai un bucket S3 con più set di dati discreti, puoi utilizzare S3 Object Lambda per filtrare una risposta S3 LIST a seconda del richiedente. 

È possibile configurare S3 Object Lambda in pochi clic nella Console di gestione di Amazon S3. Consulta la guida per l’utente per ulteriori informazioni.

D: Come funziona S3 Object Lambda?

S3 Object Lambda utilizza le funzioni Lambda da te specificate per elaborare l'output delle richieste GET, LIST e HEAD S3 standard. Dopo aver definito una funzione Lambda per l'elaborazione dei dati richiesti è possibile collegare tale funzione a un punto di accesso S3 Object Lambda. Le richieste GET, LIST e HEAD S3 standard eseguite tramite un punto di accesso S3 Object Lambda richiameranno ora la funzione Lambda specifica. Lambda effettuerà troverà quindi l'oggetto S3 richiesto dal client e lo elaborerà. Al termine dell'elaborazione, Lambda invierà l'oggetto elaborato al client che lo aveva chiamato. Per ulteriori informazioni su S3 Object Lambda consulta la guida per l'utente.

D: Come posso iniziare a usare S3 Object Lambda?

Ci sono diversi modi per configurare S3 Object Lambda. Una possibilità è configurarlo nella console S3 dalla scheda del punto di accesso di Object Lambda. Quindi crea un punto di accesso S3 Object Lambda, la funzione Lambda che vuoi che venga eseguita da S3 per le tue richieste GET, LIST e HEAD e un punto di accesso S3 di supporto. Concedi a tutte le risorse l'autorizzazione per interagire con Object Lambda. In ultima fase, aggiorna l'SDK e l'applicazione per utilizzare il nuovo punto di accesso S3 Object Lambda per recuperare dati da S3 utilizzando l'SDK del linguaggio scelto. Quando si effettuano richieste, è possibile utilizzare un alias del punto di accesso S3 Object Lambda. Gli alias per i punti di accesso S3 Object Lambda vengono generati automaticamente e sono intercambiabili con i nomi dei bucket S3 per i dati a cui si accede tramite S3 Object Lambda. Per i punti di accesso S3 Object Lambda esistenti, gli alias vengono assegnati automaticamente e sono pronti per l'uso. Nella documentazione AWS sono riportati esempi di implementazioni di funzioni Lambda che consentono di iniziare a lavorare.

Puoi utilizzare AWS CloudFormation anche per automatizzare la configurazione di S3 Object Lambda. Quando utilizzi il modello di AWS CloudFormation, la funzione Lambda che è implementata nel tuo account passerà gli oggetti S3 di nuovo al tuo client o applicazione per le richieste senza alcun cambiamento. Puoi aggiungere codice personalizzato per modificare ed elaborare i dati quando vengono restituiti dall'applicazione. Per ulteriori informazioni, consulta la Guida per l'utente di S3 Object Lambda. 

D: Quali operazioni è possibile eseguire con S3 Object Lambda?

Qualsiasi operazione supportata da una funzione Lambda lo è anche da S3 Object Lambda. Ciò offre una vasta gamma di opzioni disponibili per l'elaborazione delle richieste. È possibile fornire la propria funzione Lambda per eseguire calcoli personalizzati sulle richieste GET, LIST e HEAD, offrendo la possibilità per elaborare i dati secondo le esigenze dell'applicazione. Il tempo di elaborazione di Lambda è limitato a un massimo di 60 secondi. Per maggiori dettagli, consulta la documentazione di Lambda per oggetti S3.

D: Quali tipi di richiesta S3 supporta Lambda per oggetti S3?

S3 Object Lambda supporta le richieste GET, LIST e HEAD. Qualsiasi altra chiamata API S3 eseguita verso un punto di accesso S3 Object Lambda restituirà una risposta API S3 standard. Ulteriori informazioni S3 Object Lambda sono disponibili nella guida per l'utente.

D: Cosa succede quando una funzione S3 Object Lambda fallisce?

Quando una funzione S3 Object Lambda fallisce, riceverai una risposta alla richiesta dettagliata dell'errore. Allo stesso modo delle altre invocazioni delle funzioni Lambda, AWS monitora automaticamente le funzioni per tuo conto, generando report sui parametri attraverso Amazon CloudWatch. Per aiutarti a rilevare gli errori, Lambda registra tutte le richieste elaborate dalla funzione e archivia automaticamente i log generati dal codice con File di log Amazon CloudWatch. Per ulteriori informazioni sull'accesso ai log CloudWatch per AWS Lambda, consulta la documentazione di CloudWatch.

D: S3 Object Lambda influisce sullo SLA relativo alla disponibilità di S3 o sulla sua durabilità?

S3 Object Lambda connette Amazon S3, AWS Lambda e, volendo, altri servizi AWS da te selezionati per distribuire gli oggetti rilevanti alle applicazioni che li richiedono. Tutti i servizi AWS utilizzati in connessione con S3 Object Lambda continueranno a essere gestiti dai loro rispettivi SLA. Per esempio, nel caso in cui qualsiasi servizio AWS non rispetti l'impegno relativo alla percentuale di tempo di attività mensile, i clienti interessati dal disservizio avranno diritto a un credito sui servizi secondo quanto descritto nel contratto sul livello di servizio. La creazione di un punto di accesso di S3 Object Lambda non influisce sulla durabilità degli oggetti. Tuttavia, S3 Object Lambda invoca la funzione AWS Lambda da te specificata, quindi assicurati che sia quella corretta. Consulta l'SLA di Amazon S3 più recente qui.

D: Quando costa S3 Object Lambda?

L'utilizzo di S3 Object Lambda prevede una tariffa a GB per ogni gigabyte di dati restituiti attraverso S3 Object Lambda. Ti verranno addebitate anche le richieste in base al tipo di richiesta (richieste GET, LIST e HEAD) e agli addebiti di calcolo di AWS Lambda per il tempo in cui la funzione specificata è in esecuzione per elaborare i dati richiesti. Per ulteriori dettagli sui prezzi e per un esempio, consulta la pagina dei prezzi di S3.

Accesso ai dati

Mountpoint per Amazon S3

D: Cos'è Mountpoint per Amazon S3?

Mountpoint per Amazon S3 è un client di file open source che puoi usare per montare un bucket S3 sulla tua istanza di calcolo e accedervi come file system locale. Mountpoint per Amazon S3 traduce le operazioni del file system locale in chiamate REST API su oggetti archiviati in Amazon S3. Con Mountpoint per Amazon S3, puoi ottenere una velocità di trasmissione effettiva elevata a singola istanza per completare i lavori più velocemente. Mountpoint per Amazon S3 è supportato dal Supporto AWS. I clienti con accesso al Supporto AWS Enterprise ricevono supporto tecnico 24 ore su 24, 7 giorni su 7 dai tecnici del supporto di Amazon e indicazioni architetturali fornite nel contesto dei loro casi d'uso. Mountpoint per Amazon S3 funziona con il sistema operativo Linux e i servizi di elaborazione AWS come Amazon Elastic Compute Cloud (EC2). Scopri di più alla pagina Mountpoint per Amazon S3 o nella guida per l'utente.

D: Quando devo usare Mountpoint per Amazon S3?

Mountpoint per Amazon S3 è ideale per carichi di lavoro di data lake ad alta intensità di lettura che elaborano petabyte di dati utilizzando operazioni di lettura casuali e sequenziali su file esistenti e operazioni di scrittura sequenziali per la creazione di nuovi file. Questi carichi di lavoro scrivono da un singolo nodo e non modificano i dati esistenti in Amazon S3. I casi d'uso più comuni includono la simulazione di veicoli autonomi nell'ordine dei petabyte, la formazione sul machine learning, l'analisi genomica e il rendering di immagini. Questi carichi di lavoro aumentano e diminuiscono rapidamente e si basano sull'elasticità di Amazon S3 per ridurre al minimo la capacità sottoutilizzata ed evitare i costi di una velocità di trasmissione effettiva di provisioning in eccesso. Puoi risparmiare sui costi di elaborazione con Mountpoint per Amazon S3 utilizzando in modo efficiente la larghezza di banda della rete delle istanze di elaborazione e dimensionare in modo affidabile fino a migliaia di istanze di calcolo per carichi di lavoro di data lake nell'ordine dei petabyte.

D: Quali operazioni sui file system supporta Mountpoint per Amazon S3?

Mountpoint per Amazon S3 supporta le operazioni di base del file system come la lettura di file di dimensioni fino a 5 TB, la scrittura di nuovi file, l'elenco dei file esistenti e la creazione e l'elenco di directory. Mountpoint per Amazon S3 non supporta la modifica di file esistenti o l'eliminazione di directory esistenti. Con queste operazioni, Mountpoint per Amazon S3 è ideale per le applicazioni che leggono e scrivono dati a velocità di trasmissione effettiva elevata nei data lake di Amazon S3. Non è adatto per applicazioni che richiedono collaborazione e coordinamento tra più istanze di calcolo o utenti. Queste applicazioni richiedono in genere funzionalità di file system condivise come l'aggiunta a file esistenti e il blocco dei file. Puoi usare Amazon FSx per Lustre per applicazioni di data lake che richiedono semantica POSIX e funzionalità di file system condivise.

D: Come si inizia a usare Mountpoint per Amazon S3?

Puoi iniziare a usare Mountpoint per Amazon S3 montando un bucket S3 in una directory locale sulla tua istanza di calcolo utilizzando le istruzioni fornite nella documentazione. Una volta montato il bucket S3 in una directory locale, le applicazioni possono accedere agli oggetti S3 come file disponibili localmente sulla loro istanza di calcolo. Mountpoint per Amazon S3 supporta operazioni di lettura sequenziali e casuali su oggetti Amazon S3 esistenti e supporta scritture sequenziali per nuovi oggetti. Leggi la documentazione semantica di Mountpoint per Amazon S3 per maggiori dettagli sulle operazioni di file system supportate. Puoi utilizzare Mountpoint per Amazon S3 per accedere agli oggetti in tutte le classi di storage S3, esclusi gli oggetti in Recupero flessibile S3 Glacier, Deep Archive S3 Glacier e gli oggetti nel livello Archive Access e nel livello Deep Archive Access nel Piano intelligente S3.

D: Come viene fatturato l'utilizzo di Mountpoint per Amazon S3?

Non sono previsti costi aggiuntivi per l'utilizzo di Mountpoint per Amazon S3. Si paga per le richieste API S3 come le richieste GET, PUT e LIST effettuate da Mountpoint per Amazon S3 quando vengono eseguite operazioni di file system come le operazioni di lettura, scrittura di file ed elenco delle directory. Per richiedere i prezzi di S3, consulta la pagina dei prezzi.

D: Quali sono le prestazioni della soluzione Mountpoint per Amazon S3?

Mountpoint per Amazon S3 offre le stesse prestazioni degli SDK AWS. Ciò significa che le applicazioni di data lake raggiungono elevate velocità di trasferimento a singola istanza, utilizzando in modo efficiente la larghezza di banda della rete disponibile sull'istanza Amazon EC2. Per ottenere una velocità di trasmissione effettiva ancora più elevata, queste applicazioni possono aggregare la velocità di trasmissione effettiva su più istanze per ottenere più TB/s.

D: Come si controlla l'accesso ai dati durante l'uso di Mountpoint per Amazon S3?

Durante l'uso di Mountpoint per Amazon S3, è possibile controllare l'accesso ai dati utilizzando i meccanismi di controllo degli accessi esistenti di Amazon S3, tra cui le policy dei bucket e le policy di AWS Identity and Access Management (IAM). Mountpoint per Amazon S3 traduce le operazioni del file system, come la lettura e la scrittura, in richieste API a oggetti inviate al bucket S3. Successivamente, Amazon S3 valuta tutte le policy pertinenti, come quelle relative all'utente e al bucket, per decidere se autorizzare la richiesta. Mountpoint per Amazon S3 non introduce nuovi meccanismi di controllo degli accessi.

D: Mountpoint per Amazon S3 supporta metadati in stile POSIX, come ID utente, ID gruppo e campi di autorizzazione?

Mountpoint per Amazon S3 non supporta la lettura o la scrittura di metadati in stile POSIX, come ID utente, ID gruppo e campi di autorizzazione. È possibile usare Amazon FSx per Lustre con Amazon S3 o AWS DataSync per archiviare metadati in stile POSIX per oggetti S3.

D: Mountpoint per Amazon S3 supporta l'accesso tramite AWS PrivateLink?

Sì, Mountpoint per Amazon S3 supporta l'accesso tramite AWS PrivateLink. AWS PrivateLink per S3 fornisce connettività privata tra Amazon S3 e gli ambienti on-premise. Puoi eseguire il provisioning degli endpoint VPC di interfaccia per S3 nel tuo VPC per connettere le applicazioni on-premise direttamente a S3 tramite AWS Direct Connect o AWS VPN.

D: Mountpoint per Amazon S3 supporta l'accesso tramite endpoint VPC del gateway?

Sì, Mountpoint per Amazon S3 supporta l'accesso tramite endpoint VPC del gateway. Ti consigliamo di utilizzare endpoint VPC di interfaccia basata su AWS PrivateLink per accedere a S3 da ambienti on-premises o da un VPC situato in un'altra regione AWS. Per le risorse che accedono a S3 da un VPC situato nella stessa Regione AWS del bucket S3, consigliamo di utilizzare endpoint VPC del gateway poiché il loro utilizzo non comporta costi.

D: È possibile accedere ad Amazon S3 dai pod di Amazon Elastic Kubernetes Service (Amazon EKS)?

Sì, è possibile accedere ad Amazon S3 da Amazon EKS utilizzando l'AWS SDK e l'AWS CLI. Per le applicazioni che utilizzano un'interfaccia di file system per leggere e scrivere dati, è possibile utilizzare il driver Container Storage Interface (CSI) Mountpoint per Amazon S3. Con il driver CSI Mountpoint per Amazon S3 è possibile raggiungere livelli elevati di velocità di trasmissione effettiva aggregata ─ fino a terabit al secondo ─ senza modificare una singola riga di codice dell'applicazione o il modello di autorizzazione. Come Mountpoint per Amazon S3, il driver CSI S3 supporta operazioni di lettura sequenziale e casuale su file esistenti e operazioni di scrittura sequenziale per la creazione di nuovi file. Per informazioni dettagliate sulle operazioni supportate dai file system, leggi il comportamento del file system di Mountpoint per Amazon S3. È possibile installare, configurare e aggiornare il driver CSI Mountpoint per Amazon S3 con pochi clic nella console EKS, nel CLI di AWS, nell'API EKS o su AWS CloudFormation. Per ulteriori informazioni, visitare la pagina GitHub del driver CSI di Mountpoint per Amazon S3.

Tutto pronto per iniziare?

Scopri le caratteristiche del prodotto

Ulteriori informazioni sulle funzionalità per la gestione dei dati, la sicurezza, la gestione degli accessi, l'analisi e altro.

Ulteriori informazioni 
Registrati per creare un account gratuito

Ottieni l'accesso al piano gratuito di AWS e inizia a sperimentare Amazon S3. 

Registrati 
Inizia a lavorare nella console

Inizia a lavorare con Amazon S3 nella Console AWS.

Nozioni di base