FAQ S3 Umum
Wilayah | Penagihan | Amazon S3 dan IPv6 | Notifikasi Peristiwa S3 | Amazon S3 Transfer Acceleration
T: Apa itu Amazon S3?
Amazon S3 adalah penyimpanan objek yang dibangun untuk menyimpan dan mengambil sejumlah data dari mana pun. Amazon S3 adalah layanan penyimpanan sederhana yang menawarkan ketahanan, ketersediaan, kinerja, keamanan, dan skalabilitas hampir tanpa batas yang terkemuka di industri dengan biaya yang sangat rendah.
T: Apa yang dapat saya lakukan dengan Amazon S3?
Amazon S3 memberikan antarmuka layanan web sederhana yang dapat Anda gunakan untuk menyimpan dan mengambil sejumlah data, kapan pun, dari mana pun. Dengan menggunakan layanan ini, Anda dapat dengan mudah membangun aplikasi yang menggunakan penyimpanan cloud native. Karena Amazon S3 sangat mudah diskalakan dan Anda hanya membayar yang Anda gunakan, Anda dapat memulai dari langkah kecil dan mengembangkan aplikasi sesuai keinginan, tanpa perlu berkompromi dengan kinerja atau keandalannya.
Amazon S3 juga dirancang untuk fleksibilitas yang tinggi. Simpan semua tipe dan jumlah data yang Anda inginkan, baca bagian data yang sama jutaan kali atau hanya untuk pemulihan bencana darurat, buat aplikasi FTP sederhana atau aplikasi web canggih seperti situs web ritel Amazon.com. Amazon S3 membebaskan developer untuk fokus pada inovasi, alih-alih mencari cara untuk menyimpan data mereka.
T: Bagaimana cara saya mulai menggunakan Amazon S3?
Untuk mendaftar ke Amazon S3, klik tautan ini. Anda harus memiliki akun Layanan Web Amazon untuk mengakses layanan ini. Jika Anda belum memiliki akun, Anda akan diarahkan untuk membuatnya pada saat Anda memulai proses daftar ke Amazon S3. Setelah mendaftar, harap lihat dokumentasi Amazon S3 dan kode sampel di Pusat Sumber Daya untuk mulai menggunakan Amazon S3.
T: Apa yang dapat developer lakukan dengan Amazon S3 tetapi tidak dapat dilakukan dengan solusi on-premise?
Amazon S3 memungkinkan developer memanfaatkan manfaat yang dimiliki Amazon dengan skala luas tanpa berkompromi dengan investasi atau performa awalnya. Developer saat ini dapat bebas berinovasi mengingat bahwa terlepas dari sesukses apa pun bisnis mereka, biayanya terjangkau dan mudah untuk memastikan data mereka dapat diakses dengan cepat, selalu tersedia, dan aman.
T: Jenis data apa yang dapat saya simpan di dalam Amazon S3?
Anda dapat menyimpan data jenis apa saja secara virtual dalam format apa pun. Silakan lihat Persetujuan Lisensi Amazon Web Services untuk detailnya.
T: Seberapa banyak data yang dapat saya simpan di dalam Amazon S3?
Volume total data dan jumlah objek yang dapat Anda simpan tidak terbatas. Objek Amazon S3 individu dapat memiliki ukuran yang berbeda-beda mulai dari minimum 0 bita hingga maksimum 5 TB. Objek terbesar yang dapat diunggah dalam PUT tunggal adalah sebesar 5 GB. Untuk objek berukuran lebih dari 100 MB, pelanggan harus mempertimbangkan penggunaan kapabilitas Unggahan Multipart.
T: Apakah saya dapat memiliki bucket yang memiliki objek berbeda di kelas penyimpanan yang berbeda?
Ya, Anda dapat memiliki bucket S3 yang mempunyai objek berbeda yang disimpan di S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, dan S3 Glacier Deep Archive.
T: Apa yang dilakukan Amazon pada data saya di Amazon S3?
Amazon akan menyimpan data Anda dan melacak penggunaannya yang terkait untuk tujuan penagihan. Amazon tidak akan mengakses data Anda untuk tujuan apa pun di luar penawaran Amazon S3, kecuali apabila perlu dilakukan oleh hukum. Silakan lihat Persetujuan Lisensi Amazon Web Services untuk detailnya.
T: Apakah Amazon menyimpan datanya di Amazon S3?
Ya. Pengembang di Amazon menggunakan Amazon S3 untuk berbagai proyek. Beberapa proyek tersebut menggunakan Amazon S3 sebagai penyimpanan data otoritatif, dan mengandalkannya untuk operasi bisnis yang penting.
T: Bagaimana data Amazon S3 dikelola?
Amazon S3 adalah penyimpanan objek berbasis kunci yang mudah. Pada saat menyimpan data, Anda menetapkan kunci objek unik yang nantinya dapat digunakan untuk mendapatkan data tersebut. Kunci dapat berupa string apa pun, dan dapat dibuat untuk menyalin atribut hierarkis. Sebagai alternatif, Anda dapat menggunakan Pemberian Tag Objek S3 untuk mengatur data Anda di seluruh bucket S3 dan/atau prefiks Anda.
T: Bagaimana saya dapat melakukan antarmuka dengan Amazon S3?
Amazon S3 memberikan antarmuka layanan web REST berbasis standar yang mudah, yang dirancang untuk bekerja dengan kit alat pengembangan Internet. Operasi tersebut sengaja dibuat sederhana untuk mempermudah penambahan protokol distribusi dan lapisan fungsional baru.
T: Seberapa andal Amazon S3 itu?
Amazon S3 memberikan akses yang sama kepada semua developer ke infrastruktur penyimpanan data yang sangat mudah diskalakan, sangat tersedia, cepat, terjangkau yang digunakan Amazon untuk menjalankan jaringan global situs webnya. Kelas penyimpanan S3 Standard dirancang untuk ketersediaan 99,99%, kelas penyimpanan S3 Standard-IA, S3 Intelligent-Tiering, dan S3 Glacier Instant Retrieval dirancang untuk ketersediaan 99,9%, kelas penyimpanan S3 One Zone-IA dirancang untuk ketersediaan 99,5%, serta kelas S3 Glacier Flexible Retrieval dan S3 Glacier Deep Archive dirancang untuk ketersediaan 99,99% dengan SLA 99,9%. Seluruh kelas penyimpanan ini didukung oleh Perjanjian Tingkat Layanan Amazon S3.
T: Bagaimana performa Amazon S3 jika lalu lintas aplikasi saya tiba-tiba melonjak?
Amazon S3 dirancang dari dasar ke tingkat teratas untuk menangani lalu lintas pada aplikasi Internet apa pun. Harga bayar sesuai penggunaan dan kapasitasnya yang tidak terbatas memungkinkan agar biaya tambahan Anda tidak berubah dan layanan Anda tidak terganggu. Skala luas milik Amazon S3 memungkinkan Anda untuk menyebarkan muatan secara merata, sehingga tidak ada aplikasi individu yang terpengaruh oleh lonjakan lalu lintas.
T: Apakah Amazon S3 menawarkan Persetujuan Tingkat Layanan (SLA)?
Ya. SLA Amazon S3 memberikan kredit layanan jika persentase aktif bulanan pelanggan berada di bawah komitmen layanan kami pada siklus tagihan apa pun.
T: Apa yang dimaksud dengan model konsistensi untuk Amazon S3?
Amazon S3 memberikan konsistensi baca-setelah-tulis yang kuat secara otomatis, tanpa mengubah performa atau ketersediaan, tanpa mengorbankan isolasi regional untuk aplikasi, dan tanpa biaya tambahan.
Setelah berhasil menulis objek baru atau menimpa objek yang sudah ada, permintaan baca berikutnya segera menerima versi objek terbaru. S3 juga menyediakan konsistensi yang kuat untuk operasi daftar, jadi setelah menulis, Anda dapat segera melakukan cantuman objek di bucket dengan merefleksikan perubahan.
T: Mengapa konsistensi baca-setelah-tulis yang kuat membantu saya?
Konsistensi baca-setelah-tulis yang kuat membantu ketika Anda harus segera membaca objek setelah menulis -- misalnya, ketika Anda sering membaca dan mendaftarkan langsung setelah menulis objek. Beban kerja komputasi berperforma tinggi juga bermanfaat saat objek ditimpa, lalu membaca berkali-kali secara terus-menerus, konsistensi baca-setelah-tulis yang kuat menjamin bahwa tulisan terbaru dibaca di seluruh bacaan. Aplikasi ini secara otomatis dan cepat mengambil manfaat dari konsistensi baca-setelah-tulis yang kuat. Konsistensi S3 yang kuat juga mengurangi biaya dengan menghilangkan kebutuhan untuk infrastruktur tambahan guna memberikan konsistensi yang kuat.
Wilayah AWS
T: Di mana data saya disimpan?
Anda menentukan Wilayah AWS saat membuat bucket Amazon S3. Untuk kelas penyimpanan S3 Standard, S3 Standard-IA, S3 Intelligent-Tiering, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, dan S3 Glacier Deep Archive, objek Anda akan secara otomatis disimpan di berbagai perangkat yang mencakup minimum tiga Zona Ketersediaan, yang masing-masing terpisah oleh jarak mil di seluruh Wilayah AWS. Objek yang disimpan di kelas penyimpanan S3 One Zone-IA disimpan secara berulang di dalam satu Zona Ketersediaan di Wilayah AWS yang Anda pilih. Untuk S3 on Outposts, data Anda disimpan di lingkungan Outpost lokal, kecuali Anda secara manual memilih untuk mentransfernya ke suatu Wilayah AWS tertentu. Lihat Produk dan Layanan Regional untuk detail ketersediaan layanan Amazon S3 menurut Wilayah AWS.
T: Apa itu Wilayah AWS?
Wilayah AWS merupakan lokasi geografis di mana AWS menyediakan banyak Zona Ketersediaan, yang secara fisik terpisah dan terisolasi, yang dihubungkan dengan latensi yang rendah, throughput tinggi, dan jaringan dengan redundansi yang tinggi.
T: Apa itu AWS Zona Ketersediaan (AZ)?
AWS Availability Zone adalah lokasi yang secara fisik terisolasi dalam Wilayah AWS. Di dalam setiap Wilayah AWS, S3 mengoperasikan minimum tiga AZ, masing-masing terpisah oleh jarak mil untuk melindungi dari peristiwa lokal seperti kebakaran, banjir, dll.
Kelas penyimpanan Amazon S3 Standard, S3 Standard - Infrequent Access, S3 Intelligent-Tiering, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, dan S3 Glacier Deep Archive mereplikasi data setidaknya dari tiga AZ guna melindungi terhadap hilangnya salah satu dari keseluruhan AZ. Hal ini tetap benar dalam Wilayah di mana kurang dari tiga AZ secara publik tersedia. Objek yang disimpan dalam kelas penyimpanan ini tersedia untuk akses dari semua AZ dalam Wilayah AWS.
Kelas penyimpanan Amazon S3 One Zone-IA mereplikasi data dalam AZ tunggal. Data yang disimpan di S3 One Zone-IA tidak tahan terhadap hilangnya fisik Zona Ketersediaan akibat bencana, seperti gempa bumi dan banjir.
T: Bagaimana cara saya menentukan Wilayah AWS yang digunakan untuk menyimpan data saya?
Terdapat beberapa faktor untuk dipertimbangkan berdasarkan pada aplikasi tertentu Anda. Misalnya, mungkin Anda ingin menyimpan data di Wilayah di dekat pelanggan Anda, pusat data Anda, atau sumber daya AWS lain untuk mengurangi latensi akses data. Anda juga mungkin ingin menyimpan data Anda di Wilayah yang jauh dari operasi Anda lainnya untuk tujuan redundansi geografis dan pemulihan bencana. Anda juga harus mempertimbangkan Wilayah yang memungkinkan Anda menangani persyaratan legal dan peraturan tertentu dan/atau mengurangi biaya penyimpanan—Anda dapat memilih Wilayah dengan harga lebih murah untuk penghematan. Untuk informasi harga S3, silakan kunjungi halaman harga S3.
T: Di mana saja Amazon S3 tersedia?
Amazon S3 tersedia dalam Wilayah AWS di seluruh dunia, dan Anda dapat menggunakan Amazon S3 terlepas di mana lokasi Anda. Anda hanya harus menentukan wilayah AWS mana yang diinginkan untuk menyimpan data Amazon S3. Lihat Tabel Ketersediaan Wilayah AWS untuk daftar wilayah AWS tempat S3 tersedia saat ini.
Penagihan
T: Berapa banyak biaya Amazon S3?
Dengan Amazon S3, Anda hanya membayar yang digunakan. Tidak ada biaya minimum. Anda dapat memperkirakan tagihan bulanan menggunakan Kalkulator Harga AWS.
Kami mengenakan biaya lebih sedikit di mana biaya kami lebih rendah. Beberapa harga berbeda-beda di seluruh Wilayah Amazon S3. Harga penagihan didasarkan pada lokasi bucket S3 Anda. Tidak dikenakan biaya Transfer Data untuk data yang ditransfer dalam Wilayah Amazon S3 melalui permintaan COPY. Data yang ditransfer melalui permintaan COPY di antara Wilayah AWS dikenai biaya sesuai tarif yang ditentukan dalam bagian harga di halaman detail Amazon S3. Tidak ada biaya Data Transfer untuk data yang ditransfer antara Amazon EC2 (atau layanan AWS apa pun) dan Amazon S3 dalam wilayah yang sama, misalnya, data yang ditransfer dalam Wilayah US East (Northern Virginia). Namun, data yang ditransfer antara Amazon EC2 (atau layanan AWS apa pun) dan Amazon S3 di seluruh wilayah lain dikenai dengan tarif yang ditentukan di halaman harga Amazon S3, misalnya, data yang ditransfer antara Amazon EC2 US East (Northern Virginia) dan Amazon S3 US West (Northern California). Untuk harga S3 di Outposts, silakan kunjungi halaman harga Outposts.
T: Bagaimana pengenaan biaya dan penagihan atas penggunaan Amazon S3 saya?
Tidak ada biaya atau komitmen terikat untuk mulai menggunakan layanan ini. Pada akhir bulan, Anda secara otomatis akan dikenai biaya atas penggunaan bulan tersebut. Anda dapat melihat tagihan biaya untuk periode tagihan terbaru kapan pun di situs web Amazon Web Services, dengan masuk ke akun Amazon Web Services Anda, dan mengeklik “konsol Manajemen Penagihan dan Biaya” di bawah “Akun Layanan Web Anda”.
Dengan AWS Tingkat Penggunaan Gratis*, Anda dapat memulai dengan Amazon S3 secara gratis di semua wilayah kecuali Wilayah AWS GovCloud. Setelah mendaftar, pelanggan AWS baru akan menerima 5 GB penyimpanan Amazon S3 Standard, 20.000 Get Request, 2.000 Put Request, 100 GB transfer data keluar (ke internet, wilayah AWS lainnya, atau CloudFront) setiap bulan selama satu tahun. Penggunaan bulanan yang tidak digunakan tidak akan diakumulasi ke bulan berikutnya.
Amazon S3 akan membebankan biaya kepada Anda untuk tipe penggunaan berikut. Perhatikan bahwa kalkulasi di bawah ini diasumsikan tidak terdapat Tingkat Gratis AWS yang siap digunakan.
Penyimpanan yang Digunakan:
Harga penyimpanan Amazon S3 dirangkum pada halaman Harga Amazon S3.
Volume penyimpanan yang ditagihkan dalam satu bulan berdasarkan pada penyimpanan rata-rata yang digunakan di sepanjang bulan tersebut. Ini termasuk semua data objek dan metadata yang disimpan dalam bucket yang Anda buat pada akun AWS Anda. Kami mengukur penggunaan penyimpanan Anda dalam "TimedStorage-ByteHrs," yang ditambahkan pada akhir bulan untuk mendapatkan biaya bulanan.
Contoh Penyimpanan:
Asumsikan Anda menyimpan 100 GB (107.374.182.400 bita) data di Amazon S3 Standard dalam bucket selama 15 hari pada bulan Maret, dan 100 TB (109.951.162.777.600 bita) data di Amazon S3 Standard selama 16 hari terakhir pada bulan Maret.
Pada akhir bulan Maret, Anda akan memiliki penggunaan berikut ini dalam Bita-Jam: Total penggunaan Bita-Jam = [107.374.182.400 bita x 15 hari x (24 jam/hari)] + [109.951.162.777.600 bita x 16 hari x (24 jam/hari)] = 42.259.901.212.262.400 Bita-Jam. Harap hitung jam berdasarkan jumlah hari sebenarnya di bulan tertentu. Misalnya, dalam contoh kami, kami menggunakan Maret yang memiliki 31 hari atau 744 jam.
Mari lakukan konversi ini ke GB-Bulan: 42.259.901.212.262.400 Byte-Jam / 1.073.741.824 byte per GB / 744 jam per bulan = 52.900 GB-Bulan
Volume penggunaan ini melewati dua tingkat volume yang berbeda. Harga penyimpanan bulanan dikalkulasi di bawah ini dengan memisalkan data disimpan di Wilayah US East (Northern Virginia): Tingkat 50 TB: 51.200 GB x 0,023 USD = 1.177,60 USD Tingkat 50 TB ke 450 TB: 1.700 GB x 0,022 USD = 37,40 USD
Biaya Penyimpanan Total = 1.177,60 USD + 37,40 USD = 1.215,00 USD
Data Jaringan yang Ditransfer Masuk:
Harga Transfer Data Masuk Amazon S3 dirangkum pada halaman Harga Amazon S3. Ini merepresentasikan jumlah data yang dikirim ke bucket Amazon S3 Anda.
Data Jaringan yang Ditransfer Keluar:
Harga Transfer Data Keluar Amazon S3 dirangkum pada halaman Harga Amazon S3. Untuk Amazon S3, biaya ini berlaku setiap kali data dibaca dari bucket Anda dari lokasi di luar Wilayah Amazon S3 yang ditetapkan.
Tarif harga Transfer Data Keluar mempertimbangkan Transfer Data Keluar agregat Anda dari wilayah yang ditetapkan ke Internet di seluruh Amazon EC2, Amazon S3, Amazon RDS, Amazon SimpleDB, Amazon SQS, Amazon SNS, dan Amazon VPC. Tingkat ini tidak berlaku untuk Transfer Data Keluar dari Amazon S3 dalam satu wilayah AWS ke wilayah AWS lain.
Contoh Transfer Data Keluar:
Asumsikan Anda mentransfer 1 TB data Amazon S3 keluar dari Wilayah AS Timur (Virginia Utara) ke internet setiap hari selama 31 hari dalam satu bulan. Asumsikan Anda juga mentransfer 1 TB data instans Amazon EC2 keluar dari wilayah yang sama ke internet selama 31 hari bulan yang sama.
Transfer Data agregat Anda akan sebesar 62 TB (31 TB dari Amazon S3 dan 31 TB dari Amazon EC2). Ini sama dengan 63.488 GB (62 TB * 1024 GB/TB).
Volume penggunaan ini melewati tiga tingkat volume yang berbeda. Biaya Transfer Data Keluar bulanan dikalkulasi di bawah ini dengan memisalkan Transfer Data terjadi di Wilayah US East (Northern Virginia):
Tingkat 10 TB: 10.239 GB (10×1024 GB/TB – 1 (gratis)) x 0,09 USD = 921,51 USD
Tingkat 10 TB ke 50 TB: 40.960 GB (40×1024) x 0,085 USD = 3.481,60 USD
Tingkat 50 TB ke 150 TB: 12.288 GB (sisa) x 0,070 USD = 860,16 USD
Total Biaya Transfer Data Keluar = 921,51 USD + 3.481,60 USD + 860,16 USD= 5.263,27 USD
Permintaan Data:
Harga Permintaan Amazon S3 dirangkum pada Diagram Harga Amazon S3.
Contoh Permintaan:
Misal Anda mentransfer 10.000 file ke dalam Amazon S3 dan mentransfer 20.000 file keluar dari Amazon S3 setiap hari selama bulan Maret. Kemudian, Anda menghapus 5.000 file pada tanggal 31 Maret.
Permintaan PUT Total = 10.000 permintaan x 31 hari = 310.000 permintaan
Permintaan GET Total = 20.000 permintaan x 31 hari = 620.000 permintaan
Total Permintaan DELETE = 5.000 ×1 hari = 5.000 permintaan
Misal bucket Anda berada di Wilayah US East (Northern Virginia), biaya Permintaan dikalkulasi di bawah ini:
310.000 Permintaan PUT: 310.000 permintaan x 0,005 USD/1.000 = 1,55 USD
620,000 Permintaan GET: 620.000 permintaan x 0,004 USD/10.000 = 0,25 USD
5,000 permintaan DELETE = 5.000 permintaan x 0,00 USD (tanpa biaya) = 0,00 USD
Pengambilan Data:
Harga pengambilan data Amazon S3 berlaku untuk k S3 Standard-Infrequent Access (S3 Standard-IA) dan penyimpanan S3 One Zone-IA dan dirangkum pada halaman Harga Amazon S3.
Contoh Pengambilan Data:
Asumsikan dalam satu bulan Anda mengambil 300 GB dari S3 Standard-IA, dengan 100GB ke Internet, 100GB ke EC2 di wilayah AWS yang sama, dan 100GB ke CloudFront di Wilayah AWS yang sama.
Biaya pengambilan data Anda selama satu bulan akan dikalkulasi 300 GB x 0,01 USD/GB = 3,00 USD. Perhatikan bahwa Anda juga akan membayar biaya transfer data jaringan untuk porsi yang keluar ke Internet.
Silakan lihat di sini untuk detail mengenai tagihan objek yang diarsipkan ke Amazon S3 Glacier.
* * Penggunaan tingkat gratis Anda dikalkulasi setiap bulan melalui semua wilayah kecuali Wilayah AWS GovCloud dan secara otomatis dikenakan pada tagihan Anda–penggunaan bulanan yang tidak digunakan akan hangus. Pembatasan berkalu. Lihat syarat penawaran untuk detail selengkapnya.
T: Mengapa harganya berbeda-beda tergantung pada wilayah Amazon S3 yang Saya pilih?
Kami mengenakan biaya lebih sedikit sementara biaya kami lebih sedikit. Sebagai contoh, biaya kami lebih rendah di wilayah AS Timur (Virginia Utara) daripada di daerah AS Barat (California Utara).
T: Bagaimana saya dikenai biaya dengan menggunakan Versioning?
Tarif Amazon S3 normal berlaku untuk setiap versi objek yang disimpan atau diminta. Sebagai contoh, mari kita perhatikan skenario berikut untuk mengilustrasikan biaya penyimpanan pada saat menggunakan Versioning (mari menganggap bulan saat ini selama 31 hari):
1) Hari ke-1 bulan tersebut: Anda melakukan PUT sebesar 4 GB (4.294.967.296 byte) di bucket Anda.
2) Hari ke-16 bulan tersebut: Anda melakukan PUT sebesar 5 GB (5.368.709.120 byte) di dalam bucket yang sama dengan menggunakan kunci yang sama dengan PUT asli pada Hari ke-1.
Pada saat menganalisis biaya penyimpanan dari operasi di atas, mohon perhatikan bahwa objek 4 GB dari Hari ke-1 tidak dihapus dari bucket pada saat objek 5 GB ditulis pada Hari ke-15. Namun, objek 4 GB dipertahankan sebagai versi yang lebih lama dan objek 5 GB menjadi versi objek tertulis yang terbaru di dalam bucket Anda. Pada akhir bulan:
Total penggunaan Byte-Jam
[4.294.967.296 byte x 31 hari x (24 jam/hari)] + [5.368.709.120 byte x 16 hari x (24 jam/hari)] = 5.257.039.970.304 Byte-Jam.
Konversi ke GB-Bulan Total
5.257.039.970.304 Byte-Jam x (1 GB/1.073.741.824 byte) x (1 bulan/744 jam) = 6,581 GB-Bulan
Biaya dikalkulasi berdasarkan tarif terakhir di wilayah Anda pada Halaman Harga Amazon S3.
T: Bagaimana pengenaan biaya untuk mengakses Amazon S3 melalui Konsol Manajemen AWS?
Harga Amazon S3 normal berlaku pada saat mengakses layanan melalui AWS Management Console. Untuk memberikan pengalaman yang optimal, AWS Management Console secara proaktif dapat menjalankan permintaan. Selain itu, beberapa operasi interaktif mengakibatkan lebih dari satu permintaan pada layanan.
T: Bagaimana saya dikenai tagihan jika bucket Amazon S3 saya diakses dari akun AWS lain?
Harga Amazon S3 normal berlaku apabila penyimpanan Anda diakses oleh Akun AWS berbeda. Atau, Anda dapat memilih untuk mengonfigurasi bucket Anda sebagai bucket Peminta Membayar, yang dalam kasus ini peminta akan membayar biaya permintaan dan unduhan data Amazon S3 Anda.
Anda dapat menemukan informasi selengkapnya tentang konfigurasi bucket Peminta Membayar di Dokumentasi Amazon S3.
T: Apakah harga tersebut termasuk potongan pajak?
Kecuali dinyatakan lain, harga tersebut tidak termasuk pajak dan beban biaya yang berlaku, termasuk PPN dan pajak penjualan yang berlaku. Untuk pelanggan dengan alamat tagihan Jepang, penggunaan layanan AWS tunduk pada Pajak Konsumsi Jepang.
Amazon S3 dan IPv6
T: Apa itu IPv6?
Setiap server dan perangkat yang terhubung ke internet harus memiliki alamat yang unik. Internet Protocol Version 4 (IPv4) merupakan skema pengalamatan 32-bit asli. Namun, pertumbuhan internet yang terus-menerus berarti bahwa semua alamat IPv4 yang tersedia akan dipakai seiring berjalannya waktu. Internet Protocol Version 6 (IPv6) merupakan mekanisme pengalamatan baru yang dirancang untuk mengatasi pembatasan alamat global pada IPv4.
T: Apa yang dapat saya lakukan dengan IPv6?
Dengan menggunakan dukungan IPv6 untuk Amazon S3, aplikasi dapat terhubung ke Amazon S3 tanpa membutuhkan perangkat lunak atau sistem penerjemahan IPv6 ke IPv4. Anda dapat memenuhi persyaratan kepatuhan, lebih mudah mengintegrasikan dengan aplikasi lokal berbasis IPv6 yang ada, dan menghilangkan kebutuhan perangkat jaringan yang mahal untuk menangani penerjemahan alamat. Sekarang Anda juga dapat menggunakan fitur pemfilteran alamat sumber di aturan IAM dan aturan bucket dengan alamat IPv6, menambah opsi Anda untuk mengamankan aplikasi yang berinteraksi dengan Amazon S3.
T: Bagaimana saya memulai dengan IPv6 di Amazon S3?
Anda dapat memulai dengan menunjuk aplikasi Anda ke titik akhir “dual-stack” Amazon S3 yang baru, yang mendukung akses melalui IPv4 dan IPv6. Di sebagian besar kasus, konfigurasi tambahan tidak dibutuhkan untuk akses melalui IPv6 karena sebagian besar klien jaringan lebih memilih alamat IPv6 secara default. Aplikasi yang terpengaruh dengan menggunakan IPv6 dapat beralih kembali ke endpoint khusus IPv4 standar kapan saja. IPv6 dengan Amazon S3 didukung di semua Wilayah AWS Komersial, termasuk Wilayah AWS GovCoud (US), Wilayah Amazon Web Services China (Beijing), dioperasikan oleh Sinnet dan Wilayah Amazon Web Services China (Ningxia), dioperasikan oleh NWCD.
T: Apakah saya perlu mengharapkan perubahan dalam Amazon S3 saat menggunakan IPv6?
Tidak, Anda akan melihat performa yang sama baik saat menggunakan IPv4 maupun IPv6 dengan Amazon S3.
Notifikasi Peristiwa Amazon S3
T: Apa itu Notifikasi Peristiwa Amazon S3?
Anda dapat mengaktifkan Notifikasi Peristiwa Amazon S3 dan menerimanya sebagai respons terhadap peristiwa tertentu di bucket S3 Anda, seperti peristiwa PUT, POST, COPY, dan DELETE. Anda dapat mempublikasikan notifikasi ke Amazon EventBridge, Amazon SNS, Amazon SQS, atau langsung ke AWS Lambda.
T: Apa yang bisa saya lakukan dengan Notifikasi Peristiwa Amazon S3?
Notifikasi Peristiwa Amazon S3 memungkinkan Anda untuk menjalankan alur kerja, mengirimkan pemberitahuan, atau melakukan tindakan lain sebagai respons terhadap perubahan pada objek Anda yang disimpan di S3. Anda dapat menggunakan Notifikasi Peristiwa S3 untuk menyiapkan pemicu untuk mengambil tindakan, termasuk transcoding file media saat diunggah, memproses file data saat tersedia, dan menyinkronkan objek S3 dengan penyimpanan data lainnya. Anda juga dapat menyiapkan notifikasi peristiwa berdasarkan pada prefiks dan sufiks nama objek. Sebagai contoh, Anda dapat memilih untuk menerima notifikasi tentang nama objek yang dimulai dengan “images/."
T: Apa saja yang termasuk dalam Notifikasi Peristiwa Amazon S3?
Untuk deskripsi yang lebih detail mengenai informasi yang termasuk dalam pesan Notifikasi Peristiwa Amazon S3, lihat Mengonfigurasi Notifikasi Peristiwa Amazon S3 di Panduan Developer Amazon S3.
T: Bagaimana cara menyiapkan Notifikasi Peristiwa Amazon S3?
Untuk deskripsi yang lebih detail mengenai cara mengonfigurasi notifikasi peristiwa,lihat topik Mengonfigurasi Notifikasi Peristiwa Amazon S3 di Panduan Developer Amazon S3. Anda dapat mempelajari selengkapnya tentang layanan olahpesan AWS di Dokumentasi Amazon SNS dan Dokumentasi Amazon SQS.
T: Apakah menggunakan Notifikasi Peristiwa Amazon S3 dikenakan biaya?
Tidak ada biaya tambahan dalam menggunakan Amazon S3 untuk notifikasi peristiwa. Anda hanya membayar penggunaan Amazon SNS atau Amazon SQS untuk mengirimkan pemberitahuan kejadian, atau untuk biaya menjalankan fungsi AWS Lambda. Kunjungi halaman harga Amazon SNS, Amazon SQS, atau AWS Lambda untuk melihat detail harga layanan tersebut.
Amazon S3 Transfer Acceleration
T: Apa yang dimaksud dengan S3 Transfer Acceleration?
Amazon S3 Transfer Acceleration membuat transfer file yang cepat, mudah, dan aman dalam jarak jauh antara klien Anda dan bucket Amazon S3. S3 Transfer Acceleration memanfaatkan Lokasi Edge AWS yang didistribusikan secara global dari Amazon CloudFront. Saat data sampai pada Lokasi Edge AWS, data diarahkan ke bucket Amazon S3 melalui jalur jaringan yang dioptimisasi.
T: Bagaimana saya memulai dengan S3 Transfer Acceleration?
Untuk memulai dengan S3 Transfer Acceleration aktifkan S3 Transfer Acceleration pada bucket S3 menggunakan konsol Amazon S3, API Amazon S3, atau AWS CLI. Setelah S3 Transfer Acceleration diaktifkan, Anda dapat menunjuk permintaan Amazon S3 PUT dan GET ke nama domain s3-accelerate endpoint. Aplikasi transfer data Anda harus menggunakan salah satu dari dua jenis titik akhir berikut ini untuk mengakses bucket dengan transfer data yang lebih cepat: .s3-accelerate.amazonaws.com atau .s3-accelerate.dualstack.amazonaws.com untuk titik akhir “dual-stack”. Jika Anda ingin menggunakan transfer data standar, Anda dapat terus menggunakan titik akhir reguler.
Terdapat batasan tertentu ketika bucket akan mendukung S3 Transfer Acceleration. Untuk detail selengkapnya, silakan lihat Panduan developer Amazon S3.
T: Seberapa cepat S3 Transfer Acceleration?
S3 Transfer Acceleration membantu Anda menggunakan bandwidth secara penuh, meminimalisir pengaruh jarak pada throughput, dan dirancang untuk memastikan transfer data yang cepat secara konsisten ke Amazon S3 terlepas dari lokasi klien Anda. Jumlah akselerasi utamanya bergantung pada bandwidth yang tersedia, jarak antara sumber dan tujuan, dan tingkat hilangnya paket pada jalur jaringan. Secara umum, Anda akan mendapatkan akselerasi lebih saat sumbernya lebih jauh dari tujuan, saat terdapat lebih banyak bandwidth yang tersedia, dan/atau saat ukuran objek lebih besar.
Satu pelanggan mengukur adanya reduksi sebesar 50% dalam rata-rata waktu untuk menyerap file 300 MB dari basis pengguna global yang ada di AS, Eropa, dan beberapa bagian Asia ke bucket di Wilayah Asia Pasifik (Sydney). Pelanggan lain mengamati kasus ketika performa meningkat melebihi 500% untuk pengguna di Asia Tenggara dan Australia saat mengunggah file 250 MB (50 MB sekali unggah) ke bucket S3 di Wilayah AS Timur (Virginia Utara).
Coba alat pembanding kecepatan untuk mendapatkan pratinjau manfaat performa dari lokasi Anda.
T: Siapa yang perlu menggunakan S3 Transfer Acceleration?
S3 Transfer Acceleration dirancang untuk mengoptimalkan kecepatan transfer dari seluruh dunia ke bucket S3. Jika Anda mengunggah ke bucket terpusat dari lokasi yang tersebar secara geografis atau jika Anda secara rutin mentransfer data berukuran GB atau TB lintas benua, Anda dapat menghemat waktu transfer data berjam-jam atau dengan S3 Transfer Acceleration.
T: Seberapa amankah S3 Transfer Acceleration?
S3 Transfer Acceleration memberikan keamanan yang sama dengan transfer reguler ke Amazon S3. Semua fitur keamanan Amazon S3, seperti pembatasan akses berdasarkan pada alamat IP klien, juga didukung. S3 Transfer Acceleration berkomunikasi dengan klien melalui TCP standar dan tidak memerlukan perubahan firewall. Tidak ada data yang disimpan di Lokasi Edge AWS.
T: Bagaimana jika S3 Transfer Acceleration tidak lebih cepat dibandingkan Amazon S3 transfer reguler?
Setiap kali Anda menggunakan S3 Transfer Acceleration untuk mengunggah objek, kami akan memeriksa apakah S3 Transfer Acceleration lebih cepat dari transfer Amazon S3 reguler. Jika kami menentukan bahwa S3 Transfer Acceleration tidak mungkin lebih cepat dari transfer Amazon S3 reguler dari objek yang sama ke Wilayah AWS tujuan yang sama, kami tidak akan mengenakan biaya untuk penggunaan S3 Transfer Acceleration bagi transfer tersebut, dan dapat melewati sistem S3 Transfer Acceleration untuk pengunggahan itu.
T: Apakah saya dapat menggunakan S3 Transfer Acceleration dengan pengunggahan multi-bagian?
Ya, S3 Transfer Acceleration mendukung semua fitur di tingkat bucket termasuk unggahan multipart.
T: Bagaimana saya harus memilih antara S3 Transfer Acceleration dan PUT/POST Amazon CloudFront?
S3 Transfer Acceleration mengoptimalkan protokol TCP dan menambahkan kecerdasan tambahan antara klien dan Bucket S3, membuat S3 Transfer Acceleration pilihan yang lebih baik jika menginginkan throughput yang lebih tinggi. Jika Anda memiliki objek yang lebih kecil dari 1GB atau jika set data ukurannya kurang dari 1GB, Anda harus mempertimbangkan untuk menggunakan perintah PUT/POST Amazon CloudFront untuk performa yang optimal.
T: Bagaimana sebaiknya saya memilih antara S3 Transfer Acceleration dan AWS Snow Family (Snowball, Snowball Edge, dan Snowmobile)?
AWS Snow Family ideal untuk pelanggan yang memindahkan batch data yang besar sekaligus. AWS Snowball memiliki waktu layanan khusus 5-7 hari. Sederhananya, S3 Transfer Acceleration melalui jalur 1 Gbps yang digunakan secara penuh dapat mentransfer hingga 75 TB pada periode waktu yang sama. Secara umum, jika memerlukan waktu lebih dari satu minggu untuk mentransfer melalui internet, atau terdapat tugas transfer berulang dan terdapat lebih dari 25 Mbps bandwidth yang tersedia, S3 Transfer Acceleration merupakan pilihan yang bagus. Pilihan lainnya adalah menggunakan keduanya: lakukan perpindahan awal yang berat dengan AWS Snowball (atau seri AWS Snowball) lalu transfer perubahan tambahan yang sedang berlangsung dengan S3 Transfer Acceleration.
T: Apakah S3 Transfer Acceleration dapat melengkapi AWS Direct Connect?
AWS Direct Connect merupakan pilihan yang bagus bagi pelanggan yang memiliki persyaratan jaringan privat atau memiliki akses ke pertukaran AWS Direct Connect. S3 Transfer Acceleration paling cocok untuk mengirimkan data dari lokasi klien yang tersebar di internet publik, atau ketika kondisi jaringan yang beragam membuat throughput menjadi buruk. Beberapa pelanggan AWS Direct Connect menggunakan S3 Transfer Acceleration untuk membantu transfer kantor jarak jauh, yang mungkin memiliki performa internet yang buruk.
T: Apakah S3 Transfer Acceleration dapat melengkapi AWS Storage Gateway atau gateway pihak ketiga?
Anda dapat memperoleh manfaat dari mengonfigurasi tujuan bucket di gateway pihak ketiga untuk menggunakan domain titik akhir S3 Transfer Acceleration.
Kunjungi Bagian file FAQ Storage Gateway ini untuk mempelajari selengkapnya tentang implementasi AWS.
T: Apakah S3 Transfer Acceleration dapat melengkapi perangkat lunak yang terintegrasi dengan pihak ketiga?
Ya. Paket perangkat lunak yang membangun hubungan langsung ke Amazon S3 dapat memanfaatkan S3 Transfer Acceleration ketika mengirimkan pekerjaan mereka ke Amazon S3.
T: Apakah HIPAA S3 Transfer Acceleration memenuhi syarat?
Ya, AWS telah memperluas program kepatuhan HIPAA untuk mencakup Amazon S3 Transfer Acceleration sebagai layanan HIPAA yang memenuhi syarat. Jika Anda memiliki Perjanjian Rekan Bisnis (BAA) yang dijalankan dengan AWS, Anda dapat menggunakan Amazon S3 Transfer Acceleration untuk mempercepat, mempermudah, dan mengamankan transfer file termasuk informasi kesehatan terlindungi (PHI) melalui jarak jauh antara klien Anda dan bucket Amazon S3.
Keamanan
T: Seberapa aman data saya di dalam Amazon S3?
Amazon S3 aman secara default. Setelah dibuat, hanya Anda yang memiliki akses ke bucket Amazon S3 yang Anda buat, dan Anda memiliki kontrol penuh atas siapa yang memiliki akses ke data Anda. Amazon S3 mendukung autentikasi pengguna untuk mengontrol akses ke data. Anda dapat menggunakan mekanisme kontrol akses seperti kebijakan bucket untuk memberikan izin secara selektif ke pengguna dan grup pengguna. Konsol Amazon S3 menyoroti bucket Anda yang dapat diakses secara publik, menunjukkan sumber aksesibilitas publik, dan memperingatkan Anda jika perubahan pada kebijakan bucket atau ACL bucket akan membuat bucket Anda dapat diakses secara publik. Anda harus mengaktifkan Blokir Akses Publik untuk semua akun dan bucket yang Anda harapkan tidak dapat diakses secara publik.
Anda dapat dengan aman mengunggah/mengunduh data Anda ke Amazon S3 melalui titik akhir SSL menggunakan protokol HTTPS. Jika Anda memerlukan keamanan ekstra, Anda dapat menggunakan opsi Server-Side Encryption (Enkripsi Sisi Klien/SSE) untuk mengenkripsi data yang disimpan saat istirahat. Anda dapat mengonfigurasikan bucket Amazon S3 Anda untuk mengenkripsi objek secara otomatis sebelum menyimpannya jika permintaan penyimpanan yang masuk tidak memiliki informasi enkripsi apa pun. Sebagai alternatif, Anda dapat menggunakan perpustakaan enkripsi Anda untuk mengenkripsi data sebelum menyimpannya di Amazon S3.
Untuk informasi selengkapnya tentang keamanan di AWS, lihat halaman keamanan AWS, dan untuk informasi keamanan S3, kunjungi halaman keamanan S3 atau panduan praktik terbaik keamanan S3.
T: Bagaimana cara mengontrol akses ke data saya yang disimpan di Amazon S3?
Pelanggan dapat menggunakan sejumlah mekanisme untuk mengontrol akses ke sumber daya Amazon S3, termasuk AWS Identity and Access Management (IAM), kebijakan bucket, kebijakan titik akses, Daftar Kontrol Akses (ACL), Autentikasi String Kueri, kebijakan titik akhir Amazon Virtual Private Cloud (Amazon VPC), dan kebijakan kontrol layanan (SCP) di AWS Organizations serta Amazon S3 Block Public Access.
IAM
IAM memungkinkan organisasi dengan banyak pegawai untuk membuat dan mengelola beberapa pengguna dalam satu akun AWS. Dengan kebijakan IAM, pelanggan dapat memberikan kontrol yang detail kepada pengguna IAM ke bucket atau objek Amazon S3 mereka dan mempertahankan kontrol penuh pada semua hal yang dilakukan pengguna tersebut.
Kebijakan bucket dan titik akses
Dengan kebijakan bucket dan titik akses, pelanggan dapat menetapkan aturan yang berlaku secara luas pada semua permintaan ke sumber daya Amazon S3 mereka, seperti memberikan hak tertulis ke subset sumber daya Amazon S3. Pelanggan juga dapat membatasi akses berdasarkan pada aspek permintaan, seperti perujuk HTTP dan alamat IP.
ACL
Amazon S3 mendukung metode kontrol akses asli kami, Daftar Kontrol Akses (ACL). Dengan ACL, pelanggan dapat memberikan izin spesifik (yaitu BACA, TULIS, KONTROL_PENUH) kepada pengguna tertentu untuk bucket atau objek individu. Untuk pelanggan yang lebih suka menggunakan kebijakan eksklusif untuk kontrol akses, Amazon S3 menawarkan fitur Kepemilikan Objek untuk menonaktifkan ACL.
Autentikasi String Kueri
Dengan Autentikasi String Kueri, pelanggan dapat membuat URL untuk objek Amazon S3 yang hanya valid untuk waktu yang terbatas. Untuk informasi selengkapnya tentang kebijakan kontrol akses yang tersedia di Amazon S3, lihat topik Kontrol Akses di Panduan Developer Amazon S3.
Amazon VPC
Saat pelanggan membuat Amazon VPC endpoint, pelanggan dapat melampirkan kebijakan titik akhir yang mengontrol akses ke sumber daya Amazon S3 yang dihubungkan. Pelanggan juga dapat menggunakan kebijakan bucket Amazon S3 untuk mengontrol akses ke bucket dari titik akhir atau VPC tertentu.
Kebijakan kontrol layanan
Kebijakan kontrol layanan (SCP) adalah tipe kebijakan AWS Organizations yang dapat digunakan pelanggan untuk mengelola izin di organisasi mereka. SCP menawarkan kontrol terpusat atas izin maksimum yang tersedia untuk semua akun dalam sebuah organisasi. Dengan SCP, pelanggan dapat memastikan akun mereka berada di dalam panduan kontrol akses organisasi.
S3 Block Public Access
Amazon S3 Block Public Access menyediakan pengaturan untuk titik akses, bucket, dan akun agar dapat membantu pelanggan mengelola akses publik ke sumber daya Amazon S3. Dengan S3 Block Public Access, administrator akun dan pemilik bucket dapat dengan mudah menyiapkan kontrol terpusat untuk membatasi akses publik ke sumber daya Amazon S3 mereka yang diterapkan terlepas dari cara sumber daya dibuat.
Pelajari selengkapnya tentang kebijakan dan izin di Panduan Pengguna IAM AWS.
T: Apakah Amazon S3 mendukung audit akses data?
Ya, pelanggan secara opsional dapat mengonfigurasikan bucket Amazon S3 untuk membuat catatan log akses untuk semua permintaan yang dilakukan terhadapnya. Secara alternatif, pelanggan yang perlu mencuplik informasi identitas IAM/pengguna di dalam log, dapat mengonfigurasi Kejadian Data AWS CloudTrail.
Catatan log akses ini dapat digunakan untuk tujuan audit dan berisi detail tentang permintaan, seperti tipe permintaan, sumber yang dijelaskan dalam permintaan, dan waktu dan tanggal pemrosesan permintaan.
T: Opsi apa yang saya miliki untuk mengenkripsi data di Amazon S3?
Anda dapat memilih untuk mengenkripsi data menggunakan SSE-S3, SSE-C, SSE-KMS, atau pustaka klien enkripsi. Keempatnya memungkinkan Anda untuk menyimpan data sensitif yang dienkripsi sebagai tidak ditransfer di Amazon S3.
SSE-S3 memberikan solusi terintegrasi di mana Amazon menangani manajemen kunci dan proteksi kunci dengan menggunakan berbagai lapisan keamanan. Anda sebaiknya memilih SSE-S3 jika ingin agar Amazon mengelola kunci Anda.
SSE-C memungkinkan Amazon S3 melakukan enkripsi dan dekripsi objek Anda sembari mempertahankan kontrol atas kunci yang digunakan untuk mengenkripsi objek. Dengan SSE-C, Anda tidak perlu mengimplementasikan atau menggunakan pustaka sisi klien untuk melakukan enkripsi dan dekripsi objek yang disimpan di Amazon S3, tetapi Anda perlu mengelola kunci yang dikirimkan ke Amazon S3 untuk mengenkripsi dan mendekripsi objek. Gunakan SSE-C jika Anda ingin mempertahankan kunci enkripsi Anda sendiri, tetapi tidak ingin menerapkan atau mendorong pustaka enkripsi di sisi klien.
SSE-KMS memungkinkan AWS Key Management Service (AWS KMS) untuk mengelola kunci enkripsi Anda. Dengan menggunakan AWS KMS untuk mengelola kunci Anda memberikan beberapa manfaat tambahan. Dengan AWS KMS, ada izin terpisah untuk penggunaan kunci KMS, memberikan lapisan kontrol dan perlindungan tambahan terhadap akses tanpa otorisasi ke objek Anda yang disimpan di Amazon S3. AWS KMS memberikan jejak audit sehingga Anda dapat mengetahui siapa yang menggunakan kunci Anda untuk mengakses objek mana dan kapan, serta melihat upaya yang gagal untuk mengakses data dari pengguna yang tanpa izin mendekripsi data. Selain itu, AWS KMS memberikan kontrol keamanan tambahan untuk mendukung upaya pelanggan mematuhi persyaratan industri PCI-DSS, HIPAA/HITECH, dan FedRAMP.
Dengan menggunakan pustaka klien enkripsi, Anda mempertahankan kontrol kunci serta menyelesaikan enkripsi dan dekripsi sisi klien objek dengan menggunakan pustaka enkripsi pilihan Anda. Beberapa pelanggan lebih memilih kontrol enkripsi dan dekripsi objek menyeluruh dan lengkap; dengan demikian, hanya objek yang terenkripsi yang ditransmisikan melalui internet ke Amazon S3. Gunakan pustaka sisi klien jika Anda ingin tetap mempertahankan kontrol kunci enkripsi Anda, mampu menerapkan atau menggunakan pustaka enkripsi di sisi klien, dan membutuhkan agar objek Anda terenkripsi sebelum dikirimkan ke Amazon S3 untuk disimpan.
Untuk informasi selengkapnya tentang penggunaan Amazon S3 SSE-S3, SSE-C, atau SSE-KMS, silakan lihat topik pada Menggunakan Enkripsi di Panduan Developer Amazon S3.
T: Apakah saya dapat mematuhi peraturan privasi data UE dengan menggunakan Amazon S3?
Pelanggan dapat memilih untuk menyimpan semua data di EU dengan menggunakan wilayah Eropa (Frankfurt), Eropa (Irlandia), Eropa (London), atau Eropa (Paris). S3 on Outposts juga bisa digunakan untuk menyimpan semua data on-premise Anda di Outposts, dan Anda bisa memilih untuk mentransfer data antara Outposts atau ke Wilayah AWS. Anda bertanggung jawab untuk memastikan dipatuhinya hukum privasi UE. Harap lihat Pusat GDPR AWS untuk informasi selengkapnya. Jika ada persyaratan lokasi atau peraturan privasi data lebih spesifik lainnya yang mewajibkan Anda menyimpan data di lokasi di mana tidak ada Wilayah AWS, Anda dapat menggunakan S3 di Outposts.
T: Apa yang dimaksud Titik Akhir VPC Amazon untuk Amazon S3?
Amazon VPC Endpoint untuk Amazon S3 adalah entitas logis dalam VPC yang memungkinkan konektivitas ke S3 pada jaringan global Amazon. Ada dua jenis VPC endpoint untuk S3 - VPC endpoint gateway dan VPC endpoint antarmuka. Titik akhir gateway adalah gateway yang Anda tentukan di tabel rute untuk mengakses S3 dari VPC Anda pada jaringan Amazon. Titik akhir antarmuka memperluas fungsionalitas titik akhir gateway dengan menggunakan IP privat untuk merutekan permintaan ke S3 dari dalam VPC Anda, on-premise, atau dari Wilayah AWS yang berbeda. Untuk info selengkapnya, kunjungi dokumentasi.
T: Dapatkah saya mengizinkan akses Titik Akhir Amazon VPC tertentu ke bucket Amazon S3 saya?
Anda dapat membatasi akses ke bucket Anda dari Titik Akhir Amazon VPC tertentu atau serangkaian titik akhir dengan menggunakan kebijakan bucket Amazon S3. Kebijakan bucket S3 saat ini mendukung suatu kondisi, aws:sourceVpce, yang dapat Anda gunakan untuk membatasi akses. Untuk detail lebih lanjut dan contoh kebijakan, baca Menggunakan Titik Akhir VPC.
T: Apa itu AWS PrivateLink untuk Amazon S3?
AWS PrivateLink untuk S3 menyediakan konektivitas privat antara Amazon S3 dan on-premise. Anda dapat menyediakan titik akhir VPC antarmuka untuk S3 di VPC Anda untuk menghubungkan aplikasi on-premise Anda secara langsung ke S3 melalui AWS Direct Connect atau AWS VPN. Anda tidak perlu lagi menggunakan IP publik, mengubah aturan firewall, atau mengonfigurasi gateway internet untuk mengakses S3 dari on-premise. Untuk mempelajari selengkapnya, kunjungi dokumentasi.
T: Bagaimana cara memulai VPC endpoint antarmuka untuk S3?
Anda dapat membuat VPC endpoint antarmuka menggunakan AWS VPC Management Console, AWS Command Line Interface (AWS CLI), AWS SDK, atau API. Untuk mempelajari selengkapnya, kunjungi dokumentasi.
T: Kapan saya harus memilih titik akhir VPC gateway terhadap titik akhir VPC antarmuka berbasis AWS PrivateLink?
Kami sarankan Anda menggunakan titik akhir VPC antarmuka untuk mengakses S3 dari on-premise atau dari VPC di Wilayah AWS lain. Untuk sumber daya yang mengakses S3 dari VPC di Wilayah AWS yang sama dengan S3, sebaiknya gunakan titik akhir VPC gateway karena tidak ditagih. Untuk mempelajari selengkapnya, kunjungi dokumentasi.
T: Dapatkah saya menggunakan Titik Akhir Antarmuka dan Titik Akhir Gateway untuk S3 di VPC yang sama?
Ya. Jika Anda sudah memiliki titik akhir VPC gateway, buat titik akhir VPC antarmuka di VPC Anda dan perbarui aplikasi klien Anda dengan nama titik akhir yang spesifik titik akhir VPC. Misalnya, jika id titik akhir VPC titik akhir antarmuka Anda adalah vpce-0fe5b17a0707d6abc-29p5708s di Wilayah us-east-1, maka nama DNS spesifik titik akhir Anda adalah vpce-0fe5b17a0707d6abc-29p5708s.s3.us-east-1.vpce.amazonaws.com. Dalam hal ini, hanya permintaan ke nama spesifik titik akhir VPC yang akan dirutekan melalui titik akhir VPC Antarmuka ke S3 sedangkan semua permintaan lainnya akan terus dirutekan melalui titik akhir VPC gateway. Untuk mempelajari selengkapnya, kunjungi dokumentasi.
T: Apa yang dimaksud Amazon Macie dan bagaimana saya dapat menggunakannya untuk mengamankan data saya?
Amazon Macie adalah layanan keamanan yang didukung AI yang membantu Anda mencegah kehilangan data dengan secara otomatis mencari, mengelompokkan, dan melindungi data sensitif yang disimpan di Amazon S3. Amazon Macie menggunakan machine learning untuk mengenali data sensitif seperti informasi yang dapat diidentifikasi secara pribadi (PII) atau kekayaan intelektual, menetapkan nilai bisnis, dan memberikan visibilitas pada lokasi di mana data ini disimpan dan bagaimana data ini digunakan di organisasi Anda. Amazon Macie secara terus menerus memantau aktivitas akses data untuk anomali, dan menyampaikan peringatan apabila mendeteksi risiko akses tanpa otorisasi atau kebocoran data yang tidak disengaja.
Anda dapat menggunakan Amazon Macie untuk melindungi data dari ancaman keamanan dengan secara terus menerus memantau data dan kredensial akun Anda. Amazon Macie memberi Anda cara otomatis dan mudah untuk menemukan dan mengklasifikasikan data bisnis Anda. Amazon Macie memberikan kontrol melalui fungsi Lambda bertemplat untuk menolak akses atau memicu kebijakan pengaturan ulang kata kunci pada saat menemukan perilaku mencurigakan atau akses data tanpa otorisasi ke entitas atau aplikasi pihak ketiga. Ketika peringatan dihasilkan, Anda dapat menggunakan Amazon Macie untuk merespon insiden menggunakan Amazon CloudWatch Events untuk mengambil tindakan secara cepat guna melindungi data Anda. Untuk informasi selengkapnya, buka Panduan Pengguna Amazon Macie.
T: Apa itu IAM Access Analyzer untuk Amazon S3 dan bagaimana cara kerjanya?
Access Analyzer untuk S3 adalah fitur yang membantu Anda menyederhanakan manajemen izin saat Anda menetapkan, memverifikasi, dan menyempurnakan kebijakan untuk titik akses dan bucket S3 Anda.
Access Analyzer untuk S3 memantau kebijakan akses yang ada untuk memverifikasi bahwa mereka hanya menyediakan akses yang diperlukan untuk sumber daya S3 Anda. Access Analyzer untuk S3 mengevaluasi kebijakan akses bucket Anda dan membantu Anda menemukan serta dengan cepat mengubah bucket menggunakan akses yang mungkin tidak perlukan.
Access Analyzer untuk S3 memberi tahu Anda saat Anda memiliki bucket yang dikonfigurasi untuk mengizinkan akses ke setiap pengguna internet atau yang dibagikan dengan akun AWS lainnya. Anda menerima temuan tentang sumber dan tingkat akses publik atau bersama. Misalnya, Access Analyzer untuk S3 akan secara proaktif memberi tahu Anda jika akses baca atau tulis yang tidak diperlukan disediakan melalui daftar kontrol akses (ACL) atau kebijakan bucket. Dengan temuan tersebut, Anda dapat segera menetapkan atau mengembalikan kebijakan akses yang diperlukan.
Saat meninjau hasil yang menunjukkan potensi akses bersama ke bucket, Anda dapat melakukan Blokir Akses Publik ke bucket dengan sekali klik di konsol S3. Anda juga dapat menelusuri pengaturan izin tingkat bucket untuk mengonfigurasi tingkat akses terperinci. Untuk tujuan audit, Anda dapat mengunduh temuan Access Analyzer untuk S3 dalam bentuk laporan CSV.
Selain itu, konsol S3 melaporkan peringatan keamanan, eror, dan saran dari IAM Access Analyzer saat Anda menulis kebijakan S3 Anda. Konsol secara otomatis menjalankan lebih dari 100 pemeriksaan kebijakan untuk memvalidasi kebijakan Anda. Pemeriksaan tersebut menghemat waktu Anda, memandu mengatasi eror, dan membantu Anda menerapkan praktik terbaik keamanan.
Untuk info selengkapnya, kunjungi dokumentasi Access Analyzer IAM.
S3 Access Points
T: Apa itu Amazon S3 Access Points?
Kini, pelanggan mengelola akses ke bucket S3 dengan menggunakan satu kebijakan bucket yang mengontrol akses untuk ratusan aplikasi dengan berbagai tingkat izin.
Amazon S3 Access Points memudahkan Anda mengelola akses sesuai skala untuk aplikasi yang menggunakan set data bersama di S3. Dengan S3 Access Points, Anda kini dapat dengan mudah membuat ratusan titik akses per bucket, yang menjadi cara baru penyediaan akses ke set data bersama. Access Points menyediakan jalur khusus ke bucket, dengan nama host unik dan kebijakan akses yang memberlakukan izin khusus dan kontrol jaringan untuk setiap permintaan yang dibuat melalui titik akses. Pelajari selengkapnya di halaman S3 Access Points dan panduan pengguna.
T: Mengapa saya perlu menggunakan titik akses?
S3 Access Points menyederhanakan cara Anda mengelola akses data untuk aplikasi yang diatur untuk data set bersama di S3. Anda tidak perlu lagi mengelola kebijakan bucket tunggal yang rumit dengan ratusan aturan izin berbeda yang perlu ditulis, dibaca, dilacak, dan diaudit. Dengan S3 Access Points, Anda kini dapat membuat titik akses khusus aplikasi yang mengizinkan akses ke set data bersama dengan kebijakan yang disesuaikan dengan aplikasi tertentu.
Menggunakan Access Points, Anda dapat mengurai satu kebijakan bucket besar menjadi kebijakan individu dan terpisah untuk setiap aplikasi yang perlu mengakses set data bersama. Ini memudahkan untuk fokus pada merancang kebijakan akses yang tepat untuk aplikasi, sekaligus tidak perlu khawatir mengganggu jalannya aplikasi lain di dalam set data bersama. Anda juga dapat membuat Service Control Policy (SCP) dan meminta agar semua titik akses dibatasi ke Virtual Private Cloud (VPC), membuat firewall bagi data Anda di jaringan pribadi.
T: Bagaimana cara kerja S3 Access Points?
Setiap S3 Access Point dikonfigurasikan dengan kebijakan akses khusus untuk kasus penggunaan atau aplikasi, dan satu bucket dapat memiliki ratusan titik akses. Misalnya, Anda dapat membuat titik akses untuk bucket S3 Anda yang mengizinkan akses untuk grup pengguna atau aplikasi untuk danau data Anda. Sebuah Access Point dapat mendukung satu pengguna atau aplikasi, atau grup pengguna atau aplikasi di dalam dan di seluruh akun, sehingga manajemen dapat dilakukan terpisah untuk setiap titik akses.
Setiap titik akses dikaitkan dengan bucket tunggal dan berisi kontrol asal jaringan, serta kontrol Block Public Access. Anda dapat membuat titik akses dengan kontrol asal jaringan yang hanya mengizinkan akses penyimpanan dari Virtual Private Cloud Anda, yaitu bagian yang diisolasi secara logis di AWS cloud. Anda juga dapat membuat titik akses dengan kebijakan titik akses yang dikonfigurasi untuk hanya memungkinkan akses ke objek dengan prefiks yang ditentukan atau ke objek dengan tanda spesifik.
Anda dapat mengakses data di bucket bersama melalui titik akses dalam satu dari dua cara. Untuk operasi objek S3, Anda dapat menggunakan ARN titik akses di tempat nama bucket. Untuk permintaan yang membutuhkan nama bucket dalam format nama bucket S3 standar, Anda dapat menggunakan titik akses alias sebagai gantinya. Alias untuk S3 Access Points secara otomatis dihasilkan dan dapat dipertukarkan dengan nama Bucket S3 di mana pun Anda menggunakan nama bucket untuk akses data. Setiap kali Anda membuat titik akses untuk bucket, S3 secara otomatis menghasilkan Alias Titik Akses baru. Untuk set penuh operasi yang kompatibel dan layanan AWS, kunjungi Dokumentasi S3.
T: Apakah ada kuota untuk berapa banyak titik akses yang bisa saya buat?
Secara default, Anda dapat membuat 10.000 titik akses per wilayah per akun. Tidak seperti bucket S3, tidak ada batasan tegas pada jumlah titik akses per akun AWS. Silakan kunjungi AWS Service Quotas untuk meminta kenaikan kuota ini.
T: Saat menggunakan titik akses, bagaimana cara mengizinkan permintaan?
Titik akses S3 memiliki kebijakan titik akses IAM-nya sendiri. Anda menulis kebijakan titik akses seperti halnya kebijakan bucket, menggunakan ARN titik akses sebagai sumber daya. Kebijakan titik akses dapat memberikan atau membatasi akses ke data S3 yang diminta melalui titik akses. Amazon S3 mengevaluasi semua kebijakan terkait, termasuk kebijakan pengguna, bucket, titik akses, Titik akhir VPC, dan kebijakan kontrol layanan serta Daftar Kontrol Akses, untuk memutuskan apakah akan mengizinkan permintaan.
T: Bagaimana cara menulis kebijakan titik akses?
Anda dapat menulis kebijakan titik akses seperti kebijakan bucket, dengan menggunakan aturan IAM untuk mengelola izin dan ARN titik akses pada dokumen kebijakan.
T: Apa perbedaan antara membatasi akses ke VPC tertentu dengan kontrol asal jaringan di titik akses dan membatasi akses ke VPC dengan kebijakan bucket?
Anda dapat tetap menggunakan kebijakan bucket untuk membatasi akses bucket ke VPC tertentu. Titik akses menyediakan cara yang lebih mudah dan teraudit untuk mengunci semua atau subset data dalam set data bersama ke trafik khusus-VPC untuk semua aplikasi di organisasi Anda dengan menggunakan kontrol API. Anda dapat menggunakan Kebijakan Kontrol Layanan (SCP) AWS Organizations untuk mewajibkan agar setiap titik akses yang dibuat di organisasi Anda mengatur nilai parameter API “kontrol asal jaringan” menjadi “vpc”. Kemudian, setiap titik akses baru yang dibuat secara otomatis akan membatasi akses data ke trafik khusus-VPC. Tidak diperlukan kebijakan akses lainnya untuk memastikan bahwa permintaan data diproses hanya dari VPC yang ditentukan.
T: Apakah saya dapat menerapkan kebijakan “Tidak ada akses data Internet” untuk semua titik akses di organisasi saya?
Ya. Untuk menerapkan kebijakan “Tidak ada akses data Internet” untuk titik akses di organisasi Anda, sebaiknya pastikan semua titik akses memberlakukan akses khusus VPC. Untuk itu, Anda harus menulis AWS SCP yang hanya mendukung nilai “vpc” untuk parameter “kontrol asal jaringan” pada API create_access_point(). Jika Anda memiliki titik akses yang menghadap internet yang Anda buat sebelumnya, titik akses tersebut dapat dihapus. Kebijakan bucket di tiap bucket Anda harus dimodifikasi untuk lebih membatasi akses Internet secara langsung ke bucket Anda melalui nama host bucket. Karena layanan AWS lain mungkin secara langsung mengakses bucket Anda, pastikan Anda menyiapkan akses untuk mengizinkan layanan AWS yang Anda inginkan dengan mengubah kebijakan untuk mengizinkan layanan AWS ini. Lihat dokumentasi S3 untuk contoh cara melakukannya.
T: Bisakah saya sepenuhnya menonaktifkan akses langsung ke bucket yang menggunakan nama host bucket?
Saat ini tidak, tetapi Anda dapat melampirkan kebijakan bucket yang menolak permintaan yang tidak dilakukan dengan menggunakan titik akses. Lihat Dokumentasi S3 untuk detail selengkapnya.
T: Bisakah saya mengganti atau menghapus titik akses dari bucket?
Ya. Saat Anda menghapus titik akses, akses apa pun ke bucket terkait melalui titik akses lainnya, dan melalui nama host bucket, tidak akan terganggu.
T: Berapa biaya Amazon S3 Access Points?
Tidak ada biaya tambahan untuk titik akses atau bucket yang menggunakan titik akses. Berlaku tarif permintaan Amazon S3 biasa.
T: Bagaimana cara memulai S3 Access Points?
Anda dapat mulai membuat S3 Access Points di bucket baru dan bucket yang sudah ada melalui Konsol Manajemen AWS, AWS Command Line Interface (CLI), Application Programming Interface (API), dan klien AWS Software Development Kit (SDK). Untuk mempelajari selengkapnya mengenai S3 Access Points, kunjungi panduan pengguna.
Ketahanan & Perlindungan Data
T: Seberapa baik daya tahan Amazon S3?
Amazon S3 Standard, S3 Standard–IA, S3 Intelligent-Tiering, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, dan S3 Glacier Deep Archive dirancang untuk menyediakan durabilitas data sebesar 99,999999999% (11 9's) objek selama tahun tertentu. Tingkat durabilitas ini sesuai dengan kehilangan terprediksi tahunan rata-rata sebesar 0,000000001% objek. Sebagai contoh, jika Anda menyimpan 10.000.000 objek dengan Amazon S3, Anda dapat rata-rata memperkirakan akan mengalami kehilangan satu objek sekali setiap 10.000 tahun. S3 on Outposts dirancang untuk secara durabilitas dan redundansi menyimpan data di berbagai perangkat dan server di Outpost Anda. Selain itu Amazon S3 Standard, S3 Standard-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, dan S3 Glacier Deep Archive dirancang untuk menjaga kelangsungan data jika terjadi kehilangan seluruh Zona Ketersediaan S3.
Seperti halnya lingkungan apa pun, praktik terbaiknya adalah memiliki cadangan dan pengamanan yang tepat terhadap penghapusan yang tidak diinginkan atau yang tidak disengaja. Untuk data S3, praktik terbaik tersebut mencakup izin akses yang aman, Replikasi Lintas Wilayah, versioning dan pemfungsian, cadangan yang diuji secara teratur.
T: Bagaimana Amazon S3 dirancang untuk meraih durabilitas sebesar 99,999999999%?
Amazon S3 Standard, S3 Standard-IA, S3 Intelligent-Tiering, dan kelas penyimpanan S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, serta S3 Glacier Deep Archive menyimpan objek Anda secara redundan di beberapa perangkat di minimum tiga Zona Ketersediaan (AZ) di Wilayah Amazon S3 sebelum mengembalikan dengan SUCCESS. Kelas penyimpanan S3 One Zone-IA menyimpan data secara redundan di berbagai perangkat dalam satu AZ. Layanan ini dirancang untuk menahan kegagalan perangkat yang terjadi secara bersamaan dengan secara cepat mendeteksi dan memperbaiki setiap redundansi yang hilang secara cepat serta memverifikasi integritas data Anda dengan menggunakan checksum secara teratur.
T: Checksum apa yang didukung Amazon S3 untuk pengecekan integritas data?
Simple Storage Service (Amazon S3) menggunakan kombinasi checksum Content-MD5, secure hash algorithms (SHAs), dan pemeriksaan redundansi bersiklus (CRC) untuk memverifikasi integritas data. Amazon S3 melakukan checksum ini pada data at rest dan memperbaiki disparitas dengan menggunakan data yang memiliki redundansi. Selain itu, Amazon S3 menghitung checksum pada semua lalu lintas jaringan untuk mendeteksi perubahan paket data saat menyimpan atau mengambil data. Anda dapat memilih dari algoritme checksum yang didukung untuk melakukan pengecekan integritas data pada permintaan unggahan dan unduhan Anda. Anda dapat memilih algoritme checksum SHA-1, SHA-256, CRC32, atau CRC32C, bergantung pada kebutuhan aplikasi Anda. Anda dapat secara otomatis menghitung dan memverifikasi checksum saat Anda menyimpan atau mengambil data dari S3, dan dapat mengakses informasi checksum kapan pun dengan menggunakan API S3 GetObjectAttributes atau laporan Inventaris S3. Menghitung checksum saat Anda mengalirkan data ke S3 akan menghemat waktu karena Anda dapat memverifikasi dan mengirimkan data Anda dalam single pass, bukan sebagai dua operasi berurutan. Menggunakan checksum untuk validasi data adalah praktik terbaik untuk ketahanan data, dan kemampuan ini meningkatkan performa dan mengurangi biaya untuk melakukannya.
T: Apa itu Versioning?
Versioning memungkinkan Anda mempertahankan, mencari, dan memulihkan setiap versi pada setiap objek yang disimpan di bucket Amazon S3. Setelah Anda mengaktifkan Versioning pada bucket, Amazon S3 mempertahankan objek yang ada kapan pun Anda melakukan operasi PUT, POST, COPY, atau DELETE pada objek. Secara default, permintaan GET akan mencari versi tertulis yang terbaru. Versi lebih lama pada objek yang ditimpakan atau dihapus dapat dicari dengan menentukan versi pada permintaan.
t: Mengapa saya harus menggunakan Versioning?
Amazon S3 memberikan pelanggan infrastruktur penyimpanan yang berdaya tahan tinggi. Versioning menawarkan level proteksi tambahan dengan menyediakan metode pemulihan apabila pelanggan secara tidak sengaja menimpakan atau menghapus objek. Hal ini memungkinkan Anda untuk melakukan pemulihan dengan mudah dari tindakan pengguna yang tidak disengaja atau kegagalan aplikasi. Anda juga dapat menggunakan Versioning untuk retensi dan pengarsipan data.
T: Bagaimana cara saya mulai menggunakan Versioning?
Anda dapat mulai menggunakan Versioning dengan mengaktifkan pengaturan pada bucket Amazon S3 Anda. Untuk informasi selengkapnya tentang cara mengaktifkan Versioning, silakan lihat Dokumentasi Teknis Amazon S3.
T: Bagaimana cara Versioning memproteksi saya dari penghapusan objek yang tidak disengaja?
Pada saat pengguna melakukan operasi DELETE pada objek, permintaan sederhana berurutan (tanpa dilakukan versioning) tidak akan mencari objek. Namun demikian, semua versi objek tersebut akan tetap dipertahankan di bucket Amazon S3 Anda dan dapat dicari dan dipulihkan. Hanya pemilik bucket Amazon S3 saja yang dapat menghapus versi secara permanen. Anda dapat menyetel aturan Siklus Hidup untuk mengelola masa pakai dan biaya penyimpanan beberapa versi objek Anda.
T: Apakah saya dapat menyiapkan sampah, keranjang sampah, atau periode rollback di objek Amazon S3 saya untuk memulihkan dari penghapusan dan penimpaan?
Anda dapat menggunakan aturan Amazon S3 Lifecycle beserta Versioning S3 untuk mengimplementasikan periode rollback pada objek S3 Anda. Sebagai contoh, dengan bucket yang diaktifkan versioning-nya, Anda dapat menyiapkan aturan yang mengarsipkan semua versi Anda yang sebelumnya ke kelas penyimpanan S3 Glacier Flexible Retrieval dengan biaya yang lebih rendah dan menghapusnya setelah 100 hari, memberikan Anda periode 100 hari untuk mengembalikan perubahan pada data sementara mengurangi biaya penyimpanan Anda. Selain itu, Anda dapat menghemat biaya dengan menghapus versi objek yang lama (bukan saat ini) setelah 5 hari dan jika setidaknya ada 2 versi objek yang lebih baru. Anda bisa mengubah jumlah hari atau jumlah versi yang lebih baru berdasarkan kebutuhan pengoptimalan biaya Anda. Hal ini memungkinkan Anda untuk menyimpan versi tambahan dari objek saat dibutuhkan, tetapi menghemat biaya dengan mentransisikan atau menyingkirkannya setelah jangka waktu tertentu.
T: Bagaimana saya dapat memastikan proteksi maksimum pada versi yang saya pertahankan?
Kemampuan HapusMulti-Factor Authentication (MFA) pada Versioning dapat digunakan untuk memberikan lapisan keamanan tambahan. Secara default, semua permintaan ke bucket Amazon S3 memerlukan kredensial akun AWS Anda. Jika Anda mengaktifkan Versioning dengan Hapus MFA pada bucket Amazon S3, dua bentuk autentikasi diperlukan untuk menghapus versi objek secara permanen: kredensial akun AWS Anda dan kode enam digit yang valid serta nomor seri dari perangkat autentikasi pada kepemilikan fisik Anda. Untuk mempelajari selengkapnya tentang pengaktifan Versioning dengan Hapus MFA, termasuk cara membayar dan mengaktifkan perangkat autentikasi, silakan lihat Dokumentasi Teknis Amazon S3.
T: Bagaimana saya dikenai biaya dengan menggunakan Versioning?
Tarif Amazon S3 normal berlaku untuk setiap versi objek yang disimpan atau diminta. Sebagai contoh, mari kita perhatikan skenario berikut untuk mengilustrasikan biaya penyimpanan pada saat menggunakan Versioning (mari menganggap bulan saat ini selama 31 hari):
1) Hari ke-1 bulan tersebut: Anda melakukan PUT sebesar 4 GB (4.294.967.296 byte) di bucket Anda.
2) Hari ke-16 bulan tersebut: Anda melakukan PUT sebesar 5 GB (5.368.709.120 byte) di dalam bucket yang sama dengan menggunakan kunci yang sama dengan PUT asli pada Hari ke-1.
Pada saat menganalisis biaya penyimpanan dari operasi di atas, mohon perhatikan bahwa objek 4 GB dari Hari ke-1 tidak dihapus dari bucket pada saat objek 5 GB ditulis pada Hari ke-15. Namun, objek 4 GB dipertahankan sebagai versi yang lebih lama dan objek 5 GB menjadi versi objek tertulis yang terbaru di dalam bucket Anda. Pada akhir bulan:
Total penggunaan Byte-Jam
[4.294.967.296 byte x 31 hari x (24 jam/hari)] + [5.368.709.120 byte x 16 hari x (24 jam/hari)] = 5.257.039.970.304 Byte-Jam.
Konversi ke GB-Bulan Total
5.257.039.970.304 Byte-Jam x (1 GB/1.073.741.824 byte) x (1 bulan/744 jam) = 6,581 GB-Bulan
Biaya dikalkulasi berdasarkan tarif terakhir di wilayah Anda pada Halaman Harga Amazon S3.
Kelas Penyimpanan
S3 Intelligent-Tiering | S3 Standard | S3 Standard-Infrequent Access | S3 One Zone-Infrequent Access | Amazon S3 Glacier Instant Retrieval | Amazon S3 Glacier Flexible Retrieval (Sebelumnya S3 Glacier) | Amazon S3 Glacier Deep Archive | S3 on Outposts
T: Apa itu kelas penyimpanan Amazon S3?
Amazon S3 menawarkan berbagai kelas penyimpanan yang dapat Anda pilih berdasarkan pada persyaratan akses data, ketahanan, dan biaya beban kerja Anda. Kelas penyimpanan S3 dibangun dengan tujuan menyediakan penyimpanan dengan harga terendah untuk pola akses yang berbeda. Kelas penyimpanan S3 ideal untuk hampir seluruh kasus penggunaan, termasuk yang menuntut kebutuhan performa, persayaratan residensi data, pola akses yang tidak diketahui atau berubah, atau penyimpanan arsip. Setiap kelas penyimpanan S3 mengenakan biaya tersendiri untuk menyimpan dan mengakses data. Dalam menentukan kelas penyimpanan S3 terbaik yang sesuai dengan beban kerja Anda, pertimbangkan pola akses dan waktu retensi data Anda untuk mengoptimalkan total biaya terendah selama masa pakai data Anda.
Kelas Penyimpanan S3 dapat dikonfigurasikan pada tingkat objek, dan sebuah bucket tunggal dapat berisi penyimpanan objek di seluruh kelas penyimpanan. Anda juga dapat menggunakan kebijakan Siklus Hidup S3 untuk secara otomatis melakukan transisi objek antarkelas penyimpanan tanpa perlu berganti aplikasi.
T: Bagaimana cara memilih kelas penyimpanan S3 mana yang digunakan?
Dalam menentukan kelas penyimpanan S3 terbaik yang sesuai dengan beban kerja Anda, pertimbangkan pola akses dan waktu retensi data Anda untuk mengoptimalkan total biaya terendah selama masa pakai data Anda. Banyak beban kerja yang berubah (konten yang dihasilkan pengguna), tidak dapat diprediksi (analitik, danau data), atau pola akses yang tidak diketahui (aplikasi baru), itulah mengapa S3 Intelligent-Tiering harus menjadi kelas penyimpanan default untuk menghemat biaya penyimpanan secara otomatis. Jika Anda mengetahui pola akses data Anda, Anda dapat mengikuti panduan ini. Kelas penyimpanan S3 Standard ideal untuk data yang sering diakses, ini adalah pilihan terbaik jika Anda mengakses data lebih dari satu kali dalam sebulan. S3 Standard - Infrequent Access ideal untuk data yang dipertahankan minimal sebulan dan diakses sekali setiap satu atau dua bulan.
Kelas penyimpanan Amazon S3 Glacier dibangun dengan tujuan untuk mengarsipkan data menyediakan performa tertinggi, fleksibilitas pengambilan paling tinggi, dan penyimpanan arsip dengan biaya terendah di cloud. Anda sekarang dapat memilih dari tiga kelas penyimpanan arsip yang dioptimalkan untuk pola akses dan durasi penyimpanan yang berbeda. Untuk data arsip yang memerlukan akses langsung, seperti citra medis, aset media berita, atau data genomik, pilih kelas penyimpanan S3 Glacier Instant Retrieval, kelas penyimpanan arsip yang memberikan penyimpanan paling murah dengan pengambilan dalam hitungan milidetik. Untuk data arsip yang tidak memerlukan akses langsung tetapi memerlukan fleksibilitas untuk mengambil set data besar tanpa biaya, seperti kasus penggunaan pencadangan atau pemulihan bencana, pilih S3 Glacier Flexible Retrieval (sebelumnya S3 Glacier), yang dapat mengambil data dalam hitungan menit atau mengambil data dalam jumlah besar secara gratis dalam 5—12 jam. Untuk lebih menghemat penyimpanan arsip yang berumur panjang seperti arsip kepatuhan dan pemeliharaan media digital, pilih S3 Glacier Deep Archive, penyimpanan dengan biaya terendah di cloud dengan pengambilan data dalam waktu 12 jam. Semua kelas penyimpanan ini menyediakan banyak ketahanan zona ketersediaan (AZ) dengan menyimpan data secara berlebihan di beberapa perangkat dan zona ketersediaan AWS yang terpisah secara fisik di Wilayah AWS.
Untuk data yang memiliki persyaratan ketahanan yang lebih rendah, Anda dapat mengurangi biaya dengan memilih kelas penyimpanan Zona Ketersediaan (AZ) tunggal, seperti S3 One Zone-Infrequent Access. Jika Anda memiliki persyaratan residensi atau latensi data yang tidak dapat dipenuhi Wilayah AWS yang ada, Anda dapat memilih S3 pada Outposts untuk menyimpan data on-premise.
Anda dapat mempelajari selengkapnya tentang kelas penyimpanan tersebut di halaman Kelas Penyimpanan Amazon S3.
S3 Intelligent-Tiering
T: Apa itu S3 Intelligent-Tiering?
S3 Intelligent-Tiering adalah penyimpanan cloud pertama yang secara otomatis mengurangi biaya penyimpanan Anda di tingkat objek granular dengan memindahkan data secara otomatis ke tingkat akses yang paling hemat biaya berdasarkan frekuensi akses, tanpa dampak performa, biaya pengambilan, atau overhead operasional. S3 Intelligent-Tiering menghadirkan latensi milidetik dan performa throughput tinggi untuk data yang sering, jarang, dan sangat jarang diakses di tingkat Akses Sering, Jarang, dan Instan Arsip. Untuk biaya pemantauan dan otomatisasi objek bulanan yang kecil, S3 Intelligent-Tiering memantau pola akses dan memindahkan objek secara otomatis dari satu tingkat ke tingkat lainnya. Tidak ada biaya pengambilan di S3 Intelligent-Tiering sehingga Anda tidak akan melihat peningkatan tidak terduga dalam tagihan penyimpanan saat pola akses berubah.
Anda dapat menggunakan S3 Intelligent-Tiering sebagai kelas penyimpanan default di hampir setiap beban kerja, khususnya danau data, analitik data, machine learning, aplikasi baru, dan konten yang dibuat pengguna.
T: Bagaimana cara kerja S3 Intelligent-Tiering?
Kelas penyimpanan Amazon S3 Intelligent-Tiering dirancang untuk mengoptimalkan biaya penyimpanan dengan memindahkan data secara otomatis ke tingkat akses yang paling hemat biaya saat pola akses berubah. Untuk biaya pemantauan dan otomatisasi objek bulanan yang rendah, S3 Intelligent-Tiering memantau pola akses dan secara otomatis memindahkan objek yang belum diakses selama 30 hari berturut-turut ke tingkat Akses Jarang untuk menghemat hingga sebesar 40% biaya penyimpanan. Setelah tidak adanya akses selama 90 hari berturut-turut, objek dipindahkan ke tingkat Akses Instan Arsip untuk menghemat hingga sebesar 68% biaya penyimpanan. Tidak ada dampak performa dan biaya pengambilan yang dikenakan di S3 Intelligent-Tiering. Jika suatu objek di tingkat Akses Jarang diakses kemudian, maka objek tersebut secara otomatis dipindahkan kembali ke tingkat Akses Sering.
Untuk mendapatkan biaya penyimpanan terendah pada data yang dapat diakses secara asinkron, Anda dapat memilih untuk mengaktifkan kapabilitas pengarsipan tambahan. Setelah Anda mengaktifkan salah satu atau kedua tingkat akses arsip asinkron, S3 Intelligent-Tiering akan memindahkan objek yang belum diakses selama minimum 90 hari berturut-turut ke tingkat Akses Arsip untuk menghemat hingga 71%, dan setelah 180 hari tanpa akses ke tingkat Akses Arsip Mendalam untuk menghemat hingga 95% untuk objek yang sangat jarang diakses Jika objek di tingkat Akses Arsip atau Mendalam opsional dipulihkan kemudian, maka objek tersebut akan dipindahkan kembali ke tingkat Akses Sering, dan sebelum Anda dapat mengambil objek, Anda harus terlebih dahulu memulihkan objek menggunakan RestoreObject. Untuk informasi tentang memulihkan objek yang diarsipkan, lihat Memulihkan Objek yang Diarsipkan. Tidak ada biaya pengambilan di S3 Intelligent-Tiering. Tidak ada biaya tiering tambahan atau siklus hidup yang berlaku saat objek dipindahkan di antara tingkat akses di dalam kelas penyimpanan S3 Intelligent-Tiering.
Tidak ada ukuran objek minimum di S3 Intelligent-Tiering, tetapi objek yang lebih kecil dari 128 KB tidak memenuhi syarat untuk auto-tiering. Objek yang lebih kecil dapat disimpan di S3 Intelligent-Tiering, tetapi akan selalu dikenakan biaya dengan tarif tingkat Akses Sering, dan tidak dikenakan biaya pemantauan maupun otomatisasi.
Jika Anda ingin menstandardisasi S3 Intelligent-Tiering sebagai sebuah kelas penyimpanan default untuk data yang baru dibuat, Anda dapat memodifikasi aplikasi Anda dengan cara menentukan INTELLIGENT TIERING di header permintaan API PUT S3. S3 Intelligent-Tiering dirancang untuk ketersediaan sebesar 99,9% dan durabilitas sebesar 99,999999999%, serta secara otomatis menawarkan latensi rendah dan performa throughput tinggi yang sama dari S3 Standard. Anda dapat menggunakan AWS Cost Explorer untuk mengukur penghematan tambahan tingkat Akses Instan Arsip.
T: Mengapa saya harus memilih untuk menggunakan S3 Intelligent-Tiering?
Anda dapat menggunakan S3 Intelligent-Tiering sebagai kelas penyimpanan default di hampir setiap beban kerja, khususnya danau data, analitik data, machine learning, aplikasi baru, dan konten yang dibuat pengguna. S3 Intelligent-Tiering adalah penyimpanan cloud pertama yang secara otomatis mengurangi biaya penyimpanan Anda di tingkat objek granular dengan memindahkan data secara otomatis ke tingkat akses yang paling hemat biaya berdasarkan frekuensi akses, tanpa dampak performa, biaya pengambilan, atau overhead operasional. Jika Anda memiliki pola akses data yang tidak diketahui atau berubah, termasuk danau data, analitik data, dan aplikasi baru, kami sarankan Anda untuk menggunakan S3 Intelligent-Tiering. Jika Anda memiliki data yang tidak memerlukan pengambilan segera, kami sarankan untuk mengaktifkan tingkat Akses Arsip Mendalam, di mana Anda hanya membayar 1 USD per TB per bulan untuk data yang mungkin sangat jarang diakses dalam jangka waktu yang lama. S3 Intelligent-Tiering adalah untuk data dengan pola akses yang tidak diketahui dan berubah. Tidak ada biaya pengambilan saat menggunakan kelas penyimpanan S3 Intelligent-Tiering.
T: Performa seperti apa yang ditawarkan oleh S3 Intelligent-Tiering?
S3 Intelligent-Tiering secara otomatis mengoptimalkan biaya penyimpanan Anda tanpa berdampak pada performa Anda. S3 Intelligent-Tiering Tingkat Akses Sering, Jarang, dan Instan Arsip menyediakan latensi milidetik dan performa throughput tinggi.
T: Performa seperti apa yang disediakan oleh tingkat Akses Arsip dan Akses Arsip Mendalam?
Untuk data yang dapat diakses secara asinkron, tingkat Akses Arsip opsional memiliki performa yang sama dengan S3 Glacier Flexible Retrieval, dan tingkat Akses Arsip Mendalam memiliki performa yang sama dengan kelas penyimpanan S3 Glacier Deep Archive. Anda hanya harus mengaktifkan kapabilitas arsip asinkron jika aplikasi Anda dapat menunggu beberapa menit hingga jam. Jika objek yang Anda ambil disimpan dalam tingkat Arsip atau Arsip Mendalam, sebelum Anda dapat mengambil objek tersebut, Anda harus memulihkan objek terlebih dahulu dengan menggunakan RestoreObject. Untuk informasi tentang memulihkan objek yang diarsipkan, lihat Memulihkan Objek yang Diarsipkan. Objek di tingkat Akses Arsip dipindahkan ke tingkat Akses Sering dalam waktu 3-5 jam dan dalam waktu 12 jam jika berada di tingkat Akses Arsip Mendalam. Jika Anda memerlukan akses lebih cepat ke objek dalam tingkat Akses Arsip, Anda dapat membayar untuk pengambilan yang lebih cepat dengan menggunakan konsol untuk memilih opsi kecepatan pengambilan dipercepat.
T: Bagaimana daya tahan dan ketersediaan S3 Intelligent-Tiering?
S3 Intelligent-Tiering dirancang untuk daya tahan 99,999999999% yang sama dengan kelas penyimpanan S3 Standard. S3 Intelligent-Tiering dirancang untuk ketersediaan 99,9%, dan memberlakukan persetujuan tingkat layanan yang memberikan kredit layanan jika ketersediaannya kurang dari komitmen layanan kami dalam siklus tagihan.
T: Bagaimana cara saya memasukkan data ke S3 Intelligent-Tiering?
Terdapat dua cara untuk memasukkan data ke S3 Intelligent-Tiering. Anda dapat langsung PUT ke S3 Intelligent-Tiering dengan menentukan INTELLIGENT_TIERING di header kelas penyimpanan x-amz atau mengatur kebijakan siklus aktif ke objek transisi dari S3 Standard atau S3 Standard-IA ke S3 INTELLIGENT_TIERING.
T: Bagaimana pengenaan biaya untuk S3 Intelligent-Tiering?
S3 Intelligent-Tiering mengenakan biaya untuk penyimpanan, permintaan, dan transfer data bulanan, serta mengenakan biaya bulanan yang murah untuk pemantauan dan otomatisasi per objek. Kelas penyimpanan S3 Intelligent-Tiering secara otomatis menyimpan objek di tiga tingkat akses: tingkat Akses Sering dengan harga di tingkat penyimpanan S3 Standard, tingkat Akses Jarang dengan harga di tingkat penyimpanan S3 Standard-Infrequent Access, dan tingkat Akses Instan Arsip dengan harga di tingkat penyimpanan S3 Glacier Instant Retrieval. S3 Intelligent-Tiering juga memiliki dua tingkat arsip opsional untuk akses yang asinkron, tingkat Akses Arsip dengan tarif penyimpanan S3 Glacier Flexible Retrieval, dan tingkat Akses Arsip Mendalam dengan tarif penyimpanan S3 Glacier Deep Archive.
Dengan biaya pemantauan dan otomatisasi yang kecil, S3 Intelligent-Tiering memantau pola akses dan secara otomatis memindahkan objek melalui tingkat akses latensi rendah dan throughput tinggi, serta dua tingkat akses arsip asinkron penyertaan, tempat pelanggan mendapatkan biaya penyimpanan terendah di cloud untuk data yang dapat diakses secara asinkron.
Tidak ada ukuran objek minimum yang dapat ditagih di S3 Intelligent-Tiering, tetapi objek yang lebih kecil dari 128KB tidak memenuhi syarat untuk auto-tiering. Objek yang lebih kecil tersebut tidak akan dipantau serta akan selalu dikenakan biaya pada tarif tingkat Akses Sering, tanpa dikenakan biaya pemantauan dan otomatisasi. Untuk setiap objek yang diarsipkan ke tingkat Akses Arsip atau tingkat Akses Arsip Mendalam di S3 Intelligent-Tiering, Amazon S3 menggunakan 8 KB penyimpanan untuk nama objek dan metadata lainnya (dikenakan tarif penyimpanan S3 Standard) serta 32 KB penyimpanan untuk indeks dan metadata terkait (dikenakan tarif penyimpanan S3 Glacier Flexible Retrieval dan S3 Glacier Deep Archive).
T: Apakah ada biaya yang dikenakan untuk mengambil data dari S3 Intelligent-Tiering?
Tidak. Tidak ada biaya pengambilan untuk S3 Intelligent-Tiering. S3 Intelligent-Tiering memantau pola akses data Anda dan jika Anda mengakses objek di Akses Jarang, Akses Instan Arsip, atau tingkat arsip asinkron, S3 Intelligent-Tiering secara otomatis memindahkan objek tersebut ke tingkat Akses Sering.
T: Bagaimana cara mengaktifkan tingkat akses arsip S3 Intelligent-Tiering?
Anda dapat mengaktifkan tingkat Akses Arsip dan tingkat Akses Arsip dengan membuat konfigurasi bucket, awalan, atau tingkat tag objek menggunakan konsol manajemen Amazon S3 API, CLI, atau S3. Anda sebaiknya hanya mengaktifkan salah satu atau kedua tingkat akses arsip jika objek Anda dapat diakses secara asinkron oleh aplikasi Anda.
T: Apakah saya dapat memperpanjang waktu sebelum objek diarsipkan dalam kelas penyimpanan S3 Intelligent-Tiering?
Ya. Di bucket, prefiks, atau konfigurasi tingkat tanda objek, Anda dapat memperpanjang waktu akses terakhir untuk mengarsipkan objek di S3 Intelligent-Tiering. Saat diaktifkan, secara default, objek yang belum diakses selama minimum 90 hari berturut-turut akan secara otomatis berpindah ke tingkat Akses Arsip, melewatkan tingkat Akses Instan Arsip. Objek yang belum diakses selama minimum 180 hari berturut-turut secara otomatis berpindah ke tingkat Akses Arsip Mendalam. Konfigurasi default untuk hari berturut-turut sejak akses terakhir sebelum pengarsipan otomatis dalam S3 Intelligent-Tiering dapat diperpanjang selama hingga 2 hari.
T: Bagaimana cara saya mengakses objek dari tingkat Akses Arsip atau Akses Arsip Mendalam dalam kelas penyimpanan S3 Intelligent-Tiering?
Untuk mengakses objek di tingkat Akses Arsip atau Akses Arsip Mendalam, Anda harus mengeluarkan permintaan Pulihkan dan objek akan mulai dikembalikan ke tingkat Akses Sering, semua dalam kelas penyimpanan S3 Intelligent-Tiering. Objek dalam Tingkat Akses Arsip dipindahkan ke tingkat Akses Sering dalam 3-5 jam,objek dalam tingkat Akses Arsip Mendalam dipindahkan ke tingkat Akses Sering dalam 12 jam. Setelah objek berada di tingkat Akses Sering, Anda dapat mengeluarkan permintaan GET untuk mengambil objek.
T: Bagaimana cara mengetahui di tingkat akses S3 Intelligent-Tiering mana objek saya disimpan?
Anda dapat menggunakan Amazon S3 Inventory untuk melaporkan tingkat akses objek yang disimpan di kelas penyimpanan S3 Intelligent-Tiering. Amazon S3 Inventory menyediakan file output CSV, ORC, atau Parquet yang mencantumkan objek Anda dan metadata yang sesuai per hari atau per minggu untuk bucket S3 atau awalan bersama. Anda juga dapat membuat permintaan HEAD pada objek untuk melaporkan tingkat akses arsip S3 Intelligent-Tiering.
T: Dapatkah saya mendaur ulang objek dari S3 Intelligent-Tiering ke kelas penyimpanan yang lain?
Ya. Anda dapat mendaur ulang objek dari S3 Intelligent-Tiering tingkat Akses Sering, Jarang, dan Instan Arsip ke S3 One-Zone Infrequent Access, S3 Glacier Flexible Retrieval, dan S3 Glacier Deep Archive. Selain itu, Anda dapat mendaur ulang objek dari tingkat akses arsip opsional S3 Intelligent-Tiering ke S3 Glacier Flexible Retrieval, dan S3 Glacier Deep Archive, serta dari tingkat S3 Intelligent-Tiering Deep Archive Access ke S3 Glacier Deep Archive.
T: Apakah ada durasi minimum untuk S3 Intelligent-Tiering?
Tidak. Kelas penyimpanan S3 Intelligent-Tiering tidak memiliki durasi penyimpanan minimum.
T: Apakah ada ukuran objek minimum yang dapat ditagih kan untuk S3 Intelligent-Tiering?
Tidak. Kelas penyimpanan S3 Intelligent-Tiering tidak memiliki ukuran objek minimum yang dapat ditagih, tetapi objek yang lebih kecil dari 128 KB tidak memenuhi syarat untuk auto-tiering. Objek yang lebih kecil tersebut tidak akan selalu dikenakan biaya pada tarif tingkat Akses Sering, tanpa biaya pemantauan dan otomatisasi. Untuk setiap objek yang diarsipkan ke tingkat Akses Arsip atau tingkat akses Arsip Mendalam di S3 Intelligent-Tiering, Amazon S3 menggunakan 8 KB penyimpanan untuk nama objek dan metadata lainnya (ditagih dengan tarif penyimpanan S3 Standard) serta 32 KB penyimpanan untuk indeks dan metadata terkait (ditagih dengan tarif penyimpanan S3 Glacier Flexible Retrieval dan S3 Glacier Deep Archive). Untuk detail selengkapnya, kunjungi Halaman harga Amazon S3.
S3 Standard
Q: Apa itu S3 Standard?
Amazon S3 Standard menghadirkan penyimpanan yang tahan lama dengan latensi akses milidetik dan performa throughput yang tinggi untuk data yang sering diakses, biasanya lebih dari sekali per bulan. S3 Standard dirancang untuk kasus penggunaan yang sensitif terhadap performa, seperti danau data, aplikasi cloud-native, situs web yang dinamis, distribusi konten, aplikasi seluler dan game, analitik, serta model pembelajaran mesin machine learning. S3 Standard dirancang untuk ketersediaan data sebesar 99,99% dan durabilitas sebesar 99,999999999% dari objek di banyak Zona Ketersediaan di tahun tertentu. Anda dapat menggunakan kebijakan Siklus Hidup S3 untuk mengontrol dengan tepat waktu data ditransisikan antara S3 Standard dan kelas penyimpanan dengan biaya yang lebih rendah tanpa berganti aplikasi.
T: Mengapa saya harus memilih untuk menggunakan S3 Standard?
S3 Standard ideal untuk data yang sering diakses atau yang memerlukan akses dalam milidetik dan performa throughput tinggi. S3 Standard ideal untuk data yang sangat sering dibaca atau ditulis, karena tidak ada biaya pengambilan. S3 Standard dioptimalkan untuk beragam kasus penggunaan, termasuk danau data, aplikasi bawaan cloud, situs web yang dinamis, distribusi konten, aplikasi seluler dan permainan, serta analitik.
S3 Standard-Infrequent Access (S3 Standard-IA)
T: Apa itu Akses Jarang – S3 Standard?
Amazon S3 Standard-Infrequent Access (S3 Standard-IA) adalah kelas penyimpanan Amazon S3 untuk data yang tidak begitu sering diakses, tetapi memerlukan akses cepat. S3 Standard-IA menawarkan daya tahan tinggi, throughput, dan latensi rendah dari kelas penyimpanan Standar Amazon S3, dengan harga penyimpanan per GB yang rendah dan biaya pengambilan per GB. Kombinasi biaya rendah dan performa yang tinggi ini membuat S3 Standard-IA ideal untuk penyimpanan jangka panjang, cadangan, dan sebagai penyimpanan data untuk pemulihan bencana. Kelas penyimpanan S3 Standard-IA adalah seperangkat pada tingkat objek dan dapat berada pada bucket yang sama dengan kelas penyimpanan Standar S3 atau IA – Satu Zona S3, yang memungkinkan Anda untuk menggunakan kebijakan Lifecycle S3 untuk melakukan transisi objek secara otomatis antara kelas penyimpanan tanpa pergantian aplikasi.
T: Mengapa saya harus memilih untuk menggunakan S3 Standard-IA?
S3 Standard-IA ideal untuk data yang tidak begitu sering diakses, tetapi memerlukan akses cepat pada saat diperlukan. S3 Standard-IA secara ideal sesuai untuk penyimpanan file jangka panjang, sinkronisasi yang lebih lama dan berbagi penyimpanan, dan data yang semakin lama lainnya.
T: Performa seperti apa yang ditawarkan oleh S3 Standard-IA?
S3 Standard-IA menyediakan latensi milidetik dan performa throughput yang sama dengan kelas penyimpanan S3 Standard.
T: Bagaimana cara saya memasukkan data ke S3 Standard-IA?
Terdapat dua cara untuk memasukkan data ke S3 Standard-IA. Anda dapat secara langsung melakukan PUT ke S3 Standard-IA dengan menentukan STANDARD_IA pada header x-amz-storage-class. Anda dapat juga mengatur kebijakan Siklus Hidup untuk melakukan transisi objek dari kelas penyimpanan S3 Standard menjadi S3 Standard IA.
T: Biaya apa yang akan dikenakan jika saya mengubah kelas penyimpanan objek dari S3 Standard IA menjadi S3 Standard dengan permintaan COPY?
Anda akan dikenai biaya untuk permintaan COPY S3 Standard-IA dan pencarian data IA – Standar S3.
T: Apakah ada biaya durasi penyimpanan minimum yang dikenakan untuk S3 Standard-IA?
S3 Standard-IA dirancang untuk data yang tahan lama, tetapi jarang diakses yang tetap disimpan selama berbulan-bulan atau bertahun-tahun. Data yang dihapus dari S3 Standard-IA dalam waktu 30 hari akan dikenakan biaya selama 30 hari penuh. Silakan lihat halaman harga Amazon S3 untuk informasi tentang harga S3 Standard-IA.
T: Apakah terdapat tagihan penyimpanan objek minimum untuk S3 Standard-IA?
S3 Standard-IA dirancang untuk objek yang lebih besar dan memiliki tagihan penyimpanan objek minimum sebesar 128 KB. Objek yang ukurannya lebih kecil dari 128 KB akan dikenakan biaya penyimpanan seperti objek yang berukuran 128 KB. Misalnya, objek 6KB dalam S3 Standard-IA akan dikenakan biaya penyimpanan S3 Standard-IA sebesar 6KB dan biaya tambahan ukuran objek minimum yang setara dengan 122KB dengan harga penyimpanan S3 Standard-IA. Silakan lihat halaman harga Amazon S3 untuk informasi tentang harga S3 Standard-IA.
T: Dapatkah saya melakukan tiering terhadap objek dari kelas penyimpanan S3 Standard-IA ke S3 One Zone-IA atau S3 Glacier Flexible Retrieval?
Ya. Selain menggunakan kebijakan Siklus Hidup untuk melakukan migrasi objek dari S3 Standard ke S3 Standard-IA, Anda juga dapat menyiapkan kebijakan Siklus Hidup untuk melakukan tiering terhadap objek dari S3 Standard-IA ke kelas penyimpanan S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, dan S3 Glacier Deep Archive.
S3 One Zone-Infrequent Access (S3 One Zone-IA)
T: Apa itu kelas penyimpanan S3 One Zone-IA
Kelas penyimpanan S3 One Zone-IA adalah kelas penyimpanan Amazon S3 yang dapat dipilih pelanggan untuk menyimpan objek dalam availability zone tunggal. IA – Satu Zona S3 secara redundan menyimpan data dalam Availability Zone tunggal untuk menghantarkan penyimpanan dengan biaya yang lebih rendah sebesar 20% dibandingkan dengan penyimpanan S3 Standard-IA redundan secara geografis, yang menyimpan data secara redundan ke banyak Availability Zone terpisah secara geografis.
S3 One Zone-IA menawarkan 99% SLA yang tersedia dan juga dirancang untuk daya tahan eleven 9’s dalam Availability Zone. Namun, data di kelas penyimpanan One Zone-IA S3 tidak tahan terhadap kehilangan fisik seluruh Availability Zone.
Penyimpanan S3 One Zone-IA menawarkan fitur Amazon S3 yang sama seperti S3 Standard dan S3 Standard IA, dan digunakan pada Amazon S3 API, CLI dan konsol. Kelas penyimpanan S3 One Zone-IA diatur pada tingkat objek dan dapat berada pada bucket yang sama dengan kelas penyimpanan Standar S3 dan IA – Standar S3. Anda dapat menggunakan kebijakan Lifecycle S3 untuk secara otomatis melakukan transisi objek antarkelas penyimpanan tanpa perlu berganti aplikasi.
T: Kasus penggunaan apa yang paling sesuai untuk kelas penyimpanan S3 One Zone-IA?
Pelanggan dapat menggunakan S3 One Zone-IA untuk penyimpanan yang jarang diakses, seperti pencadangan salinan, salinan pemulihan bencana, atau data lain yang mudah dibuat ulang.
T: Apa saja kinerja yang ditawarkan penyimpanan S3 One Zone-IA?
Kelas penyimpanan S3 One Zone-IA menawarkan latensi dan performa throughput yang sama dengan kelas penyimpanan S3 Standard dan S3 Standard-Infrequent Access.
T: Seberapa baik daya tahan kelas penyimpanan S3 One Zone-IA?
Kelas penyimpanan S3 One Zone - IA dirancang untuk daya tahan 99,999999999% dalam Zona Ketersediaan. Namun, data di kelas penyimpanan S3 One Zone-IA tidak tahan terhadap hilangnya ketersediaan atau kehilangan fisik di Zona Ketersediaan. Sebaliknya, penyimpanan S3 Standard, S3 Intelligent-Tiering, S3 Standard-Infrequent Access, dan S3 Glacier dirancang untuk tahan terhadap hilangnya ketersediaan atau rusaknya Zona Ketersediaan (AZ). S3 One Zone-IA dapat memberikan daya tahan dan ketersediaan yang sama atau lebih baik dibandingkan sebagian besar pusat data modern dan fisik, sekaligus memberikan manfaat tambahan berupa elastisitas penyimpanan dan rangkaian fitur Amazon S3.
T: Apakah "Zona" S3 One Zone-IA sama dengan Zona Ketersediaan AWS?
Ya. Setiap Wilayah AWS adalah area geografis yang terpisah. Setiap wilayah memiliki banyak lokasi yang terisolasi yang dikenal sebagai Zona Ketersediaan. Kelas penyimpanan Amazon S3 One Zone-IA menggunakan Zona Ketersediaan AWS individu dalam Wilayah.
T: Seberapa besar perlindungan pemulihan bencana yang saya lewatkan dengan menggunakan S3 One Zone-IA?
Setiap Availability Zone menggunakan daya dan jaringan yang redundan. Dalam Wilayah AWS, Availability Zone berada pada dataran banjir, zona patahan gempa yang berbeda, dan dipisahkan secara geografis untuk perlindungan dari kebakaran. Kelas penyimpanan Standar S3 dan S3 Standard IA menawarkan perlindungan terhadap berbagai bencana semacam itu dengan menyimpan data Anda secara redundan dalam banyak Availability Zone. One Zone-IA S3 menawarkan proteksi terhadap kegagalan peralatan dalam Availability Zone, tetapi data tidak tahan terhadap kehilangan fisik Availability Zone yang diakibatkan oleh bencana, seperti gempa bumi dan banjir. Dengan menggunakan opsi S3 One Zone-IA, S3 Standard, dan S3 Standard-IA , Anda dapat memilih kelas penyimpanan yang paling sesuai dengan durabilitas dan ketersediaan penyimpanan Anda.
Kelas penyimpanan Amazon S3 Glacier Instant Retrieval
T: Apa itu kelas penyimpanan S3 Glacier Instant Retrieval?
Kelas penyimpanan S3 Glacier Instant Retrieval menghadirkan penyimpanan dengan harga terendah untuk data yang tahan lama tetapi jarang diakses dan memerlukan pengambilan milidetik. S3 Glacier Instant Retrieval menghadirkan akses tercepat ke penyimpanan arsip dengan akses throughput dan milidetik yang sama seperti kelas penyimpanan S3 Standard serta S3 Standard-IA S3 Glacier Instant Retrieval dirancang untuk durabilitas data sebesar 99,999999999% (11 9s) dan ketersediaan 99,9% dengan menyimpan data secara redundan di minimum sebanyak tiga Zona Ketersediaan AWS yang terpisah secara fisik.
T: Mengapa saya harus memilih untuk menggunakan S3 Glacier Instant Retrieval?
S3 Glacier Instant Retrieval ideal jika Anda memiliki data yang sangat jarang diakses (sekali per tiga bulan) dan memerlukan waktu pengambilan milidetik. Ini adalah kelas penyimpanan yang ideal jika Anda menginginkan latensi rendah dan performa throughput tinggi yang sama seperti S3 Standard-IA, tetapi menyimpan data yang diakses lebih jarang daripada S3 Standard-IA, dengan harga penyimpanan yang lebih rendah dan biaya akses data yang sedikit lebih tinggi.
T: Bagaimana ketersediaan dan durabilitas S3 Glacier Instant Retrieval?
S3 Glacier Instant Retrieval dirancang untuk durabilias sebesar 99,999999999% (11 9s) dan ketersediaan sebesar 99,9%, sama seperti S3 Standard-IA, dan membawa perjanjian tingkat layanan yang menyediakan kredit layanan jika ketersediaan kurang dari 99% di setiap siklus penagihan.
T: Performa seperti apa yang ditawarkan oleh S3 Glacier Instant Retrieval?
S3 Glacier Instant Retrieval memberikan latensi milidetik yang sama dan performa throughput yang tinggi seperti kelas penyimpanan S3 Standard dan S3 Standard-IA. Tidak seperti kelas penyimpanan S3 Glacier Flexible Retrieval dan S3 Glacier Deep Archive, yang dirancang untuk akses asinkron, Anda tidak perlu mengeluarkan permintaan Pemulihan sebelum mengakses objek yang disimpan di S3 Glacier Instant Retrieval.
T: Bagaimana cara memasukkan data saya ke dalam S3 Glacier Instant Retrieval?
Terdapat dua cara untuk memasukkan data ke S3 Glacier Instant Retrieval. Anda dapat langsung PUT ke pengambilan Instan S3 Glacier dengan menentukan GLACIER_IR di header x-amz-storage-class atau menetapkan kebijakan Siklus Hidup S3 untuk mentransisikan objek dari S3 Standard atau S3 Standard-IA ke S3 Glacier Instant Retrieval.
T: Apakah ada biaya durasi penyimpanan minimum yang dikenakan untuk Amazon S3 Glacier Instant Retrieval?
S3 Glacier Instant Retrieval dirancang untuk data yang tahan lama tetapi sangat jarang diakses, yang disimpan selama berbulan-bulan atau bertahun-tahun. Objek yang diarsipkan ke S3 Glacier Instant Retrieval memiliki minimum penyimpanan selama 90 hari, dan objek yang dihapus, ditimpa, atau ditransisikan sebelum 90 hari dikenakan biaya prorata yang sama dengan biaya penyimpanan untuk hari yang tersisa. Lihat halaman harga Amazon S3 untuk informasi tentang harga Amazon S3 Glacier Instant Retrieval.
T: Apakah ada biaya durasi ukuran objek minimum yang dikenakan untuk Amazon S3 Glacier Instant Retrieval?
S3 Glacier Instant Retrieval dirancang untuk objek yang lebih besar dan memiliki minimum biaya yang dikenakan untuk penyimpanan objek sebesar 128 KB. Objek yang ukurannya lebih kecil dari 128 KB akan dikenakan biaya penyimpanan seperti objek yang berukuran 128 KB. Sebagai contoh, objek 6 KB di S3 Glacier Instant Retrieval akan dikenakan biaya penyimpanan S3 Glacier Instant Retrieval sebesar 6 KB dan biaya ukuran objek minimum tambahan yang setara dengan 122 KB pada harga penyimpanan S3 Glacier Instant Retrieval. Lihat halaman harga Amazon S3 untuk informasi tentang harga Amazon S3 Glacier Instant Retrieval.
T: Berapa biaya yang dikenakan untuk S3 Glacier Instant Retrieval?
S3 Glacier Instant Retrieval mengenakan biaya untuk penyimpanan bulanan, permintaan berdasarkan pada jenis permintaan dan pengambilan data. Volume penyimpanan yang ditagihkan dalam satu bulan berdasarkan pada penyimpanan rata-rata yang digunakan sepanjang bulan tersebut, diukur dalam gigabita per bulan (GB-Bulan). Anda dikenai biaya untuk permintaan yang berdasarkan pada jenis permintaan—seperti PUT, COPY, dan GET. Anda juga membayar biaya per GB untuk setiap gigabita data yang kembali kepada Anda.
Kelas penyimpanan Amazon S3 Glacier Flexible Retrieval (Sebelumnya S3 Glacier)
T: Apa itu kelas penyimpanan S3 Glacier Flexible Retrieval?
Kelas penyimpanan S3 Glacier Flexible Retrieval menghadirkan penyimpanan berbiaya rendah, hingga 10% lebih rendah (dibandingkan S3 Glacier Instant Retrieval), untuk mengarsipkan data yang diakses 1-2 kali per tahun dan diambil secara asinkron, dengan pengambilan dalam jumlah besar secara gratis. Untuk arsip data yang tidak membutuhkan akses segera tetapi perlu fleksibilitas untuk mengambil kumpulan data yang besar tanpa biaya, seperti pencadangan atau pemulihan bencana kasus penggunaan, S3 Glacier Flexible Retrieval (sebelumnya S3 Glacier) merupakan kelas penyimpanan yang ideal. S3 Glacier Flexible Retrieval menghadirkan opsi pengambilan paling fleksibel yang menyeimbangkan biaya dengan waktu akses mulai dari menit hingga jam dan dengan pengambilan dalam jumlah besar secara gratis. Ini adalah solusi ideal untuk pencadangan, pemulihan bencana, kebutuhan penyimpanan data di luar lokasi, serta saat beberapa data perlu diambil sesekali dalam hitungan menit, dan Anda tidak perlu khawatir mengenai biayanya. S3 Glacier Flexible Retrieval dirancang untuk durabilitas data 99,999999999% (11 9s) dan ketersediaan 99,99% dengan menyimpan data secara redundan di banyak AWS Zona Ketersediaan yang terpisah secara fisik pada tahun tertentu.
Q: Mengapa saya harus memilih untuk menggunakan kelas penyimpanan S3 Glacier Flexible Retrieval?
Untuk arsip data yang tidak membutuhkan akses segera tetapi perlu fleksibilitas untuk mengambil kumpulan data yang besar tanpa biaya, seperti pencadangan atau pemulihan bencana kasus penggunaan, S3 Glacier Flexible Retrieval (sebelumnya S3 Glacier) merupakan kelas penyimpanan yang ideal. S3 Glacier Flexible Retrieval menghadirkan opsi pengambilan paling fleksibel yang menyeimbangkan biaya dengan waktu akses mulai dari menit hingga jam dan dengan pengambilan dalam jumlah besar secara gratis. Ini adalah solusi ideal untuk pencadangan, pemulihan bencana, kebutuhan penyimpanan data di luar lokasi, dan ketika beberapa data perlu diambil sesekali dalam hitungan menit, dan Anda tidak perlu mengenai biaya pengambilan data.
T: Bagaimana cara saya memasukkan data ke S3 Glacier Flexible Retrieval?
Terdapat dua cara untuk memasukkan data ke S3 Glacier Flexible Retrieval. Anda dapat secara langsung PUT ke S3 Glacier Flexible Retrieval dengan menentukan GLACIER di header x-amz-storage-class. Anda juga dapat menggunakan aturan Siklus Hidup S3 untuk mentransisikan objek dari kelas penyimpanan S3 mana pun untuk data aktif (S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA, S3 One Zone-IA, dan S3 Glacier Instant Retrieval) ke Amazon S3 Glacier Flexible Retrieval berdasarkan usia objek. Gunakan Konsol Manajemen Amazon S3, AWS SDK atau API Amazon S3 untuk secara langsung PUT ke Amazon S3 Glacier atau menetapkan aturan pengarsipan.
Catatan: S3 Glacier Flexible Retrieval (Sebelumnya S3 Glacier) juga tersedia melalui API Glacier langsung yang asli dan melalui Konsol Manajemen Amazon S3 Glacier. Untuk pengalaman yang disempurnakan lengkap dengan akses ke rangkaian fitur S3 lengkap termasuk manajemen siklus hidup, S3 Replication, S3 Storage Lens, dan banyak lagi, kami sarankan untuk penggunaan API S3 dan Konsol Manajemen S3 untuk menggunakan fitur S3 Glacier.
T: Bagaimana cara mengambil objek saya yang diarsipkan di S3 Glacier Flexible Retrieval dan apakah saya akan diberikan notifikasi saat objek dipulihkan?
Objek yang diarsipkan di S3 Glacier Flexible Retrieval diakses secara asinkron. Untuk mengambil data yang disimpan di S3 Glacier Flexible Retrieval, mulai permintaan pengambilan menggunakan API Simple Storage Service (Amazon S3) atau konsol Manajemen Simple Storage Service (Amazon S3). Permintaan pengambilan membuat salinan sementara untuk data Anda di kelas penyimpanan S3 Standard sambil membiarkan data yang diarsipkan tetap utuh di S3 Glacier Flexible Retrieval. Anda dapat menentukan durasi waktu dalam satuan hari sebagai periode penyimpanan salinan sementara di Simple Storage Service (Amazon S3). Kemudian, Anda dapat mengakses salinan sementara dari S3 melalui permintaan GET Amazon S3 pada objek terarsip.
Dengan mengembalikan notifikasi, Anda kini dapat diberikan notifikasi dengan Notifikasi Peristiwa S3 saat objek telah berhasil dipulihkan dari S3 Glacier Flexible Retrieval dan salinan sementara tersedia untuk Anda. Pemilik bucket (atau orang lain, sebagaimana diizinkan oleh kebijakan IAM) dapat mengatur notifikasi untuk dikeluarkan ke Amazon Simple Queue Service (SQS) atau Amazon Simple Notification Service (SNS). Notifikasi juga dapat dikirimkan ke AWS Lambda untuk pemrosesan oleh fungsi Lambda.
T: Berapa lama waktu yang diperlukan untuk memulihkan objek yang diarsipkan di Amazon S3 Glacier Flexible Retrieval?
Saat memproses pengambilan, Amazon S3 terlebih dahulu mengambil data yang diminta dari S3 Glacier Flexible Retrieval, kemudian membuat salinan sementara untuk data yang diminta di Amazon S3. Ini biasanya membutuhkan waktu beberapa menit. Waktu akses permintaan Anda bergantung pada opsi pencarian yang Anda pilih: Pengambilan Dipercepat, Standar, atau Massal. Untuk semua objek kecuali objek terbesar (250 MB+), data yang diakses dengan menggunakan pengambilan Dipercepat biasanya dilakukan dalam 1-5 menit. Objek yang diambil menggunakan pengambilan Standar biasanya selesai antara 3-5 jam. Pengambilan dalam jumlah besar biasanya selesai dalam waktu 5-12 jam, dan tidak dikenakan biaya. Untuk informasi selengkapnya tentang opsi S3 Glacier Flexible Retrieval, lihat memulihkan objek yang diarsipkan di panduan pengguna S3.
Dengan unit kapasitas yang disediakan oleh kelas penyimpanan Amazon S3 Glacier, Anda dapat membayar biaya tetap di muka untuk bulan tertentu guna memastikan ketersediaan kapasitas pengambilan untuk pengambilan yang dipercepat dari S3 Glacier Flexible Retrieval. Anda dapat membeli 2 unit kapasitas yang disediakan per bulan untuk meningkatkan jumlah data yang dapat Anda ambil. Setiap unit kapasitas memastikan bahwa setidaknya tiga pengambilan dipercepat dapat dilakukan setiap lima menit dan menyediakan hingga 150 MB/dtk throughput pengambilan. Jika beban kerja Anda memerlukan akses yang sangat andal dan dapat diprediksi ke subset data Anda dalam hitungan menit, Anda harus membeli kapasitas pengambilan yang disediakan. Tanpa kapasitas yang disediakan, pengambilan yang dipercepat mungkin tidak dapat diterima selama periode permintaan tinggi. Jika Anda memerlukan akses ke pengambilan yang dipercepat dalam keadaan apa pun, kami sarankan Anda membeli kapasitas pengambilan yang disediakan.
Anda dapat membeli kapasitas yang disediakan menggunakan konsol Amazon S3, kapasitas pembelian yang disediakan REST API, AWS SDK, atau AWS CLI. Unit kapasitas yang disediakan bertahan selama satu bulan mulai dari tanggal dan waktu pembelian, yang merupakan tanggal mulai. Unit akan kedaluwarsa pada tanggal kedaluwarsa, yaitu tepat satu bulan setelah tanggal mulai hingga detik terdekat. Untuk informasi harga kapasitas yang disediakan, lihat harga Amazon S3.
T: Bagaimana biaya penyimpanan saya dikalkulasikan untuk objek Amazon S3 yang diarsipkan ke S3 Glacier Flexible Retrieval?
Volume penyimpanan yang ditagihkan dalam satu bulan adalah berdasarkan penyimpanan rata-rata yang digunakan di sepanjang bulan tersebut, diukur dalam gigabita-bulan (GB-Bulan). Amazon S3 mengkalkulasikan ukuran objek sebagai jumlah data yang Anda simpan, beserta tambahan data Amazon S3 Glacier sebesar 32 KB dan data tambahan sebesar 8 KB dari kelas penyimpanan Amazon S3 Standard. S3 Glacier Flexible Retrieval memerlukan 32 KB data tambahan per objek untuk indeks dan metadata S3 Glacier sehingga Anda dapat mengidentifikasi dan mengambil data Anda. Amazon S3 memerlukan 8 KB untuk menyimpan dan memelihara nama serta metadata yang ditetapkan pengguna untuk objek diarsipkan di S3 Glacier Flexible Retrieval. Hal ini memungkinkan Anda mendapatkan daftar waktu nyata semua objek Amazon S3 Anda, termasuk yang disimpan menggunakan kelas penyimpanan S3 Glacier Flexible Retrieval, menggunakan Amazon S3 LIST API, atau laporan S3 Inventory.
Sebagai contoh, jika Anda telah mengarsipkan 100.000 objek yang masing-masing berukuran 1 GB, penyimpanan yang dapat ditagihkan adalah:
1,000032 gigabita untuk masing-masing objek x 100.000 objek = 100.003,2 gigabita dari penyimpanan S3 Glacier.
0,000008 gigabita untuk masing-masing objek x 100.000 objek = 0,8 gigabita dari penyimpanan S3 Standard.
Biaya tersebut dikalkulasi berdasarkan tarif terakhir untuk Wilayah AWS Anda di halaman harga Amazon S3. Untuk contoh harga Amazon S3 lainnya, buka FAQ penagihan S3 atau gunakan kalkulator harga AWS.
T: Apakah ada durasi penyimpanan minimum dan biaya penyimpanan objek minimum untuk Amazon S3 Glacier Flexible Retrieval?
Amazon S3 Glacier Flexible Retrieval dirancang untuk data yang tahan lama tetapi jarang diakses yang tetap disimpan selama berbulan-bulan atau bertahun-tahun. Objek yang diarsipkan ke S3 memiliki minimum penyimpanan selama 90 hari, dan objek yang dihapus, ditimpa, atau ditransisikan sebelum 90 hari dikenakan biaya prorata yang sama dengan biaya penyimpanan untuk hari yang tersisa. Lihat halaman harga Amazon S3 untuk informasi tentang harga Amazon S3 Glacier Flexible Retrieval.
Amazon S3 Glacier Flexible Retrieval memiliki ukuran penyimpanan objek minimum yang dapat ditagih sebesar 40 KB. Objek yang berukuran lebih kecil dari 40 KB dapat disimpan tetapi akan dikenakan biaya untuk penyimpanan sebesar 40 KB.
T: Berapa biaya untuk mengambil data dari Amazon S3 Glacier Flexible Retrieval?
Ada tiga cara untuk mengambil data dari S3 Glacier Flexible Retrieval: Pengambilan Dipercepat, Standar, dan Massal. Dipercepat dan Standar memiliki biaya pengambilan per GB dan biaya per permintaan (yaitu, Anda membayar untuk permintaan yang dibuat terhadap objek Amazon S3 Anda). Pengambilan Massal dari S3 Glacier Flexible Retrieval tidak dikenakan biaya. Untuk detail harga S3 Glacier berdasarkan Wilayah AWS, kunjungi halaman harga Amazon S3.
T: Apakah Amazon S3 menyediakan kapabilitas untuk mengarsipkan objek guna mengurangi biaya kelas penyimpanan?
Kelas penyimpanan Amazon S3 Glacier dibangun dengan tujuan untuk mengarsipkan data menyediakan performa tertinggi, fleksibilitas pengambilan paling tinggi, dan penyimpanan arsip dengan biaya terendah di cloud. Anda sekarang dapat memilih dari tiga kelas penyimpanan arsip yang dioptimalkan untuk pola akses dan durasi penyimpanan yang berbeda. Untuk data arsip yang memerlukan akses langsung, seperti citra medis, aset media berita, atau data genomik, pilih kelas penyimpanan S3 Glacier Instant Retrieval, kelas penyimpanan arsip yang memberikan penyimpanan paling murah dengan pengambilan dalam hitungan milidetik. Untuk data arsip yang tidak memerlukan akses langsung tetapi memerlukan fleksibilitas untuk mengambil set data besar tanpa biaya, seperti kasus penggunaan pencadangan atau pemulihan bencana, pilih S3 Glacier Flexible Retrieval (sebelumnya S3 Glacier), yang dapat mengambil data dalam hitungan menit atau mengambil data dalam jumlah besar secara gratis dalam 5—12 jam. Untuk lebih menghemat penyimpanan arsip yang berumur panjang seperti arsip kepatuhan dan pemeliharaan media digital, pilih S3 Glacier Deep Archive, penyimpanan dengan biaya terendah di cloud dengan pengambilan data dalam waktu 12 jam.
T: Apakah infrastruktur backend yang mendukung kelas penyimpanan S3 Glacier Flexible Retrieval dan S3 Glacier Deep Archive?
Kami ingin lebih fokus pada hasil performa, durabilitas, ketersediaan, dan keamanan pelanggan. Namun, pertanyaan ini sering diajukan oleh pelanggan. Kami menggunakan sejumlah teknologi berbeda yang memungkinkan kami menawarkan harga kepada pelanggan. Layanan kami dibuat menggunakan teknologi penyimpanan data umum yang secara khusus dirakit menjadi sistem yang dibuat sesuai tujuan dengan biaya yang dioptimalkan menggunakan perangkat lunak yang dikembangkan AWS. Kelas penyimpanan S3 Glacier mendapatkan manfaat dari kemampuan kami dalam mengoptimalkan rangkaian input dan output untuk memaksimalkan efisiensi pengaksesan penyimpanan yang mendasarinya.
Amazon S3 Glacier Deep Archive
T:Apa itu kelas penyimpanan Amazon S3 Glacier Deep Archive?
S3 Glacier Deep Archive adalah kelas penyimpanan Amazon S3 yang menyediakan penyimpanan objek yang aman dan memiliki durabilitas untuk retensi data jangka panjang yang diakses satu atau dua kali dalam setahun. Dari hanya 0,00099 USD per GB-bulan (kurang dari sepersepuluh dari satu sen, atau sekitar 1 USD per TB-bulan), S3 Glacier Deep Archive menawarkan penyimpanan di cloud berbiaya terendah, dengan harga yang secara signifikan lebih rendah daripada penyimpanan dan pemeliharaan data di penyimpanan magnetic tape on-premise atau pengarsipan data di luar lokasi.
T: Kasus penggunaan apa yang paling sesuai untuk kelas penyimpanan S3 Glacier Deep Archive?
S3 Glacier Deep Archive adalah kelas penyimpanan ideal untuk menyediakan perlindungan offline pada sebagian besar aset data penting perusahaan Anda, atau ketika retensi data jangka panjang diperlukan untuk persyaratan kebijakan perusahaan, kontraktual, maupun kepatuhan terhadap peraturan. Pelanggan merasa S3 Glacier Deep Archive menjadi pilihan menarik untuk melindungi properti intelektual inti, rekaman keuangan dan medis, hasil riset, dokumen hukum, penelitian eksplorasi seismik, dan cadangan jangka panjang, khususnya di industri yang diatur secara ketat seperti Layanan Keuangan, Layanan Kesehatan, Minyak & Gas, dan Sektor Publik. Selain itu, terdapat organisasi seperti perusahaan media dan hiburan, yang ingin menjaga salinan cadangan properti intelektual inti. Seringkali, pelanggan yang menggunakan S3 Glacier Deep Archive dapat mengurangi atau menghentikan penggunaan penyimpanan pita magnetis on-premise dan layanan kearsipan tape off-premise.
T: Bagaimana kelas penyimpanan S3 Glacier Deep Archive berbeda dari S3 Glacier Instant Retrieval, dan kelas penyimpanan S3 Glacier Flexible Retrieval?
S3 Glacier Deep Archive memperluas penawaran pengarsipan data, yang memungkinkan Anda memilih kelas penyimpanan yang optimal berdasarkan biaya penyimpanan dan pengambilan, serta frekuensi pengambilan. Pilih kelas penyimpanan S3 Glacier Instant Retrieval saat Anda membutuhkan akses milidetik ke data arsip berbiaya rendah. Untuk arsip data yang tidak membutuhkan akses segera tetapi perlu fleksibilitas untuk mengambil kumpulan data yang besar tanpa biaya, seperti pencadangan atau pemulihan bencana kasus penggunaan, pilih S3 Glacier Flexible Retrieval (sebelumnya S3 Glacier), dengan pengambilan dalam hitungan menit atau pengambilan massal gratis dalam 5-12 jam. Sebaliknya, S3 Glacier Deep Archive dirancang untuk data kurang bernilai yang kemungkinan besar tidak diakses, tetapi masih memerlukan penyimpanan jangka panjang dan memiliki durabilitas. S3 Glacier Deep Archive 75% lebih murah daripada S3 Glacier Flexible Retrieval dan menyediakan pengambilan dalam waktu 12 jam menggunakan kecepatan pengambilan Standard. Anda juga dapat mengurangi biaya pengambilan dengan memilih pengambilan Jumlah Besar, yang akan mengembalikan data dalam waktu 48 jam.
T: Bagaimana cara mulai menggunakan S3 Glacier Deep Archive?
Cara termudah untuk menyimpan data di S3 Glacier Deep Archive adalah menggunakan API S3 untuk mengunggah data secara langsung. Cukup tentukan “S3 Glacier Deep Archive” sebagai kelas penyimpanan. Anda dapat menyelesaikan tugas ini menggunakan AWS Management Console, S3 REST API, AWS SDK, atau Antarmuka Baris Perintah AWS.
Anda juga dapat mulai menggunakan S3 Glacier Deep Archive dengan membuat kebijakan untuk memigrasikan data menggunakan Siklus Masa Pakai S3, yang memberikan kemampuan menentukan siklus masa pakai objek dan mengurangi biaya penyimpanan Anda. Kebijakan tersebut dapat diatur untuk memigrasikan objek ke S3 Glacier Deep Archive berdasarkan umur objek. Anda dapat menentukan kebijakan untuk bucket S3, atau untuk prefiks khusus. Transisi siklus masa pakai ditagih dengan harga Pengunggahan S3 Glacier Deep Archive.
Tape Gateway, fitur penyimpanan tape virtual berbasis cloud dari AWS Storage Gateway, kini berintegrasi dengan S3 Glacier Deep Archive, yang memungkinkan Anda menyimpan cadangan dan arsip jangka panjang yang berbasis tape virtual di S3 Glacier Deep Archive, sehingga menyediakan penyimpanan berbiaya termurah untuk data ini di cloud. Untuk mulai, buat tape virtual baru menggunakan Konsol atau API AWS Storage Gateway, dan atur target penyimpanan arsip baik di S3 Glacier Flexible Retrieval maupun S3 Glacier Deep Archive. Jika aplikasi cadangan Anda menolak tape, maka tape tersebut akan diarsipkan ke target penyimpanan yang dipilih.
T: Bagaimana saran Anda untuk memigrasikan data dari arsip tape yang ada ke S3 Glacier Deep Archive?
Terdapat beberapa cara untuk memigrasikan data dari arsip tape yang ada ke S3 Glacier Deep Archive. Anda dapat menggunakan AWS Tape Gateway untuk mengintregasikan dengan aplikasi cadangan yang ada menggunakan antarmuka pustaka tape (VTL). Antarmuka mempersembahkan tape virtual untuk aplikasi cadangan. Alat ini dapat segera digunakan untuk menyimpan data di Amazon S3, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, dan S3 Glacier Deep Archive.
Anda juga dapat menggunakan AWS Snowball atau Snowmobile untuk memigrasikan data. Snowball dan Snowmobile mempercepat pemindahan dari terabyte hingga petabyte data ke dalam dan ke luar AWS menggunakan perangkat penyimpanan fisik yang dirancang agar pemindahan aman. Menggunakan Snowball dapat membantu menghilangkan tantangan yang dapat dihadapi dengan transfer data skala besar, termasuk biaya jaringan yang tinggi, waktu transfer yang lama, dan masalah keamanan.
Terakhir, Anda dapat menggunakan AWS Direct Connect untuk membuat koneksi jaringan khusus dari tempat Anda ke AWS. Dalam banyak kasus, Direct Connect dapat mengurangi biaya jaringan Anda, meningkatkan throughput bandwidth, dan memberikan pengalaman jaringan yang lebih konsisten dibandingkan koneksi berbasis internet.
T: Bagaimana cara mengambil objek yang disimpan di S3 Glacier Deep Archive?
Untuk mengambil data yang disimpan di S3 Glacier Deep Archive, lakukan permintaan “Pulihkan” menggunakan API Amazon S3 atau Amazon S3 Management Console. Pemulihan membuat salinan sementara data Anda di kelas penyimpanan S3 Standard sambil membiarkan data yang diarsipkan tetap utuh di S3 Glacier Deep Archive. Anda dapat menentukan jumlah waktu dalam hari di mana salinan sementara disimpan di S3. Kemudian, Anda dapat mengakses salinan sementara dari S3 melalui permintaan GET Amazon S3 pada objek terarsip.
Ketika memulihkan objek terarsip, Anda dapat menentukan salah satu dari opsi berikut dalam elemen Tingkat pada bodi permintaan: Standar merupakan tingkat default dan memungkinkan Anda mengakses berbagai objek terarsip dalam 12 jam, dan Massal memungkinkan Anda mengambil sejumlah besar, bahkan petabyte data secara terjangkau dan biasanya selesai dalam 48 jam.
T: Bagaimana saya dikenai biaya untuk menggunakan S3 Glacier Deep Archive?
Penyimpanan S3 Glacier Deep Archive diberi harga berdasarkan pada jumlah data yang Anda simpan dalam satuan GB, jumlah permintaan PUT/transisi siklus hidup, pengambilan dalam satuan GB, dan jumlah permintaan pemulihan. Model penetapan harga ini mirip dengan S3 Glacier Flexible Retrieval. Lihat halaman harga Amazon S3 untuk informasi tentang harga S3 Glacier Deep Archive.
T: Bagaimana penggunaan S3 Glacier Deep Archive ditampilkan di tagihan AWS saya dan di alat Manajemen Biaya AWS?
Penggunaan dan biaya S3 Glacier Deep Archive akan ditampilkan sebagai item baris layanan mandiri di tagihan AWS bulanan Anda, terpisah dari penggunaan dan biaya Amazon S3. Namun, jika Anda menggunakan alat Manajemen Biaya AWS, penggunaan dan biaya S3 Glacier Deep Archive akan termasuk dalam penggunaan dan biaya Amazon S3 di laporan pengeluaran bulanan terperinci milik Anda, dan tidak dipecah menjadi item baris layanan yang terpisah.
T: Adakah durasi penyimpanan minimum dan biaya penyimpanan objek minimum untuk S3 Glacier Deep Archive?
S3 Glacier Deep Archive dirancang untuk data yang berumur panjang tetapi jarang diakses yang disimpan selama 7—10 tahun atau lebih. Objek yang diarsipkan ke S3 Glacier Deep Archive memiliki penyimpanan minimal 180 hari, dan objek yang dihapus sebelum 180 hari dikenakan biaya prorata yang sama dengan biaya penyimpanan untuk sisa hari. Lihat halaman harga Amazon S3 untuk informasi tentang harga S3 Glacier Deep Archive.
S3 Glacier Deep Archive memiliki ukuran minimum penyimpanan objek yang dapat ditagih sebesar 40 KB. Objek yang lebih kecil dari 40 KB mungkin disimpan tetapi akan dikenakan biaya untuk penyimpanan sebesar 40 KB. Lihat halaman harga Amazon S3 untuk informasi tentang harga S3 Glacier Deep Archive.
T: Bagaimana cara S3 Glacier Deep Archive berintegrasi dengan Layanan AWS lainnya?
S3 Glacier Deep Archive diintegrasikan dengan fitur Amazon S3, termasuk S3 Object Tagging, kebijakan S3 Lifecycle, S3 Object Lock, dan S3 Replication. Dengan fitur manajemen penyimpanan S3, Anda dapat menggunakan satu bucket Amazon S3 untuk menyimpan campuran data dari S3 Glacier Deep Archive, S3 Standard, S3 Standard-IA, S3 One Zone-IA, dan S3 Glacier Flexible Retrieval. Hal ini memungkinkan administrator penyimpanan untuk membuat keputusan berdasarkan pada sifat alami data dan pola akses data. Pelanggan dapat menggunakan kebijakan Siklus Aktif Amazon S3 untuk memigrasikan data secara otomatis ke kelas penyimpanan berbiaya lebih rendah seraya umur data bertambah, atau kebijakan Replikasi S3 Lintas Wilayah atau dalam Wilayah yang Sama untuk mereplikasi data ke wilayah yang sama atau wilayah lainnya.
Layanan AWS Storage Gateway mengintegrasikan Tape Gateway dengan kelas penyimpanan S3 Glacier Deep Archive, yang memungkinkan Anda menyimpan tape virtual di kelas penyimpanan Amazon S3 berbiaya terendah sehingga mengurangi biaya bulanan untuk menyimpan data jangka panjang Anda di cloud hingga sebesar 75%. Dengan fitur ini, Tape Gateway mendukung pengarsipan tape virtual baru Anda secara langsung ke S3 Glacier Flexible Retrieval dan S3 Glacier Deep Archive, yang membantu Anda memenuhi persyaratan pencadangan, pengarsipan, serta pemulihan. Tape Gateway membantu Anda memindahkan cadangan berbasis tape ke AWS tanpa membuat perubahan ke alur kerja cadangan yang ada. Tape Gateway mendukung sebagian besar aplikasi cadangan terkemuka seperti Veritas, Veeam, Commvault, Dell EMC NetWorker, IBM Spectrum Protect (di Windows OS), dan Manajer Perlindungan Data Microsoft.
S3 on Outposts
T: Apa yang dimaksud dengan Amazon S3 on Outposts?
Amazon S3 on Outposts memberikan penyimpanan objek di lingkungan on-premise Anda, menggunakan API dan kapabilitas S3 yang Anda gunakan di AWS saat ini. AWS Outposts adalah layanan terkelola penuh yang memperluas infrastruktur AWS, layanan AWS, API, dan alat ke hampir semua pusat data, ruang kolokasi, atau fasilitas on-premise. Dengan menggunakan S3 on Outposts, Anda dapat dengan aman memproses dan menyimpan data pelanggan yang dihasilkan on-premise sebelum memindahkannya ke Wilayah AWS, mengakses data secara lokal untuk aplikasi yang berjalan on-premise, atau menyimpan data di Outpost Anda untuk perusahaan di lokasi dengan persyaratan residensi data, dan atau yang berada di industri yang diatur. Untuk mempelajari selengkapnya tentang S3 on Outposts, kunjungi halaman gambaran umum.
Manajemen Penyimpanan
S3 Object Tags | S3 Inventory | S3 Batch Operations | S3 Object Lock | S3 CloudWatch Metrics | S3 Lifecycle Management
S3 Object Tags
T: Apa itu S3 Object Tags?
Tanda Objek S3 adalah pasangan nilai-kunci yang diterapkan pada objek S3 yang dapat dibuat, diperbarui, atau dihapus kapan pun selama masa aktif objek tersebut. Dengan ini, Anda akan memiliki kemampuan untuk membuat kebijakan Identity and Access Management (IAM), menyiapkan kebijakan S3 Lifecycle, dan menyesuaikan metrik penyimpanan. Tanda pada tingkat objek ini kemudian dapat mengelola transisi antara kelas penyimpanan dan objek kedaluwarsa di latar belakang. Anda dapat menambahkan tag ke objek baru saat mengunggahnya atau menambahkannya pada objek yang sudah ada. Hingga sepuluh tag dapat ditambahkan ke tiap objek S3 dan Anda dapat menggunakan AWS Management Console, REST API, AWS CLI, atau AWS SDK untuk menambahkan tag objek.
Pelajari selengkapnya dengan mengunjungi panduan pengguna S3 Object Tags.
T: Mengapa saya perlu menggunakan Tag Objek?
Tanda Objek merupakan alat yang dapat Anda gunakan untuk mengaktifkan pengelolaan sederhana pada penyimpanan S3 Anda. Dengan kemampuan untuk membuat, memperbarui, dan menghapus tag kapan saja selama objek Anda ada, penyimpanan dapat disesuaikan dengan kebutuhan bisnis Anda. Tanda tersebut memungkinkan Anda untuk mengontrol akses ke objek yang ditandai dengan pasangan nilai kunci tertentu, sehingga Anda dapat mengamankan data rahasia yang hanya untuk grup atau pengguna tertentu secara lebih lanjut. Tanda objek juga dapat digunakan untuk melabelkan objek yang termasuk dalam proyek atau unit bisnis tertentu, yang dapat digunakan sejalan dengan kebijakan Siklus Hidup S3 untuk mengelola transisi ke kelas penyimpanan lainnya (S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, dan S3 Glacier Deep Archive) atau dengan S3 Replication untuk secara selektif mereplikasi data antar Wilayah AWS.
T: Bagaimana cara memperbarui tanda objek pada objek saya?
Tag Objek dapat diubah kapan saja selama objek S3 ada, Anda dapat menggunakan AWS Management Console, REST API, AWS CLI, atau AWS SDK untuk mengubah tag objek Anda. Perhatikan bahwa semua perubahan untuk tag di luar AWS Management Console dibuat ke set tag penuh. Jika Anda memiliki lima tag yang dipasang pada objek tertentu dan ingin menambahkan yang keenam. Anda perlu memasukkan lima tag awal ke dalam permintaan itu.
T: Berapa harga Tag Objek?
Tanda objek dihargai berdasarkan jumlah tanda dan biaya permintaan untuk menambahkan tanda. Permintaan yang dikaitkan dengan menambahkan dan memperbarui Tag Objek dihargai sama dengan harga permintaan yang sudah ada. Lihat Halaman Harga Amazon S3 untuk informasi selengkapnya.
T: Bagaimana cara memulai dengan Analisis Kelas Penyimpanan?
Anda dapat menggunakan Konsol Manajemen AWS atau S3 PUT Bucket Analytics API untuk mengonfigurasi kebijakan Analisis Kelas Penyimpanan guna mengidentifikasi penyimpanan yang jarang diakses yang dapat ditransisikan ke kelas penyimpanan S3 Standard-IA atau S3 One Zone-IA, atau diarsipkan ke kelas penyimpanan S3 Glacier. Anda dapat menavigasi ke tab “Manajemen” di Konsol S3 untuk mengelola Analisis Kelas Penyimpanan, S3 Inventory, dan metrik S3 CloudWatch.
S3 Inventory
T: Apa itu S3 Inventory?
Laporan S3 Inventory memberikan alternatif yang terjadwal untuk API Daftar sinkron Amazon S3. Anda dapat mengonfigurasi S3 Inventory untuk memberikan output file CSV, ORC, atau Parquet objek Anda dan metadata yang terkait pada basis harian atau mingguan untuk satu bucket atau prefiks S3. Anda dapat menyederhanakan dan mempercepat alur kerja bisnis dan pekerjaan big data dengan S3 Inventory. Anda dapat juga menggunakan inventaris S3 untuk memeriksa status enkripsi dan replikasi objek Anda untuk memenuhi kebutuhan bisnis, kepatuhan, dan regulatori. Pelajari selengkapnya di panduan pengguna Amazon S3 Inventory.
T: Bagaimana saya memulai dengan S3 Inventory?
Anda dapat menggunakan Konsol Manajemen AWS atau PUT Bucket Inventory API untuk mengonfigurasi laporan inventaris harian atau mingguan untuk semua objek dalam bucket S3 Anda atau subset dari objek di bawah prefiks bersama. Sebagai bagian dari konfigurasi, Anda dapat menentukan tujuan bucket S3 untuk laporan Inventaris S3 Anda, format file output (CSV, ORC, atau Parquet), dan metadata objek tertentu yang penting untuk aplikasi bisnis, seperti nama objek, ukuran, tanggal dimodifikasi terakhir, kelas penyimpanan, ID versi, penanda hapus, penanda versi bukan terbaru, penanda pengunggahan multi-bagian, status replikasi, atau status enkripsi. Anda dapat menggunakan S3 Inventory sebagai input langsung ke alur kerja aplikasi atau pekerjaan big data Anda. Anda juga dapat melakukan kueri S3 Inventory menggunakan bahasa SQL Standar dengan Amazon Athena, Amazon Redshift Spectrum, dan alat lain seperti Presto, Hive, dan Spark.
Pelajari selengkapnya di panduan pengguna Amazon S3 Inventory.
T: Bagaimana saya dikenai biaya untuk menggunakan S3 Inventory?
Lihat halaman harga Amazon S3 untuk harga S3 Inventory. Setelah Anda mengonfigurasi enkripsi menggunakan SSE-KMS, Anda akan dikenai biaya KMS untuk enkripsi, lihat halaman harga KMS untuk informasi selengkapnya.
Operasi Batch S3
T: Apa itu Operasi Batch S3?
Operasi Batch S3 adalah fitur yang dapat Anda gunakan untuk mengotomatiskan eksekusi operasi tunggal (seperti menyalin objek, atau menjalankan fungsi AWS Lambda) di banyak objek. Dengan Operasi Batch S3, Anda dapat, dengan beberapa klik di konsol S3 atau permintaan API tunggal, membuat perubahan ke miliaran objek tanpa harus menulis kode aplikasi khusus atau menjalankan klaster komputasi untuk aplikasi manajemen penyimpanan. Selain mengelola operasi penyimpanan Anda di banyak objek, Operasi Batch S3 juga mengelola pengulangan, menampilkan kemajuan, mengirimkan pemberitahuan, menyediakan laporan penyelesaian, dan mengirim peristiwa ke AWS CloudTrail untuk semua operasi yang dilakukan pada objek target Anda. Operasi Batch S3 dapat digunakan dari konsol S3, atau melalui AWS CLI dan SDK.
Untuk mempelajari selengkapnya, kunjungi halaman Operasi Batch S3, atau halaman pengguna.
T: Bagaimana cara memulai dengan Operasi Batch S3?
Anda dapat memulai Operasi Batch S3 dengan masuk ke konsol Amazon S3 atau menggunakan AWS CLI atau SDK untuk membuat pekerjaan Operasi Batch S3 pertama Anda. Tugas Operasi Batch S3 terdiri dari daftar objek yang harus ditindaklanjuti dan tipe operasi yang harus dilakukan (lihat daftar lengkap operasi yang tersedia). Mulai dengan memilih laporan Inventaris S3 atau berikan daftar khusus Anda dari objek untuk Operasi Batch S3 untuk ditangani. Laporan S3 Inventory adalah daftar file semua objek yang disimpan dalam prefiksa atau bucket S3. Selanjutnya, Anda memilih dari serangkaian operasi S3 yang didukung oleh S3 Batch Operations, seperti mengganti kumpulan tanda, mengubah ACL, menyalin penyimpanan dari satu bucket ke bucket lain, atau memulai pemulihan dari kelas penyimpanan S3 Glacier Flexible Retrieval ke S3 Standard. Anda kemudian dapat menyesuaikan pekerjaan S3 Batch Operations dengan parameter tertentu seperti nilai tanda, penerima ACL, dan durasi restorasi. Untuk lebih menyesuaikan tindakan penyimpanan, Anda dapat menulis fungsi Lambda Anda sendiri dan memanggil kode itu melalui Operasi Batch S3.
Setelah Anda membuat tugas Operasi Batch S3, Operasi Batch S3 akan memproses daftar objek dan mengirim pekerjaan ke status “menunggu konfirmasi” jika perlu. Setelah Anda mengonfirmasi detail pekerjaan, Operasi Batch S3 akan mulai menjalankan operasi yang Anda tentukan. Anda dapat melihat kemajuan pekerjaan Anda secara terprogram atau melalui konsol S3, menerima pemberitahuan saat selesai, dan meninjau laporan penyelesaian yang memerinci perubahan yang dilakukan pada penyimpanan Anda.
Jika Anda tertarik mempelajari selengkapnya tentang S3 Batch Operations, tonton video tutorial dan kunjungi dokumentasi.
S3 Object Lock
T: Apa yang dimaksud dengan Amazon S3 Object Lock?
Amazon S3 Object Lock adalah fitur Amazon S3 yang mencegah versi objek dihapus atau ditimpa untuk waktu yang tetap atau tidak terbatas, sehingga Anda dapat menerapkan kebijakan penyimpanan sebagai lapisan perlindungan data tambahan atau untuk kepatuhan terhadap peraturan. Anda dapat memigrasikan beban kerja dari sistem write-once-read-many (WORM) yang sudah ada ke Amazon S3, dan mengonfigurasi S3 Object Lock pada tingkat objek dan bucket untuk mencegah penghapusan versi objek sebelum Pertahankan Hingga Tanggal yang ditentukan sebelumnya atau tanpa batas waktu (Tanggal Penahanan Legal). Perlindungan S3 Object Lock dipertahankan terlepas dari kelas penyimpanan mana tempat objek berada dan sepanjang transisi S3 Lifecycle di antara kelas penyimpanan.
Anda harus menggunakan S3 Object Lock jika Anda memiliki persyaratan peraturan yang menentukan bahwa data harus dilindungi WORM, atau jika Anda ingin menambahkan lapisan perlindungan tambahan terhadap data di Amazon S3. S3 Object Lock dapat membantu Anda memenuhi persyaratan peraturan yang menentukan bahwa data harus disimpan dalam format yang tidak berubah, dan juga dapat melindungi terhadap penghapusan tidak disengaja atau berbahaya untuk data di Amazon S3.
Pelajari selengkapnya dengan mengunjungi panduan pengguna S3 Object Lock.
T: Bagaimana cara kerja Amazon S3 Object Lock?
Amazon S3 Object Lock mencegah penghapusan versi objek durasi masa retensi yang ditetapkan atau tidak terhingga hingga Kontrol Legal dihapus. Dengan S3 Object Lock, Anda dapat memastikan versi objek tetap tidak berubah selama proteksi WORM diterapkan. Anda dapat menerapkan perlindungan WORM dengan menetapkan Pertahankan Hingga Tanggal atau Kontrol Legal ke suatu versi objek menggunakan SDK AWS, CLI, REST API, atau Konsol Manajemen S3. Anda dapat menerapkan pengaturan retensi dalam permintaan PUT, atau menerapkannya ke objek yang ada setelah dibuat.
Pertahankan Hingga Tanggal menentukan lamanya waktu versi objek tetap tidak berubah. Setelah Pertahankan Hingga Tanggal ditetapkan ke suatu objek, versi objek tersebut tidak dapat dimodifikasi atau dihapus hingga Pertahankan Hingga Tanggal berlalu. Jika pengguna mencoba menghapus objek Pertahankan Hingga Tanggal, operasi akan ditolak.
Atau, Anda dapat membuat objek tidak dapat diubah dengan menerapkan Kontrol Legal. Kontrol Legal mencegah versi objek dimodifikasi atau dihapus tanpa batasan hingga secara eksplisit dihapus. Untuk menempatkan dan menghapus Pengamanan Dokumen Hukum, akun AWS Anda harus memiliki izin tulis untuk tindakan PutObjectLegalHold. Pengamanan Dokumen Hukum dapat diterapkan ke objek apa pun dalam bucket S3 Object Lock aktif, baik objek tersebut dilindungi WORM berdasarkan periode retensi atau tidak.
S3 Object Lock dapat dikonfigurasi dalam salah satu dari dua Mode. Saat di-deploy dalam Mode Tata Kelola, akun AWS dengan izin IAM tertentu dapat menghapus perlindungan WORM dari versi objek. Jika Anda memerlukan imutabilitas yang lebih kuat agar memenuhi aturan, Anda dapat menggunakan Mode Kepatuhan. Dalam Mode Kepatuhan, perlindungan WORM tidak dapat dihapus oleh pengguna mana pun, termasuk akun root.
T: Apa yang telah dinilai oleh layanan penyimpanan elektronik AWS berdasarkan peraturan layanan keuangan?
Untuk pelanggan di industri layanan keuangan, S3 Object Lock memberikan dukungan tambahan kepada broker penjual yang harus me-retain catatan dalam format yang tidak dapat dihapus dan tidak dapat ditulis ulang untuk memenuhi persyaratan peraturan Aturan SEC 17a-4(f), Aturan FINRA 4511, atau Peraturan CFTC 1.31. Anda dapat dengan mudah menentukan kerangka waktu retensi catatan untuk me-retain arsip peraturan dalam bentuk aslinya selama durasi yang diperlukan, dan juga menetapkan kontrol legal untuk me-retain data selama waktu yang tidak ditentukan sampai kontrol tersebut dihapus.
T: Dokumentasi AWS apa yang mendukung persyaratan SEC 17a-4(f)(2)(i) dan CFTC 1.31(c) untuk memberitahukan pihak pembuat peraturan saya?
Buat pemberitahuan pada pembuat peraturan atau “Designated Examining Authority (DEA)” pilihan Anda untuk menggunakan penyimpanan elektronik Amazon S3 dengan salinan Cohasset Assessment. Untuk tujuan persyaratan ini, AWS bukan pihak ketiga yang ditentukan (D3P). Pastikan untuk memilih D3P dan sertakan informasi ini dalam pemberitahuan Anda ke DEA Anda.
Metrik S3 CloudWatch
T: Bagaimana saya memulai dengan Metrik S3 CloudWatch?
Anda dapat menggunakan Konsol Manajemen AWS untuk mengaktifkan pembuatan metrik permintaan CloudWatch 1 menit untuk bucket S3 Anda atau mengonfigurasi filter untuk metrik menggunakan prefiks atau tanda objek, atau titik akses. Atau, Anda dapat memanggil API Metrik Bucket PUT S3 untuk mengaktifkan dan mengonfigurasi publikasi metrik penyimpanan S3. Metrik Permintaan CloudWatch akan tersedia di CloudWatch dalam 15 menit setelah diaktifkan. CloudWatch Storage Metrics diaktifkan secara default untuk semua bucket, dan dilaporkan satu kali per hari. Pelajari selengkapnya tentang metrik CloudWatch untuk Amazon S3.
T: Alarm apa yang dapat saya atur pada metrik penyimpanan saya?
Anda dapat menggunakan CloudWatch untuk menetapkan ambang batas pada salah satu jumlah, pengatur waktu, atau tarif metrik penyimpanan dan memicu tindakan ketika ambang batas dilanggar. Misalnya, Anda dapat menetapkan ambang batas pada persentase Respons Kesalahan 4xx dan ketika setidaknya tiga titik data berada di atas ambang batas, memicu alarm CloudWatch untuk memberitahukan teknisi DevOps.
T: Bagaimana saya dikenai biaya karena menggunakan Metrik CloudWatch S3?
Metrik penyimpanan CloudWatch disediakan gratis. Metrik permintaan CloudWatch dihargai sebagai metrik kustom untuk Amazon CloudWatch. Silakan lihat halaman harga Amazon CloudWatch untuk informasi umum tentang harga metrik S3 CloudWatch.
Pengelolaan Siklus Aktif S3
T: Apa itu Pengelolaan Siklus Aktif S3?
Pengelolaan Siklus aktif S3 memberikan kemampuan untuk mendefinisikan siklus aktif objek Anda dengan kebijakan yang telah ditentukan dan mengurangi biaya penyimpanan. Anda dapat mengatur kebijakan transisi siklus aktif untuk secara otomatis memindahkan objek yang disimpan dalam kelas penyimpanan S3 Standard ke kelas penyimpanan S3 Standard-IA, S3 One Zone-IA, dan/atau S3 Glacier pada umur data. Anda juga dapat mengatur kebijakan kedaluwarsa siklus aktif untuk menghapus objek secara otomatis berdasarkan pada usia objek. Anda dapat mengatur kebijakan untuk kedaluwarsa pengunggahan multi-bagian, yang mengakhiri pengunggahan multi-bagian tak lengkap berdasarkan pada usia pengunggahan.
Pelajari selengkapnya dengan mengunjungi panduan pengguna S3 Lifecycle.
T: Bagaimana saya mengatur kebijakan pengelolaan Siklus Aktif S3?
Anda dapat mengatur dan mengelola kebijakan Siklus Aktif di AWS Management Console, S3 REST API, AWS SDK, atau AWS Command Line Interface (CLI). Anda dapat menentukan kebijakan pada prefiks atau tingkat bucket.
T: Bagaimana Saya dapat menggunakan manajemen Amazon S3 Lifecycle untuk membantu menurunkan biaya penyimpanan Amazon S3 saya?
Dengan kebijakan Amazon S3 Lifecycle, Anda dapat mengonfigurasi objek untuk dimigrasikan dari kelas penyimpanan S3 Standard ke S3 One Zone-IA atau S3 One Zone-IA dan/atau diarsipkan ke kelas penyimpanan S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, atau S3 Glacier Deep Archive.
Anda juga dapat menentukan kebijakan S3 Lifecycle untuk menghapus objek setelah periode waktu tertentu. Anda dapat menggunakan otomatisasi berdasarkan kebijakan ini untuk mengurangi biaya penyimpanan dengan cepat dan mudah sekaligus menghemat waktu. Di setiap aturan, Anda dapat menentukan prefiks, periode waktu, transisi ke S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive, dan/atau kedaluwarsa. Sebagai contoh, Anda dapat membuat aturan yang mengarsipkan semua objek ke S3 Glacier Flexible Retrieval dengan prefiks umum “logs/” 30 hari sejak pembuatannya, dan mengakhiri objek tersebut setelah 365 dari waktu pembuatan.
Anda juga dapat membuat aturan terpisah yang hanya mengakhiri semua objek dengan prefiks “backups/” 90 hari setelah pembuatan. Kebijakan Siklus Aktif S3 berlaku untuk objek S3 lama dan baru, yang membantu Anda mengoptimalkan penyimpanan dan memaksimalkan penghematan biaya untuk semua data saat ini dan data baru yang ditempatkan di S3 tanpa peninjauan dan migrasi data secara manual yang memakan waktu.
Dalam aturan siklus aktif, bidang prefiks mengidentifikasi objek sasaran aturan. Untuk mengaplikasikan aturan ke objek individual, spesifikasikan nama kunci. Untuk mengaplikasikan aturan ke sekelompok objek, spesifikasikan prefiks yang sama (misalnya “logs/”). Anda dapat menyebutkan tindakan transisi untuk mengarsipkan objek dan tindakan kedaluwarsa untuk menghapus objek Anda. Untuk periode waktu, berikan tanggal pembuatan (misalnya 31 Januari 2015) atau jumlah hari dari tanggal pembuatan (misalnya 30 hari) yang Anda inginkan untuk mengarsipkan atau menghapus objek. Anda dapat membuat beberapa aturan untuk prefiks yang berbeda.
T: Berapa biaya untuk menggunakan pengelolaan Siklus Aktif S3?
Tidak ada biaya tambahan untuk mengatur dan menggunakan kebijakan Siklus Aktif. Permintaan transisi dikenai biaya per objek saat sebuah objek memenuhi persyaratan untuk transisi berdasarkan pada aturan Siklus Aktif. Lihat pada halaman Harga S3 untuk informasi harga.
T: Mengapa saya harus menggunakan kebijakan Siklus Aktif S3 untuk menghentikan pengunggahan multi-bagian yang tidak selesai?
Kebijakan Siklus Aktif S3 yang menghentikan pengunggahan multi-bagian yang tidak selesai memungkinkan Anda menghemat biaya dengan membatasi waktu simpan pengunggahan multi-bagian yang tidak selesai. Sebagai contoh, jika aplikasi Anda mengunggah beberapa bagian objek multi-bagian, tetapi tidak melaksanakannya, Anda akan tetapi dikenai biaya untuk penyimpanan tersebut. Aturan ini dapat menurunkan tagihan S3 Anda dengan menghapus secara otomatis pengunggahan multi-bagian yang tidak selesai dan penyimpanan yang terkait setelah sejumlah hari yang telah ditentukan.
T: Apakah saya dapat menyiapkan Notifikasi Peristiwa Amazon S3 untuk mengirimkan notifikasi saat transisi Siklus Hidup S3 atau objek kedaluwarsa?
Ya, Anda dapat menyiapkan Notifikasi Peristiwa Amazon S3 untuk memberikan notifikasi saat transisi Siklus Hidup S3 atau objek kedaluwarsa. Sebagai contoh, Anda dapat mengirimkan Notifikasi Peristiwa Amazon S3 ke topik Amazon SNS, antrean Amazon SQS, atau fungsi AWS Lambda saat Siklus Hidup S3 memindahkan objek ke kelas penyimpanan S3 yang berbeda atau mengakhiri objek.
Analitik & Wawasan Penyimpanan
T: Fitur apa saja yang tersedia untuk menganalisis penggunaan penyimpanan saya di Amazon S3?
S3 Storage Lens memberikan visibilitas tingkat organisasi mengenai penggunaan penyimpanan objek, tren aktivitas, dan membuat rekomendasi yang dapat ditindaklanjuti guna meningkatkan efisiensi biaya serta menerapkan praktik terbaik perlindungan data. Analisis Kelas Penyimpanan S3 memungkinkan Anda memantau pola akses di seluruh objek untuk membantu Anda memutuskan kapan mentransisikan data ke kelas penyimpanan yang tepat untuk mengoptimalkan biaya. Anda selanjutnya dapat menggunakan informasi ini untuk mengonfigurasi kebijakan Siklus Hidup S3 yang melakukan transfer data. Amazon S3 Inventory memberikan laporan objek Anda dan metadata yang terkait pada basis harian atau mingguan untuk satu bucket atau prefiks S3. Laporan ini dapat digunakan untuk membantu memenuhi kebutuhan bisnis, kepatuhan, dan regulasi dengan memverifikasi enkripsi, serta status replikasi objek Anda.
T: Apa yang dimaksud dengan Amazon S3 Storage Lens?
Amazon S3 Storage Lens memberikan visibilitas tingkat organisasi mengenai penggunaan penyimpanan objek dan tren aktivitas, serta membuat rekomendasi yang dapat ditindaklanjuti guna meningkatkan efisiensi biaya dan menerapkan praktik terbaik perlindungan data. Storage Lens menawarkan dasbor interaktif yang berisi satu tampilan penggunaan penyimpanan objek dan aktivitas Anda di puluhan atau ratusan akun dalam organisasi Anda, dengan kemampuan penelusuran untuk membuat wawasan di tingkat akun, bucket. atau bahkan prefiks. Ini mencakup metrik seperti byte, jumlah objek, dan permintaan serta metrik yang merinci penggunaan fitur S3, seperti jumlah metrik dan jumlah delete marker. S3 Storage Lens juga memberikan rekomendasi kontekstual guna menemukan Anda cara untuk mengurangi biaya penyimpanan dan menerapkan praktik terbaik perlindungan data di puluhan atau ratusan akun dan bucket.
Pelajari selengkapnya dengan mengunjungi panduan pengguna S3 Storage Lens.
T: Bagaimana cara kerja S3 Storage Lens?
S3 Storage Lens menggabungkan metrik penggunaan dan aktivitas penyimpanan Anda setiap hari untuk divisualisasikan di dasbor interaktif S3 Storage Lens, atau tersedia sebagai ekspor metrik dalam format file CSV atau Parket. Dasbor default dibuat untuk Anda secara otomatis di tingkat akun, dan Anda memiliki opsi untuk membuat dasbor kustom tambahan yang tercakup dalam organisasi AWS atau akun, Wilayah, atau bucket spesifik Anda. Saat mengonfigurasi dasbor, Anda dapat menggunakan pilihan metrik default, atau menerima metrik dan rekomendasi lanjutan untuk biaya tambahan. S3 Storage Lens memberikan rekomendasi secara kontekstual dengan metrik penyimpanan di dasbor, agar Anda dapat mengambil tindakan untuk mengoptimalkan penyimpanan berdasarkan metrik.
T: Apa pertanyaan kunci yang dapat dijawab menggunakan metrik S3 Storage Lens?
Dasbor S3 Storage Lens tersusun dari sekitar tiga tipe pertanyaan utama yang dapat dijawab terkait penyimpanan Anda. Dalam tampilan Ringkasan, pertanyaan teratas yang terkait dengan penggunaan penyimpanan dan tren aktivitas secara menyeluruh dapat dijelajahi. Misalnya, “Seberapa cepat peningkatan jumlah byte keseluruhan dan hitungan permintaan saya dari waktu ke waktu?” Dalam tampilan Efisiensi Biaya, Anda dapat menjelajahi pertanyaan yang terkait dengan pengurangan biaya penyimpanan, misalnya, “Apakah saya bisa menghemat uang dengan mempertahankan lebih sedikit versi lama?” Dalam tampilan Perlindungan Data, Anda dapat menjawab pertanyaan tentang mengamankan data Anda, misalnya, “Apakah penyimpanan saya terlindungi dari penghapusan tidak sengaja atau disengaja?” Setiap pertanyaan tersebut mewakili pertanyaan lapis pertama yang kemungkinan besar akan mengarah pada analisis penelusuran.
T: Apa metrik yang tersedia di S3 Storage Lens?
S3 Storage Lens berisi lebih dari 30 metrik, yang dikelompokkan berdasarkan metrik penggunaan (yang berasal dari snapshot objek harian dalam akun) dan metrik aktivitas (yang melacak permintaan dan byte yang diterima). Metrik tersebut diatur ke dalam tiga kategori utama, ringkasan, efisiensi biaya, dan perlindungan data. Selain itu, metrik turunan juga diberikan dengan menggabungkan metrik dasar. Misalnya, “Tingkat Pengambilan” adalah metrik yang dihitung dengan membagi “Jumlah Byte yang Diunduh” dengan “Jumlah Total Byte.” Untuk melihat daftar lengkap metrik, silakan kunjungi dokumentasi S3 Storage Lens.
T: Apa saja opsi konfigurasi dasbor saya?
Dasbor default dikonfigurasi secara otomatis yang disediakan untuk seluruh akun Anda, dan Anda memiliki opsi untuk membuat dasbor kustom tambahan yang dapat tercakup dalam AWS organization, wilayah spesifik, atau bucket dalam akun. Anda dapat menyiapkan beberapa dasbor kustom, yang dapat bermanfaat jika Anda memerlukan beberapa pemisahan logika dalam analisis penyimpanan Anda, seperti segmentasi di bucket untuk mewakili berbagai tim internal. Secara default, dasbor Anda akan menerima metrik gratis S3 Storage Lens, tetapi Anda memiliki opsi peningkatan untuk menerima metrik dan rekomendasi lanjutan S3 Storage Lens. Selain itu, untuk setiap dasbor, Anda dapat mengaktifkan ekspor metrik, dengan opsi tambahan untuk menentukan bucket tujuan dan tipe enkripsi.
T: Seberapa banyak data historis yang tersedia di S3 Storage Lens?
Untuk metrik yang ditampilkan dalam dasbor interaktif, metrik gratis Storage Lens menyimpan data historis selama 14 hari, serta metrik dan rekomendasi lanjutan menyimpan data historis selama 15 bulan. Untuk ekspor metrik opsional, Anda dapat mengonfigurasi periode retensi yang Anda inginkan, dan tarif penyimpanan S3 standar akan berlaku.
T: Bagaimana saya akan ditagih untuk S3 Storage Lens?
S3 Storage Lens tersedia dalam dua tingkat metrik. Metrik gratis tersedia tanpa biaya tambahan untuk semua pelanggan. Metrik lanjutan S3 Storage Lens dan detail harga rekomendasi tersedia di halaman harga S3. Dengan metrik gratis S3 Storage Lens, Anda menerima metrik penggunaan di level bucket, dan menyediakan data historis selama 14 hari di dasbor. Dengan metrik dan rekomendasi lanjutan S3 Storage Lens, Anda menerima metrik penggunaan pada tingkat prefiks, metrik aktivitas, rekomendasi, dan menyediakan data historis selama 15 bulan dalam dasbor.
T: Apa perbedaan antara S3 Storage Lens dengan S3 Inventory?
S3 Inventory menyediakan daftar objek Anda dan metadata terkait dengan objek tersebut untuk bucket S3 atau prefiks bersama, yang dapat digunakan untuk melakukan analisis tingkat objek penyimpanan Anda. S3 Storage Lens menyediakan metrik yang dikumpulkan berdasarkan organisasi, akun, wilayah, kelas penyimpanan, bucket, dan tingkat prefiks, yang meningkatkan visibilitas penyimpanan Anda di seluruh organisasi.
T: Apakah perbedaan antara S3 Storage Lens dengan Analisis Kelas Penyimpanan (SCA) S3?
Analisis Kelas Penyimpanan S3 memberikan rekomendasi untuk kelas penyimpanan yang optimal dengan membuat kelompok usia objek berdasarkan pola akses tingkat objek dalam masing-masing bucket/prefiks/tanda selama 30 – 90 hari sebelumnya. S3 Storage Lens memberikan rekomendasi tingkat organisasi harian tentang cara meningkatkan efisiensi biaya dan menerapkan praktik terbaik perlindungan data, dengan rekomendasi terperinci tambahan berdasarkan akun, wilayah, kelas penyimpanan, bucket, atau prefiks.
Analisis Kelas Penyimpanan
T: Apa itu Analisis Kelas Penyimpanan?
Dengan Analisis Kelas Penyimpanan, Anda dapat menganalisis pola akses penyimpanan untuk menentukan kelas penyimpanan yang optimal untuk penyimpanan Anda. Fitur S3 ini secara otomatis mengidentifikasi pola akses yang jarang untuk membantu Anda memindahkan penyimpanan ke S3 Standard IA. Anda dapat mengonfigurasi kebijakan Analisis Kelas Penyimpanan untuk memonitor semua bucket, prefiks, atau tanda objek. Setelah pola akses yang jarang telah diamati, Anda dapat dengan mudah membuat kebijakan usia Siklus Aktif S3 yang baru berdasarkan hasil tersebut. Analisis Kelas Penyimpanan juga memberikan visualisasi harian dari penggunaan penyimpanan Anda pada Konsol Manajemen AWS yang dapat Anda ekspor ke bucket S3 untuk melakukan analisis dengan menggunakan alat inteligensi bisnis pilihan Anda seperti Amazon QuickSight.
Pelajari selengkapnya dan mulailah dengan mengunjungi panduan pengguna S3 Storage Class Analysis.
T: Seberapa sering Analisis Kelas Penyimpanan diperbarui?
Analisis Kelas Penyimpanan diperbarui setiap hari di Konsol Manajemen S3, tetapi rekomendasi awal untuk transisi kelas penyimpanan disediakan setelah 30 hari.
Kueri yang Siap Digunakan
T: Apa itu fungsionalitas "Kueri yang Siap Digunakan"?
Amazon S3 memungkinkan konsumen untuk menjalankan kueri yang canggih terhadap data yang disimpan tanpa perlu memindahkan data ke dalam platform analisis terpisah. Kemampuan untuk melakukan kueri data yang siap digunakan di Amazon S3 secara signifikan dapat meningkatkan kinerja dan mengurangi biaya solusi analisis yang mendorong S3 sebagai kumpulan data. S3 menawarkan berbagai opsi kueri yang siap digunakan, termasuk S3 Select, Amazon Athena, dan Amazon Redshift Spectrum, yang memungkinkan Anda untuk memilih satu opsi terbaik yang sesuai dengan penggunaan Anda. Anda bahkan dapat menggunakan Amazon S3 Select dengan AWS Lambda untuk membangun aplikasi tanpa server yang dapat memanfaatkan kemampuan pemrosesan yang siap digunakan yang diberikan oleh S3 Select.
T: Apa itu S3 Select?
S3 Select adalah fitur Amazon S3 yang memudahkan pencarian data spesifik dari konten objek dengan menggunakan ekspresi SQL sederhana tanpa harus mencari seluruh objek. S3 Select menyederhanakan dan meningkatkan kinerja pemindaian dan pemfilteran konten objek menjadi rangkaian data tertarget berukuran lebih kecil hingga 400%. Dengan S3 Select, Anda juga dapat melakukan investigasi operasional pada file log di Amazon S3 tanpa perlu mengoperasikan dan mengelola klaster komputasi.
Anda dapat menggunakan S3 Select untuk mengambil subset data menggunakan klausa SQL, seperti SELECT dan WHERE, dari objek yang disimpan dalam format CSV, JSON, atau Apache Parquet. S3 Select juga bekerja dengan objek yang dikompresi dengan GZIP atau BZIP2 (khusus untuk objek CSV dan JSON), dan objek terenkripsi sisi server.
Anda dapat menggunakan S3 Select dengan AWS Lambda untuk membangun aplikasi tanpa server yang menggunakan S3 Select untuk mencari data secara efisien dan mudah dari Amazon S3, bukan mencari dan memproses seluruh objek. Anda juga dapat menggunakan S3 Select dengan kerangka kerja Big Data, seperti Presto, Apache Hive, dan Apache Spark untuk memindai dan memfilter data di Amazon S3.
Pelajari selengkapnya dengan cara mengunjungi panduan pengguna S3 Select.
T: Apa yang dimaksud dengan Amazon Athena?
Amazon Athena adalah layanan kueri interaktif yang memudahkan analisis data di Amazon S3 dengan menggunakan kueri SQL standar. Athena adalah layanan nirserver, sehingga tidak ada infrastruktur yang harus ditetapkan atau dikelola, dan Anda dapat memulai menganalisis data secepatnya. Anda bahkan tidak perlu memuat data Anda ke dalam Athena; ia bekerja secara langsung dengan data yang disimpan di kelas penyimpanan S3 mana pun. Untuk memulai, cukup masuk ke Konsol Manajemen Athena, tentukan skema Anda, dan mulai lakukan kueri. Amazon Athena menggunakan Presto dengan dukungan SQL standar penuh dan berfungsi dengan berbagai format data standar, termasuk CSV, JSON, ORC, Apache Parquet dan Avro. Sementara Athena ideal untuk kueri ad-hok yang cepat dan berintegrasi dengan Amazon QuickSight untuk visualisasi yang mudah, juga dapat menangani analisis kompleks, termasuk gabung, fungsi jendela, dan larik dalam jumlah banyak.
T: Apa yang dimkasud dengan Amazon Redshift Spectrum?
Amazon Redshift Spectrum adalah fitur Amazon Redshift yang memungkinkan Anda menjalankan kueri terhadap eksabita data yang tidak terstruktur di Amazon S3 tanpa perlu memuat atau ETL. Ketika Anda menerbitkan kueri, kueri tersbeut menuju ke titik akhir Amazon Redshift SQL, yang membuat dan mengoptimalkan rencana kueri. Amazon Redshift menentukan data yang lokal maupun yang ada di Amazon S3, membuat rencana untuk meminimalkan jumlah data Amazon S3 yang perlu dibaca, meminta pekerja Redshift Spectrum dari kolam sumber daya yang dibagikan untuk membaca dan memproses data dari Amazon S3.
Redshift Spectrum menskalakan keluar hingga ribuan instans jika diperlukan, sehingga kueri berjalan dengan cepat tanpa terpengaruh ukuran data. Dan, Anda dapat menggunakan SQL yang benar-benar sama untuk data Amazon S3 seperti yang Anda gunakan untuk kueri Amazon Redshift Anda hari ini dan terhubung ke titik akhir Amazon Redshift yang sama dengan menggunakan alat kecerdasan bisnis yang sama. Redshift Spectrum memungkinkan Anda untuk memisahkan penyimpanan dan komputasi, membantu Anda menskalakan keduanya secara independen. Anda dapat menyiapkan klaster Amazon Redshift sebanyak yang Anda perlukan untuk melakukan kueri danau data Amazon S3 Anda, yang memberikan ketersediaan yang tinggi dan konkurensi tanpa batas. Redshift Spectrum memberi Anda kebebasan untuk menyimpan data di mana pun yang Anda inginkan, dalam format yang Anda inginkan, dan membuatnya tersedia untuk pemrosesan saat Anda membutuhkannya.
Replikasi
T: Apa itu Amazon S3 Replication?
Amazon S3 Replication memungkinkan penyalinan objek tidak sinkron dan otomatis di seluruh bucket Amazon S3. Bucket yang dikonfigurasi untuk replikasi objek dapat dimiliki oleh akun AWS yang sama atau berbeda. Anda dapat mereplikasi objek baru yang ditulis ke bucket ke satu atau beberapa bucket tujuan antara Wilayah AWS yang berbeda (S3 Cross-Region Replication), atau dalam Wilayah AWS yang sama (S3 Same-Region Replication). Anda juga dapat mereplikasi konten bucket yang sudah ada (S3 Batch Replication), termasuk objek yang sudah ada, objek yang sebelumnya gagal direplikasi, dan objek yang direplikasi dari sumber lain. Pelajari selengkapnya dengan mengunjungi Panduan pengguna S3 Replication.
T: Apa yang dimaksud dengan Amazon S3 Cross-Region Replication (CRR)?
CRR adalah fitur Amazon S3 yang secara otomatis mereplikasi data antar-bucket di seluruh Wilayah AWS. Dengan CRR, Anda dapat mengatur replikasi pada tingkat bucket, tingkat prefiks bersama, atau tingkat objek menggunakan tag objek S3. Anda dapat menggunakan CRR untuk memberikan akses data dengan latensi yang lebih rendah di wilayah geografis yang berbeda. CRR juga dapat membantu jika Anda memiliki persyaratan kepatuhan untuk menyimpan salinan data yang jaraknya ratusan mil. Anda dapat menggunakan CRR untuk mengubah kepemilikan akun bagi objek yang direplikasi guna melindungi data dari penghapusan yang tidak disengaja. Untuk mempelajari selengkapnya, kunjungi Panduan pengguna S3 CRR.
T: Apa itu Amazon S3 Same-Region Replication (SRR)?
SRR adalah fitur Simple Storage Service (Amazon S3) yang secara otomatis mereplikasi data antar bucket dalam Wilayah AWS yang sama. Dengan SRR, Anda dapat mengatur replikasi pada tingkat bucket, tingkat prefiks bersama, atau tingkat objek menggunakan tag objek S3. Anda dapat menggunakan SRR untuk membuat satu atau beberapa salinan data Anda dalam Wilayah AWS yang sama. SRR membantu Anda menangani persyaratan kedaulatan dan kepatuhan data dengan menyimpan salinan data Anda di akun AWS terpisah dalam wilayah yang sama dengan aslinya. Anda dapat menggunakan SRR untuk mengubah kepemilikan akun untuk objek tereplikasi dengan tujuan melindungi data dari penghapusan yang tidak disengaja. Anda juga dapat menggunakan SRR untuk mengumpulkan log dengan mudah dari bucket S3 yang berbeda untuk pemrosesan dalam wilayah, atau untuk mengonfigurasi replikasi langsung antara lingkungan pengujian dan pengembangan. Untuk mempelajari selengkapnya, kunjungi Panduan pengguna S3 SRR.
T: Apa itu Amazon S3 Batch Replication?
Amazon S3 Batch Replication mereplikasi objek yang sudah ada di antara bucket. Anda dapat menggunakan S3 Batch Replication untuk mengisi ulang bucket yang baru dibuat dengan objek yang sudah ada, mencoba kembali objek yang sebelumnya tidak dapat direplikasi, memigrasikan data di seluruh akun, atau menambahkan bucket baru ke danau data Anda. Anda dapat memulai S3 Batch Replication hanya dengan beberapa klik di konsol S3 atau satu permintaan API. Untuk mempelajari selengkapnya, kunjungi Panduan penggunaS3 Batch Replication.
T: Bagaimana cara mengaktifkan Amazon S3 Replication (Replikasi Lintas Wilayah dan Replikasi Wilayah yang Sama)?
Amazon S3 Replication (CRR dan SRR) dikonfigurasikan pada tingkat bucket, tingkat prefiks bersama, atau level objek menggunakan tag objek S3. Anda menambahkan konfigurasi replikasi pada bucket sumber Anda dengan menentukan bucket tujuan di Wilayah AWS yang sama atau berbeda untuk replikasi.
Anda dapat menggunakan konsol S3, API, AWS CLI, AWS SDK, atau AWS CloudFormation untuk mengaktifkan replikasi. Versioning harus diaktifkan untuk bucket sumber dan tujuan guna mengaktifkan replikasi. Untuk mempelajari selengkapnya, kunjungi Gambaran umum penyiapan S3 Replication dalam Panduan Developer Simple Storage Service (Amazon S3).
T: Bagaimana cara menggunakan S3 Batch Replication?
Pertama-tama Anda harus mengaktifkan S3 Replication di level bucket. Lihat pertanyaan sebelumnya untuk mengetahui cara melakukannya. Anda kemudian dapat memulai tugas S3 Batch Replication di konsol S3 setelah membuat konfigurasi replikasi baru, mengubah tujuan replikasi dalam aturan replikasi dari halaman konfigurasi replikasi, atau dari halaman Tugas Pembuatan S3 Batch Operation. Atau, Anda dapat memulai tugas S3 Batch Replication melalui AWS CLI atau SDK. Untuk mempelajari selengkapnya, kunjungi S3 Replication dalam Panduan Developer Simple Storage Service (Amazon S3).
T: Apakah saya dapat menggunakan S3 Replication dengan aturan Siklus Hidup S3?
Dengan S3 Replication, Anda dapat menetapkan aturan replikasi untuk membuat salinan objek Anda ke dalam kelas penyimpanan lain, dalam wilayah yang sama atau berbeda. Tindakan siklus hidup tidak direplikasi, dan jika Anda menginginkan konfigurasi siklus hidup yang sama diterapkan ke bucket sumber dan tujuan, aktifkan konfigurasi siklus hidup yang sama di kedua bucket tersebut.
Sebagai contoh, Anda dapat mengonfigurasi aturan siklus hidup untuk memigrasi data dari kelas penyimpanan S3 Standard ke kelas penyimpanan S3 Standard-IA atau S3 One Zone-IA, atau mengarsipkan data ke kelas penyimpanan S3 Glacier di bucket tujuan.
Jika Anda memiliki Siklus Hidup S3 yang dikonfigurasi untuk bucket tujuan Anda, kami sarankan untuk menonaktifkan aturan Siklus hidup saat tugas Replikasi Batch aktif untuk menjaga keseimbangan antara versi objek yang lama dan versi saat ini di bucket sumber dan tujuan.
Anda dapat menemukan informasi selengkapnya tentang konfigurasi dan replikasi siklus hidup di Panduan developer S3 Replication.
T: Apakah saya dapat menggunakan S3 Replication untuk mereplikasi ke lebih dari satu bucket tujuan?
Ya. S3 Replication memungkinkan pelanggan mereplikasi data mereka ke beberapa bucket tujuan di Wilayah AWS yang sama atau berbeda. Saat menyiapkan, Anda cukup menentukan bucket tujuan baru di konfigurasi replikasi yang sudah ada atau membuat konfigurasi replikasi baru dengan beberapa bucket tujuan. Untuk setiap tujuan baru yang Anda tentukan, Anda memiliki fleksibilitas untuk memilih kelas penyimpanan bucket tujuan, tipe enkripsi, metrik dan notifikasi replikasi, Kontrol Waku Replikasi (RTC), dan properti lainnya.
T: Dapatkah saya menggunakan Replikasi S3 untuk menyiapkan replikasi dua arah di antara bucket S3?
Ya. Untuk menyiapkan replikasi dua arah, Anda buat aturan replikasi dari bucket A ke bucket B dan menyiapkan aturan replikasi lainnya dari bucket B ke bucket A. Pastikan untuk mengaktifkan sinkronisasi modifikasi replika, baik pada bucket A maupun B untuk mereplikasi perubahan metadata replika seperti daftar kontrol akses (ACL) objek, tanda objek, atau kunci objek pada objek yang direplikasi.
T: Dapatkah saya menggunakan replikasi di seluruh akun AWS agar terlindung dari penghapusan yang berbahaya atau tidak disengaja?
Ya, untuk CRR dan SRR Anda dapat menyiapkan replikasi di seluruh akun AWS untuk menyimpan data yang direplikasi di akun yang berbeda di wilayah tujuan. Anda dapat menggunakan Penimpaan Kepemilikan dalam konfigurasi replikasi Anda untuk mempertahankan tumpukan kepemilikan yang berbeda antara sumber dan tujuan, serta memberikan kepemilikan akun tujuan ke penyimpanan yang direplikasi.
T: Apakah Tag Objek saya akan direplikasi jika saya menggunakan Replikasi Lintas Wilayah?
Tanda Objek dapat direplikasi di semua Wilayah AWS menggunakan Replikasi Lintas Wilayah. Untuk pelanggan yang sudah mengaktifkan Replikasi Lintas Wilayah, perizinan baru diperlukan untuk mereplika tag. Untuk informasi selengkapnya tentang menyiapkan Replikasi Lintas Wilayah, kunjungi Bagaimana Mengatur Replikasi Lintas Wilayah di Panduan Developer Amazon S3.
T: Apakah saya dapat mereplikasi delete marker dari satu bucket ke bucket lainnya?
Ya, Anda dapat mereplikatkan penanda hapus dari sumber ke tujuan jika mengaktifkan replikasi penanda hapus dalam konfigurasi replikasi Anda. Saat Anda mereplikatkan penanda hapus, Amazon S3 akan berperilaku seakan objek dihapus di kedua bucket. Anda dapat mengaktifkan penanda hapus untuk aturan replikasi baru atau yang sudah ada. Anda dapat menerapkan replikasi penanda hapus ke seluruh bucket atau ke objek Amazon S3 yang memiliki awalan tertentu, dengan aturan replikasi berbasis awalan. Amazon S3 Replication tidak mendukung replikasi penanda hapus untuk aturan replikasi berbasis tag objek. Untuk mempelajari selengkapnya mengenai pengaktifan replikasi delete marker, lihat Mereplikasi delete marker dari satu bucket ke bucket lainnya.
T: Apakah saya dapat mereplikatkan data dari Wilayah AWS lainnya ke Cina? Apakah pelanggan dapat mereplikatkan dari satu bucket Wilayah Cina di luar Wilayah Cina?
Tidak, Amazon S3 Replication tidak tersedia antara Wilayah Cina AWS dan Wilayah AWS di luar Cina. Anda hanya dapat mereplikasi di dalam wilayah Tiongkok.
T: Apakah saya dapat mereplikasi objek yang sudah ada?
Ya. Anda dapat menggunakan S3 Batch Replication untuk mereplikasi objek yang sudah ada di antara bucket. Untuk mempelajari selengkapnya, kunjungi Panduan Pengguna S3.
T: Apakah saya dapat mencoba kembali replikasi jika objek gagal untuk mereplikasi pada awalnya?
Ya. Anda dapat menggunakan S3 Batch Replication untuk mereplikasi objek yang awalnya gagal direplikasi. Untuk mempelajari selengkapnya, kunjungi Panduan Pengguna S3.
T: Tipe enkripsi apa yang didukung oleh Replikasi S3?
Replikasi S3 mendukung semua tipe enkripsi yang ditawarkan S3. S3 menawarkan enkripsi di sisi server dan enkripsi di sisi klien – tipe pertama meminta S3 mengenkripsi objek untuk Anda, dan tipe kedua untuk Anda mengenkripsi data di sisi klien sebelum mengunggahnya ke S3. Untuk enkripsi sisi server, S3 menawarkan enkripsi sisi server dengan kunci terkelola Amazon S3 (SSE-S3), enkripsi sisi server dengan kunci KMS yang disimpan di AWS Key Management Service (SSE-KMS), dan enkripsi sisi server dengan kunci yang disediakan pelanggan (SSE-C). Untuk detail selengkapnya mengenai tipe enkripsi ini dan cara kerjanya, kunjungi dokumentasi S3 mengenai menggunakan enkripsi.
T: Berapa harga replikasi data lintas akun?
Dengan S3 Replication, Anda dapat mengonfigurasi replikasi lintas akun di mana bucket sumber dan tujuan dimiliki oleh akun AWS yang berbeda. Tidak termasuk penyimpanan S3 dan biaya pengambilan yang berlaku, pelanggan membayar permintaan PUT replikasi dan Transfer Data OUT antar wilayah dari S3 ke wilayah tujuan Anda saat menggunakan S3 Replication. Jika Anda mengaktifkan S3 Replication Time Control (S3 RTC) pada aturan replikasi Anda, Anda akan melihat Transfer Data OUT dan biaya permintaan replikasi PUT khusus untuk S3 RTC. Untuk replikasi lintas akun, akun sumber membayar untuk semua transfer data (S3 RTC dan S3 CRR) dan akun tujuan membayar untuk permintaan PUT replikasi. Biaya transfer data hanya berlaku untuk S3 Cross Region Replication (S3 CRR) dan S3 Replication Time Control (S3 RTC), tidak ada biaya transfer data untuk S3 Same Region Replication (S3 SRR).
Jika Anda menggunakan S3 Batch Replication untuk mereplikasi objek di seluruh akun, Anda akan dikenakan biaya S3 Batch Operation, selain permintaan PUT replikasi dan biaya Transfer Data KELUAR (perhatikan bahwa S3 RTC tidak berlaku untuk Replikasi Batch). Biaya Operasi Batch mencakup biaya Tugas dan Objek, yang masing-masing didasarkan pada jumlah tugas dan jumlah objek yang diproses. Selain itu, jika Anda ikut serta dalam manifes yang dihasilkan Simple Storage Service (Amazon S3), Anda akan dikenakan biaya manifes berdasarkan jumlah objek di bucket sumber.
Kunjungi Halaman harga S3 untuk detail selengkapnya mengenai harga S3 Replication.
S3 Replication Time Control
T: Apa yang dimaksud dengan Amazon S3 Replication Time Control?
Amazon S3 Replication Time Control menyediakan performa replikasi yang dapat diprediksi dan membantu Anda memenuhi persyaratan kepatuhan atau bisnis. S3 Replication Time Control dirancang untuk mereplikasi sebagian besar objek dalam hitungan detik, 99.99% objek dalam 15 menit. Kontrol Waktu S3 Replication didukung oleh komitmen Perjanjian Tingkat Layanan (SLA), dengan 99,9% objek akan direplikasi dalam 15 menit untuk setiap pasangan wilayah replikasi selama bulan tagihan mana pun. Waktu Replikasi dapat berfungsi dengan semua fitur S3 Replication. Untuk mempelajari selengkapnya, kunjungi panduan developer replikasi.
T: Bagaimana cara mengaktifkan Amazon S3 Replication Time Control?
Anda dapat mengaktifkan S3 Replication Time Control sebagai opsi untuk setiap aturan replikasi. Anda dapat membuat kebijakan Replikasi S3 baru dengan S3 Replication Time Control, atau mengaktifkan fitur tersebut di aturan replikasi yang ada.
Anda dapat menggunakan konsol S3, API, AWS CLI, AWS SDK, atau AWS CloudFormation untuk mengonfigurasikan replikasi. Untuk mempelajari selengkapnya, kunjungi gambaran umum menyiapkan Replikasi dalam Panduan Developer Amazon S3.
T: Bisakah saya menggunakan S3 Replication Time Control untuk mereplikasi data dalam dan di antara Wilayah Tiongkok?
Ya, Anda dapat mengaktifkan Amazon S3 Replication Time Control untuk mereplikasi data dalam dan antara Wilayah AWS Tiongkok (Ningxia) dan Tiongkok (Beijing).
T: Apa yang dimaksud dengan metrik dan kejadian Amazon S3 Replication?
Metrik dan kejadian Amazon S3 Replication menyediakan visibilitas atas Amazon S3 Replication. Dengan metrik S3 Replication, Anda dapat memantau total jumlah operasi dan ukuran objek yang menunda replikasi, serta latensi replikasi antara bucket sumber dan tujuan untuk setiap aturan S3 Replication. Metrik replikasi tersedia melalui Konsol Manajemen Amazon S3 dan melalui Amazon CloudWatch. Kejadian S3 Replication akan memberitahu Anda mengenai kegagalan replikasi agar Anda dapat dengan cepat mendiagnosis dan memperbaiki masalah. Jika Anda mengaktifkan Kontrol Waktu S3 Replication (S3 RTC), Anda juga akan menerima pemberitahuan saat sebuah objek memerlukan lebih dari 15 menit untuk direplikatkan, dan saat objek berhasil direplikatkan ke tujuannya. Seperti peristiwa Amazon S3 lainnya, peristiwa S3 Replication tersedia melalui Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS), atau AWS Lambda.
T: Bagaimana cara mengaktifkan metrik dan event Amazon S3 Replication?
Anda dapat mengaktifkan metrik dan event Amazon S3 Replication untuk aturan replikasi baru atau yang sudah ada. Metrik dan event tersebut diaktifkan secara default untuk aturan berkemampuan S3 Replication Time Control. Anda dapat mengakses metrik S3 Replication melalui Amazon S3 Management Console dan Amazon CloudWatch. Seperti peristiwa Amazon S3 lainnya, peristiwa S3 Replication tersedia melalui Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS), atau AWS Lambda. Untuk mempelajari selengkapnya, kunjungi progres Pemantauan dengan metrik replikasi dan Notifikasi Peristiwa Amazon S3 di Panduan Developer Amazon S3.
T: Apa itu Perjanjian Tingkat Layanan (SLA) Amazon S3 Replication Time Control?
Kontrol Waktu Replikasi Amazon S3 dirancang untuk mereplikasi 99,99% objek Anda dalam waktu 15 menit, dan didukung dengan Perjanjian Tingkat Layanan. Jika kurang dari 99,9% objek Anda direplikasi dalam 15 menit untuk setiap pasangan wilayah replikasi selama siklus penagihan bulanan, SLA RTC S3 memberikan kredit layanan pada setiap objek yang memerlukan waktu lebih dari 15 menit untuk mereplikasi. Kredit layanan mencakup persentase dari semua biaya terkait replikasi yang terkait dengan objek yang tidak memenuhi SLA, termasuk biaya RTC, bandwidth replikasi dan biaya permintaan, serta biaya yang terkait dengan penyimpanan replika Anda di wilayah tujuan dalam siklus penagihan bulanan yang terpengaruh. Untuk mempelajari selengkapnya, baca SLA S3 Replication Time Control.
T: Berapa harga untuk S3 Replication dan S3 Replication Time Control?
Untuk S3 Replication (Replikasi Lintas Wilayah dan Replikasi Wilayah yang Sama), Anda membayar biaya S3 untuk penyimpanan di kelas penyimpanan S3 tujuan yang dipilih, biaya penyimpanan untuk salinan utama, permintaan PUT replikasi, dan biaya pengambilan penyimpanan akses jarang yang berlaku. Untuk CRR, Anda juga membayar untuk Transfer Data KELUAR Dari S3 ke wilayah tujuan Anda. Metrik S3 Replication ditagih dengan tarif yang sama dengan metrik kustom Amazon CloudWatch. Selain itu, saat menggunakan S3 Replication Time Control, Anda juga membayar biaya Transfer Data Replication Time Control. Untuk informasi selengkapnya, silakan kunjungi halaman harga S3.
Jika objek sumber diunggah menggunakan fitur pengunggahan multi-bagian, maka objek tersebut direplikasi menggunakan jumlah bagian dan ukuran bagian yang sama. Misalnya, objek 100 GB yang diunggah menggunakan fitur unggahan multipart (masing-masing 800 bagian dari 128 MB) akan dikenakan biaya permintaan yang terkait dengan 802 permintaan (800 permintaan Bagian Unggah + 1 Inisiasi permintaan Unggahan Multipart + 1 permintaan Unggah Multipart Lengkap) ketika direplikasi. Anda akan dikenai biaya permintaan sebesar 0,00401 USD (802 permintaan x 0,005 USD per 1.000 permintaan) dan (jika replikasi dilakukan di antara Wilayah AWS yang berbeda) dikenai biaya 2,00 USD (0,020 USD per GB ditransfer x 100 GB) untuk transfer data lintas wilayah. Setelah replikasi, 100 GB tersebut akan dikenai biaya penyimpanan berdasarkan wilayah tujuan.
Titik Akses Multi-Wilayah S3
T: Apa itu Titik Akses Multi-Wilayah S3?
Amazon S3 Multi-Region Access Points mempercepat performa hingga 60% saat mengakses set data yang direplikasi di beberapa Wilayah AWS. Berdasarkan AWS Global Accelerator, S3 Multi-Region Access Points mempertimbangkan faktor-faktor seperti kemacetan jaringan dan lokasi aplikasi yang meminta untuk merutekan permintaan Anda secara dinamis melalui jaringan AWS ke salinan data Anda dengan latensi terendah. Perutean otomatis ini memungkinkan Anda memanfaatkan infrastruktur global AWS sambil mempertahankan arsitektur aplikasi sederhana.
T: Mengapa saya harus menggunakan Titik Akses Multi-Wilayah S3?
Titik Akses Multiwilayah S3 mempercepat dan menyederhanakan penyimpanan untuk aplikasi multiwilayah Anda. Dengan merutekan permintaan S3 secara dinamis ke set data yang direplikasi, Titik Akses Multiwilayah S3 mengurangi latensi permintaan, sehingga aplikasi berjalan hingga 60% lebih cepat. Selain itu, Anda dapat memanfaatkan infrastruktur global AWS, sekaligus mempertahankan arsitektur agnostik wilayah sederhana untuk aplikasi Anda.
T: Bagaimana cara kerja Titik Akses Multi-Wilayah S3?
Titik Akses Multiwilayah secara dinamis merutekan permintaan klien ke satu atau beberapa bucket S3 yang mendasarinya. Anda dapat mengonfigurasi Titik Akses Multiwilayah Anda untuk merutekan melintasi satu bucket per Wilayah AWS, di hingga 20 Wilayah AWS. Ketika Anda membuat Titik Akses Multiwilayah, S3 secara otomatis membuat nama yang kompatibel dengan DNS. Nama ini digunakan sebagai titik akhir global yang dapat digunakan oleh klien Anda. Saat klien Anda membuat permintaan ke titik akhir ini, S3 akan secara dinamis merutekan permintaan tersebut ke salah satu bucket dasar yang ditentukan dalam konfigurasi Titik Akses Multiwilayah Anda.
Secara default, Titik Akses Multiwilayah S3 merutekan permintaan ke bucket dasar yang paling dekat dengan klien, berdasarkan latensi jaringan. Misalnya, Anda dapat mengonfigurasi Titik Akses Multiwilayah dengan bucket dasar di AS-TIMUR-1 dan di AP-SELATAN-1. Dengan konfigurasi ini, klien Anda di Amerika Utara akan merutekan ke AS-TIMUR-1, dan klien Anda di Asia akan merutekan ke AP-SELATAN-1. Konfigurasi ini menurunkan latensi untuk permintaan Anda yang dibuat ke S3, sehingga meningkatkan performa aplikasi Anda.
Jika aplikasi Anda mengakses S3 melalui internet, maka performa akan lebih ditingkatkan dengan Titik Akses Multiwilayah S3, karena S3 akan merutekan permintaan Anda melalui Lokasi AWS terdekat ke klien Anda, lalu melewati jaringan AWS privat global ke S3. Permintaan akan menghindari segmen jaringan yang padat di internet, yang akan mengurangi latensi dan jitter jaringan, sekaligus meningkatkan performa.
T: Bagaimana cara saya memulai Titik Akses Multiwilayah S3?
Konsol Manajemen S3 menyediakan alur kerja terpandu sederhana yang memungkinkan Anda dengan cepat menyiapkan semua yang Anda butuhkan untuk menjalankan penyimpanan multi-wilayah di S3, hanya dalam tiga langkah sederhana. Pertama, nama host global unik untuk Poin Akses Multi-Wilayah Anda akan dibuat secara otomatis untuk Anda. Anda dapat menghubungkan klien dan aplikasi Anda tanpa harus menentukan Wilayah AWS. Kedua, Anda akan memilih satu atau beberapa bucket di S3 yang ingin Anda rutekan di belakang nama host baru ini. Anda dapat memilih bucket yang ada atau memutuskan untuk membuat bucket baru untuk Anda. Ketiga, Anda akan menentukan aturan S3 Cross-Region Replication.
Atau, Anda dapat menggunakan CloudFormation untuk mengotomatisasi konfigurasi penyimpanan multiwilayah Anda. Semua blok penyusun yang diperlukan untuk menyiapkan penyimpanan Multiwilayah di S3, termasuk Titik Akses Multiwilayah S3, didukung oleh CloudFormation, mengizinkan Anda untuk dengan mudah mengotomatisasi proses penyiapan berulang di luar Konsol Manajemen S3.
T: Apakah perbedaan antara Replikasi Lintas-Wilayah S3 (S3 CRR) dengan Titik Akses Multiwilayah S3?
S3 CRR dan S3 Multi-Region Access Points adalah fitur pelengkap yang bekerja sama untuk mereplikasi data di seluruh Wilayah AWS, lalu secara otomatis mengarahkan permintaan ke salinan yang direplikasi dengan latensi terendah. Titik Akses Multi-Wilayah S3 S3 membantu Anda mengelola permintaan di seluruh Wilayah AWS, sementara CRR memungkinkan Anda memindahkan data di seluruh Wilayah AWS untuk membuat replika yang terisolasi. Anda menggunakan Titik Akses Multi-Wilayah S3 dan CRR bersama-sama untuk membuat set data multiwilayah yang direplikasi yang dapat dialamatkan oleh satu titik akhir global.
T: Berapa biaya Titik Akses Multi-Wilayah S3?
Saat Anda menggunakan Titik Akses Multiwilayah S3 untuk merutekan permintaan dalam AWS, Anda membayar biaya perutean data per GB yang rendah untuk setiap gigabita (GB) yang diproses, serta biaya standar untuk permintaan, penyimpanan, transfer data, dan replikasi S3. Jika aplikasi Anda berjalan di luar AWS dan mengakses S3 melalui internet, Titik Akses Multi-Wilayah S3 meningkatkan performa dengan merutekan permintaan Anda secara otomatis melalui lokasi edge AWS, melalui jaringan AWS privat global, ke salinan terdekat dari data Anda berdasarkan akses latensi. Saat Anda mempercepat permintaan yang dibuat melalui internet, Anda membayar biaya perutean data dan biaya percepatan internet. Harga akselerasi internet Titik Akses Multi-Wilayah S3 bervariasi berdasarkan apakah klien sumber berada di lokasi yang sama atau berbeda dengan Wilayah AWS tujuan, dan merupakan tambahan dari harga transfer data S3 standar. Lihat halaman harga S3 dan tab transfer data untuk informasi harga selengkapnya.
T: Apa perbedaan S3 Transfer Acceleration dengan Titik Akses Multi-Wilayah S3?
Anda dapat menggunakan S3 Transfer Acceleration untuk mempercepat transfer konten ke dan dari satu bucket S3 terpusat menggunakan jaringan global AWS. Ini sangat membantu untuk transfer jarak jauh dari objek yang lebih besar atau menghapus aplikasi web atau seluler. Dengan Titik Akses Multi-Wilayah S3, Anda dapat melakukan transfer dipercepat yang serupa menggunakan jaringan global AWS, tetapi di banyak bucket S3 di beberapa Wilayah AWS untuk permintaan berbasis internet, berbasis VPC, dan on-premise ke dan dari S3. Saat Anda menggabungkan Titik Akses Multi-Wilayah S3 dengan Replikasi Silang S3, Anda memberikan kemampuan bagi Titik Akses Multi-Wilayah S3 untuk secara dinamis merutekan permintaan Anda ke salinan data Anda dengan latensi terendah untuk aplikasi dari klien di beberapa lokasi.
Pemrosesan data
Object Lambda
T: Apa itu S3 Object Lambda?
S3 Object Lambda memungkinkan Anda menambahkan kode Anda sendiri ke permintaan GET, LIST, dan HEAD S3 untuk mengubah dan memproses data saat dikembalikan ke aplikasi. Anda dapat menggunakan kode kustom untuk mengubah data yang dikembalikan oleh permintaan GET S3 untuk memfilter baris, mengubah ukuran gambar secara dinamis, menyunting data rahasia, dan masih banyak lagi. Anda juga dapat menggunakan S3 Object Lambda untuk mengubah hasil permintaan LIST S3 agar dapat membuat tampilan kustom objek dalam bucket dan permintaan HEAD S3, guna mengubah metadata objek, seperti nama dan ukuran objek. S3 Object Lambda membantu Anda untuk dengan mudah memenuhi persyaratan format data unik dari setiap aplikasi tanpa harus membangun dan mengoperasikan infrastruktur tambahan, seperti lapisan proxy, atau harus membuat dan memelihara beberapa salinan turunan dari data Anda. S3 Object Lambda menggunakan fungsi AWS Lambda untuk memproses hasil permintaan GET, LIST, atau HEAD S3 standar secara otomatis. AWS Lambda adalah layanan komputasi nirserver yang menjalankan kode yang ditentukan oleh pelanggan tanpa memerlukan manajemen sumber daya komputasi dasar.
Dengan hanya beberapa klik di Konsol Manajemen AWS, Anda dapat mengonfigurasi fungsi Lambda dan melampirkannya ke Titik Akses layanan S3 Object Lambda. Mulai dari titik tersebut, S3 akan secara otomatis memanggil fungsi Lambda Anda untuk memproses setiap data yang diambil melalui titik akhir S3 Object Lambda, mengembalikan hasil yang ditransformasikan ke aplikasi. Anda dapat menulis dan menjalankan fungsi Lambda kustom Anda sendiri, menyesuaikan transformasi data S3 Object Lambda dengan kasus penggunaan spesifik Anda.
Untuk memulai dengan S3 Object Lambda, Anda dapat menggunakan Konsol Manajemen S3, SDK, atau API. Pelajari selengkapnya di halaman S3 Object Lambda, atau panduan pengguna S3 Object Lambda.
T: Mengapa saya harus menggunakan S3 Object Lambda?
Anda harus menggunakan S3 Object Lambda jika ingin memproses data yang sejajar dengan permintaan GET, LIST, atau HEAD S3. Anda dapat menggunakan S3 Object Lambda untuk membagikan satu salinan data di banyak aplikasi, menghindari kebutuhan untuk membangun dan mengoperasikan infrastruktur pemrosesan kustom, atau untuk menyimpan salinan turunan data Anda. Misalnya, dengan menggunakan S3 Object Lambda untuk memproses permintaan GET S3, Anda dapat menyembunyikan data sensitif untuk tujuan kepatuhan, melakukan restrukturisasi data mentah dengan tujuan menjadikannya kompatibel dengan aplikasi machine learning, memfilter data untuk membatasi akses ke konten tertentu di dalam objek S3, atau untuk menangani berbagai macam kasus penggunaan tambahan. Anda dapat menggunakan S3 Object Lambda untuk memperkaya daftar objek dengan mengueri indeks eksternal yang berisi metadata objek tambahan, memfilter, dan menutupi daftar objek hanya untuk menyertakan objek dengan tanda objek tertentu, atau menambahkan ekstensi file untuk semua nama objek di daftar objek Anda. Misalnya, jika Anda memiliki bucket S3 dengan beberapa set data terpisah, Anda dapat menggunakan S3 Object Lambda untuk memfilter respons LIST S3 berdasarkan peminta.
S3 Object Lambda dapat disiapkan hanya dengan beberapa klik di Konsol Manajemen Amazon S3. Baca panduan pengguna untuk mempelajari selengkapnya.
T: Bagaimana cara kerja S3 Object Lambda?
S3 Object Lambda menggunakan fungsi Lambda yang Anda tentukan untuk memproses input permintaan GET, LIST, atau HEAD. Setelah Anda menentukan fungsi Lambda untuk memproses data yang diminta, Anda dapat melampirkan fungsi tersebut ke Titik Akses S3 Object Lambda. Permintaan GET, LIST, dan HEAD yang dibuat melalui Titik Akses S3 Object Lambda kini akan memanggil fungsi Lambda yang ditentukan. Lambda selanjutnya akan mengambil objek S3 yang diminta oleh klien dan memproses objek tersebut. Setelah pemrosesan selesai, Lambda akan mengalirkan kembali objek yang diproses ke klien yang memanggil. Baca panduan pengguna S3 Object Lambda untuk mempelajari selengkapnya.
T: Bagaimana cara saya memulai S3 Object Lambda?
S3 Object Lambda bisa ditetapkan dengan beberapa cara. Anda dapat menyiapkan S3 Object Lambda di konsol S3 dengan menavigasi ke tab Titik Akses Object Lambda. Selanjutnya, buat Titik Akses S3 Object Lambda, yaitu fungsi Lambda yang akan dijalankan oleh S3 untuk mengeksekusi permintaan GET, LIST, dan HEAD, serta Titik Akhir S3 yang mendukungnya. Berikan izin ke semua sumber daya untuk berinteraksi dengan Object Lambda. Terakhir, perbarui SDK dan aplikasi Anda untuk menggunakan Titik Akses S3 Object Lambda baru agar dapat mengambil data dari S3 menggunakan SDK bahasa pilihan Anda. S3 Object Lambda akan mulai memproses permintaan GET, LIST, dan HEAD Anda. Ada beberapa contoh implementasi fungsi Lambda dalam dokumentasi AWS untuk membantu Anda mulai menggunakan layanan tersebut.
Anda juga bisa menggunakan AWS CloudFormation untuk mengautomasikan konfigurasi S3 Object Lambda. Saat Anda menggunakan templat AWS CloudFormation, fungsi Lambda yang diterapkan di akun akan meneruskan objek S3 kembali ke klien atau aplikasi Anda yang mengajukan permintaan tanpa adanya perubahan apa pun. Anda bisa menambahkan kode kustom untuk memodifikasi dan memproses data saat dikembalikan ke aplikasi. Untuk mempelajari selengkapnya, kunjungi Panduan Pengguna S3 Object Lambda.
T: Jenis operasi apa saja yang dapat saya jalankan dengan S3 Object Lambda?
Operasi apa pun yang didukung dalam fungsi Lambda didukung dengan S3 Object Lambda. Hal ini memberi Anda berbagai opsi yang tersedia untuk memproses permintaan Anda. Anda memenuhi fungsi Lambda Anda sendiri untuk menjalankan komputasi kustom terhadap permintaan GET, LIST, dan HEAD yang memberi Anda fleksibilitas untuk memproses data sesuai dengan kebutuhan aplikasi Anda. Waktu pemrosesan Lambda dibatasi hingga maksimum 60 detik. Untuk detail selengkapnya, silakan lihat dokumentasi S3 Object Lambda di sini.
T: Tipe permintaan S3 mana yang didukung oleh S3 Object Lambda?
S3 Object Lambda mendukung permintaan GET, LIST, dan HEAD. Panggilan API S3 lainnya yang dibuat ke Titik Akses S3 Object Lambda akan mengembalikan respons API S3 standar. Pelajari selengkapnya mengenai S3 Object Lambda di panduan pengguna.
T: Apa yang akan terjadi ketika fungsi S3 Object Lambda gagal?
Ketika fungsi S3 Object Lambda gagal, Anda akan menerima respons permintaan yang memerinci kegagalan tersebut. Sama seperti permintaan fungsi Lambda lainnya, AWS juga secara otomatis memantau fungsi atas nama Anda, melaporkan metrik melalui Amazon CloudWatch. Untuk membantu Anda memecahkan masalah kegagalan, Lambda mencatat semua permintaan yang diproses oleh fungsi Anda, dan secara otomatis menyimpan log yang dihasilkan oleh kode menggunakan Log Amazon CloudWatch. Untuk informasi selengkapnya mengenai cara mengakses log CloudWatch untuk AWS Lambda, silakan kunjungi Dokumentasi CloudWatch.
T: Apakah S3 Object Lambda memengaruhi SLA ketersediaan S3 atau ketahanan S3?
S3 Object Lambda menghubungkan Amazon S3, AWS Lambda, dan secara opsional, layanan AWS lain yang Anda pilih untuk mengirimkan objek yang relevan dengan permintaan aplikasi. Seluruh layanan AWS yang digunakan sehubungan dengan S3 Object Lambda akan tetap dikelola oleh Perjanjian Tingkat Layanan (SLA) masing-masing. Misalnya, jika Layanan AWS tidak memenuhi Komitmen Layanannya, Anda akan berhak menerima Kredit Layanan seperti yang didokumentasikan dalam SLA layanan tersebut. Membuat Titik Akses S3 Object Lambda tidak memengaruhi daya tahan objek Anda. Namun, S3 Object Lambda memanggil fungsi AWS Lambda yang Anda tentukan dan Anda harus memastikan fungsi Lambda yang ditentukan adalah fungsi yang dimaksud dan benar. Lihat SLA Amazon S3 terbaru di sini.
T: Berapa harga S3 Object Lambda?
Ketika Anda menggunakan S3 Object Lambda, Anda membayar biaya per GB untuk tiap gigabita data yang dikembalikan melalui S3 Object Lambda. Anda juga dikenakan biaya atas permintaan berdasarkan tipe permintaan (permintaan GET, LIST, dan HEAD), dan biaya komputasi AWS Lambda berdasarkan waktu di mana fungsi yang Anda tentukan berjalan untuk memproses data yang diminta. Untuk melihat detail harga dan contoh, baca halaman harga S3.
Siap untuk memulai?
Pelajari selengkapnya tentang fitur untuk manajemen data, keamanan, manajemen akses, analitik, dan lainnya.
Dapatkan akses secara instan ke AWS Tingkat Gratis dan mulai bereksperimen dengan Amazon S3.