AWS: Способы снижения затрат при резервном копировании файлов S3 на Glacier? [закрыто]

В рамках нашего проекта мы создали на S3 довольно густое дерево папок / файлов, и все файлы занимают около 6 ТБ данных. В настоящее время у нас нет резервной копии этих данных, что плохо. Мы хотим делать периодические резервные копии. Похоже, ледник это путь.

Вопрос в том, как можно снизить общую стоимость резервной копии?

Большинство наших файлов являются текстовыми, поэтому мы можем сжимать их и загружать целые ZIP-архивы. Это потребует обработки (в EC2), поэтому мне любопытно, есть ли какое-нибудь практическое правило для сравнения дополнительных затрат на запуск экземпляра EC2 для архивирования по сравнению с простой загрузкой несжатых файлов.

Кроме того, нам придется заплатить за передачу данных, поэтому мне интересно, есть ли какой-либо способ резервного копирования, кроме (i) загрузки файла из S3 в экземпляр; (ii) загрузить файл в необработанном виде или заархивировать в Glacier.

Ответы на вопрос(2)

Ваш ответ на вопрос