AWS: Sposoby obniżania kosztów podczas tworzenia kopii zapasowych plików S3 na Glacier? [Zamknięte]

W ramach naszego projektu stworzyliśmy całkiem krzaczaste drzewo folderów / plików na S3, a wszystkie pliki zajmują około 6 TB danych. Obecnie nie mamy kopii zapasowej tych danych, które są złe. Chcemy wykonywać okresowe kopie zapasowe. Wydaje się, że Glacier to dobry sposób.

Pytanie brzmi: jakie są sposoby utrzymania całkowitego kosztu wstecznego?

Większość naszych plików to tekst, więc możemy je skompresować i przesłać całe archiwa ZIP. Będzie to wymagało przetwarzania (na EC2), więc jestem ciekawy, czy istnieje jakaś zasada, która pozwala porównać dodatkowy koszt uruchomienia instancji EC2 do kompresji w porównaniu z przesyłaniem nieskompresowanych plików.

Musielibyśmy również zapłacić za transfer danych, więc zastanawiam się, czy istnieje jakikolwiek sposób tworzenia kopii zapasowych innych niż (i) pobieranie pliku z S3 do instancji; (ii) przesłać plik w jego surowej postaci lub spakować do Glacier.

questionAnswers(2)

yourAnswerToTheQuestion