AWS: ¿Cómo reducir los costos y hacer copias de seguridad de los archivos S3 en Glacier? [cerrado]

Como parte de nuestro proyecto, hemos creado una carpeta / árbol de archivos bastante grande en S3 con todos los archivos que ocupan aproximadamente 6 TB de datos. Actualmente no tenemos una copia de seguridad de estos datos que es malo. Queremos hacer copias de seguridad periódicas. Parece que el glaciar es el camino a seguir.

La pregunta es: ¿cuáles son las formas de mantener el costo total de una copia de seguridad hacia abajo?

La mayoría de nuestros archivos son de texto, por lo que podemos comprimirlos y cargar archivos ZIP completos. Esto requerirá procesamiento (en EC2), así que tengo curiosidad por saber si existe alguna regla general para comparar el costo adicional de ejecutar una instancia de EC2 para comprimir, en lugar de cargar archivos sin comprimir.

Además, tendríamos que pagar por la transferencia de datos, así que me pregunto si hay alguna otra forma de hacer una copia de seguridad que no sea (i) descargar un archivo desde S3 a una instancia; (ii) subir el archivo en su forma original o en un archivo zip a Glacier.

Respuestas a la pregunta(2)

Su respuesta a la pregunta