¿Cuál es la mejor manera de guardar una página web completa en un servidor Linux?

Necesito archivar páginas completas, incluidas las imágenes vinculadas, etc. en mi servidor Linux. Buscando la mejor solución. ¿Hay alguna manera de guardar todos los activos y luego volver a vincularlos para que funcionen en el mismo directorio?

He pensado en usar curl, pero no estoy seguro de cómo hacer todo esto. Además, ¿quizás necesite PHP-DOM?

¿Hay alguna forma de usar Firefox en el servidor y copiar los archivos temporales después de que se haya cargado la dirección o similar?

Cualquiera y todos los comentarios son bienvenidos.

Editar:

Parece que wget 'no' va a funcionar ya que los archivos deben ser renderizados. Tengo Firefox instalado en el servidor, ¿hay alguna forma de cargar la URL en Firefox y luego tomar los archivos temporales y borrar los archivos temporales después?

Respuestas a la pregunta(4)

Su respuesta a la pregunta