Baixe uma cópia local de trabalho de uma página da web [fechada]

Gostaria de baixar uma cópia local de uma página da web e obter todo o css, imagens, javascript et

Em discussões anteriores (por exemplo,Aqu eAqu, ambos com mais de dois anos), geralmente duas sugestões são apresentadas:wget -p e httrack. No entanto, essas sugestões falham. Eu agradeceria muito a ajuda com o uso de qualquer uma dessas ferramentas para realizar a tarefa; alternativas também são adorávei


Opção 1:wget -p

wget -p baixa com êxito todos os pré-requisitos da página da web (css, imagens, js). No entanto, quando carrego a cópia local em um navegador da Web, a página não pode carregar os pré-requisitos, porque os caminhos para esses pré-requisitos não foram modificados a partir da versão na Web.

Por exemplo

No html da página,<link rel="stylesheet href="/stylesheets/foo.css" /> precisará ser corrigido para apontar para o novo caminho relativo defoo.cssNo arquivo css,background-image: url(/images/bar.png) precisará igualmente ser ajustado.

Existe uma maneira de modificarwget -p para que os caminhos estejam corretos?


Opção 2: httrack

httrack parece ser uma ótima ferramenta para espelhar sites inteiros, mas não está claro para mim como usá-lo para criar uma cópia local de uma única página. Há muita discussão nos fóruns do httrack sobre esse tópico (por exemplo,Aqu), mas ninguém parece ter uma solução à prova de bala


Opção 3: outra ferramenta?

Algumas pessoas sugeriram ferramentas pagas, mas não acredito que não exista uma solução gratuita por a

Muito obrigado

questionAnswers(1)

yourAnswerToTheQuestion