Baixe uma cópia local de trabalho de uma página da web [fechada]
Gostaria de baixar uma cópia local de uma página da web e obter todo o css, imagens, javascript et
Em discussões anteriores (por exemplo,Aqu eAqu, ambos com mais de dois anos), geralmente duas sugestões são apresentadas:wget -p
e httrack. No entanto, essas sugestões falham. Eu agradeceria muito a ajuda com o uso de qualquer uma dessas ferramentas para realizar a tarefa; alternativas também são adorávei
Opção 1:wget -p
wget -p
baixa com êxito todos os pré-requisitos da página da web (css, imagens, js). No entanto, quando carrego a cópia local em um navegador da Web, a página não pode carregar os pré-requisitos, porque os caminhos para esses pré-requisitos não foram modificados a partir da versão na Web.
Por exemplo
No html da página,<link rel="stylesheet href="/stylesheets/foo.css" />
precisará ser corrigido para apontar para o novo caminho relativo defoo.css
No arquivo css,background-image: url(/images/bar.png)
precisará igualmente ser ajustado. Existe uma maneira de modificarwget -p
para que os caminhos estejam corretos?
Opção 2: httrack
httrack
parece ser uma ótima ferramenta para espelhar sites inteiros, mas não está claro para mim como usá-lo para criar uma cópia local de uma única página. Há muita discussão nos fóruns do httrack sobre esse tópico (por exemplo,Aqu), mas ninguém parece ter uma solução à prova de bala
Opção 3: outra ferramenta?
Algumas pessoas sugeriram ferramentas pagas, mas não acredito que não exista uma solução gratuita por a
Muito obrigado