Laden Sie Bilder von der Website herunter

Ich möchte eine lokale Kopie einer Galerie auf einer Website haben. In der Galerie werden die Bilder unter domain.com/id/1 angezeigt (die ID wird in Schritten von 1 erhöht). Anschließend wird das Bild unter pics.domain.com/pics/original/image.format gespeichert. Die genaue Linie, die die Bilder im HTML haben, ist

<div id="bigwall" class="right"> 
    <img border=0 src='http://pics.domain.com/pics/original/image.jpg' name='pic' alt='' style='top: 0px; left: 0px; margin-top: 50px; height: 85%;'> 
</div>

Also möchte ich ein Skript schreiben, das so etwas macht (in Pseudocode):

for(id = 1; id <= 151468; id++) {
     page = "http://domain.com/id/" + id.toString();
     src = returnSrc(); // Searches the html for img with name='pic' and saves the image location as a string
     getImg(); // Downloads the file named in src
}

Ich bin mir jedoch nicht sicher, wie ich das genau machen soll. Ich nehme an, ich könnte es in Bash tun, indem ich wget verwende, um das HTML herunterzuladen und dann das HTML manuell zu durchsuchenhttp://pics.domain.com/pics/original/. Verwenden Sie dann wget erneut, um die Datei zu speichern, die HTML-Datei zu entfernen, die ID zu erhöhen und den Vorgang zu wiederholen. Die einzige Sache ist, dass ich nicht gut mit Strings umgehen kann. Wenn mir jemand sagen könnte, wie ich nach der URL suchen und die * s durch den Dateinamen und das Format ersetzen soll, könnte ich den Rest erledigen. Oder wenn meine Methode dumm ist und Sie eine bessere haben, teilen Sie sie bitte mit.

Antworten auf die Frage(1)

Ihre Antwort auf die Frage