Descargar imágenes del sitio web

Quiero tener una copia local de una galería en un sitio web. La galería muestra las imágenes en domain.com/id/1 (la identificación aumenta en incrementos de 1) y luego la imagen se guarda en pics.domain.com/pics/original/image.format. La línea exacta que las imágenes tienen en el HTML son

<div id="bigwall" class="right"> 
    <img border=0 src='http://pics.domain.com/pics/original/image.jpg' name='pic' alt='' style='top: 0px; left: 0px; margin-top: 50px; height: 85%;'> 
</div>

Así que quiero escribir un script que haga algo como esto (en pseudo-código):

for(id = 1; id <= 151468; id++) {
     page = "http://domain.com/id/" + id.toString();
     src = returnSrc(); // Searches the html for img with name='pic' and saves the image location as a string
     getImg(); // Downloads the file named in src
}

Sin embargo, no estoy seguro de cómo hacer esto. Supongo que podría hacerlo en bash, usando wget para descargar el html y luego buscar el html manualmente parahttp://pics.domain.com/pics/original/. luego use wget nuevamente para guardar el archivo, elimine el archivo html, incremente la identificación y repita. Lo único es que no soy bueno para manejar cadenas, así que si alguien me dijera cómo buscar la URL y reemplazar los * s con el nombre y el formato del archivo, debería poder hacer que el resto funcione. O si mi método es estúpido y tienes uno mejor, por favor comparte.

Respuestas a la pregunta(1)

Su respuesta a la pregunta