Pobierz obrazy ze strony internetowej

Chcę mieć lokalną kopię galerii na stronie internetowej. Galeria pokazuje zdjęcia na domenie.com/id/1 (id zwiększa się o 1), a następnie obraz jest przechowywany w pics.domain.com/pics/original/image.format. Dokładna linia, jaką mają obrazy w kodzie HTML

<div id="bigwall" class="right"> 
    <img border=0 src='http://pics.domain.com/pics/original/image.jpg' name='pic' alt='' style='top: 0px; left: 0px; margin-top: 50px; height: 85%;'> 
</div>

Chcę więc napisać skrypt, który robi coś takiego (w pseudo-kodzie):

for(id = 1; id <= 151468; id++) {
     page = "http://domain.com/id/" + id.toString();
     src = returnSrc(); // Searches the html for img with name='pic' and saves the image location as a string
     getImg(); // Downloads the file named in src
}

Nie jestem jednak pewien, jak to zrobić. Przypuszczam, że mógłbym to zrobić w bashu, używając wget do pobrania html, a następnie do ręcznego przeszukiwania htmlhttp://pics.domain.com/pics/original/. następnie ponownie użyj wget, aby zapisać plik, usuń plik html, zwiększ identyfikator i powtórz. Jedyną rzeczą jest to, że nie jestem dobry w obsłudze ciągów znaków, więc jeśli ktoś mógłby mi powiedzieć, jak wyszukać url i zastąpić * s nazwą i formatem pliku, powinienem być w stanie uzyskać resztę. Albo jeśli moja metoda jest głupia i masz lepszą, podziel się.

questionAnswers(1)

yourAnswerToTheQuestion