Скачать изображения с сайта

Я хочу иметь локальную копию галереи на сайте. Галерея показывает изображения по адресу domain.com/id/1 (идентификатор увеличивается с шагом 1), а затем изображение сохраняется по адресу pics.domain.com/pics/original/image.format. Точная строка, которую изображения имеют в HTML,

<div id="bigwall" class="right"> 
    <img border=0 src='http://pics.domain.com/pics/original/image.jpg' name='pic' alt='' style='top: 0px; left: 0px; margin-top: 50px; height: 85%;'> 
</div>

Поэтому я хочу написать скрипт, который делает что-то вроде этого (в псевдокоде):

for(id = 1; id <= 151468; id++) {
     page = "http://domain.com/id/" + id.toString();
     src = returnSrc(); // Searches the html for img with name='pic' and saves the image location as a string
     getImg(); // Downloads the file named in src
}

Я не уверен, как именно это сделать. Я полагаю, что я мог бы сделать это в Bash, используя wget для загрузки HTML, а затем искать HTML вручнуюhttp://pics.domain.com/pics/original/. затем снова используйте wget для сохранения файла, удаления html-файла, увеличения идентификатора и повторения. Единственное, что я не умею обрабатывать строки, так что, если кто-нибудь скажет мне, как искать URL-адрес и заменить * s на имя и формат файла, я смогу продолжить работу. Или, если мой метод глуп, и у вас есть лучший, пожалуйста, поделитесь.

Ответы на вопрос(1)

Ваш ответ на вопрос