Могу ли я захватить веб-страницу и сохранить ее файл изображения на каких-либо языках? (без установки, без activeX)

Я слышал, что можно захватывать веб-страницы с помощью PHP (возможно, выше 6.0) на сервере Windows.

Я получил пример кода и проверил. но нет кода для правильного выполнения.

Если вы знаете, какие правильные способы захвата веб-страницы, сохранить ее файл изображения в веб-приложениях?

Пожалуйста, научите меня.

 elviejo7903 июл. 2009 г., 08:34
Вы буквально хотите снимок экрана с тем, как выглядит веб-страница? т.е. как это выглядит в Explorer или Firefox? Или вы хотите, чтобы получить файл, текст, HTML, которые делают веб-страницу?

Ответы на вопрос(3)

Загрузка html веб-страницы широко известна как очистка экрана. Это может быть полезно, если вы хотите, чтобы программа извлекала данные с заданной страницы. Самый простой способ запросить ресурсы HTTP - использовать вызов инструмента.завивать, CURL поставляется в качестве самостоятельного инструмента Unix, но есть библиотеки, чтобы использовать его практически на каждом языке программирования. Чтобы захватить эту страницу из командной строки Unix, введите:

curl http://stackoverflow.com/questions/1077970/in-any-languages-can-i-capture-a-webpageno-install-no-activex-if-i-can-plz

В PHP вы можете сделать то же самое:

<?php 
$ch = curl_init() or die(curl_error()); 
curl_setopt($ch, CURLOPT_URL,"http://stackoverflow.com/questions/1077970/in-any-languages-can-i-capture-a-webpageno-install-no-activex-if-i-can-plz"); 
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1); 
$data1=curl_exec($ch) or die(curl_error()); 
echo "<font color=black face=verdana size=3>".$data1."</font>"; 
echo curl_error($ch); 
curl_close($ch); 
?>

Теперь, прежде чем копировать весь веб-сайт, вы должны проверить их файл robots.txt, чтобы узнать, позволяют ли они роботам «пауковать» свой сайт, и вы можете проверить, есть ли доступный API, который позволяет вам получать данные без HTML.

 05 июл. 2009 г., 06:37
Почему голосование против ненависти? Ответ, очевидно, не имеет большого смысла сейчас, но он имел место до того, как вопросы были изменены ЧЕТЫРЕ раза.

Хотя вы просили о решении PHP, я хотел бы поделиться еще одним решением с Perl.WWW :: Mechanize вместе сLWP :: UserAgent а такжеHTML :: Parser может помочь в очистке экрана.

Некоторые документы для справки:

Web scraping with WWW::Mechanize Screen-scraping with WWW::Mechanize

Вы могли бы использовать API Browsershotshttp://browsershots.org/

с интерфейсом xml-rpc вы действительно можете использовать практически любой язык для доступа к нему.

http://api.browsershots.org/xmlrpc/

Ваш ответ на вопрос