Результаты поиска по запросу "web-scraping"

2 ответа

Пока я могу напрямую экспортировать CSV в мою базу данных MySQL, я согласен с любым предложением. Еще раз спасибо!

представлен веб-скребок из селена, который просматривает различные вкладки на этой странице веб-сайта ...

1 ответ

 и обрабатывать все самостоятельно или дождаться загрузки страницы, как это обычно происходит

у ускорить время загрузки страниц на селене, потому что мне не нужно ничего, кроме HTML (я пытаюсь очистить все ссылки, используя BeautifulSoup). Использование PageLoadStrategy.NONE не работает для очистки всех ссылок, и Chrome больше не ...

2 ответа

Попробуй немного подправить твой код

аюсь почистить страницу ниже:https://metro.zakaz.ua/uk/?promotion=1 [https://metro.zakaz.ua/uk/?promotion=1] Эта страница с реагирующим контентом. Я могу очистить первую страницу с кодом: url="https://metro.zakaz.ua/uk/?promotion=1" ...

ТОП публикаций

0 ответов

@ T.Ray .read_csv () нужен URL, который находится внутри сети без всяких ссылок. У нас есть только класс здесь <div class = "goog-menuitem" role = "menuitem" id = ": l" style = "user- select: none; "> <div class =" goog-menuitem-content "style =" user-select: none; "> Все / выбрано в файл CSV </ div> </ div>

я есть это требование python, чтобы после входа на веб-сайт с помощью веб-драйвера python selenium в определенном XPath был встроенный файл csv. Я мог загрузить файл csv в локальную папку, используя приведенный ниже код. content ...

1 ответ

Я попробовал ваш подход, но проблема в том, что он создает дополнительные строки. Ожидаемый результат должен быть ровно 7 строк, как я показал выше, но ваше решение дает мне 13 или около того. Спасибо за ваше решение, хотя.

исал скрипт на python в сочетании с селеном для анализа некоторых дат, доступных в таблице на веб-странице. Таблица расположена под заголовкомNPL Victoria Betting Odds, Табличные данные находятся внутри идентификатораtournamentTable, Вы можете ...

1 ответ

Веб-сайты, которые особенно трудно сканировать и сканировать? [закрыто]

Я заинтересован в общедоступных сайтах (ничего за логином / аутентификацией), которые имеют такие вещи: Высокое использование внутренних 301 и 302 редиректовПротивоскребающие меры (но не запрещающие сканеры через robots.txt)Несемантическая или ...

0 ответов

Вы должны попробовать использовать плагин Python Selen. Требуется скачать драйвер для любого браузера, который вы используете. После этого вы сможете использовать селен для извлечения значений из HTML

аюсь извлечь эти данные (число) для многих страниц из HTML. Данные разные для каждой страницы. Когда я пытаюсь использовать soup.select ('span [class = "pull-right"]'), он должен дать мне номер, но приходит только тег. Я считаю, что это потому, ...

1 ответ

pastebin.com/w3rnX1SU

даря Qharr я успешно выполнил автоматический поиск на сайте. (Мой предыдущий вопрос:Excel VBA: не удается выполнить автоматический поиск на веб-сайте [https://stackoverflow.com/questions/52241366/excel-vba-cannot-perform-auto-search-on-website] ) ...

1 ответ

пожалуйста

аюсь вычеркнуть цену продукта с веб-страницы, используя Excel VBA. Следующий код работает при использовании запроса навигации VBA Internet Explorer. Однако вместо этого я бы хотел использовать HTTP-запрос XML для ускорения процесса очистки. В ...

2 ответа

Чтобы найти и проанализировать все страницы в категории, вы можете использовать что-то вроде:

х пор я собрал данные с одной страницы. Я хочу продолжить до конца нумерации страниц. Кликните сюда [https://www.alibaba.com/catalog/agricultural-growing-media_cid144?page=1] просмотреть страницу Кажется, есть проблема, потому что href содержит ...