Resultados da pesquisa a pedido "scrapy-spider"

4 a resposta

Speed ​​up web scraper

Eu estou raspando 23770 páginas da web com um raspador de web bastante simples usando

3 a resposta

Existe algum método para usar um pipeline separado e escasso para cada aranha?

Eu quero buscar páginas da web em domínio diferente, isso significa que eu tenho que usar aranha diferente sob o comando "scrapy crawl myspider". N...

1 a resposta

raspar várias páginas com raspar

Estou tentando usar o scrapy para raspar um site que tenha várias páginas de informações. meu código é: from scrapy.spider import BaseSpider from scrapy.selector import Selector from tcgplayer1.items import Tcgplayer1Item class ...

2 a resposta

Exportar arquivo csv de scrapy (não via linha de comando)

Tentei exportar meus itens com sucesso para um arquivo csv na linha de comando, como: scrapy crawl spiderName -o filename.csvMinha pergunta é: Qual é a solução mais fácil de fazer o mesmo no código? Preciso disso enquanto extraio o nome ...

2 a resposta

Scrapy: Extrair links e texto

Eu sou novo no scrapy e estou tentando raspar a página do site da Ikea. A página básica com a lista de locais, conforme indicadoaqui [http://www.ikea.com/]. Minhasitems.pyarquivo é dado abaixo: import scrapy class IkeaItem(scrapy.Item): name = ...

1 a resposta

Passar argumento para scrapy spider dentro de um script python

Posso executar o rastreamento em um script python com a seguinte receita do wiki: from twisted.internet import reactor from scrapy.crawler import Crawler from scrapy import log, signals from testspiders.spiders.followall import FollowAllSpider ...

1 a resposta

Herança múltipla em aranhas arranhadas

É possível criar uma aranha que herda a funcionalidade de duas aranhas base, a saber SitemapSpider e CrawlSpider? Eu tenho tentado raspar dados de vários sites e percebi que nem todos os sites têm uma lista de todas as páginas do site, portanto, ...

1 a resposta

Como evitar um erro twisted.internet.error.ConnectionLost ao usar Scrapy?

Estou raspando algumas páginas comscrapy [http://scrapy.org/]e obtenha o seguinte erro: twisted.internet.error.ConnectionLost Minha saída de linha de comando: 2015-05-04 18:40:32+0800 [cnproxy] INFO: Spider opened 2015-05-04 ...

1 a resposta

Scrapy: captura respostas com códigos de servidor HTTP específicos

Temos um projeto Scrapy padrão (Scrapy 0.24). Gostaria de pegar códigos de resposta HTTP específicos, como 200, 500, 502, 503, 504 etc. Algo parecido: class Spider(...): def parse(...): processes HTTP 200 def parse_500(...): processes HTTP 500 ...

1 a resposta

Multiprocessamento de aranhas riscadas em processos paralelos

Existem várias perguntas semelhantes que eu já li no Stack Overflow. Infelizmente, perdi links de todos eles, porque meu histórico de navegação foi excluído inesperadamente. Todas as perguntas acima não puderam me ajudar. Alguns deles usaram ...