Python-Paket für Multi-Threaded-Spider mit Proxy-Unterstützung?

Kennt jemand das effizienteste Paket für den schnellen Multithread-Download von URLs, die über http-Proxys ausgeführt werden können, anstatt nur urllib zu verwenden? Ich kenne einige wie Twisted, Scrapy, libcurl usw., aber ich weiß nicht genug über sie, um eine Entscheidung zu treffen, oder auch wenn sie Proxies verwenden können. Kennt jemand die beste für meine Zwecke? Vielen Dank!

Antworten auf die Frage(2)

Ihre Antwort auf die Frage