Gibt es eine Methode zur Verwendung einer separaten Scrapy-Pipeline für jede Spinne?

Ich möchte Webseiten unter einer anderen Domain abrufen, dh ich muss unter dem Befehl "scrapy crawl myspider" eine andere Spinne verwenden. Ich muss jedoch eine andere Pipeline-Logik verwenden, um die Daten in die Datenbank zu stellen, da der Inhalt von Webseiten unterschiedlich ist. Aber für jede Spinne müssen sie alle Pipelines durchlaufen, die in settings.py definiert wurden. Gibt es eine andere elegante Methode, um separate Pipelines für jede Spinne zu verwenden?

Antworten auf die Frage(3)

Ihre Antwort auf die Frage