Suchergebnisse für Anfrage "robots.txt"

1 die antwort

robots.txt URL Format

Gemäßdiese SeiteGlobbing und reguläre Ausdrücke werden weder in den User-Agent- noch in den Disallow-Zeilen unterstütztAllerdings ist mir aufgefallen, dass d...

1 die antwort

robots.txt-Datei für verschiedene Domains derselben Site

1 die antwort

Python, Mechanize - Anfrage von robots.txt auch nach set_handle_robots und add_headers nicht erlaubt

Ich habe einen Webcrawler erstellt, der alle Links bis zur ersten Ebene der Seite abruft und von dort alle Links und Texte plus Imagelinks und Alt. Hier ist ...

TOP-Veröffentlichungen

1 die antwort

Rails robots.txt Ordner

Ich starte gerade eine Rails-App und als letzte Aufgabe möchte ich die robots.txt-Datei nicht festlegen. Ich konnte keine Informationen darüber finden, wie d...

1 die antwort

So erstellen Sie eine robots.txt-Datei, um eine neue Seite in Codeigniter vor Suchmaschinen zu verbergen

So erstellen Sie eine robots.txt-Datei in einem Codeigniter-Projekt, um eine Ansichtsseite auszublenden. Wo soll ich diese robots.txt-Datei ablegen, die ich ...

1 die antwort

Platzhalter in robots.txt

Wenn ich auf der WordPress-Website Kategorien in dieser Reihenfolge habe: -Parent --Child ---SubchildIch habe Permalinks eingestellt auf:% category% /% postname% Nehmen wir ein Beispiel. Ich erstelle einen Beitrag mit dem ...

1 die antwort

Suchmaschinen-Crawling-Verzeichnis blockieren

Meine Website hat eine URL (längste) Struktur wie diese http://www.example.com/xyz-pqr/abcd-efgh/123.html [http://www.example.com/xyz-pqr/abcd-efgh/123.html] Es gibt also maximal 3 Verzeichnisebenen, aber aufgrund von CMS und anderen Problemen ...

1 die antwort

Müssen verwandte Unterordner in robots.txt separat gesperrt werden?

Wird das Verbieten bestimmter Ordner in robots.txt die zugehörigen Unterordner verbieten? Beispiel: Disallow:/folder/Wird passen: /folder/page /folder/subfolder/pageOder es wird einfach passen: /folder/pageWenn der zweite Fall zutrifft, muss ...

2 die antwort

wie man alle dynamischen URLs verbietet robots.txt [closed]

wie man alle dynamischen URLs in robots.txt verbietet

2 die antwort

Robots.txt verweigern, für ein #! URL

Ich versuche, einer robots.txt-Datei eine Verweigerungsregel hinzuzufügen, um den Zugriff auf eine einzelne Seite zu verweigern.Die Website-URLs funktioniere...