Suchergebnisse für Anfrage "robots.txt"

6 die antwort

Wie konfiguriere ich Nginx, um zu einer URL für robots.txt & sitemap.xml umzuleiten

Ich verwende Nginx 0.6.32 als Proxy-Front-End für Couchdb. Ich habe meine robots.txt in der Datenbank, erreichbar alshttp://www.example.com/prod/_design/myde...

1 die antwort

robots.txt URL Format

Gemäßdiese SeiteGlobbing und reguläre Ausdrücke werden weder in den User-Agent- noch in den Disallow-Zeilen unterstütztAllerdings ist mir aufgefallen, dass d...

2 die antwort

wie man alle dynamischen URLs verbietet robots.txt [closed]

wie man alle dynamischen URLs in robots.txt verbietet

TOP-Veröffentlichungen

3 die antwort

Wie man Suchseiten von robots.txt verbietet

Ich muss verbietenhttp://example.com/startup?page=2 Suchseiten werden nicht indexiert.Ich willhttp://example.com/startup indiziert werden aber nichthttp://ex...

2 die antwort

Robots.txt verweigern, für ein #! URL

Ich versuche, einer robots.txt-Datei eine Verweigerungsregel hinzuzufügen, um den Zugriff auf eine einzelne Seite zu verweigern.Die Website-URLs funktioniere...

1 die antwort

robots.txt-Datei für verschiedene Domains derselben Site

2 die antwort

Wie füge ich eine Route zur dynamischen robots.txt in ASP.NET MVC hinzu?

Ich habe eine robots.txt, die nicht statisch ist, sondern dynamisch generiert wird. Mein Problem ist das Erstellen einer Route von root / robots.txt zu meine...

2 die antwort

Entspricht die User-Agent-Zeile in robots.txt genau einer Übereinstimmung oder einer Teilzeichenfolge?

1 die antwort

Python, Mechanize - Anfrage von robots.txt auch nach set_handle_robots und add_headers nicht erlaubt

Ich habe einen Webcrawler erstellt, der alle Links bis zur ersten Ebene der Seite abruft und von dort alle Links und Texte plus Imagelinks und Alt. Hier ist ...

2 die antwort

django dient robots.txt effizient

Hier ist meine aktuelle Methode zum Servieren von robots.txt