Suchergebnisse für Anfrage "robots.txt"

1 die antwort

Rails robots.txt Ordner

Ich starte gerade eine Rails-App und als letzte Aufgabe möchte ich die robots.txt-Datei nicht festlegen. Ich konnte keine Informationen darüber finden, wie d...

2 die antwort

Kann das Verbieten der gesamten Website auf robots.txt nach dem Entfernen Konsequenzen haben?

Ich habe eine Website veröffentlicht und musste aufgrund eines Missverständnisses, das nicht von mir abhängt, vor der Indizierung alle Seiten blockieren. Einige dieser Seiten wurden bereits in sozialen Netzwerken verlinkt. Um eine schlechte ...

2 die antwort

wie man alle dynamischen URLs verbietet robots.txt [closed]

wie man alle dynamischen URLs in robots.txt verbietet

TOP-Veröffentlichungen

1 die antwort

Python, Mechanize - Anfrage von robots.txt auch nach set_handle_robots und add_headers nicht erlaubt

Ich habe einen Webcrawler erstellt, der alle Links bis zur ersten Ebene der Seite abruft und von dort alle Links und Texte plus Imagelinks und Alt. Hier ist ...

2 die antwort

Robots.txt-Datei in MVC.NET 4

Ich habe einen Artikel über das Ignorieren der Roboter von einer URL in meinem ASP MVC.NET-Projekt gelesen. In seinem Artikel sagte der Autor, dass wir in einigen Off-Controllern wie diesem eine Aktion hinzufügen sollten. In diesem Beispiel fügt ...

1 die antwort

So erstellen Sie eine robots.txt-Datei, um eine neue Seite in Codeigniter vor Suchmaschinen zu verbergen

So erstellen Sie eine robots.txt-Datei in einem Codeigniter-Projekt, um eine Ansichtsseite auszublenden. Wo soll ich diese robots.txt-Datei ablegen, die ich ...

2 die antwort

Wie gibt es keine indexspezifischen URLs?

Ich habe gesucht, wie man keine spezifischen URLs indexiert, aber ich habe keine spezifischen Informationen zu den folgenden gefunden. Durch Hinzufügen der unten <?php if(is_single(X)): ?> <meta name="robots" content="noindex,nofollow"> ...

2 die antwort

Robots.txt verweigern, für ein #! URL

Ich versuche, einer robots.txt-Datei eine Verweigerungsregel hinzuzufügen, um den Zugriff auf eine einzelne Seite zu verweigern.Die Website-URLs funktioniere...

2 die antwort

Was bedeutet das Dollarzeichen in robots.txt

Ich bin neugierig auf eine Website und möchte im @ ein paar Web-Crawls mache/s Pfad.Its robots.txt [http://mp.weixin.qq.com/robots.txt]: User-Agent: * Allow: /$ Allow: /debug/ Allow: /qa/ Allow: /wiki/ Allow: /cgi-bin/loginpage Disallow: /Meine ...

2 die antwort

django dient robots.txt effizient

Hier ist meine aktuelle Methode zum Servieren von robots.txt