StartseiteGoogle blockierenFünf Wege um Google von Ihrer Website fernzuhalten

Manchmal gibt es Seiten einer Website, von denen man nicht möchte, dass sie in den Suchergebnissen auftauchen. Einige Leute blockieren Google ohne es zu wissen, und andere wissen nicht wie man einzelne Seiten blockiert. Dieser Artikel zeigt, wie man Google davon abhalten kann, bestimmte Seiten zu indexieren.

keep-out-google

1. Blockieren von Ordnern und Seiten mit robots.txt

Die Disallow Direktive der robots.txt Datei ist ein leichter Weg, bestimmte Dateien oder ganze Ordner von der Indexierung auszunehmen. Das sieht folgendermaßen aus:

User-agent: *
Disallow: /directory/name-of-file.html

Damit schließen Sie komplette Ordner aus:

User-agent: *
Disallow: /first-directory/
Disallow: /second-directory/

Wenn Sie diese Methode anwenden, überprüfen Sie die robots.txt Datei um sicher zu sein, dass Sie nicht Ordner ausschließen, die in Google´s Suchergebnissen erscheinen sollen.

Achten Sie darauf, das die Website Besucher die Seiten sehen können, die Sie im robots.txt ausgeschlossen haben.

2. Blockieren einzelner Seiten mit dem meta robots noindex tag

Mit dem meta robots noindex tag können Sie Suchmaschinen Robots mitteilen, bestimmte Seiten nicht zu indexieren. Um eine Website von den Suchergebnissen auszuschließen, fügen Sie folgenden Code in den <head> Bereich einer Webseite ein:

<meta name="robots" content="noindex, nofollow">

In diesem Fall werden Suchmaschinen diese Seite nicht indexieren und auch nicht den Links auf der Seite folgen. Wenn Sie möchten, dass Suchmaschinen den Links auf der Seite folgen, verwenden Sie diesen Tag:

<meta name="robots" content="noindex, follow">

Der meta robots noindex tag beeinflusst nur Suchmaschinen Robots. Normale Besucher Ihrer Website können die Seiten immer noch sehen.

3. Blockieren von Seiten mit dem richtigen Server Header Status

Der Server Header Status Code versetzt Sie in die Lage, reale Website Besucher und Suchmaschinen Robots zu verschiedenen Stellen Ihrer Website zu leiten. Eine Webseite hat normalerweise einen "200 OK" Status Code. Zum Beispiel können Sie folgende Codes verwenden:

  • 301 moved permanently: diese und alle zukünftigen Anfragen werden zu einer neuen URL geleitet
  • 403 forbidden: der Server verweigert die Antwort auf die Anfrage

Zum Zwecke der Suchmaschinen Optimierung sollte ein 301 redirect dann verwendet werden, wenn Sie möchten, dass Besucher der alten Seite zur neuen Seite einer Website weitergeleitet werden.

4. Passworte schützen Ihre Webseiten

Wenn Sie Ihre Seiten mit Password schützen, können nur Besucher in Kenntnis des Passwortes die Seite besuchen.

Suchmaschinen Robots sind nicht in der Lage, auf die Seiten zuzugreifen. Mann sollte das allerdings sorgfältig austesten, weil Password geschützte Seiten einen negativen Einfluss auf das Benutzerverhalten haben können.

5. Die Verwendung von Cookies und JavaScript um Inhalt zu präsentieren.

Cookies und JavaScript können helfen Suchmaschinen Robots von Ihrer Tür fernzuhalten. Sie können zum Beispiel Content verstecken und ihn nur user agents zugänglich machen, die Cookies akzeptieren.

Sie können auch komplexe JavaScrips verwenden um Ihren Inhalt zu erzeugen. Die meisten Suchmaschinen Robots führen keinen komplexen JavaScrip Code aus.

Das Blockieren von Google kann für einige Seiten nützlich sein. Im Allgemeinen möchte man jedoch, dass Google die Webseiten indexiert. Genau das ist die Aufgabe von Website-SEO-Check.

Weiter frohes Schaffen und

viele Grüße

Arno Ashoff

Diesen Artikel mit anderen teilen Diese Icons verlinken auf Bookmark Dienste bei denen Nutzer neue Inhalte finden und mit anderen teilen können.
  • Facebook
  • Google Bookmarks
  • Linkarena
  • LinkedIn
  • MySpace
  • XING
  • del.icio.us
  • YahooMyWeb

Kommentare

Fünf Wege um Google von Ihrer Website fernzuhalten — Keine Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.