it-swarm.com.de

Suche und Tags für robots.txt

Nachdem ich ein Blog auf blogspot.com eingerichtet hatte, fügte ich die Website meinen Webmaster-Tools von Google hinzu.

Ich bemerkte einen Fehler: "Restricted by robots.txt" und schaute ein wenig in die Sache. Ich habe in der robots.txt von Blogspot festgestellt, dass Google das Verzeichnis/search standardmäßig verhindert, um doppelte Einträge in der Suchmaschine zu vermeiden. Da Tags unter/search/label/SOME_TAG zu finden sind, werden diese auch nicht indiziert.

Ich betreibe verschiedene Websites, insbesondere eine für mich wichtige E-Commerce-Website. Für jedes Produkt verwenden wir Tags. Jedes Tag führt zu einer separaten Site wie/tags/tag1/und listet alle Produkte auf, die mit diesem Tag verknüpft sind.

Und das führt mich zu meiner Frage:

Soll ich mithilfe von robots.txt auch Such- und/oder Tag-Seiten auf meinen Websites blockieren?

Ich bin der Meinung, dass Google möglicherweise meinen PageRank/meine Suchergebnisse für die Verwendung dieses Inhalts mit "geringer Qualität" bestraft. Ich denke jedoch, dass sie sehr nützlich sind. Wir bieten eine kurze Beschreibung jedes Tags und wie die aufgelisteten Produkte für das von dem Tag beschriebene Problem verwendet werden können.

Außerdem haben Benutzer, die auf Tagseiten landen, sehr hohe Absprungraten (> 90%), die weit über der durchschnittlichen Absprungrate liegen.

Was ist die beste Vorgehensweise?

1
ptmr.io

Ich finde viele Seiten in den Google-Suchergebnissen von den verschiedenen StackExchange-Sites, die die Tagseiten, die beliebtesten Fragen usw. sind. Es sieht also nicht so aus, als würden sie von Google als qualitativ minderwertig eingestuft. Ich würde sie nicht blockieren, es sei denn, Sie sehen ein Problem wie ein Panda-Update, das sich sehr negativ auf Ihr Ranking auswirkt. Andernfalls stellen diese Seiten eine Zugriffsquelle dar. Obwohl die Absprungrate hoch ist, erhalten Sie Besucher, die dank dieser Seiten in den Suchergebnissen weiter in Ihre Website vordringen.

1
John Conde