it-swarm.com.de

Dynamische URLs werden durch Robots.txt eingeschränkt. Ist es wirklich wichtig für SEO?

Ich habe heute bei Google nach Robots.txt gesucht und fand das so toll thread . Ich habe die Google Webmaster-Tools überprüft und festgestellt, dass es 117 URLs gibt, die durch Robots.txt eingeschränkt sind. Diese Zahl wird in naher Zukunft zunehmen, da es sich ausschließlich um dynamische URLs handelt. Sie können mehr darüber wissen Excel-Tabelle . Wenn ich dynamische URLs einschränke, die mit meinen Kategorieseiten verknüpft sind, hat dies dann negative Auswirkungen auf das organische SEO?

2
Hiren Modi

Sperren Sie Seiten, nur weil sie dynamisch sind? Wenn ja, machen Sie einen Fehler, da die Suchmaschinen Indexseiten erstellen, die dynamisch sind/über einen Abfrage-Ring verfügen. Wenn Sie dies jedoch tun, weil Sie sich Sorgen um doppelten Inhalt machen (z. B. dass dieselbe URL denselben Inhalt mit nur geringfügigen Abweichungen in der Anzeige aufruft), verwenden Sie nur kanonische URLs, um die Suchmaschinen, insbesondere Google, zu informieren , welche URL die Haupt-URL ist, die in den Suchergebnissen angezeigt werden soll, und dass alle anderen URLs Duplikate dieser URL sind.

Wenn Sie Seiten auf Ihrer eigenen Website blockieren, führt dies zu einem PageRank-Verlust, da Links zu Seiten, die nicht indexiert werden können, zwar den PageRank erhalten, aber offensichtlich nicht "versendet" werden können, da die Seite nicht gecrawlt und indexiert werden kann. Dies bedeutet auch, dass Sie einige interne Verknüpfungen verpassen. Links von Ihren eigenen Seiten sind genauso wertvoll wie Links von externen Seiten (obwohl der Wert dieser Links wahrscheinlich variiert).

4
John Conde

Ich komme nach langer Zeit auf meine Frage zurück. Ich habe getan, was von dir vorgeschlagen wurde. Insbesondere habe ich über dynamische Seiten gesprochen, die von Suchfunktion generiert werden. Auf den folgenden Seiten erfahren Sie mehr darüber.

www.vistastores.com/table-lamps?material_search=1328

www.vistastores.com/table-lamps?material_search=1328

Ich habe das kanonische Tag auf die folgende Basis-URL gesetzt.

www.vistastores.com/tischlampen

Aber ich kann weder eine Verbesserung des Rankings noch eine Einschränkung des Crawling feststellen.

Wenn Sie die ersten beiden URLs überprüfen, werden Sie feststellen, dass alle dynamischen Seiten nicht zu 100% mit der Basis-URL identisch sind. Weil alle dynamischen Seiten unterschiedliche Produkte haben, die mit der Basis-URL verglichen werden.

Also, wie können wir das sagen, es ist doppelt so groß. Ich habe die Richtlinien von Google zu Canonical Tags gelesen und weiß, dass Canonical Tags bei echten Duplikaten gut funktionieren.

Ich mache mir ehrlich Sorgen um mein aktuelles Problem. Weil ich meine zu vielen Seiten, die einzigartige Produkte enthalten, nur aufgrund eines doppelten Seitentitels nicht präsentieren kann.

0
Hiren Modi