it-swarm.com.de

wie man Blogger doppelte Inhalte behebt m = 1 m = 0 Problem

Jeder hat eine bewährte Lösung für das Problem der doppelten Inhaltsindizierung bei Bloggern. Meine Posts werden mit den Parametern m = 0 und m = 1 indexiert.

Was ich bis jetzt getan habe:

  1. blockiert m = 0 und m = 1 in robots.txt (hinzugefügt: Disallow: /*/*/*.html?m=0 und Disallow: /*/*/*.html?m=1)

  2. In Google Webmaster-Zentrale> Crawl> URL-Parameter --- Ich habe den Parameter "m" mit Wirkung hinzugefügt: Paginates und Crawl (Welche URLs mit diesem Parameter sollten von Googlebot gecrawlt werden?) Mit dem Wert No URLs .

  3. In der Blogger-Vorlage habe ich das Robots-Meta-Tag "nofollow" hinzugefügt, wenn die Bedingung "data: blog.isMobile" erfüllt ist.

Bearbeitet:

  1. Ich verwende das kanonische Tag: expr:href='data:blog.canonicalUrl' rel='canonical'

  2. Ich habe eine benutzerdefinierte Domain für mein Blog.

4
Dorel

Ich benutze diese Abfrage inurl:"m=" "site:mydomain.com", um die Posts mit m = 0 und m = 1 zu erkennen.

Es scheint, dass das, was Sie sehen, einfach die Ergebnisse einer site: -Suche sind. Die Verwendung des Operators site: ist keine "normale" Google-Suche und es wurde gezeigt, dass nicht-kanonische (einschließlich umgeleitete ) URLs in den SERPs zurückgegeben werden. Dies sind URLs, die bei einer "normalen" organischen Suche normalerweise nicht zurückgegeben werden (wenn keine Suchoperatoren verwendet werden). Sogar URLs, die die Quelle von 301-Weiterleitungen sind, werden bei einer site: -Suche zurückgegeben, wenn sie normalerweise nicht zurückgegeben werden . Diese nicht-kanonischen URLs werden immer noch von Google gecrawlt (und verarbeitet) und häufig bei einer site: -Suche bestätigt.

Referenz:

Normalerweise reicht ein rel="canonical" (den Sie bereits ausgeführt haben) aus, um solche Konflikte mit Abfrageparametern und doppeltem Inhalt zu lösen. Beachten Sie jedoch, dass dies nicht unbedingt verhindert, dass die nicht-kanonischen Seiten indiziert werden (was Sie bei einer Suche nach site: sehen), sondern dass sie in a zurückgegeben werden "normale" Google-Suche.

blockiert m = 0 und m = 1 auf robots.txt ....

Sie möchten wahrscheinlich nicht, dass diese URLs nicht gecrawlt werden, da dies Ihrem Ranking bei der mobilen Suche schaden kann.

BTW was ist mit Disallow: /.html, Allow: /.html$

Nebenbei: Das sieht "gefährlich" aus. Google verarbeitet die Anweisungen robots.txt nicht in der Reihenfolge von oben nach unten. Sie werden in der Reihenfolge der Spezifität (Länge der URL) verarbeitet, aber wenn es um die Verwendung von Platzhaltern geht, ist die Reihenfolge offiziell "undefiniert" (was auch bedeutet, dass sie sich sogar ändern kann) ). Die Direktive Allow: ist ebenfalls eine Erweiterung des "Standards" und wird möglicherweise nicht von allen Suchmaschinen unterstützt. Es wäre besser, deutlicher zu sein. z.B. Disallow: /*?m=. Aber, wie bereits erwähnt, sollten Sie diese URLs wahrscheinlich sowieso nicht in robots.txt blockieren.

Siehe auch meine Antwort auf diese Frage für weitere Informationen über robots.txt und wie es verarbeitet wird:

2
MrWhite

Google betrachtet doppelte Inhalte nicht, wenn sie für die Desktopsuche und die mobile Suche unterschiedlich verwendet werden. Beispielsweise werden m.facebook.com/some-page/ und www.facebook.com/some-page/ nicht als doppelte Inhalte betrachtet, selbst wenn es sich um Inhalte handelt gleich auf zwei verschiedenen URL.

Ich habe kürzlich Blogger verwendet und sie verwenden example.blogspot.com?m=1, wenn Besucher/googlebot von Mobilgeräten kommen. Also werden sie das für Sie erledigen, und Sie müssen wirklich nichts tun. Indem Sie diesen Blogger robots.txt ?m=1 hinzufügen, blockieren Sie nur den Google Mobile-Bot. Dies sollten Sie nicht tun, da Google jetzt den mobilen Inhalt zuerst. indexiert

Wenn Sie Ihre Website bereits in der Suchkonsole hinzugefügt haben, die HTML-Verbesserungsoption auschecken und wenn Google dasselbe Titel-Tag für zwei verschiedene URLs anzeigt, bedeutet dies, dass Google den Inhalt als doppelt ansieht. Anderenfalls lässt Google Google die Aufgabe erledigen.

Verwenden Sie nicht site: oder inurl, um doppelten Inhalt zu überprüfen. In einem offiziellen Blog von Google werden beide URLs für diese Abfrage angezeigt. inurl:"m=" "site:webmasters.googleblog.com"

Machen Sie also nichts in Ihrem Blogger-Blog, entfernen Sie die robots.txt-Regeln und entfernen Sie auch das nofollow-Attribut.

1
Goyllo

Wenn Seiten mit m = 0 und m = 1 oder anderen Parametern die richtige kanonische URL haben, sollten Sie keine Probleme haben.

Wenn Sie keine kanonische URL für Ihre Seiten festgelegt haben, sollten Sie darauf achten, dass google die tatsächliche URL der aktuellen Seite anzeigt.

0
Rares Hideg