it-swarm.com.de

Das Sitemap-Paradoxon

Wir verwenden ein sitemap für Stack Overflow, aber ich habe gemischte Gefühle.

Webcrawler erkennen Seiten normalerweise über Links innerhalb der Site und von anderen Sites. Sitemaps ergänzen diese Daten, damit Crawler, die Sitemaps unterstützen, alle URLs in der Sitemap abrufen und anhand der zugehörigen Metadaten mehr über diese URLs erfahren können. Die Verwendung der Sitemap Protokoll garantiert nicht, dass Webseiten in Suchmaschinen enthalten sind, bietet jedoch Hinweise für Webcrawler, um das Crawlen Ihrer Website zu verbessern.

Basierend auf unserer zweijährigen Erfahrung mit Sitemaps ist etwas im Grunde paradox an der Sitemap :

  1. Sitemaps sind für Websites gedacht, die nur schwer ordnungsgemäß gecrawlt werden können.
  2. Wenn Google Ihre Website nicht erfolgreich crawlen kann, um einen Link zu finden, dieser jedoch in der Sitemap gefunden werden kann ), wird der Sitemap-Link nicht gewichtet und nicht indexiert!

Das ist das Sitemap-Paradoxon - wenn Ihre Website nicht richtig gecrawlt wird (aus welchem ​​Grund auch immer), hilft Ihnen die Verwendung einer Sitemap nicht weiter!

Google gibt sich alle Mühe, keine Sitemap-Garantie :

"Wir können keine Prognosen oder Garantien darüber abgeben, wann oder ob Ihre URLs gecrawlt oder unserem Index hinzugefügt werden." Zitat

"Wir können nicht garantieren, dass wir alle Ihre URLs crawlen oder indizieren. Beispielsweise können wir keine Bild-URLs crawlen oder indizieren, die in Ihrer Sitemap enthalten sind." Zitat

"Das Übermitteln einer Sitemap garantiert nicht, dass alle Seiten Ihrer Website gecrawlt oder in unsere Suchergebnisse aufgenommen werden" Zitat

Angesichts der Tatsache, dass Links in Sitemaps lediglich Empfehlungen sind, während Links auf Ihrer eigenen Website als kanonisch angesehen werden ... ist es nur logisch, ) zu tun + Vermeiden Sie eine Sitemap und stellen Sie verdammt sicher, dass Google und jede andere Suchmaschine Ihre Website mithilfe der normalen alten Standardwebseiten, die alle anderen sehen, richtig erkennen können.

Zu dem Zeitpunkt, an dem Sie that erledigt haben und sich gründlich und gut durchdacht fühlen, kann Google feststellen, dass Ihre own site Links zu diesen Websites enthält Seiten und wären bereit, die Links zu crawlen - äh, warum brauchen wir wieder eine Sitemap? Die Sitemap kann aktiv schädlich sein, da sie Sie davon abhält, sicherzustellen, dass Suchmaschinenspinnen Ihre gesamte Website erfolgreich crawlen können. "Oh, es ist egal, ob der Crawler es sehen kann, wir schlagen nur diese Links in die Sitemap!" In unserer Erfahrung ist die Realität genau umgekehrt.

Das scheint mehr als ironisch zu sein, wenn man bedenkt, dass Sitemaps ) für Websites gedacht sind, die eine sehr umfangreiche Sammlung von Links oder eine komplexe Benutzeroberfläche haben, die schwer zu erkennen ist. Erfahrungsgemäß hilft die Sitemap nicht weiter, da wenn Google den Link auf Ihrer Website nicht richtig findet, wird er ohnehin nicht in der Sitemap indiziert. Wir haben dies immer wieder mit Stack Overflow-Fragen bewiesen.

Liege ich falsch? Sind Sitemaps sinnvoll und verwenden wir sie nur falsch?

249
Jeff Atwood

Haftungsausschluss: Ich arbeite mit dem Sitemaps-Team von Google zusammen, daher bin ich etwas voreingenommen :-).

Zusätzlich zur umfassenden Verwendung von Sitemaps für Inhalte (Bilder, Videos, Nachrichten usw.), die nicht im Webindex enthalten sind, verwenden wir Informationen aus URLs, die in Sitemaps-Dateien enthalten sind, für die folgenden Hauptzwecke:

  • Entdecken neuer und aktualisierter Inhalte (ich denke, dies ist die naheliegende und ja, wir erfassen und indizieren auch ansonsten nicht verknüpfte URLs von dort)
  • Bevorzugte URLs für die Kanonisierung erkennen (es gibt andere Möglichkeiten, mit der Kanonisierung umzugehen auch)
  • Bereitstellung einer nützlichen indizierten URL-Anzahl in den Google Webmaster-Tools (Annäherungen an die Website: - Abfragen können nicht als Metrik verwendet werden)
  • Eine Grundlage für nützliche Durchforstungsfehler bereitstellen (wenn eine in einer Sitemap-Datei enthaltene URL einen Durchforstungsfehler aufweist, ist dies in der Regel ein größeres Problem und wird in den Webmaster-Tools separat angezeigt)

Auf der Webmaster-Seite habe ich auch Sitemaps-Dateien als äußerst nützlich empfunden:

  • Wenn Sie die Sitemaps-Datei mit einem Crawler erstellen, können Sie auf einfache Weise überprüfen, ob Ihre Site gecrawlt werden kann, und aus erster Hand feststellen, welche URLs gefunden wurden. Findet der Crawler Ihre bevorzugten URLs oder ist etwas falsch konfiguriert? Steckt der Crawler irgendwo in unendlichen Räumen fest (z. B. in endlosen Kalenderskripten)? Ist Ihr Server in der Lage, die Last zu bewältigen?
  • Wie viele Seiten hat Ihre Website wirklich? Wenn Ihre Sitemap-Datei "sauber" ist (keine Duplikate usw.), ist dies leicht zu überprüfen.
  • Ist Ihre Website wirklich sauber durchsuchbar, ohne dass doppelte Inhalte angezeigt werden? Vergleichen Sie die vom Googlebot hinterlassenen Serverprotokolle mit Ihrer Sitemaps-Datei. Wenn der Googlebot URLs crawlt, die nicht in Ihrer Sitemap-Datei enthalten sind, möchten Sie möglicherweise die interne Verknüpfung überprüfen.
  • Treten auf Ihrem Server Probleme mit Ihren bevorzugten URLs auf? Das Gegenprüfen des Serverfehlerprotokolls mit den Sitemaps-URLs kann sehr hilfreich sein.
  • Wie viele Ihrer Seiten sind wirklich indexiert? Wie oben erwähnt, ist diese Anzahl in den Webmaster-Tools sichtbar.

Zugegeben, für sehr kleine, statische und leicht zu durchsuchende Websites ist die Verwendung von Sitemaps aus Sicht von Google möglicherweise nicht mehr erforderlich, sobald die Website gecrawlt und indiziert wurde. Für alles andere würde ich sie wirklich empfehlen.

FWIW Es gibt einige Missverständnisse, auf die ich ebenfalls eingehen möchte:

  • Die Sitemap-Datei soll keine Probleme mit der Durchforstbarkeit beheben. Wenn Ihre Website nicht gecrawlt werden kann, beheben Sie dies zuerst .
  • Wir verwenden keine Sitemap-Dateien für das Ranking.
  • Durch die Verwendung einer Sitemap-Datei wird das normale Crawlen Ihrer Website nicht beeinträchtigt. Dies sind zusätzliche Informationen und kein Ersatz für das Crawlen. Ebenso bedeutet das Fehlen einer URL in einer Sitemap-Datei nicht, dass sie nicht indiziert wird.
  • Mach dir keine Sorgen um die Metadaten. Wenn Sie keine nützlichen Werte angeben können (z. B. für die Priorität), lassen Sie sie weg und machen Sie sich darüber keine Sorgen.
190
John Mueller

Wenn Sie wissen, dass Sie eine gute Website-Architektur haben und Google Ihre Seiten natürlich finden würde, ist der einzige Vorteil, den ich kenne, eine schnellere Indizierung. Wenn Ihre Website schnell genug für Sie indiziert wird, ist dies nicht erforderlich.

Hier ist ein Artikel aus dem Jahr 2009, in dem ein Gentlemen getestet hat, wie schnell Google seine Website mit und ohne Sitemap gecrawlt hat. http://www.seomoz.org/blog/do-sitemaps-effect-crawlers

Meine Faustregel lautet: Wenn Sie etwas Neues und Ungetestetes starten, möchten Sie sehen, wie Google Ihre Website crawlt, um sicherzustellen, dass nichts repariert werden muss. Senden Sie es also nicht, wenn Sie Änderungen vornehmen und dies möchten Wenn Sie andere zeitkritische Informationen haben, wie z. B. aktuelle Nachrichten, dann senden Sie diese an Google, weil Sie alles tun möchten, um sicherzustellen, dass Sie die ersten sind, die Google sieht. Andernfalls ist dies eine Frage der Präferenz.

40
Joshak

Ich vermute: Für Google sind Sitemaps erforderlich, um Updates so schnell wie möglich nachverfolgen zu können. Nehmen wir zum Beispiel an, Sie haben einen neuen Inhalt zu einer tiefen Position Ihrer Website hinzugefügt, die mehr als 10-20 Klicks von Ihrer Homepage entfernt benötigt. Für Google ist es weniger wahrscheinlich, dass diese neue Seite in kurzer Zeit erreicht wird. Stattdessen wird, bis ein Pfad zu dieser Seite vollständig festgelegt ist, deren Existenz angekündigt. Schließlich wird der PageRank nicht sofort berechnet, sondern es wird Zeit benötigt, um das Benutzerverhalten und dergleichen zu bewerten. Warum sollte die Suchmaschine bis dahin keine Seite mit neuem Inhalt crawlen und indizieren?

15

Mit den Worten von Google: "In den meisten Fällen profitieren Webmaster von der Übermittlung der Sitemap, und in keinem Fall werden Sie dafür bestraft."

Ich stimme jedoch zu, dass das Beste, was Sie tun können, wenn Ihre Webseiten in Suchmaschinen angezeigt werden sollen, darin besteht, sicherzustellen, dass sie von der eigentlichen Website aus gecrawlt werden können.

8
Daniel Alexiuc

Sitemaps sind unglaublich wertvoll, wenn Sie sie richtig verwenden.

Zunächst einmal dient die Tatsache, dass Google angibt, dass es sich um Hinweise handelt, nur dazu, a) sicherzustellen, dass Webmaster nicht den falschen Eindruck haben, Sitemap = Indexierung, und b) Google die Möglichkeit zu geben, bestimmte Sitemaps zu ignorieren, wenn sie als unzuverlässig eingestuft werden ( aka lastmod ist das aktuelle Datum für alle URLs an jedem Tag, an dem sie aufgerufen werden.)

Im Allgemeinen mag und konsumiert Google jedoch Sitemaps (in der Tat finden sie manchmal ihre eigenen und fügen sie den Google Webmaster-Tools hinzu). Warum? Es erhöht die Effizienz, mit der sie kriechen können.

Anstatt an einer Startsite zu beginnen und das Web zu crawlen, können sie einen angemessenen Betrag ihres Crawling-Budgets auf der Grundlage der übermittelten XML-Sitemaps einer Site zuweisen. Sie können auch einen umfangreichen Verlauf Ihrer Website mit den zugehörigen Fehlerdaten (500, 404 usw.) erstellen.

Von Google:

"Der Googlebot durchsucht das Web, indem er Links von einer Seite zur anderen verfolgt. Wenn Ihre Website also nicht richtig verlinkt ist, können wir sie möglicherweise nur schwer finden."

Was sie nicht sagen, ist, dass das Crawlen des Webs zeitaufwändig ist und sie lieber einen Spickzettel (aka Sitemap) haben.

Sicher, Ihre Website ist aus Crawl-Sicht in Ordnung. Wenn Sie jedoch neuen Inhalt einführen möchten, können Sie diesen Inhalt schneller in eine Sitemap mit hoher Priorität kopieren, um ihn zu crawlen und zu indizieren.

Und das funktioniert auch bei Google, da neue Inhalte schnell gefunden, gecrawlt und indiziert werden sollen. Auch wenn Sie nicht der Meinung sind, dass Google beim Dschungel-Ansatz den ausgetretenen Pfad gegenüber der Machete bevorzugt, gibt es einen weiteren Grund, warum Sitemaps wertvoll sind - das Tracking.

Insbesondere mit einem Sitemap-Index (http://sitemaps.org/protocol.php#index) können Sie Ihre Site in Abschnitte aufteilen - Sitemap nach Sitemap. Auf diese Weise können Sie die Indexierungsrate Ihrer Website abschnittsweise anzeigen.

Ein Abschnitt oder Inhaltstyp weist möglicherweise eine Indexierungsrate von 87% auf, während ein anderer eine Indexierungsrate von 46% aufweist. Es ist dann Ihre Aufgabe, herauszufinden, warum.

Um die Sitemaps optimal zu nutzen, sollten Sie das Crawlen von Googlebot (und Bingbot) auf Ihrer Website (über Weblogs) nachverfolgen, diese mit Ihren Sitemaps abgleichen und dann dem gesamten Datenverkehr folgen.

Schlafen Sie nicht auf Sitemaps, sondern investieren Sie in sie.

8
AJ Kohn

Ich glaube, dass Suchmaschinen die Sitemap nicht so oft verwenden, um Seiten zu finden, sondern um zu optimieren, wie oft sie sie auf Aktualisierungen überprüfen. Sie schauen sich <changefreq> und <lastmod> an. Google spinnt wahrscheinlich sehr oft die gesamte Website (überprüfen Sie Ihre Protokolle!), Aber nicht alle Suchmaschinen haben die Ressourcen, um dies zu tun (Hat jemand versucht Blekko ?). In jedem Fall, da es keine Strafe für die Verwendung gibt und sie automatisch und einfach erstellt werden können, würde ich es weitermachen.

7
Adam

wenn Sie sich für dieses Thema interessieren, lesen Sie bitte dieses großartige Google Paper http://googlewebmastercentral.blogspot.com/2009/04/research-study-of-sitemaps.html (April 2009) - lesen Sie das Vollständiges Papier, nicht nur der Blogpost.

aus dem Papier

  • ok, im Grunde kämpfte Google mit der gleichen Frage.
  • sie legen nicht offen, wie sie den Wert innerhalb der Sitemap bestimmen, erwähnen jedoch das Konzept eines virtuellen Links von der Startseite zur Sitemap.
  • viele andere interessante Sachen

aber ja, die Sitemap wird hauptsächlich zum Auffinden verwendet (der Vorgang, bei dem Google Ihre Inhalte entdeckt), nicht zur Wertermittlung. Wenn Sie Schwierigkeiten mit der Entdeckung haben, verwenden Sie eine Sitemap. Entdeckung ist eine Voraussetzung für das Crawlen, berührt jedoch nicht die Wertbestimmung.

meiner Erfahrung nach

  • es gibt eine Menge Websites, die nur HTML- und XML-Sitemaps zum Verknüpfen ihrer Seiten verwenden
  • und von diesen ist die XML-Sitemap viel viel besser gecrawlt als die HTML-Sitemap. (Ich habe mir einige wirklich große angesehen)
  • es gibt sogar sehr erfolgreiche Websites, die nur XML-Sitemap verwenden.

wenn ich eine SEO-Strategie für eine Website mit mehr als einer halben Million Seiten implementiere, für die ich mich entschieden habe

  • startseiten
  • sitemap.xml
  • startseite

alles andere ist nur "Quatsch" - ja, andere Sachen haben vielleicht einen positiven SEO-Wert, aber definitiv einen negativen Wert: Es erschwert die Verwaltung der Website. (ps .: zur wertermittlung verknüpfe ich die landingpages sensemaking (große wirkung), aber das ist schon der zweite schritt).

zu Ihrer Frage: Bitte verwechseln Sie nicht das Erkennen, Crawlen, Indizieren und Ranking. Sie können alle separat verfolgen und alle separat optimieren. und Sie können das Erkennen und Crawlen mit einer großartigen (d. h. Echtzeit-) Sitemap in erheblichem Maße verbessern.

6
Franz

Sitemaps können deinen Arsch retten.

Auf einer meiner Websites habe ich eine große Anzahl von Links, mit denen ich verhindern kann, dass Suchmaschinen spinnen. Um es kurz zu machen, Google hat JS in meinem Forum falsch interpretiert und viele 500 und 403 Antwortcodes ausgelöst, von denen ich glaubte, dass sie sich auf die Position der Website auswirken. Ich habe das umgangen, indem ich die problematischen URLs über robots.txt ausgeschlossen habe.

Eines Tages habe ich ein Durcheinander begangen und etwas getan, das Google daran gehindert hat, einige Seiten auf dieser Website zu crawlen, die ich wirklich indizieren wollte. Aufgrund der Ausschlüsse im Forum enthielt der Fehlerbereich der Webmaster-Tools für "Restricted by robots.txt" mehr als 4000 Seiten. Daher hätte ich diesen Fehler erst aufgegriffen, als es viel zu spät war.

Da sich alle "wichtigen" Seiten auf meiner Website in Sitemaps befinden, konnte ich dieses Problem in der speziellen Fehlerkategorie der Webmaster-Tools für Probleme mit Seiten in Sitemaps schnell erkennen.

Abgesehen davon kann ich auch einen Sitemap-Index verwenden, um die Indizierungsqualität verschiedener Abschnitte meiner Websites zu bestimmen, wie erwähnt von @AJ Kohn.

5
JasonBirch

Ich bin selbst nicht darauf gestoßen, aber die meisten meiner Projekte sind Anwendungen oder Websites, für die ansonsten Benutzerkonten erforderlich sind, sodass die Indizierung durch Suchmaschinen kein Schwerpunkt ist.

Das heißt, ich habe schon gehört, dass SEO Sitemaps im Grunde genommen unbrauchbar gemacht hat. Wenn Sie sich das Protokoll ansehen, ist es eine Art "Ehrensystem", das angibt, wie oft sich eine Seite ändert und welche relative Priorität jede Seite hat. Es liegt auf der Hand, dass ein Dutzend SEO-Firmen die Felder missbrauchen - jede Seite hat höchste Priorität! Jede Seite wechselt stündlich! - und Sitemaps effektiv unbrauchbar gemacht.

Dieser Artikel aus dem Jahr 2008 sagt im Grunde das und scheint zu dem gleichen Schluss zu kommen, den Sie ziehen: Die Sitemap ist ziemlich nutzlos, und Sie sollten den zu indizierenden Inhalt besser optimieren und die Sitemap wegwerfen.

4
Travis Illig

Dies wurde (zuerst?) Geschrieben von Randfish bei SEOmoz im guten alten Jahr 2007. Das erste Mal kam er zu den gleichen Schlussfolgerungen, aber dann war es an der Zeit. und bestanden.

Seit Januar 2009 hat er dem Artikel einen Nachtrag hinzugefügt, der besagt, dass alle möglichen Nachteile durch die insgesamt positiven Ergebnisse der Erstellung, Überprüfung und Übermittlung von Sitemaps aufgewogen werden.

Update 5. Januar 2009 - Ich habe meine Meinung zu diesem Ratschlag tatsächlich erheblich geändert. Ja, Sitemaps können immer noch architektonische Probleme verschleiern, aber angesichts der Erfahrung, die ich in den letzten 1,5 Jahren gesammelt habe, empfehle ich jetzt allen unseren Kunden (und fast allen anderen, die darum bitten), Sitemaps einzureichen. Die Vorteile in Bezug auf Crawling, Indexierung und Datenverkehr überwiegen einfach die Nachteile.

3
Mike Hawkins

Lass es kriechen.

Ich mache folgendes:

  1. machen Sie die Site auf die alte Art und Weise crawlbar.
  2. stellen Sie sicher, dass ich eine robots.txt mit einer Sitemap-Angabe darauf habe.
  3. xML-Sitemap erstellen, aber nicht senden. Lassen Sie den Crawler es als Teil seines Erkennungs- und Indizierungsprozesses nach Bedarf erkennen und verwenden.

Ich erstelle eine erweiterte XML-Datei, die als Grundlage für viele Dinge dient:

  • Generierung der HTML-Sitemap
  • Hilf der 404 (nicht gefunden) Seite
  • Helfen Sie mit anderen kleinen Aufgaben, wie dem Bilden von Semmelbröseln oder dem Abrufen von Metadaten in meinem Fassadenmuster für eine Seite.

Daher habe ich all dies, warum sollte ich nicht auch eine XML-Sitemap bereitstellen und den Crawler tun lassen, was er tun möchte, wenn er es tun möchte?

3
Dave

Jeff, ich habe keine Ahnung von Stackoverflow, weil ich noch nie in meinem Leben die Gelegenheit hatte, Webmaster einer so großen und häufig aktualisierten Website zu sein.

Für kleine Websites, die sich nicht häufig ändern, halte ich Sitemap für sehr nützlich (nicht, dass Sitemap das Wichtigste ist, aber sehr nützlich, ja) aus zwei Gründen:

  1. Die Site wird schnell gecrawlt (der gleiche Grund erklärt durch Joshak-Antwort oben ) und in meiner kleinen Erfahrung habe ich dies oft mit kleinen Sites bemerkt (bis zu 30)/50 Seiten)

  2. Nach einigen Wochen habe ich eine Sitemap eingereicht. Ich schaue in "Google Webmaster-Tools - Sitemaps" nach und sehe die Anzahl der in der Sitemap eingereichten URLs im Vergleich zur Anzahl der URLs im Webindex . Wenn ich sehe, dass sie gleich sind, dann gut. Ansonsten kann ich auf meinen Webseiten sofort nachlesen, welche Seiten nicht indiziert werden und warum.

3
Marco Demaio

Ich glaube, SiteMaps dienen heutzutage nur zwei Zwecken:

  • Mit ihnen können Sie die Häufigkeit von Spidering reduzieren, um die Serverlast zu verringern. Dies sollte für die meisten Websites kein Problem darstellen.
  • Sie können dabei helfen, das zu verstärken, was die Suchmaschine bereits über Sie weiß. Das Auflisten der Seitennamen und offensichtlich das Hinzufügen einer geeigneten Gewichtung zu jeder Seite hilft der Suchmaschine, ihre eigenen Metriken für das Ranking Ihrer Site-Architektur zu validieren.
2
LabSlice

KEINE SITEMAPS VERWENDEN

Sitemaps sind hauptsächlich für Sites gedacht, die keine Timestamp-Indizes und -Knoten haben. SE übernimmt beides für den Kerninhalt. Wenn Sie also eine Sitemap haben, wird der Crawler langsamer Es fehlen die Metadaten der Kernindizes. Auf der anderen Seite habe ich keine wirkliche Ahnung, wie Google seine Bots erstellt. Ich weiß nur, ob ich zu Bot SE gehen würde. Ich würde die Sitemap NICHT verwenden. Außerdem bemerken manche Websites nicht einmal, dass ihre Sitemaps alle%! @ $ Sind - und wenn Sie ein Profil in einer Sitemap erstellt haben, funktioniert das plötzlich nicht mehr, und Sie müssen ein neues Profil in der Sitemap erstellen echte Seite.

Sie haben also Recht - KEINE SITEMAPS VERWENDEN!

TIPP: Eine Sache, die Sie dennoch tun sollten, ist, die Semantik der Tags so lange wie möglich gleich zu halten. Das heißt, wenn in "Asked One Hour Ago" Metadaten wie die folgenden eingebettet sind:

title="2010-11-02 00:07:15Z" class="relativetime"

ändern Sie niemals den Zeichenfolgennamen relativetime, es sei denn, die Bedeutung der Daten in title hat sich geändert. NIE ...: -)

1
blunders

Ich habe kürzlich eine Site umstrukturiert, an der ich noch arbeite. Da es keine gute Möglichkeit gab, 500.000 Seiten zu verknüpfen, um den Nutzern zu helfen, entschied ich mich, eine XML-Sitemap zu verwenden, diese an Google zu senden und stattdessen die Websitesuche zu verwenden. Google hatte kein Problem damit, meine Website früher zu indizieren. Seit dem Hinzufügen der Sitemap ist Google jedoch sehr aggressiv darin, meine Website zu spinnen und die Seiten extrem schnell zu indizieren. Google hat die Sitemap verwendet, um neue Seiten zu finden (etwa 3300 pro Woche) und aktualisierte Seiten erneut aufzurufen. Es war ein echter Gewinn in meinem Buch. Ich möchte immer noch einen neuen Weg finden, um meine Seiten zu verlinken und AJAX zum Nachschlagen zu verwenden, aber das ist ein Projekt für einen anderen Tag. So weit, ist es gut! Es war eine gute Lösung für mich. Alles in allem habe ich gewonnen und nicht verloren. Das ist interessant, da ich immer der Meinung war, dass Sitemaps nützlicher sein könnten, aber durch ihr Design eingeschränkt sind.

1
closetnoc

Ich bin nicht einverstanden, dass Google die Nur-Sitemapped-Links nicht indiziert. Ich habe zahlreiche Websites, deren Seiten nur über Sitemaps erreichbar sind, und google indiziert sie ohne Probleme. Ich kann dafür viele Beispiele nennen.

0
setiri

Eine gut erstellte Website benötigt keine Sitemap, obwohl sie unsere Berichterstattung und unser Ranking unterstützen und einen kleinen zusätzlichen Wert wie Priorität, Aktualisierungshäufigkeit usw. hinzufügen kann. Sie können einer Suchmaschine sagen, hey ... Ich habe diese Seite aktualisiert Irgendwo in der Mitte meiner Site, ohne dass ein vollständiger Crawl erforderlich ist. Ich habe mir die Crawl-Muster noch nie angesehen, aber man würde hoffen, dass es hilft.

Das wahre Plus für mich sind jedoch die Webmaster-Tools und der Einblick, den Sie in die Sichtbarkeit Ihrer Website und Ihrer Benutzer erhalten.

0
dan

Ich habe gehört, dass Sitemaps Ihre Seiten schneller in den Zusatzindex stellen. Aber ich habe den Zusatzindex schon seit Jahren nicht mehr gehört, daher wird er möglicherweise nicht mehr verwendet.

P.S. Für den Fall, dass meine Aussage nicht klar genug ist, ist (oder war) die Aufnahme in den Zusatzindex eine SCHLECHTE Sache ... daher ist (oder war) eine Sitemap SCHLECHTE.

0
joedevon

Wir verwenden Sitemaps (nicht bei Suchmaschinen eingereicht, sondern in robots.txt verlinkt), um sicherzustellen, dass die Homepage den höchsten <priority> aufweist. Ich bin mir nicht sicher, ob sie viel anderen Nutzen haben.

0
TRiG