it-swarm.com.de

Betrügt es, Benutzern und Crawlern unterschiedliche Versionen desselben Inhalts zur Verfügung zu stellen?

Ich habe eine "intelligente" Vorlage für meine Website. Für menschliche Benutzer gibt der Server den Seiteninhalt beim ersten Treffer wieder, nachfolgende Seiten werden jedoch wie ein SPA geladen. Bei einem Crawler wird jede Seite auf dem Server wie auf einer "normalen" Site gerendert. Für beide sieht das Endergebnis gleich aus. Da dies eine SEO-Konsequenz haben könnte, wird es als Betrug angesehen?

Bearbeiten:

Was ich mache ist fast so https://github.com/spikebrehm/isomorphic-tutorial

5
Alexandre

Google und andere Bots als Nutzer behandeln

Sie sollten Google immer genauso behandeln wie Ihre Nutzer. Ich kann die Vorteile einer nahtlosen Benutzererfahrung nachvollziehen, indem ich die aktuelle Seite nicht verlassen muss, aber immer noch die SEO-Vorteile von mehreren Seiten habe. Es gibt viele Methoden, um eine Website auf diese Weise zu betreiben, ohne Crawler erkennen und anders behandeln zu müssen.

Das größte Problem sind Backlinks

Das größte Problem in Ihrem Gesicht ist die Backlink-Suchmaschinenoptimierung, wenn Benutzer nur auf einer Seite bedient werden. Dies bedeutet, dass ein Benutzer möglicherweise nicht in der Lage ist, den Link der Seite zu kopieren, auf der er sich gerade befindet. Dies wirkt sich sowohl auf die Nutzererfahrung als auch auf die Suchmaschinenoptimierung aus.

Verschiedene Methoden

Es gibt verschiedene Methoden, die mit Google kompatibel sind. Sie laden JS-Skripte, die die Seite laden, zu der der Benutzer zuerst gehen möchte, und stellen sie dann mit einem Loader bereit, der den Eindruck erweckt, sie sei scheinbar harmlos. Die andere von Google akzeptierte Methode ist Hashbang mit Googles Ajax-Schema . Es sollte beachtet werden, dass Benutzer auf der Website, die die Google Ajax-kompatible Methode verwenden, in der Lage sein sollten, einen Backlink zu dem zu erstellen, was sie gerade anzeigen. Also eine hübsche URL mit Hashbang und eine hässliche URL für Google, aber vor allem sollten die Seiten für Google zugänglich sein! Wenn Sie also möchten, dass URLs ohne Hashbang indiziert werden, würden Sie kanonisch verwenden, das auf Ihren Hashbang-URLs ungefähr so ​​aussieht: <link rel="canonical" href="http://example.com/not-hash-bang-url" />

2
Simon Hayter

Es verstößt gegen die Richtlinien von Google, Nutzern unterschiedliche Seiten bereitzustellen. Der frühere Leiter von Webspam, Matt Cutts, hat dies ebenfalls in einem alten Webmaster-Video festgehalten.

0
Matt Sells