it-swarm.com.de

Umgang mit SEO für unendliche Seiten, die externe langsame API-Aufrufe verursachen

Ich habe unendlich viele Seiten auf meiner Website, die auf einer externen API basieren. Das Erstellen jeder Seite dauert einige Zeit (1 Minute). Links auf der Site verweisen auf solche Seiten. Wenn ein Benutzer darauf klickt, werden sie generiert und er wartet. Da ich nicht alle vorab erstellen kann, versuche ich, den besten SEO-Ansatz für diese Seiten zu finden.
Optionen:

  1. Erstellen Sie wirklich einfache Seiten für die Web-Spider, und nur echte Benutzer rufen die Daten ab und generieren die Seite. Ein bisschen "ängstlich" wird Google dies als minderwertigen Inhalt ansehen, der sich möglicherweise auch dupliziert anfühlt.
  2. Legen Sie sie unter ein Verzeichnis in meiner Site (z. B./non-generated /) und legen Sie ein Disallow in robots.txt ab. Das Problem hierbei ist, dass Benutzer sich nicht mit einer anderen URL befassen müssen, wenn sie diese Seite freigeben oder einen Sinn daraus ziehen möchten. Wir dachten darüber nach, echte Benutzer von dieser URL zurück zur regulären Hierarchie zu leiten und auf diese Weise Google zum Narren zu halten, um nicht zu ihnen zu gelangen. Ich bin mir wieder nicht sicher, ob er mich dafür mag.
  3. Lassen Sie ihn diese Seiten durchsuchen. Das Hauptproblem ist, dass ich die Häufigkeit der API-Aufrufe nicht kontrollieren kann und meine Website aus Sicht einer Spinne langsamer erscheint als es sollte (wenn er nur die generierten Seiten gecrawlt hat, würde er denken, dass sie viel schneller sind).

Welchen Ansatz würden Sie vorschlagen?

5
Noam

Wenn ich Sie wäre, würde ich sicherstellen, dass der Link "nofollow" ist, bis die Seite einmal generiert wurde. Sobald es generiert ist, speichern Sie es in einem Cache oder erstellen Sie eine statische Seite daraus. Dann machen Sie den Link "Folgen", damit der Inhalt indiziert werden kann.

Optional können Sie erwägen, alle diese Seiten in einem Cron-Job über Nacht zu generieren, damit das Laden nicht so lange dauert.

1
Henley Chiu