it-swarm.com.de

Was ist eine akzeptable "Zeit für das Herunterladen einer Seite (in Millisekunden)" in der Google Search Console?

Gibt es eine allgemein akzeptierte durchschnittliche Zeit für das Crawlen von Seiten in den Google Webmaster-Tools? Sie finden diesen Bericht auf der Seite Crawling-Statistiken .

Ich versuche, mögliche SEO-Probleme zu überprüfen. Meine Website hat derzeit eine durchschnittliche Zeit zum Crawlen von ca. 700 ms.

4
Abhi

Aus diesem Bericht geht hervor, wie viel Zeit Googlebot für das Herunterladen der einzelnen Seiten Ihrer Website benötigt. Dabei werden verknüpfte Ressourcen wie JS, CSS, Iframes und Bilder nicht berücksichtigt.

Es ist weniger wichtig, Ihre Website für Googlebot zu optimieren, als sie für Nutzer zu optimieren. Schauen Sie sich diesen Bericht nicht an, sondern schauen Sie sich zunächst an, wie lange es dauert, bis alle Ressourcen heruntergeladen und Ihre Seiten gerendert sind. Entwicklertools in Firefox und Chrome können detaillierte Aufschlüsselungen für jede Phase wie folgt anzeigen:

enter image description here Solange die Zeit zum Herunterladen der Seite weniger als 3 Sekunden (3000 ms) beträgt, geht es Ihnen aus SEO-Sicht gut. Google bestraft Websites, die 7 oder mehr Sekunden dauern. Verbesserungen unter 3 Sekunden können für Benutzer großartig sein, erzielen jedoch in der Regel keine besseren Platzierungen in Suchmaschinen.

Zu den Techniken zur Verbesserung der Gesamtleistung für Benutzer kann das Einfügen von JS und CSS in die Seite gehören. Dies kann die Ladezeit Ihrer ersten Seite für Googlebot verlangsamen. Es ist jedoch wichtig, zunächst die Optimierung für Nutzer vorzunehmen . Eine bessere Liste zur Optimierung Ihrer Website für Benutzer finden Sie unter: Ideen zur Verbesserung der Ladegeschwindigkeit der Website?

Zurück zu Ihrer Frage zu der Zeit, die Googlebot mit dem Herunterladen der ersten Seite verbringt. Bei Optimierungen können Optimierungen vorgenommen werden, die für Googlebot besser, für Benutzer jedoch schlecht sind. Sie könnten beispielsweise versuchen, CSS und JS in Dateien anstatt inline zu verschieben. Dann müsste Googlebot sie nicht auf jeder Seite herunterladen. Widerstehen Sie der Versuchung, auf Kosten der Nutzer für Googlebot zu optimieren.

Der erste Seiten-Download, den Googlebot sieht, ist auch der, mit dem Nutzer beginnen. Die meisten Optimierungen, die für Googlebot in diesem Bereich vorgenommen wurden, verbessern auch die Benutzerfreundlichkeit. 700ms ist nicht so toll. Wenn das Laden der ersten Seite fast eine Sekunde dauert, können Sie leicht erkennen, wie lange das Rendern einer ganzen Seite mit Bildern dauern kann. Ich würde versuchen, nicht mehr als 300 ms anzustreben. Ihre Browser-Tools geben Ihnen einen Einblick, wo Sie suchen müssen. Wenn Sie feststellen, dass zwischen der Anforderung und der Antwort des Servers 400 ms liegen, bedeutet dies in der Regel, dass der Server lange Zeit sitzt und nachdenkt. Sie können das beheben, indem Sie:

  • Einen schnelleren Server bekommen
  • Wechseln zu statischen Seiten anstatt zu dynamischen
  • Caching implementieren
  • Verbesserung der Datenbankleistung
  • Datenbankabfragen optimieren
  • Reduzierung der Anzahl von Datenbankabfragen

Wenn Sie ein CMS wie WordPress verwenden, können Caching-Plugins wirklich helfen.

Wenn Sie die Leistung für Googlebot verbessern, werden Sie feststellen, dass Googlebot Ihre Website häufiger und tiefer crawlen kann. Die Geschwindigkeit, mit der Ihre Server Seiten an Googlebot senden können, ist häufig der begrenzende Faktor dafür, wie häufig Googlebot bereit ist, Ihre Website zu crawlen.

Eine wirklich schnelle Site benötigt ungefähr 50 ms pro Seite. Es ist mir gelungen, eine meiner Websites dahingehend zu optimieren:

enter image description here

5