it-swarm.com.de

Google crawlt einige Seiten, die nicht auf der Website vorhanden sind

Google Webmaster-Tools meldet einen Crawling-Fehler.

403 Zugriff verweigert für ein ".html" wie vy81TYYP/lraynb-20151123-dkd04-2290.html. Es hat noch nie auf einer von mir entwickelten Website existiert. Dies ist nicht nur einmal, dies passiert für mehr als 100 Links.

404 Not Found für Links, die auf dieser Website nicht existieren. Ebenso werden 5000 Links im Bericht angezeigt.

Es ist zu komplex, um die Ursache des Problems zu ermitteln. Eine der ähnlichen Frage gefunden und viele mehr, aber noch nichts gefunden, um dies zu beheben.

Gibt es ein Problem mit dem Webmaster? oder irgend ein anderer? Ich habe die wordpress Website nach Malware durchsucht, jede einzelne Datei auch meine Datenbank. Ich habe keine Lösung gefunden.

2
CodeBriefly

Wenn so etwas auf Ihrer Website nicht vorhanden ist, sorgen Sie sich nicht darum, es kann sein, dass jemand Ihre Inhalte falsch verlinkt, oder dass Ihr Konkurrent dies für negatives SEO tut.

Um negative SEO - Finden Sie heraus, wer auf Ihre Website verlinkt und Disavow diese Backlinks.

Dies geschieht auch aus internen Gründen. Überprüfen Sie daher bitte Ihre Website-Sitemap und die interne Linkstruktur Ihrer Website.

2
Goyllo

Dafür kann es mehrere Gründe geben:

  1. Sie hatten diesen Link auf Ihrer Website, haben ihn jedoch zusammen mit der Webseite entfernt.
  2. Sie haben Backlinks, die genau auf diese URL verweisen. Überprüfen Sie Ihre Website mit MajesticSEO, OneSiteExplorer oder Ahrefs.

Als Goyllo - diese Links nicht anzeigen. Durch das Deaktivieren werden jedoch nicht vorhandene Seiten nicht aus dem Index entfernt (zumindest wird dies nicht bald geschehen). Um diese Seiten aus dem Index zu entfernen, verwenden Sie URLs entfernen in den Webmaster-Tools (Google Index -> URLs entfernen). Dort können Sie entweder einzelne Seiten oder das gesamte Verzeichnis entfernen. Funktioniert fast sofort. Sie können die Änderungen jederzeit rückgängig machen. Machen Sie sich also keine Sorgen, wenn Sie falsche Seiten entfernt haben. Viel Glück!

2
Andrey Shulman

Der Googlebot versucht, neue URLs aus beliebigen Elementen (ID, Klasse usw.) zu erstellen, die auf der Seite gefunden werden können.

Das ist die Ursache für 404: Die Existenz von 404 in Ihrer Suchkonsole ist kein Problem: Ihr Server reagiert absolut korrekt - er antwortet mit 404, wenn er eine GET auf eine nicht vorhandene URL erhält.

Bei einigen URLs antwortet Ihr Server jedoch beim Versuch, sie zu erreichen, mit 403 (wobei er auch mit 404 antworten sollte). Sie sollten Ihren Server so einstellen, dass er richtig antwortet, aber im Falle von Googlebot können Sie nicht genau wissen, wie URLs aussehen, welche Fire 403 - sie existieren nicht. Dann würde ich eine Problemumgehung machen, um 404-Antworten sogar auf 403-Fehler zu geben.

Um dies zu tun:

  1. erstelle deine eigene 404-Datei (404.php) und platziere vor allem Code davon, genau wie in der ersten Zeile diese Codezeile:

    <?php http_response_code(404); ?>
    

Mit dieser Zeile wollen wir auf jeden Fall 404 Antwortcode senden.

  1. Dann erstellen Sie in Ihrem htaccess zwei Zeilen:

    ErrorDocument 403 /error/404.php
    ErrorDocument 404 /error/404.php
    

    Beachten Sie, dass wir im Falle der beiden Fehler 403 und 404 mit derselben Fehlerdatei, 404.php, antworten. Im Falle eines 403-Fehlers würde dies normalerweise nicht helfen, da unabhängig vom Senden von 404.php der Header-Statuscode 403 bleiben würde. In Schritt 1 haben wir jedoch das Senden des 404-Statuscodes mit unserer 404.php definiert, also 404-Statuscode wird auf jeden fall verschickt.

2
Evgeniy

Überprüfen Sie, ob diese Seiten von einer anderen Seite verlinkt sind. Entfernen Sie diese Links und markieren Sie die Fehler als behoben. Stellen Sie sicher, dass auf diesen Seiten keine Backlinks vorhanden sind. Wenn zu dieser Seite Backlinks führen, stellen Sie sicher, dass Sie 404 anzeigen und alle diese Domains an disavow file senden.

2
danielwill786