it-swarm.com.de

Der beste Weg, um die Site für eine lange Zeit herunterzufahren, während ich sie entwickle

Eher törichterweise habe ich meine Website auf einem Live-Server entwickelt (mit VCS, keine Sorge) und sie sozusagen als Portfolio/Show-Off-Stück verwendet. Es ist noch lange nicht fertig.

Vor kurzem habe ich festgestellt, dass Google damit begonnen hat, es zu erkennen, einschließlich einiger Debug-Daten, auf die auf der Website zugegriffen werden kann, da es sich im Debug-Modus befindet. Ich bin mir nicht sicher, welche zukünftigen Auswirkungen dies auf meine Website haben wird, wenn sie endlich veröffentlicht wird - zumal einige Seiten während der Entwicklung nur fehlerhaft sind und es auf einigen Seiten einige GobbledyGook-/Dummy-/Blank-Daten gibt.

In Bezug auf die Suchmaschinenoptimierung: Was sind die besten Schritte, um keine gegenwärtigen oder zukünftigen Google-Strafen zu erleiden? Eine Sache, an die ich dachte, war, Spidering in robots.txt zu verbieten, eine Begrüßungsseite zu erstellen und dann eine anständige Sitemap einzurichten, wenn die Site wieder online ist.

Unabhängig davon werde ich irgendwo eine Entwicklungsdomäne einrichten, möchte aber die sicherste Art der Migration kennen.

2
Dunhamzzz

Ich würde zwei Dinge tun:

  • Überprüfen Sie Ihre Website in den Google Webmaster-Tools und fordern Sie das Entfernen Ihrer vollständigen Website an. Denken Sie daran, dies rückgängig zu machen, wenn Sie fertig sind :-). Beachten Sie, dass dies nur 90 Tage dauert. In diesem Fall müssen Sie möglicherweise erneut eine Entfernung der Website beantragen.

  • Geben Sie 403 (HTTP-Authentifizierung verwenden) für alle URLs auf Ihrer Entwicklungssite zurück, einschließlich der robots.txt. Wenn Sie 403 für die robots.txt zurückgeben, wird das Crawlen der Site verhindert, sodass Sie sie nicht in der robots.txt-Datei blockieren müssen (verwenden Sie die normale robots.txt-Datei, die Sie verwenden würden, wenn Sie die Site öffentlich machen). .

Gründe für die Verwendung der HTTP-Authentifizierung über "robots.txt" sind das Blockieren der Site für alle anderen Besucher und die Schwierigkeit, versehentlich eine robots.txt-Datei mit vollständigem Verbot zu veröffentlichen :). Letzteres ist zu oft vorgekommen, selbst bei sehr großen Websites.

1
John Mueller

Nun, zuallererst als allgemeinen Rat schlage ich vor, alle Dateien in einem Unterordner abzulegen, den nur Sie kennen. Wenn Sie beispielsweise die Domäne example.com haben, fügen Sie alle Ihre Dateien in example.com/private ein. Wenn Google beginnt, Ihre Website zu crawlen und zu indizieren, zahlen Sie später eine kleine Strafe, da einige Seiten nicht mehr vorhanden sind (normalerweise die Testseiten).

Außerdem ist es eine gute Übung, wie Sie sagten, die robots.txt zu verwenden, um dieselben (oder alle) Seiten von der Indizierung auszuschließen. Wie auch immer, dieser Tipp ist jetzt nützlicher, als wenn Sie den von mir vorgeschlagenen privaten Ordner verwendet haben. Denken Sie daran, dass eine gute robots.txt eine gute Möglichkeit ist, Seiten auszuschließen, aber nicht die beste. Infact, während "gute" Crawler wie Google, Yahoo und so weiter Ihren Willen respektieren, werden die "bösen" diese Informationen verwenden, um einige Ihrer (möglicherweise privaten) Daten abzurufen.

1
Aurelio De Rosa