it-swarm.com.de

Warum sollte eine Website mit Keyword-Stuffing einen höheren Rang als eine Website ohne Google-Suchergebnisse haben?

Wie bei einigen anderen Websites versuche ich, die Ausgewogenheit der Keywords im Vergleich zu anderen Wörtern aufrechtzuerhalten. Ich habe Tests meiner (optimierten) Website sowie einer (mit Keywords gefüllten) Mitbewerber-Website über diese Funktion durchgeführt SEO-Tools/Keyword Analyzer .

Was noch verrückter ist, ist, dass die exakte Phrase, nach der Leute suchen (" Kerl und 4. "), ein Wort enthält, das Suchmaschinen ignorieren. Schauen Sie sich die Ergebnisse an.

und...

Keyword Analysis

Wie Sie sehen können, sind an der Website, die höher platziert ist, mögliche Spam-Indikatoren angebracht, an denen meine Website dies nicht tut.

Warum kann eine Website mit vielen Spam-Indikatoren einen höheren Rang als eine Website ohne Spam-Indikatoren haben? Beginnt Google tatsächlich damit, Keyword-Füllung zu bewerben, und zwar mit all den Änderungen, die sie an ihren eigenen Seiten vornehmen?

11
Mike

Das ist einfach. Die Keyword-Dichte ist ein Mythos. Zumindest ist es jetzt.

Es ist wichtig zu wissen, wie die Begriffe verwendet werden und nicht, wie oft sie verwendet werden. SEOs verwechseln das Thema gerne absichtlich, um Sie von ihnen abhängig zu machen und für Tools und Ratschläge zu bezahlen. P.T. Barnum pflegte zu sagen, dass es gibt einen Trottel, der jede Minute geboren wird. Bei der Suchmaschinenoptimierung scheint die Nebenschau die gesamte Online-Beratung zu sein. Traurigerweise bewegen sich SEOs langsamer als PageRank, was viel langsamer ist als das Gras, das in der Sahara wächst. Sie lösen sich nicht leicht von den alten Konzepten, auch wenn sie von Anfang an völlig falsch waren.

Dies ist eine Kurzanleitung zur Gewichtung von Begriffen auf einer Website. Es ist keine vollständige Erklärung, sondern eine Illustration. Es ist eine lohnende Reise, um besser zu verstehen, wie SEO funktioniert.

Vor dem Abwägen von Site-Begriffen und -Themen mithilfe der Semantik wurde die Keyword-Gewichtung mithilfe einiger Indikatoren durchgeführt, einschließlich der Verwendung und Platzierung von Begriffen in Tags wie title -Tags, Header-Tags, description -Meta-Tags sowie Nähe zueinander und wichtige Tags und andere Bedeutungsangaben usw. Ein Teil der Wichtigkeit war die Verwendung von Begriffen, Synonymen, komplementären Begriffen und wie deutlich diese Begriffe zu sein schienen. Dies folgt in gewisser Weise dem Begriff der Keyword-Dichte. Bitte beachten Sie, dass Termverhältnisse angewendet wurden, um ein Seitenthema zu bestimmen. Es waren jedoch nicht die hohen oder niedrigen Termverhältnisse, sondern ein Verhältnis, mit dem häufig verwendete, sich wiederholende und unnatürliche Begriffe entfernt werden Verwendung von Begriffen und Begriffen, die einfach keinen Wert haben, weil sie nicht verwendet werden usw. Diese Begriffsverhältnisse wurden automatisch Seite für Seite ausgewertet und die Ergebnisse mit Berechnungen abgeglichen, die bestimmen, ob die Ergebnisse innerhalb eines Betriebsbereichs lagen. Schließlich bestimmten Begriffe das Thema und den Themenbereich anhand der später beschriebenen Semantik. Aber die Dichte hatte keinen Einfluss auf den Suchrang an sich, sondern auf das Thema und die passende Suchabsicht. Der sekundäre Effekt besteht darin, dass Begriffe einer bestimmten Dichte zufällig abgeglichen werden, da dieselben Begriffe zu einem über semantische Links bestimmten Profil passen und zur Bestimmung der Suchabsicht verwendet wurden. Dies folgte dem Parser-Modell, das teilweise noch existiert, aber nicht das gesamte Modell ist. Nicht mehr.

Semantik ist heute das primäre Modell. Da das Web jedoch einem herkömmlichen Textmodell folgt, kann das Parser-Modell nicht vollständig gelöscht werden. Der Grund dafür ist einfach. Es gilt immer noch und macht Sinn und ist sehr nützlich.

Die Semantik kann als "relationale Paarung" bezeichnet werden, obwohl Sie bei einigen komplexeren semantischen Modellen wirklich von "relationalen Ketten" sprechen. Dies wird als semantische Links bezeichnet, und die Beziehung zwischen semantischen Links wird als semantisches Web bezeichnet, was nichts mit dem World Wide Web zu tun hat, außer dass eines für das andere praktisch ist . Für meine Illustration werde ich es auf einfache Paare beschränken, obwohl die Semantik ziemlich schnell ziemlich kompliziert wird. Für meine Illustration werde ich die Dinge also um einiges vereinfachen.

Relationale Paarung ist der einfache Begriff der Drillinge; das Subjekt, das Prädikat und das Objekt. Das Prädikat kann alles sein, solange es sich um eine Repräsentation zwischen Subjekt und Objekt handelt.

Ich werde zu einem frühen PageRank-Modell wechseln. Bitte bleib bei mir. Es gilt.

Bei der Konzeption von Google war der Begriff "Page Rank" eine relativ einfache Darstellung von Vertrauensnetzwerken mithilfe von Semantik. Es wird von einer Seite zur nächsten verlinkt. In diesem Fall:

Subject: examplea.com
Predicate: trusts
Object: exampleb.com
Read as: examplea.com trusts exampleb.com

Subject: exampleb.com
Predicate: trusts
Object: examplec.com
Read as: exampleb.com trusts examplec.com therfore examplea.com trusts examplec.com

Obwohl wir wissen, dass die obige "deshalb" -Klausel nicht unbedingt wahr ist, war dies das frühe Modell und gilt immer noch etwas, obwohl nicht absolut wahr. Wir wissen, dass examplea.com keine Kenntnis von examplec.com hat und daher examplec.com nicht vollständig vertrauen kann. Es besteht jedoch eine Beziehung, die berücksichtigt werden muss.

Die frühe Verwendung des Begriffs PageRank wurde seitenweise berechnet - Link für Link, aber auf die gesamte Site angewendet. Wie viele Vertrauenslinks gibt es für exampleb.com? PageRank war eine ziemlich einfache Berechnung der Links zu den Seiten einer Site. Aber es gab offensichtliche Probleme damit. Es können Links erstellt werden, um die Wichtigkeit einer Site künstlich zu erhöhen. Die Berechnung enthielt eine ziemlich standardmäßige Abklingrate, die dies korrigieren könnte. Die Abklingrate selbst warf jedoch neue Probleme auf, da keine einzelne Abklingrate den tatsächlichen Wert vollständig berücksichtigen kann, da ihre natürliche Neigung darin besteht, eine Kurve in ihrer Berechnung zu haben.

Unter weiterer Verwendung des Vertrauensmodells wurden Domänen auf der Grundlage von Faktoren gewichtet, die auf Vertrauen hinwiesen. Die größte Vertrauensmetrik ist beispielsweise das Alter der Website. Ältere Websites können im Allgemeinen als vertrauenswürdig eingestuft werden. Websites mit konsistenter Registrierung, konsistenter IP-Adresse, Qualitätsregistrierungsstelle und Qualitätsnetzwerk (Host) weisen keine Spam-, Porno-, Phishing- oder andere Hinweise auf Vertrauenswürdigkeit auf. Ich zähle über 50 Domain-Vertrauensfaktoren, daher überspringe ich diese und halte es weiterhin einfach.

Subject: examplea.com
Predicate: domain trust score
Object: 67

Subject: exampleb.com
Predicate: domain trust score
Object: 54

Subject: examplea.com
Predicate: trusts
Object: exampleb.com
Read as: examplea.com trusts exampleb.com

Mit einer anderen Berechnung kann ein gewisses Maß an Vertrauen hergestellt werden und nicht nur eine Binärdatei eine Site vertraut einer anderen. Wenn im ersten Beispiel das Vertrauen übergeben wurde, wird im zweiten Beispiel ein Vertrauenswert übergeben, der proportional zur Berechnung ist.

Bitte haben Sie Verständnis dafür, dass der PageRank seitenweise berechnet wird und der TrustRank einen Großteil des SiteRank ausmacht. Dabei spielen Links, Linkqualität und Linkwert eine Rolle, obwohl sie weitaus weniger wichtig sind als ursprünglich und weitaus weniger als der Site Trust Score . Behalte dies im Kopf.

Wie gilt das für Keywords auf einer Seite?

Alle Inhaltsbegriffe werden gewichtet, es werden jedoch nur einige Tagbegriffe gewichtet. Ein Hauptbeispiel ist das Meta-Tag keywords. Wir alle wissen, dass Begriffe in diesem Tag überhaupt keine Bedeutung haben. Tatsächlich wird es völlig ignoriert. Ein Missverständnis ist, dass das Meta-Tag description für SEO nicht zählt. Das ist nicht wahr. Für Begriffe innerhalb dieses Tags gibt es eine Gewichtung, die jedoch relativ gering ist. Das beschreibende Meta-Tag hat einen Wert. Sie werden gleich verstehen, warum.

Das alte Parser-Modell hat immer noch Wert. Dabei wird die Seite von oben nach unten gelesen und Tags und Inhaltsblöcke werden mit Werten gelesen und gewichtet, die die Wichtigkeit nach einem Top-to-Bottom-Modell messen. Einige Metriken sind statisch. Beispielsweise hat das title -Tag eine höhere Wichtigkeit als das h1 -Tag, die höher ist als jedes h2 -Tag usw. Das description -Meta-Tag hat eine wichtige Metrik, die ziemlich hoch ist. Warum? Weil es immer noch ein wichtiger Indikator dafür ist, worum es auf der Seite geht. Die im Tag enthaltenen Begriffe haben jedoch nur eine geringe Bedeutung. Dies geschieht so, dass Übereinstimmungen mit Suchabsichten immer noch mit dem description -Meta-Tag fast so einfach übereinstimmen wie mit einem title -Tag und einem h1 -Tag, jedoch nicht zu stark manipuliert werden können, um das System zu spielen . Bitte beachten Sie, dass bestimmte Bedingungen zutreffen können. Beispielsweise wird eine Suche nicht mit dem Meta-Tag description übereinstimmen, ohne an anderer Stelle in erster Linie mit dem Tag title oder dem Tag h1 oder innerhalb des Inhalts übereinzustimmen.

Stellen Sie sich im Parser-Modell einen Punkt am Anfang des eigentlichen Inhalts vor. Nähe ist ein Maß, das auf verschiedene Arten verwendet wird. Zum einen bezieht sich ein Begriff, ein Tag, ein Inhaltsblock usw. auf diesen Punkt am Anfang des Inhalts. Stellen Sie sich nun Header-Tags als Hinweise auf Unterthemen vor und stellen Sie sich einen Punkt am Anfang des Inhalts unmittelbar nach einem Header-Tag vor, der durch das nächste Header-Tag abgeschlossen wird. Auch hier wird die Nähe gemessen. Die Annäherung wird zwischen Begriffen in einem Absatz, einer Reihe von Absätzen, header Tags usw. gemessen. Diese Maße werden als Gewichtung für Begriffe in ihrer Verwendung und ihrer offensichtlichen Bedeutung berechnet. Darüber hinaus können Begriffe, Ausdrücke, Zitate und in der Tat ein ähnlicher Teil des Inhalts zwischen Seiten und Websites mithilfe eines etwas anderen, aber immer noch ähnlichen Proximity-Modells gemessen werden.

Seiten werden über Links von Seite zu Seite und in der Nähe der Homepage oder jeder anderen Seite, auf der eine Beziehungswolke ermittelt werden kann, miteinander verknüpft. Beispielsweise kann eine Themenseite zu SEO Links zu mehreren SEO-Unterthemenseiten enthalten. Dies würde darauf hinweisen, dass die Themenseite für SEO wichtig ist, da sie auf mehrere ähnliche Themenseiten verweist und eine Beziehungswolke ermittelt werden kann. Für jede SEO-Unterthemenseite wäre die Nähe eine Zählung der Links zwischen der SEO-Themenseite und der SEO-Unterthemenseite sowie der Anzahl der Links von der Homepage. Auf diese Weise kann die Wichtigkeit einer Seite berechnet werden. Wie wichtig ist die SEO-Themenseite? Es ist ein Link von den Navigationslinks auf der Homepage und in der Tat jede Seite sehr wichtig. Die SEO-Unterthemenseiten enthalten jedoch keine Links aus der Navigation und erhalten daher keine Bedeutung aus der Metrik für die SEO-Themenseite. Dies folgt dem PageRank Semantic Link Trust Network-Modell.

Wenn Sie auf das ursprüngliche PageRank-Modell zurückgreifen, können Sie die Verlinkung von Seiten genau so bewerten, wie Verlinkungen im gesamten World Wide Web einen Wert haben. Dies wird Bildhauerei genannt, obwohl übermäßige manipulative Bildhauerei bestimmt und ignoriert werden kann, also sei natürlich. Während Sie dies tun, weisen Sie auch auf die Bedeutung der Begriffe hin, die auf diesen Seiten zu finden sind. Jeder Begriff auf jeder Seite wird also nicht nur dahingehend gewichtet, wo und wie er auf dieser Seite verwendet wird, sondern auch dahingehend, wie und wo er auf Ihrer Website vorhanden ist. Fängt es an, Sinn zu machen?

Okay. Schön und gut, aber wie hängen die Begriffe zusammen und wie hilft die Semantik dabei? Wiederum sehr einfach.

Ich habe eine Seite über Autos. Sie befinden sich in Großbritannien und haben eine Website über Automobile. Es ist ziemlich offensichtlich, dass Autos und Automobile dasselbe Wort sind. Suchmaschinen verwenden ein Wörterbuch, um die Beziehungen zwischen Wörtern und Themen besser zu verstehen. Google hat sich durch die frühzeitige Erstellung eines selbstlernenden Wörterbuchs differenziert. Ich werde nicht darauf eingehen, aber Sie werden immer noch das Bild bekommen. Semantik verwenden:

Subject: cars
Predicate: equals
Object: automobiles

Auf diese Weise kann Google feststellen, dass meine Website und Ihre Website in etwa dasselbe sind. Einen Schritt weiter gehen.

Subject: car
Predicate: is painted
Object: dark red

Subject: automobile
Predicate: is painted
Object: maroon

Subject: deep red
Predicate: equals
Object: maroon

Unter der Annahme, dass nur diese beiden Standorte existieren, könnte jede Suche nach dunkelrotes Autokastanienbraunes Auto und dunkelrotes Auto führen, obwohl - dunkelrotes Auto existiert nicht im Web.

In den Anfängen der Suchmaschinenoptimierung wurde empfohlen, Synonyme und mehrere Versionen von Begriffen zu verwenden. Dies war damals, als Semantik nicht verwendet wurde oder so stark. Heute ist dies nicht mehr erforderlich, da die Beziehungen zwischen Wörtern und Verwendung in einer Semantikdatenbank gespeichert sind.

Wenn ich das gleiche Modell verwende, aber einiges vorausschaue, wenn ich ein brillantes Stück schreibe, das auf mehreren anderen Webseiten zitiert wird, kann die Semantik dies als Zitat vermerken und dies meiner ursprünglichen Arbeit zuschreiben, wodurch es viel wichtiger wird, auch ohne Links zu meiner Seite überhaupt. In diesem Fall kann eine Seite ohne eingehende (Back-) Links eine Seite mit einer hohen Anzahl eingehender (Back-) Links einfach aufgrund eines Zitats hinter sich lassen. Zitate sind ein wichtiger Bestandteil der Anwendung des Semantic Web auf das World Wide Web. Während SEOs den anspielenden AuthorRank verfolgten, gab es so etwas nicht. Es war alles Semantik und Datenpaarabgleich, auf die ich nicht eingehen werde, aber um zu sagen, dass zum Beispiel geschrieben von den Namen des Autors unmittelbar gefolgt und daher eine Zitiergutschrift kann auf den Autor angewendet werden, wenn das Stück zitiert wurde.

Warum habe ich das alles durchgemacht?

Sie werden also leicht erkennen, dass der Mechanismus für die Bewertung eines Begriffs auf einer Site weitaus komplizierter ist und nicht mehr von der Dichte abhängt, was ohnehin nie vollständig der Fall war. Tatsächlich ist die Dichte kein Nebeneffekt mehr. Der Grund dafür ist einfach. Es war leicht zu spielen und keine Abklingrate konnte das Spielen wie im ursprünglichen PageRank-Schema kompensieren.

Wie bei jeder mit Schlüsselwörtern gefüllten Website ist es nur eine Frage der Zeit, bis die Semantik sie preisgibt. Panda startete als periodische Aufgabe, die speziell entwickelt wurde, um diese und ähnliche Dinge zu messen und die Metriken anzupassen, um die Auswirkungen einer störenden Site in den SERPs herabzusetzen. Während der SiteRank im Allgemeinen derselbe bleibt, wird jede Website, die als Spam eingestuft wird, einen Schlag in der TrustRank-Wertung erleiden, da eine Verletzung vorliegt, wodurch der SiteRank leicht herabgestuft wird. Ich glaube, dass dieser Mechanismus eine Schwerekomponente aufweist, die es ermöglicht, geringfügige Verstöße ohne Schaden zu korrigieren. Dieses Klopfen bleibt auch dann bestehen, wenn das Problem behoben ist. Dies liegt daran, dass die Verletzung im Site-Verlauf beibehalten wird. Was also passiert, ist, dass die SERP - Platzierung sinkt, bis das Problem gelöst ist, bei dem die SERP - Platzierung wieder zu steigen beginnt, jedoch niemals auf das Niveau, das die betreffende Site einmal hatte die Notation der Verletzung. Je älter eine Zuwiderhandlung wird, desto mehr wird vergeben, damit eine frühere Zuwiderhandlung mit der Zeit ihre negative Wirkung verliert. Obwohl es heißt, dass Panda und andere immer häufiger ausgeführt werden und ich heute ein kontinuierlicher Prozess bin, dauert es immer noch einige Zeit, die semantische Link-Map zu erstellen, um festzustellen, ob eine Site ein Täter ist. Dies bedeutet, dass eine Site für eine gewisse Zeit nicht mit Füllung versorgt wird, am Ende jedoch scheitert, sobald die semantischen Verknüpfungen und Metriken vollständig hergestellt sind. Ich bin mir auch sicher, dass es einen anfänglichen Effekt für das Füllen gibt, der jedoch durch das semantische Modell stark verringert wird und der Effekt als Nebenprodukt eher oberflächlich ist. Dies liegt daran, dass beim Auffinden einer Seite nur wenig zu tun ist, bis die semantischen Link-Maps ausgefüllt sind. Nach seiner Weisheit lässt Google ein gewisses Maß an Anmut zu, sodass die Seite zunächst einen hohen Rang für Begriffe innerhalb der wichtigen Signale einnimmt, bevor sie sich auf die richtige Platzierung in den SERPs einlässt. Unter der Annahme, dass die Signale mit der Semantik übereinstimmen, führt die Neuberechnung der SERP -Position zu einer relativen Verschiebung bei der Suche nach der Seite. Wenn andernfalls die Signale und die Semantik nicht übereinstimmen, basiert die Platzierung innerhalb von SERP auf der Semantik und ändert sich, wie die Seite gefunden wird. Aus diesem Grund ist es wichtig, die richtigen Signale zu senden, indem Schlüsselwörter und Tags genau und ehrlich verwendet werden.

[Aktualisieren]

Ich habe diese Antwort ausgeschnitten und in TextRazor https://www.textrazor.com/demo eingefügt. Hier ist ein Beispiel. Sie sehen die relative Position zu diesem imaginären Punkt zu Beginn der inhaltlichen und sonstigen linguistischen Analyse in der Tabelle sowie die Themenergebnisse rechts. Sie können dasselbe tun, indem Sie den Text dieser Antwort (über diesem Update) ausschneiden und in die Demoseite einfügen und ein wenig herumspielen. Ich ermutige es. Sie erhalten eine gute Vorstellung davon, wie Inhalte verarbeitet werden.

TextRazor example of this answer.

12
closetnoc