it-swarm.com.de

Ist es für SEO am besten, eine große Domain gegen mehrere kleine zu haben?

Es ist schwierig, echte Links zu erstellen. Wenn Sie nur eine Domain haben, die alles macht, im Gegensatz zu vielen spezifischen Domains, ist es einfacher, eine Website zu erstellen. Mit diesen Worten bevorzugt Google eine Nischenwebsite gegenüber einer riesigen Website?

Angenommen, ich möchte eine Domain erstellen, in der mehrere Websites als Unterverzeichnisse ausgeführt werden. Auf diese Weise kann ich mehr Links von anderen Seiten zurück zu meiner Domain generieren. Ich möchte eine Unterwebsite, die sich mit Filmen, Sport und Videospielen befasst. Alle drei Kategorien sind sehr unterschiedlich und meist ohne Bezug.

Wenn ich eine Bewertung für batman schreibe. Wird es wahrscheinlicher in den Suchergebnissen auftauchen, wenn es sich bei der Website um eine dedizierte Filmwebsite handelt? Das heißt.

www.everything.com/movies/batman-review

www.movies.com/batman-review

Dies ist ein Szenario, aber was ist, wenn die Unterwebsite nischenbezogen ist? Also, wenn ich eine Filmfanseite für Batman, Superman und einige andere Filme machen will. Würde das unter meiner Filmdomäne besser funktionieren?

Ich würde hoffen, dass es keine Rolle spielt, da der Inhalt der Seite selbst alles sein sollte, was zählt, aber ich weiß nicht, ob Google die Nische der Website als Faktor verwendet. Wenn die Nische alles ist, dann ist es nicht wirklich eine Nischenwebsite, aber technisch gesehen ist es so, als würde ich eine WordPress Multisite verwenden, die Unterverzeichnisse anstelle von Unterdomänen verwendet

2
Dan Hastings

Beginnen:

Okay. Hier sind einige Dinge zu beachten. Wenn Sie die Dinge aus Googles Sicht betrachten, können Sie leicht erkennen, warum Google einige der Entscheidungen trifft, die sie treffen. Ich werde nur ein bisschen darüber berichten.

Erstens haben Menschen erstaunliche kognitive Fähigkeiten, die weit über das hinausgehen, was ein Computer leisten kann. Selbst Watson kann der Intelligenz unseres Unterbewusstseins nicht einmal nahe kommen, und Programmierer können nur das codieren, was aus unserem Bewusstsein heraus erkannt wird. Dies ist ein sehr langsamer Prozess.

Für Computer können sie also nur das tun, was wir ihnen sagen, basierend auf dem, was wir erkennen oder lernen. Es ist nicht möglich, dass ein Computer das kann, was der menschliche Verstand kann. Computer sind in hohem Maße von Prozessen abhängig, die wir erstellen.

Suchmaschinen haben einen weiten Weg zurückgelegt und nutzen etablierte Wissenschaften und Techniken, um ihre Arbeit zu erledigen. Vieles Neues ist, wie diese Wissenschaften und Techniken eingesetzt werden. Suchmaschineningenieure werden heutzutage sehr schlau.

Sei es wie es mag.

Es gibt noch einige Einschränkungen. Google bevorzugt, dass es auf einer Website um eine oder einige ähnliche Dinge geht. Sie und ich wissen, dass dies nicht ganz praktisch ist. Aus Sicht der Suchmaschinen ist es jedoch schwierig zu verstehen, worum es auf einer Website geht, wenn es um die Themen Autos, Glasierer und Eis sowie Schach für Blinde geht. Suchmaschinen möchten der Suchabsicht entsprechen. Dies setzt ein detailliertes Verständnis Ihrer Inhalte voraus.

Wie geht das?

Semantik. Unter Verwendung der Semantik ist es schwierig zu verstehen, wie sich eine hochaktuelle Website auf eine Suchabfrage bezieht. Eine Seite über Glaser, Polareis, Klimatologie, Geologie usw. wird jedoch leichter verständlich. Diese Themen sind verwandt.

Beachten Sie, dass die Suche in zwei Hauptprozesse unterteilt ist. Erstellen eines Suchmaschinenindex und Erfüllen einer Suchabfrage. Die einzige Verbindung zwischen den beiden ist der Index. So detailliert die Suche auch ist, stellen Sie sich vor, Sie könnten nur über eine so umfangreiche und komplexe Datenbank zwischen den beiden Funktionen kommunizieren. Dies ist eine sehr schwierige Aufgabe.

Lassen Sie RankBrain nicht unbemerkt. Die Semantik wurde immer für die Suchabfrage verwendet. RankBrain wurde jedoch wahrscheinlich speziell entwickelt, um das sich ändernde semantische Potenzial des sich ständig ändernden Suchmaschinenindex so gut wie möglich auszunutzen. Da der Index immer komplexer wurde, folgte die Suchmaschine nicht so schnell. Geben Sie RankBrain ein.

Vor Google bestand die Suchmaschinenwelt aus Begriffsübereinstimmungen und Wahrscheinlichkeitsanalysen, um festzustellen, welche Suchanfragen mit welchen Websites übereinstimmten. Für eine Weile war dies so gut wie es nur ging und konnte einen fairen Job machen. Google erkannte, dass diese Methodik begrenzt war und dass eine gut etablierte Wissenschaft, die Semantik, die Chancen für eine relevante Übereinstimmung erheblich verbessern würde, weit über die derzeitigen Methoden hinaus.

Die Semantik ist heute ein wichtiger Bestandteil der Suche mit unterschiedlichem Implementierungsgrad. Google ist eindeutig führend. Aber was heißt das?

Dies bedeutet, dass Termindizes nicht mehr direkt oder ausschließlich verwendet werden. Sogar Googles ursprünglicher Begriffsindex, der eine semantische Suche ermöglichte, wurde ersetzt oder durch einen aktuelleren Index ersetzt. Dies bedeutet nicht, dass Begriffe nicht indiziert werden. Dies bedeutet jedoch, dass die primäre Indizierungsmethode auf semantischen Analysen und Matrizen basiert und nicht darauf, welche spezifischen Begriffe auf welchen Seiten vorhanden sind. In der Semantik geht es in erster Linie um Linguistik. Am einfachsten geht es um Themen.

Sehen Sie, wohin ich gehe?

Wenn eine Site Themen enthält, die zu unterschiedlich sind, wird die semantische Bewertung für die Site verwässert. Suchmaschinen sind nicht in der Lage, verschiedene Themen gut zu unterteilen, können jedoch verwandte Themen sehr gut verstehen.

Da Suchmaschinen nicht kognitiv sind, sind sie stark von Ontologien abhängig. Ontologien sind konzeptionell einfache Datenbanken, die Wörterbücher, Thesauren, Faktenlinks, bestimmte Themen, Beziehungen usw. darstellen können. Für einige Themen gibt es spezielle Ontologien, die für dieses Thema erstellt wurden. Die Medizin ist ein Paradebeispiel. Zum Beispiel existieren Ontologien für Krankheit und Diagnose. Auch für Anatomiewissenschaften. Diese Ontologien können zum Verständnis von Inhalten verwendet werden. Auch wikidata.org ist eine auf Wikipedia basierende Ontologie und wird auch verwendet.

Lassen Sie mich daran erinnern, dass Suchmaschinen nicht mehr verstehen können, als Menschen sagen können. Der primäre Kommunikationsmechanismus zur Übermittlung menschlicher Intelligenz an eine Suchmaschine ist die Ontologie. Ich möchte Sie auch daran erinnern, dass dies nur darauf beruhen kann, was Menschen aus unserem Bewusstsein herausholen können. In diesem Fall sind Suchmaschinen begrenzt und werden immer begrenzt sein. Diese Einschränkungen werden jedoch immer geringer und variieren schnell.

Wenn Sie sich mit dem Wissensdiagramm/-depot befasst haben, haben Sie möglicherweise bemerkt, dass es thematisch wächst. Dies liegt daran, dass bestimmte Ontologien verwendet werden, um das Wissensdiagramm in Schichten aufzubauen. Dies ist ein Hinweis auf die Funktionsweise von Google. Warum? Weil wir wissen, dass Google nicht nur sprachwissenschaftliche Semantiken verwendet, um die Suche zu befriedigen, sondern auch faktenlinkbasierte Semantiken, aus denen sich auch das Wissensdiagramm zusammensetzt. Dieser Vorgang wurde als Antwort-Engine bezeichnet. Warum ist das wichtig zu wissen? Denn wie wichtig Semantik und Effektsuche sind, lässt sich leicht nachweisen.

Was bedeutet das alles?

Keine Seite existiert in einem Vakuum. Eine Site auch nicht. Obwohl ich die Meinung verstehe, dass jede Seite für sich allein stehen sollte und dass jede Seite einen eigenen PageRank hat, der das Problem nicht verwechseln sollte, kann bei der Suche keine Seite für sich existieren. Seiten und in der Tat Websites haben Beziehungen und diese Beziehungen sind von Bedeutung. Hierarchische Beziehungen zwischen Seiten bestehen sowohl als physischer Pfad als auch durch die Verknüpfung mit einer Seite. Außerdem bestehen Beziehungen zwischen Websites und Seiten über eingehende und externe Links. Was nicht gesehen wird, sind semantische Beziehungen zwischen ähnlichen Themen und Inhalten innerhalb des semantischen Index.

Es wird wichtig, dass sich eine Site um ein Thema oder einige verwandte Themen handelt. Der Grund ist einfach. Sie bauen die Leistungsstärke im Suchmaschinenindex auf. In der Tat wird die thematische Ausrichtung und sprachliche Disziplin sehr wichtig.

Hier fügen sich Sub-Domains oder Nischen-Sites ein.

Eine andere Realität, die ins Spiel kommt.

Nicht jedes Thema wird gut abschneiden. Natürlich gibt es trendbasierte Websites, die immer eine gute Leistung erbringen. Es besteht jedoch die Gefahr, dass die aktuelle Tiefe fehlt. Wie tief wird beispielsweise eine Site über Prominente im Vergleich zu einer anderen Site sein? Wir können dies für SEO-Sites sehen, die Schlagzeilenthemen genau wie andere Sites ohne umfangreichen Inhalt folgen. Diese Sites arbeiten hauptsächlich mit Trendthemen. Wenn die Site nicht autorisierend ist oder keine gute Leistung erbringt, wird die Site wahrscheinlich überhaupt keine gute Leistung erbringen.

Auch schneiden nicht alle Nicht-Trendthemen gut ab. Der Grund dafür ist einfach. Das Thema ist möglicherweise nicht zu interessant, zu archaisch, sehr technisch, auf eine bestimmte Zielgruppe ausgerichtet, zielt auf eine kleine Nische usw. ab. Nicht alle Websites genießen Links und Suchanfragen als Gegenleistung. Dies bedeutet nicht, dass diese Site keinen Wert hat. Weit weg von der Wahrheit.

Suchmaschinen existieren als Unternehmen. Leider bedeutet dies, dass sie auf Trendthemen, E-Commerce und jedes andere Thema ausgerichtet sind, das dem Geschäftsmodell zugute kommt und andere Websites weitgehend ignoriert. In den letzten Jahren ist es immer schwieriger geworden, wissenschaftliche Arbeit in allen trendbasierten Blogs zu finden. Dies gilt insbesondere für bestimmte Nischen wie SEO. Das ist unglücklich.

Suchmaschinen kennen die Märkte und das Branding sehr gut. Es ist ein harter Kampf, mit bestehenden maßgeblichen Websites zu konkurrieren, auch wenn die Websites nicht so gut sind. Um eine Belohnung für Ihre Arbeit zu erhalten, ist ein ständiges Marketing erforderlich. Es erfordert auch eine Erhöhung des Antes.

Dies kann mehrere Dinge bedeuten.

Zum Beispiel den semantischen Wert einer Site erhöhen. Je mehr sorgfältig über ein Thema im Detail geschrieben wird, desto geringer können die Fehler sein. Dieses aktuelle Detail kann die semantische Bewertung für die Site und die Seite verstärken. Wenn dies von Nutzen ist, ist der semantische Score selbst für einfache Suchvorgänge höher als für Websites, die keine Fachkenntnisse aufweisen. Das semantische Scoring unterstützt verschiedene Aspekte der Suche, einschließlich der Themenstärke, des Fachwissens aus der Faktendatenbank, des Bildungsniveaus, des Lesenniveaus, der übereinstimmenden Absicht usw. und sogar der sozialen Absicht. Wenn Sie jedoch weit in Bereiche wie Fachwissen und Bildungsniveau vordringen, kann dies dazu führen, dass Matched Intent zu einer dünneren Zielgruppe wird. Es gibt auch Leckagen. Zum Beispiel, wenn Sie politisch liberal sind, wird Ihre Position durchgehen, obwohl Sie vorsichtig sind. Hier kommt die soziale Absicht ins Spiel. Suchmaschinen punkten dafür. Es ist ein Teil der semantischen Landschaft.

Bitte haben Sie auch Verständnis dafür, dass ein enger Spielraum hohe Autorität bedeuten kann.

Es gibt so viele Themenbereiche, dass ein ganzes Buch leicht geschrieben werden kann. Aber weißt du das? Der Themenbereich ist wichtig.

Größe ist wichtig. Sorta.

Bis vor kurzem war Google eher an viel größeren Websites interessiert. Ein Grund dafür könnte sein, dass mehr Seiten mehr Suchmöglichkeiten bieten. Bis Google feststellte, dass einige größere Websites die Nutzererfahrung beeinträchtigten, z. B. Artikelmarketing, Websites mit Brancheneinträgen oder Linkverzeichnisse. Google hat sich ein bisschen umgedreht und scheint auf große Websites abzuzielen, die in bestimmte Märkte passen in erster Linie als minderwertiger Inhalt angesehen.

Dies geht Hand in Hand mit der Verwendung von Semantik, um die Weblandschaft in Marktsegmente zu unterteilen. In diesen Segmenten finden Sie möglicherweise gute und schlechte Websites. Google macht den Anruf. Die Seitenzahl ist jedoch eine Auslösemetrik zusammen mit der Geschwindigkeit der Inhaltserstellung, die früher eine positivere Metrik war. Dieser Auslöser weist darauf hin, dass für Ihre Site möglicherweise zusätzliche Metriken erforderlich sind, um beispielsweise die Qualität zu überprüfen.

Auf der anderen Seite gibt es in bestimmten Märkten, z. B. bei Whois-Sites, einige Erwartungen hinsichtlich der Seitenzahl, und jede Site, die nicht mithalten kann, kann als nicht wettbewerbsfähig angesehen werden.

Für den Rest von uns gibt es ein fröhliches Medium. Zu viele Inhaltsseiten für ein bestimmtes Thema können eine semantische Verdünnung oder Duplizierung von Inhaltsthemen und -themen bedeuten. Zu viele Seiten können ein Hinweis darauf sein, dass der Inhalt der Website nicht auf schlanke und strategische Weise erstellt wurde.

Das Gegenteil ist auch wahr. Zu wenige Seiten haben kein Suchpotential und können darauf hinweisen, dass ein Thema nicht gut oder gründlich behandelt wird.

Es geht nicht unbedingt um die Anzahl der Seiten. Es geht um die Effektivität Ihrer Seiten. Zu wenige Seiten für einige Site-Themen können dazu führen, dass die Site ineffektiv wird. Zu viele dasselbe. Es wird teilweise durch Markt, Thema und Semantik definiert. Aber für manche ist eine einzelne Seite genau das Richtige für diesen Zweck und bietet eine gute Leistung.

Wenn Sie sich innerhalb eines Themas oder Marktes befinden, das nicht als Zielgruppe ausgewählt wurde, oder wenn Ihre Website aufgrund einer Automatisierung nicht häufig übermäßig groß ist, können besser geschriebene und zielgerichtete thematische Seiten mehr Suchmöglichkeiten bedeuten. Zu wenige Seiten weniger Gelegenheit. All dies hängt jedoch stark vom Thema, dem Ersteller des Inhalts und dem Markt ab. Die Antwort darauf, ob eine große Site gegenüber einer kleineren Site effektiver ist, ist weder binär noch pauschal. Es ist komplex und hängt von vielen Faktoren ab. Es ist nicht das eine oder andere. Es geht um die Wirksamkeit insgesamt.

Letzter Gedanke

Ich kann Ihnen nicht sagen, wo Ihre Themen in Ihr Inhaltsschema passen. Dafür muss man seine Erfahrung nutzen. Ich möchte jedoch sicherstellen, dass Sie Folgendes verstehen. Die Suche ist ein mechanischer Prozess. Damit Ihre Website eine gute Leistung erbringt, müssen Sie diese Tatsache erkennen und sich angemessen an sie halten. Sie müssen sich mit der Realität vor Ort auseinandersetzen und dürfen nicht in eine theoretische Welt eintreten. Theorie ist schön, aber nicht praktisch. Nicht auf der Suche.

Das Erstellen einer semantisch signifikanten Site ist der Schlüssel. Sie haben Recht mit dem Aufbau eingehender (Back-) Links. Es scheint fast unmöglich. Google ist der Meinung, dass natürliche Links am besten sind. Der Grund dafür ist, dass diese Links semantisch bedeutsam sind. Google gibt Ihnen einen wertvollen Hinweis. Das Argument, dass eingehende Links nicht mehr wichtig sind, ist sowohl wahr als auch falsch.

Links sind immer noch wichtig. Die Beziehung zwischen semantischem Scoring und eingehenden Links ist jedoch viel enger als je zuvor. Es ist möglich, eine Site zu erstellen, die bei der Suche eine gute Leistung erbringt, wenn die Site ordnungsgemäß ausgeführt wird. Links ergänzen dies. Links können jedoch die aktuelle Bedeutung nicht mehr übertreffen. Warum? Durch die Verwendung von Links und Semantik kann Google die Qualität der Website einfacher erkennen. Das dritte Bein des Stuhls ist, wie eine Site innerhalb der Suchmaschinen-Ergebnisseiten (SERPs) abschneidet. Aber das ist ein anderes Thema für einen anderen Tag.

2
closetnoc
  1. Wenn Sie mehrere Websites mit verschiedenen Stammdomänen erstellen und zwei Seiten aus zwei verschiedenen Domänen miteinander verknüpft sind, müssen Sie für diese beiden Domänen eine Reputation aufbauen. Infolgedessen erhalten Sie im Vergleich zum Aufbau der Reputation und dem Erhalt interner Links für eine Domain zusätzlichen Arbeitsaufwand.
  2. Wenn Sie sich für eine Nischenwebsite (Batman) entscheiden, werden Sie tief in Bezug auf die Informationsgranularität gehen. Aber dann werden Sie weniger Menschen anziehen. Wenn Sie eine allgemeinere Website oder ein Website-Thema haben, mit dem Sie verschiedene Themen abdecken können, werden Sie mehr Menschen und mehr Links anziehen. Sie können noch detaillierte Seiten schreiben.
  3. Was ist cool an Unterverzeichnissen auf derselben wordpress-Installation? Eine Seite, die nicht beliebt ist, kann von dem Link Juice einer sehr beliebten Seite in einem anderen Thema (in einer anderen wordpress-Kategorie) profitieren. Dank eines Plugins wie CRP für wordpress (Content Related Pages). Mit anderen Worten, in der Welt der Superhelden kann Batman von Superman profitieren und umgekehrt. Mit einem Multisite wäre das leider nicht möglich. Sie müssten die Interaktionen zwischen den Seiten manuell codieren.
  4. Unterverzeichnisse sind gemäß Google SEO gleich Subdomains: https://webmasters.googleblog.com/2011/08/reorganizing-internal-vs-external.html
2

Kurze Antwort - Heutzutage können große oder kleine Websites einen guten Rang einnehmen.

In früheren Zeiten war Google stark von Backlinks abhängig. Derzeit verwendet Google über 210 Signale (200 Signale und weitere über 10 Signale, die nach 2013 hinzugefügt wurden) in seinem Algorithmus und gemäß meiner Analyse der Websites meiner Freunde. Ich habe gesehen, dass Google nicht zu sehr vom PageRank abhängt, d. H., Sie haben die Wichtigkeit von Backlinks im Algorithmus im Vergleich zu 2014 oder 2015 verringert.

Nischen-Website kann jetzt ein Tag sehr gut ranken. Google möchte in der Regel Experteninhalte im Vordergrund anzeigen. Wenn eine Nischenwebsite vertrauenswürdigen Inhalt hat, kann sie einen hohen Rang in den SERPs einnehmen. Zum Beispiel ist die Website meines Freundes sehr gut für viele wettbewerbsfähige Keywords geeignet. Er hat keine einzige Verbindung aufgebaut. Sie können sich auch die John Mueller-Hangout-Videos ansehen, in denen die Website meines Freundes Unmengen von Zugriffen verzeichnet, ohne dass Backlinks erstellt werden. Sie sehen also so aus, als würden sich die Algorithmen ständig ändern, sodass sich der Webmaster auf die Leistung und den Inhalt der Website konzentrieren kann, anstatt Backlinks zu erstellen.

Größere Sites rangieren normalerweise gut in den SERPs. Google behandelt im Allgemeinen jede Webseite als gleich, aber eine größere Website hilft bei der SEO-Optimierung. Dies liegt daran, dass die Site bereits einen guten Ruf von anderen Websites hat, sodass sie im Vergleich zu einem neuen Domain-Namen einen guten Domain-Ruf hat.

Erstellen Sie also alles, was für Sie einfach ist, und lassen Sie Google seine Arbeit für Sie erledigen. Möglicherweise wird Google die Bedeutung von Backlinks in Zukunft im Vergleich zu heute noch weiter reduzieren. Ich weiß, dass sie es bereits zu sehr reduziert haben, aber sie können noch mehr reduzieren und in Zukunft andere Signale hinzufügen.

Wenn Ihr Inhalt gut ist, unabhängig davon, ob er sich in einer Unterdomäne, einem Unterverzeichnis oder einer anderen Domain befindet, ist die Zukunft Ihrer Website vielversprechend.

1
Goyllo

Google bevorzugt Inhalte über alles andere, und der Trick, Subdomains oder Subverzeichnisse zu vernetzen, ist ihnen bekannt, und Matt Cutts hat dies in der Vergangenheit bereits erwähnt.

Wenn Sie viele kleine Websites haben, teilen Sie den Datenverkehr auf diese auf. Eine Website, die den gesamten Datenverkehr abruft, hat einen höheren Rang.

Ihr Ziel sollte es sein, qualitativ hochwertige Inhalte bereitzustellen, die den Menschen am Herzen liegen und nicht an Gimmicks arbeiten.

1
Rob