Qualitätsfaktor in der organischen Google-Suche

Veröffentlicht in: Suchmaschinenoptimierung, am: | No Comments |
Dieser Artikel ist 7 Jahre alt und möglicherweise nicht mehr aktuell.
Der Artikel wurde am 2021-09-24 aktualisiert.

Stellen Sie sich für einen Moment vor, dass Google einen Qualitätsfaktor in der organischen Suche verwendet. Lassen Sie uns ebenso vorstellen, dass er dieselben Metriken dafür nutzt, wie für den Qualität Score in AdWords und zwar die Verweildauer, Bounce Rate und das grundsätzliche Nutzerverhalten des Seitenbesuchers.

Die Frage ist: Wie funktioniert dieser Indikator tatsächlich und wie kann man die Seiten dafür optimieren?

Qualität

Qualität. (c) Bildquelle: flickr / Shira Golding Evergreen / CC BY 2.0

 

Obwohl es keine Belege für seine Existenz gibt, ist die Qualität der Ergebnisse in der organischen Suche ein Konzept, das viele SEO-Experten seit einigen Jahren angedacht haben. Überlegungen dazu hat Rand Fishkin, Gründer von MOZ, angestellt. Im Folgenden werden wir Beispiele dafür aus der Praxis betrachten.

Wir berichten über die Nutzerverhaltensfaktoren übrigens bereits seit Ende 2013

Ausgangssituation

Zum Beispiel wir haben eine sehr einfache Website mit der Domain example.tld mit drei Bereichen: „Produkte“, „Blog“ und „Über uns“. Im Bereich „Produkte“ haben wir eine Unterseite „xyz.html“, die bei der Durchsicht bestimmter Metriken an Google Kennzahlen liefert.

Google verknüpft mit dieser Unterseite bestimmte Aktivitäten, die sie beobachtet, auf Grundlage der von uns bereits bekannten Browser-Daten, Klickraten und Suchdaten, sowie Statistiken über Besuche über die Suchergebnisse und Rückkehr zu den Suchergebnissen – das heißt, alle Daten über Suche, Klicks und Nutzerverhalten, die schon wiederholt erwähnt wurden.

Website Schema

Website Schema. (c) Bildquelle: flickr / Michael / CC BY 2.0

 

So kann Google folgende Metriken auswerten:

  • Anzahl der Rückkehrer zu den Suchergebnissen
  • die durchschnittliche Anzahl der durchgesehenen Seiten pro Besucher (wenn der Benutzer auf die Website geht und sich mehr als einen Unterseite ansieht)
  • die durchschnittliche Verweildauer
  • Anzahl direkter Zugriffe auf die Website über die direkte Browsereingabe
  • Such-Hits und Conversions in den Suchergebnissen
  • und vielleicht eine Reihe anderer Daten, wie Anzahl direkter Browsereingaben oder, ob nach dem Firmennamen gesucht wurde etc.

Vielleicht sind diese Faktoren auch von der Region und Art des verwendeten Geräts, sowie auch von der Personalisierung abhängig oder von all dem zusammen.

Aber unabhängig davon, welche Faktoren genau das sind, könnte man sich gut vorstellen, dass Google eine Vorstellung davon hat, wie die Seite in Suchergebnissen funktioniert.

(Fast) alles, was man über Nutzerverhalten Metriken wissen soll, findet man hier

SEO-Theorien

Mehrere SEO-Experte haben sich schon über die mögliche Existenz von dem Qualitätsfaktor geäußert.

Organischer Qualitätsfaktor. Quelle: de.123rf.com
 

Bestehende SEO-Theorien über einen organischen Qualitätsfaktor

Mehrere SEO-Fachleute haben sich schon über die mögliche Existenz von dem Qualitätsfaktor geäußert. Hier ist die Kurzfassung dieser Äußerungen:

1. Wahrscheinlich basiert er auf Daten über die Suchanfragen, Klicks, Nutzeraktivität, Seitenbesuche, etc. (Nutzerverhaltensfaktoren)
Man zweifelt keinesfalls daran, dass der Prozess der Bewertung von Seiten durch Google viel komplizierter ist, als wir ihn beschreiben. Übrigens widerspricht Google öffentlich ganz vielen Metriken.

Zum Beispiel sagt Google: „Wir berücksichtigen nicht die Zeit, die der Benutzer auf der Website verbracht hat. Das kann sich übrigens unterscheiden, denn manchmal ist eine geringe Verweildauer auf einer Website gut. (D.h., dass man schnell fündig wurde, Komm. Redaktion)“.

Großartig. Das heißt, dass Google es versteht, aber es wird ein moderneres und komplexeres Format für diese Daten verwendet, als die einfache Verweildauer, evtl. eine „Verweildauer mit Abstrichen“.

2. Man ist auch überzeugt davon, dass dieser Faktor auf drei verschiedenen Ebenen angewendet wird
Dies resultiert aus durchgeführten Experimenten, sowie auch dem, was seitens Google bekannt gegeben wurde.

Domain-Ebene
Wenn es innerhalb einer Domain viele Seiten von einer hohen Qualität gibt, dann kann Google andere Unterseiten dieser Domain auch bevorzugt betrachten.

Subdomain-Ebene
Man geht davon aus, dass Subdomains anderen Bewertungskriterien unterliegen, als das bei Hauptdomains der Fall ist. Verschiedene Subdomains können auch auf unterschiedliche Weise ausgewertet werden. Wenn die eine Seite über hochwertige Inhalte verfügt, aber eine andere nicht, dann kann Google nicht die gleichen Rankingsignale oder den Backlinksaft auf diese Subdomain übertragen.

Unterordner-Ebene
Das Gleiche gilt für Unterordner, wenn auch in geringerem Maße. Tatsächlich geschieht das in absteigender Reihenfolge.

3. Das Vorhandensein des Qualitätsfaktors bietet eine Reihe von Vorteilen:
Das Wichtigste: höhere Positionen in den Suchergebnissen, auch (vorerst) ohne andere Qualitätssignale. Auch wenn einer (frischen) Unterseite andere Qualitätssignale vorerst fehlen, sie sich aber im selben Bereich befindet, wie die anderen Unterseiten, die bereits den hohen Qualitätsfaktor genießen, wird Google die Position dieser Seite in den Suchergebnissen von Anfang an präferieren.

Angenommen, diese frische Unterseite würde sich im anderen Unterverzeichnis, einer anderen Domain oder Subdomain befinden, bekäme sie diesen Bonus von Google nicht.

Algorithmen

Algorithmen. (c) Bildquelle: flickr / Ben Watkin / CC BY 2.0

 

In eigener Sache: Suchmaschinenoptimierung von Design4u

Drei Möglichkeiten zur Verbesserung des organischen Qualitätsfaktors:

Sie können nicht unbedingt daran festhalten und glauben, aber sicherlich haben Sie bemerkt, dass es bestimmte Qualitätsfaktoren gibt, die in diese Richtung tendieren. Im Folgenden sind drei Möglichkeiten aufgeführt, die zu einer Verbesserung des Qualitätsfaktors und folglich einer Website in den Suchergebnissen führen:

Lesen Sie auch: SWOT-Analyse mit Google-Operatoren. SEO-Potenziale richtig erkennen

1. Fügen Sie weitere funktionierende Seiten hinzu

Wenn Sie wissen, welche Art von Seiten eine höhere Priorität und bessere Suchpositionen bei Google erreichen, erhöhen Sie die Anzahl solcher Unterseiten.

2. Verbesserung der Qualität bereits vorhandener Seiten

Wenn Sie sehen, dass bestimmte Unterseiten schlechte Nutzerverhalten Faktoren aufweisen, verbessern Sie diese Unterseiten. Um dies zu tun, können Sie Inhalte, Navigation, Benutzerfreundlichkeit, Benutzererfahrung, Ladezeiten und beispielsweise die visuellen Elemente auf der Seite verbessern.

Alles, was den Besucher auf der Seite hält und seine Informationsbedürfnisse deckt. Nachdem Sie das alles verbessert haben, wirkt sich das positiv auf die Qualitätsindikatoren aus.

3. Seiten ohne Funktion entfernen

Um dies zu tun, können Sie verschiedene Methoden anwenden. Richten Sie eine Umleitung auf eine andere Seite ein, die für die spezifische Anfrage des Nutzers relevant sein könnte. Konfigurieren Sie 404-Fehlerseiten oder schließen Sie die Seite aus der Indexierung mit dem Noindex-Attribut, dem Roboter-Meta-Tag oder der robots.txt-Datei aus.

Die SEO-Verantwortliche bei MOZ, Britney Muller, gab an, dass sie Tausende von schlechten Seiten bei MOZ löschte und somit für die verbliebenen Unterseiten die Positionen, als auch den Traffic auf die Website deutlich steigern konnte. Über ähnliche Erfahrungen berichtete auch Roy Hinkis von SimilarWeb.

Also raten wir Ihnen, Ihre Indikatoren zu betrachten und ineffiziente Seiten zu finden. Als nächstes müssen Sie entscheiden, ob Sie diese Seiten verbessern können oder ob sie entfernt werden müssen. Auch sollten Sie über das Hinzufügen neuer Seiten mit einer hohen organischen Qualität / Punktzahl nachdenken.

User Intention. Video by Olenka Sergienko from Pexels

Nachtrag 2021: Warum sollte nicht jede Kennzahl einzeln betrachtet werden?

Folgenden Kennzahlen geben keinen Aufschluss, weil die Situation nicht als Ganzes betrachtet wird:

  • Verweildauer
  • Absprungrate
  • Anzahl organischer Seitenbesucher
  • Konversionsrate

Unvollständiges Bild des Geschehens

Warum genau diese Metriken? Denn für sich genommen können sie ein unvollständiges Bild des Geschehens vermitteln. Eine lange Verweildauer auf einer Website kann beispielsweise auf Folgendes zurückzuführen sein:

  • eine Seite ist eine Zeit lang geöffnet, während der Nutzer mit einem anderen Thema beschäftigt oder abgelenkt ist
  • mehrere relevante Seiten von den Suchergebnissen wurden geöffnet, der User überprüft einzelne Seiten nacheinander
  • Mehrere Pop-ups auf einer Seite, die geschlossen werden müssen

Die Absprungrate funktioniert auf ähnliche Weise. Eine hohe Absprungrate kann ein völlig normaler Faktor sein. Eine Seite beantwortet eine einfache Anfrage, oder der nächste Schritt besteht darin, zu einer anderen Seite auf der Website zu gehen, oder es gibt überhaupt keinen nächsten Schritt. Der Benutzer findet schnell die Antwort und verlässt die Website.

In einem solchen Fall ist die Absprungrate zwar hoch, aber die Seite löst das Problem des Nutzers, und das ist genau das, was Google will. Daher kann die Absprungrate nicht separat betrachtet werden.

Problem des Nutzers lösen

Das Gleiche gilt für organische Besuche. Sie haben vielleicht eine Seite mit minderwertigem Inhalt, die viel organischen Traffic erhält. Das mag daran liegen, dass sie in den Suchergebnissen immer noch an erster Stelle steht.

Aber die Seite löst immer noch nicht das Problem des Nutzers und wird bald an Bedeutung verlieren. Diese Kennzahl kann nur auf lange Sicht etwas aussagen.

Systematische SEO gefragt

Es liegt auf der Hand, dass die Optimierung für Google systematisch erfolgen muss. Sie sollten die Metriken als Ganzes und nicht einzeln analysieren. Sie sollte die Art der Seite, die Art des Inhalts und die Ziele der Seite berücksichtigen.

Mehr dazu auch in diesem Artikel: Seiten von niedriger Qualität identifizieren

Über den Autor:
Foto von Vitaliy Malykin Vitaliy Malykin CEO von Design4u Köln Tel.: +49 2219753416 E-Mail: webmaster@design4u.org Websites: , , Wikipedia
Vitaliy Malykin (Dipl.-Kfm.) ist seit 2005 in den Bereichen Webentwicklung, Online Marketing, SEO, SEM und SMO unterwegs. Zu seinen Fähigkeiten und Kenntnissen zählen u. a. Suchmaschinenoptimierung, Webentwicklung, Webdesign, WordPress Development, Storytelling, Erstellung und Optimierung von Longreads und conversionsbasierter Landing Pages, Growth Hacking, aber auch Kommunikation, Führung von remote Entwickler Teams, Unternehmensführung, Beratung und Business Development. Malykin realisierte diverse IT-Projekte, plante, implementierte und setzte SEO Strategien und Maßnahmen für mehrere bekannte Unternehmen in Deutschland, Europa, Russland und der Welt um.
Gute Beiträge sind es wert geteilt zu werden!

Hinterlasse als Erster einen Kommentar

Name*
Email*

Kommentar