Wie man große Websites vor Googles „Panda“ schützen kann. Ein Fallbeispiel, 5 Tipps

Veröffentlicht in: Suchmaschinenoptimierung, am: | No Comments |
Dieser Artikel ist 9 Jahre alt und möglicherweise nicht mehr aktuell.
Der Artikel wurde am 2017-11-15 aktualisiert.

Wer eine umfangreiche Website oder einen Blog unterhält, der weiß, dass es einiges an gutem Content braucht, um beim Leser zu punkten. Viel Zeit und auch finanzielle Mittel stecken im Contentaufbau und Contentmarketing. Neben Textern, Designern und Programmierern, müssen Inhalte immer auch redaktionell aufbereitet werden, da spielt es keine Rolle, ob es sich nun um eine Nachrichtenseite, Blog oder Online Shop handelt.

Große Websites werden durch viele Inhalte immer umfangreicher. Dieser viele Content birgt aber dahingehend auch gewisse Risiken. Stellen Sie sich einmal vor, dass Sie eines Morgens feststellen, dass quasi über Nacht der organische Traffic auf der eigenen Website in zweistelliger Prozentzahl abgenommen hat. Das kann vielerlei Gründe haben, aber immer sollte man auch in Betracht ziehen, dass es sich um Googles Panda handeln könnte.

Im Artikel findet man Hintergründe und die besten Maßnahmen, um sich davor zu schützen.

Panda Biest

Panda Biest (c) Bildquelle: flickr / Annetheli Brarian / CC BY 2.0

 

Warum insbesondere große Websites Opfer von „Panda“ werden?

Googles Panda ist ein Algorithmus, der vornehmlich gegen minderwertige Websites vorgehen möchte. Panda erschien im Frühjahr 2011 und wurde bereits innerhalb eines halben Jahres auf alle Googles Suchsegmente ausgebreitet.

Schlechte Inhalte, ohne erkennbaren Mehrwert für den Nutzer sind vom Update betroffen, aber auch unnötig aufgeblasene Seitenanzahl. Beispielsweise könnte das ein Onlineshop sein, der viele Produktseiten veröffentlicht, aber dort nur Fotos ohne Text platziert. Solche Websites werden mit Sicherheit in den Filter genommen. Dabei ist es vielfach die Unkenntnis der Onlineshop-Betreiber, die solche Situationen entstehen lassen.

Am Anfang war: Panda Update 2011

In den Fokus von Panda geraten auch Seitenbetreiber, die manipulative Techniken anwenden, beispielsweise Keyword-Spamming. Fehlanpassungen innerhalb der Website, können ebenfalls dafür sorgen, dass der Filter greift.

Ebenso verhält es sich mit aggressiver Werbung. Das sind vielfach zu viele Anzeigen oder Anzeigen, die thematisch nicht zur Site passen. Ein weiterer Punkt ist die Absprungrate, die geringe Verweildauer der Nutzer auf der Website.

Große Websites werden meistens wegen technischer Probleme Opfer von Panda. Sites mit einer Millionen Seiten oder mehr werden vielfach von Onlineshops oder Medienhäusern betrieben, die über eine derartig komplexe Struktur verfügen, die aus mehreren Bereichen, Subdomains etc. besteht und von unterschiedlichen Zuständigen betrieben wird.

So kann es zu Situationen kommen, in denen verschiedene Teile der Website von den Sanktionen von Panda betroffen sind. Während Webmaster noch gegen ein Duplicate Content Problem im Bereich „A“ ankämpft, ist Panda bereits dabei andere Missstände im Bereich „B“ ins Visier zu nehmen.

Wissen Sie nicht welcher Filter? Hilfe, Diagnose und Checkliste

Wie sieht ein typisches Opfer des Panda-Updates aus?

Normalerweise wird der Webmaster zu ersten Mal mit einem Problem konfrontiert, wenn es zu einem Traffic-Rückgang auf der Site kommt. Die Aktivität von Panda gibt dazu Aufschluss.

Panda Sanktionen in Google Analytics

Panda Sanktionen in Google Analytics

 

Panda Merkmale

Woher aber wissen, dass Ihre Website unter den Panda-Filter gekommen ist? Hier wichtigsten Merkmale:

  • Schlechteres Ranking nach der Ankündigung des Panda-Updates
  • Ein Verlust von indexierten Seiten bei Google
  • Neue Seiten werden schlecht bzw. gar nicht indexiert
  • Seiten verbleiben im Index, jedoch kommt es zu einem starken Rankingverlust
  • Fällt der Traffic nur bei bestimmten Bereichen der Website oder Seitentypen, kann das ein Indiz für Panda sein

Wenn Sie eine oder mehrere der oben aufgeführten Probleme bemerken, ist die Wahrscheinlichkeit hoch, dass Sie von Panda betroffen sind.

Der Fall der „GSQi-Agentur“

Die US-amerikanische Marketing-Agentur G-Squared Interactive (GSQi)hat viel Erfahrung in der Umsetzung von großen Internetprojekten. Beispielsweise verfügt einer ihrer Kunden über eine Website mit mehr als einer Millionen Seiten. Ebenso über mehrere Sub-Domains. Für die Erstellung der Inhalte sind mehrere Teams von Autoren verantwortlich. Nichtdestotrotz fehle es dem Kunden immer an der Zeit, um einige Seitenbereiche mit Inhalten zu füllen.

Nach dem Einbruch des organischen Suchtraffics, der im zeitlichen Zusammenhang zum Panda-Update stand, hatte man keinen Zweifel mehr daran, dass alles auf das Google-Update zurückzuführen wäre. Man wandte sich an die IT-Experten von GSQi. Nach Überprüfung der betroffenen Bereiche, stellte man fest, dass es Seiten gab, die über keine Inhalte verfügten. Es galt dort Content einzufügen.

Nach kurzer Zeit schon, erholte sich die Site und die Maßnahmen führten dazu, dass sich der Traffic schnell wieder einstellte.

Nach ein paar Monaten jedoch nahm der organische Traffic um 30 Prozent ab. Das passierte wieder zeitlich ganz nah nach dem Panda-Update. Bei der überholten Prüfung, bei der explizit nach möglichen Panda-Zielen gesucht wurde, wurde festgestellt, dass es ein paar kleinere Probleme auf technischer Seite gab, die jedoch kaum zu den Sanktionen führen konnten.

Der eigentliche Grund für die Sanktionen wurde durch manuelles Scannen und Überprüfen der Website und der Suchergebnisse gefunden. Tausende von Seiten enthielten nur ein paar Sätze und Hyperlinks. Diese Seiten waren mit normalen Mitteln, Seitennavigation, interne Links etc. unmöglich aufzuspüren, dennoch hat es sie gegeben.

Aufgrund eines technischen Problems im CMS wurden tausende von Unterseiten erstellt, die benutzerdefinierte Suchergebnisseite beinhaltet haben. Wie oben erwähnt, enthielt jede dieser Seiten Suchergebnisse in Form von Hyperlinks und nur wenigen Worten. Tausende von ähnlichen Seiten im Index bewertete Google zu Recht als unbrauchbar.

Nach Beseitigung der Mängel war die Website wieder völlig in den Suchergebnissen hergestellt.

Lesen Sie auch: Raus aus dem Penguin. Erkannt und behoben, eine Fallstudie

Pandas im Angriff

„1600 pandas“ (c) Bildquelle: flickr / Stefan / CC BY 2.0

 

Große Website vor Panda schützen. Empfehlungen

Mit diesen Empfehlungen sollten Sie vor dem schädlichen Einflüssen Pandas weites gehend geschützt sein:

Überprüfen Sie regelmäßig die Website. Wenn Ihre Site über sehr viele Seiten verfügt, sollten für die Überprüfung auch einiges an Zeit eingeplant werden. Erstellen Sie fortlaufend einen Plan dazu, indem die zeitliche Abfolge definiert wird. Planen Sie im Voraus, was, wann und wo überprüft wird. Überprüfen Sie die Fehlermeldungen bei Google Webmaster. Prüfen Sie die Qualität der Inhalte innerhalb dieser Bereiche. Achten Sie auf technische Updates der Website, sowie der Algorithmen.

Testen Sie die geplanten Änderungen. Dafür benötigen Sie einen Testserver. Zum Beispiel kann das neue Design oder auch adaptive Layouts auf dem separaten Server getestet werden, ohne dabei Inhalte zu verlieren oder das Erscheinungsbild der originären Ressource zu beeinträchtigen.

Bilden Sie sich ständig weiter und bleiben Sie auf dem neuesten Stand über Suchmaschinen und wie sie arbeiten. Je mehr Sie darüber wissen, desto besser können Sie auf neue Algorithmen reagieren. Weniger wahrscheinlich wird es dann, dass Sie unter Sanktionen fallen. Ein erweitertes technisches Wissen wird dann helfen, die häufigsten Fehler zu vermeiden und das Wissen im Bereich Suchmaschinenmarketing wird Ihnen helfen, die Entwicklung in den Suchtechnologien besser zu verstehen.

Ein Echtzeit-Chat mit allen Spezialisten, die im Unternehmen arbeiten, kann bessere Einblicke in den Bereich ermöglichen. Erstellen Sie beispielsweise einen Gruppenchat, an dem Entwickler, Designer, Vermarkter, Optimierer und andere Experten teilnehmen. So sind Sie in der Lage, die geplanten Veränderungen zu diskutieren und zu überwachen.

Beurteilen Sie alle Änderungen in Bezug auf SEO-Maßnahmen und Suchmaschinen-Marketing. Große Websites werden ständig weiterentwickelt.

Indem Sie diese grundlegenden Empfehlungen beherzigen, reduzieren Sie die Wahrscheinlichkeit von Sanktionen durch den Algorithmus Panda betroffen zu sein.

Empfehlung: Perfekte Onpage Optimierung. Die Schlüsselfaktoren

Schutz vor Panda: „Vorbeugen lautet die Devise“

Wenn einmal der Panda-Filter gegriffen hat, müssen erhebliche Anstrengungen unternommen werden, um den Umstand abzustellen. Vielfach kann der ursprüngliche Zustand einer Website erst nach einer beträchtlichen Zeit wieder vollends hergestellt werden. Besser ist es da natürlich es nicht erst so weit kommen zu lassen. Bleiben Sie algorithmisch auf dem Laufenden, testen Sie und koordinieren.

Über den Autor:
Foto von Vitaliy Malykin Vitaliy Malykin CEO von Design4u Köln Tel.: +49 2219753416 E-Mail: webmaster@design4u.org Websites: , , Wikipedia
Vitaliy Malykin (Dipl.-Kfm.) ist seit 2005 in den Bereichen Webentwicklung, Online Marketing, SEO, SEM und SMO unterwegs. Zu seinen Fähigkeiten und Kenntnissen zählen u. a. Suchmaschinenoptimierung, Webentwicklung, Webdesign, WordPress Development, Storytelling, Erstellung und Optimierung von Longreads und conversionsbasierter Landing Pages, Growth Hacking, aber auch Kommunikation, Führung von remote Entwickler Teams, Unternehmensführung, Beratung und Business Development. Malykin realisierte diverse IT-Projekte, plante, implementierte und setzte SEO Strategien und Maßnahmen für mehrere bekannte Unternehmen in Deutschland, Europa, Russland und der Welt um.
Gute Beiträge sind es wert geteilt zu werden!

Hinterlasse als Erster einen Kommentar

Name*
Email*

Kommentar