Googles Farmer aka. Panda Update

Das Google Panda Update

Am 24.2.2011 hat Google ein neues Algorithmus Update angekündigt, dass die Qualität der Suchergebnisse verbessern soll. Danny Sullivan hat das Update in Ermangelung eines besseren Namens als Farmer Update bezeichnet; Googles interner Name lautet Panda Update.

Ich habe das Update, dessen Auswirkungen und gewonnen Erkenntnisse die letzten Wochen hinweg beobachtet (, regelmäßig darüber getwittert) und gebe mit diesem Artikel eine kleine Zusammenfassung.

Die Vorgeschichte

Nachdem Google Anfang diesen Jahres immer häufiger in Kritik bezüglich der Qualität der SERPs geraten ist und dabei vor allem auch die meist sehr gute Positionierung von so genannten Content Farmen kritisiert wurde, bestand Handlungsbedarf. Content Farmen stehen an dieser Stelle stellvertretend für sogenannten „shallow“ Content – also solchen, der eigentlich keinen Nutzen für den User bringt.

[…]And we’re evaluating multiple changes that should help drive spam levels even lower, including one change that primarily affects sites that copy others’ content and sites with low levels of original content. We’ll continue to explore ways to reduce spam, including new ways for users to give more explicit feedback about spammy and low-quality sites.

As “pure webspam” has decreased over time, attention has shifted instead to “content farms,” which are sites with shallow or low-quality content. In 2010, we launched two major algorithmic changes focused on low-quality sites. Nonetheless, we hear the feedback from the web loud and clear: people are asking for even stronger action on content farms and sites that consist primarily of spammy or low-quality content.[…]

(aus Google Search and Search Engine Spam)

Mit dem Panda Update sollte dieser Kritik Rechnung getragen werden. (Achtung, ich sage nicht, dass das Update entwickelt wurde weil es diese Kritik gab – aber es kam recht passend 😉 Tatsächlich wurde schon Mitte 2010 mit der Entwicklung der Algortihmen begonnen.)

Natürlich ist so ein Update immer eine heikle Sache und laut Matt Cutts war im vorhinein bekannt, dass etwa 12% der Suchanfragen spürbar betroffen sind. Deshalb wurde vor dem Rollout des Updates den Usern von Googles hauseigenem Browser Google Chrome die Möglichkeit eröffnet, unerwünschte Ergebnisse in den SERPs zu blockieren. Die vorausberechneten Werte des Updates und die Daten der Chrome User stimmten ersaunlich gut überein und das Update wurde released. Für mich hatte das allerdings schon damals den leichten Beigeschmack einer Rechtfertigung („Sry guys, we know we’ll kick some asses that shouldn’t be kicked – BUT our user data PROOVE that it’s for every ones best“).

Übrigens: Google hat nochmal nachgelegt und bietet nun allen Usern die Möglichkeit, unerwünschte Ergebnisse zu blockieren. Noch werden die Daten nicht im Ranking genutzt – aber Google schließt es nicht aus:

In addition, while we’re not currently using the domains people block as a signal in ranking, we’ll look at the data and see whether it would be useful as we continue to evaluate and improve our search results in the future.

Die Namensgebung

Zu diesem Update gibt es mehrere Namen, die eventuell für Verwirrung sorgen könnten. Es folgt eine kurze Übersicht über die beiden gängigen Namen:

Farmer Update
Normalerweise werden größere Updates im Webmaster World Forum benannt, aber das hat dieses Mal nicht so ganz hingehauen. Deshalb hat Danny Sullyvan sich in seinem Artikel auf Search Engine Land für den Namen Farmer Update entschieden.
Panda Update
Wie auch schon das Vince Update 2009, wurde das Farmer Update von Google intern nach einem Mitarbeiter benannt und als Panda Update bezeichnet. Matt Cutts enthüllte das in einem Interview mit wired.com.

Gerade Letzteres ist zumindest insofern einen Gedanken wert, dass man sich mal auf die Suche nach diesem Mitarbeiter machen kann um zum Beispiel an Hand etwaiger Publikationen Rückschlüsse auf eventuelle Einflussfaktoren des Updates ziehen zu können. Bill Slawski ist eben diesem Gedanken mit Searching Google for Big Panda and Finding Decision Trees nachgegangen, wobei die Ergebnisse nicht wirklich brauchbar waren.

Die Auswirkungen

Negativ betroffene Seiten haben einen deutlichen Traffic-Einbruch hinnehmen müssen. Einige Links zu öffentlichen Datensätzen gibt es im nächsten Absatz. Hier ist anzumerken, dass nicht nur eine „Abstufung“ von Einzelseiten stattfindet, sondern dass auch ganze Domains betroffen sein können. Das geht aus dem Recap von Vanessa Fox zu einem Google Statement auf der SMX West hervor:

[…]. Bear in mind that people searching on Google typically don’t want to see shallow or poorly written content, content that’s copied from other websites, or information that are just not that useful. In addition, it’s important for webmasters to know that low quality content on part of a site can impact a site’s ranking as a whole. For this reason, if you believe you’ve been impacted by this change you should evaluate all the content on your site and do your best to improve the overall quality of the pages on your domain. Removing low quality pages or moving them to a different domain could help your rankings for the higher quality content.

Krass… Ich meine, man kann die Argumentation nachvollziehen, aber das ist schon starker Tobak. Vor allem, wenn ich auf meiner Domain User generated Content zulasse, muss ich nun richtig aufpassen, damit ich mir das Ranking meiner Domain nicht komplett versaue.

Die Betroffenen

Das Update wurde bisher nur auf google.com ausgerollt – dort waren die Auswirkungen allerdings schlagartig sichtbar. Dank der Daten von Sistrix, Searchmetrics und anderen kann man recht deutliche Verlierer erkennen. Obwohl nicht die gleichen Metriken zu Grund liegen, überschneiden sich die Top-Verlierer doch ziemlich stark und im allgemeinen scheint Google auch die „richtigen“ erwischt zu haben. Dazu zählt unter anderem auch mahalo.com (Content Farm), die daraufhin prompt 10% der Belegschaft entlassen haben.

Aber es gibt immer die Ausnahmen von der Regel. Das prominenteste Beispiel ist wohl Demand Medias eHow.com, eine der bekanntesten Content Farmen. eHow hat es nämlich nicht erwischt – im Gegenteil, sie scheinen eher noch profitiert zu haben. Dementgegen steht eine ganze Reihe Webseiten, deren Betreiber sich zumindest selbst für zu Unrecht betroffen hält. Google hat einen eigenen Feedbackthread dazu eröffnent.

Interessant war auch der Fall Cult of Mac. Diese Seite wurde ebenfalls zu Unrecht abgestraft, hat sich aber nach einem Gang zur Öffentlichkeit wieder erholt. Laut Google war es eine algorithmische Anpassung… Sorry, aber das glaub ich nun überhaupt nicht. Zumal auf der SMX gerade erst bestätigt wurde, dass „Whitelists/Exception Lists“ für diverse Algorithmen existieren und somit einzelne Domains bevorzugt behandelt werden können (auch wenn dort explizit dementiert wurde, dass diese zur Zeit im Zuge des Panda Updates Verwendung finden). Hier war Öffentlichkeitsdruck vorhanden und man brauchte schnell Resultate. Just my 2 Cents.

Die Indikatoren

Letztendlich stellt sich für uns natürlich die Frage: Warum wurden diese Seiten vom Panda Update erwischt und wie kann ich mich davor schützen? Deshalb sind alle auf der Suche nach möglichen Indikatoren, die sich zum Beispiel aus Gemeinsamkeiten von betroffenen Seiten ableiten lassen oder von Google indirekt genannt wurden. Dazu gibt es ebenfalls schon einige Ansätze, zum Beispiel von Vanessa Fox, Rand Fishkin, Aaron Wall oder Eric Kubitz. Dass es möglich ist, hat Matt Cutts in dem wired.com Interview quasi selbst zugegeben:

Cutts: If someone has a specific question about, for example, why a site dropped, I think it’s fair and justifiable and defensible to tell them why that site dropped. But for example, our most recent algorithm does contain signals that can be gamed. If that one were 100 percent transparent, the bad guys would know how to optimize their way back into the rankings

Mögliche Auslöser der Verlierer im Panda Update:

  • Übermäßig viel Werbung – geht klar aus dem wired.com Interview hervor
  • Wenig eigener Content – lässt sich algorithmisch ermitteln, daher durchaus denkbar
  • Hohe Bouncerates – das Google über diese Daten verfügt, düfte klar sein und so etwas lässt sich auch gut auf eine ganze Domain beziehen (Stichwort: Content Farmen)

Das halte ich für weniger relevant:

  • Gutes Design – ich glaube nicht, dass „Ästethik“ maschinell bewertbar ist, dafür sind Geschmäcker zu verschieden
  • „Guter“ Content – wenn Google das bewerten könnte, hätten Links als Ranking Kriterium ausgedient. Der Ansatz ist sicher nobel, aber das versucht Google nun schon seit .. ja eigentlich seit immer durchzusetzen.

Positven Einfluss kann Folgendes haben:

  • Social Media Präsenz – was gut ist, wird getweeted und geliked
  • Branded Searches – Brandname + Keyword = Hier scheint es etwas Gutes zu geben. „Dieser Brand liefert mir das, was ich suche“

Die beiden Punkte hab ich übrigens aus dem aktuellen State of Search Podcast.

Weitere Informationen

Wenn es was neues gibt…

Ich verfolge das Update natürlich weiter und poste Neuigkeiten meist entweder im Abakus Forum oder in meinem Twitter Account.

Hirnhamster

hat einen Bachelor in Angewandter Informatik und bloggt auf MySEOSolution regelmäßig zu Updates im Bereich der Suchmaschinenoptimierung. Außerdem freut er sich über Kontakte auf Google+ 🙂

More Posts - Website - Twitter - Facebook - Google Plus