Überlegungen zum Panda-Update

Das Google Panda Update ist nun auch in Deutschland angekommen. Von diesem Update sollen laut Google zwischen 6-9% der Suchanfragen betroffen sein. Grund genug sich der Thematik mittels einer Analyse anzunehmen.

Ziel des Updates war es, qualitativ hochwertige Websites weiter vorne zu platzieren, umso eine besser Suchergebnisqualität zu erreichen.



Um entsprechende Seiten zu belohnen, fließen mittlerweile auch Benutzermeinungen per Fragebogen/Email mit ein.
Wenn ich mir nun die Gewinner und Verlierer in den verschiedenen Auswertungen ansehe, gibt es in fast jeder Branche wieder einen Ausgleich. So gehören Gutefrage.net und Cosmiq.de ganz klar zu den Verlierern, während answers.yahoo.com die Verluste der Konkurrenz wieder wett macht.

Vereinfacht gesagt: es fand kein Aussortieren der Frage-Antwort Portale, Artikelverzeichnisse, Personensuchen, PR-Aggregaten usw. statt, sondern lediglich eine Verschiebung innerhalb der Nische mit gezielter Filterung von Seiten.



Aus diesem Grund ist es meines Wissen auch noch keiner Seite gelungen, dem Panda ohne großen Aufwand zu entfliehen. Wer also darauf gehofft hatte, dass der Anteil der Preisvergleiche, Personensuchmaschinen oder Branchenbücher radikal verändert hat, muss sich noch gedulden. Einen sehr interessanten Beitrag über das Panda-Update und Grundlage meiner These lieferte Searchmetrics.

Über mögliche Ursachen für einen Verlust oder Gewinn in der Sichtbarkeit wird seit Freitag heftig diskutiert. Hier natürlich alle möglichen Faktoren aufgeführt und auch Parolen wie „Content is King“ sind nicht zu überhören. Allerdings bin ich der Auffassung, dass dieses Update damit noch nichts mit einer Auswertung der inhaltlichen Qualität zu tun hat. Es ist eher eine Auswertung von Signalen, die User senden wenn Sie auf mäßigen Inhalt treffen.

Analyse Google Panda Update

Wenn man sich mit einigen SEOs über das Panda Update unterhält, fallen immer wieder mögliche Faktoren wie z.B.

  • Textqualität
  • Indexierte Seitenanzahl
  • Brand-Suchen
  • Bouncerate
  • Dauer des Besuchs
  • Willkür
  • Social Web
  • usw.

Allerdings bin ich mir mit den meisten SEOs einig, dass beim Panda eine Mischform von mehreren Faktoren zum Tragen kam und nicht nur an einer Stellschraube gedreht wurde. Nehmen wir doch mal die oben aufgelisteten Faktoren unter die Lupe:

Textqualität

Es sind zwar Portale mit mäßigem Inhalt gefiltert worden, jedoch gibt es noch genügend Seiten qualitativ-ähnlichen oder minderwertigeren Content nutzen – bspw. Texte aus Artikel-Spinnern – und keine Verluste aufweisen. Duplicate Content ist auf vielen Domains weiterhin ausreichend vorhanden und auch andere Faktoren wie bspw. die Keyworddichte reichen nicht aus, um so einen Ausschlag in den Suchergebnissseiten zu verursachen. Ich möchte an dieser Stelle auch anmerken, dass Panda sehr domainspezifisch und nicht keywordspezifisch ist. Sieht man sich z.B. die Textqualität von Facebook an werden die entsprechenden Inhalte wohl kaum einen Pulitzer-Preis bekommen.
Interessante neue Faktoren wie der Flesch-Grad (numerischer Wert für die Lesbarkeit, der aus einem Text berechnet werden kann) sind sehr landes- und sprachspezifisch umsetzbar und könnten eventuell irgendwann mal ein Hebel sein. Wobei ich davon ausgehe, dass der Flesch-Grad eher ein keywordbezogener Faktor als ein Domainfaktor sein könnte. Aus diesem Grunde sehe ich die Textqualität nicht als einen der Hauptfaktoren im Panda-Update.

Indexierte Seitenanzahl

Hier kann ich keine Gemeinsamkeiten der Verlierer feststellen und somit fast sicher ausschließen. Da ich einige Seiten kenne, die nur wenige Seiten indexiert aufweisen und ebenfalls betroffen sind, gilt das Panda-Update nicht ausschließlich nur für große Seiten.

Social Web

Google Plus wurde gerade erst gestartet. Es macht also zu diesem Zeitpunkt vermutlich keinen Sinn die Social Plattformen im Suchmaschinenindex zu pushen. Außerdem gehören diese Plattformen meines Erachtens inhaltlich wohl eher nicht zu den hochwertigen Inhalts-Portalen. Dass Facebook zu den Gewinnern gehört, liegt meiner Meinung nach an anderen Zahlen.

Dauer des Besuchs / Seitenimpressionen

Auch dieser Faktor ist für Google auswertbar. Über die Google Toolbar, Google Analytics sowie die Rückkehr auf die Suchseite kann Google feststellen, wie lange ein Besuch gedauert hat. Ist die Zeitspanne sehr kurz, ist der Suchende wahrscheinlich nicht zufrieden gewesen – vor allem wenn danach das nächste Ergebnis angeklickt wird.

Brand Suchen

Mit dem Begriff „Brand Suche“ meine ich den prozentualen Anteil des SEO Traffics, der über das Brandkeyword auf die Seite kommt. Also nicht die Suchhäufigkeit z.B. nach dem Begriff „Ladenzeile“, sondern der SEO Traffic Anteil der Suchphrase „Ladenzeile“ im Vergleich zu den anderen Referern. In diesem konkreten Fall bekommt Ladenzeile.de mehr Besucher über „jumpsuit“ als über den Begriff „Ladenzeile“ selbst. Im Vergleich bekommt Chip.de laut den Alexa-Daten ca. 6,75% der Besucher über die Suchphrase „Chip“. So kann man anhand dieser Daten leicht feststellen, ob eine Webseite rein SEO lastig ausgerichtet ist oder eben der Brand die wichtigste Trafficquelle darstellt. Und genau solche SEO-Seiten die über keinen Brandtraffic verfügen will Google ja abstrafen. Dieser Ansatz wurde durch das Brand-Update noch verdeutlicht. Auch wenn die Zahlen hier nicht genau erhoben werden können, kann man diese durchaus heranziehen, um Tendenzen zu erkennen.

Bouncerate

Kommt der Suchende nach dem Webseitenbesuch auf die Google Suche zurück und klickt das nächste Ergebnis, kann dies ein Signal für Google sein, dass der Inhalt nicht zu der Suchanfrage passt. Ich habe bei vielen Portalen, die verloren haben, festgestellt, dass Google Adsense oder Affiliate sehr klickfreundlich im Content untergebracht wurde. Dies erzeugt natürlich eine höhere Bouncerate. Jedoch kann Google auch hier die CTR der Adsense Anzeigen heranziehen um die Bouncerate zu ermitteln.

Datenbasis

Um die aufgeführten Faktoren zu analysieren, habe ich mir die Daten von Alexa zu Nutze gemacht. Wir tracken momentan mit Piwik und Analytics eine gut dreistellige Anzahl von Domains und können zumindest für unsere Daten sagen, dass wir mit unseren Zahlen relativ nah an der Bouncerate von Alexa liegen und im Schnitt eine Abweichung von 2-3% beobachten. Auch die Seitenimpressionen passen einigermaßen zu unseren Zahlen, sodass wir folgende Auswertung vornehmen können. Auch muss man hier dazu sagen, wenn die Daten vielleicht nicht 100% stimmig sind, sind zumindest alle Daten davon betroffen. Im folgenden werden die Top 10 der Gewinner und Verlierer anhand obiger Kriterien analysiert und ausgewertet:
Zuerst möchte ich den Faktor der Seitenimpressionen untersuchen. Bei den Gewinnern haben fast alle Seiten 3,5 Seitenaufrufe oder mehr. Allein Focus, Golem und Chip haben für einen Gewinner weniger durchschnittliche Seitenimpressionen


Ein deutliches Signal für den Facebook Zuwachs durch das Panda Update könnten die vielen Seitenimpressionen sein. Bei den Verlierern sieht man, dass die Seiten deutlich unter den Gewinnerzahlen liegen. Allein Ladenzeile.de und Yopi.de mischen sich unter die Gewinnerwerte. Hier muss es also noch einen oder mehrere Faktoren geben. Man sieht jedoch deutlich, dass diese Theorie durchaus gerechtfertigt sein könnte, da viele Gewinner-Domains eine höhere Anzahl an PI‘s vorweisen können.


Sieht man sich nun die Bouncerate der Seiten an, sieht man auch eine Schere bei ca. 53-56%. Bei GuteFrage.net wird eine Absprungrate von knapp 70% ausgegeben. Allerdings weisen Wikio und wieder Ladenzeile eigentlich Gewinnerzahlen aus. Betrachtet man also nur diese beiden Faktoren, wäre Focus.de demnach auch ein Verlierer und Ladenzeile.de wäre beide Male auf der Gewinnerseite. Aus diesem Grund müssen wir noch eine dritten Faktor hinzunehmen um den Unterschied der Gewinner bzw. Verlierer auszumachen.
Was zusätzlich noch die Gewinner und Verlierer voneinander unterscheiden ist der Traffic Anteil über die Brandsuche. Während der Focus über das Keyword „Focus“ ca. 4,59% seines SEO Traffics generieren könnte, liegt dieser Wert bei z.B. Yopi, Helpster und Co. nahezu bei 0%.

Leider fehlen hier aber die genauen Vergleichswerte um dann wirklich mit Prozentzahlen zu arbeiten. Den Absturz von Ladenzeile.de mit den aktuellen Daten noch nicht erklären. Ich kann mir aber durchaus vorstellen, dass Ladenzeile hauptsächlich Traffic aus anderen SEO Quellen als aus der Marke bezieht.
Es könnte also durchaus sein, dass die Bouncerate und Impressionen erste Signale an Google senden. Weisen die Werte der Verweildauer, Pis oder Bouncerate schlechte Zahlen aus, könnte die SEO-Traffikquellen einer Domain herangezogen werden um zu ermitteln ob es vorwiegend ein Seo Projekt ist oder ob es auch ohne Google überleben würde.

Eine Kennzahl allein gibt wohl kaum Aufschluss darüber, ob eine Seite gefiltert wird oder nicht.

Mir ist bewusst, dass ich hier nicht die kompletten Daten für eine wasserfeste Analyse zur Verfügung habe und vielleicht auch hier und da daneben liege. Für eine erste Theorie kurz nach dem Update reichen die Daten aber aus. Vielleicht hilft unser Ansatz ja, die Diskussion voran zu treiben und dem einen oder anderen einen Denkansatz zu liefern. Auf Feedback, Kritik eure Ansätze freuen wir uns jetzt schon!
Foto: © Anna Velichkovsky – Fotolia.com

Impressum