Überlegungen zum Panda-Update

Das Google Panda Update ist nun auch in Deutschland angekommen. Von diesem Update sollen laut Google zwischen 6-9% der Suchanfragen betroffen sein. Grund genug sich der Thematik mittels einer Analyse anzunehmen.

Ziel des Updates war es, qualitativ hochwertige Websites weiter vorne zu platzieren, umso eine besser Suchergebnisqualität zu erreichen.



Um entsprechende Seiten zu belohnen, fließen mittlerweile auch Benutzermeinungen per Fragebogen/Email mit ein.
Wenn ich mir nun die Gewinner und Verlierer in den verschiedenen Auswertungen ansehe, gibt es in fast jeder Branche wieder einen Ausgleich. So gehören Gutefrage.net und Cosmiq.de ganz klar zu den Verlierern, während answers.yahoo.com die Verluste der Konkurrenz wieder wett macht.

Vereinfacht gesagt: es fand kein Aussortieren der Frage-Antwort Portale, Artikelverzeichnisse, Personensuchen, PR-Aggregaten usw. statt, sondern lediglich eine Verschiebung innerhalb der Nische mit gezielter Filterung von Seiten.



Aus diesem Grund ist es meines Wissen auch noch keiner Seite gelungen, dem Panda ohne großen Aufwand zu entfliehen. Wer also darauf gehofft hatte, dass der Anteil der Preisvergleiche, Personensuchmaschinen oder Branchenbücher radikal verändert hat, muss sich noch gedulden. Einen sehr interessanten Beitrag über das Panda-Update und Grundlage meiner These lieferte Searchmetrics.

Über mögliche Ursachen für einen Verlust oder Gewinn in der Sichtbarkeit wird seit Freitag heftig diskutiert. Hier natürlich alle möglichen Faktoren aufgeführt und auch Parolen wie „Content is King“ sind nicht zu überhören. Allerdings bin ich der Auffassung, dass dieses Update damit noch nichts mit einer Auswertung der inhaltlichen Qualität zu tun hat. Es ist eher eine Auswertung von Signalen, die User senden wenn Sie auf mäßigen Inhalt treffen.

Analyse Google Panda Update

Wenn man sich mit einigen SEOs über das Panda Update unterhält, fallen immer wieder mögliche Faktoren wie z.B.

  • Textqualität
  • Indexierte Seitenanzahl
  • Brand-Suchen
  • Bouncerate
  • Dauer des Besuchs
  • Willkür
  • Social Web
  • usw.

Allerdings bin ich mir mit den meisten SEOs einig, dass beim Panda eine Mischform von mehreren Faktoren zum Tragen kam und nicht nur an einer Stellschraube gedreht wurde. Nehmen wir doch mal die oben aufgelisteten Faktoren unter die Lupe:

Textqualität

Es sind zwar Portale mit mäßigem Inhalt gefiltert worden, jedoch gibt es noch genügend Seiten qualitativ-ähnlichen oder minderwertigeren Content nutzen – bspw. Texte aus Artikel-Spinnern – und keine Verluste aufweisen. Duplicate Content ist auf vielen Domains weiterhin ausreichend vorhanden und auch andere Faktoren wie bspw. die Keyworddichte reichen nicht aus, um so einen Ausschlag in den Suchergebnissseiten zu verursachen. Ich möchte an dieser Stelle auch anmerken, dass Panda sehr domainspezifisch und nicht keywordspezifisch ist. Sieht man sich z.B. die Textqualität von Facebook an werden die entsprechenden Inhalte wohl kaum einen Pulitzer-Preis bekommen.
Interessante neue Faktoren wie der Flesch-Grad (numerischer Wert für die Lesbarkeit, der aus einem Text berechnet werden kann) sind sehr landes- und sprachspezifisch umsetzbar und könnten eventuell irgendwann mal ein Hebel sein. Wobei ich davon ausgehe, dass der Flesch-Grad eher ein keywordbezogener Faktor als ein Domainfaktor sein könnte. Aus diesem Grunde sehe ich die Textqualität nicht als einen der Hauptfaktoren im Panda-Update.

Indexierte Seitenanzahl

Hier kann ich keine Gemeinsamkeiten der Verlierer feststellen und somit fast sicher ausschließen. Da ich einige Seiten kenne, die nur wenige Seiten indexiert aufweisen und ebenfalls betroffen sind, gilt das Panda-Update nicht ausschließlich nur für große Seiten.

Social Web

Google Plus wurde gerade erst gestartet. Es macht also zu diesem Zeitpunkt vermutlich keinen Sinn die Social Plattformen im Suchmaschinenindex zu pushen. Außerdem gehören diese Plattformen meines Erachtens inhaltlich wohl eher nicht zu den hochwertigen Inhalts-Portalen. Dass Facebook zu den Gewinnern gehört, liegt meiner Meinung nach an anderen Zahlen.

Dauer des Besuchs / Seitenimpressionen

Auch dieser Faktor ist für Google auswertbar. Über die Google Toolbar, Google Analytics sowie die Rückkehr auf die Suchseite kann Google feststellen, wie lange ein Besuch gedauert hat. Ist die Zeitspanne sehr kurz, ist der Suchende wahrscheinlich nicht zufrieden gewesen – vor allem wenn danach das nächste Ergebnis angeklickt wird.

Brand Suchen

Mit dem Begriff „Brand Suche“ meine ich den prozentualen Anteil des SEO Traffics, der über das Brandkeyword auf die Seite kommt. Also nicht die Suchhäufigkeit z.B. nach dem Begriff „Ladenzeile“, sondern der SEO Traffic Anteil der Suchphrase „Ladenzeile“ im Vergleich zu den anderen Referern. In diesem konkreten Fall bekommt Ladenzeile.de mehr Besucher über „jumpsuit“ als über den Begriff „Ladenzeile“ selbst. Im Vergleich bekommt Chip.de laut den Alexa-Daten ca. 6,75% der Besucher über die Suchphrase „Chip“. So kann man anhand dieser Daten leicht feststellen, ob eine Webseite rein SEO lastig ausgerichtet ist oder eben der Brand die wichtigste Trafficquelle darstellt. Und genau solche SEO-Seiten die über keinen Brandtraffic verfügen will Google ja abstrafen. Dieser Ansatz wurde durch das Brand-Update noch verdeutlicht. Auch wenn die Zahlen hier nicht genau erhoben werden können, kann man diese durchaus heranziehen, um Tendenzen zu erkennen.

Bouncerate

Kommt der Suchende nach dem Webseitenbesuch auf die Google Suche zurück und klickt das nächste Ergebnis, kann dies ein Signal für Google sein, dass der Inhalt nicht zu der Suchanfrage passt. Ich habe bei vielen Portalen, die verloren haben, festgestellt, dass Google Adsense oder Affiliate sehr klickfreundlich im Content untergebracht wurde. Dies erzeugt natürlich eine höhere Bouncerate. Jedoch kann Google auch hier die CTR der Adsense Anzeigen heranziehen um die Bouncerate zu ermitteln.

Datenbasis

Um die aufgeführten Faktoren zu analysieren, habe ich mir die Daten von Alexa zu Nutze gemacht. Wir tracken momentan mit Piwik und Analytics eine gut dreistellige Anzahl von Domains und können zumindest für unsere Daten sagen, dass wir mit unseren Zahlen relativ nah an der Bouncerate von Alexa liegen und im Schnitt eine Abweichung von 2-3% beobachten. Auch die Seitenimpressionen passen einigermaßen zu unseren Zahlen, sodass wir folgende Auswertung vornehmen können. Auch muss man hier dazu sagen, wenn die Daten vielleicht nicht 100% stimmig sind, sind zumindest alle Daten davon betroffen. Im folgenden werden die Top 10 der Gewinner und Verlierer anhand obiger Kriterien analysiert und ausgewertet:
Zuerst möchte ich den Faktor der Seitenimpressionen untersuchen. Bei den Gewinnern haben fast alle Seiten 3,5 Seitenaufrufe oder mehr. Allein Focus, Golem und Chip haben für einen Gewinner weniger durchschnittliche Seitenimpressionen


Ein deutliches Signal für den Facebook Zuwachs durch das Panda Update könnten die vielen Seitenimpressionen sein. Bei den Verlierern sieht man, dass die Seiten deutlich unter den Gewinnerzahlen liegen. Allein Ladenzeile.de und Yopi.de mischen sich unter die Gewinnerwerte. Hier muss es also noch einen oder mehrere Faktoren geben. Man sieht jedoch deutlich, dass diese Theorie durchaus gerechtfertigt sein könnte, da viele Gewinner-Domains eine höhere Anzahl an PI‘s vorweisen können.


Sieht man sich nun die Bouncerate der Seiten an, sieht man auch eine Schere bei ca. 53-56%. Bei GuteFrage.net wird eine Absprungrate von knapp 70% ausgegeben. Allerdings weisen Wikio und wieder Ladenzeile eigentlich Gewinnerzahlen aus. Betrachtet man also nur diese beiden Faktoren, wäre Focus.de demnach auch ein Verlierer und Ladenzeile.de wäre beide Male auf der Gewinnerseite. Aus diesem Grund müssen wir noch eine dritten Faktor hinzunehmen um den Unterschied der Gewinner bzw. Verlierer auszumachen.
Was zusätzlich noch die Gewinner und Verlierer voneinander unterscheiden ist der Traffic Anteil über die Brandsuche. Während der Focus über das Keyword „Focus“ ca. 4,59% seines SEO Traffics generieren könnte, liegt dieser Wert bei z.B. Yopi, Helpster und Co. nahezu bei 0%.

Leider fehlen hier aber die genauen Vergleichswerte um dann wirklich mit Prozentzahlen zu arbeiten. Den Absturz von Ladenzeile.de mit den aktuellen Daten noch nicht erklären. Ich kann mir aber durchaus vorstellen, dass Ladenzeile hauptsächlich Traffic aus anderen SEO Quellen als aus der Marke bezieht.
Es könnte also durchaus sein, dass die Bouncerate und Impressionen erste Signale an Google senden. Weisen die Werte der Verweildauer, Pis oder Bouncerate schlechte Zahlen aus, könnte die SEO-Traffikquellen einer Domain herangezogen werden um zu ermitteln ob es vorwiegend ein Seo Projekt ist oder ob es auch ohne Google überleben würde.

Eine Kennzahl allein gibt wohl kaum Aufschluss darüber, ob eine Seite gefiltert wird oder nicht.

Mir ist bewusst, dass ich hier nicht die kompletten Daten für eine wasserfeste Analyse zur Verfügung habe und vielleicht auch hier und da daneben liege. Für eine erste Theorie kurz nach dem Update reichen die Daten aber aus. Vielleicht hilft unser Ansatz ja, die Diskussion voran zu treiben und dem einen oder anderen einen Denkansatz zu liefern. Auf Feedback, Kritik eure Ansätze freuen wir uns jetzt schon!
Foto: © Anna Velichkovsky – Fotolia.com

Comments

  1. Hallo Thomas,

    Sehr gute Analyse, vor allem die Herangehensweise ist sehr strukturiert! Die Info, dass die öffentlich einsehbaren Parameter bei Alexa hinreichend mit echt gemessenen Werten korrelieren ist hierbei die wertvollste, denn das lässt zu, dass ich bei meiner Analyse alles ein wenig größer aufsetzen kann 🙂
    Das komplexe an Panda ist, dass jede scheinbar erkannte Korrelation durch ein Webseitenbeispiel gegenbewiesen werden kann.

    Viele Grüße,

    Markus von Yopi.de

  2. Sehr gut beschriebener Artikel. Ich sehe das auch so, ein echtest aussortieren von fragwürdiegn Seiten wie Personensuchmaschinen usw, fand nicht statt. Hier haben einige verloren, andere Contentschleudern dafür gewonnen.

  3. Hallo Thomas,
    sehr schöner Analyse von dir. Die Verlierer könnten morgen wieder Gewinner sein, denn es wird mit Sicherheit wieder ein schnelles Panda-Update geben. (siehe usa) Aber der Kern des Posts stimmt zu 100% 🙂
    Grüße
    Dawid

  4. Ein guter Artikel, der auch anhand von konkreten Zahlen und Beispielen dem Panda-Update auf den Grund geht. Auch wenn man es noch nicht in seiner Gänze einschätzen kann, gehen die Änderungen des Panda-Updates für mich aber in die richtige Richtung.

  5. Klasse Artikel und sehr interessanter Analyse. Vielen Dank Thomas. Bin echt gespannt wann der Gockel die ersten Anpassungen vornimmt.

  6. Schöne Idee mit den Alexa Daten Tom. Sehr guter Artikel. Muss man noch ein wenig weiter spinnen, aber für einen ersten Eindruck sind die Grafiken schon top.

  7. Hallo Thomas,

    sehr guter Artikel. Ich sehe es genauso wie Dawid das es noch in der nächsten zeit einiges an verschiebungen geben wird. Ich denke man sollte einfach Abwarten und Tee trinken und jetzt nicht all zu hecktisch an den Seiten arbeiten. Wer seine Hausaufgaben gemacht wird eh keine Probleme haben der wird sicherlich sogar noch belohnt werden.

    Gruß

    Patrick

  8. Danke für diesen sehr guten Artikel!

    Ich bin ebenfalls der Meinung, dass es sich beim Panda eine Mischform von mehreren Faktoren handelt. Sonst wäre nicht wirklich zu erklären, warum einige Seiten, die vehement manchen der genannten Kriterien widersprechen,dennoch nicht von den Auswirkungen des Updates getroffen worden sind.

  9. Feinfein. Da wurden die Behauptungen auch mal für DE mit Zahlen unterlegt. Bin gespannt auf das erste Gegenbeispiel 🙂

    Kann Deinen Erklärungsansatz aber mit einigen und Kunden-Projekten nachvollziehen. Ein Blick auf die Keyworddomains erscheint mir derzeit sehr aufschlussreich…

  10. Wirklich sehr schöne Analyse. Ich denke Google wird auf sehr viele Meta Daten geachtet haben – ich denke die textliche Qualität zu beurteilen ist bei einem beinahe weltweiten Roll-out auch für Google unmöglich. Also besonders die schon genannten Verdächtigen: Bounce Rate, Page Views, Verbrachte Zeit. Aber es gibt einfach auch unglaublich viele Abweichungen von den Vermutungen – da wurde wohl an sehr vielen Schrauben auf einmal gedreht. Ich bin mal gespannt, ob es weitere Iterationen gibt und wie sich die SERPs sowohl im Shorthead als auch im Longtail verändern.

  11. boooahr der Panda am Anfang is ja geil! den hau ich mir gleich in die E-Mail Sginatur 🙂

    Btw. sehr schöner Artikel und Übersicht und danke für die Bestätigung mit Alexa, hab‘ auch schon die Erfahrung gemacht das deren Daten besser als ihr Ruf sind.

  12. Ein feiner Bericht.Das Grundkonzept des Artikels stimmt, allerdings könnten die großen Sieger von heute nach dem nächsten Panda Update auch schon die großen Verlierer von Morgen sein. Bleibt allerdings abzuwarten wie es sich entwickeln wird.

Trackbacks

  1. […] für jeden identifizierten Beeinflussungsfaktor auch immer wieder ein Gegenbeispiel bereitsteht. Seoratio hat zu dieser Problematik einen schönen Artikel verfasst und alle Panda-Irrtümer aufgedeckt: Sagt […]

  2. […] Augsburger Seo Agentur Seoratio hat eine Analyse zum Thema Google Panda Update veröffentlicht, in der mögliche neue Faktoren […]

  3. […] hat sich mit den Qualitätsfaktoren von Websites etwas ausführlicher auseinandergesetzt und geht vertiefend auf verschiedene Faktoren ein. Hier […]

  4. […] mit dem berüchtigten Panda Update von Google. Gefühlt gab es eine Inflation an Artikeln über das Panda-Update, was die Anzahl angeht. Der Artikel schlüsselt aber alle Fakten sauber auf und gibt einen guten […]