Die interne Verlinkung der Wikipedia

wikipedia-logo

Die Wikipedia ist die Webseite mit dem höchsten Sichtbarkeitsindex der Welt und die 6. häufigst verlinkte Webseite des Internets. Laut dem Sistrix Tool ist die Wikipedia mit circa einer halbe Million Treffer in den deutschen Top 10 vertreten. Keine andere Webseite weist so viele Top-Platzierungen im deutschen Suchmaschinenindex auf. In diesem Artikel zeigen wir, dass der Erfolg der Wikipedia nicht nur auf der externen Verlinkung und der Qualität der Inhalten beruht, sondern auch auf einen bemerkenswerten strukturellen Aufbau zurückzuführen ist.

Die Wikipedia ist das am häufigst genutzte Online-Nachschlagewerk. Qualitätsauflagen wie manuelle Überprüfungen, gepaart mit Inhaltsrichtlinien sorgen dafür, dass die Enzyklopädie einen sehr hohen Vertrauensbonus bei Suchmaschinen und Usern hat. Wikipedia hat bei Google nicht erst seit einer Millionenspende aus dem Jahr 2010 eine Sonderstellung. Google selbst bezieht viele seiner Inhalte für den Google Knowledge Graph aus der Wikipedia und Google Gründer Sergey Brin bezeichnete sie einst als „einen der größten Triumphe des Internet.“

Natürlich lässt dies vermuten, dass sich die Sonderrolle auch auf Platzierungen bezieht und die Wikipedia in den Suchergebnissen gesondert behandelt wird. Betrachtet man jedoch die wichtigsten Rankingfaktoren, so weisst die Wikipedia bei allen Grundpfeilern der Rankingfaktoren exzellente Werte auf.

Content-Qualität

Inhaltlich ist die Wikipedia das Maß aller Dinge. Es gibt viele Artikel mit mehr als 30.000 Wörtern, wie zum Beispiel die Artikel über:

  • Stuttgart-Zuffenhausen ( 33.169 Wörter)
  • die Staatskrise Ägyptens (34.360 Wörter)
  • oder die Geschichte Osttimors (38.175 Wörter)

Selbst ein vergleichsweise kurzer Artikel, wie der über die deutsche Wiedervereinigung, weist 14.470 Wörter auf und gehört in Punkto Informationsgehalt, Strukturierung sowie Aufbau zum wohl besten, was im deutschsprachigen Internet über dieses Thema geschrieben wurde.

Eingehende Links

wikipedia-backlinks

Viele Links davon entstehen durch Erklärungsverweise. Jeder Autor kennt dies: anstatt seinen Artikel mühevoll mit der Erklärung von Fachbegriffen aufzublähen, verweist der Redakteur auf die Wikipedia. Ein Indiz dafür ist das Verhältnis von Startseiten- zu Unterseitenlinks. Bei der Wikipedia sieht man sehr schön, dass im Gegensatz zu vielen anderen Webseite die Unterseiten im Verhältnis viel prominenter verlinkt werden, als die Startseite. Bei einer Auswertung von ca. 3000 Backlinkquellen verlinken 88% aller Webseiten auf Unterseiten.

wikipedia-statseite-deeplinks

Da Google solche Verlinkungen als Empfehlungen interpretiert, bekommt die Wikipedia durch die hohe Anzahl an Backlinks sehr viel Vertrauen zugesprochen. Kurz gesagt: es macht also Sinn, eine oft verlinkte Webseite besser in den Suchergebnissen zu listen.

Allerdings ist die Wikipedia auch mit vielen Themen gelistet, bei denen sie nicht von extern verlinkt wurde und auch nicht den für die Google-Besucher besten Inhalte bietet.

Ein Beispiel hierfür ist der Begriff Hotel. Die Suchintention hinter diesem Begriff ist vorwiegend kommerziell – der User sucht eine Übernachtungsmöglichkeit und trotzdem hat Wikipedia eine Top 20 Platzierung.

Neben Content-Qualität und externen Links scheint demnach der dritte Grundpfeiler – die interne Struktur – des Suchalgorithmus ebenfalls eine wichtige Rolle beim Ranking der Wikipedia zu spielen. Deshalb setzen wir uns nun intensiver mit der Struktur der Wikipedia auseinander und analysieren ihren Aufbau.

Interne Struktur

Um die Struktur der Webseite zu verstehen, müsste man genau genommen alle Unterseiten aufrufen und die Beziehungen untereinander auswerten. Dies ist bei einer so großen Anzahl von Artikel nur sehr schwer möglich. Schenkt man der „site-Abfrage“ von Google Vertrauen, sind aktuell ca. 76 Mio Dokumente im Suchmaschinenindex. Natürlich ist die Dunkelziffer deutlich höher. Laut der Wikipedia-Statistikseite gibt es für die deutsche Wikipedia ca. 5 Mio Unterseiten. Aus diesem Grund haben wir uns bei der Analyse auf die deutschsprachige Wikipedia fokussiert. In unserer Datenerhebung haben wir unseren Crawler auf 10 Mio. Seiten beschränkt und sind zu folgenden Werten gekommen:

untersuchte Metriken: Anzahl:
Gecrawlte Seiten 9.905.225
Seiten mit Headercode 200 OK 7.351.126
Anzahl Links Seiten 1.026.880.462
Anzahl externe Links 182.968.808
Anzahl Seiten 404 – Nicht gefunden 750.384
Seiten mit Noindex 5.429.901

 

Grundlagenwissen: Gewichtung von Webseiten

Mitte der 90er Jahre gab es noch keine leicht-skalierbaren Cloud-Lösungen zur Datenspeicherung und somit nur endliche Ressourcen. Hardware – insbesondere Festplattenspeicher – war sehr teuer und mit der heutigen Speicherkapazität nicht zu vergleichen. Um ressourcen-sparend arbeiten zu können, stand Google vor der großen Aufgabe, wichtige von unwichtigen Seiten zu unterscheiden.

Der neuartige Ansatz von Google war, Links nicht nur als Verknüpfung zu sehen, sondern als Empfehlung zu werten. Je mehr Links ein Dokument bekommt, desto mehr Empfehlungen erhält dieses. Je mehr Empfehlungen, desto wichtiger scheint dieses Dokument zu sein. Der PageRank-Algorithmus war geboren. Über den PageRank schaffte es Google, eine deutliche Verbesserung der Performance zu erreichen. Es ist nicht Ziel dieses Beitrages, den Algorithmus genauer zu beleuchten, deswegen gehen wir an dieser Stelle nicht tiefer auf diese Materie ein.

Ein wichtiger, in der PageRank-Formel verankerter Punkt, ist die sogenannte Vererbung. Über Links vererbt sich PageRank von Seite zu Seite und gibt einen bestimmten Wert weiter. Dieser Wert wird auch als Linkjuice bezeichnet. Der Linkjuice verteilt sich innerhalb einer Domain über die Links. Jede Seite, die dabei verlinkt wird, bekommt Linkjuice gutgeschrieben.

Dabei wird für die gesamte Domain berechnet, dass prominenter verlinkte Seiten mehr Linkjuice bekommen als weniger prominent verlinkte Seiten. Das Resultat bezeichnet man als internen Linkgraph. Bricht man diesen Sachverhalt auf einen Satz herunter, kann man sagen, dass der PageRank Algorithmus die interne Durchblutung einer Webseite regelt.

Ein erstes Signal um zu erkennen, wie sich PageRank durch eine Domain bewegt, ist die Analyse der Pagerank-Verteilung aller Unterseiten einer Domain über die Google Toolbar. Der Toolbar PageRank wird mittlerweile nur noch selten aktualisiert. In der Auswertung ist dies eher zu vernachlässigen, da die Werte hauptsächlich relativ zu einander zu betrachten sind – schließlich ergeben sich wenige Veränderungen, da sich eine Webseitenstruktur in der Regel selten in großem Umfang ändert.

Während bei der Betrachtung des reinen internen Linkgraphen nur Beziehungen der Unterseiten zueinander analysiert werden, wird durch die Integration des Toolbar-Pageranks die externe Verlinkung mit einbezogen.

Die PR Verteilung der Wikipedia sieht dabei wie folgt aus.
wikipedia-pr-verteilung

Hier schafft es die Wikipedia, den Linkjuice sehr gut absteigend durchzureichen. Insgesamt weisen 1,4 Mio. Seiten einen PageRank aus. Man kann sehr gut die steigende Anzahl der Seiten erkennen, je niedriger der Pagerank wird:

Pagerank: Anzahl Seiten:
PR 8 10
PR 7 76
PR 6 3934
PR 5 59.229
PR 4 491.702
PR 3 668.093
PR 2 139.766
PR 1 15.358
PR 0 38.672

Auffällig ist die rückläufige Anzahl an Seiten mit einem Pagerank < 3. Aus diesem Grunde wollen wir uns ansehen, wie viele Links durchschnittlich auf den Seiten vorhanden sind. In der folgenden Grafik werden alle Links pro Seite aufgeführt.

wikipedia-links-seite
In dieser Grafik wird deutlich, dass es bei der Wikipedia ca. 3,5 Mio. Seiten gibt, die ungefähr 100 Verzweigungen aufführen. Dazu kommen weitere 1,5 Mio Seiten mit weniger als 150 Links pro Seite. Wie oben beschrieben, teilt sich der Linkjuice durch die Anzahl der Links auf einer Seite auf. Bewegt sich die Anzahl der Links auf einer Seite zwischen 100 und 150 Links, wird der Linkjuice sehr gut verteilt. Erst ab einer Anzahl von 300 oder mehr Links pro Seite, wird nicht mehr genügend Linkjuice weiter gegeben.

Diese These stützt sich auf unsere Untersuchungen aus der Zeit, als der Toolbar-Pagerank noch öfter aktualisiert wurde. Aus diesem Grund wurden die idealen Werte in der Grafik grün hinterlegt.
Mich hat diese Auswertung persönlich sehr überrascht. Gefühlt gibt es auf den Wikipedia sehr viele Verlinkungen. Ich hätte vermutet, dass die durchschnittliche Linkanzahl deutlich höher liegt. Betrachtet man aber die Navigation innerhalb der Wikipedia wird schnell der Grund dafür klar

Ontologie

Die Navigation der Wikipedia entspricht einer speziellen Form der Informationsarchitektur. Normalerweise gibt es eine leicht verständliche Menü-Navigation. Hier wird man von der Hauptkategorie auf Unterkategorien und deren Unterkategorien immer tiefer in die Seite geführt. So kommt man über die Rubrik „Mode“ in „Herren“ und danach in „Hose“.

Diese Menüführung bezeichnet man auch als Taxonomie. Während die Taxonomie fest verdrahtet erscheint, stellt die Ontologie logische Relationen dar. Hier kann eine Kategorie auch mehrere Überkategorien besitzen. Die Kategorien sind also nicht in einer festen Hierarchie darstellbar. So würde sich bei dieser Darstellung eher eine Art Ball ergeben.Eine Ontologie ist dadurch viel komplexer, schwieriger zu erstellen und zu verstehen. Folgende Grafik veranschaulicht die logischen Unterschiede.

wikipedia-ontologie
Diese Ontologie legt bei der Wikipedia die Navigation fest. Auf der Wikipedia gibt es kein Menü anhand dem man navigiert, sondern man bewegt sich vielmehr durch Verlinkungen im logischen Kontext. Hier ein Beispiel des Wikipedia Artikels zu Hosen:

wikipedia-hosenarten

Anhand dieser Links kann man sich nun weiter durch die Seite bewegen. Man kann sich sowohl tiefer in ein Thema hinein klicken, als auch wieder generischer werden. Allerdings bleibt man in den meisten Fällen nah an einem Themenbereich.

Bundweite„, „Bundfalten„, „Bügelfalte„, „Strumpfhosen“ und „Unterhosen“ sind alles Begriffe, die thematisch sehr nahe mit dem Thema Hosen zusammen hängt. Diese themennahe Verlinkung bewirkt, dass die Linkanzahl niedrig bleibt. Zusätzlich spielt hier noch die Verlinkung aus dem Inhaltsbereich eine Rolle, die Google zusätzlich belohnt. Da die Linkanzahl pro Seite ca. 100 Links entspricht, stellt sich aber die Frage, wie es der Wikipedia gelingt intern so viele Seiten zu verlinken.

Seitenebenen

Um dieser Frage auf den Grund zu gehen, schauen wir uns die Verteilung der Seitenebenen an. Eine Seitenebene spiegelt die Klicks wider, die man benötigt um zu dieser Seite zu navigieren. Ist eine beliebige Seite frühestens über 6 Klicks von der Startseite erreichbar, liegt diese so gesehen auf der 6. Ebene.
Die Verteilung der Wikipedia ist auch in dieser Betrachtung bemerkenswert. Die Grafik zeigt, dass alle 10 Mio. Seiten über maximal 6 Klicks erreichbar sind. Natürlich spielt hier auch die oben beschriebene Navigation eine große Rolle. Die meisten Seiten sind aber innerhalb 4-5 Klicks erreichbar.

wikipedia-seitenebenen

Gerade bei einer so großen Seite ist eine solche Darstellung eine Kunst. Bei der Wikipedia geschieht dies vor allem dadurch, dass die meisten Seiten der 3 Ebene viele unterschiedliche Themen verlinken und somit auf Ebene 4 anheben.

Ganz gezielt wird dies auch durch Themenüberblicke bei Mehrbedeutungen erreicht. Ein gutes Beispiel ist die Seite: http://de.wikipedia.org/wiki/Thomas_M%C3%BCller, die ganz geschickt als Verteilerseite fungiert.
wikipedia-thomas-mueller

Auf dieser Seite werden alle Seiten verlinkt, die mit dem Namen „Thomas Müller“ in Zusammenhang stehen. Die Seite selbst liegt auf 4. Ebene. Ein Link zeigt beispielsweise auf die Seite des Fußballers Thomas Müller. Da die Seite eines so bekannten Sportlers relativ schnell von anderen Seiten aus erreichbar ist, liegt sie selbst auf einer sehr hohen Ebene, nämlich der zweiten. http://de.wikipedia.org/wiki/Thomas_M%C3%BCller_(Fu%C3%9Fballspieler). Dies lässt sich auch direkt in der Wikipedia nachvollziehen. In der linken Navigation gibt es unter dem Punkt „Werkzeuge“ einen Punkt „Links auf diese Seite“. Dort wird eine Linkliste aufgeführt, die alle internen Links auf auf die jeweilige Seite aufführt. Durch den Link in der seitlichen Navigation wird diese Verteilerseite auf die dritte Ebene angehoben.

Natürlich ist dies kein Einzelfall. Spezialseiten dieser Art werden auf allen Inhalts-Seiten der Wikipedia eingesetzt. Aus SEO-Sicht haben sie den Vorteil, die Ebenenzahl niedrig zu halten. Somit muss der PageRank nicht über viele Ebenen fließen, sondern wird nur auf die oben angesprochen 6 Ebenen verteilt. Ein besonderer Punkt ist, dass durch die beidseitige Verlinkung von Inhalts- auf Spezialseite und von Spezialseite auf Inhaltsseite, sich die gleiche Themen durch eine Rückverlinkung gegenseitig stärken. Die Durchblutung ist somit sehr gut umgesetzt.

Natürliche interne Linktexte

Ein weiterer Punkt der bei der Wikipedia sehr gut umgesetzt ist, ist die Natürlichkeit der Linktexte. Durch den „User-Generated-Content“ und die damit verbundene Möglichkeit, Linktexte individuell zu vergeben, entsteht eine natürliche Variation der Verlinkungen.

Um beim Beispiel Thomas Müller zu bleiben: Die Unterseite weist 670 interne Links von anderen Wikipedia-Seiten auf, wobei immer unterschiedliche Namensversionen verlinkt werden.
Neben dem offensichtlichsten Linktext „Thomas Müller“ kommen auch andere Schreibweisen wie „Müller, Thomas“, die Abkürzung „T. Müller“ oder andere Begrifflichkeiten wie „Nationalspieler“ zum Einsatz. Die daraus resultierende Relevanz für eine Vielzahl an Suchbegriffen hat zur Folge, dass die Seite aufgrund ihrer Stärke auch zu vielen dieser unterschiedlichen Suchphrasen gelistet wird.

wikipedia-interne-links

Durch Googles besseren Umgang mit Semantik zeigt sich an diesem Beispiel, dass variierende interne Linktexte mittlerweile durchaus einen Hebel darstellen können.

Noindex

Innerhalb der Wikipedia gibt es sehr viele administrative Seitentypen, die sich von den üblichen Inhaltsseiten unterscheiden. Darunter fallen Benutzer- und Diskussionsseite, Archive, Statistikseiten Logbücher. Da diese für die Suchmaschine irrelevant erscheinen, werden solche Inhalte konsequent mit der Vergabe von Noindex aus den Suchmaschinen verbannt. Durch einige der administrativen Seiten wäre die Gefahr für duplicate oder thin Content sehr groß, etwa auf nicht ausgefüllten Profilseiten oder Logseiten.
Andere Seitentypen neigen dazu, diverse Panda Signale senden. Unter Panda-Signalen verstehen wir Kennzahlen, die Google heranziehen kann, um schlechte Inhalte zu identifizieren. Logbücher und Statistikseiten zeichnen sich vorwiegend durch hohe Absprungraten und eine kurze Verweildauer aus.

Da die Anzahl dieser Seiten sehr hoch ist, würde so das Gesamtbild verfälscht werden. Die Vergabe von Noindex für genau diese Seitentypen ist somit eine der Möglichkeiten, negative Signale an die Suchmaschinen zu vermeiden. Allerdings sollte Google selbst festzustellen können, dass sie keinen Mehrwert für den Suchmaschinenindex liefern und deshalb nicht aufgenommen werden sollten. Durch Einsatz von rel=nofollow bei der Verlinkung von administrativen Seiten könnte dies besser gelöst werden. Das so genannte Crawlbudget würde sich dadurch auf die indexierbaren Seiten verteilen, was bedeutet, dass wichtige Seiten öfters gecrawlt werden.

404-Seiten

Die Anzahl der Seiten, die einen 404er Headercode senden, ist bei der Wikipedia enorm hoch. Aktuell sind circa 750 000 durch fehlerhafte Links zustande gekommenen 404er Seiten zu verzeichnen. Bei unserer Datenerhebung macht dies 7,5% aller Seiten aus. Unserer Ansicht nach wird bei diesen Seiten Linkjuice und Crawlbudget vergeudet. Allerdings darf man im Falle der Wikipedia nicht alles rein aus SEO- bzw. technischer Sicht betrachten. Vermutlich steckt hier ein System dahinter, um neue Inhalte zu fördern. Ein Indiz für diesen Ansatz ist, dass fehlerhafte Links rot darstellt werden. Hier werden also bewusst Seiten verlinkt die es noch nicht gibt. Am Beispiel der Übersichtsseite von http://de.wikipedia.org/wiki/Thomas_M%C3%BCller sehen wir, dass zwei Links rot eingefärbt sind. Momentan fehlt beispielsweise noch ein Artikel über den Grafiker Thomas Müller, der von einem kundigen Autor verfasst werden könnte.

Natürlich ist ein 404er Headercode eine mögliche Herangehensweise. Aus Sicht der internen Verlinkung wäre es allerdings geschickter, einen Headercode 200 zu senden und die Seiten auf „Noindex“ zu setzen, solange für eine Unterseite noch keine Inhalte vorliegen. Dies hätte den Vorteil, dass mehr Linkjuice für Inhaltsseiten übrig bliebe, da Linkjuice auf 404er Seiten verpufft und nicht weiterfließt.

Fazit

Die Wikipedia ist nicht nur aufgrund ihrer externen Links so erfolgreich. Die starke Verlinkung ist sicherlich mit der Hauptgrund für die vielen sehr guten Platzierungen. Dazu kommt, dass die Wikipedia über viele Artikel verfügt, die inhaltlich kaum zu übertreffen sind und alle Facetten eines Themas abbilden. Allerdings wird die Kombination aus Backlinks und Inhalt durch die Struktur gestützt.

Die interne Verlinkung ist sehr wohl durchdacht und weist einen strukturellen Aufbau vor, den Google bevorzugt. Die Verteilung des Linkjuices über wenige Ebenen, wenige Links auf den Seite und sinnvolle Querverlinkungen sind bemerkenswert umgesetzt. Gerade die Rückverlinkungen und der ontologische Ansatz führen dazu, dass sich Themen gegenseitig stärken. Durch Verteilerseiten wie den „Links auf diese Seite“ oder Übersichten schafft es die Wikipedia die Ebenen flach zu halten. Dazu kommt, dass unwichtige Teile der Webseite nicht indexiert werden. Somit wird erst gar kein möglicher Ballast für die Suchmaschine freigegeben. Die Anzahl der 404er Seiten ist zwar hoch und könnte unter Umständen besser gelöst werden. Jedoch ist sie als Anreiz für Autoren gedacht und mit einer sinnvollen Funktionalität verknüpft – nämlich Autoren zu animieren, fehlenden Content zu ergänzen.

Nach einer intensiven Beschäftigung mit der internen Strukturierung der Wikipedia ist mir deutlich geworden, dass bei Wikipedia ein Verständnis für die Prinzipien der modernen Suchmaschinenoptimierung vorherrscht. Hier zu vermuten, dass die interne Verlinkung der Wikipedia ohne Konzept entstanden ist, entbehrt wohl jeder Grundlage. Das Zusammenspiel der Backlinks, des Inhalts und der Struktur bedient sehr viele Google Faktoren ideal. Für mich persönlich dient Sie als sehr gutes „Best-Practice“ Beispiel der internen Verlinkung.

Comments

  1. Sehr guter und ausführlicher Artikel zur internen Verlinkung der Wikipedia. Vielen Dank, Thomas.
    Nur eine Anmerkung: Ist die interne Verlinkung mit rel=nofollow, also das Pagerank Sculpting, nicht seit 2008 ohne gewünschte Wirkung, was die Pagerank und somit auch die Crawlbudget Verteilung angeht? Siehe: http://www.mattcutts.com/blog/pagerank-sculpting/
    Matt Cutts empfiehlt auch in einem Video aus 2013 lieber auf noindex zu setzen: http://www.youtube.com/watch?v=86GHCVRReJs
    Hast du andere Erfahrungen gemacht?

    • Thomas Zeithaml says:

      Hi Andreas,
      ja sehr guter Punkt und prinzipiell hast du Recht. Mir geht es dabei aber eher darum, den Bot gar nicht in Bereiche zu schicken, die er eh nicht aufnehmen darf. Sozusagen als Schutz, dass sich der Bot nicht mit unwichtigen Seiten beschäftigt und crawlt. (Siehe Bot Herding). Das wären am Beispiel der Wikipedia knapp 5 Mio. Seiten bei denen er feststellen würde, dass diese nicht indexiert werden dürfen. Dafür ist dann die rel=nofollow Methode sehr gut geeignet, da Google diesen Links nicht mehr folgt. Der Linkjuice würde an dieser Stelle aber verpuffen.

      • Servus Tom,

        erst einmal danke für den Artikel und die Analyse! Top aufgearbeitet!
        Das mit rel=“nofollow“ für interne Links zu unwichtigen Seiten ist interessant. Sofern das wirklich so ist – und davon gehe ich nach deinen Recherchen aus – ist das definitiv eine interessante Möglichkeit. Wobei man aufpassen muss, das nicht zu verallgemeinern. So macht es beipsielsweise sicherlich keinen Sinn, Links die sitewide eingebunden sind (z.B. zum Impressum, AGBs, usw.) auf „nofollow“ zu setzen. Hier würde kaum Crawl-Budget gespart aber viel Link-Juice verschwendet werden…

        LG

        Tobias

        • Thomas Zeithaml says:

          Genau ! Normalerweise empfehle ich alle rel=nofollow Links auf Dofollow umzustellen, weil sonst der Linkjuice verpufft. Wenn es aber darum geht, den Bot nicht in Bereiche mit z.B. dynamischen URLs zu lassen, sehe ich rel=nofollow als bewährtes Mittel an.

  2. Der Artikel ist sehr schön veranschaulicht. Top recherchiert!

  3. Danke für den Artikel, war sehr schön zu lesen wie so ein großes Projekt aufgebaut ist. Ob die das mit den sechs Ebenen aus SEO-Sicht so aufgebaut haben – hmmm – da bin ich mir gar nicht so sicher. Bei dem Textvolumen und Umfang fällt etwas weniger oder mehr SEO vielleicht gar nicht schlimm ins Gewicht. Ich denke, es spielt eher eine Rolle wie von google hier eingegriffen wird.

Trackbacks

  1. […] Zeithaml zeigt in seinem neuen Artikel “Die interne Verlinkung der Wikipedia” auf, wie die Website mit dem weltweit höchsten Sichtbarkeitsindex strukturell aufgebaut […]

  2. […] Anfang der Woche hat Thomas Zeithaml in einem ausführlichen Artikel auf Seoratio.de die Verlinkungen und den Aufbau der Online-Enzyklopädie Wikipedia untersucht – dabei hat er sich nicht nur die Verlinkungen auf Wikipedia von externen Seiten angeschaut, […]

  3. […] Die interne Verlinkung der Wikipedia […]

  4. […] Die interne Verlinkung der Wikipedia – Wikipedia ist die Webseite mit dem höchsten Sichtbar-keitsindex und die 6. häufigst verlinkte Seite des Internets. Laut Sistrix ist Wikipedia mit einer halbe Million Treffer in den deutschen Top 10 vertreten. Weiter… […]