Main menu:

Suche

Kategorien

September 2018
M D M D F S S
« Feb    
 12
3456789
10111213141516
17181920212223
24252627282930

Archiv

Achtung: Dieser SEO Blog ist nicht mehr aktuell, mein aktueller Blog findet sich unter http://www.markus-kindler.de/blog/


Traffic als Ranking-Faktor?

Ich lese in letzter Zeit in einigen Blogs darüber, wie Google die Trafficanalyse für das Ranking benutzen könnte. Der Grund hierzu war, dass Google ein Patent zur Traffic-abhängigen Ranking-Bewertung veröffentlicht hat. Dieses bezieht sich zwar nur auf Werbung lässt sich aber trotzdem wundebar auch für die normale Suche benutzen.

Wunderbar? - Nicht ganz, dazu gibt es mittlerweile einige Diskussionen unter den SEOs, wozu ich hiermit auch mal meinen Senf abgeben will.

Zunächst einmal woher kann Google eigentlich seine Daten für die Auswertung des Traffics nehmen? Dazu mal folgende Liste:

  • Google Analytics
  • Google AdSense
  • Google Toolbar

Über Analytics und AdSense denken viele zunächst einmal nach, hier dürften die Daten (zumindest bei den benutzenden Seiten) sehr ausführlich vorhanden sein. Die Lücken die durch Seiten entstehen, die keinen Google Dienst benutzen kann man über die Toolbar zum größten Teil abdecken. Damit hat dann Google zu so gut wie jeder Seite eine Traffic Statistik und die Aussagen, dass Webseiten mit Analytics/AdSense bevor- oder benachteiligt werden, sind belanglos.

Aufbauend auf den zur Verfügung stehenden Daten kann Google nun die einzelnen Webseiten bewerten. Logisch erscheint hierbei zunächst einmal, desto länger ein Nutzer auf der Seite bleibt, desto relevanter war sie für ihn. Dies zählt für viele Suchen, doch leider nicht bei allen, in den diversen Blogs habe ich dazu 3 Beispielfälle gefunden:

  1. Webkataloge
  2. BLZ Verzeichnisse
  3. Produktseiten

1. Webkataloge
Einige behaupten ja, dass Webkataloge in den Serps eigentlich generell Spam sind, was ich aber so nicht bestätigen will. Je nachdem können sie den Suchenden schon weiterhelfen, weshalb man sie nicht ignorieren darf. Das Problem bei Webkatalogen ist, dass der Besucher nur sehr kurze Zeit auf der Seite bleibt. Schnell kehrt er entweder zu Google zurück, oder klickt auf einen der Links im Katalog. Die Verweildauer kann hier also nicht als Kriterium genutzt werden. Doch ist der Klick auf den Link (den Google spätestens über die Toolbar feststellen kann) hier ein entscheidendes Kriterium. Hiermit zeigt der Sucher Google, dass dieses Ergebnis (also der Webkatalog) relevant war für die Suche.

2. BLZ Verzeichnisse
Dieses Beispiel von einem Kommentar von Bianca bei SEOigg, hat mich übrigens überhaupt erst auf die Idee zu diesen Post gebracht. Aber zurück zum Thema: Bei einem Bankleitzahlen Verzeichnis, aber auch bei vielen anderen Webseiten, findet man als Sucher die Informationen die einen interessieren auf anhieb auf der Seite und die Sache ist in 10 Sekunden gegessen. Hier zählt also nicht, dass die Verweildauer möglichst lang ist. Eine Lösung bei diesem Problem sehe ich darin, dass man einen Mittelwert der Verweildauer der Besucher auf allen Seiten der ~Top 20 für den Term ermittelt und diesen dann als Richtwert benutzen.
Eine andere Lösung wäre hier noch zu gucken, ob der Benutzer wieder zurück zu Google kehrt um weitere Ergebnisseiten zu öffnen, wenn ja hat er nicht das gefunden, was er suchte, wenn nein hat er es gefunden und die Seite war relevant.

3. Produktseiten
Bei Produkseiten ist dies leider schon wieder anders. Hier kann man die Theorie, dass Google das erneute Suchen werten könnte, nicht benutzen. Das Problem ist, dass der Sucher viele Seiten öffnet um die Preise bei den einzelnen Webshops zu prüfen. Doch hier greift dann wieder das Prinzip der möglichst hohen Verweildauer, da der Sucher sich für den günstigsten Shop am meisten interessieren wird und der günstigste Shop ist meiner Meinung nach auch der relevanteste.

Alles in allem gibt es also unterschiedliche Methoden um die Relevanz der Webseite über den Traffic zu erkennen:

  • Verweildauer auf der Seite
  • Abweichung von einem Richtwert bei der Verweildauer
  • Klick auf weiterführenden externen Link
  • Rückkehr zu Google

Keine diese Methoden kann einzeln für alle Seiten benutzt werden, daher muss Google entweder eine gute Mischung entwickeln, oder die einzelnen Suchterme unterschiedlichen Kategorien zuordnen die unterschiedlich gehandhabt werden. Man darf also gespannt sein, was die Zukunft so mit sich bringt.

Verwandte Beiträge:

  • Keine(r)