Main menu:

Suche

Kategorien

Juli 2016
M D M D F S S
« Feb    
 123
45678910
11121314151617
18192021222324
25262728293031

Archiv

Achtung: Dieser SEO Blog ist nicht mehr aktuell, mein aktueller Blog findet sich unter http://www.markus-kindler.de/blog/


10+3 Tipps zur schnelleren Indexierung

Heute gibt es hier zur Abwechslung einmal einen Grundlagen Artikel zum Thema schnelle Indexierung durch Google. Die Tipps die ich nachfolgend geben werde, gelten natürlich auch teilweise für andere Suchmaschinen wie MSN und Yahoo, doch kann man sich in Deutschland getrost nur auf Google konzentrieren. Die Tipps entstanden durch Überlegungen, wie man eine Domain sehr schnell indexieren lassen kann, sollten aber auch dafür genutzt werden, neue Unterseiten bei älteren Domains, schnell in den Index zu bekommen.

Sitemap

Bei Sitemaps handelt es sich um das ursprüngliche Mittel, dass auf einer reinen OnPage Maßnahme basiert und daher nur bedingt effektiv ist. Hierbei erstellt man eine oder mehrere Unterseiten (pro Seite max. 50-100 Links), die von möglichst allen Seiten einer Domain verlinkt werden und auf alle zurück linken. Hierdurch kann die interne Linkstärke Unterseiten in den meisten Fällen viel leichter erreichen, als über die normale Navigationsstruktur einer Seite.

Externe Sitemaps

Ähnlich der normalen Sitemap gibt es noch die Möglichkeit, eine weitere Sitemap auf eine andere Domain auszulagern. Hierdurch erhöht man die Anzahl der Backlinks auf jede Unterseite, was ebenfalls einen positiven Effekt auf die Indexierung hat.

Google Sitemaps

Normale Sitemaps helfen zwar bei der Indexierung, bei großen Seiten, dauert es aber meistens sehr lange, bis Google alle Sitemap Seiten indexiert hat und somit alle Seiten einer Domain kennt. Zur Hilfe hat Google das Sitemaps Protokoll entwickelt. Im Grunde legt man hier einfach eine XML Datei auf der eigenen Domain ab, in der eine komplette Liste aller Unterseiten einer Domain vorhanden sind. Genauere Infos zum Aufbau gibt es bei der offiziellen Sitemaps Seite.

Ping-Dienste

Ping-Dienste sind eine Möglichkeit der Welt mitzuteilen, dass neue Unterseiten auf einer Domain vorhanden sind. Vorraussetzung hierfür ist, dass auf der Domain ein RSS Feed existiert, der die neuen Seiten auflistet. Nun geht man zu den einzelnen Ping Diensten hin und teilt ihnen die Adresse des Feeds mit, bei dem sich etwas geändert hat. Besser ist es, nur einen Dienst zu pingen, der alle anderen pingt, am bekanntesten ist wohl Ping-o-Matic. Hierüber wird auch sehr schnell Google über die Änderung in Kentniss gesetzt und meistens innerhalb weniger Minuten die neue Seite crawlen, die Aufnahme in den Index kann dann aber leider noch einige Zeit in Anspruch nehmen.

Social Bookmarks

Die Social Bookmarks und Social News Seiten bieten uns direkt mehrere gute Vorteile:

  • Backlinks auf entsprechende Unterseiten
  • Mindestens 10-20 Besucher innerhalb von einem Tag über die Links
  • Die Backlinks werden von Google schnell gesehen

Die wenigsten Plattformen bringen aber wirklich was, insbesondere vom Zuspammen der meisten englischen Plattformen über Dienste wie OnlyWire kann ich nur abraten, da es verschwendete Zeit ist. Zur Zeit benutze ich folgende Plattformen für mich:

Insbesondere bei Infopirat sollte man aber nicht spammen sondern nur gute Beiträge einstellen, da diese zur Zeit noch direkt auf der Startseite erscheinen. Übermütigkeit fliegt daher also schnell auf und dürfte in einem Ban resultieren. Dafür gibts dann aber auch ohne viele Votes neben einem Backlink ein paar Besucher.

Trackback/RSS Archive

Hierbei handelt es sich um Archive, die Ausschnitte neuer Seiten und einen passenden Backlink bei sich aufnehmen. Der Unterschied zwischen Trackback und RSS Archiven besteht darin, dass die einen per Trackback auf neue Inhalte aufmerksam gemacht werden, die anderen regelmäßig den Feed einer Webseite spidern. Man sollte hier besonders auf die Seriösität achten und nur Archive nutzen, die nur eine Vorschau der Inhalte darstellen und einen ordentlichen Backlink setzen. Zur Zeit nutze ich allerdings nur das Trackback Archiv vom Bayrischen Seoblogger, da ich noch keine Zeit hatte, mich umfassend über entsprechende Dienste zu informieren.

AdSense

Früher war die Indexierung einer Seite für den normalen Index und die Indexierung einer Seite für die passende Ausgabe von Werbung via AdSense noch strikt getrennt. Mittlerweile wurde beides zum Sparen von Bandbreite zusammengelegt. Dies hat den Vorteil, dass sobald Google für die passende Schaltung von AdSense Werbung die Seite crawlt, diese gleichzeitig auch in den normalen Index kommt. Insbesondere bei Seiten mit mehr als einen Besucher (ihnen selbst) geht das recht flott, hier helfen wiederum die oben bereits genannten Social Bookmark und Social News Dienste.

Validität

Auch wenn es darum einige Gerüchte gibt, ist die Validität einer Seite kein Ranking Faktor. Trotzdem hat sie eine gewisse Relevanz für die Indexierung einer Seite, wie der Google Mitarbeiter Dan Crow kürzlich am Rande einer Konferenz verriet. Der Gedanke dahinter ist, dass auch Google nur begrenzte Kapazitäten bei der Bandbreite, Rechenleistung und beim Speicherplatz besitzt. Daher bevorzugt Google kleine und valide Seiten. Durch die geringe Größe verbrauchen diese weniger Bandbreite und Speicherplatz und durch die Validität lassen sie sich schneller verarbeiten.

Linkaufbau

Bei den bis jetzt angesprochenen Methoden ging es fast immer darum, schwache Links auf neue Unterseiten zu bekommen, die schnell von Google erkannt werden. Bei kleineren Seiten reicht das, zumindest für die Indexierung, vollkommen aus. Größere Seiten haben aber das Problem, dass sie bei weitem nicht alle Unterseiten mit solchen Links versorgen können. Hier hilft es nur ein paar starke Backlinks auf die Hauptseite der Domain zu setzen, also ganz normalen Linkaufbau zu betreiben. Je höher der PR der Domain ist, desto mehr Seiten werden auch von ihr indexiert werden.

Aktualisierungen

Wenn ihre Domain bereits komplett im Index ist, sie aber wollen, dass die Seite trotzdem sehr oft gecrawlt wird, damit neue Unterseiten schneller in den Index kommen, sollten sie unbedingt darauf achten, dass sie ihre Webseite regelmäßig aktualisieren. Hierdurch weiß der Googlebot, dass er öfter vorbeikommen kann und immer etwas neues finden wird.

So, wem jetzt die 10 Tipps nicht helfen konnten bei der Indexierung, der findet vielleicht bei den folgenden dreien, etwas was ihm besser gefällt. Vorab ist allerdings zu sagen, die sind vom Power Indexing Beitrag von Eli “geklaut” und beziehen sich nur auf richtige große Seiten mit mehreren 10000 Unterseiten.

Umgedrehte Sitemaps

Bei normalen Sitemaps beginnt man eigentlich immer mit den Unterseiten, die auch in der normalen Navigationsstruktur an höchster Stelle stehen. Hier kann es sich lohnen das ganze umzudrehen und in der Sitemap die Seiten als erstes anzuzeigen, die in der untersten Ebene erscheinen. Hierdurch wird der Googlebot angewiesen von zwei Richtung die Seite zu crawlen, einmal von Oben nach Unten über die normale Struktur der Navigation und zum anderen von Unten nach Oben über die umgedrehte Sitemap.

Dynamische Sitemap

Von Eli “Rolling Sitemaps” genannt, den Namen finde ich aber, insbesondere in deutscher Übersetzung, nicht wirklich passend, daher der neue Name “Dynamische Sitemap”. Bei dieser geht es darum, dass man nicht immer die gleiche Sitemap anzeigt. Stattdessen zeigt man immer verschiedene Blöcke von Seiten am Anfang der Sitemap, die sich zum Beispiel jede Woche ändern. Mal angenommen man hat 30000 Seiten, dann könnte das zum Beispiel so aussehen:

  • 1. Woche: Seite 30000 bis Seite 1
  • 2. Woche: Seite 25000 bis Seite 1 zuerst, danach erst Seite 30000 bis 25001
  • 3. Woche: Seite 20000 bis Seite 1 zuerst, danach erst Seite 30000 bis 20001
  • usw.

Hierdurch bleibt die komplette Liste erhalten, gleichzeitig werden aber immer 5000er Blöcke bevorzugt, die hierdurch relativ schnell in den Index kommen sollten.

Rollover Sites

Technisch am aufwendigsten ist die nun folgende Methode. Als Grundlage hierfür benötigt man eine externe Seite mit ein wenig Linkpower und 100 Unterseiten. Ziel ist es nun alle 100 Unterseiten in den Index zu bekommen, was noch relativ schnell passieren dürfte. Nun lässt man jeden Tag von einem Script prüfen, welche Unterseiten bereits indexiert wurden. Die Indexierten Unterseiten leitet man nun per 301 Redirect weiter auf eine Unterseite vom eigentlichen Projekt und löscht den Link auf diese. Dafür erstellt man eine neue Unterseite, auf deren Indexierung man wartet um wieder genauso mit ihr vorzugehen.

Verwandte Beiträge:

  • Keine(r)