Drei Tipps zur erfolgreichen Suchmaschinenoptimierung onpage

Bei der Suchmaschinenoptimierung kommt es auf verschiedene Faktoren an. SEOs konzentrieren sich nicht nur auf die OffPage- sondern auch auf die OnPage-Optimierung. Dazu gibt es ein paar kleine Kniffe, die Erfolg versprechend für einen sehr guten Stellenwert bei Google und Co. sind. Drei davon werden hier näher beleuchtet:

1. Weiterleitungsketten vermeiden

Jeder in der Suchmaschinenoptimierung Tätige sollte Weiterleitungsketten, sogenannte „Redirect-Chains“, vermeiden. Sie stehlen den Crawlern wertvolle Ressourcen. Werden Statuscodes nicht korrekt verwendet, wird „Linkjuice“ nicht weitergegeben. Deshalb sollten die Profis für Suchmaschinenoptimierung mithilfe des richtigen Statuscodes (301) auf neue Linkziele hindeuten. Sonst brechen die Crawler meist zwischendurch ab. Bei mobilen Geräten wirkt sich das nachteilig auf die Seitenladezeiten aus.

2. Sitemaps nutzen

Viele Experten für Suchmaschinenoptimierung wissen, dass Sitemaps wie ein Inhaltsverzeichnis funktionieren. So haben Crawler gleich einen Überblick und können nach Prioritäten wichten. Möglich ist eine inhaltliche Separierung und eine Trennung nach Datentyp.

Sitemaps werden für Inhalte, News, Bilder, Videos und mobile Inhalte erstellt. Sie werden gefunden, wenn sie in der robots.txt der Webseite stehen. Einzelne Seitmaps werden von den Profis für Suchmaschinenoptimierung in den Google-Webmaster-Tools angemeldet. Damit ist eine Kontrolle der Bearbeitung durch die Suchmaschine möglich.

Diese Attribute sollten Fachleute für Suchmaschinenoptimierung kennen; sie lassen dem Crawler Hinweise (jeweils in eckige Klammern zu setzen) zukommen:

changefreq: – gibt an, wie häufig sich der Dokumentinhalt ändert und wann ein Recrawl sinnvoll ist
Ergänzt wird das Attribut durch never, yearly, monthly, weekly, daily, hourly oder always. Einzelne Seitenbereiche mit selteneren Änderungen (z. B. Archive) werden von der Agentur für Suchmaschinenoptimierung einzeln gekennzeichnet.

priority: – unterscheidet die Wertigkeit einzelner Unterseiten in der Sitemap
Die Priorität eines Dokuments im Vergleich zu allen anderen kann zwischen 0,1 und 1,0 liegen; Standard ist 0,5. Teilt der Experte für Suchmaschinenoptimierung die Wichtigkeit der Seiten mit, wendet die Suchmaschine für wichtige Seiten mehr Ressourcen auf als für weniger wichtige.

lastmod: – zeigt die letzte Änderung der Sitmap an, aber nicht der Inhalte
Nur nach Anpassung der Sitemap ist dieses Attribut notwendig.

3. Schwer crawlbare Inhalte verständlich machen

Wenn die Experten für Suchmaschinen Ajax nutzten, hatten früher Crawler teilweise Probleme. Deshalb sollte die Agentur für Suchmaschinenoptimierung den Crawlern helfen, alle Unterseiten gut zu verarbeiten. Bei Nutzung von Ajax für das dynamische Nachladen von Content müssen diese entsprechend gekennzeichnet werden. Dazu bekommen die Crawler andere URLs zur Verfügung gestellt. Die Experten für Suchmaschinenoptimierung müssen in den Hash-Fragmenten der URLs ein Token einbauen. Dieses zeigt den Crawlern Ajax-Inhalte an. Sind die Seiten eindeutig, ist das Token ein Ausrufungszeichen.

Vom Server müssen die Crawler für jede URL, die indexiert werden soll, einen HTML-Snapshot erhalten. Dieser sollte alle Inhalte enthalten, die für Nutzer sichtbar sind. Der Server ändert die Ajax-URL temporär um, damit er die richtige Version an die Crawler ausgibt. Er ersetzt den Hashwert (#!) in „?_escaped_fragment_=“ und erfragt damit den Snapshot.

Sollen Seiten ohne Hash-Fragmente indexiert werden, dann muss von den Profis für Suchmaschinenoptimierung oder den Programmierern in den head (in eckige Klammern zu setzen) der Webseite das Meta-Tag eingebaut werden. Crawler erfragen auch hier einen HTML-Snapshot für jede Seite vom Server.

Die URLs sollten in den Sitemaps in der Form von den Profis für Suchmaschinenoptimierung angegeben werden, wie sie indexiert werden sollen. Für die Kontrolle, ob alle Ajax-Inhalte verarbeitet und indexiert werden, ist eine Prüfung mittels Google-Webmaster-Tools sinnvoll. Dort gibt es einen Bereich „Crawling“. Beim Menüpunkt „Abruf wie durch Google“ tragen Nutzer die URL mit dem Hashwert (#!) ein. Nach einem Klick auf „Abrufen und rendern“ wird das Ergebnis angezeigt.