zur Startseite

Analyse der Homepage bei Erfolglosigkeit

Wenn die Erfolge, die Sie mit Ihrer Homepage erzielen wollen ausbleiben, sollte eine Analyse möglichst aller, zumindest aber der wichtigsten Unterseiten erfolgen, um mögliche Fehlerquellen aufzuspüren und zu beseitigen. Dafür gibt es verschiedene, jedoch teilweise nicht ganz unumstrittene, kostenlose sowie kostenpflichtige Tools. Viele Tools stehen für den online-Gebrauch zur Verfügung. Einige bringen nur das ans Licht, was ein Blick in den Quelltext ebenso geschafft hätte. Nicht immer werden aufwendige Tools benötigt, vor allem, wenn es darum geht die eigenen Seiten zu untersuchen. Im Quelltext können viele Fehler erkannt werden, die sich einfach beheben lassen.

Bleiben die Besucher auf der eigenen Homepage über längere Zeit gänzlich aus besteht Handlungsbedarf. Im schlimmsten Fall können die Seiten mit Filtern oder Penalties der Suchmaschinen belegt sein oder im leichtesten Fall sind sie einfach nur zu unbekannt. Ruhe bewahren ist wichtig. Nur abwarten und darauf hoffen, dass sich eventuelle Probleme in Luft auflösen werden, ist der falsche Weg. Zuerst sollten Sie, ausgehend von der Zielsetzung der Homepage, schauen welche Punkte sich davon realisiert haben.

1. Aufnahme der Seiten in den Index der Suchmaschinen

Zunächst ist es wichtig zu wissen, welche Unterseiten in den Index der Suchmaschinen aufgenommen wurden. Dazu wird site:http://domain.tld oder site:http://www.domain.tld in den Suchschlitz der Suchmaschine eingegeben, je nach dem welches Ihre Standarddomain ist. Wenn sich Unterseiten im Index befinden, wird jetzt eine Liste dieser Seiten ausgegeben. Je nach Größe der Homepage kann nun geschaut werden ob alle oder zumindest die wichtigsten Seiten dabei sind. Die Domain sollte dabei an erster Stelle stehen.

Werden keine Seiten angezeigt, können Fehler im Quelltext der Seiten oder in der robots.txt die Ursache sein. Häufigste Ursache sind jedoch fehlende externe Verweise auf Ihre Seiten.

Handelt es sich um eine neue Homepage sollten Sie nicht zu ungeduldig sein. Je nach Stärke und Qualität der externen Verweise können ein paar Tage, Wochen oder sogar Monate vergehen, ehe die ersten Unterseiten der Homepage im Index auftauchen ohne dass ein Grund zur Sorge bestehen muss. Dies heißt nicht, dass Sie längere Zeit untätig warten müssen, wenn sich nichts tut. Es schadet nicht auf eventuelle Fehlersuche zu gehen.

Fehler im Quelltext - Metatag robots

Die erste Anlaufstelle zur Fehlersuche sind die Metatags im <head> der Seiten. Für die zu indizierenden Webseiten darf im Metatag <meta name="robots"> nicht content="noindex" stehen. Ist der Metatag vorhanden muss <meta name="robots" content="index"> eingetragen sein, wenn die Seite in den Index aufgenommen werden soll.

Auch der Einsatz von nofollow sollte im Metatag robots genau überlegt sein. Er verhindert nicht das indizieren der Webseite. Die Suchmaschinenrobots werden jedoch dazu angehalten den Verweisen auf der Seite nicht zu folgen. Dies hat zur Folge, dass die von einer, mit nofollow im Metatag robots, verknüpften Seiten von den Suchmaschinenrobots nicht besucht werden und folglich nicht im Index landen werden, wenn dies die einzigen Verweise auf die Seiten sind. Soll die Seite indiziert und den Verweisen gefolgt werden, kann <meta name="robots" content="index, follow"> im <head> eingetragen werden. Fehlt der Metatag robots ist per default content="index, follow" aktiv. Die robots sollten die Seite also trotz fehlendem Tag indizieren und den Verweisen folgen.

rel="nofollow" im Anker-Tag

Für <a href="Seite die in den Index aufgenommen werden soll.htm" rel="nofollow"> gilt das gleiche wie für den Metatag robots. Die Seite die das rel="nofollow" im Anker enthält kann indiziert werden, das Verweisziel wird jedoch von den robots nicht besucht und somit nicht indiziert, wenn dies der einzige Verweis auf die Seite ist.

Gesperrte Seiten in der robots.txt

Die nächste Anlaufstelle ist die robots.txt. Wenn sie angelegt wurde sollte sie sich im Rootverzeichnis befinden. Hier kann es sein, dass einzelne Webseiten oder die gesamte Präsentation für bestimmte robots gesperrt sind. Ist auch diese Fehlerquelle ausgeschlossen, sollten sie prüfen, ob Techniken im Einsatz sind, die den Text für die Suchmaschinen nicht lesbar machen oder die nicht erlaubt sind.

Flash und Javascript

Eine Webpräsentation, zu 100% aus Flash bestehend, ohne alternative Texte, die Suchmaschinen lesen können, wird den Weg in den Index der Suchmaschinen nicht schaffen. Gleiches gilt für eine Website, die mit einer Javascriptnavigation ausgestattet ist, ohne alternative Navigationsmöglichkeiten.

Schlechte externe Verknüpfung

Sind alle externen Seiten, die Verweise auf eine Website enthalten, nicht im Index wird in den meisten Fällen auch die verknüpfte Website nicht indiziert.

Ein separates Anmelden der Homepage, bei den wichtigen Suchmaschinen, kann zwar durchgeführt werden, ist aber nach unseren Erfahrungen, allein meist nicht von Erfolg gekrönt. Wollen Sie Ihre Homepage trotzdem bei einigen Suchmaschinen anmelden, sollten Sie dies auf keinen Fall, vor lauter Ungeduld, mehrfach tun, womöglich noch alle Unterseiten einzeln. Dies lieben Suchmaschinen gar nicht. Sie können solch ein Vorgehen sogar negativ für die Homepage werten.

Wichtiger ist es, thematisch passende Webseiten zu finden, die im Index der Suchmaschinen stehen. Ziel sollte es sein, von solchen Seiten Verweise zu erhalten. Vorsicht ist bei Kommentaren in Blogs, Foren und Gästebüchern geboten. Ungeschickte Einträge mit hinterlassener Webadresse können sehr schnell als Kommentarspam gewertet werden und negative Auswirkungen auf die verknüpfte Homepage haben.

2. Die Position der Keywords in den Serps herausfinden

Sind alle oder viele Seiten der Homepage in den Index der Suchmaschinen aufgenommen worden, ist die erste Hürde geschafft. Für die meisten Besitzer einer Homepage ist es darüber hinaus wichtig, mit passenden Suchbegriffen, in den Suchmaschinenergebnislisten (Serps) gut positioniert zu sein, denn nur dann ist von dort mit vielen Besuchern zu rechnen. Platz 1-3 wird häufig anvisiert. Doch auch dies ist noch kein Garant für viele Besucher. Werden die gewünschten Schlüsselwörter nicht sehr oft gesucht, kommen darüber ebenfalls nur sehr wenige Besucher auf Ihre Seiten, auch wenn Sie auf Platz 1 stehen.

Um die Positionen der Suchbegriffe abzufragen gibt es einige Tools, wie beispielsweise den Free Google Monitor, der lokal auf dem eigenen PC installiert wird. In den Richtlinien der großen Suchmaschinen steht, dass ein automatisiertes Abfragen von Suchbegriffen untersagt ist. Deshalb sind solche Tools mit Vorsicht einzusetzen. Oft liefern die Ergebnisse nur grobe Anhaltspunkte, weil sie von den genauen Positionen mehr oder weniger abweichen können. Sind es nur wenige Suchbegriffe kann die Abfrage auch manuell erfolgen.

3. Untersuchen der Website auf Duplicate Content

Über die Phrasensuche in den Suchmaschinen oder in speziell zum Aufspüren von DC bereit gestellten online-Tools können fremde Webseiten gefunden werden, die umfangreiche Textabschnitte oder gar komplette Seiten der zu analysierenden Website kopiert und als eigene Inhalte veröffentlicht haben.

4. Die Anzahl externer Verweise

Die Anzahl der externen Verweise gehört zu den wichtigsten Informationen, die über eine Homepage in Erfahrung gebracht werden können. Noch wichtiger ist aber die Qualität dieser Verweise. IP-Popularität, Domainpopularität und Linkpopularität bezogen auf die Anzahl aller externen Verweise sind Begriffe, die über die Qualität der Verweise Auskunft geben. Natürlich gibt es auch für das Checken der externen Verweise unzählige online-Tools.

5. Die Höhe des Pr

Für bestimmte Webprojekte ist es von Vorteil einen hohen Pr zu besitzen. Dazu gehören Webkataloge, Webverzeichnisse, Artikelverzeichnisse und Homepages die Verweise kaufen oder Tauschen. Für die meisten Firmenhomepages oder gar die private Bildergalerie spielt der Pr, wenn überhaupt, eine untergeordnete Rolle. Ein grauer oder weißer Balken auf der Startseite sollte aber zum Nachdenken anregen.

Um die Höhe des Pr, jeder einzelnen Unterseite einer Homepage, zu erfahren gibt es ebenfalls Tools im Internet. Diese fragen meist mehrere Datencenter ab, die Anzeige kann dann unterschiedliche Werte, für die selbe Seite, auf verschiedenen Datencentern anzeigen. Für verschiedene Browser kann die Toolbar von Google herunter geladen werden, die dann den Pr für jede angesurfte Webseite anzeigt. In Firefox ist die Pr-Anzeige schon integriert.

6. Auswertung der Logfiles

Logfiles stellen die Hoster der Homepage zur Verfügung. Die darin enthaltenen Informationen richten sich nach dem Webpaket, welches gebucht wurde. Kleine Webpakete beinhalten meist logfiles mit weniger Informationen.

Anhand von logfiles können die Wege der Besucher analysiert werden. Dadurch kann heraus gefunden werden, ob nur einzelne Seiten Ihres Internetangebotes besucht werden, oder ob die Besucher mehrere Seiten aufrufen und längere Zeit verweilen. Die logfiles geben auch über Error-Meldungen Auskunft. Darüber können beispielsweise fehlerhafte Verweise innerhalb Ihrer Website aufgespürt werden. Auch fehlerhafte externe Verweise können erkannt und auf vorhandene Seiten umgeleitet werden.

© www.homepage-analysieren.de | Impressum