zur Startseite

Reaktionen der Suchmaschinen auf Überoptimierung

20.02.2008

Sollte der onpage Optimierung von Webseiten mehr Aufmerksamkeit geschenkt werden?

Wir denken ja und zwar nicht im Sinne einer besseren Listung sondern um das Abrutschen in bestimmte Filter zu vermeiden. Entgegen vieler Meinungen, dass Suchmaschinen den Inhalt einer Webseite nicht genau bestimmen können, sind wir der Auffassung, dass Suchmaschinen sehr wohl ziemlich genau bestimmen können um welches Thema es auf einer Webseite geht. Suchmaschinen reagieren immer empfindlicher. Gehäuft auftretende graue pr-Balken merkwürdige Verschiebungen der Wertigkeit einzelner Unterseiten innerhalb unseres Hauptprojektes und schlechtes Ranking einzelner Suchbegriffe haben uns veranlasst, einige Homepages näher zu betrachten.

Title- und Meta-Angaben

Der Titel und die verwendeten Meta-Tags sollten ziemlich genau auf jede Webseite abgestimmt sein. Können Sie dies nicht garantieren, weil Ihre Webseiten ebenso wie die Meta-Tags und der Titel dynamisch generiert werden und Sie diese Daten nicht separat steuern können, ist es nach unseren Recherchen besser diese Angaben, wenn möglich, gar nicht zu machen. Scheinbar fühlen sich Suchmaschinen seit einiger Zeit, bei Verwendung von nicht ganz zum Content passender oder zu häufig verwendeter Kopfdaten betrogen, werten sie als Spam und setzen Filter.

Stichprobenartig haben wir bei einigen Webkatalogen recherchiert, die zwar guten Startseiten-pr besitzen aber diesen an die Unterseiten nur teilweise abgeben, um unsere Vermutungen zu überprüfen. Es befanden sich dabei keine externen Verweise auf der Startseite der geprüften Kataloge, die einen Teil des pr an externe Webseiten hätten vererben können.

    Beispiel Webkatalog:
  • Ein ansich recht gut geführter Webkatalog mit pr4 auf der Startseite, gibt teilweise pr weiter. Durch Deoptimierung scheint eine Verbesserung möglich zu sein. Eine Abstrafung scheint hier nicht der Fall zu sein, es greifen unserer Meinung nach nur einige Filter.

    Der Titel der Kategorieseiten wird jeweils aus drei Wörtern der Kategorie gebildet. Diese drei Wörter sind die ersten drei Wörter des Keywords-tags. Die restlichen Keywords des Keywordtags befinden sich scheinbar im Keywordtag aller anderer Seiten des Kataloges ebenfalls, kommen aber nicht alle im Text dieser Seiten vor und die, die darin vorkommen stehen lediglich in der Hauptnavi, welche auf allen Unterseiten gleich ist.

    Die description beginnt ebenfalls mit den drei Wörtern des Titels, der Rest der description scheint ebenfalls auf allen anderen Katalogseiten gleich zu sein. Wir haben bei diesem Katalog nur Stichproben gemacht, finden jedoch schon, dass hier eine Deoptimierung dringend anzuraten ist.

  • Auf allen Katalogseiten befindet sich dann noch als strong, eingebettet in h2, die key-kombi Webkatalog und Webverzeichnis. Strong innerhalb von h2 sollte sicherlich noch einmal überdacht werden.
  • Viele getestete Ankertexte werden im Index sowohl unter der Zieldomain, wie auch unter der Adresse der Detailseite des Kataloges gefunden, obwohl die Eintragsseiten grau sind. Detailseiten, die nicht gefunden werden haben keinen zusätzlichen oder extrem wenig Text, deshalb würden wir sagen, dass dies am Eintragenden selbst liegt. Ob dies dem Katalog schaden kann ist schwer zu sagen, aber wenn die überwiegende Anzahl der Detailseiten mit so wenig Text gefüllt wird, kommt es sicher zu massenweise dc, was dem Katalog dann sicherlich schaden kann.
  • Wir haben hier keine Spammethoden oder sonstige strittige Sachen gefunden und nehmen an, dass die Unterseiten des Kataloges in einem oder mehreren Filtern wegen Falsch- oder Überoptimierung und dc stecken und deshalb bei der pr-Vergabe nicht mitspielen dürfen.

Dieses Beispiel könnte erklären, wieso die Webkataloge und Artikelverzeichnisse auf den Unterseiten keinen pr mehr bekommen. Die meisten sind ähnlich aufgebaut, haben als h1 oder h2 meist auf allen Seiten Webkatalog oder Artikelverzeichnis stehen manchmal gepaart mit einem ebenfalls auf allen Seiten vorhanden Slogan. Wenn die Seiten vor der pr-Vergabe ausgefiltert werden, egal welche Regelverstöße google erkannt hat läßt sich das maschinell auch relativ einfach bewerkstelligen. Wir vermuten also, dass vor der pr-Vergabe die Seiten durch eine Art maschinelle Kontrolle geschickt werden und entweder ein Gut oder einen Filter erhalten. Logische Folge - Seiten mit Filter bekommen keinen pr. Der Filter deutet ziemlich genau auf den abgeschafften supplemental-index hin.

Fehlende semantische Textpassagen im Index

Zusätzlich ist uns aufgefallen, dass Seiten mit einem grauen Balken in den Webmastertools keine interne Verknüpfung mehr aufweisen, obwohl sie intern und extern gut verknüpft sind. Auch mit den Texten aus h1, h2 und strong sind sie im Index über die Phrasensuche nicht mehr zu finden. Der normale Text der Seite wird aber gefunden. Es sieht für uns so aus, als ob Seiten, die in einem Filter stecken entlinkt und sämtlicher Seo-Maßnahmen beraubt wurden und nur der normale Text in den Index kommt.

Fazit: Jetzt kann auch deoptimiert werden, da ja sowieso alles aberkannt wurde. Vielleicht kann mit richtigem Einsatz der Seo-Techniken noch etwas gerettet werden.

Description und h2

Beispiel eigenes Webprojekt - Unterseite mit Bildern:
Aus Bequemlichkeit und Textmangel hatten wir in einem unserer Webprojekte, einer statischen Unterseite, die hauptsächlich Bilder enthielt, die description mit Teilen der h2 und h1 Überschrift ausgefüllt, ohne zusätzlichen Text. Obwohl die description lang genug war, hat sich google geweigert diese description als Snippet zu verwenden. Statt dessen entschied sich google dafür, den Navigationstext zu verweden, da dieser zuerst auf der Seite gefunden wurde. Es gab unter den 21 Bildern die mit kurzen unterschiedlichen alt-Attributen versehen waren noch ca. 60 Wörter und einen Satz mit 21 Wörtern, der nur leicht abgewandelt auf weiteren zwei Seiten verwendet wurde. Diese beiden Seiten haben pr. Auch bei ein paar anderen Unterseiten ist uns aufgefallen, wenn wir den h2-Text als description verwenden, wird die Beschreibung für die serps (mit der site-Abfrage) aus einem anderen Text gebildet. Diese Seiten haben einen grauen Balken, was für uns auf eine Filterung vor der pr-Vergabe hindeutet. Gleicher Titel wie h1 hingegen scheint zu funktionieren. Auch dafür haben wir ein paar Beispiele. Wir haben noch nicht beobachtet, dass andere Titel als vorgegeben verwendet wurden aber besagte Seiten haben pr und scheinen also nicht in einem Filter zu stecken.

Schlußbemerkung

Mag sein, dass jetzt ein paar Seos der Ansicht sind - "das kann gar nicht sein, bei mir funktioniert das alles noch prima". Wer es besser weiß kann uns ja mailen. Wir hören uns gern auch andere Meinungen an.

Unsere Projekte mit damals pr4 bis pr2 und Unterseiten mit gleichmäßiger Vererbung zeigen seit Mitte 2006 Anzeichen, die vermuten lassen, dass sie jetzt seit Anfang 2008 in Filtern stecken, die sich aber beseitigen lassen sollten. Betroffene Seiten haben wir erst einmal deoptimiert und Überschriften und strong werden wieder gefunden. Ein guter Nebeneffekt - Texte sind jetzt normal lesbar und haben keinen Seo-Hauch mehr.

Anmerkung: Wir betreuen keine Websites aus den Bereichen Handy oder Kredit. Es kann gut sein, dass dort härtere Maßnahmen greifen.

© www.homepage-analysieren.de | Impressum