Welche SEO-Fehlinformationen gibt es?

Dienstag, 1. März 2011

Heute klärt Matt Cutts einige Missverständnisse, die bezüglich Google und SEO kursieren, und geht dabei auf Links und nofollow, Meta-Tags und das Google Webspam-Team näher ein.



Die heutige Frage kommt von Tom S. aus Seattle und lautet : "Nenne fünf Beispiele für falsche SEO-Informationen aus dem letzten Jahr, die aus seriösen Quellen stammen und dich an den Rand der Verzweiflung brachten. Du musst keine Namen nennen."

Okay. Mir fallen mindestens zwei Beispiele ein, denen ich noch weitere Trugschlüsse hinzufügen möchte. Am meisten kopfschütteln musste ich bei der Meinung, dass die Links automatisch zählen, wenn sich Kunden bei negativen Erfahrungen auf entsprechenden Websites beschweren. Diese Idee ist gefährlich: Je schlechter man seine Kunden behandelt, desto mehr Links erhält man und desto höher das Ranking bei Google. Das ist ganz eindeutig ein Trugschluss. Thor von getsatisfaction.com schrieb in einem Blog, dass diese Links ein "nofollow"-Attribut erhalten. Der "nofollow"-Mechanismus weist darauf hin, dass man diesen Link zu einem Drittanbieter nicht unbedingt befürwortet. Man kann damit also sagen: Auch wenn dies eine namhafte Website ist, vertrauen wir diesem "nofollow"-Link nicht unbedingt. Wir überspringen sie in unserem Link-Graph, damit sie keine Rolle beim Ranking spielt. Durch diesen Link fließt kein Ankertext. Daher hat keine der Beschwerde-Websites zu den Such-Rankings einer bestimmten Website beigetragen.

Ein weiterer Trugschluss ist, dass das Google-Webspam-Team dieses Jahr etwas nachlässiger sei. Nur weil manche SEOs nicht sehen, an was das Webspam-Team arbeitet, heißt das nicht, dass wir nicht aktiv sind. Eine der größten Herausforderungen im Jahr 2010 waren gehackte Websites. Es gibt viele Leute da draußen, die im Grunde illegale Aktivitäten tätigen. Manche versuchen, Websites zu hacken und eigene Links einzufügen, oder Malware, Viren und Trojaner zu verbreiten. Auf diese bösartigen Aktivitäten wollten wir uns konzentrieren und diese verhindern. Daran mussten viele Mitarbeiter mehrere Monate arbeiten und andere Veränderungen wurden nicht so richtig wahrgenommen. Solange wir gegen gehackte Spam-Websites vorgehen, sieht man vom normalen Kampf gegen Spam vielleicht nicht mehr viel. Die meisten Veränderungen wegen gehackter Websites sind mittlerweile eingeführt, sodass wir uns wieder dem normalen Web-Spam zuwenden können.

Ein weiterer Trugschluss ist, dass nur Links zählen. Manch einer denkt: "Ich brauche nur Links und sonst gar nichts." Guter Inhalt auf der Website spielt aber auch eine Rolle. Baut also nicht nur auf Links. Achtet auch auf die Architektur eurer Website, ihre Crawlbarkeit, wie gut durchsuchbar sie ist, ob ihr gute interne Links habt, ob die Begriffe auf eurer Seite stehen, nach denen die Nutzer wirklich suchen. All das ist wirklich wichtig.

Ein spezieller Trugschluss, auf den ich hinweisen will, ist, dass das Meta-Tag der Keywords im Such-Ranking von Google irgendeine Rolle spielen würde. Tut es einfach nicht. Wir verwenden das Meta-Keywords-Tag nicht.

Außerdem höre ich immer wieder, dass das Web-Spam-Team entweder nur mit Algorithmen oder nur manuell arbeitet. Wir behalten uns vor, Websites manuell zu entfernen, wenn wir Spam oder andere Probleme feststellen. Wir haben ein manuelles Team in vielen Sprachen auf der ganzen Welt. Wir sind stolz auf dieses Team, das tolle Arbeit leistet. Auch die anderen großen Suchmaschinen haben ein Team, das manuell nach Spam sucht. Die Teams entfernen nicht nur Spam, sondern geben auch Übungsdaten an Entwickler weiter, die an der Spam-Bekämpfung arbeiten. Es sind also nicht nur Entwickler und es sind nicht nur manuelle Prüfer, die sich mit Spam-Meldungen beschäftigen. Mit einer Kombination aus diesen beiden geht Google gegen Web-Spam vor.

Das waren also ein paar Dinge, die ich gerne richtigstellen wollte.

Veröffentlicht von Daniela Loesser, Search Quality Team