SMX München 2009

Mittwoch, 6. Mai 2009

Die SMX München war diesmal wieder sehr spannend: Wir konnten viele interessante Präsentationen und Panels erleben, wobei wir an einigen auch aktiv beteiligt waren, und vor allem konnten wir mit vielen Webmastern sprechen. Für alle, die nicht in München dabei sein konnten, haben wir hier nochmal einige der Fragen, die wir am häufigsten bekamen, zusammengestellt. Und natürlich unsere Antworten :)

John Müller, Stefanie Dürr und Uli Lutz auf der SMX München.

Frage: Habt ihr vom Search Quality Team eine Abneigung gegen SEOs?

Antwort: Nein, die Arbeit von Suchmaschinenoptimierern (SEOs) kann definitiv hilfreich dabei sein, die Crawlbarkeit einer Site zu verbessern. Es gibt halt leider nur ein paar "schwarze Schafe", die bestimmte Techniken anwenden, welche gegen unsere Richtlinien für Webmaster verstoßen und so das Ansehen der gesamten Branche in Mitleidenschaft ziehen. Aus diesem Grund solltet ihr eine sorgfältige Auswahl treffen, wenn ihr euch entschieden habt, die Leistungen eines SEOs in Anspruch zu nehmen. Dieser Artikel in unserer Hilfe für Webmaster kann euch bei der Auswahl behilflich sein.

F: Ich denke man kann davon ausgehen, dass vergleichsweise wenige Internetnutzer wissen, wie man Links setzt. Dennoch legt Google im Ranking-Algorithmus einen sehr großen Wert auf die Verlinkung - im Vergleich z. B. zur Qualität des Contents. Ist das nicht ein eher undemokratischer Ansatz?

A: Es stimmt, dass Links ein wichtiger Faktor in unseren Ranking-Algorithmen sind. Dabei geht es aber um "verdiente" Links - aus diesem Grund liegt der Schwerpunkt eben doch eher beim Content und nicht bei den Links an sich. Generell empfehlen wir Webmastern, die die Sichtbarkeit ihrer Site in unserem Index verbessern wollen, sich auf die Dinge zu konzentrieren, auf die sie einen direkten Einfluss haben - wie z. B. die Struktur der Site und den erstellten Content. Und falls ihr Bedenken habt, dass andere Webmaster aus bestimmten Gründen nicht auf eure Site verlinken, könnt ihr es ihnen ja etwas einfacher machen. Eine Möglichkeit wäre, ein Code-Snippet wie dieses zur Verfügung zu stellen:

<a href="/search/blog/2009/05/SMX-Muenchen-2009" title="SMX München 2009">SMX München 2009</a>

Damit habt ihr sogar eine gewisse Kontrolle über den verwendeten Anchor-Text. Außerdem solltet ihr daran denken, dass wir, wenngleich Links immer wichtig für uns sind, ständig daran arbeiten, unsere Ranking-Algorithmen zu verbessern - die Gewichtung einzelner Faktoren kann sich also im Lauf der Zeit verändern.

F: Google scheint Sites mit zweierlei Maß zu bewerten - abhängig von der Größe und Bekanntheit der Site oder Marke. Vor einigen Jahren wurden bei der Site einer bekannten Firma aus der Automobilindustrie Manipulationsversuche erkannt und diese dann für nur zwei Tage aus dem Index entfernt - und danach hatten sie das gleiche Ranking wie vorher.

A: Der genannte Fall wurde von unserer Seite aus genau gleich behandelt wie das auch bei weniger bekannten Sites der Fall ist. Wir haben auf einer qualitativ hochwertigen Site Techniken erkannt, die gegen unsere Richtlinien für Webmaster verstoßen haben. Wann immer dies der Fall ist, versuchen wir, die Webmaster über unsere Webmaster-Tools zu kontaktieren, das Problem zu beschreiben und zu erklären, welche Schritte für eine erneute Überprüfung der Site notwendig sind, sobald die Fehler behoben wurden. Völlig unabhängig von der Größe oder Popularität der Site ist eine erfolgreiche erneute Überprüfung für jeden möglich da wir diese Sites als qualitativ hochwertig einstufen und deshalb auch indexiert haben möchten. Natürlich nur, falls sie sich im Rahmen unserer Richtlinien für Webmaster bewegen. Aus diesem Grund ist es auch nicht überraschend, wenn das Ranking dann wieder ähnlich wie vor einer zeitweisen Entfernung aus dem Index ist.

F: AdWords-Kunden mit großen Budgets bekommen Feedback und Support bei Problemen, die sie mit ihren Sites in den organischen Suchergebnissen haben.

A: Das hören wir des Öfteren und können dabei immer wiederholen, dass dies nicht zutrifft. Bei uns gibt es eine strikte Trennung zwischen der organischen Suche und den Anzeigen. In der Vergangenheit haben auch große AdWords-Kunden von uns Penalties bekommen - unabhängig von der Größe ihres Budgets. Sie erhalten dabei keine anderen Informationen als die, die für jeden öffentlich zugänglich sind, wie z. B. in unserem Forum für Webmaster . Falls euch also jemand weismachen will, er habe von uns spezielle Informationen zur organischen Suche, zum Ranking oder der erneuten Überprüfung von einem AdWords-Betreuer erhalten, dann könnt ihr davon ausgehen, dass dies nicht stimmt.

F: Ich habe Teile meiner Site auf noindex und nofollow gesetzt und außerdem alles per robots.txt gesperrt, aber meine Logs zeigen Zugriffe mit einem Googlebot-Referrer. Wie kann das sein?

A: Ich gehe davon aus, dass es sich in solchen Fällen um Bots handelt, die den Google-Referrer fälschen. Wir crawlen nicht, falls die robots.txt Content für den Googlebot User-Agent sperrt. Falls jedoch nur ein noindex vorhanden ist, müssen wir zunächst crawlen, um das noindex überhaupt erst zu erkennen. Links, die das "nofollow"-Attribut tragen, werden aus unserem Linkgraph entfernt, aber es kann sein, dass es dennoch Links ohne nofollow zur selben URL gibt - wir können die URL ggf. dann durch andere Quellen erkennen und, falls der Content nicht per robots.txt gesperrt ist, dann auch crawlen. Alle internen Links auf nofollow zu setzen, um euren Content zu "verstecken", ist keine gute Strategie, da man nie sicher sein kann, wo es sonst noch Links auf diesen Content gibt und wir ihn dann trotzdem crawlen. Falls ihr bestimmten Content vom Crawling ausschließen möchtet, solltet ihr diesen per robots.txt sperren.

F: Die Erkennung von "Google-Bomben" geschieht manuell - deshalb klappt es nicht perfekt.

A: Es stimmt, dass die Erkennung von "Google-Bomben" nicht immer hundertprozentig funktioniert. Dies liegt aber mehr an der Komplexität des Problems als am menschlichen Faktor. Als Technologie-Unternehmen müssen wir skalierbare Lösungen schaffen, die sich global anwenden lassen. Da zahlreiche unserer Dienste in vielen und teilweise sehr verschiedenen Sprachen angeboten werden, wären isolierte manuelle Anstrengungen gegen diese Form des Mißbrauchs nicht die beste Lösung.


Die SMX war auch dieses Mal ein spannendes Event. Es war super, mit so vielen von euch zu sprechen! Hoffentlich findet ihr unser kleines Q&A ein wenig nützlich und falls ihr nicht direkt mit uns sprechen konntet und noch immer Fragen habt, dann schaut doch mal auf unserem Forum für Webmaster vorbei.

Post von Uli Lutz und Kaspar Szymanski, Search Quality Team