Was ist Cloaking?

Freitag, 11. November 2011

Im heutigen Video klärt Matt Cutts einige Fragen zum Thema Cloaking und geht dabei u.a. auf Geotargeting und Mobilgeräte ein.



Hallo zusammen! Ich bin's, Matt Cutts. Heute möchte ich euch etwas über das Thema Cloaking erzählen. Viele haben dazu Fragen: Was genau ist Cloaking? Wie definiert Google Cloaking? Warum ist Cloaking riskant? Und so weiter. Es gibt zwar ausführliche HTML-Dokumentation und wir haben viele Blogposts darüber veröffentlicht, aber ich möchte das Thema noch einmal kurz und prägnant in einem Video behandeln. Dabei beantworte ich einige der Fragen und nenne euch ein paar Faustregeln, damit ihr mit eurer Website immer auf der sicheren Seite seid.

Zunächst also zur Frage: Was ist Cloaking? Cloaking bedeutet im Grunde, dass den Nutzern anderer Content gezeigt wird als dem Googlebot. Wenn ihr zum Beispiel einen Webserver habt und ein Nutzer will eine Seite aufrufen, dann wird dem Nutzer die Seite angezeigt. Soweit alles wunderbar. Nun kommt der Googlebot und fordert ebenfalls eine Seite an. Ihr stellt dem Googlebot eine Seite zur Verfügung. In den allermeisten Fällen erhält der Googlebot denselben Content wie die Nutzer. Soweit passt alles. Falls jedoch dem Googlebot anderer Content angezeigt wird als den Nutzern, liegt Cloaking vor. Das wäre auf jeden Fall riskant für eure Webseite, denn es verstößt gegen unsere Qualitätsrichtlinien. Wenn ihr einmal in Google nach "Qualitätsrichtlinien" sucht, findet Ihr eine ganze Liste der Kriterien. Es gibt viele Hilfedokumente, in denen ihr genau nachlesen könnt, ob ein Risiko für eure Webseite besteht.

Ich will kurz auf das Wichtigste eingehen. Warum halten wir bei Google Cloaking für etwas Schlechtes, das vermieden werden soll? Die Antwort geht weit zurück, in die Anfangsphase der Suchmaschinen. Damals haben viele Betreiber von Webseiten Cloaking als Mittel zur Täuschung und Irreführung eingesetzt. Das lief dann zum Beispiel so ab: Gegenüber dem Googlebot gab der Webserver, der Cloaking nutzte, eine Webseite über Zeichentrickfilme zurück, vielleicht Walt Disney-Filme oder Ähnliches. Wenn dagegen ein Nutzer die Seite besuchte, gab der Webserver Pornos oder Ähnliches zurück. Wenn man also in Google nach Disney-Filmen suchte, wurde man zu einer Seite geführt, die scheinbar Zeichentrickfilme beinhaltet - wenn man auf den Link klickte, erschienen aber Pornos. Das kann eine sehr unangenehme Erfahrung sein. Viele Nutzer haben sich darüber beschwert. Es ist alles andere als benutzerfreundlich.

Daher haben wir beschlossen, dass alle Arten von Cloaking gegen unsere Qualitätsrichtlinien verstoßen. Es gibt also kein "gutes" Cloaking .Wenn jemand Cloaking in besonders irreführender oder täuschender Weise verwendet, setzen wir uns am meisten ein. Dann wird das Webspam-Team aktiv. Aber jede Form von Cloaking verletzt unsere Richtlinien.

Okay. Kommen wir als Nächstes zu einigen Faustregeln, mit denen ihr immer auf der sicheren Seite bleibt. Man kann sich Cloaking so vorstellen: Eine Seite wird abgerufen, zum Beispiel mit Wget oder cURL. Von der abgerufenen Seite wird ein Hash-Wert erzeugt. Dabei wird der gesamte Content der Seite in einem einzigen Zahlenwert ausgedrückt. Nun kommt der Googlebot ins Spiel, und zwar in Form eines Googlebot-User-Agents. In den Webmaster-Tools gibt es sogar eine Funktion namens "Abruf wie durch Googlebot". Damit ruft ihr eine Webseite wie mit dem Googlebot ab und erzeugt davon ebenfalls einen Hash-Wert. Falls die beiden Hash-Werte unterschiedlich sind, könnte es ein Problem geben. Dann besteht vielleicht ein Risiko für eure Webseite. Natürlich werden manche Seiten dynamisch erzeugt. Das betrifft zum Beispiel die Zeitstempel oder wechselnde Werbeanzeigen. Daher gilt die Regel nicht immer wie in Stein gemeißelt.

Als weitere einfache Methode könnt ihr überprüfen, ob der Code eures Webservers Elemente enthält, mit denen gezielt nach einem User-Agent von Googlebot oder nach der IP-Adresse des Googlebots gesucht wird. Denn wenn ihr einen besonderen oder sehr ungewöhnlichen Vorgang bezüglich des Googlebots ausführt -egal ob für dessen User-Agent oder dessen IP-Adresse - könnte das bedeuten, dass ihr potenziell dem Googlebot und den Nutzer nunterschiedlichen Content präsentiert. Und genau das soll ja vermieden werden. Diese Punkte solltet ihr also im Hinterkopf behalten.

Viele Webmaster, die keine schlechten Absichten verfolgen, mit Cloaking also nichts zu tun haben wollen und kein Risiko eingehen möchten, stellen uns die Frage: Was ist mit Geotargeting und mobilen User Agents, also mit Handys z.B.? Da habe ich gute Nachrichten für euch: Darüber müsst ihr euch keine Sorgen machen. Lasst mich kurz erklären, warum bei Geotargeting und bei der Seitenverarbeitung für Mobiltelefone kein Cloaking vorliegt.

Okay. Bisher waren wir von einem einzigen Nutzer ausgegangen. Nehmen wir nun einmal an, der Nutzer kommt aus Frankreich. Außerdem gibt es einen zweiten Nutzer, sagen wir aus Großbritannien. Im Idealfall ist euer Content unter den Domains ".fr" und ".uk" in verschiedenen Sprachen verfügbar, da ihr die Webseiten übersetzen lassen habt. Es ist wirklich hilfreich für einen Nutzer mit einer französischen IP-Adresse, den Content auf Französisch angezeigt zu bekommen. Das ist viel benutzerfreundlicher.

Beim Geotargeting wird bei jeder Anfrage an den Webserver überprüft, aus welchem Land die zugehörige IP-Adresse stammt, zum Beispiel aus Frankreich. Dem Nutzer wird dann die französische Version gesendet oder er wird zur ".fr"-Version der Domain weitergeleitet. Wenn die Browsersprache des Nutzers dagegen Englisch ist oder die IP-Adresse zum Beispiel aus den USA oder Kanada stammt, dann ist die englische Version wahrscheinlich am besten geeignet. Es sei denn natürlich, der Nutzer kommt aus dem französischen Teil Kanadas. Es wird also eine Entscheidung auf der Grundlage der IP-Adresse getroffen.

Solange ihr euch nicht ein bestimmtes Land ausdenkt, zu dem der Googlebot gehört - etwa Googlandia oder Ähnliches - führt ihr keine besondere oder ungewöhnliche Aktion für den Googlebot aus. Zurzeit, das heißt zum Zeitpunkt dieses Videodrehs, führt der Googlebot das Crawling von den USA aus durch. Der Googlebot würde also von eurer Webseite genau wie ein Besucher aus den USA gehandhabt. Der Content würde auf Englisch dargestellt. Gewöhnlich empfehlen wir, den Googlebot genau wie einen normalen Desktop-Browser zu behandeln - also wie Internet Explorer oder einen anderen für eure Website häufig verwendeten Desktop-Browser.

Geotargeting - also das Ermitteln der IP-Adresse und eine entsprechend angepasste Reaktion - ist völlig in Ordnung, solange ihr nicht speziell auf die IP-Adresse des Googlebots reagiert, also auf diesen sehr engen IP-Bereich. Es geht stattdessen nur darum, abhängig von der IP-Adresse eine möglichst hohe Benutzerfreundlichkeit zu erzielen.

Ähnlich ist es, wenn jemand eure Webseiteüber ein Mobiltelefon abruft, zum Beispiel mit einem iPhone oder Android-Gerät. Dann stellt eure Webseite fest, dass es sich um einen ganz anderen User Agent handelt. Er besitzt ganz andere Funktionen. Es ist völlig in Ordnung, auf diesen User Agent zu reagieren und ihm eine kompaktere Version eurer Website zu liefern, die für den kleinen Bildschirm besser geeignet ist. Auch hier gilt: Das Entscheidende ist, ob ihr den Googlebot wie einen Desktop-Nutzer behandelt, das heißt es erfolgt keine besondere oder ungewöhnliche Reaktion speziell auf diesen User Agent. Dann ist alles okay mit eurer Website. Es wird also entsprechend den Funktionen des Mobiltelefons eine angepasste Seite zurückgegeben, aber ihr versucht nicht, den Googlebot oder den Nutzer zu täuschen oder irrezuführen. Ihr behandelt den Googlebot nicht irgendwie anders aufgrund dessen User Agents. Dann ist alles in Ordnung.

Eine letzte Sache möchte ich noch erwähnen - quasi für die "Power User" unter euch: Einige Webmaster treffen die Entscheidung nicht anhand der genauen User Agent-Zeichenfolge oder anhand des genauen IP-Adressbereichs des Googlebots, sondern zum Beispiel, indem sie die Cookies überprüfen. Wenn ein Nutzer nicht auf Cookies reagiert oder mit JavaScript anders umgeht, behandeln sie dies als Sonderfall. Die Nagelprobe lautet auch hier: Verwendet ihr das als Ausflucht, um den Googlebot anders zu behandeln, also ihn auszusondern und dann eine ganz andere Aktion auszulösen?

In all diesen Fällen ist die grundlegende Frage also: Behandelt ihr die Nutzer genauso wie den Googlebot? Unser Ziel ist es, eure Webseite im Wesentlichen so zu erfassen und wiederzugeben, wie sie die Nutzer sehen. Wir möchten, dass die Endnutzer dasselbe Ergebnis erhalten, egal ob sie auf ein Google-Ergebnis klicken oder die eigentliche Webseite aufrufen. Daher gilt: Der Googlebot darf nicht anders behandelt werden. Cloaking bedeutet eine schlechte Erfahrung für Nutzer und verstößt gegen unsere Qualitätsrichtlinien. Diese Sache ist uns wichtig. Es gibt kein "gutes" Cloaking. Wir möchten wirklich sichergehen, dass die Nutzer eine Webseite so sehen, wie sie der Googlebot gesehen hat.

Okay. Ich hoffe, das war hilfreich für euch. Ich hoffe, es ist etwas klarer geworden, was Cloaking ist, und ich konnte euch einige Faustregeln vermitteln. Im Grunde solltet ihr aus diesem Video einfach die Frage mitnehmen: Enthält meine Webseite besonderen Code, der spezifisch nach dem User Agent"Googlebot" oder nach der IP-Adresse des Googlebots sucht und diesen irgendwie anders behandelt? Wenn ihr den Googlebot genau wie alle anderen Nutzer behandelt, also eine Version der Webseite sendet, die an den Standort oder mobile User Agents angepasst ist, ist das in Ordnung. Nur wenn ihr speziell nach dem Googlebot Ausschau haltet und dann etwas anderes ausführt als sonst, geht ihr für eure Webseite ein Risiko ein.

Weitere Dokumentationen dazufindet ihr auf unserer Website. Wahrscheinlich enthalten auch die Metadaten dieses Videos entsprechende Links. Ich hoffe, es ist etwas klarer geworden, was wir über Cloaking denken, warum wir es ernst nehmen und wie wir bei unserer Entscheidung darüber, wann Cloaking vorliegt, die Auswirkungen in ihrer Gesamtheit berücksichtigen. Das Entscheidende ist für uns letztlich die Benutzerfreundlichkeit. Wenn euer Code also irgendetwas enthält, das den Googlebot deutlich anders behandelt als die Nutzer, dann wird das wahrscheinlich Probleme aufwerfen. Ich hoffe, das hilft euch weiter.

Veröffentlicht von Daniela Loesser, Search Quality Team