Montag, 17. September 2007
Wenn Nutzer- oder Tracking-Informationen mittels URL-Parametern gespeichert werden, kann dies zu Duplicate Content führen, da eine einzige Seite über mehrere, verschiedene URLs aufgerufen wird. Dieser Sachverhalt wird auch in Adam Lasniks Post
Weshalb ist dies von Bedeutung?
Wenn Suchmaschinen identischen Content über verschiedene URLs crawlen, kann dies verschiedene Konsequenzen haben:
-
Zahlreiche URLs für ein- und dieselbe Seite können die Link-Popularität verschlechtern. Im obigen Beispiel könnten sich z. B. 50 Links auf 3 verschiedene URLs verteilen, anstatt ausschließlich auf eine einzige URL gerichtet zu sein.
-
In Suchergebnissen können unter Umständen wenig benutzerfreundliche URLs angezeigt werden (sehr lange URLs mit Tracking- oder Session-IDs):
- Die Wahrscheinlichkeit, dass User auf ein derartiges Suchergebnis klicken, ist geringer
- Die Markenbildung kann dadurch erschwert werden
Wie wir Usern und Webmastern bei Duplicate Content helfen
Wir haben Algorithmen entworfen, die dazu beitragen, dass Duplicate Content keine Beeinträchtigung für User und Webmaster darstellt.
Wenn wir feststellen, dass Duplicate Content vorliegt, der beispielsweise durch Variationen von URL-Parametern hervorgerufen wird, dann fassen wir diese duplizierten URLs zu einer Gruppe zusammen.
-
Wir wählen dann jene URL aus, die als am besten geeignet erscheint, die jeweilige Gruppe in den Suchergebnissen zu vertreten.
-
Schließlich werden bestimmte Eigenschaften der URLs aus der Gruppe, wie z. B. die Link-Popularität, vereinigt und auf die im vorigen Schritt ermittelte URL übertr agen.
Wie könnt ihr in solchen Fällen von Duplicate Content dazu beitragen, dass Suchmaschinen eure Site richtig interpretieren?
Zunächst gibt es keinen Grund zur Sorge, da die Verwendung von URL-Parametern eine gängige und sinnvolle Praxis ist.
Jedoch gibt es folgende Punkte, die dabei helfen, mögliche Probleme für Suchmaschinen zu minimieren:
-
Entfernt alle unnötigen URL-Parameter – haltet die URL so einfach wie möglich.
-
Übermittelt eine Sitemap mit der von euch gewünschten Version jeder URL. Wir können zwar nicht garantieren, dass unsere Algorithmen immer exakt die URL aus der Sitemap in den Suchergebnissen anzeigen, jedoch ist die Sitemap ein guter Hinweis darauf, welche URL von euch bevorzugt wird.
Wie könnt ihr eure Website gestalten, um Duplicate Content zu vermeiden?
Aufgrund der Art und Weise, mit der Google mit Duplicate Content umgeht, müsst ihr euch keine besonderen Sorgen um einen Verlust der Link-Popularität oder des PageRanks machen. Dennoch schlagen wir folgende Schritte vor, um Duplicate Content im Allgemeinen zu reduzieren:
-
Beim Tracking von Nutzer-Informationen solltet ihr 301-Weiterleitungen verwenden, um von URLs mit Parametern auf die gewünschte Ziel-URL weiterzuleiten.
-
Nutzt Cookies, um Werte für Affiliate-IDs oder Tracking-IDs zu setzen.
Wenn ihr diese Methode anwendet, könnte ein Auszug aus dem Logfile des Webservers folgendermaßen aussehen:
127.0.0.1 - - [19/Jun/2007:14:40:45 -0700] "GET /product.php?category=gummy-candy&item=swedish-fish&affiliateid=ABCD HTTP/1.1" 301 -
127.0.0.1 - - [19/Jun/2007:14:40:45 -0700] "GET /product.php?item=swedish-fish HTTP/1.1" 200 74
Und das Session-Cookie mit der Nutzer- bzw. Affiliate-ID könnte so aussehen:
category|s:11:"gummy-candy";affiliateid|s:4:"ABCD";
Falls ihr Cookies verwendet, solltet ihr stets darauf achten, dass der eigentliche Content (z.B. die Produkt-Seiten) problemlos angezeigt wird, auch wenn im Browser die Cookies deaktiviert sind.
Wie können wir euch zukünftig noch besser unterstützen?
Vor kurzem haben wir einige Ideen von der „ SMX Advanced “-Konferenz veröffentlicht, wo wir das Thema behandeln, wie Suchmaschinen den Webmastern in Bezug auf Duplicate Content helfen können. Falls ihr bei diesem Thema mitreden möchtet, könnt ihr das gerne in unserem Diskussionsforum tun.
Post von Maile Ohye (Übersetzung von Sven, Search Quality)