Montag, 27. Oktober 2014
Vor Kurzem haben wir bekannt gegeben, dass Google
Webseiten wie ein typischer moderner Browser darstellt
, bei dem CSS und JavaScript aktiviert sind. Heute aktualisieren wir eine unserer
technischen Richtlinien für Webmaster
entsprechend dieser Mitteilung.
Nach unserer neuen Richtlinie solltet ihr dem Googlebot Zugriff auf die JavaScript-, CSS- und Bilddateien auf euren Seiten geben. Auf diese Weise wird eure Website optimal dargestellt und indexiert.Wenn ihr das Crawling von JavaScript-oder CSS-Dateien in der robots.txt-Datei eurer Website nicht zulasst, wirkt sich dies unmittelbar auf die Darstellung und Indexierung eurer Inhalte durch unsere Algorithmen aus und kann zu schlechteren Rankings führen.
Wie immer könnt ihr Kommentare oder Fragen in unserem Forum für Webmaster posten.
Post von Pierre Far , Webmaster Trends Analyst
(Veröffentlicht von Johannes Mehlem , Search Quality Team)
Nach unserer neuen Richtlinie solltet ihr dem Googlebot Zugriff auf die JavaScript-, CSS- und Bilddateien auf euren Seiten geben. Auf diese Weise wird eure Website optimal dargestellt und indexiert.Wenn ihr das Crawling von JavaScript-oder CSS-Dateien in der robots.txt-Datei eurer Website nicht zulasst, wirkt sich dies unmittelbar auf die Darstellung und Indexierung eurer Inhalte durch unsere Algorithmen aus und kann zu schlechteren Rankings führen.
Aktualisierte Tipps für die optimale Indexierung
Bisher ähnelten Google-Indexierungssysteme alten textbasierten Browsern wie Lynx, und so stand es auch in unseren Richtlinien für Webmaster. Da die Indexierung jetzt auf der Seitendarstellung basiert, sind unsere Indexierungssysteme nun nicht mehr mit einem textbasierten Browser vergleichbar. Stattdessen handelt es sich eher um einen modernen Webbrowser. Dementsprechend solltet ihr Folgendes beachten:- Ähnlich wie moderne Browser unterstützt unser Darstellungsmodul unter Umständen nicht alle auf einer Seite verwendeten Technologien. Stellt sicher, dass euer Webdesign den Prinzipien der progressiven Verbesserung entspricht, da unsere Systeme (und zahlreiche Browser) dann verwendbare Inhalte und grundlegende Funktionen besser erkennen können, sollten bestimmte Webdesign-Funktionen noch nicht unterstützt werden.
- Seiten, die schnell dargestellt werden, sorgen nicht nur dafür, dass Nutzer schneller auf euren Inhalt zugreifen können, sondern machen auch die Indexierung dieser Seiten wesentlich effizienter. Beachtet die Best Practices für die Optimierung der Seitenleistung , insbesondere die folgenden:
- Vermeidet unnötige Downloads
- Optimiert eure CSS- und JavaScript-Dateien (alle in Englisch) durch zusammengeführte CSS- und JavaScript-Dateien und die Konfiguration eurer Webserver für eine komprimierte Bereitstellung (im Allgemeinen per Gzip -Komprimierung).
- Stellt sicher, dass euer Server die zusätzliche Last durch die Bereitstellung von JavaScript- und CSS-Dateien an den Googlebot verarbeiten kann.
Tests und Fehlerbehebung
In Verbindung mit der Einführung der darstellungsbasierten Indexierung haben wir auch die Funktion für den Abruf und die Darstellung wie durch Google in den Webmaster-Tools aktualisiert, damit Webmaster sehen können, wie unsere Systeme eine Seite darstellen. Damit lassen sich eine Reihe von Indexierungsproblemen, ungültige robots.txt-Einschränkungen, Weiterleitungen, denen der Googlebot nicht folgen kann, und vieles mehr identifizieren.Wie immer könnt ihr Kommentare oder Fragen in unserem Forum für Webmaster posten.
Post von Pierre Far , Webmaster Trends Analyst
(Veröffentlicht von Johannes Mehlem , Search Quality Team)