Mittwoch, 14. Oktober 2015
tl;dr: Das
AJAX-Crawlingschema
, das wir
2009
vorgeschlagen haben, empfehlen wir jetzt nicht mehr.
Im Jahr 2009 machten wir einen Vorschlag, um AJAX-Seiten crawlbar zu machen . Damals waren unsere Systeme noch nicht in der Lage, Seiten, die JavaScript für das Präsentieren von Inhalten verwenden, zu rendern und zu analysieren. Da " Crawler … dynamisch erstellte Inhalte nicht sehen konnten ", schlugen wir eine Reihe von Verfahren vor, mit denen Webmaster sicherstellen können, dass ihre AJAX-basierten Anwendungen von Suchmaschinen indexiert werden.
Die Zeiten haben sich geändert. Solange ihr den Googlebot nicht blockiert, sodass er eure JavaScript- oder CSS-Dateien nicht crawlen kann, können wir heute normalerweise eure Webseiten wie moderne Browser rendern und analysieren . Um diese Optimierung widerzuspiegeln, haben wir kürzlich unsere technischen Richtlinien für Webmaster aktualisiert . Wir raten jetzt davon ab, dass der Googlebot für das Crawlen der CSS- oder JS-Dateien eurer Website blockiert wird.
Da die Annahmen, die unserem Vorschlag von 2009 zugrunde lagen, nicht mehr gültig sind, empfehlen wir nun, den Prinzipien der progressiven Verbesserung zu folgen. Beispielsweise könnt ihr die HTML5-History API verwenden, um die Zugänglichkeit für eine größere Zahl an Browsern sowie für unsere Systemen zu gewährleisten.
Fragen und Antworten
F: Meine Website folgt derzeit eurer Empfehlung und unterstützt das Format "_escaped_fragment_". Wird meine Website nun nicht mehr indexiert, da eure Empfehlung eingestellt wurde?
A: Nein, die Website wird weiterhin indexiert. Im Allgemeinen empfehlen wir euch jedoch, beim nächsten Update eurer Website die Best Practices der Branche zu implementieren. Anstelle von URLs im Format "_escaped_fragment_" crawlen, rendern und indexieren wir in der Regel URLs im Format #!.
F: Wird das Abrücken vom AJAX-Crawlingschema zu den Best Practices der Branche als Websiteverschiebung betrachtet? Muss ich Weiterleitungen implementieren?
A: Wenn die aktuelle Konfiguration im Moment für euch gut funktioniert, muss man nicht sofort wechseln. Wenn ihr eine neue Website aufbaut, oder eine bestehende restrukturiert, empfehlen wir, "_escaped_fragment_" URLs zu vermeiden.
F: Ich verwende ein JavaScript-Framework und zeige dem Googlebot eine vorgerenderte Seite. Ist dies weiterhin möglich?
A: Im Allgemeinen sollten Websites ihre Seiten nicht nur für Googlebot vorrendern -- wir erwarten, dass eine solche Massnahme Geschwindigkeitsvorteile für alle Benutzer ergeben würde, und dass progressive Verbesserungstechniken verwendet werden. Wenn Seiten vorgerendert werden, stellt sicher, dass die Inhalte für Googlebot dieselben sind, wie sie Benutzer sehen: im Aussehen sowie in der Interaktion. Wenn für den Googlebot andere Inhalte als für normale Nutzer bereitgestellt werden, handelt es sich um "Cloaking", das gegen unsere Richtlinien für Webmaster verstößt.
Wenn ihr Fragen habt, könnt ihr diese gerne hier oder im Hilfeforum für Webmaster posten.
Im Jahr 2009 machten wir einen Vorschlag, um AJAX-Seiten crawlbar zu machen . Damals waren unsere Systeme noch nicht in der Lage, Seiten, die JavaScript für das Präsentieren von Inhalten verwenden, zu rendern und zu analysieren. Da " Crawler … dynamisch erstellte Inhalte nicht sehen konnten ", schlugen wir eine Reihe von Verfahren vor, mit denen Webmaster sicherstellen können, dass ihre AJAX-basierten Anwendungen von Suchmaschinen indexiert werden.
Die Zeiten haben sich geändert. Solange ihr den Googlebot nicht blockiert, sodass er eure JavaScript- oder CSS-Dateien nicht crawlen kann, können wir heute normalerweise eure Webseiten wie moderne Browser rendern und analysieren . Um diese Optimierung widerzuspiegeln, haben wir kürzlich unsere technischen Richtlinien für Webmaster aktualisiert . Wir raten jetzt davon ab, dass der Googlebot für das Crawlen der CSS- oder JS-Dateien eurer Website blockiert wird.
Da die Annahmen, die unserem Vorschlag von 2009 zugrunde lagen, nicht mehr gültig sind, empfehlen wir nun, den Prinzipien der progressiven Verbesserung zu folgen. Beispielsweise könnt ihr die HTML5-History API verwenden, um die Zugänglichkeit für eine größere Zahl an Browsern sowie für unsere Systemen zu gewährleisten.
Fragen und Antworten
F: Meine Website folgt derzeit eurer Empfehlung und unterstützt das Format "_escaped_fragment_". Wird meine Website nun nicht mehr indexiert, da eure Empfehlung eingestellt wurde?
A: Nein, die Website wird weiterhin indexiert. Im Allgemeinen empfehlen wir euch jedoch, beim nächsten Update eurer Website die Best Practices der Branche zu implementieren. Anstelle von URLs im Format "_escaped_fragment_" crawlen, rendern und indexieren wir in der Regel URLs im Format #!.
F: Wird das Abrücken vom AJAX-Crawlingschema zu den Best Practices der Branche als Websiteverschiebung betrachtet? Muss ich Weiterleitungen implementieren?
A: Wenn die aktuelle Konfiguration im Moment für euch gut funktioniert, muss man nicht sofort wechseln. Wenn ihr eine neue Website aufbaut, oder eine bestehende restrukturiert, empfehlen wir, "_escaped_fragment_" URLs zu vermeiden.
F: Ich verwende ein JavaScript-Framework und zeige dem Googlebot eine vorgerenderte Seite. Ist dies weiterhin möglich?
A: Im Allgemeinen sollten Websites ihre Seiten nicht nur für Googlebot vorrendern -- wir erwarten, dass eine solche Massnahme Geschwindigkeitsvorteile für alle Benutzer ergeben würde, und dass progressive Verbesserungstechniken verwendet werden. Wenn Seiten vorgerendert werden, stellt sicher, dass die Inhalte für Googlebot dieselben sind, wie sie Benutzer sehen: im Aussehen sowie in der Interaktion. Wenn für den Googlebot andere Inhalte als für normale Nutzer bereitgestellt werden, handelt es sich um "Cloaking", das gegen unsere Richtlinien für Webmaster verstößt.
Wenn ihr Fragen habt, könnt ihr diese gerne hier oder im Hilfeforum für Webmaster posten.