lundi 27 octobre 2014
Nous avons récemment annoncé que notre système d'indexation permettait désormais
d'afficher les pages Web
davantage telles qu'elles apparaîtraient dans un navigateur standard, avec les ressources CSS et JavaScript activées. Suite à cette annonce, nous mettons à jour l'une de nos
consignes techniques aux webmasters
.
Pour optimiser l'affichage et l'indexation de vos pages et de votre site, vous devez désormais autoriser l'accès de Googlebot aux fichiers JavaScript, CSS et image que vous utilisez.
Le blocage de l'exploration des fichiers JavaScript ou CSS dans le fichier robots.txt de votre site nuit directement à la qualité de l'affichage et de l'indexation de votre contenu par nos algorithmes. Cela peut avoir un impact négatif sur le classement de votre site.
Conseils à jour pour une indexation optimisée
Auparavant, nos systèmes d'indexation ressemblaient aux anciens navigateurs en texte seul, tels que Lynx, et c'est ce qui figurait dans nos consignes aux webmasters. À présent, étant donné que l'indexation est basée sur le rendu des pages, nos systèmes d'indexation ne peuvent plus être considérés comme un navigateur en texte seul. Il serait plus juste de les comparer à un navigateur Web moderne. Dans cette nouvelle perspective, gardez à l'esprit ce qui suit :
- À l'instar des navigateurs modernes, il est possible que notre moteur de rendu ne soit pas compatible avec toutes les technologies utilisées sur vos pages. Assurez-vous que votre conception Web respecte les principes de l' amélioration progressive , car cela permet à nos systèmes (et à un plus grand nombre de navigateurs) de détecter le contenu utilisable et les fonctionnalités de base lorsque certains éléments de la conception Web ne sont pas encore compatibles.
- Si vos pages s'affichent plus rapidement, non seulement les internautes peuvent accéder plus facilement à votre contenu, mais elles peuvent également être indexées de manière plus efficace. Nous vous recommandons de suivre les bonnes pratiques d' optimisation des performances des pages , et en particulier les suivantes :
- Supprimer les téléchargements inutiles
- Optimiser l'affichage de vos fichiers CSS et JavaScript : en concaténant (ou en fusionnant) vos fichiers CSS et JavaScript distincts, en réduisant la taille de ces fichiers concaténés et en configurant votre serveur Web de sorte qu'il les diffuse dans un format compressé (via une compression gzip, en général).
- Assurez-vous que votre serveur peut gérer des charges supplémentaires afin d'afficher les fichiers JavaScript et CSS pour Googlebot.
Test et résolution des problèmes
Parallèlement au lancement de notre système d'indexation basé sur le rendu des pages, nous avons également mis à jour la fonctionnalité
Explorer et afficher comme Google
des outils pour les webmasters afin que les webmasters puissent savoir comment leurs pages s'affichent dans nos systèmes. Grâce à cela, vous pourrez identifier un certain nombre de problèmes relatifs à l'indexation, comme des restrictions inappropriées du fichier robots.txt ou des redirections qui ne peuvent être suivies par Googlebot.
Comme d'habitude, si vous avez des commentaires ou des questions, n'hésitez pas à nous en faire part sur notre
Forum d'aide pour les webmasters
.
Publié par
Pierre Far
, Webmaster Trends Analyst