Office Hours de Google sur le SEO de septembre 2023

Voici la transcription des Office Hours de Google sur le SEO de septembre 2023. Pour obtenir une aide spécifique à votre site, nous vous recommandons de poser votre question dans la communauté d'aide Google Search Central.

Google indexe-t-il par erreur la version www de mon site Web ?

John : Wan demande : "Google indexe par erreur la version www de mon site Web. La bonne page est censée être HTTP, suivie du nom de domaine .my sans le www."

Bonjour Wan ! Après examen de vos pages, il semble que votre serveur redirige automatiquement la version sans "www" vers la version avec "www" et définit correctement l'élément "link rel" canonique. À première vue, si vous utilisez Chrome, il peut sembler que le préfixe www ne s'affiche pas. Toutefois, si vous cliquez deux fois sur l'URL en haut dans le navigateur, l'URL complète (avec www) apparaît. En pratique, ce n'est pas un problème. Les versions avec et sans www d'un site sont parfaitement compatibles avec la recherche Google. Ouah, ça fait beaucoup de wwws !

Pourquoi les données filtrées sont-elles plus élevées que les données globales dans la Search Console ? Cela n'a aucun sens.

Gary : Ornella demande : "Pourquoi les données filtrées sont-elles plus élevées que les données globales dans la Search Console ? Cela n'a aucun sens."

Tout d'abord, j'aime beaucoup cette question, mais probablement pour une mauvaise raison. Pour faire court, nous utilisons énormément les filtres Bloom, car nous devons traiter un grand nombre de données et ces filtres peuvent nous faire gagner beaucoup de temps et d'espace de stockage. La version longue est aussi que nous utilisons énormément les filtres Bloom, car nous devons traiter un grand nombre de données. Mais je veux également dire quelques mots sur les filtres Bloom : lorsque vous gérez un grand nombre d'éléments dans un ensemble, et par là j'entends des milliards d'éléments, voire des milliers de milliards, rechercher des éléments rapidement devient très difficile. C'est là que les filtres Bloom sont utiles: ils permettent de consulter un autre ensemble qui contient un hachage d'éléments possibles de l'ensemble principal, et vous recherchez les données là. Puisque vous recherchez d'abord les hachages, c'est assez rapide, mais le hachage entraîne parfois une perte de données, délibérée ou non, et c'est ce que vous constatez : moins de données à traiter, cela signifie des prédictions plus précises quant à l'existence ou non d'un élément dans l'ensemble principal. Les filtres Bloom accélèrent les recherches en prédisant s'il existe quelque chose dans un ensemble de données, mais au détriment de la précision, et plus l'ensemble de données est petit, plus les prédictions sont précises.

Pourquoi les pages de mon site Web Google Sites ne sont-elles pas indexées correctement ?

John : Une question en français demande pourquoi les pages d'un site Web Google Sites ne sont pas indexées correctement.

C'est super d'avoir des questions dans d'autres langues. De manière générale, les sites Web créés sur Google Sites peuvent être et sont indexés dans la recherche Google. Toutefois, les URL utilisées dans Google Sites sont un peu difficiles à suivre, car la version publique peut être différente de l'URL qui s'affiche lorsque vous êtes connecté. Pour être concis, même si elle est techniquement indexable, elle n'est pas idéale à des fins de SEO et peut s'avérer complexe pour le suivi dans la Search Console. Si le SEO est votre priorité, il peut être intéressant d'étudier d'autres options, et d'évaluer les avantages et les inconvénients avant de vous engager. Pour le suivi des performances dans la Search Console, vous pouvez également utiliser votre propre nom de domaine pour le contenu Google Sites. Utiliser votre propre nom de domaine facilite la migration, le cas échéant, et vous permet de confirmer la propriété de l'ensemble du domaine pour la Search Console.

Gary : Sarabjit demande : "Notre site Web comporte plusieurs boutons. Lorsque l'internaute clique dessus, nous récupérons des liens vers d'autres pages. Google pourra-t-il explorer ces liens ?"

En règle générale, Googlebot ne clique pas sur les boutons.

Un "post invité" (pour obtenir un lien entrant) enfreint-il les consignes de Google si je rédige du contenu intéressant ?

John : Brooke demande : "La plupart des sites Web offrent aujourd'hui uniquement la possibilité d'acheter un "post invité" (pour obtenir un lien entrant). Est-ce contraire aux consignes de Google si je rédige du contenu de qualité ?"

Bonjour, Brooke, merci pour votre question. Il semble que vous soyez déjà sur la bonne voie. Oui, l'utilisation de posts d'invités pour les liens est contraire à nos Règles concernant le spam. Il est surtout important que ces liens soient qualifiés de sorte qu'ils n'aient aucune incidence sur les résultats de recherche. Pour ce faire, utilisez les attributs rel=nofollow ou rel=sponsored au niveau des liens. L'utilisation de la publicité pour promouvoir votre site est autorisée, mais les liens doivent être bloqués comme indiqué.

Le contenu d'une page de catégorie "E-commerce" est-il utile pour améliorer le classement général ?

Gary : Brooke se demande si le contenu d'une page de catégorie "E-commerce" est utile pour améliorer le classement général.

Vous pouvez ajouter le contenu de votre choix à vos pages. Après tout, ce sont vos pages. Évitez cependant de répéter sans cesse des textes de présentation de mauvaise qualité générés automatiquement sur l'ensemble de vos pages de catégories. Ils ne font pas sérieux, même pour une personne lambda. Si vous souhaitez ajouter du contenu à vos pages, ajoutez du contenu que les internautes trouveront utile. N'ajoutez pas du contenu qui, selon vous, est utile pour la recherche Google. Consultez également nos recommandations pour l'e-commerce.

Les balises sémantiques incorrectes empêchent-elles Google de comprendre le contenu du site Web ?

John : Les balises sémantiques incorrectes empêchent-elles Google de comprendre le contenu du site Web et, par conséquent, de l'attribuer à une branche ? En particulier, les balises <hr> signalent un changement de sujet, mais je ne peux les utiliser qu'à des fins de conception.

C'est une question intéressante. En règle générale, l'utilisation appropriée du code HTML sémantique aide les moteurs de recherche à mieux comprendre le contenu et le contexte d'une page. Par exemple, si vous balisez des titres sur une page, vous estimez clairement que votre contenu correspond au titre en question. Ce n'est pas une méthode secrète pour arriver en première position dans le classement. Toutefois, si nous avons du mal à comprendre ce que vous voulez dire dans le texte, nous vous conseillons de fournir un résumé clair sous la forme d'un titre. Il s'agit d'un aspect subtil qui dépend de notre compréhension de la page. Je considère donc cela comme une bonne pratique pour vous assurer de ne rien oublier. Dans l'autre sens, passer d'un code HTML sémantiquement correct à un code HTML sémantiquement incorrect, est également subtil. Les moteurs de recherche peuvent-ils toujours comprendre votre page ? Dans ce cas, vous ne verrez probablement aucune différence dans la façon dont ils la comprennent. Le sens est-il soudain flou ? Essayez peut-être de le clarifier, peut-être avec une structure sémantique. En ce qui concerne votre exemple de balises <hr>, je ne vois pas de cas où il existerait une différence au niveau de l'interprétation d'une page due en raison de leur utilisation incorrecte. Il existe une infinité de façons d'utiliser un élément incorrect, mais celles auxquelles un concepteur Web pourrait accidentellement avoir recours avec les balises <hr> semblent assez sûres. Je suppose que c'est une façon un peu alambiquée de dire "ça dépend". De rien.

Dans la Google Search Console, le rapport sur les pages 404 contient de nombreuses URL qui semblent provenir d'un code JSON ou JavaScript. Devons-nous les ignorer ?

Gary : Reza demande : "Dans la Google Search Console, le rapport sur les pages 404 contient des URL qui semblent avoir été récupérées par erreur depuis un code JSON ou JavaScript. Devrions-nous les ignorer ?"

Vous pouvez ignorer ces URL ou simplement ajouter un en-tête HTTP noindex pour celles-ci.

John : Dhruv demande : "Le fichier d'index de sitemaps peut-il contenir des liens vers des fichiers sitemap se trouvant sur d'autres domaines ?"

Bonjour Dhruv, question intéressante. La réponse de Google est "peut-être". Je ne vous suggère donc pas d'utiliser une telle configuration. Vous pouvez envoyer des sitemaps pour des URL qui ne font pas partie du même domaine dans deux cas de figure : soit vous soumettez le sitemap via le fichier robots.txt, soit vous avez confirmé que vous êtes bien le propriétaire de tous les domaines dans la Search Console. Confirmer la propriété dans la Search Console, en particulier, peut être subtil et ne pas être visible immédiatement lorsque vous analysez le site Web. Il est donc facile d'oublier cela. Si vous travaillez sur des fichiers sitemap et décidez que vous souhaitez utiliser une configuration comme celle-ci, je vous conseille d'ajouter un commentaire XML au fichier sitemap afin de vous souvenir de ces exigences et de ne pas les enfreindre accidentellement à l’avenir. La Search Console étant propre à Google, vous pouvez également consulter les exigences des autres moteurs de recherche à ce sujet.

Comment peut-on réduire la probabilité que Google choisisse ses propres meta descriptions pour les sites Web ?

Gary : Sam Bowers se pose la question suivante : "comment réduire la probabilité que Google choisisse ses propres meta descriptions pour les sites Web ?"

Bonne question : ce n'est pas toujours le cas, mais nos algorithmes utilisent généralement votre meta description lorsqu'il n'y a pas beaucoup de contenu sur la page ou lorsque la meta description est plus pertinente que le contenu réel de la page pour la requête de l'utilisateur. En savoir plus sur les descriptions et les extraits

Existe-t-il un moyen d'empêcher les robots d'exploration d'explorer certaines sections d'une page ?

John : Existe-t-il un moyen d'empêcher les robots d'exploration d'explorer certaines sections d'une page (l'exploration et l'indexation de la page sont autrement autorisées) ? L'internaute précise avoir beaucoup de doublons dans les "méga-menus" et aimerait les bloquer.

Oui, vous pouvez empêcher l'indexation de certaines parties d'une page. Toutefois, il n'est pas nécessaire de bloquer l'indexation des éléments de page courants tels que les en-têtes, les menus, les barres latérales et les pieds de page. Les moteurs de recherche gèrent le Web tel quel. Il peut arriver qu'il y ait des méga-menus ou des pieds de page géants. Ce n'est pas un problème. Pour d'autres éléments de contenu d'une page, vous pouvez soit utiliser un iFrame dont la source est bloquée par le fichier robots.txt, soit intégrer du contenu avec JavaScript bloqué de la même manière par le fichier robots.txt. Si vous souhaitez simplement qu'un élément ne s'affiche dans un extrait, vous pouvez utiliser l'attribut data-nosnippet. Mais là encore, il n'est pas nécessaire d'ajouter une telle complexité simplement pour masquer un menu. Une complexité inutile entraîne un risque de défaillances inattendues des éléments. Il est donc préférable de limiter cette opération aux cas où cela est vraiment nécessaire.

Recommandez-vous le défilement infini sur les pages Web ? Y a-t-il une incidence sur le trafic généré par les résultats naturels ou pour Googlebot ?

Gary : Jeethu demande : "Recommandez-vous le défilement infini sur les pages Web ? L'ajout de cette fonctionnalité a-t-il une incidence sur le trafic généré par les résultats naturels ou pour GoogleBot ?"

Cela dépend de la façon dont vous implémentez le défilement infini. Si chaque élément ou page virtuelle est également accessible et localisable via une URL unique, le défilement infini est généralement acceptable.

John : Ryan demande : Si une page d'accueil contient des liens qui s'affichent sur le Web mobile, mais qui sont cachés derrière un bouton d'activation JavaScript sur la version de bureau et ne sont pas inclus dans le code HTML à moins que l'internaute ne clique dessus, Google pénalisera-t-il ces liens ?

Bonjour Ryan. Avec l'indexation orientée mobile, nous utilisons la version mobile d'une page comme base pour l'indexation et la découverte des liens. Si la version mobile a accès à l'intégralité du contenu, vous n'avez rien d'autre à faire. Je suis étonné de voir que vous avez moins de contenu sur la version de bureau, mais j'imagine que vous avez vos raisons.

Google indexe-t-il les fichiers PDF enregistrés dans Google Drive qui ne sont pas hébergés sur un site Web ?

Gary : Anonyme demande : "Google indexe-t-il les fichiers PDF enregistrés dans Google Drive qui ne sont pas hébergés sur un site Web ? Si oui, combien de temps cela prend-il ?"

Oui, Google peut indexer des fichiers PDF publics hébergés sur Google Drive. Ce n'est qu'une URL sur un site. Comme pour n'importe quelle URL, ces PDF peuvent être indexés en quelques secondes, ou jamais.

Comment Google explore-t-il le contenu faisant l'objet d'un détournement du défilement (scrolljacking), et cette approche de l'expérience utilisateur aura-t-elle un impact sur le classement ?

John : Matt a envoyé la question suivante : "Le 'scrolljacking' est de plus en plus populaire sur le Web. Ce contenu est généralement considéré comme offrant une mauvaise expérience utilisateur. Comment Google explore-t-il ce contenu, et cette approche de l'expérience utilisateur aura-t-elle un impact sur le classement ?" Il a également ajouté un lien vers un article sur le détournement de défilement, que j’ajouterai dans la transcription.

Bonjour Matt, c'est une question intéressante. Je ne savais pas que ça s'appelait Scrolljacking. Merci pour le lien. Je ne pense pas que nous pourrions considérer cette opération comme abusive. Il n'y aura donc pas d'effet direct. Cependant, vous pourriez constater des effets techniques secondaires. Par exemple, Google affiche les pages en les chargeant sur un appareil mobile théoriquement très volumineux. Si la page n'affiche pas le contenu en raison de manipulations du défilement, nos systèmes peuvent supposer que le contenu n'est pas correctement visible. Pour résumer, il s'agit plus d'un problème potentiel de rendu que d'un problème de qualité.

Pourquoi l'URL est-elle indexée alors qu'elle est bloquée par le fichier robots.txt dans ma Google Search Console ?

Gary : Deniz Can Aral demande : "Pourquoi l'URL est-elle indexée alors qu'elle est bloquée par le fichier robots.txt dans ma Google Search Console ?"

Il s'agit d'une question relativement courante : Google peut indexer l'URL, et seulement l'URL, pas son contenu, même si l'exploration de cette URL par le biais du fichier robots.txt est bloquée. Le nombre d'URL de ce type dans notre index est cependant infime, car cela ne se produit que si l'URL bloquée est très recherchée sur Internet. Si cela vous pose problème, autorisez l'exploration de l'URL et utilisez une règle noindex dans les en-têtes HTTP ou une balise <meta>.

Nous avons du contenu d'IA indésirable. Comment puis-je les corriger ou les supprimer de mon site Web ?

John : Sonia demande : "Nous avons embauché des rédacteurs de contenu qui nous ont fourni des contenus basés sur l'IA. Comment résoudre ce problème ? Dois-je simplement supprimer ce contenu ? Le remplacer par un nouveau contenu ? Supprimer et créer un site Web avec une nouvelle URL ? Que faire ?"

Je ne sais pas quoi dire, Sonia. Il semble que vous ayez publié des contenus d'auteurs externes aveuglément, sans les avoir examinés. Cela semble être une mauvaise idée, même sans l'aspect du contenu de l'IA. Quelles que soient les raisons et la source, si vous avez publié du contenu de mauvaise qualité sur votre site Web et que vous ne souhaitez plus être associée à celui-ci, vous pouvez soit le supprimer, soit le corriger. Je vous suggère d'examiner la situation dans sa globalité : manque-t-il de ce type de contenu sur le Web ? Votre site pourrait-il apporter une valeur ajoutée significative aux internautes en général ? Ou s'agit-il simplement d'un contenu remanié qui existe déjà sur le reste du Web ? Ou voyez cela sous un autre angle : si votre contenu est essentiellement le même que d'autres, pourquoi les moteurs de recherche devraient-ils l'afficher en bonne position dans les résultats de recherche, et même seulement l'indexer ? Bien sûr, créer un site Web de qualité ne se limite pas à rédiger des articles de qualité. Cela nécessite une stratégie claire et des processus qui garantissent que tout le monde respecte vos objectifs.

Nous avons enregistré un pic du nombre d'URL indexées d'un jour à l'autre. Pour quelles raisons ?

Gary : Lorenzo se demande : "Nous avons enregistré un pic du nombre d'URL indexées d'un jour à l'autre. Pour quelles raisons ?"

Nous avons peut-être eu plus de disques durs, libéré de l'espace ou simplement découvert ces nouvelles URL. C'est difficile à dire. Quoi qu'il en soit, sortez le champagne ! Ça s'arrose !

Google peut-il utiliser plusieurs tailles de fichier dans un même fichier favicon ?

John : Dave demande si Google peut utiliser plusieurs tailles de fichier dans un même fichier favicon. Est-ce qu'il comprend les icônes multiples balisées avec l'attribut de taille et choisit l'icône appropriée ?

Bonjour Dave. Techniquement, le format de fichier .ico vous permet de fournir des fichiers dans plusieurs résolutions. Cependant, compte tenu de l'augmentation du nombre de tailles utilisées à des fins diverses, je pense qu'il est généralement préférable de spécifier les tailles et les fichiers individuellement. Google accepte plusieurs tailles de favicon en HTML. Si vous souhaitez fournir des tailles spécifiques, n'hésitez pas.

Est-ce que Google évalue les parties d'un site Web différemment lorsqu'elles reposent sur un autre CMS ?

Gary : Vivienne se pose la question suivante : "Est-ce que Google évalue les parties d'un site Web différemment lorsqu'elles reposent sur un autre CMS ?"

Non.

Dans la recherche Google, notre site Web affiche un téléchargement PDF en tant que page principale. Le résultat de recherche peut-il être modifié ?"

John : Anna pose la question suivante : "Le résultat de recherche Google du site Web de notre fondation a besoin d'être à nouveau exploré, car elle affiche un téléchargement de PDF en tant que page principale. Notre site Web est une fondation néerlandaise pour les droits de l'homme. Le résultat de recherche peut-il être modifié ?"

Bonjour Anna. J'ai examiné votre site Web. La raison pour laquelle d'autres pages s'affichent à la place de votre page d'accueil est que celle-ci contient une balise <meta> pour les robots noindex. Cette balise <meta> empêche l'indexation de la page. Une fois que vous l'aurez supprimée, les choses devraient revenir à la normale rapidement.

Lorsque je recherche mon site Web dans la recherche Google, le premier résultat est une page de produit et non ma page d'accueil. Pourquoi ?

John : Julien demande : "Lorsque je recherche mon site Web dans la recherche Google, le premier résultat est une page de produit et non ma page d'accueil. Pourquoi ? La page du produit n'est même pas préparée avec le SEO, mais ma page d'accueil l'est."

Bonjour Julien. Google utilise un certain nombre de facteurs pour essayer d'identifier les pages les plus pertinentes pour les internautes lors de requêtes spécifiques. Dans la récupération d'informations, l'un des concepts est basé sur l'intention perçue de l'utilisateur. En bref : qu'essayait-il de faire lorsqu'il a effectué cette recherche ? Cherchait-il plus d'informations sur un produit ou une entreprise ? Ou envisage-t-il d'acheter ce produit actuellement ? Cela peut également changer au fil du temps pour la même requête. En bref, cela signifie que même lorsqu'une page n'est pas préparée pour le SEO, il est possible qu'elle apparaisse dans les résultats de recherche si les systèmes la jugent pertinente au moment de la recherche. En pratique, je vous recommande de comprendre les différentes manières dont les internautes accèdent à votre site et d'essayer de répondre à leurs besoins de manière appropriée, afin que, quel que soit l'endroit où ils arrivent sur votre site, ils bénéficient d'une bonne expérience.

J'ai reçu une alerte Search Console m'invitant à résoudre des problèmes liés à INP. Comment calculer cela et quelle est la solution la plus simple pour résoudre cela ?

John : Alejandro a envoyé une question : "Bonjour John et l'équipe Google, j'ai reçu aujourd'hui une alerte Search Console concernant la résolution de problèmes liés à INP. Comment calculez-vous ces données et quelle est la façon la plus simple de corriger ces problèmes ?"

Je n'ai pas de réponse complète ici, mais vous trouverez de nombreux documents sur Interaction to Next Paint, ou INP en abrégé, sur le site web.dev. Je vous recommande de les consulter si vous souhaitez améliorer les scores de votre site. N'oubliez pas qu'INP ne fait pas encore partie des métriques Core Web Vitals et que ces dernières ne sont que l'un des nombreux éléments qui jouent un rôle dans notre expérience sur la page et pour nos systèmes de contenu utiles. Bien que l'amélioration de l'INP puisse certainement améliorer l'expérience utilisateur, je ne m'attendrais pas à ce que cela modifie de façon visible le classement dans les résultats de recherche.

Comment puis-je supprimer 30 000 URL de la Google Search Console dans le cadre d'un piratage par mots clés japonais ?

John : Heather demande : "Comment supprimer 30 000 URL de GSC dans le cadre d'un piratage par mots clés japonais ?"

Bonjour Heather, je suis désolé d'apprendre que votre site a été piraté. J'espère que vous avez réussi à résoudre le problème entre temps. Nous avons des informations sur ce type de piratage sur web.dev. J'ajouterai le lien correspondant dans la transcription. N'oubliez pas que ce piratage a tendance à dissimuler le contenu piraté à Google. Vous aurez donc peut-être besoin d'aide pour vérifier que le problème a bien été résolu. Concernant les résultats de recherche, compte tenu du nombre de pages concernées, je vous recommande de vous concentrer sur les pages les plus visibles et de les résoudre manuellement en les supprimant ou en les réindexant, et de laisser les autres disparaître toutes seules. Si vous recherchez expressément le contenu piraté, vous pourrez le trouver pendant un certain temps. Toutefois, l'internaute moyen recherchant votre site, l'objectif est de veiller à ce que ces résultats de recherche soient acceptables.

Pourquoi les pages sont-elles désindexées après avoir été envoyées pour indexation dans la Search Console ? Ça fait maintenant plusieurs fois que j'essaie.

John : Grace demande : "Pourquoi les pages sont-elles désindexées après avoir été envoyées pour indexation dans la Search Console ? Ça fait maintenant plusieurs fois que j'essaie."

Bonjour Grace. Je ne peux pas vraiment vous donner de réponse sans connaître les pages concernées, mais je pense que nos systèmes ne sont pas convaincus de la valeur de votre site et de son contenu. Nous n'indexons presque jamais toutes les pages d'un site Web. Il est donc normal que cela se produise dans une certaine mesure. Il est possible que vous puissiez demander l'indexation une seule fois, mais nos systèmes réévalueront le contenu et le site Web au fil du temps, et pourraient donc supprimer de nouveau ces pages. La meilleure chose à faire n'est pas d'essayer d'indexer ces pages, mais plutôt de faire en sorte que nos systèmes soient convaincus de la qualité globale de votre site Web et de la valeur unique qu'il apporte au Web, et que votre site Web corresponde à ce que les utilisateurs recherchent réellement. Ensuite, nous l'indexerons.