Permanence Google sur le SEO de mai 2023

Voici la transcription de la permanence Google sur le SEO de mai 2023. Pour obtenir une aide spécifique à votre site, nous vous recommandons de poser votre question dans la communauté d'aide Google Search Central.

Duy : Kholizio a posé la question suivante : Si un domaine est pénalisé, cela affecte-t-il les liens sortants ?

Par le terme "pénalisé", je pense que vous faites référence à un domaine rétrogradé par nos algorithmes antispam ou par des actions manuelles. De façon générale, nous ne faisons effectivement pas confiance aux liens provenant de sites dont nous savons qu'ils pratiquent le spam. Cette pratique nous aide à maintenir la qualité de nos signaux d'ancrage.

Les résultats sont-ils générés de façon différente dans les différents outils de test d'URL ?

Martin : Ellen Edmands pose la question suivante : Les résultats figurant dans l'onglet de rendu HTML de l'outil d'inspection d'URL et dans l'onglet de rendu HTML de l'outil de test des résultats enrichis sont-ils différents ?

En règle générale, ils sont générés de la même manière. Cependant, vous pouvez les créer de deux manières : à l'aide du pipeline d'indexation lorsque vous utilisez l'onglet "Afficher la page explorée" de la Google Search Console, ou via le test en ligne dans la Google Search Console ou l'outil de test des résultats enrichis. Les tests en ligne ignorent la mise en cache pour donner un aperçu actualisé du rendu de la version actuelle de la page. Le test est donc effectué sans mise en cache. Certains délais peuvent expirer et avoir une incidence sur la sortie affichée. Le rendu HTML peut être différent selon l'endroit où ces expirations de délais se produisent, le cas échéant. Cependant, le processus de création utilise exactement les mêmes chemins dans notre infrastructure.

Est-ce que cela vaut la peine de faire du SEO hors page auprès d'annuaires et de sites de partage de favoris ?

Gary : Shantanu a posé la question suivante : Est-ce que cela vaut la peine de faire du SEO hors page auprès d'annuaires et de sites de partage de favoris ?

J'adore cette question, car ça me rappelle la période où je faisais du référencement, il y a maintenant 15 ans ! Pour faire court, je ne perdais pas mon temps avec les annuaires et les sites de partage de favoris. Vous risquez de perdre du temps sur des tâches qui n'auront aucun intérêt.

Pourquoi les pages de collection sont-elles exclues sur mon site par noindex ?

Jean : Pourquoi les pages de collection sont-elles exclues sur mon site par noindex ?

J'ai examiné le site que vous nous avez indiqué pour le vérifier. Pour faire court, le souci concerne en particulier les pages de catégorie paginées de votre site. Elles comportent bien une balise noindex <meta> pour les robots. Dans cette situation, je vérifierais l'URL exacte spécifiée dans la Search Console. La méthode la plus simple consiste à ouvrir la page dans un navigateur et à utiliser la commande d'affichage du code source, puis à rechercher "robots" pour trouver les balises <meta> pour les robots et "googlebot" pour trouver les balises <meta> pour Googlebot. Certaines pages peuvent en comporter plusieurs. Dans votre cas, nous avons remarqué que vous avez deux balises <meta> distinctes pour les robots. La deuxième contient la balise noindex. Dans les cas avancés, il est préférable d'utiliser l'émulation d'appareils mobiles dans Chrome et l'outil "Inspecter l'élément" des outils pour les développeurs afin d'examiner le DOM chargé, ou d'utiliser la fonctionnalité "Inspecter l'URL" de la Search Console. Dans ce cas précis, je pense que votre souci est dû à un plug-in ou un paramètre de la plate-forme d'e-commerce de votre site, et qu'il n'est pas nécessairement problématique.

Duy : quelqu'un a posé la question suivante : Les liens vers mon site semblent provenir de sites Web russes. Comment puis-je bloquer ces liens ? Je pense qu'ils veulent nuire à mon site en faisant baisser son classement dans les résultats de recherche.

Nos algorithmes sont généralement très efficaces pour reconnaître et ignorer les liens renvoyant vers du spam ou des contenus indésirables sur Internet. Dans certains cas, il peut y en avoir beaucoup. Vous n'avez pas à vous en soucier : laissez nos systèmes s'en occuper et concentrez-vous sur l'amélioration de votre site Web.

Le backend d'un site Web a-t-il une incidence sur le classement ?

Martin : Eshragh pose la question suivante : Le backend d'un site Web a-t-il une incidence sur le classement ? Par exemple, le fait que j'utilise WordPress, un CMS personnalisé ou un langage de programmation spécifique pour afficher le code HTML a-t-il une importance quelconque ?

Non, cela n'a généralement aucune importance. Toutefois, les performances et le comportement du backend ont une incidence. Par exemple, si votre serveur est particulièrement lent, cela peut avoir des répercussions sur le classement.

Prévoyez-vous d'autoriser plusieurs noms de site pour les extraits ?

Jean : Madeleine pose la question suivante : Prévoyez-vous d'autoriser plusieurs noms de site pour les extraits (par exemple, pour le domaine racine ET les sous-domaines) ?

D'après notre documentation sur les noms de site, cela ne concerne que le nom de domaine, et non les sous-domaines. Je ne peux pas vous garantir que cette approche changera. À quelques différences près, l'équipe concernée se penche d'abord sur un aspect du problème, évalue son état d'avancement, puis élargit son analyse. Nous ne pouvons rien promettre à l'avenir.

Est-il normal que l'indexation de mes 16 000 pages prenne plus de six mois ?

Gary : Tom Baker pose la question suivante : Est-il normal que l'indexation de mes 16 000 pages prenne plus de six mois ? Le rythme augmente d'environ 5 à 15 par semaine, et je trouve que c'est lent.

La vitesse d'indexation d'un site dépend de nombreux facteurs, mais le plus important est sa qualité, suivie de sa popularité sur Internet. Une fois que vous avez vérifié que la qualité de votre contenu est maximale, diffusez des promotions sur les réseaux sociaux pour inciter les internautes à parler de votre site. Cela devrait vous aider.

Dans le cas des liens permanents, est-il préférable d'utiliser des contractions comme "-wont-" ou plutôt les formes complètes comme "-will-not-" dans l'URL ?

John : Michael pose la question suivante : Dans le cas des liens permanents, est-il préférable d'utiliser des contractions comme "-wont-" ou les formes complètes comme "-will-not-" dans l'URL ? "Wont" a en réalité une autre signification, mais existe-t-il des consignes générales sur la distinction entre "-do-not-" et "-dont-" en anglais ?

Cela n'a aucune importance. En règle générale, les mots figurant dans les URL ont un impact minimal sur la recherche. Mon seul conseil serait de rester cohérent, afin de ne pas créer de liens vers la même page par erreur. De plus, étant donné que les effets sont minimes et que la modification des URL d'un site est un gros changement, je vous déconseille de modifier les URL d'un site uniquement pour essayer de suivre un conseil de référencement que vous auriez vu quelque part.

Si l'URL d'une image comporte de nombreux niveaux, est-ce que les Googlebots ont plus de mal à l'explorer et à l'indexer ?

Martin : Aman pose la question suivante : Si l'URL d'une image comporte de nombreux niveaux, est-ce que les Googlebots ont plus de mal à l'explorer et à l'indexer ? Exemple : https://www.abc.com/ab/cd/content/category/image/hires/imagefilename.jpg

Bonne nouvelle, la réponse est non !

Gary : un utilisateur anonyme pose la question suivante : De nombreux liens entrants de spam renvoient vers mon site Web. Comment les bloquer ?

La réponse est simple : ignorez-les ! L'Internet est immense, et les liens provenant de sites peu recommandables sont monnaie courante. Nous sommes confrontés à ce genre de liens depuis 25 ans et savons plutôt bien comment les ignorer. À votre place, je les ignorerais, tout simplement. S'ils vous dérangent vraiment, vous pouvez utiliser l'outil de désaveu de la Search Console.

Est-il possible que la Google Search Console affiche de fausses requêtes ?

Jean : Alexis pose la question suivante : Est-il possible que la Google Search Console affiche de fausses requêtes ?

Les données sur les performances de la Search Console sont collectées lorsque votre site s'affiche en réponse à des requêtes spécifiques. Les données ne sont pas théoriques et sont basées sur les résultats présentés aux utilisateurs lors de leurs recherches. Quand je vois des données que je ne comprends pas, j'essaie d'affiner les paramètres du rapport pour examiner les spécificités. Les requêtes proviennent-elles d'un pays spécifique ? S'agit-il d'un type de recherche spécifique ? Les requêtes correspondent-elles à une période très courte ? Il est parfois possible de reproduire les résultats de recherche affichés en tenant compte de ces spécificités, mais il peut aussi s'agir d'un élément qui n'est plus affiché ou qui n'est visible que de temps en temps. Ce genre de casse-tête peut être amusant, mais il faut parfois accepter de ne pas pouvoir reproduire les mêmes résultats.

Nous fournissons le code HTML complet d'une page par affichage côté serveur (SSR) pour tous les robots d'exploration et par affichage côté client pour l'utilisateur. Est-ce problématique ?

Martin : Madeleine pose la question suivante : Nous fournissons le code HTML complet d'une page par affichage côté serveur (SSR) pour tous les robots d'exploration et par affichage côté client pour l'utilisateur. Cette solution est-elle adaptée au SEO JavaScript ?

Nous désignons cette approche par l'expression affichage dynamique. Elle rend la configuration et la maintenance du système plus complexes, mais si cela vous convient, vous pouvez tout à fait opter pour cette approche. Nous la déconseillons pour les nouveaux projets, en raison de la complexité accrue pour les propriétaires de sites Web. Cette solution n'est pas optimale, mais si cela fonctionne, je ne vois pas de raison de changer.

Quelle est l'importance des noms de fichiers descriptifs pour les images ?

Gary : Al G pause la question suivante : Quelle est l'importance des noms de fichiers descriptifs pour les images ?

Bonne question ! Ils ne sont généralement pas complètement inutiles, mais si vous disposez de nombreuses images, par exemple des millions, c'est à vous de voir si le jeu en vaut la peine. Si vous n'avez que quelques images, alors attribuez-leur des noms de fichier qui les décrivent correctement, mais ne vous embêtez pas à le faire si vous avez beaucoup d'images. Consultez également nos bonnes pratiques en matière de SEO pour les images.

Quel est le meilleur moyen de générer du trafic après la refonte d'un site ?

John : question suivante : Quel est le meilleur moyen de générer du trafic après la refonte d'un site ?

Il existe de nombreuses façons de procéder à des refontes. Certains sites sont entièrement nouveaux après la refonte, avec de nouvelles URL et de nouvelles structures de pages. Dans ce cas, faites comme si vous aviez fait une migration de site et incluez des redirections. Sinon, vous constaterez peut-être une baisse immédiate du trafic après avoir relancé votre site. Dans votre cas, il semble que le déclin soit plus progressif. Selon moi, cela indique que la refonte n'est pas le principal problème, mais que la baisse de trafic est due au fait que la recherche, le Web ou les utilisateurs ont changé leur comportement ou leurs attentes au fil du temps. Ce problème n'est généralement pas d'ordre technique : essayez plutôt de comprendre l'environnement de votre site et d'adapter votre site en conséquence. Malheureusement, nous savons que ce n'est pas toujours facile !

Le Googlebot d'exploration pour les recherches naturelles affiche-t-il toutes les pages explorées ? Si ce n'est pas le cas, quelle est la fréquence d'affichage ?

Martin : Jason pose la question suivante : Le Googlebot d'exploration pour les recherches naturelles affiche-t-il toutes les pages explorées ? Si ce n'est pas le cas, quelle est la fréquence d'affichage ?

Oui et non. Toutes les pages que nous explorons ne sont pas affichées. Par exemple, une exploration qui renvoie vers une page d'erreur 404 ne sera pas affichée. Chaque page correcte au moment de son exploration est affichée.

Est-il problématique d'utiliser un balisage de schéma sur une page non valide ?

Gary : Mathias pose la question suivante : Est-il problématique d'utiliser un balisage de schéma sur une page non valide ? (Balisage product sans offer/review/aggregateRating, par exemple)

La réponse courte est non. La réponse longue est également non, car si nous ne pouvons pas analyser une page, nous ne l'utiliserons pas. Vous risquez donc de ne pas bénéficier de certaines fonctionnalités de recherche, telles que les attributs enrichis dans vos extraits.

Comment passer d'une redirection 302 à une redirection 301 ?

Jean : Hazim pose la question suivante : Comment passer d'une redirection 302 à une redirection 301 ?

Vous devez vous renseigner auprès de l'hébergeur de votre site ou du bureau d'enregistrement de votre domaine. Cependant, la bonne nouvelle, c'est que la recherche Google reconnaît les redirections temporaires de longue date et les considère comme permanentes. Ce n'est donc pas crucial pour votre site pour le moment. Il est préférable d'utiliser une redirection théoriquement correcte, mais la recherche tente de fonctionner avec les éléments dont vous-même disposez, à partir du moment où il s'agit d'une redirection.

La présence de contenu récurrent volumineux peut-elle nuire à mon site Web ?

Gary : Anan pose la question suivante : La présence de contenu récurrent volumineux peut-elle nuire à mon site Web ? Je ne fais pas référence aux coordonnées, aux règles de confidentialité ni à ce genre de texte.

Généralement, la présence de contenu récurrent volumineux ne devrait pas avoir d'impact particulier sur la présence de votre site Web dans la recherche Google. Cela étant dit, réfléchissez à la façon dont les utilisateurs perçoivent ce contenu récurrent volumineux : ils risquent de ne pas l'apprécier.

Comment empêcher Googlebot d'appeler une API externe coûteuse lors de l'affichage de code JavaScript sur une page ?

Martin : Matthew pose la question suivante : Comment empêcher Googlebot d'appeler une API externe coûteuse lors de l'affichage de code JavaScript sur une page ?

Vous pouvez interdire l'accès à l'API via le fichier robots.txt. Notez toutefois que si vous utilisez l'affichage côté client et que le contenu de la page dépend de ces API, Googlebot doit pouvoir accéder à l'API pour afficher le contenu. Dans le cas contraire, vos pages n'afficheront pas ce contenu lorsque Googlebot les examinera. Pour les URL tierces externes, dont vous ne pouvez pas interdire l'accès avec le fichier robots.txt, vous pouvez charger ces API de manière conditionnelle dans votre code JavaScript et les ignorer lorsque Googlebot demande la page.

Existe-t-il une méthode permettant de changer de nom de domaine sans baisser dans les classements SEO ?

Gary : D.ray from mu.se pose la question suivante : Existe-t-il une méthode permettant de changer de nom de domaine sans baisser dans les classements SEO ?

Une migration de site bien réalisée, comprenant un changement de domaine, ne doit en principe pas entraîner de perte de trafic durable. Donc oui, il existe bien une méthode permettant de changer de nom de domaine sans baisser dans les classements. Consultez notre documentation sur les migrations de site. Nous avons également ajouté des liens vers des guides créés par d'autres experts.

J'ai importé le favicon de ma marque il y a plus d'un mois. Pourquoi mon favicon Webflow est-il toujours présent sur Google ?

John : Josh pose la question suivante : J'ai importé le favicon de ma marque il y a plus d'un mois. Pourquoi mon favicon Webflow est-il toujours présent sur Google ? Savez-vous comment résoudre ce problème pour que le nouveau favicon importé précédemment s'affiche ?

Nous avons rédigé un document d'aide concernant les favicons. Je vous recommande de le consulter. Vérifiez également que l'ancien favicon ne figure plus sur votre site et n'est plus référencé par un lien présent sur votre site. Veillez aussi à rediriger l'ancien fichier vers le nouveau. En bref, assurez-vous que tout est cohérent et que les moteurs de recherche ne risquent pas de mal interpréter vos favicons. Malgré tout, ces changements peuvent mettre un certain temps à devenir visibles. Un mois suffit en principe, mais si vous avez d'autres soucis à corriger, à votre place j'attendrais un peu. Enfin, en dehors de Google, Glenn Gabe a rédigé un fantastique guide sur la résolution des problèmes liés aux favicons. Vous y trouverez peut-être d'autres conseils à ce sujet.

Comment faire quand les articles d'un site Web sont rédigés dans plusieurs langues (sans traduction automatique) ? Comment procéder pour scinder les contenus ?

Gary :V pose la question suivante : Comment faire quand les articles d'un site Web sont rédigés dans plusieurs langues (sans traduction automatique) ? Comment procéder pour scinder les contenus ?

Ce choix vous appartient. Que vous utilisiez des paramètres d'URL comme ceux de notre centre d'aide (?hl=ja, par exemple) ou que vous ajoutiez le code de langue dans le chemin de l'URL, cela n'a pas d'importance du point de vue de la recherche. Veillez simplement à attribuer une URL unique à chaque version.

John : Michał pose la question suivante : Google accepte-t-il les liens tels que <select><option value="https://www.examplepage.com">Page</option> ? Est-ce que cela fonctionne ?

Nous ne traiterons pas cela comme un lien, mais nous reconnaîtrons peut-être l'URL et l'explorerons séparément. Si vous souhaitez qu'un élément soit traité comme un lien, veillez à ce qu'il s'agisse d'un lien normal. Nous avons récemment publié des consignes sur la création de liens. Si votre développeur Web a des questions sur les éléments acceptés, renvoyez-le vers ces consignes. Par ailleurs, cette combinaison de code HTML ne fonctionne pas nécessairement comme un lien dans le navigateur. Elle peut en effet être utilisée dans le menu déroulant d'un formulaire.

Le message "Impossible d'atteindre robots.txt" s'affiche dans la Google Search Console. Pourquoi ?

Gary : Aslam Khan pose la question suivante : Le message "Impossible d'atteindre robots.txt" s'affiche dans la Google Search Console. Pourquoi ?

Si la Search Console signale un problème de fichier robots.txt inaccessible avec votre propriété, votre site ou serveur rencontre un problème. Vous devez le résoudre pour que votre site apparaisse dans la recherche Google. De notre côté, nous ne pouvons pas résoudre le problème. Commencez par vérifier les règles de pare-feu de votre serveur. Regardez si vous voyez quelque chose de suspect dans les règles de blocage, puis vérifiez les fichiers de configuration du serveur. Si vous ne savez pas comment procéder, faites une demande d'assistance auprès de votre fournisseur d'hébergement, qui devrait pouvoir vous aider.

Si un sitemap mentionne des URL hreflang, quelle est l'incidence des propriétés telles que <lastmod> ou <priority> ?

John : Carlos pose la question suivante : Si un sitemap mentionne des URL hreflang, quelle est l'incidence des propriétés telles que <lastmod> ou <priority> ?

Lorsque des annotations hreflang sont spécifiées dans un fichier sitemap, vous faites simplement référence à d'autres URL. Vous devez les confirmer pour toutes les URL de l'ensemble hreflang. Cependant, savoir quand explorer une URL est une autre affaire. Pour l'exploration, entre autres, nous examinons les attributs de l'URL spécifique, par exemple la date de sa dernière modification. Il peut arriver, par exemple, qu'une version dans une langue change indépendamment des autres versions, par exemple quand la traduction est corrigée. Cela dit, même la date de dernière modification n'est qu'un signal très approximatif parmi d'autres signaux. Elle ne garantit pas qu'une page sera bientôt réexplorée. Notez également que si une page est explorée plus fréquemment, elle ne sera pas pour autant mieux classée. Vous n'avez donc pas besoin d'essayer de forcer les robots à explorer plus fréquemment vos pages.

Gary : Nick van Schaik pose la question suivante : Dois-je bloquer les liens d'affiliation dans le fichier robots.txt (pour mieux gérer le budget d'exploration) ou lever l'interdiction et empêcher l'indexation des liens d'affiliation (avec la balise noindex) ?

Il semble judicieux de bloquer les liens d'affiliation dans le fichier robots.txt. Même si nous savons plutôt bien les reconnaître et les ignorer, le fait d'utiliser un fichier robots.txt vous offre un meilleur contrôle et peut en effet vous aider à réduire votre budget d'exploration.