Surveiller les performances

Prioriser les performances n'est pas seulement bénéfique pour les utilisateurs, mais aussi pour les entreprises. Bien que les bonnes pratiques de cette collection se concentrent principalement sur l'optimisation de l'intégration de votre balise Google Publisher Tag (GPT), de nombreux autres facteurs contribuent aux performances globales d'une page donnée. Chaque fois que vous apportez des modifications, il est important d'évaluer leur impact sur tous les aspects des performances de votre site.

Mesurer les performances des pages

Pour comprendre l'impact d'un changement sur les performances de votre site, vous devez d'abord établir une référence à comparer. Le meilleur moyen d'y parvenir est de créer un budget de performances qui définit une référence, que votre site peut ou non atteindre actuellement. Toutefois, si vous souhaitez maintenir un niveau de performances fixe, vous pouvez utiliser les métriques de performances actuelles de votre site comme référence.

Pour commencer à mesurer les performances, nous vous recommandons de combiner les approches suivantes:

  • Surveillance synthétique
    Vous pouvez utiliser des outils tels que Lighthouse et Publisher Ads Audits for Lighthouse pour mesurer les performances des pages dans le cadre d'un atelier. Ce type de mesure ne nécessite pas d'interaction avec l'utilisateur final. Il est donc particulièrement adapté aux tests automatisés et peut être utilisé pour valider les performances des modifications avant de les déployer auprès des utilisateurs.
  • Surveillance des utilisateurs réels (RUM)
    Vous pouvez utiliser des outils tels que Google Analytics et PageSpeed Insights pour collecter des données de performances réelles directement auprès des utilisateurs. Ce type de mesure est basé sur les interactions des utilisateurs finaux. Il est donc utile pour identifier les problèmes de performances du dernier kilomètre qui ne peuvent pas être facilement détectés par des tests synthétiques.

Veillez à prendre régulièrement des mesures et à les comparer à votre référence. Vous saurez ainsi si les performances de votre site évoluent dans la bonne direction au fil du temps.

Choisissez ce que vous souhaitez évaluer

En ce qui concerne les performances, il n'existe pas de métrique unique qui puisse vous indiquer tout ce que vous devez savoir sur les performances de votre site. Pour obtenir une vue d'ensemble, vous devez examiner différentes métriques couvrant différents aspects des performances des pages. Certains domaines de performances clés et métriques suggérées sont listés dans le tableau ci-dessous.

Zone de performances
Vitesse de chargement perçue Mesures

Vitesse à laquelle une page peut charger et afficher tous les éléments de l'interface utilisateur.


Métriques suggérées

First Contentful Paint (FCP)
Largest Contentful Paint (LCP)
Temps nécessaire pour afficher la première annonce

Réactivité du chargement de la page Mesures

Vitesse à laquelle une page devient responsive après le chargement initial.


Métriques suggérées

Délai avant entrée (FID)
Délai avant interactivité (TTI)
Délai avant blocage total (TBT)

Stabilité visuelle Mesures

L'ampleur des décalages des éléments d'interface utilisateur et si ces décalages interfèrent avec l'interaction de l'utilisateur. Pour en savoir plus, consultez Réduire le décalage de mise en page.


Métriques suggérées

Déplacement cumulé des annonces
Cumulative Layout Shift (CLS)

En plus des performances des pages, vous pouvez également mesurer des métriques commerciales spécifiques aux annonces. Vous pouvez obtenir des informations telles que les impressions, les clics et la visibilité par emplacement dans les rapports Google Ad Manager.

Tester les modifications

Une fois que vous avez défini vos métriques de performances et commencé à les mesurer régulièrement, vous pouvez commencer à utiliser ces données pour évaluer l'impact sur les performances des modifications apportées à votre site au fur et à mesure qu'elles sont apportées. Pour ce faire, comparez les métriques mesurées après un changement à celles mesurées avant le changement (et/ou à la référence que vous avez établie précédemment). Ce type de test vous permettra de détecter et de résoudre les problèmes de performances avant qu'ils ne deviennent un problème majeur pour votre entreprise ou vos utilisateurs.

Tests automatiques

Vous pouvez mesurer les métriques qui ne dépendent pas de l'interaction utilisateur via des tests synthétiques. Ces types de tests doivent être exécutés aussi fréquemment que possible pendant le processus de développement pour comprendre l'impact des modifications non publiées sur les performances. Ce type de test proactif peut aider à détecter les problèmes de performances avant que les modifications ne soient publiées auprès des utilisateurs.

Pour ce faire, vous pouvez intégrer les tests synthétiques à un workflow d'intégration continue (CI), où les tests s'exécutent automatiquement chaque fois qu'une modification est apportée. Vous pouvez utiliser Lighthouse CI pour intégrer les tests de performances synthétiques à de nombreux workflows CI:

Tests A/B

Les métriques qui dépendent de l'interaction des utilisateurs ne peuvent pas être entièrement testées tant qu'une modification n'a pas été publiée auprès des utilisateurs. Cela peut être risqué si vous n'êtes pas sûr du comportement de la modification. Une technique permettant de limiter ce risque est le test A/B.

Lors d'un test A/B, différentes variantes d'une page sont diffusées auprès des utilisateurs de manière aléatoire. Vous pouvez utiliser cette technique pour diffuser une version modifiée de votre page auprès d'un faible pourcentage du trafic global, tandis que la plupart continuent de recevoir la page non modifiée. Combiné à la RUM, vous pouvez ensuite évaluer les performances relatives des deux groupes pour déterminer celui qui enregistre les meilleures performances, sans mettre en péril 100% du trafic.

Autre avantage des tests A/B : ils vous permettent de mesurer plus précisément les effets des modifications. Pour de nombreux sites, il peut être difficile de déterminer si une légère variation de performances est due à un changement récent ou à une variation normale du trafic. Étant donné que le groupe de test d'un test A/B représente un pourcentage fixe du trafic global, les métriques doivent différer du groupe de contrôle d'un facteur constant. Par conséquent, les différences observées entre les deux groupes peuvent être attribuées avec plus de certitude au changement testé.

Des outils tels que Optimizely et Google Optimize peuvent vous aider à configurer et à exécuter des tests A/B. Sachez toutefois que les tests A/B basés sur des balises (configuration par défaut de ces outils) peuvent eux-mêmes avoir un impact négatif sur les performances et fournir des résultats trompeurs. Par conséquent, l'intégration côté serveur est fortement recommandée:

Résultats des tests A/B

Pour mesurer l'impact d'un changement à l'aide d'un test A/B, vous collectez des métriques à la fois du groupe de contrôle et du groupe de test, puis vous les comparez. Pour ce faire, vous devez pouvoir identifier le trafic qui appartient à chaque groupe.

Pour les métriques de performances des pages, il suffit souvent d'inclure un identifiant simple sur chaque page indiquant si la version de contrôle ou expérimentale a été diffusée. Cet identifiant peut être n'importe quel élément, à condition que vous puissiez l'analyser et le corréler avec des métriques. Si vous utilisez un framework de test prédéfini, cette opération est généralement effectuée automatiquement.

Pour les métriques commerciales spécifiques aux annonces, vous pouvez utiliser la fonctionnalité de ciblage par clé-valeur de GPT afin de différencier les requêtes d'annonces du groupe de contrôle et du groupe expérimental:

// On control group (A) pages, set page-level targeting to:
googletag.pubads().setTargeting('your-test-id', 'a');

// On experimental group (B) pages, set page-level targeting to:
googletag.pubads().setTargeting('your-test-id', 'b');

Vous pourrez ensuite les référencer lorsque vous exécuterez des rapports Google Ad Manager pour filtrer les résultats par groupe.