Monitorar a performance

Priorizar a performance não é bom apenas para os usuários, mas também pode ser bom para os negócios. Embora as práticas recomendadas desta coletânea se concentrem principalmente na otimização da integração da tag do editor do Google (GPT), muitos outros fatores contribuem para a performance geral de uma determinada página. Sempre que você introduz mudanças, é importante avaliar o impacto delas em todos os aspectos do desempenho do seu site.

Medir a performance da página

Para entender como uma mudança afeta o desempenho do seu site, primeiro é necessário estabelecer uma meta de comparação. A melhor maneira de fazer isso é criar um orçamento de performance que defina um valor base, que seu site pode ou não atender. No entanto, se você quiser manter um nível fixo de desempenho, use as métricas de desempenho atuais do seu site como referência.

Para começar a medir o desempenho, recomendamos uma combinação das seguintes abordagens:

  • Monitoramento sintético
    Você pode usar ferramentas como o Lighthouse e as Publisher Ads Audits for Lighthouse para medir o desempenho da página em um ambiente de laboratório. Esse tipo de medição não exige interação do usuário final. Por isso, é adequado para uso em testes automatizados e pode ser usado para validar o desempenho das mudanças antes de liberá-las para os usuários.
  • Monitoramento de usuários reais (RUM)
    Você pode usar ferramentas como o Google Analytics e o PageSpeed Insights para coletar dados de desempenho reais diretamente dos usuários. Esse tipo de medição é baseado nas interações do usuário final. Por isso, é útil para identificar problemas de performance do último milha que não podem ser descobertos facilmente por testes sintéticos.

Faça medições e compare com a referência regularmente. Isso indica se a performance do seu site está na direção certa ao longo do tempo.

Escolher o que avaliar

Quando se trata de performance, não há uma única métrica que possa informar tudo o que você precisa saber sobre o desempenho do seu site. Você vai precisar analisar várias métricas que abrangem vários aspectos do desempenho da página para ter uma visão completa. Algumas áreas de desempenho importantes e métricas sugeridas estão listadas na tabela abaixo.

Área de performance
Velocidade de carregamento percebida Medidas

A rapidez com que uma página pode carregar e renderizar todos os elementos da interface.


Métricas sugeridas

First Contentful Paint (FCP)
Largest Contentful Paint (LCP)
Tempo para renderizar o primeiro anúncio

Responsividade do carregamento da página Medidas

A rapidez com que uma página se torna responsiva após o carregamento inicial.


Métricas sugeridas

First input delay (FID)
Time to Interactive (TTI)
Total blocking time (TBT)

Estabilidade visual Medidas

O quanto os elementos da interface mudam e se essas mudanças interferem na interação do usuário. Consulte Minimizar a troca de layout para ver mais informações.


Métricas sugeridas

Mudança cumulativa do anúncio
Cumulative Layout Shift (CLS)

Além da performance da página, você também pode medir as métricas de negócios específicas do anúncio. Informações como impressões, cliques e visibilidade por slot podem ser obtidas nos relatórios do Google Ad Manager.

Testar alterações

Depois de definir e começar a medir as métricas de performance regularmente, você poderá usar esses dados para avaliar o impacto na performance das mudanças feitas no site. Para isso, compare as métricas medidas após uma mudança com as medidas anteriores à mudança (e/ou a linha de base que você estabeleceu anteriormente). Esse tipo de teste permite detectar e resolver problemas de desempenho antes que eles se tornem um problema grave para sua empresa ou usuários.

Testes automatizados

É possível medir métricas que não dependem da interação do usuário com testes sintéticos. Esses tipos de testes precisam ser executados com a maior frequência possível durante o processo de desenvolvimento para entender como as mudanças não lançadas vão afetar o desempenho. Esse tipo de teste proativo pode ajudar a descobrir problemas de desempenho antes que as mudanças sejam lançadas para os usuários.

Uma maneira de fazer isso é tornando os testes sintéticos parte de um fluxo de trabalho de integração contínua (CI), em que os testes são executados automaticamente sempre que uma mudança é feita. É possível usar o Lighthouse CI para integrar testes de desempenho sintéticos a vários fluxos de trabalho de CI:

Teste A/B

As métricas que dependem da interação do usuário não podem ser totalmente testadas até que uma mudança seja realmente lançada para os usuários. Isso pode ser arriscado se você não tiver certeza de como a mudança vai se comportar. Uma técnica para reduzir esse risco é o teste A/B.

Durante um teste A/B, diferentes variantes de uma página são veiculadas aos usuários aleatoriamente. Você pode usar essa técnica para veicular uma versão modificada da sua página para uma pequena porcentagem do tráfego geral, enquanto a maioria continua recebendo a página não modificada. Em combinação com o RUM, é possível avaliar a performance relativa dos dois grupos para determinar qual deles tem melhor desempenho, sem colocar 100% do tráfego em risco.

Outro benefício dos testes A/B é que eles permitem medir com mais precisão os efeitos das mudanças. Para muitos sites, pode ser difícil determinar se uma pequena diferença na performance é devido a uma mudança recente ou a uma variação normal no tráfego. Como o grupo experimental de um teste A/B representa uma porcentagem fixa do tráfego geral, as métricas precisam ser diferentes do grupo de controle por um fator constante. Portanto, as diferenças observadas entre os dois grupos podem ser atribuídas com mais confiança à mudança que está sendo testada.

Ferramentas como o Optimizely e o Google Optimize podem ajudar na configuração e na execução de testes A/B. No entanto, os testes A/B com base em tags (a configuração padrão para essas ferramentas) podem afetar negativamente a performance e fornecer resultados enganosos. Portanto, a integração do lado do servidor é altamente recomendada:

Resultados do teste A/B

Para medir o impacto de uma mudança usando um teste A/B, colete métricas dos grupos de controle e experimentais e compare-as. Para isso, você precisa de uma maneira de dizer qual tráfego faz parte de qual grupo.

Para métricas de desempenho da página, geralmente basta incluir um identificador simples em cada página indicando se a versão de controle ou experimental foi veiculada. Esse identificador pode ser qualquer coisa que você queira, desde que seja algo que possa ser analisado e relacionado a métricas. Se você estiver usando um framework de teste pré-criado, isso geralmente será feito automaticamente.

Para métricas de negócios específicas de anúncios, use o recurso de segmentação por valor-chave da GPT para diferenciar as solicitações de anúncios do grupo de controle do grupo experimental:

// On control group (A) pages, set page-level targeting to:
googletag.pubads().setTargeting('your-test-id', 'a');

// On experimental group (B) pages, set page-level targeting to:
googletag.pubads().setTargeting('your-test-id', 'b');

Essas chaves-valor podem ser referenciadas ao gerar relatórios do Google Ad Manager para filtrar resultados por grupo.