Compreender melhor as páginas da Web

sexta-feira, 23 de maio de 2014

Nível do webmaster: todos

Em 1998 , quando nossos servidores funcionavam na garagem de Susan Wojcicki , o JavaScript e o CSS não eram uma preocupação. Nenhum deles era muito utilizado, e o JavaScript só era usado para criar elementos de página... e em um piscar de olhos, muita coisa mudou desde então. A Web está repleta de websites incríveis, ricos e dinâmicos que usam JavaScript de forma intensiva. Hoje, falaremos sobre nossa capacidade de renderizar websites mais complexos. Isso significa que vemos seu conteúdo como navegadores da Web modernos, incluímos recursos externos, executamos o JavaScript e aplicamos o CSS.

Tradicionalmente, olhávamos somente para o conteúdo do texto bruto que recebíamos no corpo da resposta HTTP, sem interpretar o que um navegador típico executando JavaScript seria realmente capaz de ver. Quando páginas com conteúdo importante renderizado por JavaScript começaram a aparecer, não podíamos compartilhá-las com os usuários, o que era uma situação triste tanto para os usuários quanto para os webmasters.

Para solucionar esse problema, decidimos tentar entender as páginas por meio da execução de JavaScript. Isso é algo difícil de ser realizado na escala atual da Web, mas decidimos que valia a pena. Temos melhorado gradualmente a maneira de fazer isso e, nos últimos meses, o nosso sistema de indexação já renderizou um número significativo de páginas da Web, semelhante a um navegador de um usuário comum com o JavaScript ativado.

Às vezes, nem tudo sai como o esperado durante a renderização, o que pode ter um impacto negativo nos resultados da pesquisa do seu site. Veja alguns problemas que podem acontecer e, quando possível, como evitar que eles ocorram:
  • Se recursos como o JavaScript ou o CSS em arquivos separados estiverem bloqueados (com o robots.txt, por exemplo) de modo que o Googlebot não possa buscá-los, nossos sistemas de indexação não poderão ver seu site como um usuário comum. Recomendamos permitir que o Googlebot busque o JavaScript e o CSS para que seu conteúdo seja mais bem indexado. Isso é importante principalmente quando se trata de websites para dispositivos móveis, nos quais recursos externos, como o CSS e o JavaScript, auxiliam nossos algoritmos a entender que as páginas são otimizadas para dispositivos móveis .
  • Caso seu servidor da Web não consiga aguentar o volume de solicitações de rastreamento de recursos, isso pode ter um impacto negativo em nossa capacidade de renderizar suas páginas. Se você deseja garantir que suas páginas sejam renderizadas pelo Google, verifique se seus servidores podem lidar com solicitações de rastreamento de recursos.
  • É sempre melhor que seu site se torne obsoleto sem perder a relevância. Isso ajudará os usuários a aproveitar seu conteúdo, mesmo que o navegador não seja compatível com as implementações do JavaScript. Isso também ajudará os visitantes com o JavaScript desativado ou desligado, bem como os mecanismos de pesquisa que ainda não executam o JavaScript.
  • Muitas vezes, o JavaScript é muito complexo ou misterioso para ser executado, de modo que não é possível renderizar a página de forma completa e precisa.
  • Alguns JavaScript removem conteúdo da página em vez de adicionar, o que nos impede de indexar o conteúdo.
Para facilitar o processo de encontrar e corrigir bugs, estamos trabalhando atualmente em uma ferramenta para ajudar os webmasters a compreender melhor como o Google renderiza seus sites. Estamos ansiosos para torná-la disponível para você em breve nas Ferramentas do Google para webmasters .

Caso tenha alguma dúvida, visite nosso Fórum de ajuda para Webmasters .

Publicado por Michael Xu, Engenheiro de software, e Kazushi Nagayama, Analista de tendências para webmasters
Traduzido por Diogo Botelho , Equipe de Search Quality e Webmaster Outreach