Organízate con las colecciones
Guarda y clasifica el contenido según tus preferencias.
viernes, 23 de mayo de 2014
En
1998
, cuando nuestros servidores funcionaban desde el garaje de
Susan Wojcicki
, no nos preocupábamos para nada de JavaScript ni de CSS. Estos recursos se utilizaban poco, y JavaScript servía para hacer que los elementos de las páginas... parpadearan. Las cosas han cambiado mucho desde entonces. La Web está repleta de sitios web increíbles, dinámicos y sofisticados que usan mucho JavaScript. Hoy nos centraremos en nuestra capacidad de procesar sitios web más sofisticados, es decir, de ver tu contenido de una forma más parecida a cómo lo hacen los navegadores web modernos, de incluir recursos externos, de ejecutar JavaScript y de aplicar CSS.
Hasta ahora solo nos fijábamos en el contenido textual sin editar procedente del cuerpo de respuesta de HTTP, y no interpretábamos lo que veía un navegador normal que ejecutara JavaScript. Cuando empezaron a aparecer páginas con valioso contenido procesado por JavaScript, los usuarios que hacían búsquedas no podían acceder a ese contenido, lo cual era muy negativo tanto para los usuarios como para los webmasters.
Para solucionar ese problema, decidimos intentar comprender las páginas mediante la ejecución de JavaScript. No era tarea fácil, dada la envergadura de la Web actual, pero pensamos que valía la pena intentarlo. Poco a poco hemos ido mejorando la forma de hacerlo. Durante los últimos meses, nuestro sistema de indexación ha procesado un número sustancial de páginas web de forma más parecida a cómo lo haría el navegador de un usuario normal con JavaScript activado.
Hay algunas cosas que a veces fallan durante el procesamiento, lo que puede afectar negativamente a los resultados de búsqueda de tu sitio. A continuación detallamos algunos problemas potenciales y, siempre que sea posible, la forma de evitar que se produzcan:
Si se bloquean recursos como JavaScript o CSS en diferentes archivos (por ejemplo, con robots.txt) y Googlebot no puede recuperarlos, nuestros sistemas de indexación no podrán ver tu sitio como un usuario común. Te recomendamos que permitas que Googlebot recupere datos en JavaScript y CSS para que tu contenido se pueda indexar mejor. Esto es especialmente importante en sitios web para móviles, en los que los recursos externos como CSS y JavaScript contribuyen a que nuestros algoritmos comprendan que las páginas están
optimizadas para móviles
.
Si nuestro servidor web no puede gestionar el volumen de solicitudes de rastreo de recursos, nuestra capacidad de procesar tus páginas se puede ver afectada negativamente. Si quieres asegurarte de que Google pueda procesar tus páginas, comprueba que los servidores puedan gestionar las solicitudes de rastreo de los recursos.
Siempre es recomendable que tu sitio tenga una degradación elegante. Esto permite que los usuarios disfruten de tu contenido aunque su navegador no disponga de las implementaciones de JavaScript compatibles. También es útil para los visitantes que tienen JavaScript inhabilitado o desactivado, así como para los motores de búsqueda que aún no pueden ejecutar JavaScript.
A veces, ejecutar JavaScript puede ser un proceso demasiado opaco o complejo para nosotros, en cuyo caso no podremos procesar la página por completo ni de la forma adecuada.
Algunos recursos de JavaScript eliminan contenido de la página en vez de añadirlo, lo que nos impide indexar dicho contenido.
Para facilitar la depuración, estamos trabajando en una herramienta para ayudar a los webmasters a comprender mejor cómo procesa Google su sitio. Esperamos ponerla a tu disposición dentro de unos días en
Herramientas para webmasters
.
Escrito por Michael Xu, Ingeniero de Software, y Kazushi Nagayama, Analista de Tendencias de Webmasters, Publicado por
Javier Pérez
equipo de calidad de búsqueda.
[[["Es fácil de entender","easyToUnderstand","thumb-up"],["Me ofreció una solución al problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Me falta la información que necesito","missingTheInformationINeed","thumb-down"],["Es demasiado complicado o hay demasiados pasos","tooComplicatedTooManySteps","thumb-down"],["Está obsoleto","outOfDate","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Problema de muestras o código","samplesCodeIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2014-05-01 (UTC)."],[[["\u003cp\u003eGoogle's indexing system is now rendering a significant number of web pages with JavaScript enabled to better understand dynamic content.\u003c/p\u003e\n"],["\u003cp\u003eWebmasters should ensure Googlebot can access JavaScript and CSS files to facilitate proper rendering and indexing, particularly for mobile websites.\u003c/p\u003e\n"],["\u003cp\u003eWebsites should be designed to degrade gracefully for users and search engines that may not have JavaScript capabilities, ensuring content accessibility.\u003c/p\u003e\n"],["\u003cp\u003ePotential issues with rendering may include server overload due to crawl requests, overly complex JavaScript, and JavaScript removing content, which webmasters should address.\u003c/p\u003e\n"],["\u003cp\u003eGoogle is developing a tool in Webmaster Tools to aid webmasters in understanding how Google renders their websites.\u003c/p\u003e\n"]]],["Google's indexing system now renders web pages more like a typical browser, including executing JavaScript and applying CSS. Key actions include allowing Googlebot to retrieve JavaScript and CSS resources, ensuring servers can handle crawl requests, and having sites degrade gracefully. Complex or content-removing JavaScript can hinder indexing. A tool is in development to help webmasters understand how their site is rendered, and the team recommends checking the help forum.\n"],null,["# Understanding web pages better\n\nFriday, May 23, 2014\n\n\nIn [1998](https://www.google.com/about/company/history/) when our\nservers were running in\n[Susan Wojcicki](https://twitter.com/SusanWojcicki)'s garage, we\ndidn't really have to worry about JavaScript or CSS. They weren't used much, or, JavaScript was\nused to make page elements... blink! A lot has changed since then. The web is full of rich,\ndynamic, amazing websites that make heavy use of JavaScript. Today, we'll talk about our\ncapability to render richer websites---meaning we see your content more like modern Web\nbrowsers, include the external resources, execute JavaScript and apply CSS.\n\n\nTraditionally, we were only looking at the raw textual content that we'd get in the HTTP response\nbody and didn't really interpret what a typical browser running JavaScript would see. When pages\nthat have valuable content rendered by JavaScript started showing up, we weren't able to let\nsearchers know about it, which is a sad outcome for both searchers and webmasters.\n\n\nIn order to solve this problem, we decided to try to understand pages by executing JavaScript.\nIt's hard to do that at the scale of the current web, but we decided that it's worth it. We have\nbeen gradually improving how we do this for some time. In the past few months, our indexing system\nhas been rendering a substantial number of web pages more like an average user's browser with\nJavaScript turned on.\n\n\nSometimes things don't go perfectly during rendering, which may negatively impact search results\nfor your site. Here are a few potential issues, and---where possible,---how you can help\nprevent them from occurring:\n\n- If resources like JavaScript or CSS in separate files are blocked (say, with robots.txt) so that Googlebot can't retrieve them, our indexing systems won't be able to see your site like an average user. We recommend allowing Googlebot to retrieve JavaScript and CSS so that your content can be indexed better. This is especially important for mobile websites, where external resources like CSS and JavaScript help our algorithms understand that the pages are [optimized for mobile](/search/docs/crawling-indexing/mobile/mobile-sites-mobile-first-indexing#crawling_requirement).\n- If your web server is unable to handle the volume of crawl requests for resources, it may have a negative impact on our capability to render your pages. If you'd like to ensure that your pages can be rendered by Google, make sure your servers are able to handle crawl requests for resources.\n- It's always a good idea to have your site degrade gracefully. This will help users enjoy your content even if their browser doesn't have compatible JavaScript implementations. It will also help visitors with JavaScript disabled or off, as well as search engines that can't execute JavaScript yet.\n- Sometimes the JavaScript may be too complex or arcane for us to execute, in which case we can't render the page fully and accurately.\n- Some JavaScript removes content from the page rather than adding, which prevents us from indexing the content.\n\n\nTo make things easier to debug, we're currently working on a tool for helping webmasters better\nunderstand how Google renders their site. We look forward to making it to available for you in the\ncoming days in\n[Webmaster Tools](https://search.google.com/search-console).\n\nIf you have any questions, please you can visit our help forum.\n\n\nPosted by Erik Hendriks and [Michael Xu](https://www.linkedin.com/in/michaelxu1999/), Software Engineers, and\n[Kazushi Nagayama](https://plus.google.com/+KazushiNagayama/?rel=author),\nWebmaster Trends Analyst"]]