> Manuales > Posicionamiento en buscadores

Analizamos las repercusiones provocadas a raíz de la actualización del algoritmo de Google Panda, en agosto de 2011, un nuevo orden en la clasificación de las webs que ha alterado significativamente el trabajo del SEO.

Durante los primeros meses de 2011 se puso en producción el nuevo algoritmo de clasificación de los resultados de las búsquedas por parte de Google. Ese nuevo modelo de ponderación de resultados fue incorporado a España y otros países donde Google ofrece búsquedas el pasado 12 de agosto. Esta actualización no se trata de un pequeño ajuste, sino un nuevo enfoque que ha echado por tierra mucha de la ingeniería de posicionamiento en buscadores que hasta el momento estaba dando buenos resultados.

Han pasado pocos días desde esa actualización y aunque aun es pronto para obtener conclusiones, podemos encontrar ya mucho escrito en el idioma inglés sobre el tema, dado que en Estados Unidos el algoritmo lleva unos meses en marcha. Después analizar los resultados de búsquedas que nos afectan directamente y de leer un poco de aquí y de allá, he decidido aportar mis conclusiones sobre este mundillo del SEO.

Pero además este artículo pretende abrir una vía de comunicación con los lectores de DesarrolloWeb.com, que puedan relatar sus propias visiones y sus experiencias, con el objetivo que todos podamos aprender un poco más sobre el asunto y buscar maneras de mejorar nuestros negocios en la Web.

Por qué se actualiza el buscador

Actualizarse o morir. Esa frase la tienen presente la mayoría de las empresas que han triunfado en el mundo actual. Google no deja de ser una de ellas. Después de haber recibido críticas en el pasado acerca de la calidad de sus resultados, ha decidido reformular el algoritmo de clasificación de resultados de las búsquedas. A pesar de todos los éxitos cosechados hasta el momento, era hora de ofrecer algo mejor y así distanciarse un poco más de los que quieren llegar a ser sus competidores.

Pero el motivo más importante de esta actualización es realizar una nueva clasificación de las páginas, eliminando muchas que no son consideradas como de calidad. Desde Google son conscientes de su "responsabilidad para crear un ecosistema web saludable" y hay que darse cuenta que, a lo largo de los últimos años, cientos o miles de personas se han dedicado a hacer ingeniería inversa de los algoritmos del buscador, con el objetivo de posicionar páginas. Su preocupación no era crear un contenido rico, sino averiguar las reglas que utiliza el motor de Google y utilizarlas en su beneficio.

Así, mediante SEO, se han posicionado en los primeros resultados muchas webs que realmente no merecían la pena. Numerosas empresas, en busca de dinero rápido, se han dedicado a hacer lo que se llaman las "granjas de contenido", es decir, páginas de contenido poco valioso y creado masivamente, que únicamente buscan la rentabilidad mediante la publicación de anuncios.

Teóricamente, Panda venía a acabar con el nicho de mercado de las granjas de contenido y a bonificar a los creadores de contenido "de calidad". Obviamente, es una tarea que no resulta fácil y mucho menos si han de ser las máquinas quienes decidan qué contenidos son de calidad y cuáles son prescindibles. No tengo dudas en que en muchos casos Google habrá acertado al clasificar contenidos, pero infelizmente ningún cambio es del agrado de todos. De hecho, debido a esta actualización nos encontramos ante una situación en la que muchas personas se han visto perjudicadas injustificadamente por los cambios de las posiciones de sus páginas web.

Cómo es el nuevo algoritmo de Google, Panda

La novedad en esta ocasión es la creación de un sistema de aprendizaje, por el cual el algoritmo de Google es capaz de decidir si un sitio es o no de calidad y mejorar en base a nuevos datos que se aporten. Claro que, excepto los ingenieros de Google, nadie sabe exactamente cómo está realizado, pero a través de una entrevista a Amit Singhal y Matt Cutts realizada en Wired, podemos conocer algo más de primera mano.

A través del nuevo algoritmo consiguen separar la paja del grano y de un conjunto de sitios saber cuales son bonitos, atractivos, rigurosos, completos, etc. y cuales son lo contrario. Los mejores sitios los hacen subir entre los resultados y los peores sitios los hacen descender. Es un sistema enteramente automático y basado en software, pero claro, ellos mismos saben que no es tarea fácil que un algoritmo consiga acertar siempre al clasificar la calidad de las páginas web.

Por ello, desde Google se hicieron una serie de preguntas como ¿Piensas que este sitio es una autoridad? ¿Te sentirías cómodo dando a tus hijos un medicamento prescrito por este sitio? ¿Verías con buenos ojos la publicación de estos artículos en una revista? etc. Todas ellas las entregaron a personal externo y compararon las respuestas con los resultados de su algoritmo. Al encontrar que sus máquinas eran capaces de clasificar las páginas de una manera muy similar a como lo hacían las personas, decidieron que iban por buen camino.

Paralelamente a través de la extensión "Site Blocker" de Chrome, tenían una serie de webs que las personas estaban bloqueando de los resultados de Google y, aunque afirman que esa información no la llegaron a utilizar para su algoritmo, la compararon con los resultados y observaron que en el 84% de las ocasiones los sitios bloqueados concuerdan con aquellos sitios que el algoritmo juzga como de mala calidad.

En el blog oficial de Google han publicado la lista de preguntas completa que han utilizado para saber si un sitio es o no de calidad y que nosotros podemos hacernos sobre nuestros sitios para saber serán bien considerados. Se puede obtener esa lista de preguntas en el artículo Más recomendaciones para construir sitios de alta calidad.

Entre los criterios que podemos encontrar destacan elementos como:

Todos estos criterios son sin lugar a dudas indicadores de un sitio de calidad, o un sitio producido en masa sin mucho control y por tanto es excelente que Google se preocupe por valorarlos. El personal de Google no comenta cómo ha realizado exactamente esos algoritmos, pero dicen que al comparar sitios buenos y malos encontraron diversos indicadores, como luces verdes o rojas, que son comunes a los sitios con alta o baja calidad. Luego ya solo se trata de intentar buscar esos indicadores entre toda la masa de sitios de la web. A un lado se quedarnos sitios importantes, como Wikipedia o el New York Times y al otro sitios que no eran tan buenos como las mencionadas granjas de contenido.

Sin embargo, en el fondo son todo matemáticas y algorítmica y como ellos mismos saben, no es tarea fácil. Por ello, en la práctica, muchas personas podríamos contestar positivamente a esas cuestiones y no por ello vernos beneficiados en las búsquedas. De hecho, como en Estados Unidos Google Panda ya lleva rodando desde principios de 2011, existen algunos casos destacados de webs aparentemente de calidad que fueron prácticamente borradas del mapa en las búsquedas.

El nuevo trabajo del SEO

Debido a Google Panda, el trabajo de las personas que se dedican a posicionar páginas web, los llamados SEO, ha cambiado para siempre. Anteriormente los SEO se dedicaban a escribir contenido atendiendo a una serie de reglas. Crear un título y unos encabezamientos representativos, utilizar determinadas palabras clave varias veces en los textos o imágenes, conseguir unos buenos enlaces y cosas como esa. Ahora todo ello no va mejorar necesariamente la posición de una una página web, la cosa va más allá. Viendo un vídeo publicado en SEOmoz encontramos algunos datos interesantes sobre lo que dicen los expertos que ahora cuenta. Entre las cosas más interesantes que nos explican encontramos una afirmación que considero clave "El trabajo que antes venían realizando las personas que se dedican a promocionar contenidos ha evolucionado desde SEO hasta Estratega para la Web". Es decir, todas las pequeñas normas que se utilizaban para promocionar un contenido ahora son simplemente una parte del trabajo y la gran tarea del SEO sería la de definir una estrategia para procurar que un sitio web merezca la pena visitar y donde sus visitantes lo perciban como de calidad.

Todo esto quiere decir que cualquier cosa que podamos hacer con un sitio web para mejorarlo, desde el punto de vista de la experiencia de usuario, contará para mejorar las posiciones en Google. A continuación vamos a dar una serie de ideas sobre los puntos que se han destacado en diversos medios.

El contenido es el rey:
Esta frase, que llevamos oyendo desde hace 15 años o más, cada día se reafirma entre los que nos dedicamos a publicar en Internet. Pero además, con estas actualizaciones se reinventa a si misma, dando un paso al frente y destacando qué tipo de contenido es el que de verdad reina en las búsquedas. Pero un contenido de calidad no significa solo estar bien redactado, sino aportar algo más que otros artículos publicados, ser original, convenientemente contrastado, etc.

Redes sociales:
Existen nuevos factores clave para clasificar la calidad de un sitio y el ejemplo más claro son las redes sociales. Incluso en este sentido hemos visto que Google ha presentado recientemente nuevas herramientas sociales como el botón +1. Es decir, el movimiento que nuestros sitios provoquen entre sus usuarios también será tenido en cuenta. Ellos piensan, si este sitio tuviese un buen contenido, estarían constantemente compartiéndolo en redes como Twitter, Facebook o Google+. Obviamente, no se sabe hasta qué punto esos factores afectan la posición en Google de una página, pero lo que se sabe es que utilizan diversos patrones que les ayudan a saber si el tipo de participación del usuario responde a un comportamiento natural o artificial.

Tiempo de carga:
El tiempo de carga también nos podrá clasificar mejor o peor entre los resultados, pues para Google la satisfacción del usuario significa no solo que encuentre la información que estaba buscando, sino que además se le entregue rápidamente. En este sentido Google viene trabajando codo con codo con los webmasters de todo el mundo y aportando herramientas como Page Speed, que ayudan a localizar los cambios que pueden ayudar más positivamente la velocidad de carga de un sitio.

Interfaces de usuario amigables:
No me preguntéis cómo evalúa Google una interfaz de usuario atractiva o amigable para el usuario, pero por sus declaraciones, ahora también lo tienen en cuenta. Detalles interesantes que se pueden cuidar son disponer de unas fotos representativas acompañando los textos, no cargar la web con demasiados espacios publicitarios, no obligar al usuario a leer una corta información acudiendo a diversas páginas distintas, etc. Pero ojo, según informan, no vale con cuidar una parte de nuestro sitio web y tener otras que no se ajustan a los niveles de calidad deseables. En ese caso, el algoritmo puede detectar parámetros negativos en una sección y bajar en ranking global de una página.

Métricas estadísticas:
Además, se están teniendo en cuenta otros datos sobre el comportamiento de los usuarios que acceden a los sitios web. Debemos de darnos cuenta que Google tiene mucha más información sobre nuestros sitios de la que nos imaginamos y que puede utilizarla a nuestro favor o contra nosotros. Por ejemplo, si un usuario entra a un sitio web a través del buscador y luego vuelve a Google y pulsa el siguiente resultado de las búsquedas, entienden que ese resultado no le interesó. Además, a través de su servicio Analytics, todavía pueden saber mucho más sobre las páginas que lo implementan, como el porcentaje de rebote o abandono, el número de páginas consultadas por usuario. Todos esos datos pueden ayudar al buscador, pero lo cierto es que no siempre son un indicador exacto de la calidad del sitio y depende de varios factores, como el tipo de contenido que se ofrezca, el tipo de usuario que entra a consultar una web, etc.

De todos modos, todavía es pronto para poder afirmar categóricamente: implementa tal cambio y obtendrás tal resultado. Todos estos criterios que se han señalado aquí y en diversos otros foros afines al SEO, surgen como meras suposiciones a raíz de la poca información que todavía se tiene en el momento de publicar este artículo de DesarrolloWeb.com. Además, según los sitios que administramos, hay discrepancias entre lo que se expone y la variación de las estadísticas en los últimos días. Por ejemplo, hay sitios donde no utilizamos para nada redes sociales y donde hemos obtenido un considerable incremento de tráfico. Por otra parte, sitios que prácticamente no tienen publicidad, han sufrido más retrasos que otros que están más explotados.

Beneficiados y perjudicados por el algoritmo

En la práctica, después de Panda, los sitios han sido reordenados dando como resultado unos cambios en el tráfico, con Google como origen, que oscila entre el 10% y el 30%. Como es lógico, existen tanto beneficiados como perjudicados por esta acción.

Después de todo, parece que los grandes perjudicados por el nuevo algoritmo de Google, son lo que se llaman las granjas de contenido. Páginas donde hay poco control sobre la información que se publica o donde existe pocos o ningún dato que merezca la pena sobre los temas que se tratan. También páginas donde los propios usuarios eran los que fabricaban los contenidos y donde el nivel de calidad de los textos no era revisado con rigor.

Una de las posibles razones de esta caza de brujas contra las granjas de contenido, cuyo modelo de negocio está basado en la publicidad y donde Adsense es el principal cliente, es que -después de todo- eran competidores directos de publicidad en Google. Google les enviaba mucho tráfico y ellos colocaban anuncios proveídos por el propio buscador, quedándose una parte considerable de la tarta de ingresos publicitarios que recaudaba Adwords. Claro que nadie ha confirmado oficialmente esta suposición, pero lo cierto es que Google no necesita esas granjas de contenido para posicionar sus anuncios, pues tiene muchas otras webs afiliadas que disponen de un contenido más completo y mejor preparado.

En la práctica, otras páginas que están sufriendo bastante retraso son las tiendas online, que utilizaban los mismos textos para describir los productos que muchos de sus competidores. En la mayoría de los casos los productos eran descritos con las mismas palabras que utilizan los distribuidores o fabricantes de los mismos y poco o nada aportaban aparte de ello.

Otro tipo de páginas que se han visto rebajadas en el ranking son las webs de opinión, donde tenían simplemente una base de datos de productos inmensa y donde los propios usuarios eran los que escribían los pocos textos originales con los que contaban. Esas páginas utilizan tradicionalmente muchas técnicas de SEO para posicionar sus productos con la esperanza de que aparezcan en el buscador y lleguen usuarios que empiecen a escribir de los distintos temas. No es que todas esas técnicas hayan dejado de funcionar, sino más bien se trata de que ya no cuentan tanto como un contenido de calidad, creado con rigor periodístico.

Según se dice, Panda es un algoritmo que potencia a los propietarios de las marcas y a los organismos oficiales. Entre los beneficiados están todos aquellos entes que conforman la fuente original de la información. Es decir, medios de comunicación, sitios con contenido original y bien preparado, organismos oficiales y páginas que ofrecen información de primera mano. Por ejemplo, si se busca un modelo de cámara de fotos, encontraremos entre los primeros puestos revisiones detalladas del producto y la propia página del sitio web de la marca de la cámara.

Yo prefiero el análisis de Panda como un impulsor del periodismo en la Red, dado que ahora se da mayor importancia a aquellos textos creados por personas capacitadas y con ganas de escribir correctamente y aportar algo más en el universo web.

Ahora bien, los que saben ciertamente si han sido o no penalizados por este cambio del buscador, son los propios editores de las webs. Consultados a varios colegas encontramos que los sitios que ofrecen un contenido de un nivel razonablemente bueno, se han mantenido e incluso han mejorado en la última semana. Señalo este punto porque circulan por Internet artículos que hablan de beneficiados y perjudicados y que ponen las estadísticas de Alexa como prueba de esos cambios en el tráfico. En este caso tengo que decir que Alexa no siempre ofrece datos fiables y que entre los sitios que manejamos en nuestra empresa hay discrepancias serias entre los datos que aparecen allí y los de Google Analytics. Sitios que Alexa dicen que han mejorado en realidad han empeorado y viceversa.

Pero no siempre el Panda tiene la razón

En la práctica, no es oro todo lo que reluce y todavía hay camino por delante para que Panda posicione correctamente los contenidos dentro de sus resultados. Prueba de ello son la cantidad de webmasters y editores de contenido que se quejan de haber sido perjudicados en las posiciones del buscador.

No es difícil encontrar personas que afirman ser productores de contenido original y que han sido penalizados por el nuevo algoritmo injustamente. Personas que dicen ser autores de artículos y cuyos textos han sido copiados por otras webs, afirman que los plágios aparecen en las primeras posiciones, cuando su propio sitio web ha sido relegado al olvido.

Consultado a nuestro amigo y colaborador Luis Zuluaga, que se dedica profesionalmente a ofrecer servicios SEO, tiene registros de clientes que han mejorado y que han empeorado sus resultados raíz de Panda. En muchos casos opina que los retrasos, en torno de 20 a 30 posiciones, no atienden a una justificación real. Según Luis, los criterios que afirma Google estar utilizando -como el porcentaje de rebote-, no siempre significan una medida real de la calidad de un sitio. Por ejemplo, muchas veces busca algo como "selectores jquery desarrolloweb" porque sabe que ese tema está bien tratado en este sitio, que lee la información y luego sigue con su trabajo. Es decir, no consulta nuevas páginas del sitio y se produce un "rebote", pero eso no tiene que decir específicamente que lo que leyó en DesarrolloWeb.com no tuviera la suficiente calidad para responder su duda.

Personalmente he analizado cuáles son las búsquedas más típicas que afectan a los contenidos de DesarrolloWeb.com y en ocasiones Panda ha mejorado y en otras no. Por ejemplo, debido a nuestro Manual de Mootools (un documento muy trabajado y completo) en las búsquedas aparecíamos antes que el propio web del framework. Ahora aparece antes la página de Mootools, la Wikipedia y otras fuentes oficiales. Después ya se encuentra nuestro manual de Mootools. Yo creo que es un cambio a mejor de Google. Nuestra posición a empeorado un poco, pero realmente la búsqueda ofrece unos resultados mejores.

Pero desafortunadamente no siempre es así. Para algunas búsquedas clave en nuestro negocio editorial hemos sido menospreciados y se han colado antes que nosotros sitios que tienen contenidos no originales o sitios web con poca calidad. Por ejemplo, tenemos un manual de jQuery que tiene una profundidad incomparable con otros sitios que nos han colocado por delante. Tenemos una sección dedicada a PHP que tiene cientos de artículos clasificados en decenas de manuales, que tampoco han salido beneficiados y donde aparecen algunas web de procedencia totalmente ilícita que se dedican simplemente a copiar textos aparecidos en otras páginas web.

Es decir, que a nuestro modo de ver, Panda ofrece las dos caras de la moneda. A veces ha mejorado la clasificación de los resultados y otras veces ha empeorado significativamente, colando bastante paja (páginas de mala calidad) entre los sitios que verdaderamente aportan algo. Pero sin duda, los sitios web oficiales han sido potenciados, porque casi siempre se encuentran entre los primeros resultados.

Conclusión: adaptarse en este nuevo orden

A pesar de las críticas que Panda ha recibido, todas las declaraciones oficiales por parte del personal de Google afirman estar muy contentos con los resultados de este nuevo algoritmo, por lo que difícilmente den un paso atrás. Lo que se espera son revisiones puntuales que ayuden al sistema de aprendizaje de Panda, con nuevos datos con los que medir la calidad de los sitios web. Prueba de ello es que, a lo largo de los últimos meses, han surgido revisiones de Panda en Estados Unidos, donde llevaba funcionando desde el principio del año.

Se espera que poco a poco se afinen los procesos de ordenación del algoritmo y que los perjudicados injustamente por Panda puedan recuperar terreno después de futuras revisiones. Pues, a raíz del nuevo orden en el buscador hay bastantes webs que han sido perjudicadas injustamente. Se trata de realizar las modificaciones que podamos para mejorar la calidad de los sitios, aunque a veces ese concepto sea un poco subjetivo. Después todo, páginas estadounidenses que habían realizado diversas modificaciones para ajustar sus parámetros de calidad, han mejorado de nuevo su tráfico venido desde Google. Por ello, en caso que Panda te haya tratado mal, no pierdas la esperanza de hacer las paces con él y volver a estar bien posicionado en Google.

Miguel Angel Alvarez

Fundador de DesarrolloWeb.com y la plataforma de formación online EscuelaIT. Com...

Manual