Claves para llegar a la cima en el posicionamiento Web.
Informe publicado en la revista impresa NEX IT Specialist, edición 16.
Más del 90% de las visitas de una página de Internet provienen de los motores de búsqueda. De aquella cifra, Google y Yahoo son responsables de más del 85% del tráfico, mientras que el resto es repartido entre MSN, Altavista, y los demás buscadores. Modificando el código fuente de un sitio y fortaleciendo sus vínculos, es posible llevarlo a la cima.
Por lo tanto, aparecer en las primeras posiciones para determinadas palabras o frases es, sin lugar a dudas, una beneficiosa fuente para promover servicios, productos, o simplemente difundir información. Empresas de distinto nivel e industria están llevando a cabo optimizaciones con el fin de aumentar las ventas, invirtiendo una cantidad de dinero que rápidamente es recuperada, y es que el cibernauta que viene desde un buscador está visitando un sitio que responde a sus necesidades. Pero cuidado, en este informe se está hablando del posicionamiento web; no de las opciones de pago de anuncios, tal es el caso de AdWords de Google. Se destaca entonces que los clics que se efectúan en la lista de resultados de una búsqueda no se cobran, por lo que el interrogante es cómo subir lugares. Eso es lo que se plantea revelar en este espacio.
Las herramientas de marketing en Internet no cambian los conceptos tradicionales de publicidad, sino que ayudan a que éstos sean desarrollados en su máxima expresión. La optimización de los sitios web para los motores de búsqueda es un arma básica en la WWW, que muchos no comprenden. Nadie sabe cómo funcionan los algoritmos de los buscadores, que evalúan y califican los sitios de acuerdo a sus contenidos y popularidad, de tal manera de ofrecer resultados claros a las consultas que reciben por parte de sus visitantes. Pero existen hipótesis, y a partir de ello, nacen técnicas de optimización, algunas más drásticas y visibles que otras.
Este informe es desarrollado a partir de experiencias propias y de conversaciones con personalidades de este mundo. El Search Engine Optimization (SEO) es una actividad que cada desarrollo web afronta a diario. Conociendo de cerca este terreno, como consultor, expongo técnicas y reglas de posicionamiento, acompañadas por las visiones de Bruce Clay y Phil Craven. Asimismo, se recomienda la visita a la página web www.seohome.com, la cual es una de las fuentes de mayor prestigio en español.
Actualmente, y desde sus inicios, está abierto el debate acerca de la ética que gira en torno al posicionamiento web. Para muchos, sobre todo los responsables de los buscadores, el simple hecho de tratar de manipular los resultados, por mínimo que sea, está mal. Otros, tienen la conciencia tranquila, creyendo que colocar un sitio con contenido valioso por encima de sus competidores es de beneficio para los usuarios de Internet, además de que el proyecto online se beneficie de las ventajas económicas que acarrea el tráfico generado. Phil Craven hace lo que sea necesario para lograr top rankings. "Prefiero hacerlo de maneras en que los motores de búsqueda están contentos, pero si lo hago así y ellos aún no me dan las mejores posiciones, entonces estoy perfectamente tranquilo haciéndolo de maneras en que los buscadores no están de acuerdo. Lo veo como un negocio".
Como se mencionó antes, existen técnicas drásticas de posicionamiento, las cuales no son profundizadas en esta nota y no se sugieren. Las mismas pueden derivar en sanciones por parte de los motores de búsqueda, como por ejemplo, en la eliminación del sitio de su base de datos. Y su uso deteriora la Internet que conocemos y que soñamos tener. A esto, Bruce Clay explica que "debemos recordar que no hace muchos años los motores de búsqueda apoyaron las Doorway Pages como una manera de indexar el contenido dinámico. Fue la creación natural de aplicaciones capaces de generar miles de páginas con contenidos seleccionados al azar, que llenaron a los motores de búsqueda con páginas inertes. Este recurso es malo, yo no lo utilizo".
"Las Doorway Pages, Cloaking, LinkFarms, sitios espejos, y el spam generalizado (textos ocultos, redireccionamientos, etc.) son todos engañosos y no son buenos. Google es realmente la firma a seguir. Sí, las reglas han cambiado y lo que antes era bueno ahora es malo. Esto fortalece mi creencia de que jugar en el centro del arenero es el lugar más seguro. Juega honesta, y claramente sobre el tablero".
Las líneas geográficas se desvanecen en gran medida en la red; en su lugar debe centrarse la atención en el idioma. Es así, que la Internet hablado en inglés es totalmente distinta a la de nuestra lengua, desde el tráfico gestionado hasta las actitudes de los propios navegantes. Así, se identifica que el sector de habla hispana está mostrando interés hacia este recurso de marketing, pero aún es temprano, y la falta de conocimiento de los expertos en publicidad hacia esta fuente de clientes es, en muchos casos, sorprendente. No obstante, hay que reconocer la poca información que existe sobre estos temas en el mundo hispano, mientras que del otro lado, hoy se conocen al instante y se debaten a fondo los cambios que se dan en los motores de búsqueda. Sin embargo, para Bruce Clay no fue fácil, "realmente no había entrenadores al principio. Habían sido creados muy pocos sitios web, pero eran irregulares, y la información en ellos era sospechosa. El mejor sitio web era www.searchenginewatch.com, y con eso y con todo el tiempo de investigación fui a trabajar, aprendiendo en el laboratorio cómo trabajan los motores de búsqueda. No había visto nunca HTML, y realmente no tenía ningún conocimiento (como cualquier otra persona), pero corría con ventaja era uno de los pioneros. Tenía un título en ciencia de la matemática y de la computación y un MBA (Master of Business Administration), estuve a cargo de cuatro compañías anteriormente, y tenía tiempo y ambición".
Vamos a interrogarnos juntos para avanzar en esta guía educativa, tomando a dos aplicaciones especializadas en el área, WebPosition y SubmitWolf, cada una con herramientas de gran utilidad, aunque se diferencian concretamente en un punto. WebPosition trabaja con una selecta cantidad de buscadores, mientras que SubmitWolf opera con miles de motores de búsqueda. ¿Cuál es más eficaz? De no optimizar previamente el sitio web, ninguno. En una segunda instancia nos quedamos con WebPosition, ya que si bien no pueden despreciarse los miles de buscadores que este software no ofrece, las fuerzas deben concentrarse en unos pocos. Optimizar un sitio pensando en Google debe ser la primera regla. Esta es una discusión básica y elemental, pero confusa e ilegible para la mayoría. Phil Craven comparte su experiencia, "comencé a aprender sobre la optimización para los motores de búsqueda hace aproximadamente siete años atrás, cuando envié mi primer sitio Web a Altavista. Durante el proceso de registro encontré una publicidad de WebPosition Gold, así que descargué la versión de prueba. El programa me enseñó que los rankings podían ser manipulados si se lo hacía apropiadamente".
"En aquellos días, Altavista indexaba las nuevas páginas de dos a cuatro horas, y pronto comprobé que no aparecía posicionado en ningún lado para ciertos términos de búsqueda. Entonces utilicé WebPosition Gold para ayudarme a crear unas pocas páginas para esas palabras, y pocas horas después, tenía el ranking #1 para todas ellas. Así es como empecé en la optimización para los motores de búsqueda. Desde entonces se ha convertido en un negocio de tiempo completo y estoy recibiendo más consultas de clientes potenciales de las que en realidad puedo manejar".
Ahora sí, recorremos paso a paso las principales áreas que influyen en la distribución de los sitios dentro de las listas de resultados de los buscadores. No obstante, aplicar estas medidas no generan efectos inmediatos, sino que el proceso es lento, y suele demorar varios meses.
Keywords
Las keywords, o palabras clave, son uno de los pilares del posicionamiento. Son las palabras a las que apuntaremos para conseguir buenos resultados en los buscadores. La correcta selección de las mismas forma parte de la estrategia SEO. Primero, debe analizarse una keyword importante, de mucho tráfico, que identifique la Web. Para esto, puede consultarse la herramienta de Overture. Se optimiza la página principal para esa keyword y se consiguen links con ese texto. Después, es necesario optimizar las páginas secundarias para las keywords que las describan, pero no debe olvidarse el hecho de usar siempre, en todas las páginas, las principales palabras claves que se incluyeron en la página de entrada. De esta manera, se le das más peso a esa keyword que posee tanta competencia, consiguiendo también buenas posiciones para las palabras secundarias. Nunca debe optimizarse para más de dos o tres keywords en cada página.
Title
Este aspecto marca el título de cada página que compone el sitio. De este modo, será mostrado por los buscadores en sus páginas de resultados, por lo que debe atraer al usuario. El title debe tener entre cinco y diez palabras aproximadamente. Debe tener como objetivo, al igual que la optimización de esa página, alcanzar buenos rankings para dos o tres keywords como máximo.
En el title, debemos mencionar por lo menos una vez las keywords y como máximo, generalmente, dos veces. Por último, interviene el keyword proximity, que es la proximidad de la palabra clave hacia el comienzo del texto. Es decir, que querremos que la keyword más relevante aparezca al principio del title. El title se coloca debajo de la apertura de la etiqueta head.
<title>Título de la página</title>
Meta Tags
Los meta tags, o etiquetas meta, tienen como función brindar información a los buscadores acerca de nuestra web. Es un elemento importante en el posicionamiento en buscadores, aunque ha perdido mucho valor. Se incluyen dentro de la etiqueta head, luego del parámetro title.
Existen muchos tipos de estos meta tags pero los más relevantes son el meta keywords, meta description, meta language y meta robots.
Los meta tags fueron abusados en el pasado por gente que los llenaba con palabras repetidas una y otra vez, con el objetivo de alcanzar primeras posiciones, haciéndole creer a los buscadores que sus webs eran las más relevantes. También, agregaban palabras muy buscadas como "mp3" o "free" para obtener primeros rankings. Por esta razón, la mayoría de los buscadores, como por ejemplo Google, dejó de tenerlos en cuenta. Sin embargo, buscadores pequeños y hasta algunos que manejan mucho tráfico, como Inktomi, siguen utilizándolos, por lo que la mejor opción es continuar creándolos para cada página.
Texto
Este aspecto se resume en que debemos distribuir correctamente las keywords y darles el peso correspondiente a través del texto de la página.
Primero, debemos escribir o reescribir el texto de la página repitiendo varias veces las keywords. Debemos alcanzar un promedio de entre 5 y 8% de la densidad de las keywords con respecto al texto total de la página.
Además, mientras más cerca del principio de la página aparezcan las keywords mejor. Es decir, se repite el fenómeno del keyword proximity, explicado anteriormente.
Para darle más importancia a las keywords contamos con varias etiquetas: <Hn> (donde n es un número del 1 al 6), <i>, <b>, <strong>, <li>.
La que tenemos que tener más en consideración son los encabezados, las <Hn>. Deberemos poner la keyword/s principal en <H1> y lo más cerca del inicio de la página. Las keywords de menor importancia, las secundarias, las pondremos en <H2>. Esto no debe abusarse, colocando todo el texto dentro de esta etiqueta.
Link Popularity
El link popularity define cuán importante es una página web. Hoy, esta es la clave SEO.
Los buscadores piensan que si muchas webs tienen links hacia un determinado sitio, entonces el contenido debe ser de gran calidad. Esta teoría tiene sus fallas, y es donde podemos manipular los resultados. Se supone así, que los links hacia una web serán colocados a causa de que la información/servicio es interesante, a modo de recomendación. Pero, ¿y si se intercambian links con otra web? Ahí está la respuesta. De esta manera, es posible incrementar el link popularity y mejorar los rankings.
Un enlace obligado a conseguir está en el directorio www.dmoz.org, usado por numerosos motores de búsqueda como referencia. Dmoz es un proyecto en el que cualquier sitio puede aplicar para ser incluido.
En este marco, también entra en juego el anchor text, que es el texto que tiene el link. No sirve tener enlaces que digan "Clic Aquí". Debe mencionarse la keyword que se quiere alcanzar, para darle el mayor peso posible. Pero debe ir cambiando el anchor text porque los buscadores se darán cuenta que se intenta optimizar los resultados, inflando artificialmente el link popularity.
Cada buscador tiene su propia forma de analizar el link popularity. Google para hacerlo, utiliza su tecnología PageRank.
PageRank
El PageRank (PR) al principio parecerá muy complicado pero luego de un tiempo, estudiándolo, lograremos entenderlo a la perfección. El PageRank asigna una puntuación del uno al diez, dependiendo de la cantidad y calidad de las webs que están vinculadas mediante links. También, de acuerdo a como están enlazadas las páginas internas del sitio. Puede descargarse la barra de Google para ver el PR de cualquier web.
En la práctica: Si me linkea una página que tiene PageRank 6, el PR que le dará a mi página será modificado por la cantidad de links a otras secciones y a otros sitios. Entonces, si esa página en donde nos enlaza tiene otros cien enlaces, el PR que nos pasará no será mucho. Así, sería preferible conseguir un link desde una página de PR 5 con diez enlaces.
¿Cualquier link nos sirve? ¿Aunque la web sea de otra temática? Sí y no. Si conseguimos 50 links de sitios no relacionados a nuestra web, entonces deberemos obtener al menos otros 50 enlaces de sitios relacionados y, preferiblemente, 100. ¿Por qué? Recientemente los principales buscadores han cambiado sus algoritmos, perjudicando a sitios que no tienen links con páginas de su misma temática. Se trata de hacerle entender a los buscadores el tema de nuestra web, dándole como información nuestro contenido, los enlaces que obtenemos y los enlaces que otorgamos. Esta nueva forma de PageRank se denomina Topic Sensitive PageRank (TSPR) que significa "PageRank sensible a temas". Aunque es una teoría, hay muchos indicios de que esto está sucediendo y será el futuro del posicionamiento en buscadores.
Más del 90% de las visitas de una página de Internet provienen de los motores de búsqueda. De aquella cifra, Google y Yahoo son responsables de más del 85% del tráfico, mientras que el resto es repartido entre MSN, Altavista, y los demás buscadores. Modificando el código fuente de un sitio y fortaleciendo sus vínculos, es posible llevarlo a la cima.
Por lo tanto, aparecer en las primeras posiciones para determinadas palabras o frases es, sin lugar a dudas, una beneficiosa fuente para promover servicios, productos, o simplemente difundir información. Empresas de distinto nivel e industria están llevando a cabo optimizaciones con el fin de aumentar las ventas, invirtiendo una cantidad de dinero que rápidamente es recuperada, y es que el cibernauta que viene desde un buscador está visitando un sitio que responde a sus necesidades. Pero cuidado, en este informe se está hablando del posicionamiento web; no de las opciones de pago de anuncios, tal es el caso de AdWords de Google. Se destaca entonces que los clics que se efectúan en la lista de resultados de una búsqueda no se cobran, por lo que el interrogante es cómo subir lugares. Eso es lo que se plantea revelar en este espacio.
Las herramientas de marketing en Internet no cambian los conceptos tradicionales de publicidad, sino que ayudan a que éstos sean desarrollados en su máxima expresión. La optimización de los sitios web para los motores de búsqueda es un arma básica en la WWW, que muchos no comprenden. Nadie sabe cómo funcionan los algoritmos de los buscadores, que evalúan y califican los sitios de acuerdo a sus contenidos y popularidad, de tal manera de ofrecer resultados claros a las consultas que reciben por parte de sus visitantes. Pero existen hipótesis, y a partir de ello, nacen técnicas de optimización, algunas más drásticas y visibles que otras.
Este informe es desarrollado a partir de experiencias propias y de conversaciones con personalidades de este mundo. El Search Engine Optimization (SEO) es una actividad que cada desarrollo web afronta a diario. Conociendo de cerca este terreno, como consultor, expongo técnicas y reglas de posicionamiento, acompañadas por las visiones de Bruce Clay y Phil Craven. Asimismo, se recomienda la visita a la página web www.seohome.com, la cual es una de las fuentes de mayor prestigio en español.
Actualmente, y desde sus inicios, está abierto el debate acerca de la ética que gira en torno al posicionamiento web. Para muchos, sobre todo los responsables de los buscadores, el simple hecho de tratar de manipular los resultados, por mínimo que sea, está mal. Otros, tienen la conciencia tranquila, creyendo que colocar un sitio con contenido valioso por encima de sus competidores es de beneficio para los usuarios de Internet, además de que el proyecto online se beneficie de las ventajas económicas que acarrea el tráfico generado. Phil Craven hace lo que sea necesario para lograr top rankings. "Prefiero hacerlo de maneras en que los motores de búsqueda están contentos, pero si lo hago así y ellos aún no me dan las mejores posiciones, entonces estoy perfectamente tranquilo haciéndolo de maneras en que los buscadores no están de acuerdo. Lo veo como un negocio".
Como se mencionó antes, existen técnicas drásticas de posicionamiento, las cuales no son profundizadas en esta nota y no se sugieren. Las mismas pueden derivar en sanciones por parte de los motores de búsqueda, como por ejemplo, en la eliminación del sitio de su base de datos. Y su uso deteriora la Internet que conocemos y que soñamos tener. A esto, Bruce Clay explica que "debemos recordar que no hace muchos años los motores de búsqueda apoyaron las Doorway Pages como una manera de indexar el contenido dinámico. Fue la creación natural de aplicaciones capaces de generar miles de páginas con contenidos seleccionados al azar, que llenaron a los motores de búsqueda con páginas inertes. Este recurso es malo, yo no lo utilizo".
"Las Doorway Pages, Cloaking, LinkFarms, sitios espejos, y el spam generalizado (textos ocultos, redireccionamientos, etc.) son todos engañosos y no son buenos. Google es realmente la firma a seguir. Sí, las reglas han cambiado y lo que antes era bueno ahora es malo. Esto fortalece mi creencia de que jugar en el centro del arenero es el lugar más seguro. Juega honesta, y claramente sobre el tablero".
Las líneas geográficas se desvanecen en gran medida en la red; en su lugar debe centrarse la atención en el idioma. Es así, que la Internet hablado en inglés es totalmente distinta a la de nuestra lengua, desde el tráfico gestionado hasta las actitudes de los propios navegantes. Así, se identifica que el sector de habla hispana está mostrando interés hacia este recurso de marketing, pero aún es temprano, y la falta de conocimiento de los expertos en publicidad hacia esta fuente de clientes es, en muchos casos, sorprendente. No obstante, hay que reconocer la poca información que existe sobre estos temas en el mundo hispano, mientras que del otro lado, hoy se conocen al instante y se debaten a fondo los cambios que se dan en los motores de búsqueda. Sin embargo, para Bruce Clay no fue fácil, "realmente no había entrenadores al principio. Habían sido creados muy pocos sitios web, pero eran irregulares, y la información en ellos era sospechosa. El mejor sitio web era www.searchenginewatch.com, y con eso y con todo el tiempo de investigación fui a trabajar, aprendiendo en el laboratorio cómo trabajan los motores de búsqueda. No había visto nunca HTML, y realmente no tenía ningún conocimiento (como cualquier otra persona), pero corría con ventaja era uno de los pioneros. Tenía un título en ciencia de la matemática y de la computación y un MBA (Master of Business Administration), estuve a cargo de cuatro compañías anteriormente, y tenía tiempo y ambición".
Vamos a interrogarnos juntos para avanzar en esta guía educativa, tomando a dos aplicaciones especializadas en el área, WebPosition y SubmitWolf, cada una con herramientas de gran utilidad, aunque se diferencian concretamente en un punto. WebPosition trabaja con una selecta cantidad de buscadores, mientras que SubmitWolf opera con miles de motores de búsqueda. ¿Cuál es más eficaz? De no optimizar previamente el sitio web, ninguno. En una segunda instancia nos quedamos con WebPosition, ya que si bien no pueden despreciarse los miles de buscadores que este software no ofrece, las fuerzas deben concentrarse en unos pocos. Optimizar un sitio pensando en Google debe ser la primera regla. Esta es una discusión básica y elemental, pero confusa e ilegible para la mayoría. Phil Craven comparte su experiencia, "comencé a aprender sobre la optimización para los motores de búsqueda hace aproximadamente siete años atrás, cuando envié mi primer sitio Web a Altavista. Durante el proceso de registro encontré una publicidad de WebPosition Gold, así que descargué la versión de prueba. El programa me enseñó que los rankings podían ser manipulados si se lo hacía apropiadamente".
"En aquellos días, Altavista indexaba las nuevas páginas de dos a cuatro horas, y pronto comprobé que no aparecía posicionado en ningún lado para ciertos términos de búsqueda. Entonces utilicé WebPosition Gold para ayudarme a crear unas pocas páginas para esas palabras, y pocas horas después, tenía el ranking #1 para todas ellas. Así es como empecé en la optimización para los motores de búsqueda. Desde entonces se ha convertido en un negocio de tiempo completo y estoy recibiendo más consultas de clientes potenciales de las que en realidad puedo manejar".
Ahora sí, recorremos paso a paso las principales áreas que influyen en la distribución de los sitios dentro de las listas de resultados de los buscadores. No obstante, aplicar estas medidas no generan efectos inmediatos, sino que el proceso es lento, y suele demorar varios meses.
Keywords
Las keywords, o palabras clave, son uno de los pilares del posicionamiento. Son las palabras a las que apuntaremos para conseguir buenos resultados en los buscadores. La correcta selección de las mismas forma parte de la estrategia SEO. Primero, debe analizarse una keyword importante, de mucho tráfico, que identifique la Web. Para esto, puede consultarse la herramienta de Overture. Se optimiza la página principal para esa keyword y se consiguen links con ese texto. Después, es necesario optimizar las páginas secundarias para las keywords que las describan, pero no debe olvidarse el hecho de usar siempre, en todas las páginas, las principales palabras claves que se incluyeron en la página de entrada. De esta manera, se le das más peso a esa keyword que posee tanta competencia, consiguiendo también buenas posiciones para las palabras secundarias. Nunca debe optimizarse para más de dos o tres keywords en cada página.
Title
Este aspecto marca el título de cada página que compone el sitio. De este modo, será mostrado por los buscadores en sus páginas de resultados, por lo que debe atraer al usuario. El title debe tener entre cinco y diez palabras aproximadamente. Debe tener como objetivo, al igual que la optimización de esa página, alcanzar buenos rankings para dos o tres keywords como máximo.
En el title, debemos mencionar por lo menos una vez las keywords y como máximo, generalmente, dos veces. Por último, interviene el keyword proximity, que es la proximidad de la palabra clave hacia el comienzo del texto. Es decir, que querremos que la keyword más relevante aparezca al principio del title. El title se coloca debajo de la apertura de la etiqueta head.
<title>Título de la página</title>
Meta Tags
Los meta tags, o etiquetas meta, tienen como función brindar información a los buscadores acerca de nuestra web. Es un elemento importante en el posicionamiento en buscadores, aunque ha perdido mucho valor. Se incluyen dentro de la etiqueta head, luego del parámetro title.
Existen muchos tipos de estos meta tags pero los más relevantes son el meta keywords, meta description, meta language y meta robots.
Los meta tags fueron abusados en el pasado por gente que los llenaba con palabras repetidas una y otra vez, con el objetivo de alcanzar primeras posiciones, haciéndole creer a los buscadores que sus webs eran las más relevantes. También, agregaban palabras muy buscadas como "mp3" o "free" para obtener primeros rankings. Por esta razón, la mayoría de los buscadores, como por ejemplo Google, dejó de tenerlos en cuenta. Sin embargo, buscadores pequeños y hasta algunos que manejan mucho tráfico, como Inktomi, siguen utilizándolos, por lo que la mejor opción es continuar creándolos para cada página.
Texto
Este aspecto se resume en que debemos distribuir correctamente las keywords y darles el peso correspondiente a través del texto de la página.
Primero, debemos escribir o reescribir el texto de la página repitiendo varias veces las keywords. Debemos alcanzar un promedio de entre 5 y 8% de la densidad de las keywords con respecto al texto total de la página.
Además, mientras más cerca del principio de la página aparezcan las keywords mejor. Es decir, se repite el fenómeno del keyword proximity, explicado anteriormente.
Para darle más importancia a las keywords contamos con varias etiquetas: <Hn> (donde n es un número del 1 al 6), <i>, <b>, <strong>, <li>.
La que tenemos que tener más en consideración son los encabezados, las <Hn>. Deberemos poner la keyword/s principal en <H1> y lo más cerca del inicio de la página. Las keywords de menor importancia, las secundarias, las pondremos en <H2>. Esto no debe abusarse, colocando todo el texto dentro de esta etiqueta.
Link Popularity
El link popularity define cuán importante es una página web. Hoy, esta es la clave SEO.
Los buscadores piensan que si muchas webs tienen links hacia un determinado sitio, entonces el contenido debe ser de gran calidad. Esta teoría tiene sus fallas, y es donde podemos manipular los resultados. Se supone así, que los links hacia una web serán colocados a causa de que la información/servicio es interesante, a modo de recomendación. Pero, ¿y si se intercambian links con otra web? Ahí está la respuesta. De esta manera, es posible incrementar el link popularity y mejorar los rankings.
Un enlace obligado a conseguir está en el directorio www.dmoz.org, usado por numerosos motores de búsqueda como referencia. Dmoz es un proyecto en el que cualquier sitio puede aplicar para ser incluido.
En este marco, también entra en juego el anchor text, que es el texto que tiene el link. No sirve tener enlaces que digan "Clic Aquí". Debe mencionarse la keyword que se quiere alcanzar, para darle el mayor peso posible. Pero debe ir cambiando el anchor text porque los buscadores se darán cuenta que se intenta optimizar los resultados, inflando artificialmente el link popularity.
Cada buscador tiene su propia forma de analizar el link popularity. Google para hacerlo, utiliza su tecnología PageRank.
PageRank
El PageRank (PR) al principio parecerá muy complicado pero luego de un tiempo, estudiándolo, lograremos entenderlo a la perfección. El PageRank asigna una puntuación del uno al diez, dependiendo de la cantidad y calidad de las webs que están vinculadas mediante links. También, de acuerdo a como están enlazadas las páginas internas del sitio. Puede descargarse la barra de Google para ver el PR de cualquier web.
En la práctica: Si me linkea una página que tiene PageRank 6, el PR que le dará a mi página será modificado por la cantidad de links a otras secciones y a otros sitios. Entonces, si esa página en donde nos enlaza tiene otros cien enlaces, el PR que nos pasará no será mucho. Así, sería preferible conseguir un link desde una página de PR 5 con diez enlaces.
¿Cualquier link nos sirve? ¿Aunque la web sea de otra temática? Sí y no. Si conseguimos 50 links de sitios no relacionados a nuestra web, entonces deberemos obtener al menos otros 50 enlaces de sitios relacionados y, preferiblemente, 100. ¿Por qué? Recientemente los principales buscadores han cambiado sus algoritmos, perjudicando a sitios que no tienen links con páginas de su misma temática. Se trata de hacerle entender a los buscadores el tema de nuestra web, dándole como información nuestro contenido, los enlaces que obtenemos y los enlaces que otorgamos. Esta nueva forma de PageRank se denomina Topic Sensitive PageRank (TSPR) que significa "PageRank sensible a temas". Aunque es una teoría, hay muchos indicios de que esto está sucediendo y será el futuro del posicionamiento en buscadores.
David Yanover
Director de MasterMagazine