Antes que nada, quería darte una referencia a la información que hemos publicado en DesarrolloWeb.com sobre el archivo robots.txt. Después contestar tu pregunta, que es sencilla. No se si conoces las herramientas para websmasters de google: https://www.google.com/webmasters/tools/ Entre esas herramientas hay una que te interesará, que sirve para comprobar la validez de nuestro robots.txt. Permite por ejemplo escribir URLs distintas y procesarlas con el robots.txt para saber si estrían permitidas por este o bloqueadas. Es un poco laborioso, porque tendrías que ir página a página o URL a URL en la que tienes dudas, revisando si está o no bloqueada por el robots.txt, pero por lo menos te da una buena información.
Herramienta comprobación de robots.txt
Quería averiguar si el archivo robots.txt que he generado para mi página web está correcto. He seguido los pasos indicados, pero me da un poco de miedo subir el archivo robots.txt a la web, no sea que esté mal creado y esté bloqueando la indexación de páginas que sí quiero que los buscadores tengan en sus bases de datos de webs.
Respuestas
Miguel Angel
3310
147
216
17