Do not speak Spanish?.
Hace tiempo que no comentamos muchas cosas de posicionamiento web por aquí. Así que para que no se afirme hoy he sacado de borradores una serie de apuntes sobre uno de los básicos del posicionamiento web en buscadores del que la mayoría de gente desconoce detalles muy importantes: El archivo robots.txt, uno de los básicos de la indexación posicionamiento web. Robots.txt es un fichero destinado a apuntar a los buscadores que URLs está en su derecho a visitar y de cuales debería abstenerse. El funcionamiento es simple: ya antes de visitar una URL del site un robot debería mirar en este archivo para determinar si debe ir ahi a recoger información o bien si al contrario el dueño del site prefiere que no entre. En definitiva son solo indicaciones que cualquier robot puede saltarse si quiere, mas a las que el robot de google hace bastante caso (que tampoco al 100 por cien ).
El archivo robots.txt es uno de esos temas técnicos del que todo posicionamiento en buscadores ha de saber lo suficiente para manipularlo con éxito. Por ello el mismo Google en su soporte nos indica como podemos crear el nuestro:.
Se nos da información muy directa y fácil de digerir. La redacción de estos ficheros es sencillísima si bien cualquier fallo, por mínimo que sea, podría provocar que las arañas no entraran en las páginas que queremos. En el mejor caso eso provocará que sigan visitando URLs en las que no querríamos que perdiesen el tiempo en el peor será todo lo contrario: no indexarán contenidos que realmente si que queremos que aparezcan en el buscador. Es el tipíco aspecto esencial que de fácil que es la gente no se toma lo suficientemente en serio, y ahí esta el problema: la documentación de Google está bien aunque no cubre todas y cada una de las pecularidades sobre como se marcha a interpretar dicho fichero y si nos quedamos solo ahí podemos cometer errores que lamentaremos en el futuro.
Así puesto que, os dejo 10 conceptos sobre estos archivos que hay que tener en consideración y digerir. Desde lo más básico hasta consejos que solo en webs complejas o con mucho detalle de optimización del crawl budget vamos a poder aplicar.
Un Robots.txt es fácil...
1. Empezamos declarando en una línea el usuario-agent (nombre del sistema que está navegando o bien rastreando el site) al que deseamos afectar y tras esta indicaremos los accesos tolerados y prohibidos.
- Muy frecuentemente declararemos un accceso a todos (usuario-agent:*) y en ocsaiones nos referiremos a algun robot o bien crawler particularmente (usuario-agent:googlebot).
2. Después empleamos directivas "Allow: expresion" y "Disallow: expresion" para indicar si damos acceso o lo suprimimos. Por defecto podríamos decir que un robot tiene acceso a todas y cada una de las URLs del site ("Allow:*") pero aunque esto es ya así desde el comienzo bastante gente decide dejarlo declarado de forma explicita y proseguir prohibiendo a partir de ahí. Por eso aun siendo innecesario no debe parecernos extraño ver un robots que comienza por "Allow: *".
3. Por último, podemos apuntar nuestro sitemap.xml si lo deseamos (sitemap: sitemap.xml). Esto para Google carece de importancia si gestionamos apropiadamente Google Search Console, aunque puede asistir a otros robots a leerlo así que mal no va a hacernos declararlo.
Una cosa curisosa de este archivo sitemap es que puede estar alojado incluso en otros dominios diferentes al nuestro (esto puede ser útil si por poner un ejemplo precisamos hacer subidas con cambios del fichero cada cierto tiempo y en la web que trabajamos no nos lo dejan ir actualizando de forma tan ágil).
Así un caso que cubra todo lo que terminamos de mencionar sería el siguiente:
Visto esta base, que es lo más conocido del robots, vayamos a por los conceptos que no todo el mundo tiene tan dominados...
Existe mucha confusión con este punto, en parte porque la documentación anteriormente (de hecho cuando escribi este artículo yo mismo lo detallé mal) El archivo robots.txt siempre se busca en la senda "/robots.txt" de tu dominio. El robots.txt afecta al host donde está alojado mas solo a este host preciso. Esto supone que un subdominio no hará caso al robots.txt de su host superior y que http y https emplean ficheros distintos. ¿Por qué etonces vemos sitios donde una configuración bloquea a otra? Lo vamos a ver más adelante pero es sobretodo por temas de hosts redirigidos absolutamente con un trescientos uno. Es decir, cuando vemos que el robots.txt de afecta también a midominio.com generalmente es pues existe una redirección de "midominio.com/robots.txt" a "/robots.txt" y por tanto se lee el mimso archivo para ambos hosts. Lo mismo pasa con http y https, si uno esta redirigido al otro se aplica exactamente el mismo archivo a ambos.
Pero en definiva vendría a ser esto:
Así pues:
Además también hay que quitar la creencia de que el robots.txt actúa como muchos piensan sobre carpetas específicas del site. Esto no es cierto: Google solo lo lee si está en la raiz del documento:
"midominio.com/blog/robots.txt" no sirve para nada. Google no va a intentar leerlo ni tiene pues hacerle caso. Ciertos Content Management System se empeñan en añadirlo pero esto no forma parte de la definición oficial del fichero robots.txt.
Lo ideal es que un robots.txt esté codificado en UTF-8 para no tener inconvenientes de lectura. Mas lo cierto es que los archivos de texto pueden tener múltiples codificaciones y si por poner un ejemplo creas el fichero desde tu bloc de notas de windows probablemente su formato sea otro. Es conveniente usar editores de texto plano más profesionales (como por poner un ejemplo, por daros una opción fácil y pontente notepad++ ) donde entre otras muchas cosas se os deje elegir la codificación del archivo.
Aun así Google nos dice que puede leer otras codificaciones, lo que pasa en estos casos no es tanto que el pueda o no, sino al generarlo se escriba en una codificación y el servidor lo devuelva en otra. Eso puede provocar los típicos caracteres extraños que acaban en que el fichero no funcione o no se lea de forma adecuada.
Aun dentro de los archivos UTF-ocho hay una cosa en estos ficheros que tiene por nombre. Lo idóneo es que los ficheros simples no tengan BOM mas Google es capaz de leer el robots.txt con un BOM inicial (y solo uno y solo al comienzo) así que si vuestro archivo tiene BOM no pasa nada.
Otra limitación la tenemos en el tamaño. Google nos limita a 500MB, (1/2 GB) si lo pasamos no leerá el archivo. Así que debemos ahorrar estos ficheros y ya no solo por no acercanos a los 500MB sino más bien pues son archivos muy consultados por los robots y a mayor tamaño más desgaste de proceso y red en el servidor.
Un aviso: No es exactamente lo mismo un <meta name="robots" content="noindex" /> que un disallow en el robots. Significan cosas plenamente diferentes.
Todo esto naturalmente con matices... A la larga un Disallow provocará la desindexación si no hay links externos cara esa página y por contra un meta-robots a noindex terminará provocando menor rastreo de esa url que total Google no puede trabajar.
No tiene sentido un disallow+noindex o un disallow+canonical o bien disallow+rel-next/prev o un disallow+loquesea-en-el-html. Google no va a contemplar este HTML porque le hemos prohibido acceder a el así que ahórrate su etiquetado.
Lo mismo pasa si bien en menor medida con las redirecciones. Si yo creo una redirección trescientos uno de una URL vieja a una nueva y al mismo tiempo bloqueo la vieja por robots.txt Google no debería enterarse de que he creado un trescientos uno (porque no debería acceder a la URL con 301) así que el traspaso de autoridad no se realizará de forma eficiente. En la práctica en ocasiones si se da cuenta de la redirección pero por lo general se pierde mucha autoridad al hacer estas cosas.
Otro caso es el de meta-robots=noindex unido a otras directivas. En teoría nada impide que no puedas poner por ejemplo un noindex y un canonical al unísono, se puede pero es un poco singular y en realidad su interpretación es muy ambigua. Y ante estos casos ambiguos sabemos que Google decide ignorar todas y cada una de las señales del HTML (por no fiarse de ellas) con lo que si bien en teoría si se puedan hacer estas cosas no os recomendaría ninguna salvo la de "noindex,follow" e incluso esa, de manera cuidadosa (puesto que un noindex se rastrea poco, así que ponerle un follow acaba siendo un tanto contradictorio).
La repasaremos por el hecho de que llegados al detalle tiene miga y la gente comete muchos fallos.
Cada línea debe iniciar con una orden (allow/disallow) y cada orden hay que escribirla con mucho cuidado.
Esto tiene múltiples implicaciones:
disallow: /blog/ allow: /blog/$ allow: /blog/categoria-1
disallow: /blog-corporativo/ allow: /*.html
No conseguirá que se rastreen los ficheros ".html" dentro de /blog-corporativo puesto que es más larga la expresión de blog-corporativo y por tanto pesa más.
Pero esta otra composición si lo hará:
disallow: /blog-corporativo/ allow: /blog-corporativo/*.html
Porque ahora "/blog-corporativo/*.html" es más largo que "/blog-corporativo/" ... así de simple, pero también así de ilógico.
Esto tiene varias implicaciones:
disallow: /blog/ allow: /blog/$ allow: /blog/categoria-1
Si rastreará tanto la home como la categoría-1 del weblog, pero no el resto por el hecho de que todo el resto de URLs prosiguen prohibidas
No conseguirá que se rastreen los archivos ".html" dentro de /blog-corporativo puesto que es más larga la expresión de weblog-corporativo y en consecuencia pesa más.
Pero esta otra composición si lo hará:
Porque ahora "/blog-corporativo/*.html" es más largo que "/blog-corporativo/" ... así de simple, pero también así de ilógico.
Y esto es así... No hay nada más potente y perdurable que una sentencia de robots.txt...
Por ejemplo el conocido "Crawl-delay" se ignora. En teoría debería señalar tiempo entre peticiones de robots mas no le hace caso así que podemos olvidarnos de esta sentencia al menos para Google (otros rastreadores si que le hacen caso).
Todas las directivas inventadas por terceros tambien se pasan por alto.
Y por último las líneas que comienzan por "#" también se ignoran al comprenderse como comentarios. Sin embargo si que cuentan en el tamaño de archivo máximo así que es mejor no pasarse con su uso. Una recomendacion para comentarios: Cuando trabajamos con múltiples proyectos o muchos sites es mejor incluir notas de la version subida como comentario.:
Ya hemos dicho que el archivo robots.txt siempre y en toda circunstancia se busca en la ruta "/robots.txt" de tu dominio. Y que si no lo halla, podrá ir a buscarlo a un nivel superior de dominio (si existe). Por ejemplo si no lo encuentra en /robots.txt irá a buscarlo a dominio.com/robots.txt
Pero veamos ahora que pasa cuando lo pide. Un servidor lo que hará cuando reciba la petición del fichero robots.txt es devolver un código de contestación diciéndole a las arañas si lo está encontrando o no.
Conocer este detalle puede ser útil para gestionar robots.txt programados en algunos sistemas. Podemos tratar la URL de /robots.txt solo como una redirección a donde realmente gestionamos nuestro archivo robots.txt.
Sin embargo también puede suponer un inconveniente en migraciones mal realizadas de un dominio a otro o de http a https. En estos casos podemos encontrarnos con que al migrar un site devolvemos un trescientos uno hacia el nuevo site con el robots.txt con lo que estaríamos aplicando el robots.txt nuevo al viejo dominio dejando de bloquear las urls viejas y pudiendo provocar una cascada de detección de errores y pérdida de tiempos de rastreo. Por general la recomendación debería ser que todos y cada uno de los sites tengan su /robots.txt y que jamás se redirija pero esto en la mayoría de los casos no se hace así.
El cómo actúa Google si este error persiste en el tiempo no lo sabemos precisamente mas por el motivo que sea suele llevar a perdidas de autoridad y a que se intente reindexar la web. Por esta razón, cuando hay fallos técnicos en una web, y se están solventando en ese mismo día, es preferible obligar al fichero robots.txt a que devuelva error quinientos tres y así parar la indexación completa del site hasta que se arregle el problema. Esto es mucho mejor que bloquear el rastreo puesto que lo segundo tiene implicaciones más severas y un simple quinientos tres es totalmetne temporal.
Conocer este detalle puede ser útil para administrar robots.txt programados en algunos sistemas. Podemos tratar la URL de /robots.txt solo como una redirección a donde realmente gestionamos nuestro fichero robots.txt.
Sin embargo también puede suponer un problema en migraciones mal efectuadas de un dominio a otro o de http a https. En estos casos podemos toparnos con que al migrar un site devolvemos un trescientos uno hacia el nuevo site con el robots.txt con lo que estaríamos aplicando el robots.txt nuevo al viejo dominio dejando de bloquear las urls viejas y pudiendo provocar una cascada de detección de fallos y pérdida de tiempos de rastreo. Por general la recomendación debería ser que todos los sites tengan su /robots.txt y que nunca se redirija pero esto en la mayoría de los casos no se hace así.
El cómo actúa Google si este fallo persiste en el tiempo no lo sabemos exactamente mas por el motivo que sea suele llevar a perdidas de autoridad y a que se intente reindexar la web. Por esta razón, cuando hay fallos técnicos en una web, y se están solucionando en ese día, es preferible obligar al fichero robots.txt a que devuelva fallo 503 y así parar la indexación completa del site hasta que se arregle el inconveniente. Esto es mucho mejor que bloquear el rastreo puesto que lo segundo tiene implicaciones más severas y un simple quinientos tres es totalmetne temporal.
Google recomeinda no Bloquear archivos CSS y JS. Antigüamente eran archivos que se solían bloquear porque no le servian a las arañas para nada. Mas ahora los robots de google son capaces de interprertar el HTML y así situar los contenidos en su contexto (saben si un texto es grande o bien pequeño, el tono de fondo o bien que lugar ocupan en el diseño y lo perceptibles que son los contenidos para los usuarios. Así que Google nos pide que le dejemos acceder a esto y así valorar la web al completo.
Si no les damos acceso a estos archivos es cuando comienza a enviarnos notificaciones y en la práctica la autoridad/calidad que percibe de nuestra página web reduce.
Esto no significa que no podamos nunca bloquearle un archivo JS (todos sabemos para qué 😈) pero si que hay que eludir este bloqueo a nivel general.
Los contenidos 400 (páginas no encontradas, o bien cuatrocientos uno que acostumbran a estar bajo login, etc.) si que son accedidos por las arañas. Google lo procura y se halla al visitar las páginas con que estas no responden y por consiguiente no indexan.
Al final con esta situación lo que provocamos es perder tiempo de rastreo en URLs que jamás se van a indexar así que suele ser preferible bloquearles el acceso de manera directa. Pensemos en cualquier URL, incluso las de destino de los formularios de Google y una vez las tengamos presentes:
No cuento este punto entre los diez conceptos puesto que realmente habla más de directivas de indexación que de robots.txt y es más una posibildiad que no es fácil de incorporar para todos ( y en su versión más sencilla no está recomendado y no sabemos realmente si funciona).
Hablamos de encontrar alguna forma no para prohibir el rastreo sino para prohibir la indexación: el equivalente a la metaetiqueta de robots marcada a "noindex" que comentabamos ya antes. Sobre este tema podréis leer de todo, lo más común es que os encontréis artículos que os hablen de la directiva "noindex:" dentro del archivo robots.txt
Esta directriz viene a decirnos que podemos crear sentencias noindex en el fichero robots con la misma nomenclatura.
Por ejemplo:
Vendria a decirle al robot que puede navegar por la categoría-1 y rastrearla mas que los contenidos de las páginaciones de esta categoría no deben aparecer en el índice de búsqueda.
Seria excelente que nos dejasen hacer esto en tanto que como comentaba ya antes bloquear una URL no implica desindexarla y asi tendríamos un control total sobre todo esto. No obstante, y a pesar de que podréis ver como muchos SEOs lo mencionan e inclusive, Google ya nos ha dicho quey mientras lo prosigan diciendo yo creo que carece de sentido hacerlo. Así que no disfrutamos de esta posibilidad...
En su sitio tenemos otra forma más complicada mas efectiva a nivel de servidor que podemos utilizar. Google tiene documentado el uso de directivas robots (index/noindex,follow/nofollow) con el uso de "x-robots-tag" en las cabeceras.tan solo debemos enviar una cabecera del tipo "x-robots-tag" con exactamente el mismo valor que pondríamos a la meta-etiqueta robots para para pasarlo desde servidor y no desde HTML.
A una parte del propio sistema, esto nos abre la puerta a crear un fichero que gestione estas cabeceras en nuestro servidor. Podemos hacer esto con el lenguaje de programación de nuestro Content Management System (PHP, Java, .Net, etcétera) o bien directametne en la configuración del servidor. En ella gracias a los ficheros .htaccess y .htconfig podemos declarar el envio de cabeceras en un único archivo que definia qué puede y qué no puede indexar el robot.
Ejemplo para marcar un noindex,follow en paginaciones de tu página web a través del fichero .htconfig:
Marcar no indexar incluir caché o bien descripción de los ficheros PDF en el .htaccess...
O no indexar paginaciones a través del módulo de modRewrite con el que gestionamos nuestras URLs amigables y redirecciones:
Pero no quiero estenderme demasaido con este sistema, si deseas leer más sobre como ponerlo en práctica te recomiendo que visites otro artículo de este mismo blog donde detallo otras. En la última de ellas se explica al detalle este sistema.
No se si os habrá pasado como a mi conforme he ido descubriendo con los años todo lo que os he expuesto en este blog post, pero lo cierto es que como todo en el SEO, te das cuenta de que jamás sabes lo bastante de todo. Me pareció interesante compilar todo esto por el hecho de que sigo viendo con el tiempo que los inconvenientes que existen en muchos sites debido a no entender bien los archivos robots.txt prosiguen ahí año tras año y nadie habla de ellos demasiado.
Asi que espero haber ayudado a algunos y a otros haberles descubierto algún detalle que ignorasen.
Como siempre os espero en los comentarios o bien por twitter.
¿Te gustó este blog post? Puedes continuar sus comentarios a través de, o bien realizardesde tu blog.