Cómo crear un archivo robots.txt optimizado para Blogger
El archivo robots.txt es una herramienta clave en el SEO técnico. A través de él, le decimos a los motores de búsqueda qué partes de nuestro sitio web pueden rastrear e indexar, y cuáles no. En plataformas como Blogger, es especialmente útil para controlar la visibilidad de ciertas URLs que se generan automáticamente.
¿Qué es y para qué sirve el archivo robots.txt?
El archivo robots.txt es un archivo de texto plano ubicado en la raíz del sitio, que proporciona directrices a los bots de búsqueda como Googlebot. Sirve para:
Evitar el rastreo de páginas irrelevantes o duplicadas.
Mejorar la eficiencia del rastreo (crawl budget).
Proteger información sensible del sitio.
En Blogger, muchas URLs innecesarias se generan automáticamente, como las versiones móviles (?m=1) o las etiquetas mal optimizadas. Gestionarlas con robots.txt es clave.
¿Cómo personalizar el robots.txt en Blogger?
Para personalizar el robots.txt en Blogger, sigue estos pasos:
Entra a tu panel de Blogger y ve a Configuración.
Busca la sección Rastreo y visibilidad.
Activa la opción Habilitar contenido personalizado para robots.txt.
Pega tu contenido personalizado y guarda los cambios.
Ejemplo completo de robots.txt optimizado para Blogger
A continuación te muestro un ejemplo de robots.txt optimizado que puedes usar como plantilla. Bloquea parámetros duplicados, permite búsquedas útiles y mejora la eficiencia de rastreo.
# Instrucciones para todos los robots
User-agent: *
# Bloquear archivos AMP y scripts de analítica, publicidad o elementos no necesarios para indexación
Disallow: /v0/
Disallow: /v0/amp-ad-0.1.js
Disallow: /v0/amp-analytics-0.1.js
Disallow: /v0/amp-form-0.1.js
Disallow: /v0/amp-iframe-0.1.js
Disallow: /v0.js
Disallow: /v0/amp-ad-network-adsense-impl-0.1.js
Disallow: /v0/amp-youtube-0.1.js
Disallow: /ads/
Disallow: /ads/_config.js
Disallow: /src/
Disallow: /src/url.js
Disallow: /src/service-helpers.js
Disallow: /src/chunk.js
Disallow: /src/service/resource.js
Disallow: /src/experiments/index.js
Disallow: /src/core/dom/style.js
Disallow: /src/polyfills/custom-elements.js
Disallow: /src/service/navigation.js
Disallow: /src/iframe-helper.js
Disallow: /src/service/standard-actions-impl.js
Disallow: /src/error-reporting.js
Disallow: /build/
Disallow: /build/ampshared.css.js
# Bloquear parámetros que generan contenido duplicado
Disallow: /*archive/
Disallow: /*updated-max*
Disallow: /*max-results*
Disallow: /*reverse-paginate*
Disallow: /*?m=1$
Disallow: /*&m=1
Disallow: /*?amp=1$
Disallow: /*&=1
# Permitir búsquedas útiles con intención de usuario
Allow: /search?q=*
# Permitir etiquetas (labels)
Allow: /search/label/
# Bloquear búsquedas internas con paginación duplicada
Disallow: /search?updated-max*
# Permitir el acceso a todo lo demás
Allow: /
# Instrucciones específicas para Google AdSense
User-agent: Mediapartners-Google
Disallow:
# Mapas del sitio para indexación completa
Sitemap: https://www.kolectiva.co/sitemap.xml
Sitemap: https://www.kolectiva.co/sitemap-pages.xml
Sitemap: https://www.kolectiva.co/atom.xml?redirect=false&start-index=1&max-results=500
Sitemap: https://www.kolectiva.co/sitemap.xml?page=1
Sitemap: https://www.kolectiva.co/sitemap.xml?page=2
Sitemap: https://www.kolectiva.co/sitemap.xml?page=3
Sitemap: https://www.kolectiva.co/sitemap.xml?page=4
Sitemap: https://www.kolectiva.co/sitemap.xml?page=5
Consejos adicionales para mejorar tu SEO técnico
Una vez tengas tu robots.txt personalizado, es importante que verifiques su correcto funcionamiento en Google Search Console y te asegures de que no estás bloqueando páginas importantes por error.
Además, te recomiendo complementar esta estrategia con una buena implementación de etiquetas canónicas y una estructura de enlaces interna sólida. Puedes seguir esta guía para indexar tu sitio rápidamente si estás lanzando un nuevo proyecto o contenido.
El SEO no es solo contenido: el rastreo, la arquitectura del sitio y la autoridad también cuentan. Y un robots.txt bien hecho es tu punto de partida.
Más allá del robots.txt: construyendo autoridad de marca
Finalmente, si bien controlar qué se indexa es esencial, también lo es construir confianza y relevancia. Un concepto clave que debes conocer es el de Brand Authority. Te invito a leer este artículo sobre qué es Brand Authority según Moz para comprender cómo mejorar la percepción de tu marca ante Google y tus usuarios.
Con un buen robots.txt en Blogger y una estrategia de marca sólida, estarás en camino hacia un sitio más visible, rápido y relevante.