🔔Notificación! ×
Contactanos ahora!

Cómo crear un archivo robots.txt optimizado para Blogger

El archivo robots.txt es una herramienta clave en el SEO técnico. A través de él, le decimos a los motores de búsqueda qué partes de nuestro sitio web pueden rastrear e indexar, y cuáles no. En plataformas como Blogger, es especialmente útil para controlar la visibilidad de ciertas URLs que se generan automáticamente.

¿Qué es y para qué sirve el archivo robots.txt?

El archivo robots.txt es un archivo de texto plano ubicado en la raíz del sitio, que proporciona directrices a los bots de búsqueda como Googlebot. Sirve para:

  • Evitar el rastreo de páginas irrelevantes o duplicadas.

  • Mejorar la eficiencia del rastreo (crawl budget).

  • Proteger información sensible del sitio.

En Blogger, muchas URLs innecesarias se generan automáticamente, como las versiones móviles (?m=1) o las etiquetas mal optimizadas. Gestionarlas con robots.txt es clave.

¿Cómo personalizar el robots.txt en Blogger?

Para personalizar el robots.txt en Blogger, sigue estos pasos:

  1. Entra a tu panel de Blogger y ve a Configuración.

  2. Busca la sección Rastreo y visibilidad.

  3. Activa la opción Habilitar contenido personalizado para robots.txt.

  4. Pega tu contenido personalizado y guarda los cambios.

Ejemplo completo de robots.txt optimizado para Blogger

A continuación te muestro un ejemplo de robots.txt optimizado que puedes usar como plantilla. Bloquea parámetros duplicados, permite búsquedas útiles y mejora la eficiencia de rastreo.


# Instrucciones para todos los robots
User-agent: *

# Bloquear archivos AMP y scripts de analítica, publicidad o elementos no necesarios para indexación
Disallow: /v0/
Disallow: /v0/amp-ad-0.1.js
Disallow: /v0/amp-analytics-0.1.js
Disallow: /v0/amp-form-0.1.js
Disallow: /v0/amp-iframe-0.1.js
Disallow: /v0.js
Disallow: /v0/amp-ad-network-adsense-impl-0.1.js
Disallow: /v0/amp-youtube-0.1.js
Disallow: /ads/
Disallow: /ads/_config.js
Disallow: /src/
Disallow: /src/url.js
Disallow: /src/service-helpers.js
Disallow: /src/chunk.js
Disallow: /src/service/resource.js
Disallow: /src/experiments/index.js
Disallow: /src/core/dom/style.js
Disallow: /src/polyfills/custom-elements.js
Disallow: /src/service/navigation.js
Disallow: /src/iframe-helper.js
Disallow: /src/service/standard-actions-impl.js
Disallow: /src/error-reporting.js
Disallow: /build/
Disallow: /build/ampshared.css.js

# Bloquear parámetros que generan contenido duplicado
Disallow: /*archive/
Disallow: /*updated-max*
Disallow: /*max-results*
Disallow: /*reverse-paginate*
Disallow: /*?m=1$
Disallow: /*&m=1
Disallow: /*?amp=1$
Disallow: /*&=1

# Permitir búsquedas útiles con intención de usuario
Allow: /search?q=*

# Permitir etiquetas (labels)
Allow: /search/label/

# Bloquear búsquedas internas con paginación duplicada
Disallow: /search?updated-max*

# Permitir el acceso a todo lo demás
Allow: /

# Instrucciones específicas para Google AdSense
User-agent: Mediapartners-Google
Disallow:

# Mapas del sitio para indexación completa
Sitemap: https://www.kolectiva.co/sitemap.xml
Sitemap: https://www.kolectiva.co/sitemap-pages.xml
Sitemap: https://www.kolectiva.co/atom.xml?redirect=false&start-index=1&max-results=500
Sitemap: https://www.kolectiva.co/sitemap.xml?page=1
Sitemap: https://www.kolectiva.co/sitemap.xml?page=2
Sitemap: https://www.kolectiva.co/sitemap.xml?page=3
Sitemap: https://www.kolectiva.co/sitemap.xml?page=4
Sitemap: https://www.kolectiva.co/sitemap.xml?page=5

Consejos adicionales para mejorar tu SEO técnico

Una vez tengas tu robots.txt personalizado, es importante que verifiques su correcto funcionamiento en Google Search Console y te asegures de que no estás bloqueando páginas importantes por error.

Además, te recomiendo complementar esta estrategia con una buena implementación de etiquetas canónicas y una estructura de enlaces interna sólida. Puedes seguir esta guía para indexar tu sitio rápidamente si estás lanzando un nuevo proyecto o contenido.

El SEO no es solo contenido: el rastreo, la arquitectura del sitio y la autoridad también cuentan. Y un robots.txt bien hecho es tu punto de partida.

Más allá del robots.txt: construyendo autoridad de marca

Finalmente, si bien controlar qué se indexa es esencial, también lo es construir confianza y relevancia. Un concepto clave que debes conocer es el de Brand Authority. Te invito a leer este artículo sobre qué es Brand Authority según Moz para comprender cómo mejorar la percepción de tu marca ante Google y tus usuarios.

Con un buen robots.txt en Blogger y una estrategia de marca sólida, estarás en camino hacia un sitio más visible, rápido y relevante.

Kolectiva - Agencia de marketing
Publicado por: Kolectiva - Agencia de marketing | blog
Aprende a crear y optimizar el archivo robots.txt en Blogger para mejorar el SEO y controlar el rastreo de tu sitio web de manera eficiente

Productos Relacionados!

Los Más vistos

¡Orden fácil! vía WhatsApp.

Pago instantáneo con Formulario de Contacto por WhatsApp.

¡En línea 24/7!

Cualquiera que sea tu pedido, nuestro CS (Servicio al Cliente) estará encantado de ayudarte. :)

¡Calidad Superior!

Nos aseguramos de que los productos que enviamos cumplan con las expectativas del comprador.
Síguenos! ×
Kolectiva - Agencia de marketing
Kolectiva - Agencia de marketing Síguenos! en nuestras redes sociales.
1 ¿Necesitas ayuda?
Chat IA 🤖 WhatsApp! ×

×



Enviar