Herramientas SEO
Tester de robots.txt online
Comprueba si Google puede rastrear tus URLs correctamente: analiza tu robots.txt y verifica si están permitidas o bloqueadas para Googlebot
Detecta errores de rastreo antes de que afecten a tu SEO.
Pega el contenido de tu robots.txt, selecciona un user-agent e introduce una URL para comprobar si está permitida o bloqueada.
o pega manualmente
¿Qué es un archivo robots.txt?
El robots.txt es un archivo que indica a los motores de búsqueda qué partes de tu web pueden o no pueden rastrear.
Se encuentra en:
https://tudominio.com/robots.txt
Sirve para:
- Controlar el acceso de bots
- Evitar rastreo innecesario
- Optimizar el crawl budget
¿Por qué es importante?
Una mala configuración puede:
- 🚫 Bloquear páginas importantes
- 📉 Reducir visibilidad en buscadores
- 🧱 Impedir indexación
👉 Error típico: bloquear sin querer todo el sitio.
¿Qué permite esta herramienta?
🔎 Testear URLs específicas
Comprueba si una URL está:
- ✅ Permitida
- ❌ Bloqueada
🤖 Simular diferentes bots
Testea reglas para distintos user-agents:
- Googlebot
- GPTBot
- Otros crawlers
🧾 Validar reglas del robots.txt
Analiza directivas como:
AllowDisallowUser-agent
Ejemplo de robots.txt
User-agent: *
Disallow: /admin/
Disallow: /privado/
Allow: /blog/User-agent: GPTBot
Disallow: /
👉 Interpretación:
- Google puede rastrear
/blog/ - No puede acceder a
/admin/ - GPTBot no puede rastrear nada
Ejemplo práctico
URL: https://ejemplo.com/admin/settings
User-agent: GooglebotResultado: ❌ Bloqueada
👉 Diagnóstico:
- La URL está protegida correctamente
- No se indexará
Reglas clave de robots.txt
Para entender cómo funciona:
User-agent:define el botDisallow:bloquea rutasAllow:permite rutas específicas*aplica a todos los bots
Errores comunes en robots.txt
Los fallos más frecuentes:
- ❌
Disallow: /(bloquea toda la web) - ❌ Bloquear CSS/JS importantes
- ❌ Reglas contradictorias
- ❌ No diferenciar bots
- ❌ Sintaxis incorrecta
Impacto en SEO
El robots.txt influye directamente en:
- Rastreo (crawlability)
- Indexación
- Prioridad de páginas
👉 Si Google no puede rastrear, no puede indexar.
Diferencia entre bloquear y no indexar
Es clave entender esto:
- robots.txt → controla rastreo
- noindex → controla indexación
👉 Puedes bloquear una URL y aun así estar indexada (si ya fue rastreada antes).
Relación con SEO para LLMs (GEO)
Los LLMs como ChatGPT o Claude utilizan crawlers propios.
Ejemplo:
- GPTBot
- ClaudeBot
👉 Puedes controlar su acceso vía robots.txt.
Casos de uso
Esta herramienta es útil para:
- Auditorías SEO técnicas
- Migraciones web
- Control de acceso de bots
- Validación de cambios en robots.txt
¿Para quién es esta herramienta?
Ideal para:
- SEO técnicos
- Desarrolladores
- Equipos de producto
- Agencias
- eCommerce
Preguntas frecuentes
¿robots.txt afecta al ranking?
No directamente, pero sí al rastreo.
¿Google siempre respeta robots.txt?
Sí, en general. Otros bots no siempre.
¿Puedo bloquear solo una carpeta?
Sí:
Disallow: /carpeta/
¿Debo bloquear páginas importantes?
No. Solo páginas irrelevantes o privadas.
¿Por qué usar este tester de robots.txt?
En Mindset Digital trabajamos SEO técnico real.
Sabemos que:
- Muchos errores de robots.txt pasan desapercibidos
- Pueden tener impacto crítico
- Y son difíciles de detectar sin herramientas
Este tester te permite validarlo en segundos.
Prueba ahora el tester
Pega tu robots.txt, introduce una URL y selecciona un bot.
Obtendrás una respuesta clara al instante.