Gerador de robots.txt
Crie um robots.txt personalizado para controlar quais partes do seu site os robôs de busca podem rastrear. Download instantâneo.
Regras
Como configurar o robots.txt corretamente?
Um robots.txt mal configurado pode bloquear o Google de rastrear seu site inteiro — um dos erros SEO mais comuns e graves. Antes de subir o arquivo, sempre valide no Google Search Console usando a ferramenta de teste de robots.txt.
Exemplos comuns de configuração
- Permitir tudo —
User-agent: */Disallow:(sem valor = permite tudo) - Bloquear tudo —
User-agent: */Disallow: / - Bloquear admin —
Disallow: /admin//Disallow: /wp-admin/ - Bloquear GPTBot —
User-agent: GPTBot/Disallow: /
Onde colocar o robots.txt?
O arquivo deve estar na raiz do domínio: https://seusite.com/robots.txt. Subdomínios precisam de arquivos separados.
Perguntas frequentes
robots.txt é um arquivo de texto na raiz do seu site que instrui os robôs de busca (como o Googlebot) sobre quais páginas podem ou não ser rastreadas. É a primeira coisa que um rastreador verifica ao visitar seu site.
Tools relacionadas
Gerador de Meta Tags
Gere meta tags HTML otimizadas para SEO e redes sociais (Open Graph, Twitter Card).
Analisador de Title e Description
Analise e otimize seu title e meta description para o Google. Prévia em tempo real.
Gerador de Sitemap XML
Gere um sitemap.xml completo e válido para enviar ao Google Search Console.