O que é um arquivo robots.txt?
O arquivo robots.txt é um arquivo de texto simples que fica armazenado na raiz do seu site e serve para informar aos mecanismos de busca quais páginas ou arquivos podem ou não ser rastreados. Ele segue um padrão conhecido como Protocolo de Exclusão de Robôs (Robots Exclusion Standard), que é o conjunto de regras que define como os rastreadores devem interpretar as instruções.
Essa ferramenta é essencial para otimizar o rastreamento do seu site, garantir que conteúdos sensíveis não sejam indexados e ajudar o Google e outros buscadores a entender melhor a estrutura e prioridades das suas páginas.
Importância do robots.txt para SEO
Embora o robots.txt não impeça a indexação de uma página — apenas bloqueia o rastreamento —, ele é uma ferramenta fundamental no controle do que os motores de busca veem em seu site. Utilizá-lo corretamente ajuda a:
- Evitar que informações desnecessárias ou duplicadas sejam rastreadas, preservando a autoridade do seu conteúdo relevante;
- Preservar o orçamento de rastreamento (crawl budget), evitando que os bots percam tempo acessando URLs importantes;
- Impedir o acesso a áreas restritas, como páginas administrativas, painéis internos ou arquivos temporários;
- Indicar a localização do seu sitemap para facilitar o trabalho dos buscadores;
- Garantir o bom funcionamento da indexação, contribuindo para melhorar a posição do site nas páginas de resultados.
Como criar um arquivo robots.txt
Para criar um arquivo robots.txt eficaz e que seja interpretado corretamente pelos robôs, siga as seguintes recomendações:
- Nome e localização: o arquivo precisa ser chamado exatamente de
robots.txte deve estar localizado na raiz do domínio. Exemplo:https://www.seusite.com/robots.txt. - Formato: utilize um editor de texto simples, como Notepad ou TextEdit, jamais um processador de texto, pois pode inserir formatações inesperadas que causem erros.
- Codificação: salve o arquivo com codificação UTF-8 para evitar problemas no reconhecimento dos caracteres.
- Único arquivo: é permitido apenas um arquivo robots.txt no domínio principal. Subdomínios podem ter seus próprios arquivos, mas eles são independentes e aplicam-se somente ao subdomínio correspondente.
Sintaxe básica do arquivo robots.txt
O arquivo é composto por regras agrupadas, que indicam para quais agentes de usuário (user-agents) as regras se aplicam, e quais diretórios ou páginas são permitidos ou bloqueados.
- User-agent: identifica o rastreador a quem as regras se destinam. Pode ser um nome específico, como “Googlebot”, ou
*para todos os rastreadores. - Disallow: indica os caminhos que não podem ser rastreados pelo user-agent indicado.
- Allow: especifica os caminhos que podem ser rastreados, mesmo se um Disallow mais genérico os bloqueia.
- Sitemap: linha opcional que informa a URL do sitemap do site, ajudando os buscadores a descobrir o conteúdo com mais facilidade.
Exemplo de arquivo simples:
User-agent: Googlebot Disallow: /admin/ User-agent: * Allow: / Sitemap: https://www.seusite.com/sitemap.xml
Regras importantes para usar no arquivo robots.txt
Você pode usar o arquivo robots.txt para diversas configurações conforme sua necessidade:
- Bloquear o site inteiro: para impedir qualquer rastreamento, utilize:
User-agent: * Disallow: /Porém, os URLs ainda podem ser indexados, mesmo sem rastreamento, especialmente se houver links externos apontando para eles.
- Bloquear apenas diretórios específicos: adicione a barra ao final para bloquear um diretório e todo seu conteúdo, como:
User-agent: * Disallow: /privado/ Disallow: /temporario/ - Permitir o rastreamento para um agente específico: por exemplo, liberar todo o site para o Googlebot-news apenas:
User-agent: Googlebot-news Allow: / User-agent: * Disallow: / - Bloquear apenas um rastreador: caso queira impedir um robô específico, mas liberar para os demais:
User-agent: Robozinho Disallow: / User-agent: * Allow: / - Bloquear páginas específicas:
User-agent: * Disallow: /pagina-nao-desejada.html Disallow: /folder/arquivo-secreto.html - Permitir acesso a um subdiretório específico dentro de uma área bloqueada:
User-agent: * Disallow: / Allow: /publico/ - Uso de caracteres curinga:
*para representar qualquer sequência de caracteres;$para indicar o fim da URL;
Exemplo para bloquear todos os arquivos com extensão .gif:
User-agent: Googlebot Disallow: /*.gif$
Como fazer o upload do arquivo robots.txt
Após criar o arquivo, para que ele tenha efeito, é necessário fazer o upload do arquivo robots.txt para a raiz do seu domínio. A forma de fazer isso varia conforme o servidor ou serviço de hospedagem utilizado:
- Se você gerencia seu próprio servidor, basta colocar o arquivo na pasta raiz do diretório público (geralmente chamado de “public_html” ou “www”).
- Se utiliza serviços de hospedagem como Wix, Blogger, Squarespace ou outros, alguns deles não permitem o acesso direto ao arquivo robots.txt, mas possuem configurações específicas para controlar o rastreamento.
- Em plataformas gerenciadas, consulte a documentação ou suporte do serviço para saber como alterar regras de rastreamento.
Como testar e validar seu arquivo robots.txt
Depois do upload, é fundamental testar se o arquivo está acessível e funcionando corretamente. Para isso, siga estes passos:
- Abra uma janela de navegação anônima no seu navegador e acesse
https://www.seusite.com/robots.txt. O conteúdo do arquivo deve aparecer sem erros. - Use a ferramenta de teste de robots.txt do Google Search Console, que permite verificar se URLs específicas estão bloqueadas ou permitidas conforme suas regras.
- Se houver erros, ajuste o arquivo e faça o upload novamente.
- Desenvolvedores podem utilizar a biblioteca open source do Google para validar esta sintaxe localmente, garantindo maior controle.
Como enviar arquivos robots.txt atualizados para o Google
O Google detecta automaticamente o arquivo robots.txt do seu site quando faz o rastreamento. No entanto, caso você faça alterações importantes e precise que elas sejam refletidas o mais rápido possível, você pode:
- Usar o Search Console para pedir um novo rastreamento das páginas afetadas;
- Enviar um arquivo robots.txt atualizado pelo Search Console para que o cache seja atualizado rapidamente;
- Aguardar o rastreamento natural do Google, que ocorre periodicamente.
Boas práticas no uso de robots.txt
Para garantir que o uso do robots.txt não prejudique o desempenho e a visibilidade do seu site, considere estas práticas:
- Bloqueie apenas o necessário: evitar o bloqueio em massa, pois URLs bloqueados podem ainda aparecer no Google sem descrição, o que prejudica a experiência;
- Não bloqueie recursos essenciais: como arquivos CSS, JavaScript e imagens que ajudam no carregamento e experiência do usuário;
- Use também metatags “noindex” nas páginas que não quer indexar: para maior controle da indexação, especialmente em conteúdos sensíveis que não podem ser protegidos por robots.txt;
- Mantenha o arquivo robots.txt simples e legível: evite regras conflitantes e comentários claros para facilitar futuras manutenções;
- Utilize a diretiva Sitemap: para indicar os mapas de site e otimizar o rastreamento das páginas que você realmente quer que apareçam nas buscas;
- Valide sempre que alterar: utilize ferramentas para conferir se a sintaxe está correta e as regras geram o efeito desejado.
Considerações ao utilizar serviços de hospedagem
Se o seu site está hospedado em plataformas populares como Wix, Blogger, Shopify, entre outras, é possível que você não tenha acesso direto para modificar o arquivo robots.txt. Nestes casos:
- Verifique se o serviço disponibiliza uma interface para controlar as configurações de rastreamento;
- Procure por opções para esconder páginas dos mecanismos de busca dentro do próprio painel;
- Busque documentação oficial ou suporte para aprender a informar regras de exclusão;
- Isso evita a necessidade de editar o arquivo manualmente e mantém o controle sobre o que é rastreado.
Conclusão
O arquivo robots.txt é um elemento fundamental para o gerenciamento do rastreamento dos mecanismos de busca em seu site, muito importante para uma estratégia de SEO sólida. Criá-lo corretamente, posicioná-lo na raiz do seu domínio e mantê-lo bem estruturado ajuda a garantir que os buscadores acessem e indexem apenas o conteúdo relevante, preservando recursos do servidor e melhorando a experiência do usuário nas buscas.
Lembre-se de testar sempre que atualizar o arquivo e de usar ferramentas como o Search Console para analisar a forma como o Google interpreta as regras. Dessa forma, você mantém sua presença digital forte e otimizada para alcançar melhores resultados.

