Aucun pour l'instant — ajoutez à partir de la liste ci-dessous.

Restaurant, voyage, locations…
Organisez les dépenses de groupe avec l'agilité d'un tableur.
Un fichier robots.txt indique aux crawlers quelles parties d'un site ils doivent visiter, ignorer ou traiter avec des règles spéciales avant de commencer à récupérer des pages.
Cet outil vous permet de choisir une politique de crawl par défaut, d'ajouter des chemins d'autorisation et d'interdiction explicites, de définir un délai de crawl optionnel et d'ajouter des directives de sitemap ou d'hôte sans écrire le fichier à la main.
Robots.txt est une directive de crawl, pas un système de contrôle d'accès, donc le contenu sensible doit toujours être protégé par une authentification ou d'autres restrictions côté serveur.
Différents crawlers prennent en charge différentes directives. Par exemple, la directive d'hôte n'est pas universelle et le délai de crawl peut être ignoré par certains bots, donc validez toujours vos règles finales par rapport aux crawlers qui vous intéressent.

Nous avons plus d'outils pour vous...
Sélectionnez plusieurs outils et placez-les dans un tableau de bord.