Documentation utilisateur
  1. Qu'est-ce que redirection.io ?
  2. Guide de démarrage
  3. Que sont les organisations et les projets ?
  4. Inviter de nouveaux collaborateurs
  5. Compte utilisateur et préférences
  6. Utilisation des logs de trafic
  7. Créer une règle
  8. Référence des triggers et des marqueurs
  9. Référence des actions
  10. Comment importer ou exporter des règles de redirection en masse ?
  11. Gestion des instances
  12. Notifications du projet
  13. Segmentation des projets
  14. Combien ça coûte ?
  15. Puis-je utiliser redirection.io gratuitement ?
  16. À propos de nous

Documentation développeur
  1. TL;DR; Fast track
  2. Installation de l'agent
  3. Mise à jour de l'agent
  4. Référence de configuration de l'agent
  5. Intégrations disponibles
  6. L'agent en tant que reverse proxy
  7. Module nginx
  8. Module Apache
  9. Intégration platform.sh
  10. Cloudflare Workers
  11. Intégration Fastly Compute@Edge
  12. Middleware Vercel
  13. Utiliser redirection.io avec Docker
  14. Est-ce rapide ?
  15. API publique

Crawler
  1. Qu'est-ce que le crawler de redirection.io ?
  2. Démarrer un crawl
  3. Planifier un crawl
  4. Analyse des résultats d'un crawl
  5. La liste des crawls
  6. Crédits de crawl et tarifs
  7. Erreurs d'exploration
  8. Référence des métriques du crawler
  9. Référence des colonnes du crawler

Instances managées
  1. Que sont les instances managées ?
  2. Ajouter un domaine à votre projet
  3. Limites et quota des instances managées
  4. Questions fréquemment posées

Base de connaissances
  1. Créez vos premières redirections
  2. redirection.io : recettes de règles
  3. Mise en place d'un serveur de redirection sur Azure Cloud
  4. Données structurées et extraits enrichis
  5. Qu'est-ce qu'une redirection d'URL ?
  6. Pourquoi utiliser les redirections d'URL et comment les configurer

Versions legacy
  1. Référence de configuration de l'Agent 1.x
  2. Intégrations dépréciées
  3. Intégration legacy de Cloudflare Workers

Changelogs
  1. redirectionio-agent
  2. libnginx-mod-redirectionio
  3. libapache2-mod-redirectionio

Planifier un crawl

Planifier un crawl permet de l'exécuter régulièrement. Les résultats du crawl seront disponibles sous l'onglet "Crawls", comme s'il avait été déclenché manuellement.

Exécuter des crawls régulièrement vous aide à suivre l'évolution de votre site web et à être informé des régressions, des nouveaux problèmes, etc.

Crawl - Configurer un crawl planifié

Tous les paramètres du crawl peuvent être configurés comme pour un crawl manuel. Mais vous pouvez également choisir la fréquence du crawl, qui peut être définie sur :

  • quotidiennement
  • hebdomadairement
  • ou mensuellement

Une fois qu'un crawl est terminé, vous pouvez analyser les résultats.

Vous pouvez être informé lorsqu'un crawl est terminé en mettant en place un canal de notification. Dans le cas des crawls hebdomadaires ou mensuels, cela peut être utile pour être informé des résultats directement dans votre boîte mail et garder un œil sur l'évolution de votre site web.

Cette page a été mise à jour le 28 août 2025
Vous ne trouvez pas votre réponse ?