Documentation utilisateur
  1. Qu'est-ce que redirection.io ?
  2. Guide de démarrage
  3. Que sont les organisations et les projets ?
  4. Inviter de nouveaux collaborateurs
  5. Compte utilisateur et préférences
  6. Utilisation des logs de trafic
  7. Créer une règle
  8. Référence des triggers et des marqueurs
  9. Référence des actions
  10. Comment importer ou exporter des règles de redirection en masse ?
  11. Gestion des instances
  12. Notifications du projet
  13. Segmentation des projets
  14. Combien ça coûte ?
  15. Puis-je utiliser redirection.io gratuitement ?
  16. À propos de nous

Documentation développeur
  1. TL;DR; Fast track
  2. Installation de l'agent
  3. Mise à jour de l'agent
  4. Référence de configuration de l'agent
  5. Intégrations disponibles
  6. L'agent en tant que reverse proxy
  7. Module nginx
  8. Module Apache
  9. Intégration platform.sh
  10. Cloudflare Workers
  11. Intégration Fastly Compute@Edge
  12. Middleware Vercel
  13. Utiliser redirection.io avec Docker
  14. Est-ce rapide ?
  15. API publique

Crawler
  1. Qu'est-ce que le crawler de redirection.io ?
  2. Démarrer un crawl
  3. Planifier un crawl
  4. Analyse des résultats d'un crawl
  5. La liste des crawls
  6. Crédits de crawl et tarifs
  7. Erreurs d'exploration
  8. Référence des métriques du crawler
  9. Référence des colonnes du crawler

Instances managées
  1. Que sont les instances managées ?
  2. Ajouter un domaine à votre projet
  3. Limites et quota des instances managées
  4. Questions fréquemment posées

Base de connaissances
  1. Créez vos premières redirections
  2. redirection.io : recettes de règles
  3. Mise en place d'un serveur de redirection sur Azure Cloud
  4. Données structurées et extraits enrichis
  5. Qu'est-ce qu'une redirection d'URL ?
  6. Pourquoi utiliser les redirections d'URL et comment les configurer

Versions legacy
  1. Référence de configuration de l'Agent 1.x
  2. Intégrations dépréciées
  3. Intégration legacy de Cloudflare Workers

Changelogs
  1. redirectionio-agent
  2. libnginx-mod-redirectionio
  3. libapache2-mod-redirectionio

Qu'est-ce que le crawler de redirection.io ?

Le crawler SEO technique de redirection.io est un outil qui vous permet de scanner votre site web et de trouver toutes les URLs qui y sont disponibles. C'est un composant clé de la solution redirection.io, car il vous permet de surveiller les URLs disponibles sur un site web et de détecter celles qui ne fonctionnent pas correctement.

Le crawler est accessible à tous les plans payants. Vous pouvez l'essayer gratuitement sur un ensemble limité de pages de votre site web sur la page de présentation du crawler.

Le crawler offre une vue d'ensemble globale de votre site web, permettant d'analyser chaque ressource en profondeur.

Les principaux composants d'un crawl sont :

  • Le tableau de bord de crawl, une vue d'ensemble globale du crawl, avec quelques métriques clés ;
  • Une liste d'alertes, qui signale les problèmes à corriger ;
  • Des rapports pour explorer en détail les résultats du crawl ;
  • La liste de toutes les URLs trouvées sur le site web, avec un puissant système de filtres ;
  • Une page de détails pour chaque URL trouvée pendant le crawl.

Pourquoi utiliser le crawler ?

Grâce au crawler, vous pouvez trouver toutes les erreurs 404 sur votre site web et les corriger avant qu'elles ne soient signalées par vos utilisateurs. Cela vous aidera à améliorer l'expérience utilisateur sur votre site web et à éviter de perdre des clients potentiels.

Mais le crawler de redirection.io ne concerne pas seulement les 404 ! Il permet également de trouver toutes les erreurs de configuration et les optimisations frontend qui devraient être mises en place sur votre site web.

Vous pouvez lire plus d'informations sur les données que redirection.io collecte à propos des URLs de votre site web sur la page "Référence des colonnes". Pour chaque page découverte, redirection.io calcule une série de métriques qui sont utilisées pour évaluer la page - lisez la page Référence des métriques pour plus d'informations.

Comment utiliser le crawler ?

Une fois le crawler activé dans votre projet, cliquez sur l'onglet "Crawler" dans le menu de gauche du manager pour accéder à l'interface du crawler. De là, vous pouvez démarrer un nouveau crawl.

Cette page a été mise à jour le 28 août 2025
Vous ne trouvez pas votre réponse ?