0

Pourquoi le crawl d’un site est-il important pour le SEO

Audit SEO d’un site internet

Aujourd’hui le crawl d’un site est devenu indispensable pour l’audit SEO d’un site. Il va permettre de mettre des chiffres sur des recommandations et de justifier nos actions. Il va également détecter de nouvelles problématiques.

Dans les grandes lignes, il va permettre de travailler :

  • la structure du site (navigation descendante, remontante, transverse)
  • la volumétrie du site (catégorisation + comptage des pages)
  • l’accès aux pages les plus profondes (profondeur des pages)
  • les erreurs et leur origine
  • calculer le pagerank interne au site (quelles sont les pages qui reçoivent le plus de liens, qui en reçoivent le moins)
  • le temps de chargement des pages
  • le contenu des pages (originalité du contenu, sa taille…)
  • le code source, title, metas…

Monitoring de votre site

Le crawl, s’il est effectué régulièrement, permettra de contrôler la bonne santé de votre site web. Pour cela, il vous faudra non seulement crawler votre site de manière régulière, mais également conserver les informations de crawl. Ainsi, soit vous pouvez conserver toutes les données brutes en base de données, soit des données déjà calculées sur des fichiers Excel par exemple. Cependant, le fait de conserver seulement des KPI et non toutes les données ne vous permettra pas de ressortir de nouveaux KPI sur des dates antérieures. Il vous faudra donc être vigilant sur ce que vous souhaitez suivre.

Un outil comme Botify, en plus de vous fournir des données issues d’un crawl dans un objectif d’audit SEO, va également comparer les différents crawls réalisés.

Voici quelques exemples de KPI que vous pouvez suivre :

  • Evolution du nombre d’erreurs client (404)
  • Evolution du d’erreurs serveur (500)
  • Volumétrie des pages
  • Evolution du temps de chargement

Migration

Le crawl d’un site avant / après migration (sans oublier le crawl de la recette) vous permettra de contrôler des points techniques sur l’ensemble de vos pages et ce de manière rapide et automatisée.
Vous pourrez ainsi vous assurer que toutes les pages sont bien rapatriées, tester les redirections, s’assurer que tous les éléments importants de la page soient bien présents, le chargement des pages, les erreurs…

Recettes d’implémentations

Parfois, le crawl d’un site va tout simplement permettre de recetter des implémentations. Des exemples :

  • Vérifier que le title est bien présent sur toutes les pages, correctement rempli
  • Vérifier la modification d’une en-tête http (présence du vary:user-agent par exemple)
  • Vérifier la présence d’un tag analytics sur toutes les pages
  • Vérifier des codes réponses
  • Vérifier un comportement spécifique des pages en fonction d’un user-agent (crawler avec un user-agent Google, mobile ou utilisateur)
  • Recetter une version mobile d’un site avec un user-agent spécifique

Récupérer des informations

Le crawl vous permet de récupérer des informations : vos propres information ou celles de vos concurrents (soyez malin)
Ainsi, vous souhaitez récupérer des ancres de liens, des dictionnaires de mots clés, des contenus, des annuaires… Vous pouvez avoir besoin de ces informations pour les « voler », les inclure dans vos études, ou encore les récupérer sur votre site.

marseo

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.