SEO

Tutoriel @ScreamingFrog v4 : Google Analytics integration et Custom extraction


ScreamingFrog vient de sortir la version 4 et je vous dresse un tutoriel rapide des nouvelles fonctionnalités. Pour rappel, ScreamingFrog permet d’identifier toutes les caractéristiques d’une page pour le SEO. Vous devez spécifier une url dans le champ « enter url to spider » , appuyer sur “Start” et choisir un onglet qui peut détailler les : Inlinks, Outlinks, Protocol, Response Codes, URI, Page Titles, Méta Description, Meta Keywords, …
Je vais m’intéresser aux deux nouvelles fonctionnalités : Google Analytics et Custom extraction

Intégration Google Analytics

Configuration > API Access > Google Analytics
google-analytics-configuration

Configurez votre compte Analytics
google-analytics-set-up

Spécifiez bien la vue que vous allez utiliser
google-analytics-view1

Indiquez une date de début et une date de fin
date-range

Quand le crawl est terminé, vous avez directement accès à trois nouveaux rapports.

  • Session Above 0 : Liste des pages qui obtiennent aucune visite sur la période que vous avez spécifié.
  • Bounce Rate Above 70% : Liste des pages avec un taux de rebond supérieur à 70%
  • No GA Data : Liste des pages ne faisant pas remonter de stats Google Analytics

Vous pouvez générer des rapports au format CSV. Il est très utile de pouvoir croiser les données de crawl avec GA

Custom Extraction

Configuration > Custom > Extraction
J’ai choisi XPath pour faire des tests et extraire les balises H1, les fils d’arianne et les textes des diaporamas mais il y a beaucoup de cas d’usages qui feront l’objet d’articles avec R. Je vous conseille le plugin Chrome XPath Helper
config_custom_export

Utilisez l’onglet Custom puis Export pour obtenir toutes vos extractions au format CSV.
ScreamingFrog_export

Mon test me permet de contrôler rapidement le fil d’arianne ( breackcrumb ) de toutes les pages et les balises H1.

Conclusion
J’espère que ce tutoriel pourra vous aider à exploiter plus rapidement la nouvelle version de ScreamingFrog 4. Au #TeknSEO, la question avait été posée mais avec ces nouveautés, vous pouvez contrôler les balises hreflang.

Il y a de nombreuses autres utilisations :

  • vérifier les scripts publicitaires ou la présence des bons microformats
  • contrôler les performances de chaque page
  • tester la profondeur des pages sur une refonte d’arborescence

One Comment

  • Salut,
    Effectivement cette fonctionnalité est très intéressante. Elle va permettre de récupérer via un crawl de données qu’on ne peut pas toujours récupérer facilement via la base de données. Je pense notamment aux nombre de produit sur des pages de listes (très utile sur les sites ecommerce) mais pour lesquels il fallait souvent passer par l’équipe technique pour obtenir les données.

Leave a Reply