Liste des articles SEO

Outils d’analyse SEO : Focus sur l’outil de crawl Screaming Frog

By 30 mai 2018 No Comments

Outils d’analyse SEO : Focus sur l’outil de crawl Screaming Frog

 

Pourquoi cet outil est-il intéressant? Que peut-on faire avec ? Qu’en sont les limites?

 

J’adore Screaming Frog (la Grenouille Hurlante en français), vraiment je l’adore. Pourquoi ? Parce qu’il est génial, pardi.

Non vraiment, plus sérieusement, il est bien conçu, efficace, rapide, et surtout donne tout un tas d’informations très pratiques.

Télécharger Screaming Frog

 

Quel est donc ce Screaming Frog ?

C’est un outil simulant un crawl (c’est à dire qu’il va analyser page par page en suivant les liens internes).

Quel est l’intérêt de cet outil ?

Cette démarche permet de :

– Comptabiliser le volume de pages d’un site.

– vérifier qu’un site est ‘crawlable » dans son ensemble.

– Comptabiliser le volume d’erreurs 404.

– Comptabiliser le volume de redirections 301 / 302 présentes dans la structure du site.

Et bien d’autres aspects que nous verrons par la suite.

Si l’outil n’arrive à crawler que 50% de votre site, c’est qu’il doit y avoir un problème structurel quelque part.

Prenons un exemple :

Vous avez 10000 pages produits sur votre site e-commerce, Screaming Frog n’en trouve que 5000. Cela signifie que les 5000 restantes sont introuvables, donc non présentes dans la structure du site.

Qu’est ce qui s’est passé ?

Les pages manquantes sont-elles correctement rattachées aux catégories correspondantes ? Le contenu serait-il en Ajax? Ce sont ce genre de questions qu’on doit se poser pour comprendre l’origine du problème.

Voici un retour sur les différentes fonctionnalités

Vous avez accès à deux modes d’analyse :

Mode Spider

C’est la fonction crawl. En mode gratuit, cette fonction est limitée à 500 url. Il faut acheter une licence pour bénéficier d’un crawl illimité.

La licence coûte à l’année une centaine d’euros. Je pense que l’investissement est très rentable car l’outil vous rendra de nombreux services.

Mode List

Vous pouvez uploader :

– Des fichiers d’url (par exemple le sitemap).

– Coller vos url à analyser dans l’outil.

– Charger vos fichiers sitemap en rentrant le chemin d’url du fichier.

 

Fonction crawl

Vous rentrez l’url du domaine à analyser. Très rapidement, il va vous identifier de nombreuses url (tout dépend de la volumétrie du site). Plus le site est gros, plus le temps de crawl sera long.

L’outil vous donnera par page les informations suivantes :

– Code Réponse.

– Adresse.

– Titre.

– Type de contenu.

– Longueur du titre (en caractères et en pixels).

– Balise description.

– Longueur de la balise description (en caractères et en pixels).

– Balise keyword.

– Longueur de la balise keyword (en caractères et en pixels).

– Balise h1.

– Longueur de la balise H1.

– Balises H2.

– Longueur des balises H2.

– Règle de non-crawl venant du robots.txt.

– Balise canonical.

– Nombre de mots présents.

– Niveau de profondeur.

– Nombre de liens entrants et sortants.

– Temps de chargement.

– Url de redirection (en cas de redirection).

 

On peut ensuite filtrer par type de contenus:

– Html.

– Js.

– Css.

– Images.

– Pdf.

– Flash.

On peut aussi filtrer par url. Par exemple, je ne veux filtrer que les url articles. Je n’ai qu’à ajouter dans le champ de recherche le terme « articles/ ».

Au-delà de ces informations, ce qui est intéressant c’est de pouvoir filtrer les data.

Tout dépend de ce que vous cherchez à analyser. L’outil ne va pas vous donner la réponse toute cuite, mais vous donner des informations pour valider ou non vos impressions.

Par exemple on peut :

– Ranger les url par ordre croissant / décroissant.

– Objectif : Identifier le contenu dupliqué (via des filtres dans les url).

– Ranger les balises title, et / ou H1 par ordre croissant / décroissant.

– Objectif : Identifier le contenu dupliqué (titre en double, triple).

On peut identifier les contenus trop profonds, ou subissant un temps de chargement trop long.

On peut aussi identifier les erreurs au niveau des balises rel canonical quand celles-ci sont intégrées (même idée avec le code Analytics, GTM, et même les balises hreflang, bref, tout ce qui est indentifiable dans le robots.txt).

L’intérêt de cet outil est de valider les pistes d’erreurs que vous avez identifiées à l’oeil nu sur le site.

 

Fonction Liste

Vous pouvez faire exactement la même chose qu’en mode crawler sauf que là l’outil part d’une liste d’url existante.

C’est intéressant de faire analyser le fichier sitemap par l’outil car il peut ressortir des erreurs que vous n’aviez pas vues. Par exemple fichier incomplet (il manque 20% des url). Fichier comportant de nombreuses erreurs 404 ou redirections 301.

L’avantage de ce type d’outil est de pouvoir avoir une vision macro du site (surtout pour des sites avec un peu de volume).

 

Cas pratique avec Screaming Frog

J’ai un site e-commerce de 10000 pages produit et 100 pages catégories.

Avec Screaming Frog, je peux voir :

– Les url dupliquées avec des variables inutiles (et surtout le volume de pages concernées).

– Les titres et H1 dupliqués.

– Les balises canonical en erreur.

– Par exemple je peux être capable de dire que 20% des fiches produits ont une mauvaise rel canonical renseignées.

– Ou je peux dire aussi que 67% des pages catégories sont massivement dupliquées avec le système de variable filter=minprice. Cette duplication représente 80% du volume du site.

L’outil permet de sortir des constats mais ne donne pas les solutions. C’est là, la limite de l’outil.

Je peux analyser ces éléments en filtrant les url (pages produits uniquement par exemple).

 

Et vous ? Comment utilisez-vous Screaming Frog?

nvidal

Author nvidal

More posts by nvidal

Leave a Reply

Conseil et formation en SEO