Liste des articles SEO

Guide SEO de l’analyse structurelle d’un site

By 30 mai 2018 No Comments

Guide SEO de l’analyse structurelle d’un site

 

Une anlyse structurelle de votre site demande de l’organisation mais surtout de la méthode. A l’issue de l’analyse, nous aurons une liste des actions à mettre en place pour améliorer le référencement de votre site.

 

C’est une liste qu’il conviendra de prioriser par rapport aux objectifs du site, aux projets en cours, et à la charge de travail des équipes techniques.

En effet, certains projets structurants et donc lourds en terme de mise en oeuvre peuvent s’avérer très rentables sur la hausse des conversions.

Il convient donc de commencer en exécutant un crawl du site

(Screaming Frog dans un premier temps fera le job très bien).

L’outil de crawl va simuler une analyse page par page du site, jusqu’à ce qu’il ne trouve plus de page. Cet outil va donner   – le volume exhaustif de pages identifiées dans l’analyse. – Y compris les fichiers média, css, js, ou autres fichiers externes. – Par page, la balise title, description, h1, les liens entrants et sortants, la balise noindex, ou blocage dans le robots.txt, le code réponse.

A vous ensuite de trier et filtrer les colonnes pour identifier ce que vous cherchez.

Typiquement en classant les url par ordre alphabétique, vous pouvez identifier les doublons d’url (variables ou filtres en fin d’url). Pareil avec la balise title, vous pouvez identifier les pages ayant la balise title dupliquée. Vous pouvez identifier les erreurs 404, les redirections 301 ou 302 sur le site. Même, les erreurs 500.

Vous pouvez connaître le nombre de niveaux de profondeur.

Ce qui est intéressant aussi est de comparer le volume de pages dans le crawl versus le volume de pages réel, versus aussi le volume de pages présentes dans l’index de Google.

Si vous trouvez un gros différentiel entre ces trois données c’est qu’il y a certainement un problème quelque part. Cela signifie peut-être que le crawl est bloqué quelque part, et donc Google n’a pas accès à l’ensemble des pages du site. Peut-être y-a-t-il un gros volume de pages orphelines (ne sont pas rattachées à la structure du site).

Dans ce cas, un chantier envisageable est de rattacher les pages orphelines à la structure du site (en base de données, dans la navigation, et le linking interne). A la fin du chantier, vous devriez observer une hausse du crawl Google et surtout plus de pages indexées (doc potentiellement plus de trafic).

Ensuite l’idée est de naviguer de pages en pages sur le site et d’identifier des points bloquants

Footer dupliqué du header. Sémantique non pertinente ou insuffisante. Linking interne perfectible. Menu non accessible aux moteurs. Fil d’Ariane absent. Erreurs sur les microdata (ou absence). Absence dans les microdata.

Pages vides, sans intérêt, ou dupliquées (via des bugs dans le cms par exemple).

Autre exemple une page peut être disponible via deux catégories. Cela arrive souvent. Souvent il arrive que cette page soit accessible en deux url (correspondant aux deux catégories). Vous pouvez aussi identifier des chantiers de croissance comme par exemple la création de nouvelles pages (suite à  ce que vous avez pu identifier chez les concurrents).

L’analyse du temps de chargement de page

En revanche celle-ci doit se faire via d’autres outils, tels que Dareboost par exemple.

Autre point à analyser : l’affichage du site en version mobile.

Est ce que le site est adapté au mobile? Est ce que la navigation mobile est pertinente?

N’hésitez pas à regarder le contenu du fichier robots.txt. Est-il complet par rapport à ce que vous avez vu sur le site? Exemples: Page panier. Page Inscription. Page mon compte. Variables dupliquées en tout genre. Les url de résultats de recherche interne.     Bref tout ce qui peut gêner le crawl de Google sur le site doit être bloqué au robots.txt.

La Search Console donne également toute une mine d’informations très intéressantes

Temps de chargement, volume de pages crawlées par jour (si 200 pages sont crawlées en moyenne par jour alors que vous avez 1000 pages sur votre site, il y a certainement un souci quelque part). Balises méta dupliquées, volume de pages indexées, liens pointant vers votre site. Requêtes sur lesquelles vous remontez dans les listes Google.

Regardez également si votre site s’affiche via plusieurs versions du nom de domaine (http, https, www, sans www).

Tests de positionnement

Faites des tests de positionnement pour voir comment votre site remonte sur Google sur des requêtes importantes pour votre business.

L’analyse des concurrents donne aussi beaucoup d’inputs sur les choses à faire, à ne pas faire, les contenus à développer.

Interactions sur les interfaces

Maintenant regardez au niveau des interactions sur les interfaces, le parcours d’achat, la page panier. Ces points sont ils efficaces sur le site? répondent-ils aux standards du web?

Si les interactions sont trop complexes, lourdes, l’internaute partira. Il faut donc aussi proposer des actions permettant d’améliorer cette partie.

Par exemple la page panier est trop complexe à remplir (40 champs à remplir obligatoirement). Ou un process de login trop long.

Prioriser les actions

Une fois que vous aurez identifié tous les points bloquants il faudra les classer et les prioriser dans votre document de rendu d’audit. Cela permet aux lecteurs d’avoir un premier niveau de priorisation.

N’hésitez pas à illustrer vos analyses par des cas concrets, directement visualisables sur le site.

nvidal

Author nvidal

More posts by nvidal

Leave a Reply