Liste des articles SEO

Livre blanc sur la sensibilisation au SEO (référencement naturel)

By 30 mai 2018 No Comments

Livre blanc Sensibilisation SEO – A la découverte du référencement

Comprendre et connaître les fondamentaux du SEO ainsi que les évolutions et avancées majeures du référencement..

Objectif de ce livre blanc :

Comprendre et connaître les fondamentaux du SEO.

Comprendre et connaître les évolutions et avancées majeures du SEO.

Afin de compléter ce rappel de contexte, j’ajoute ci-dessous dans les annexes un lexique qui permettra de mieux comprendre les sujets.

 

Le sommaire

  1. Rappel du contexte de ce livre blanc
  2. Les piliers du SEO
  3. Pilier structurel
    1. Check-list structurelle
    2. Check-list templating
  4. L’avènement du “Mobile Index First” de Google
  5. Pilier sémantique
  6. Pilier notoriété
  7. Pilier social
  8. Problématiques émergentes | Innovations
  9. Monitoring des performances
  10. Focus sur les outils
  11. Annexes – Lexique
  12. Annexes – Interactions SEO UI

 

 

-1- Les piliers du SEO

Nous allons aborder ce livre blanc sur la base des 4 piliers du référencement. Ces 4 piliers sont intimement liés à l’expérience utilisateur.

– Structure.

– Éditorial.

– Notoriété.

– Engagement social.

 

-2- Pilier structurel

Un site bien structuré pourra être facilement crawlé et indexé par Google.

 

Pour résumer, nous observons un entonnoir entre le contenu disponible sur un site, et les visites provenant de Google sur ce même contenu :

 

1  Volume de pages global du site.

 

=> 2 – Volume de pages crawlées par Google.

 

==> 3  Volume de pages indexées par Google.

 

===> 4  Volume de pages positionnées sur les listes de résultats Google.

 

====> 5  Volume de pages génératrices de trafic et de conversions.

 

Les pages génératrices de trafic et de conversions depuis Google sont celles qui ont pu être crawlées et indexées, puis qui ont pu être bien positionnées sur des requêtes qualifiées.

 

-2-1- Check-list structurelle

Voici ci-dessous les points relatifs à la check-list structurelle à effectuer sur un site lors d’un audit, ou d’une refonte, ou même d’une création de site.

 

Robots.txt

Il s’agit d’un fichier .txt qu’on place à la racine du serveur. Il indique aux moteurs de recherche quelles sont les URL ou les variables d’URL qu’on ne souhaite pas voir crawlées par les moteurs. Par exemple il s’agira de variables de filtres « order= » qui n’ont aucun intérêt pour le référencement (il s’agit de cas de contenu dupliqué).

En effet, le filtre order= réorganise uniquement le contenu d’une page en la dupliquant. Les moteurs n’ont pas besoin de cette deuxième version de page.

Bloquer au crawl les URL sans intérêt pour le SEO permet d’économiser du budget de crawl et de réinvestir celui-ci sur des zones du site importantes pour le référencement (exemple : pages listes, pages produits, pages articles etc).

 

Sitemap.xml

Il s’agit d’un fichier .xml qu’on place à la racine du serveur au même endroit que le fichier robots.txt. Il a pour objectif de lister l’exhaustivité des URL indexables sur Google. Si la structure du site est bonne, il n’y a pas d’intérêt à générer ce fichier.

En réalité l’intérêt est de le soumettre à la Search Console afin d’identifier le volume de pages indexées sur Google versus le volume de pages renseignées dans le fichier sitemap.xml. Si il y a un gros différentiel entre les deux indicateurs il faudra investiguer.

 

Temps de chargement de page

Google recommande de faire passer le chargement html d’une page à 200ms. L’ensemble des éléments d’une page (css, js, médias etc) doit être chargé en 1,5 seconde maximum.

Il est possible d’optimiser les points suivants :

– Activer la compression des ressources.

– Utiliser les sprite css pour limiter le volume de requêtes serveurs.

– Différer le js.

– Choisir le format approprié aux images.

– Limiter le volume de fichiers css en les regroupant.

– Minifier les fichiers js.

– Éviter les commentaires dan le code.

– Éviter la duplication de fichiers css.

– Utiliser un CDN.

– Investir dans des serveurs plus performants.

– Limiter au possible le volume de requêtes serveurs.

Tester le temps de chargement d’une page.

 

Migration vers la version https si ce n’est pas encore fait

Google recommande par mesure de sécurité de migrer son site vers la version https. La raison évoquée est la protection des données. Chrome s’octroie le droit d’afficher un message de sécurité sur les listes Google si un site non passé en https ne lui parait pas sécurisé.
A noter toutefois, contrairement à certaines rumeurs que le passage à l’https ne permet pas de gains de positions sur Google.

La migration vers l’https doit donc répondre à un besoin technique et non référencement.

 

Gestion de la duplication de contenu

La gestion de la duplication de contenus est très impactant sur un site. En raison de bugs structurels on peut se retrouver à plus de 80% d’un site massivement dupliqué.

La duplication de contenu revêt différentes formes :

– Présence de variables dynamiques mal gérées dans une URL.
– Bug de gestion d’un ID dans une URL.
– Contenus d’une page dupliqués sur plusieurs pages.
– Balises titre identiques sur plusieurs pages.

La présence massive de contenus dupliqués sur un site peut impacter gravement le budget de crawl alloué par Google sur un site : Concrètement si un site a 80% de son contenu dupliqué, le crawl de Google se perdra dans des pages inutiles et c’est le contenu utile du site qui en pâtira car il ne sera pas crawlé efficacement.

D’où l’intérêt de bloquer dans le robots.txt les URL et variables d’URL qu’on souhaite bloquer au crawl de Google de telle sorte que celui-ci pourra se concentrer sur les zones utiles du site.

Lors d’une création de site, il est capital de bien gérer cet aspect.

Analyser les éventuels problèmes de duplication de contenu sur le site.

 

Gestion des pages 404

Il peut arriver qu’un site comporte de nombreuses pages d’erreurs 404, dû à des bugs et/ou des problèmes de gestion.

Le premier objectif est de faire en sorte qu’il y en ait le moins possible sur le site en ayant une gestion rigoureuse de ces erreurs (via notamment le check-up sur la Search Console).

Le second objectif est de faire en sorte que la page 404 ne soit pas une page de sortie du site, mais plutôt une page d’aiguillage de l’internaute vers d’autres pages du site. Notamment, en personnalisant la page, et donner envie aux internautes de cliquer sur des liens internes.

[…]

La suite concerne les points:

  • Templating.
  • Préparation au mobile index first.
  • La rédaction web / stratégie éditoriale.
  • Le pilier notoriété.
  • Le pilier social.
  • Les innovations mobiles.
  • Les interactions  SEO UI.
  • Le monitoring des performances.
  • Les outils.
  • Un lexique.

Si vous souhaitez en savoir plus, n’hésitez pas à me contacter : nvidalseo@gmail.com je me ferai un plaisir de vous fournir la version complète de ce livre blanc.

nvidal

Author nvidal

More posts by nvidal

Leave a Reply