Audit technique SEO

Auditer les critères SEO et techniques d'un site

1. Crawl, capture des données


Avec des outils simples et gratuits (pas toujours), il est possible de crawler efficacement un domaine. Screaming Frog ou encore Xenu permettent de récolter les données nécessaires. Une fois le rapport terminé, Excel ou Calc servira de support de travail et de documentation. À noter que Google propose des services de feuilles de calcules et autres pour travailler en équipe.

Ces outils se ressemblent et fournissent les mêmes informations à savoir ; le type de document, le code renvoyé (200, 301, 404…), les meta title, description, keywords, les informations pour les robots (index, follow, noindex, nofollow), url canoniques, les informations de cache. Mais également la structure de titres et sous-titres (H1, 2, 3, 4, 5…), le sitemap, le maillage, le nombre de caractères, les dupliqués, le temps de réponse, le poids et, bien d’autres encore. Il y a de quoi faire !

Si le crawl est impossible ou présente des erreurs, vérifiez votre fichier htaccess et votre pare-feu. J’ai déjà eu ce problème en analysant mon site perso, je bloque un nombre important de robots indésirables et Xenu en fait partie (son utilisation est parfois détournée). Il suffit alors de supprimer temporairement la règle de blocage, puis de la remettre.

Vous constaterez sur la capture d’écran ci-dessus, un nombre un peu trop important de redirections 301 pour un site de cette taille. Une vieille refonte des urls du sous-répertoire /blog, lorsque les permaliens n’étaient pas personnalisés (chose à ne surtout pas faire).

1bis. Log du serveur


Pour capter et analyser des données, il existe un autre moyen un peu plus technique (données brutes) et complémentaire des autres méthodes. C’est l’analyse des logs du serveur. Par exemple OVH fourni un lien pour les consulter. Il permet de détecter un certain nombre de dysfonctionnements et de données indisponibles dans la Search Console ou Analytics et, peut s’avérer fort utile dans certains cas plus pointus. De la réponse code 500 au piratage du site.

Suite...

Pour une requête la plupart des serveurs fourniront :
Adresse IP client. Nom d’hôte. Date et heure de la requête. Requête effectuée ou l’url. Le protocole (HTTP/1.1). Statut de la réponse. Taille des données. User Agent. Referer. Temps de chargement….

Avec cette méthode on peut avoir une vision précise de la manière dont les moteurs de recherche nous voient. La fréquence du crawl, les pages connues et les pages indexées (donc également le taux d’indexation), les pages orphelines ou dupliquées.
À partir de là on couple les diverses analyses et rapports afin d’obtenir des corrections plus pointues.

Je ferai à l’occasion un article dédié à cette méthode.

2. Export & Mise en forme


Une fois les données capturées, on utilise une grille qui servira de support de travail, à la fois pour avoir une vue détaillée de la situation mais également pour établir les corrections. A partir de là nous avons deux façons de procéder :

  • On travail directement depuis l’outil de crawl et on efface les colonnes qui ne nous servent pas.
  • On exporte puis on travail sur le rapport depuis une feuille de calcule.

Ayant une préférence pour la deuxième solution, je pars de cette dernière. On exporte le rapport au format CSV, puis on l’ouvre avec les paramètres de type de fichier « Délimité », de format « UTF-8 » et de « Séparateurs » (Tabulation, Point-virgule, Virgule).
Ceci fait, il suffit de mettre en place les filtres en fonction de la ligne d’en-tête. Cela permettra de trier les données en fonction du type de document (html, css, image), du statut (200, 301, 404, 500…), la longueur des titres, des descriptions, le temps de réponse, et bien d’autres.

En utilisant le formatage conditionnel on obtient une visualisation clair. Sur l’image ci-dessous, le vert est utilisé pour le code 200, orange pour les redirections permanentes 301, rouge pour les 404…
Si une balise meta title dépasse les 65 caractères elle s’affiche en rouge, idem si la meta description dépasse 165 caractères. Quand du contenu est dupliqué il apparait en surbrillance à l’aide de la mise en forme conditionnelle.

3. Optimisations et corrections


C’est là qu’on passe aux choses sérieuses. Il va falloir analyser le rapport enregistré et corriger toutes les erreurs, à chaque fois on modifie les valeurs du rapport, la couleur rouge ou orange va changer pour le vert si vous utilisez ce code couleur.
Les corrections apportées ne doivent pas ce restreindre à l’intérieur du site, le web est un maillage complexe et collaboratif, les liens qui pointent vers l’extérieur doivent être conformes il faut donc les vérifier. Et c’est d’autant plus vrai lorsque une redirection est détectée, il faut vérifier que le lien à l’origine valide ne pointent pas désormais vers un site de mauvaise qualité ou pire, dangereux ou illégal.

 

4. Référentiel et critères stratégiques


Le rapport d’audit précédemment créé permet déjà d’importantes corrections. Mais ça reste une solution en surface, il est nécessaire d’approfondir et d’établir une série de critères basé sur un référentiel. Pour un audit SEO j’utilise de préférence le référentiel Opquast « SEO » consultable sur leur site.

Pour plus de détails, rendez-vous à l’article « Audit qualité d’un site internet » qui décrit brièvement la marche à suivre. Il faudra toutefois remplacer le référentiel « qualité » par le référentiel « SEO« .

Audit qualité d’un site internet à l’aide du référentiel Opquast « qualité ».

Audit qualité

Espace pro

Retour

Référentiel SEO

Opquast

Plateforme Seo

Très bon outil d’audit seo

My Ranking Metrics