Cet article, en plusieurs parties, tente de couvrir tous les éléments à vérifier pour évaluer la qualité du référencement d’un site web ou d’une page web.

Plan de l’article :
– Les principes de base (partie 1)
– Les mots-clé (partie 1)
– Les liens (partie 2)
– Le code (partie 3)
– La concurrence (partie 4)
– Conclusion (partie 4)


Le code

Le code est un élément essentiel puisqu’il est lu et décrypté par les robots d’indexation afin de fournir aux moteurs les informations nécessaires pour le référencement d’une page.
Un site dont le code est « propre » augmente considérablement ses chances d’être compris et bien intégré par un moteur
de recherche. Il faut donc s’assurer que le code des pages est valide et qu’il respecte bien la sémantique des balises
HTML.

Pour se faire une idée de comment les moteurs de recherche voient le code (et donc sur quoi ils se basent pour évaluer une page), on peut consulter la version texte du cache de Google.
Pour cela, faire une recherche. Pour un résultat, au bout de la ligne d’adresse (verte), cliquer sur « Cached ».
Dans le petit paragraphe en haut de la page, cliquer sur « cached text ». On voit alors ce que « voit » le moteur.

Outils pour vérifier la validité d’un code :
Le validateur du W3C
Validateur multipages Proze

Pour vérifier l’utilisation des balises HTML, il n’y a pas d’autre solution que d’avoir un bon intégrateur ou de consulter la spécification (HTML 4.01 ; XHTML )

Si la balise meta « keywords » devient désuète, la balise meta « description » garde, elle son importance. Pas beaucoup au niveau de l’évaluation des pages par le moteur, mais plutôt pour la lecture que les internautes peuvent en faire au moment de leur recherche. En effet, c’est souvent cette description qui est affichée dans la liste des résultats de
recherche. C’est donc elle qui incitera -ou non- un internaute à poursuivre sa recherche sur un site. Elle participe donc à la visibilité.

Les derniers éléments à vérifier dans le code sont tous les contenus auxquels les moteurs de recheche n’ont pas accès : images, vidéos, javascript…
Pour tous les contenus visuels, il suffit de vérifier la présence d’un contenu alternatif (attribut « alt » ou « longdesc »).
Pour le javascript (et même si les moteurs arrivent de plus en plus souvent à y avoir accès), il faut s’assurer qu’il existe bien une version pour le cas où le javascript est désactivé. Les robots d’indexation auront ainsi bien accès à tout le contenu.

Enfin, ne pas prendre en compte pour l’analyse toutes les pages qui resteront définitivement fermées aux robots :
– celles qui sont protégées par un mot de passe
– celles pour lesquelles il est demandé aux moteurs de ne pas les référencer – Vérifier pour cela la présence d’un
robots.txt à la racine du site.
L’inscription « no-index » indique que la page ne sera pas indéxée par les moteurs de recherche respectueux du robots.txt