Référencement naturel : le secret d’une stratégie SEO réussie

Publié par dans la catégorie Best Practices

Référencement naturel le secret d'une stratégie SEO réussie

La Search Engine Optimization (SEO) — aussi appelée référencement naturel dans la langue de Molière — est un processus d’amélioration continue visant à positionner le mieux possible un site web parmi les résultats des moteurs de recherche. Comment cela fonctionne-t-il, quelles sont les pratiques à éviter et quelle stratégie SEO adopter sur le long terme ? Réponses.

I. Comment fonctionnent les moteurs de recherche ?

1. Principe de fonctionnement

L’objectif des moteurs de recherche est simple : fournir aux internautes l’information la plus pertinente possible. Autrement dit, cela consiste à présenter, pour un mot-clé donné, une liste de liens correspondant, par ordre décroissant de pertinence.

2. Conséquences en termes de trafic

A l’heure où nous écrivons ces lignes, nous avons pu observer qu’en moyenne, les résultats présentés sur la première page d’un moteur de recherche captent 95% des clics, le premier résultat en captant à lui seul près de 40%. Raison pour laquelle le bon positionnement de votre site dans les moteurs de recherche est si déterminant.

3. Processus technique

Pour déterminer quel liens — et donc quels sites — doivent apparaître en premiers sur les pages de résultats de recherche, les moteurs de recherche effectuent des visites régulières sur l’ensemble des sites de la toile, à l’aide de robots — égarements appelés “bots” ou “spiders” — afin d’en indexer le contenu. Ce processus porte un nom : le crawling.

4. Eléments pris en compte

Initialement, les moteurs de recherche n’étaient pas en mesure d’analyser le sens des mots présents sur un site, comme pourrait le faire un être humain. Un certain nombre d’éléments étaient donc pris en compte pour évaluer la pertinence d’un site, suivant un algorithme informatisé :

  • La structure d’un site : balises META, titres et sous-titres, navigation, maillage de liens internes
  • Le contenu d’un site : texte, images, vidéos
  • Les liens entrant vers le site, en provenance d’autres sites

II. “Black Hat” SEO : des pratiques à éviter

1. Un secret bien gardé

Si les observations empiriques des professionnels du référencement ont permis de déterminer les éléments pris en compte dans les algorithmes des moteurs de recherche (voir ci-dessus), il est extrêmement difficile de connaître le poids exact de chaque élément, dans chaque algorithme. Il s’agit d’un secret bien gardé, au même titre que la recette du Coca Cola,

2. Des pratiques visant à se jouer du système

Face à la problématique du référencement naturel, deux écoles s’opposent :

  • Les pratiques “White Hat” consistent à mettre en place une stratégie de référencent naturel saine et conforme aux préconisations des moteurs de recherche. Il s’agit le plus souvent d’un travail de fond, effectué sur le long terme, manuellement et visant à un créer un site :
    • Dont l’architecture facilite son indexation par les moteurs de recherche
    • Mis à jour régulièrement et hébergeant un contenu de qualité
    • Vers lequel pointent d’autres sites de référence dans le domaine
  • Les pratiques “Black Hat” consistent quant à elles à exploiter les failles des algorithmes des moteurs de recherche, le plus souvent à l’aide de :
    • Logiciels et de scripts d’automatisation, en vue de générer du contenu, des pages, des liens ou des commentaires.
    • Réseaux de sites dont le seul but est la création de liens, sans contraintes thématiques.
    • Stratégies d’échanges de liens.

3. Un risque permanent de pénalité

Contrairement aux pratiques “White Hat”, les pratiques “Black Hat” ne sont par définition pas conformes aux règles des moteurs de recherche. Une caractéristique exposant les sites qui en usent — et en abusent — à un risque permanent de pénalité de la part des moteurs de recherche. Pénalité se traduisant par une désindexation des pages et donc des sites en question.

Ce risque est d’autant plus important que les algorithmes des moteurs de recherche évoluent, intégrant des mises à jour de plus en plus fréquentes et de plus en plus radicales. Autrement dit, une stratégie SEO “Black Hat” peut avoir des conséquences directement opposées à l’objectif poursuivi : le référencement naturel d’un site.

III. Le secret d’une stratégie SEO réussie : du contenu de qualité

1. L’analyse sémantique

L’exemple d’évolution d’algorithme le plus célèbre est sans aucun doute celui de Google. Les mises à jour successives, intitulées Google Panda, Google Pinguoin et Google Colibri, ont respectivement eu pour vocation de favoriser le référencement des sites de qualité, de pénaliser les pratiques “Black Hat” et d’interpréter le sens du contenu présenté.

Dans les faits, cela s’est traduit par une pénalisation des liens créés artificiellement, notamment à l’aide d’annuaires, de sites de communiqués de presse et de sites d’achat de liens. Une évolution dont la branche britannique d’Interflora a fait les frais l’année dernière, voyant son site pénalisé à la suite d’une campagne de relations bloggers trop poussée — un envoi massif de bouquets de fleurs accompagnés “d’invitations” à créer des liens vers le site de la marque — selon la firme de Mountain View.

D’une analyse purement technique, les moteurs de recherche ont évolué vers une analyse sémantique, qui se rapproche de plus en plus de celle des êtres humaines. Une évolution en ligne avec l’objectif premier des moteurs de recherche de présenter une information toujours plus pertinente aux internautes.

2. La prise en compte des médias sociaux

Un élément semble prendre de plus en plus de poids des algorithmes des moteurs de recherche : le nombre de partage sur les médias sociaux. Une évolution qui repose sur le raisonnement suivant :

  • Les internautes sont les mieux placés pour juger de la pertinence d’un site.
  • Les internautes partagent sur les médias sociaux ce qu’ils jugent pertinent.
  • Les médias sociaux sont donc un bon indicateur de la pertinence d’un site pour les internautes.

Une catégorie “Social” a même vu le jour dans Google Analytics afin de permettre aux webmasters d’analyser la proportion de trafic généré vers leurs sites par les médias sociaux.

3. Le rôle central du contenu

Dans un contexte où :

  • Les stratégies de link-building sont de plus en plus risquées,
  • Le poids donné à la qualité des sites eux-mêmes est de plus en plus important,
  • Le nombre de partages sur les médias sociaux est pris en compte par les algorithmes des moteurs de recherche,

la seule et unique stratégie SEO valable à long terme est la production et la publication de contenu de marque, ou brand content, de qualité. Le contenu de qualité permet en effet de :

  • Générer des liens entrants pertinents, qui font référence à ce contenu pour sa qualité intrinsèque.
  • Renseigner les internautes lorsqu’ils visitent le site (diminuant ainsi les taux de rebonds, ce qui influe positivement sur le référencement naturel).
  • Favoriser les partages sur les réseaux sociaux, en apportant de la valeur à ceux qui le diffusent et à ceux qui le consomment.

Pour mettre en place une stratégie de référencement naturel efficace, il est crucial de garder en tête l’objectif premier des moteurs de recherche, qui est d’offrir l’information la plus pertinente possible aux internautes. S’il existe des bonnes pratiques permettant d’optimiser l’architecture d’un site et ainsi de favoriser son indexation, le secret d’une stratégie SEO réussie— et valable à long terme — est la production et la publication fréquente de contenu de qualité.

Share on FacebookTweet about this on TwitterShare on LinkedInGoogle+Buffer this pageEmail to someone