Un petit résumé : qu’est ce que l’optimisation pour les moteurs de recherche

Il y a beaucoup de informations publiées sur le référencement naturel. Je ne vais pas dévoiler de secrets obscures ou rédiger une encyclopédie exhaustive. Cela dit, la plupart des gens ont une vision très floue de ce sujet. Voilà en quelques lignes une petite explication au sujet de l’optimisation pour les moteurs de recherche, autrement dit SEO ou référencement naturel.

Ce que le SEO n’est pas (ou plus) : des mots-clés, des liens

La première mise en garde, pour appréhender correctement le référencement naturel, ce n’est pas qu’une petite liste de choses à faire. Ce n’est pas non plus qu’une recette secrête et réservée à quelques initiés. On entend qu’il s’agit d’ajouter des mots-clés. Quoique cela puisse signifier, ce n’est bien entendu pas si simple. Tout le monde ne peut pas avoir la première position, et les moteurs de recherche ne sont absolument pas au service des sites.

On entend qu’il s’agit de faire des liens par millions en utilisant des logiciels spécialisés. Même cause, même effet : ce n’est bien entendu pas si simple et cela risque de faire blacklister votre site. Autrement dit une disparition durable des moteurs de recherche, très difficilement récupérable.

La loupe, symbole de recherche
La loupe, symbole de recherche, est de moins en moins représentative pour Google au moins, qui est de plus en plus un moteur de réponses et veut s’orienter vers un assistant universel…

Les mots-clés ou les liens sont pourtant essentiels pour le SEO. Mais c’est parce que ces mots et liens apportent du sens qu’ils permettent le succès d’un site dans les résultats des moteurs. Ce n’était pas forcément le cas il y a quelques années : les mots-clés et liens sans signification ont de moins en moins d’avenir.

Ce qui caractérise le succès en première page de Google

Aujourd’hui, les résultats proposés par les moteurs répondent généralement plutôt bien à la plupart des recherches que les internautes font. Bien entendu, on peut être d’accord ou pas avec cette sélection, mais il s’agit souvent de résultats qui plaisent à la majorité des utilisateurs.

Peu de place en conséquence à des stratégies visant à « simplement » ajouter des mots-clés ou produire des liens par millions.

A noter

  • qu’un nombre impressionnant de recherches sont inédites : 15% des recherches n’ont jamais été tapées par un internaute auparavant, ce qui représente un volume énorme chez Google
  • que les pages de résultats sont de plus en plus personnalisées : les résultats varient selon
    • la localisation liée à l’adresse IP,
    • l’âge lié aux statistiques publicitaires qui ressortent de nos navigations,
    • les centres d’intérêt également lié aux statistiques publicitaires,
    • etc.
  • que les pages de résultats sont réévaluées presque à chaque recherche et subissent de nombres variations au fil du temps.

Le crawl et la constitution des extraits de résultats

Pour proposer des résultats, les moteurs ont besoin de connaitre ce qui est publié sur le web. Ils se donnent généralement pour objectif d’en sélectionner le meilleur, avec un peu de publicité quand même. Étant donné le volume de pages publiées ou modifiées chaque jour, la tâche est incommensurable. A l’aide de robots (logiciels), les moteurs explorent donc le web inlassablement, de page en page, de lien en lien. Ces explorations sont archivées, puis classées et évaluées de plus en plus finement. Non seulement par rapport à ce que le moteur « lit », mais aussi par rapport à ce qu’il connait du sujet évoqué. À l’heure de l’intelligence artificielle pleinement intégrée dans les processus de Google, le moteur appréhende de mieux en mieux les concepts sémantiques, leurs relations et la pertinence d’une page par rapport à un sujet, ses qualités comparées à une autre page.

A chaque recherche, le moteur pioche dans cet index et en sort les résultats qui lui semble les plus adaptés à la fois pour les mots recherchés et selon l’utilisateur (âge, sexe, centres d’intérêt, historique de navigation, etc.). Il présente ces résultats sous des formes variées, notamment chez Google. Le résultat naturel « originel » est constitué d’un titre en bleu, de l’adresse en  vert, et d’une courte description de la page. Ces éléments sont normalement tirés directement des pages web explorées, bien que le moteur décide parfois d’adapter ou de créer le titre et la description pour les rendre plus explicite par rapport aux mots-clés tapés. De nombreux autres éléments peuvent être transmis dans les pages web pour générer des affichages avec des étoiles de notation, des vignettes photo, voire ajouter un logo, un numéro de téléphone, …

Les leviers d’action

Les moteurs cherchent donc avant tout à satisfaire leurs utilisateurs. Étant donné qu’ils détectent de mieux en mieux les tentatives de manipulation (type ajout de mots-clés au kilomètre ou liens bidons par milliers), on peut donc partir du principe qu’il faut proposer sur le site tout ce qui peut plaire à des visiteurs.

Côté contenus

Les contenus sont considérés comme la condition sine qua none au référencement naturel. C’est la matière qui alimente les moteurs de recherche, et c’est à partir d’eux qu’un site sera visible. Un des travails de référencement consiste donc vérifier que les contenus proposés correspondent bien aux recherches sur lesquelles le site essaye d’apparaitre. Il y a souvent un écart non négligeable entre ce que propose un site et ce que cherchent les internautes. Employer un mot plutôt qu’un autre ou proposer des articles sur un thème spécifique peuvent changer du tout au tout la visibilité d’un site dans les résultats des moteurs de recherche.

Les contenus bruts peuvent (et devrait) être optimisés pour faciliter leur compréhension par les robots des moteurs. Il s’agit à la fois de fournir un titre et une description, mais aussi d’adapter les pages pour que les robots interprètent la page de la meilleure des manières.

Côté code et serveur

L’optimisation technique est incontournable, pour deux raisons assez évidentes :

  • Les erreurs ou problèmes techniques ne plaisent pas aux visiteurs. en conséquence, les moteurs évitent de positionner des pages ayant des problèmes techniques. Ils évitent aussi de positionner des pages qui se chargent trop lentement.
  • La tâche colossale d’exploration et d’archivage est réalisée mécaniquement par des robots. Ils explorent autant les erreurs techniques que les choses merveilleuses accessibles sur les pages web. Réduire les problèmes favorise donc le parcours des robots.

La correction des erreurs, l’amélioration de la rapidité, la suppression des pages inutiles constituent donc quelques-uns des aspects fondamentaux des optimisations pour les moteurs de recherche.

Les liens internes d’un site (de ses pages vers ses autres pages) ont aussi une signification. Le référencement naturel est donc forcé de s’intéresser au maillage interne : est-ce que les pages les plus importantes sont bien mises en avant, suffisamment accessibles ? Est-ce que les robots ne tournent pas en rond ? Voient-ils toutes les pages utiles ? Passent-ils beaucoup de temps sur des pages inutiles ?

Côté liens affluents

Les liens sont le fondement du Google originel, ce qui lui a permis de devenir le leader qu’on connait aujourd’hui. Schématiquement, il fondait son classement sur deux principaux éléments : la popularité d’une page, c’est à dire le nombre de liens fait vers elle, et le contenu de la page – peut-il correspondre à la réponse attendue ?

Les moteurs veillent là aussi au grain et font tout pour éviter que des liens artificiels manipulent les résultats proposés. Il semble donc logique de promouvoir le site quand (et là où) c’est légitime. Mais gare aux pénalités pour les sites qui parlent de financement bancaire et qui obtiennent des liens de site qui parlent de casino, de poker, de produits bio ou de littérature indienne.

Pour finir

La concurrence est toujours plus grande dans les résultats des moteurs de recherche. Le référencement naturel côtoie depuis plusieurs années d’autres référencements, d’autres façons d’apparaitre dans les résultats des moteurs de recherche. Les vidéos, les images, les lieux (associés à Google Maps), les réseaux sociaux ou les applications mobiles sont autant de présences digitales et d’alternatives aux pages web. Elles entrent directement en concurrence avec les résultats « classiques » dans les pages de résultats des moteurs de recherche.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *