Le fonctionnement d’un moteur de recherche

Le fonctionnement d’un moteur de recherche est très complexe. Les moteurs tels que Google disposent de robots capables de scanner les pages Web en explorant les uns après les autres les liens présents sur ces pages. Les robots indexent ces pages selon les règles définies dans leurs algorithmes. Selon le type de page, les placements dans la page, entre certaines balises, les mots auront un poids différent dans leur prise en compte lors de l’affichage d’une recherche.

Ces règles sont de plus en plus complexes. Il est important pour un marketeur de comprendre la base de ces règles. En effet, cela l’aidera à concevoir des sites et, surtout, à rédiger des contenus de manière optimale.

Si on schématise de manière très simplifiée le fonctionnement de l’indexation :

1. Le robot accède à une page du site, il identifie les éléments qui lui sont destinés :

Fichiers, robot.txt et sitemap.xml. S’ils sont présents, il suit les consignes fournies telles que les pages à ne pas indexer ou au contraire celles à indexer en priorité.

2. Le robot identifie le type de page :

Page de contenu classique, page e-commerce, article de blog ou actualité. Le traitement par l’algorithme sera différent selon le type de page.

3. L’indexation de la page démarre selon la structure de la page et ses éléments clés :

Le titre de la page, sa description, les différents paragraphes, leurs titres et sous-titres, les mots en gras ; mais aussi les éléments multimédias, comme les images et les vidéos. Même s’ils ne peuvent être « vus », les éléments textuels pèsent fortement sur le SEO : nom des fichiers, légendes, textes alternatifs (balises alt).

4. Le robot scrolle et explore l’ensemble des liens présents sur la page.

Les mots clés présents dans les ancres de liens – c’est-à-dire le texte présent dans le lien, généralement souligné – ont davantage de poids pour la page de destination du lien.

Ainsi, page après page, lien après lien, le robot explore le site jusqu’à certaines limites. Google précise les valeurs des limites notamment pour le nombre de caractères dans les titres et les descriptions. Mais la limite d’exploration des pages n’est pas transparente.

Il est donc important de faciliter la vie au robot pour qu’il soit en mesure d’indexer un maximum de pages en un minimum de ressources et de temps:

L’algorithme détermine aussi la popularité de chacune des pages ainsi indexées.

Pour cela, les liens externes pointant vers la page sont analysés. Les plus pertinents ajoutent du poids au SEO de la page surtout si le site source est lui-même bien référencé. Les moins pertinents peuvent affecter le SEO. Par exemple, si le site pointant vers la page traite d’un tout autre sujet, il ne sera pas pris en compte. Si le site source a un mauvais
référencement ou s’il est suspecté de ne pas respecter les règles. Attention donc aux liens entrants, souvent appelés « backlinks », trop vite acquis. Mieux vaut privilégier la qualité des backlinks à leur quantité.

Lors des prochains passages du robot, dont la fréquence peut varier, les changements seront analysés

Cela permet de valoriser l’antériorité de l’information ou sa fraîcheur selon le type de page. Ainsi, une mise à jour des contenus sera bienvenue, ainsi que la stabilité sémantique des pages. De manière très pragmatique, une même page qui change de sujet à chaque passage du robot sera déclassée car trop instable et donc inclassable en termes d’index. En revanche, si la page s’enrichit de contenus complémentaires afin de l’actualiser, cela sera perçu positivement

Leave a Reply

Your email address will not be published. Required fields are marked *
You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>