Imaginez internet comme un réseau d’arrêts dans un système de métro d’une grande ville.
Chaque arrêt est son propre document unique (généralement une page web, mais parfois un fichier PDF, une image ou un autre fichier). Les moteurs de recherche ont besoin d’un moyen de « crawler » (avec des robots, bots, spiders … appelez les comme vous voulez !) toute la ville et de retrouver tous les arrêts en cours de route. Ils utilisent donc la meilleure voie existante – les liens.
« La structure des liens du Web sert à lier ensemble toutes les pages dans l’existence. »
(Ou, du moins, tous ceux que les moteurs peuvent accéder.) Grâce à ces liens, les robots des moteurs de recherche automatisés, appelés « crawlers », ou « spiders » peuvent atteindre les milliards de documents reliés entre eux.
Une fois que les moteurs ont trouvés ces pages, leur prochain emploi est d’analyser leur code et de stocker des morceaux choisis des pages sur des disques durs énormes, pour être rappelé en cas de besoin dans une requête. Pour accomplir la tâche monumentale de la tenue des milliards de pages qui peuvent être ainsi accessibles en une fraction de seconde, les moteurs de recherche ont construit des centres de données massives dans les villes du monde entier.
Ces installations de stockage monstrueuse peuvent contenir des milliers de machines de traitement pour les quantités incroyables d’informations. Après tout, quand une personne effectue une recherche sur l’un des principaux moteurs, elle exige des résultats instantanés – même un retard de 3 ou 4 secondes peut apporter de l’insatisfaction. Les moteurs travaillent donc dur pour apporter des réponses aussi rapidement que possible.
Quand une personne recherche quelque chose en ligne, il faut que les moteurs de recherche parcours le corpus de milliards de documents qu’ils contiennent en mémoire avant de faire deux choses :
- d’abord, ne retourner que les résultats qui sont pertinents ou utiles à la requête du chercheur
- le rang de ces résultats en vue de la valeur perçue (ou justesse).
Il y a donc à la fois la « pertinence » et la « justesse » que le processus d’optimisation des moteurs de recherche est censée influencer.
Pour les moteurs de recherche, la pertinence signifie beaucoup plus que de simplement avoir une page avec les mots-clefs que vous avez cherché à bien mettre en évidence. Dans les premiers jours du web, les moteurs de recherche n’allaient pas beaucoup plus loin que cette étape simpliste et on constatait que leurs résultats s’en ressentaient. Ainsi, à travers l’évolution, les ingénieurs ont donné des outils « intelligents » aux différents moteurs mis au point, pour de meilleures possibilités de trouver des résultats intéressants afin que les internautes puissent les apprécier et en profiter. Aujourd’hui, des centaines de facteurs influent sur la pertinence, nous en parlerons tout au long dans ce guide.
La justesse est un concept tout aussi difficile à quantifier que la pertinence, mais les moteurs de recherche font de leur mieux.
Actuellement, les principaux moteurs interprètent généralement la justesse par la qualité de l’information qu’il contient. Cette hypothèse s’est révélée assez efficace dans la pratique et les moteurs ont continué à augmenter la satisfaction des utilisateurs en utilisant des paramètres qui interprètent cette justesse.
Justesse et la pertinence ne sont pas déterminées manuellement heureusement. Les moteurs utilisent des équations mathématiques – algorithmes – pour trier le grain de l’ivraie et ensuite classer le blé. Ces algorithmes sont souvent composés de centaines de composants. Dans le domaine du marketing de recherche, nous nous référons souvent à eux comme « facteurs de classement »
Bon article, je pense qu’il y manque tout de même un volet prérequis techniques, à moins que ce ne soit devenu tellement évident qu’il ne soit plus utile de le rappeler ? Si je peux me permettre un article complémentaire : http://www.consultant-web.com/?p=32