Aujourd’hui, Google permet d’accéder à des contenus nombreux et variés sur Internet : textes, images, vidéos, applications… L’intégration récente du Knowledge Graph permet également aux internautes de visualiser des informations pratiques, directement sur les pages de résultats. Tout ceci nous paraît finalement très naturel aujourd’hui, mais les moteurs de recherche n’ont cessé d’évoluer ces 20 dernières années. Pendant ce temps, les techniques SEO, permettant d’améliorer le référencement des sites sur les moteurs, se sont adaptées.

HubSpot a partagé un document sur SlideShare, qui retrace l’histoire du référencement et des moteurs. En 1994, il y a bientôt 20 ans, Brian Pinkerton créait le premier « crawler », ces robots capables de parcourir les pages web pour les analyser et les indexer. Résultat : la premier annuaire basé sur cette technologie était né, il s’appelait WebCrawler et rassemblait 25 sites web. Trois ans plus tard, en 1997, Lycos constituait l’un des premiers moteurs de recherche. 60 millions de pages web étaient alors indexées. Aujourd’hui, Google est omniprésent et propose de nombreuses astuces pour affiner les recherches. Le moteur de recherche a été lancé il y a maintenant 15 ans a créé le PageRank pour « noter » les pages web.

En parallèle, une nouvelle pratique s’est développée : le métier de référenceur était né. Son but : optimiser les sites web pour que ceux-ci soient bien indexés sur les moteurs, qu’ils apparaissent le plus haut possible dans les résultats de recherche (SERP) sur des mots-clés choisis. Des techniques parfois pertinentes, mais pas dans tous les cas. Beaucoup de professionnels du web se souviennent de la mise à jour Google Florida, en 2003, qui pénalisa le keyword stuffing (bourrage de mots clés) et la sur-optimisation des ancres. Et ce n’était que le début de la lutte anti black hat.

Une présentation passionnante, qui permet de mieux cerner le SEO et le fonctionnement des moteurs.

Laisser un commentaire