Retour Lexique

Crawler

Comment fonctionne un Crawler ?

Par définition, un crawler est un programme qui parcoure le web et explore les sites pour étoffer l’index des moteurs de recherche. Bien connu sous le nom de « robot d’indexation », « robot d’exploration », « spider », « web crawler » ou encore « bot » dans le monde du référencement SEO, chaque moteur de recherche dispose de son propre crawler, les plus célèbres étant Googlebot pour le moteur de recherche Google, et Bingbot pour le moteur de recherche Bing.

toile araignee

Afin d’alimenter l’index d’un moteur de recherche et de proposer des résultats de recherche toujours plus pertinents et actualisés, les crawlers parcourent le web en autonomie et passent au peigne fin toutes les pages et les contenus qu’elles proposent aux internautes. A la recherche perpétuelle de nouvelles pages ou de pages déjà indexées mais depuis mises à jour afin de l’actualiser, les crawlers sont essentiels en référencement SEO.

On représente souvent la navigation des bots à travers le web à l’image d’une araignée qui se déplacerait sur sa toile, passant de liens en liens, ce qui permet de renforcer la structure (aussi bien du site que de la toile d’araignée !).

Chacune des missions et commandes du crawler sont définies en avance, ainsi le robot n’a plus qu’à suivre les instructions qui lui ont été données. Son fonctionnement est simple : il se déplace sur Internet à l’aide des liens hypertextes, automatiquement, 24h sur 24h. Son exploration démarre toujours par une URL connue. En arrivant sur une page, il l’explore, la crawle, enregistre les données (le contenu, les vidéos, les images, les titres, les balises, et tout autre élément présent sur votre site web), suit les liens présents sur la page pour découvrir de nouvelles pages, les sauvegarde, et recommence ce même procédé à l’infini.

Pourquoi un Crawler est important pour le référencement ?

Améliorer le référencement d’un site internet est l’objectif principal de tout propriétaire de site. On parle sans cesse d’optimiser ses pages, ses balises, ses contenus, ses images, en bref, son site web en général. Mais dans quel but ?

Chaque jour de nouvelles pages sont créées, et le nombre de contenus sur différentes thématiques fleurissent à toute vitesse. Soucieux de fournir la réponse la plus précise et pertinente aux requêtes effectuées par les internautes, Google envoie son crawler pour explorer les pages et les analyser. Le robot va donc scruter tous les éléments d’une page afin d’en comprendre le sujet, pour ensuite l’indexer et la trier parmi les autres. Les pages jugées les plus pertinentes seront affichées dans les premiers résultats dans les SERPs, ce qui leur donnera une grande visibilité et une augmentation du trafic organique.

Cependant, il est nécessaire de proposer un site optimisé au crawler pour que cela impacte positivement votre référencement. En effet, Google n’a pas le temps de parcourir l’ensemble des pages du web. Ainsi, il détermine un nombre d’URLs maximum à explorer, qui varie selon les sites, en fonction de plusieurs critères. On appelle ça le Crawl Budget.

Quels sont les différents Crawlers des moteurs de recherche ?

On compte aujourd’hui bon nombre de moteurs de recherche différents, et chacun d’entre eux dispose de son propre crawler. Voici la liste des robots d’exploration des plus connus :

  • Google et son Googlebot
  • Bing et son Bingbot
  • Yahoo et son Slurpbot
  • Baidu et son Baiduspider
  • Yandex et son Yandexbot
  • DuckDuckGo et son DuckDuckBot
  • Facebook et son Facebot
  • Amazon et son Alexa Crawler