En anglais : crawler, spiderLes robots d’indexation sont les programmes utilisés par les éditeurs de moteurs de recherche afin d’explorer le Web, en suivant les liens qui relient les pages entre elles et en localisant les pages nouvellement créées. En cela, ils constituent une classe d’ agents intelligents.En indexant les mots de tout ou partie de chaque page rencontrée, ils permettent aux recherches effectuées par les internautes d’être extrêmement rapides.Désignations équivalentes : Robot dindexation – Crawler
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.