Il aime bien se qualifier ‘ d’ultime machine à répondre à tout du Web ‘. Un petit miracle technologique où une armée de serveurs associée à une formule mathématique ad
hoc aurait la faculté de répondre, et de bien répondre, à toutes les demandes des internautes. Mais Google n’est pas un moteur 100 % automatique.La société emploie, en effet, plusieurs centaines d” agents ‘ payés à l’heure pour vérifier la pertinence de ses résultats. Un réseau dévoilé par le site néerlandais SearchBistro cet été et dont l’existence
nous a été confirmée par un de ces quality testers européens.Le système a pour nom Rater Hub Google, soit ‘ centre de notation Google ‘. Pour y participer, il faut répondre à une offre d’emploi soit sur le site du moteur de recherche, soit sur des
moteurs d’emploi comme Monster. Le salaire oscillerait entre 10 et 20 dollars de l’heure. Le travail consiste alors à s’assurer de la qualité des recherches pour certaines requêtes, par exemple ‘ hôtels Paris ‘ ou
‘ shopping en ligne ‘. Les testeurs doivent vérifier que les pages sur lesquelles ils atterrissent n’utilisent pas trop de grosses ficelles pour remonter dans les premières positions des résultats. Un guide très complet
leur est fourni pour distinguer le bon site du mauvais site.
Des sites placés sur liste noire
Ainsi de la réservation d’hôtels. Un site ne faisant que copier le contenu et les services d’une source à laquelle il est affilié, sans apporter d’information originale est bon pour un déclassement. Mais, s’il ajoute une vidéo, le voilà
réhabilité. En revanche, cacher des mots-clés dans le code source de la page envoie directement sur la liste noire. Autre exemple pris par Google : les pages jaunes néo-zélandaises. Aux yeux de la société californienne, un internaute anglophone
qui taperait ‘ pages jaunes ‘ dans le moteur ne doit pas voir apparaître le service du Pacifique dans les dix premiers résultats puisqu’il n’a que peu de chances d’être intéressé par ce pays. S’il atteignait ce rang, le
site serait donc déclassé.Même si Google présente son Rater Hub comme un contrôle qualité, il influe directement sur les résultats de recherche et rapidement. ‘ Nous sommes plusieurs dizaines en France, explique un testeur.
Il nous arrive d’avoir des demandes dans l’urgence au sujet d’une URL et, dans ce cas, on peut les voir disparaître rapidement. ‘Résultat, des sites peuvent être effacés de l’index de Google sans en être informés, alors que les choix sont réalisés par des êtres humains, pas par des machines. Une pratique qui ne devrait pas cesser. Aujourd’hui, tous les moteurs de
recherche, aussi automatisés soient-ils, nécessitent une intervention manuelle pour expurger les sites indésirables. Y compris le premier d’entre eux.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.