1 – Richesse des formats indexésLes formats les plus classiques sont pris en compte par l’ensemble des produits, alors que ceux de type PAO (XPress, Draw,…
1 – Richesse des formats indexés
Les formats les plus classiques sont pris en compte par l’ensemble des produits, alors que ceux de type PAO (XPress, Draw, InDesign) sont ignorés. Notre laboratoire a mis l’accent sur les formats de messagerie et de bases de données les plus utilisés en entreprise.
2 – Rapidité d’indexation
Si chaque produit avait été installé en tant que serveur d’indexation dédié, séparé de l’applicatif, les temps de réponse mesurés auraient sans nul doute été meilleurs. La plupart des éditeurs prétendent qu’un script plus optimisé aurait fourni des résultats supérieurs.
3 – Rapidité de consultation
Notre laboratoire a évalué les temps de réponse des quatre moteurs soumis à une charge de plus en plus élevée. Selon les cas, les outils ont réagi plus ou moins rapidement, en fonction du nombre de requêtes simultanées.
4 – Pertinence des réponses
Dans l’ensemble, ces évaluations se révèlent assez basses : seule une cinquantaine de documents pertinents sur 210 estimés ont été fournis par les moteurs. Ce sont principalement les documents jugés hors sujet présents dans les 5 premières réponses qui départagent les outils. Les notes de ce critère sont définies après avis d’un jury et non à la suite des tests scientifiques du laboratoire.
5 – Exploitation
Notre laboratoire a pris en compte la facilité de mise en ?”uvre des différents types d’indexation, la qualité de l’interface d’exploitation et de recherche en standard, ainsi que la lisibilité des résultats. La richesse des opérateurs de recherche a aussi fait l’objet de tests.