Accroître le taux de fidélité des clients et augmenter le volume des ventes. Tels sont les objectifs des créateurs de sites de commerce électronique. Ils doivent, pour cela, comprendre les interactions qui s’opèrent entre les internautes et le contenu marchand de leur site. Une tâche complexe, facilitée par les outils dits d'” analyse de clics “. Afin d’étudier le comportement des visiteurs, la plupart d’entre eux (voir tableau) font appel à un mécanisme fondé sur la collecte des informations emmagasinées dans les fichiers – plats – de journalisation des serveurs web. Or, “en matière de collecte de données d’analyse de clics, la perfection n’existe pas “. C’est l’une des grandes conclusions du rapport publié en décembre dernier par l’Aberdeen Group, intitulé ” Web Analytics : Translating Clicks into Business “. L’idéal étant, selon l’analyste, de combiner plusieurs procédés.
Le volume des fichiers de journalisation augmente
De fait, la technique reposant sur les fichiers de journalisation (logs) – ou journaux – présente plusieurs inconvénients. Il existe de nombreux formats de fichiers de ce type. Il faut donc s’assurer que l’outil sélectionné en exploite le maximum. Plus ennuyeux, une entreprise multinationale, qui possède typiquement plusieurs serveurs web dans le monde, doit consolider les données de ses multiples journaux si elle souhaite obtenir une vue globale de son trafic web. En outre, le délai d’analyse du cheminement des internautes dans les pages du site peut être très long. Il n’est pas rare de voir la taille d’un journal atteindre 10 Go au bout d’une seule journée. La taille des fichiers logs des sites les plus populaires double tous les six mois, et certaines entreprises mettent plus de vingt-quatre heures à dépouiller leur journal web de la veille. Cette inflation du volume des fichiers de journalisation se traduira, tôt ou tard, par un surdimensionnement des ressources de stockage. Ces journaux affichent encore une faiblesse : ils n’enregistreront pas les requêtes sur des pages cachées dans un serveur proxy situé entre l’internaute et le serveur web. Pour pallier tous ces désagréments, une solution consiste à capturer les actions des visiteurs directement depuis leur navigateur. Cette technique est souvent retenue par les fournisseurs de services applicatifs (ASP) d’analyse de clics. Les pages web embarquent du code – JavaScript, en général -, de sorte que, à chaque page vue par un internaute, une série de données est envoyée au serveur de l’ASP. Un mécanisme séduisant, mais qui montre ses limites dans le cas où le serveur de l’ASP tombe en panne. Au final, l’Aberdeen prédit, dans un avenir proche, le rapprochement de ces deux techniques. Un mariage déjà consommé dans la solution de la start up Elytics.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.