Pour consulter internet dans le cadre notamment de missions de veille technologique ou concurrentielle, certaines entreprises ont recours à des logiciels “aspirateurs” de sites. S’inspirant du système de cache, cette technique consiste à stocker, au niveau du poste de travail, l’ensemble ou une partie du contenu des sites auxquels l’internaute souhaite accéder lors de sa connexion, de façon à ce qu’il puisse les consulter ensuite en mode off line (hors connexion). Économique, cette pratique pose toutefois un problème concernant l’atteinte aux droits d’auteur du créateur du site.Celui-ci bénéficie en effet d’une protection élevée en France et en Europe, en application des droits qui lui sont conférés par le CPI (Code de la propriété intellectuelle), ainsi que par la directive CE 2001/29. Établie le 22 mai 2001, cette dernière porte sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information.Le CPI insiste ainsi sur le caractère d’originalité de la création et sur le fait que l’?”uvre doit être fixée sur un support, peu importe sa nature. Des critères qui s’appliquent donc aux documents multimédias depuis qu’un jugement du tribunal de commerce de Paris (9 février 1998) a attribué au contenu des pages web la qualité d’?”uvre protégeable au titre des droits d’auteur.Considérés comme des bases de données, certains sites internet sont ainsi protégés, mais ce n’est pas le cas pour la majorité d’entre eux. En effet, si un site de compilation d’informations (annuaire en ligne, portail…) constitue une base de données, un web classique (institutionnel ou commercial) ne semble pas pour autant revêtir cette qualification Dans le cas de ce dernier, l’assemblage d’images, de sons et de textes n’a rien d’une disposition systématique, ni d’un recueil d’informations.Ainsi, le 11 avril 2002, la cour d’appel de Versailles a jugé que l’emprunt d’une dizaine de communiqués de presse et de deux rapports émanant d’une base de données ne constituait pas une extraction quantitativement et qualitativement substantielle d’un site. Une question demeure pourtant lorsque le site est “aspiré” et les bases de données extraites en totalité ou en partie. Peut-on alors considérer qu’il y a intrusion au sens de la loi Godfrain du 5 janvier 1988 relative aux délits contre les systèmes de traitement automatisé de données ?En fait, l’aspiration sera tout d’abord condamnable au titre de l’article L 353-3 du CPI, qui prévoit deux ans d’emprisonnement et 150 000 ? d’amende (loi n?’ 95-597 du 1er juillet 1992). En ce qui concerne la loi Godfrain, elle ne couvre que les systèmes qui font l’objet d’une protection technique, c’est-à-dire ceux dont l’accès reste prohibé aux tiers. Ainsi, le propriétaire d’un site dont l’interdiction d’accès n’est pas techniquement assurée, ne pourra pas considérer l’aspiration comme une intrusion illégale au sens de l’article 323-1 du Nouveau Code pénal issu de la loi de 1988.Il en sera de même si le fichier robot n’interdit pas de se promener dans l’arborescence du site. En revanche, si des dégâts causés par l’intrusion sont constatés (avec “plantage” du serveur par exemple), le préjudice pourra être réparé sur le fondement de la responsabilité civile délictuelle. Évaluer l’investissement consacré à la réalisation d’un site web serait enfin le point déterminant pour lapplication ou non des dispositions de la loi de 1998. Il appartiendra au juge de nous éclairer.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.