Le TGI de Paris a estimé que des métamoteurs comme Yakaz.com, Gloobotimmo.com ou Comintoo.com n'était pas illégaux, suite à une plainte du site Seloger.com, qui estimait que ces outils pillaient sa base de données. Une juriprudence qui pourrait faire tâche d'huile pour de nombreux cas de moteurs verticaux...
Il y a presque 4 ans de cela, le site Seloger.com attaquait des outils comme Yakaz.com, Gloobotimmo.com ou Comintoo.com en les accusant de "piller" sa base de données de petites annonces. Mais le jugement du TGI de Paris en date du 26 janvier 2012 est allé contre cet avis en estimant que le site Seloger.com était "irrecevable à agir en contrefaçon de base de données" et a été débouté "de ses demandes au titre de la concurrence parasitaire".
Le tribunal a estimé que l'internaute devant se rendre obligatoirement sur le site possesseur des informations s'il désire consulter de façon complète une fiche, il n'y avait pas lieu de condamner les sites métamoteurs. Et de conclure qu'"aucune faute ne peut être reprochée aux défenderesses et la SAS Pressimo On Line n’a subi aucun préjudice, les défendeurs ne réalisant aucune captation de clientèle mais au contraire orientant les internautes vers le site Seloger.com".
Cette décision est d'autant plus importante qu'elle pourra constituer une jurisprudence pour de nombreux autres métamoteurs verticaux à l'avenir. Et Google News ne fait-il pas la même chose de son côté ?
Source de l'image : Weird Existence |
ces meta moteurs posent problemes car ils viennent juste prendre le travail des autres. Qu’ils fassent un moteur de recherche ce serait mieux :-p
Google news c'est bien différent, car il y a des droits d'auteurs sur les contenus indexés et exploités. Pour les petites annonces immobilières, il n'y a pas de droits d'auteurs. Ca fait une grosse différence 🙂
Nicolas,
Le robot.txt est un fichier que les GoogleBots lisent pour ne pas indexer certaines pages (pages sélectionné par l'expert SEO).
La lecture du robots.txt est une norme mise en place par les moteurs de recherche. Si on ne le programme pas pour lire et respecter les instructions de ce fichier, il n'en fera rien.
Ce qu'il faut savoir c'est que si un programmeur veut récupérer le contenu d'un site il le fera, et là commencera une petite guère entre programmeurs.
Celui de la société aspiré (on l'appellera A) va mettre au point des techniques de détection des robots qui aspirent son site (robots de la société B).
Une fois que les robots seront détecté et bloqué, la société B va s'en rendre compte et mettre au point des techniques d'anonymisation plus poussées et donc recommencer à aspirer.
En gros la société qui est prete à investir le plus dans ce problème gagnera.
Dans le même temps, SeLoger aurait pu :
1 – bloquer les robots des dits sites en interdisant l'accès via robots.txt
2 – attaquer pour création de contenu dupliqué et possible altération du référencement?