Vous en avez peut-être entendu parler, l'outil Google News a subi les foudres de la justice belge ce mois-ci. En effet, le tribunal de première instance de Bruxelles a condamné le moteur de recherche à retirer de son index web et de son service Google News toutes les pages issues des sites affiliés à l'organisme Copiepresse, qui énonce une "Charte belge d'utilisation des publications de presse". Ce cas fait suite à de multiples affaires du même type en France (AFP, association Geste, etc.) et dans d'autres pays dont les Etats-Unis.

Je voudrais ici soulever une discussion à ce sujet car, malgré mes efforts, j'ai un peu de mal à comprendre la situation donc si quelqu'un peut m'aider celà m'arrangerait bien...

En effet, le site Google News :
- Ne fait que citer les articles qu'il indexe (titre + chapo) sans les recopier entièrement.
- Ne gagne pas d'argent (bien que, de façon évidente, le potentiel est énorme à moyen terme à ce sujet).
- Apporte un trafic énorme aux sites qu'il référence. Car au bout du compte, l'internaute qui utilise Google News va visiter les sites d'informations référencés...

D'autre part, il est très simple, grâce à un fichier robots.txt en bonne et dûe forme ou tout simplement en contactant directement Google, de demander à ce que les dépêches d'actualité d'un site ne soient pas présentes et trouvables sur cet outil.

Donc, de façon peut-être un peu naïve et je m'en excuse, je me demande pourquoi la presse met en place une procédure judiciaire contre le moteur de recherche alors que les problèmes éventuels (s'ils existent) pourraient être résolus en quelques minutes... J'en perds mon latin et ne trouve pas d'explication plausible (sauf pour les photos, dont le cas me semble effectivement problématique, car il ne s'agit plus là d'extraits mais de photos complètes)...

Si l'on suit à la lettre le raisonnement qui mène aux procès en cours, Google et ses confrères devraient demander une autorisation écrite à chaque site web de la Toile pour indexer ses pages dans le cadre de son moteur de recherche sur le Web. Il s'agit effectivement d'une problématique identique et même pire sur le Web puisque dans ce cas, c'est le contenu entier de la page qui est mis en cache et non plus un "extract"... La tâche est bien entendu impossible et ce serait donc clairement dans ce cas la mort des moteurs de recherche si ce type de jurisprudence était jugé...

J'avoue être un peu absourdi par l'attitude des médias presse "traditionnels" devant l'arrivée de ce type d'outils en ligne. Cela me fait penser à la victimisation menée par les majors du disque face au phénomène du Peer to Peer : "les vilains pirates y font rien qu'à nous embêter en téléchargeant illégalement nos joiles musiques" et tout ça sans rien tenter de constructif pour améliorer la situation... Je ne pense pas que ce soit en pleurant ou en attaquant qui que ce soit en justice que l'on arrive à avancer, mais plutôt en proposant des alternatives innovantes, efficaces et utiles pour tous. Or, que voit-on arriver à ce niveau ? Ben, pas grand chose... Tout le monde se plaint et personne ne fait rien... Mais encore une fois, je me trompe peut-être et je suis prêt à entendre une autre version / explication de cette problématique, avec grand plaisir. Moi, je veux juste comprendre... Et pour le moment, j'avoue que je ne comprends pas grand chose... Qui veut éclairer ma lanterne ?