Le CFC veut encadrer l’activité des prestataires et éditeurs de logiciels de veille

L’information est passé totalement inaperçue dans le petit landerneau de la veille et pourtant elle en dit long et vient s’ajouter à la longue liste des signaux faibles – ou moins faibles – envoyés par les agrégateurs de presse et les sites de presse en ligne.

Le CFC*, dans un article du 24 mai 2016, dit vouloir encadrer l’activité des prestataires de veille et des éditeurs de logiciels de veille. Le CFC cite ainsi clairement les “sociétés dont l’activité consiste à explorer, crawler et indexer les contenus web notamment des éditeurs de presse, afin de restituer à leurs clients une analyse et/ou des liens renvoyant sur le site de l’éditeur.”

Ouch. Petit rappel donc aux consommateurs / utilisateurs de logiciels de veille et aux éditeurs… : si le contenu que vous publiez dans vos newsletters, dont vous faîtes la curation, que vous rediffusez, est protégé par le droit d’auteur et que le CFC est mandaté par ce média vous devrez vous acquitter de droit de copie.

Voilà donc qui réjouira les agrégateurs de presse qui s’acquittaient des droits de copie là où les utilisateurs de logiciels de veille pouvaient omettre de le faire.

Le CFC propose ainsi une relation contractuelle autorisant les éditeurs de logiciels de veille / clients / veilleurs / prestataires de veille à crawler, indexer et restituer des copies partielles ou complètes des articles des médias pour lesquels ils en auraient fait la demande.

Ce nouveau dispositif vient compléter le signal envoyé par l’intermédiaire du robots.txt aux éditeurs de logiciels de veille en leur interdisant le crawling de leurs sites.

NDLR : pour exemple l’on pourra aller consulter le fichier robots.txt de Le Monde qui cite à peu près tout ce qui existe ou presque comme éditeur de logiciel de veille voire même de prestataire.

Une bien belle occasion de vous lancer à la lecture des articles suivants sur la même thématique :

*CFC : Centre Français d’exploitation du droit de Copie – Le Centre français d’exploitation du droit de copie, également connu sous le sigle CFC, est une société française de perception et de répartition de droits de propriété littéraire et artistique créée en 1984. (Définition Wikipédia)

Tags: , , , ,

5 Réponses à “Le CFC veut encadrer l’activité des prestataires et éditeurs de logiciels de veille”

  1. Tarifs ? 20 juin 2016 à 16 h 31 min #

    Merci pour le signalement.

    Pour aller plus loin, il va falloir répondre à 3 questions essentielles :

    1. Quels journaux/sites ont confiés un tel mandat au CFC ?

    2. Quels sont les tarifs ?

    3. Google Alert (LE grand système de veille par soi-même, malgré ses limites grandissantes) fait-il partie des exclus des fichiers robots.txt et de quels titres ?

    Accessoirement, une 4e quesiton : quel boost de consultation vont engranger les sites qui laisseront passer les outils de veille sans mandater le CFC ?

    • Frédéric Martinet 20 juin 2016 à 17 h 00 min #

      Bonjour,
      Questions pour la plupart très pertinentes. Je n’ai pas toutes les réponses mais je vais me laisser aller à quelques supputations à la lecture de l’article suivant : http://www.cfcopies.com/Newsletter_editeurs/pdf/Notice-Apport-Editeurs-Veille-Web.pdf

      1) 525 éditeurs ont mandaté le CFC pour la gestion des copies numériques professionnelles. L’on peut supposer qu’il s’agit des 525 éditeurs en question modulo certains sites pouvant leur appartenir et dont ils ne souhaiteraient pas l’indexation par les prestataires de veille.
      2) Tarifs non précisés. Et il est difficile aussi de dire s’il s’agit d’un prix unique ou différent pour chaque éditeur.
      3) Non. Google alerts repose sur la copie technique. Par ailleurs google alertes n’est que le push mail de Google tout court. Interdire Google alert s c’est interdire Google. Sachant qu’a priori Google par contre se tient aux consignes qui lui sont données par les éditeurs y compris pour la mise en cache.
      (Accessoirement Google Alerts est un très mauvais service de veille…)
      4) Absolument aucun selon moi. Une goutte d’eau dans un océan….

      Sinon lecture intéressante du document qui de toute façon, en gros, dit que ce contrat ne permet que de faire des liens vers, et de diffuser des métas données et d’indexer ou bien de faire des analyses de ces données. En gros juridiquement un contrat dont l’utilité est TRES discutable étant donnée que la copie technique est recevable et autorisée et que sur le web la liberté de lien est la règle. Reste à rester respectueux du site que l’on indexe.

      • Même que supra 23 juin 2016 à 18 h 26 min #

        Utlité de ce nouveau contrat CFC ? Je me pose des questions techniques :

        – comment un site de journal va t-il distinguer et donc laisser passer le robot d’un logiciel de veille travaillant pour un client donné d’un éditeur de logiciel de veille ou d’un prestataire ? Le fichier robots.txt est-il assez souple/paramétrable pour ça ? Peut-être le robot devra t-il alors comprendre un élément identifiant le client ?

        – si cette autorisation technique ne se fait pas par le fichier robots.txt, comment alors ? Par l’adresse IP ? Mais le plus souvent elle viendra du site de l’éditeur du logiciel puisque les solutions sont maintenant à 85% des appli en ligne et non installées sur les postes du client. Et comment distinguer entre deux clients d’un même éditeur de logiciel de veille, dont l’un a pris ce contrat et l’autre pas ?

  2. Liberté de lien 23 juin 2016 à 18 h 47 min #

    La liberté de lien est la règle, y compris juridique (sauf me semble t-il certains cas de complicité par lien en matière pénale). La CJUE, qui l’a affirmé dans plusieurs arrêts, est très claire là-dessus.

    Lberté de lier, donc, oui. Mais pas celle de crawler, qui se heurte à :
    – la loi Godfrain sur les intrusions (accès et/ou maintien frauduleux) dans système de traitement de données automatis (STAD)
    http://www.sedlex.fr/fondamentaux/quentend-t-on-par-intrusion-dans-un-systeme-dinformation-ou-stad/
    http://www.lepetitjuriste.fr/droit-des-ntic/laffaire-bluetouff-condamne-pour-vol-de-donnees-librement-accessibles/
    – les règles d’Internet qui impliquent le respect par les moteurs du fichier robots.txt. Ipso facto, si ce fichier n’est pas respecté, le juge peut en déduire une faute, ce qui ouvre la porte à une responsabilité
    – la directive de 1996 sur la protection des bases de données (les sociétés américaines nous l’envient car elles n’ont pas ce type de protection), transposée par loi de 1998 puis codifiée au CPI, interdit “toute extraction quantitativement ou qualitativement substantielle”
    https://fr.wikipedia.org/wiki/Protection_juridique_des_bases_de_donn%C3%A9es Or on peut avancer assez facilement qu’un robot de veille extrait du “qualitativement substantiel” puisqu’il extrait au minimum l’URL, la balise title et des mots du texte et ce sur beaucoup de pages.

    A moins que je me sois emmêlé les pinceaux quelque part ?

Laisser une réponse