• en
  • fr
Intelligence économique et veille : pour que l'information se transforme en action

Le droit d’auteur, Kryptonite du veilleur ?

Le 9 Juin se tenait à Lyon, Veille Connect, un événement organisé dans plusieurs villes de France depuis 3 ans bientôt. Veille Connect c’es un moment entre professionnels de la veille. Un moment d’changes, de convivialité mais également un moment de réflexion autour de nos métiers, de leurs évolutions et de nos pratiques entre professionnels de la veille et de l’intelligence économique.

Lors de cette soirée, Mickaël, patron de Sindup, m’a proposé d’intervenir sur “la légalité de la veille” et de développer ainsi la série de prises de positions et de publications que j’ai pu réaliser sur le sujet dont celle relativement extensive : La veille une activité légale.

Je ne vais pas développer longuement ce sujet, mais je voulais surtout vous livrer le support de présentation, synthétique qui ne rendra pas honneur à l’intervention de grande qualité. (Fleurs / Servi par soi même / etc)

Je peux juste rajouter qu’en plus de 15 ans dans ce métier je n’ai pas vu un seul projet de veille qui soit 100 % conforme à la législation relative au droit d’auteur. Ce qui est sur, c’est que pour de nombreux clients, y compris grands comptes, il y a une confusion assez effrayante entre droit d’auteur et information monétisée. En somme, pour nombre d’entre les veilleurs : si c’est gratuit je peux faire ce que je veux avec. Le point de vue pourrait se défendre en le nuançant un peu : en gestion du risque il est assez évident en effet que copier et utiliser de l’information non monétisée par l’ayant droit est moins risqué que de pomper un article des Echos par exemple.

Concernant le risque lié à la furtivité, on est souvent également dans une méconnaissance assez profonde (souvent entretenue par les éditeurs logiciels) de même que pour le risque d’atteinte au bon fonctionnement des SATD.

Au final j’insiste lors de cette courte intervention sur le fait que la situation actuelle est inquiétante pour les métiers de la veille : la diminution sensible et continue des effectifs, le mythe entretenu du livrable de veille auto-généré, a amené la profession a développer des livrables peu analytiques, basées sur la détection et l’extraction de contenus en minimisant le temps homme d’expertise et d’analyse.

Les éditeurs d’outils de veille ont délaissé les workflow facilitant la collaboration entre capteurs d’informations et experts internes.

Le marché, offre et demande, a ainsi évolué inexorablement vers des services de veille remplaçant l’être humain par des logiciels dès que cela est possible.

C’est ainsi selon moi une erreur stratégique et conceptuelle de se battre contre elle droit d’auteur en tant que veilleur en disant qu’il n’est pas en adéquation avec les usages. Ce sont les usages qui sont erronés et qui appauvrissent nos métiers.

Là où certains combattent le droit d’auteur pour faire des newsletters copiés-collés, l’énergie serait mieux mobilisée à se demander où réinjecter de l’être humain dans des processus et produits de veille.

Plus d’énergie serait bien venue au final dans l’animation des communautés de veille, dans la mobilisation des expertises, dans l'”infomédiation”.

Au final, le droit d’auteur, si l’on omet l’aspect monétaire de la chose, est un garde fou qui vise à favoriser l’investissement temps en réflexion, en création, en “production” intellectuelle.

Au final, le droit d’auteur ne serait plus la kryptonite du veilleur mais le meilleur moyen d’éviter les dérives d’une société de l’information et de favoriser l’émergence d’une société de la connaissance et du savoir.

Il n’y a rien de neuf depuis 10 ans sur ce point. Il y a déjà plusieurs années je me souviens de présentations powerpoint où la Valeur Ajoutée de processus de veille était matérialisée en gros sur la pause d’analyse et d’animation / transmission de l’information. Au final, trop d’énergie est toujours attribuée à la phase de collecte de l’information…

Une conclusion plus optimiste finalement sur Veille Connect.

C’est une bonne chose d’organiser ce genre d’événements. La communauté des veilleurs est une petite communauté. Nombre d’entre nous se connaissent entre blogueurs / consultants / Twittos mais parfois les veilleurs en entreprise, une fois en poste, sont moins connectées avec cette communauté.

La soirée Lyonnaise fut une vraie réussite, sympathique, avec de nombreux échanges. Un moment de convivialité et j’ai été ravi des questions que ma brève intervention a suscité. Des questions et échange qui se sont poursuivis hors micro.

  • Le support de l’intervention : La veille un une activité légale ? consultable ci-après.
  • Quelques photos de la soirée Veille Connect Lyon

Dossier littérature grise : L’information grise

Information grise

Appréhender la notion d’information grise conduit à aborder la question éthique. Celle-ci monte en puissance avec l’internet et le rôle joué par les réseaux sociaux où l’humain garde toutefois une place essentielle. Cet article clarifie cet aspect incontournable de la veille.

L’information grise est généralement définie comme une information accessible de façon légale mais « caractérisée par des difficultés dans la connaissance de son existence ou de son accès » . Il s’agit donc d’une notion qui complète celle de littérature grise (considérée en partie comme une information grise) mais qui, ayant bénéficié des facilités apportées par Internet pour la mise à disposition d’informations non commercialisées, devient une information blanche.

Souvent associée à l’« intelligence » dans son acception anglophone de renseignement et, plus particulièrement, de renseignement terrain, l’information grise est une information complexe, polymorphe, aux canaux de diffusion hétérogènes. Elle peut être acquise de façon licite, mais aussi quelquefois éthiquement discutable. Elle peut être implicite, déduite, calculée, avec un indice de confiance variable en fonction des sources primaires ayant servi à sa construction.

L’éthique de l’accès à une information
L’éthique est difficile à cerner car souvent variable au fil du temps et d’un interlocuteur à un autre. Au final, elle se définit souvent par ses infractions. Dans un environnement économique auquel certains associent le terme de « guerre », on peut imaginer que l’asymétrie de position dans l’accès à l’information entre deux concurrents, dont l’un serait éthique et l’autre non, se traduise, pour le plus intègre, à courir un 100 mètres haies avec une paire de chaînes. La meilleure façon de protéger son information grise serait donc de la mettre en terrain noir.

Parmi les actions connues comme étant éthiquement discutables, on peut citer : faire les poubelles de ses concurrents ayant oublié de déchiqueter des documents, prendre sa pause cigarette au pied de l’immeuble de son concurrent aux heures d’affluence, etc. Que feriez-vous enfin si l’un de vos concurrents ouvrait son ordinateur à côté de vous, dans un avion par exemple ? Déclineriez-vous votre identité et votre fonction ?
Inattentions, erreurs, oublis sont autant de paramètres permettant d’accéder à l’information grise.

Information grise et réseaux sociaux
L’information grise se caractérise par sa difficulté d’accès ou même d’identification. En ce sens, les réseaux sociaux sont indiscutablement une source d’information grise. Facebook ou LinkedIn, par exemple, regorgent d’espaces que l’on qualifiera de « semi-privatifs » car, à moins d’être naïf, il est illusoire de penser qu’une information numérisée, mise à la disposition d’une société privée et partagée avec ses « amis » soit privée. Qu’il s’agisse de groupes privés sur LinkedIn ou de vos statuts partagés avec vos proches, voici autant de sources d’information qui ont relégué les techniques de social engineering traditionnelles aux oubliettes.

Google indexe tout le Web
Non, bien sûr que non, et la récente disposition sur le droit à l’oubli en donne un exemple : pour nos politiciens, une information non trouvée sur Google est une information qui n’existe pas (à moins d’utiliser la version états-unienne de Google non soumise au même droit). En France, on considérera (assez justement) qu’une information non disponible sur Google est une information grise car difficilement accessible. Or, Google est très loin d’indexer tout le Web. Sans parler des espaces sécurisés, il suffit de citer :
– les fichiers robots.txt interdisant à Google d’indexer certaines pages Web ou encore les méta-balises robots no follow/no index,
– les fichiers de formats non ou mal indexés tels que le Flash,
– les contenus multimédias indexés uniquement via le contenu textuel de la page et non via la piste audio et encore moins vidéo (même si avec Google Audio Indexing, Google s’était essayé au speech to text),
– les contenus interdits d’indexation par les autorités locales,
– les serveurs hébergeant du contenu « dark Web » (piratage logiciel, pornographie et trafics en tout genre),
– les contenus protégés par le Digital Millenium Copyright Act aux États-Unis.
En dehors de ces freins, un cas d’information grise est encore plus difficile à traiter. En effet, même si un document comporte le mot clé que vous recherchez, Google ne vous le renverra pas systématiquement dans les résultats, car il peut considérer que sa présence est anecdotique.

L’information déduite ou calculée
En octobre 2013, les chercheurs de Facebook ont démontré qu’ils pouvaient deviner, à partir des échanges (likes /commentaires) entre les membres, qu’une relation de couple était sur le point de se terminer.
La donnée n’existe pas. Elle est calculée. Nous avons tous eu l’occasion de voir des CV LinkedIn se « réactiver » et deviner que la personne mentionnée passait en « écoute active » du marché. La théorie des réseaux nous enseigne que les interactions, aussi minimes soient-elles, trouvent un ancrage, un intérêt, un but poursuivi dans la vraie vie. Pour schématiser, un simple like est porteur de sens. Plusieurs le sont encore plus.

L’exploitation des interactions sur les réseaux sociaux (Social Network Analysis) et l’exploitation des technologies de big data permettent de traiter des données transactionnelles ou comportementales en ligne pour anticiper les comportements ou détecter les relations non explicites.

Reconstitution d’itinéraires individuels avec les solutions de géolocalisation telles que Foursquare ou d’objets connectés, analyse sémantique et lexicale des prises de parole publiques, requêtes sur les moteurs de recherche ou pages visitées : autant de données de grande valeur si l’on se donne la peine de mettre en place les dispositifs de valorisation et de compréhension de ces informations. Les technologies actuelles permettent de réaliser le fantasme du veilleur et de faciliter la détection et la vérification du signal faible.

Le poids du PBCK
Une stratégie de sécurisation de l’information par les entreprises se limitant à la sécurité informatique n’est plus suffisante. La protection de l’information passe par la sensibilisation des personnels à sa valeur et aux règles de prudence élémentaires. « The problem is between chair and keyboard » (PBCK) – en somme, le problème, c’est le facteur humain.

A contrario, pour celui en quête d’information grise, fréquenter les mêmes espaces, les mêmes festivités alcoolisées que ses concurrents est un facteur clé de succès quand il s’agit d’acquérir de l’information potentiellement intéressante. Là encore, les réseaux sociaux ont facilité l’accès à ces types d’information : savoir qui est à quelle soirée, à quoi il ressemble et les sujets qui l’intéressent. Un social engineering qui ne dit pas son nom.

Ne pas franchir la ligne jaune
Aujourd’hui, les entreprises souffrent d’une surabondance d’information ou plutôt d’une inertie à mettre en place des processus, des règles, des outils adaptés pour faire face à l’explosion des volumes. L’information grise est souvent une information blanche noyée dans une masse, et tous ceux qui recherchent des pépites grises devraient prendre soin d’exploiter ce qui est déjà à leur portée.

Mais un veilleur ne doit jamais franchir la ligne jaune le faisant basculer dans l’illégalité. Or, c’est loin d’être toujours le cas dans un univers numérique où la réglementation et la jurisprudence évoluent continuellement.

Amis veilleurs, soyez donc imaginatifs, inventifs, voire impitoyables. L’information est votre matière première : le cœur de votre métier est d’aller la chercher, de la façonner et de l’utiliser !

Article publié dans le numéro 1 de I2D de mars 2015, Information Données et Documents, la revue éditée par l’ADBS

Voir aussi : L’information grise

Crédits photos : ShutterStockModern wireless technology illustration with a computer device, Tous droits réservés

Meilleurs voeux à tous !

L’activité éditoriale se fait rare sur Actulligence. Et j’en suis désolé. Mais être consultant indépendant c’est être comptable, secrétaire, dirigeant, consultant et formateur.

Mais cette année j’ai souhaité prendre un moment pour fêter la nouvelle année en partageant des voeux numériques avec vous.

L’année 2014 a été une année riche pour Actulligence et pour moi. Je l’ai dit à plusieurs occasions mais en plus de 5 ans maintenant il y a eu peu de moments de repos et des projets toujours plus intéressants. Il y a eu de nombreux échanges avec des personnes professionnelles et avec qui nous avons partagé souvent une vraie vision autour de l’information.

L’année 2014 a aussi été une année éprouvante avec un incident de parcours qui m’a malheureusement prouvé que le monde n’était pas parcouru que par des gens sensés.

2015 est là maintenant. Et elle démarre sur des chapeaux de roue.

Quelle que soit l’ambiance économique ou sociale, la conjoncture ou l’actualité, je vous souhaite à tous de prendre du plaisir dans votre travail et également de partager des moments riches en émotion avec votre famille, vos amis, vos proches.

J’ai eu de mon côté beaucoup de plaisir à travailler avec des lecteurs de ce blog qui sont devenus des clients ou inversement.

J’ai eu aussi toujours autant de plaisir à rédiger ici ou ailleurs pour partager mon métier qui est aussi une passion et une source renouvelée d’épanouissement intellectuel grâce à la diversité des univers, des métiers mais aussi des cultures d’entreprise que j’ai eu l’occasion de découvrir.

J’ai un voeu pour 2015 et quelques bonnes résolutions. Le voeu de développer Actulligence et sans doute de réaliser des prestations de veille, ce que je ne fais pas aujourd’hui, me positionnant uniquement sur le conseil et l’accompagnement autour des projets. C’est un projet qui me tient à coeur.

Enfin une bonne résolution professionnelle : Publier plus sur ce blog dès que ce début très chargé d’année sera un peu calmé. C’est une bonne résolution et une promesse que je tiendrai.

Les résolutions personnelles sont nombreuses mais elles devraient provoquer quelques courbatures et quelques ampoules.

Un grand merci à tous donc. Travailler avec un indépendant c’est souvent une zone de non confort, de risque pour nombre de professionnels qui craignent la défaillance. Alors je sais aujourd’hui la chance que j’ai à travers les projets que vous me confiez et à l’écoute que vous accordez aux conseils que je peux proposer.

Et enfin je sais aussi la chance que j’ai que ce site mobilise des lecteurs toujours aussi passionnés, intéressés, et motivés par nos métiers qui font d’Actulligence un site un peu à part, traversant les années et s’enrichissant toujours plus.

Et en guise de conclusion,

 Cliquez sur la photo pour zoomer !

Et je m’arrête là car il n’y aurait pas assez de place sur ce blog pour dire à quel point je suis content d’avoir pris cette voie de l’indépendance dans ma vie professionnelle et dans l’indépendance de mes missions et de mes opinions.

Et promis, le prochain post sur ce blog sera un vrai article !

PS : et un grand merci à l’agence Agence Kreactiv qui au pied levé a créée cette belle petite réalisation graphique.

Stage – Chargé de veille et études de marché – Pôle santé, Oral Care – Castres

Référence : 15929 Période du stage : 1er trimestre 2015 Durée souhaitée : 6 mois

Au sein de l’équipe Veille et Etudes de marchés Pierre Fabre Santé (oral Care, Naturactive, OTC), vous contribuerez au recueil et à la mise à disposition des informations pertinentes pour la direction, les équipes médicales et marketing

Missions

  • Mettre en place, grâce à la plate-forme de veille groupe : AMI ei Software une veille concurrentielle internationale pertinente
  • Définir, mettre en place et évaluer la pertinences des requêtes permettant le suivi effectif de l’environnement concurrentiel International des portefeuilles produits Pierre Fabre Santé & NaturActive
  • Elaborer un dossier thématique sur une problématique ciblée ou de tendance santé afin de les présenter aux équipes Pierre Fabre Santé et NaturActive : recherche, analyse des informations, synthèse organisée, présentation PowerPoint
  • Participer à la mise à jour des dossiers récurrents sur les marchés nationaux et internationaux

Profil

Diplôme souhaité : Master 2 ou Ecole de commerce
Spécialité : Veille – intelligence économique
Niveau de diplôme préparé : BAC+5
Compétence(s) : Connaissance des outils de veille
Maitrise des outils bureautique
Anglais

Lieu du stage : Castres Fontaines

Postuler directement sur le site de Pierre Fabre RH

La veille : une activité légale ?

Dans les processus de veille et au sein des entreprises, la question de la légalité de la veille est parfois abordée et cette dernière comporte des aspects complexes.
Au cours de cet été, de nombreux médias français en ligne ont apporté des modifications à la structure des fichiers robots.txt mentionnant explicitement de nombreux éditeurs de logiciels de veille et agrégateurs de contenus  en leur interdisant tout crawl et toute indexation des contenus de leur site.

Une évolution forte de sens et qui doit pousser le responsable veille ou intelligence économique à se réinterroger sur la légalité de l’exercice des pratiques de veille.

La nature de l’information

Il est d’usage dans la littérature traitant de l’intelligence économique de parler de la nature de l’information en la segmentant en trois ou quatre parties :

  • L’information blanche, qui est identifiable aisément, publique et accessible sans frein ; cela ne veut pas forcément dire gratuite ou libre de tous droits. Par ailleurs, une information blanche peut être une information commerciale et protégée par le droit d’auteur,
  • L’information grise, dont l’accès est légal, cependant pas très facile et parfois peu éthique,
  • L’information noire qui nécessite d’enfreindre la loi pour y avoir accès et que l’on peut appeler « espionnage économique » ou « espionnage industriel »,
  • Enfin, les secrets qui ne sont ni exprimés ni partagés par l’individu qui les détient.

Il est donc évident que la légalité de l’action de veille s’apprécie au regard des moyens qui sont mis en œuvre pour collecter l’information, étant donné qu’il n’existe pas d’information d’entreprise bénéficiant à ce jour d’une classification stipulant explicitement sa nature confidentielle et légalement opposable au tiers (à la différence de certaines informations d‘Etat par exemple). Il y a eu, cependant, plusieurs projets pour protéger le secret des affaires par un label « confidentiel entreprise ».

Nous allons donc examiner plusieurs cas tangents d’identification et de collecte de l’information «borderline ».

« Se maintenir à l’intérieur d’un système de traitement automatisé des données »

Le fait de s’introduire sans autorisation dans un système de traitement automatisé des données (c.a.d. un système informatique), ce qui est aussi communément appelé piratage informatique, est de toute évidence illégal. Par contre, il est parfois possible, par le biais de failles informatiques ou d’erreurs lors de la mise en ligne, d’accéder librement à des espaces qui auraient dû être protégés. Pour ce faire, le veilleur un peu agressif pourra exploiter des requêtes de type « Google Dorking » qui visent à identifier ces failles afin de récupérer des documents.

La jurisprudence récente vient d’apporter un éclairage sans équivoque sur cette situation. En ayant accès à un système qui aurait dû être protégé, en le sachant, en demeurant à l’intérieur de ce système après avoir recouru à des procédés qui visent à identifier ces failles, le veilleur serait alors dans l’illégalité. En récupérant des documents et en les partageant, il l’est « encore plus (1)»… C’est ce qu’a rappelé l’arrêt de la cour d’appel du 5 février 2014 dans « l’affaire Bluetouff ».

S’il peut, de prime abord, paraître aberrant d’être condamné pour avoir été trop performant dans l’utilisation de Google et trouver ainsi des documents confidentiels, c’est bien ici plus la volonté de trouver ces données et les moyens mis en œuvre, conjuguée au fait d’avoir conscience d’utiliser un accès frauduleux, qui a été condamné.
Le veilleur devra donc clairement prendre conscience qu’il se trouve potentiellement dans l’illégalité si, de par les procédés qu’il utilise, il accède à des espaces mal sécurisés. Si son employeur est considéré comme responsable, ce dernier pourra alors se retourner contre son salarié pour « abus de confiance ». Le dilemme sera bien cruel pour le veilleur en tant qu’individu.

« Porter atteinte au bon fonctionnement d’un SATD (2)  »

Dans le cadre d’une démarche de veille, il est possible d’automatiser le processus de collecte et d’extraction des données sur différents sites web. C’est l’objet de logiciels tels que Website Watcher, Digimind, Ami Enterprise Intelligence, Sindup, Qwam, Spotter, KB Crawl, etc (3) …

Le logiciel parcourra chaque site web régulièrement, pour en extraire les nouvelles informations.

Le problème est alors la charge que l’action de surveillance fait reposer sur le SATD. En faisant des requêtes trop régulières, trop lourdes (générant trop de documents) sur le SATD, le veilleur ou le système qui exploite le logiciel de veille tombe dans l’illégalité en perturbant ou en risquant de perturber le bon fonctionnement du site observé. (Dans la pratique informatique cela peut être assimilé à une attaque en déni de service – DoS).

C’est ici la jurisprudence Cédric M contre Cdiscount (Cour d’appel de Bordeaux 3ème chambre correctionnelle – Arrêt du 11 novembre 2011) qui précise clairement que l’utilisation abusive d’un logiciel de veille au regard des capacités du SATD à absorber cette charge, est condamnable et qu’il est de la responsabilité du « veilleur » de s’assurer qu’il ne porte pas atteinte au bon fonctionnement du SATD.

Là encore par la chaîne de responsabilité, l’abus de confiance peut être utilisé par l’employeur pour se dégager de sa propre responsabilité aux dépens de celle de son salarié.
Restera la question de la responsabilité du logiciel de veille. A ma connaissance, à ce jour, il n’y a pas de jurisprudence sur ce point dont le cadre juridique reste complexe. Si la Loi sur la Confiance en l’Economie Numérique permet à l’hébergeur (ici le logiciel de veille SaaS) d’être dégagé d’un certain nombre de responsabilités (particulièrement sur les contenus protégés par le droit d’auteur), la question sera plutôt de savoir si l’hébergeur du logiciel de veille est responsable de la gêne causée sur le SATD. Cela peut à mon avis s’apprécier au regard des mécanismes de paramétrage et des cadenceurs (fréquence de crawl entre les pages d’un site web), des plafonds (nombre de pages maximum ou taille des documents) et des avertissements fournis par le logiciel de veille à l’utilisateur.

Les Robots.txt

La modification récente des fichiers robots.txt  sur les sites de presse francophones (4) offre une lecture fort intéressante de l’acte de veille à bien des égards. En effet le fichier robots.txt, standard international édicté par le W3C, peut être perçu à la fois comme une contrainte sur les aspects techniques de la veille mais aussi sur les aspects de propriété intellectuelle.

Par ce fichier, chaque possesseur d’un site web peut s’adresser à un moteur de recherche ou à un « crawler » afin de lui interdire l’accès à certaines parties du contenu de son site (sauf mention « disallow », le contenu est autorisé en consultation et indexation par les moteurs de recherche).

La mise à jour de ces fichiers constitue un message fort à portée juridique comme le rappelle l’arrêt Bluetouff : ici il sera désormais difficile de dire que « l’on ne savait pas ».
Tout éditeur s’estimant lésé pourra désormais opposer au tiers, qu’en dehors du cadre juridique sur la contrefaçon, en s’appuyant sur des standards internationaux, il a « protégé » son système vis-à-vis de logiciels qui pourraient provoquer des dysfonctionnements.

Ce fichier constitue également un rappel à l’ordre sur les droits d’auteur en interdisant toute indexation du contenu à certains acteurs.

Dans le cas où de tels fichiers robots.txt seraient amenés à se multiplier, les éditeurs de logiciels de veille pourraient se trouver dans une situation délicate, offrant un service technique à leurs clients mais qui ne pourrait s’appliquer à aucun site comportant un tel fichier correctement rédigé.
Rappelons par ailleurs que dans l’arrêt de la cour d’appel de Paris du 26 janvier 2011, opposant la « société des auteurs des arts visuels et de l’image » à Google Inc. et Google France SARL, la cour a rappelé que le fichier robots.txt était un moyen recevable dans le but d’interdire l’indexation de tout ou partie de son site (5) .

Et les droits d’auteur ?

A lui seul ce point pourrait nécessiter des pages et des pages de débats et d’analyse sur la loi et sur les usages.
Rappelons toutefois quelques grandes lignes qu’il semble à ce jour essentiel de rappeler pour tout procédé de veille.

  • Tout contenu qui est une œuvre originale de création de l’esprit humain est protégé par le droit d’auteur, que le contenu soit commercialisé ou proposé à titre gratuit. Grossièrement cela veut dire que même un article de blog, mis à disposition en ligne gratuitement, ne peut librement être rediffusé à l’intérieur d’une entreprise. Seuls les contenus libres de droit (Creative Commons ou autres) peuvent être exploités librement (attention toutefois à certaines restrictions comme la réutilisation commerciale et l’obligation de citer l’auteur original selon un certain formalisme).
  • La revue de presse ne saurait être une compilation d’articles en texte intégral, y compris si la société ou la personne constituant la revue de presse est citée. Toute revue de presse ne peut être composée que de courtes citations et d’extraits visant à l’analyse, la mise en perspective.
  • L’exception de copie privée ne s’applique qu’aux particuliers (art. L. 122-5 2° CPI).

Rappelons également que la jurisprudence a rappelé à plusieurs reprises que ce qui prime sur Internet c’est la liberté de faire des liens (6) , et que l’indexation du contenu est libre tant qu’elle n’est pas assortie de faits de contrefaçon. Ainsi, indexer des sites web pour y trouver des contenus et pointer vers ces derniers sans en offrir sur son propre site (ou logiciel de veille) une copie servile est autorisée (7) .
C’est bien là où le fichier robots.txt apporte un point de blocage supplémentaire, interdisant même l’indexation, y compris pour les procédés nécessitant des « copies dites techniques (8) ».

Remettre en cause nos pratiques de veille

Si à ce jour les services de veille des entreprises sont, pour beaucoup, à la recherche du logiciel miracle permettant de collecter le plus de contenus possibles et d’offrir un accès élargi en contournant des services de bases de données plus onéreux, ils ne devraient cependant pas céder aux discours commerciaux parfois enclins à quelques raccourcis ou omissions coupables…

Il est légitime pour les auteurs et les éditeurs de contenus de protéger leurs droits comme il est légitime pour nous, veilleurs, d’imaginer un positionnement de notre métier et une offre de services allant au-delà de schémas éculés des « revues de presse ».
Il y a fort à parier que dans une ambiance économique morose où nos entreprises sont à la recherche des « optimisations de coût», les équipes de veilleurs vont être amenées à connaître un avenir délicat. Alors que les agrégateurs de presse tels que Factiva se lancent sur une sectorisation de leur offre en proposant des « analyses » issues de l’exploitation fine et privilégiée de leur corpus, le veilleur doit quant à lui repositionner son métier alors qu’il est face à la propagation des compétences individuelles de veille des salariés et qu’il est challengé par les cabinets spécialistes de la veille.

Imaginons un veilleur connaisseur du Web, de la culture de l’entreprise qui l’emploie, technicien averti des logiciels et des standards utiles aux veilleurs. Reconstruisons notre métier comme celui d’un animateur capable d’apporter des solutions concrètes et personnalisées lorsqu’il s’agit de trouver de l’information et de maximiser son utilité.

N’hésitons plus à remettre au cœur du débat la valeur du dispositif de veille et celle du veilleur.

Identifions les schémas décisionnels de l’entreprise, les arbitrages et choix qui doivent être faits dans nos entreprises et intégrons l’information et la place du veilleur dans ces dispositifs pour enfin pouvoir parler de système d’information plutôt que de système informatique.

Le texte original de ce billet a été publié dans la revue NETSOURCES (n°112 de septembre/octobre 2014).

NETSOURCES est une publication bimestrielle dédiée à la recherche d’information sur internet (méthodologies de recherche, tendances dans les métiers de l’information, analyses d’outils performants, descriptions de sites à valeur ajoutée …)

Découvrir Netsources

[1] Plusieurs chefs d’accusation peuvent alors être retenus : délit d’extraction frauduleuse d’une base de données, délit de collecte de données à caractère personnel par moyen frauduleux, délit de contrefaçon.

[2] Système de Traitement Automatisé des Données

[3] Liste bien évidemment non exhaustive

[4] Dernièrement, les éditeurs de contenu de presse en ligne ont modifié un fichier sur leur site, le fichier Robots.txt, qui permet de communiquer avec les moteurs de recherche ou crawlers en leur indiquant le contenu dont l’accès est autorisé. Désormais de nombreux sites de presse français interdisent aux logiciels de veille l’accès à tout leur contenu. Pour plus d’information sur les robots.txt l’on pourra se référer à http://www.robotstxt.org/robotstxt.html ou au site du World Wide Web Consortium, w3c.org.

[5] « cet éditeur a en particulier la possibilité de poser des règles spécifiques pour chacune de ses pages et d’exclure de l’indexation les images représentées par l’utilisation de consignes (fichiers d’exclusion”robot.txt” et intégration de balises «Meta robots») ; qu’ainsi les titulaires de droits disposent de moyens de protéger les visuels fixes, l’automate d’exploration n’ayant accès qu’aux informations disponibles sur internet »

[6] Arrêt Swensson – Cour de Justice Européenne

[7] Le récent arrêt Meltwater ne fait que rappeler que la société Meltwater a payé des droits pour réaliser un service d’indexation et de courts extraits et pointer vers l’article original sur le site web de l’éditeur de contenu. Le client Meltwater en consultant le site original ne commet pas un acte contrefaçon, ne réalisant qu’une copie temporaire.

[8] Pour les copies techniques voir l’arrêt du 17 janvier 2012 de la Cour de Justice Européenne (Infopaq / Danske Dagblades Forening)