• en
  • fr
Intelligence économique et veille : pour que l'information se transforme en action

La veille : une activité légale ?

Dans les processus de veille et au sein des entreprises, la question de la légalité de la veille est parfois abordée et cette dernière comporte des aspects complexes.
Au cours de cet été, de nombreux médias français en ligne ont apporté des modifications à la structure des fichiers robots.txt mentionnant explicitement de nombreux éditeurs de logiciels de veille et agrégateurs de contenus  en leur interdisant tout crawl et toute indexation des contenus de leur site.

Une évolution forte de sens et qui doit pousser le responsable veille ou intelligence économique à se réinterroger sur la légalité de l’exercice des pratiques de veille.

La nature de l’information

Il est d’usage dans la littérature traitant de l’intelligence économique de parler de la nature de l’information en la segmentant en trois ou quatre parties :

  • L’information blanche, qui est identifiable aisément, publique et accessible sans frein ; cela ne veut pas forcément dire gratuite ou libre de tous droits. Par ailleurs, une information blanche peut être une information commerciale et protégée par le droit d’auteur,
  • L’information grise, dont l’accès est légal, cependant pas très facile et parfois peu éthique,
  • L’information noire qui nécessite d’enfreindre la loi pour y avoir accès et que l’on peut appeler « espionnage économique » ou « espionnage industriel »,
  • Enfin, les secrets qui ne sont ni exprimés ni partagés par l’individu qui les détient.

Il est donc évident que la légalité de l’action de veille s’apprécie au regard des moyens qui sont mis en œuvre pour collecter l’information, étant donné qu’il n’existe pas d’information d’entreprise bénéficiant à ce jour d’une classification stipulant explicitement sa nature confidentielle et légalement opposable au tiers (à la différence de certaines informations d‘Etat par exemple). Il y a eu, cependant, plusieurs projets pour protéger le secret des affaires par un label « confidentiel entreprise ».

Nous allons donc examiner plusieurs cas tangents d’identification et de collecte de l’information «borderline ».

« Se maintenir à l’intérieur d’un système de traitement automatisé des données »

Le fait de s’introduire sans autorisation dans un système de traitement automatisé des données (c.a.d. un système informatique), ce qui est aussi communément appelé piratage informatique, est de toute évidence illégal. Par contre, il est parfois possible, par le biais de failles informatiques ou d’erreurs lors de la mise en ligne, d’accéder librement à des espaces qui auraient dû être protégés. Pour ce faire, le veilleur un peu agressif pourra exploiter des requêtes de type « Google Dorking » qui visent à identifier ces failles afin de récupérer des documents.

La jurisprudence récente vient d’apporter un éclairage sans équivoque sur cette situation. En ayant accès à un système qui aurait dû être protégé, en le sachant, en demeurant à l’intérieur de ce système après avoir recouru à des procédés qui visent à identifier ces failles, le veilleur serait alors dans l’illégalité. En récupérant des documents et en les partageant, il l’est « encore plus (1)»… C’est ce qu’a rappelé l’arrêt de la cour d’appel du 5 février 2014 dans « l’affaire Bluetouff ».

S’il peut, de prime abord, paraître aberrant d’être condamné pour avoir été trop performant dans l’utilisation de Google et trouver ainsi des documents confidentiels, c’est bien ici plus la volonté de trouver ces données et les moyens mis en œuvre, conjuguée au fait d’avoir conscience d’utiliser un accès frauduleux, qui a été condamné.
Le veilleur devra donc clairement prendre conscience qu’il se trouve potentiellement dans l’illégalité si, de par les procédés qu’il utilise, il accède à des espaces mal sécurisés. Si son employeur est considéré comme responsable, ce dernier pourra alors se retourner contre son salarié pour « abus de confiance ». Le dilemme sera bien cruel pour le veilleur en tant qu’individu.

« Porter atteinte au bon fonctionnement d’un SATD (2)  »

Dans le cadre d’une démarche de veille, il est possible d’automatiser le processus de collecte et d’extraction des données sur différents sites web. C’est l’objet de logiciels tels que Website Watcher, Digimind, Ami Enterprise Intelligence, Sindup, Qwam, Spotter, KB Crawl, etc (3) …

Le logiciel parcourra chaque site web régulièrement, pour en extraire les nouvelles informations.

Le problème est alors la charge que l’action de surveillance fait reposer sur le SATD. En faisant des requêtes trop régulières, trop lourdes (générant trop de documents) sur le SATD, le veilleur ou le système qui exploite le logiciel de veille tombe dans l’illégalité en perturbant ou en risquant de perturber le bon fonctionnement du site observé. (Dans la pratique informatique cela peut être assimilé à une attaque en déni de service – DoS).

C’est ici la jurisprudence Cédric M contre Cdiscount (Cour d’appel de Bordeaux 3ème chambre correctionnelle – Arrêt du 11 novembre 2011) qui précise clairement que l’utilisation abusive d’un logiciel de veille au regard des capacités du SATD à absorber cette charge, est condamnable et qu’il est de la responsabilité du « veilleur » de s’assurer qu’il ne porte pas atteinte au bon fonctionnement du SATD.

Là encore par la chaîne de responsabilité, l’abus de confiance peut être utilisé par l’employeur pour se dégager de sa propre responsabilité aux dépens de celle de son salarié.
Restera la question de la responsabilité du logiciel de veille. A ma connaissance, à ce jour, il n’y a pas de jurisprudence sur ce point dont le cadre juridique reste complexe. Si la Loi sur la Confiance en l’Economie Numérique permet à l’hébergeur (ici le logiciel de veille SaaS) d’être dégagé d’un certain nombre de responsabilités (particulièrement sur les contenus protégés par le droit d’auteur), la question sera plutôt de savoir si l’hébergeur du logiciel de veille est responsable de la gêne causée sur le SATD. Cela peut à mon avis s’apprécier au regard des mécanismes de paramétrage et des cadenceurs (fréquence de crawl entre les pages d’un site web), des plafonds (nombre de pages maximum ou taille des documents) et des avertissements fournis par le logiciel de veille à l’utilisateur.

Les Robots.txt

La modification récente des fichiers robots.txt  sur les sites de presse francophones (4) offre une lecture fort intéressante de l’acte de veille à bien des égards. En effet le fichier robots.txt, standard international édicté par le W3C, peut être perçu à la fois comme une contrainte sur les aspects techniques de la veille mais aussi sur les aspects de propriété intellectuelle.

Par ce fichier, chaque possesseur d’un site web peut s’adresser à un moteur de recherche ou à un « crawler » afin de lui interdire l’accès à certaines parties du contenu de son site (sauf mention « disallow », le contenu est autorisé en consultation et indexation par les moteurs de recherche).

La mise à jour de ces fichiers constitue un message fort à portée juridique comme le rappelle l’arrêt Bluetouff : ici il sera désormais difficile de dire que « l’on ne savait pas ».
Tout éditeur s’estimant lésé pourra désormais opposer au tiers, qu’en dehors du cadre juridique sur la contrefaçon, en s’appuyant sur des standards internationaux, il a « protégé » son système vis-à-vis de logiciels qui pourraient provoquer des dysfonctionnements.

Ce fichier constitue également un rappel à l’ordre sur les droits d’auteur en interdisant toute indexation du contenu à certains acteurs.

Dans le cas où de tels fichiers robots.txt seraient amenés à se multiplier, les éditeurs de logiciels de veille pourraient se trouver dans une situation délicate, offrant un service technique à leurs clients mais qui ne pourrait s’appliquer à aucun site comportant un tel fichier correctement rédigé.
Rappelons par ailleurs que dans l’arrêt de la cour d’appel de Paris du 26 janvier 2011, opposant la « société des auteurs des arts visuels et de l’image » à Google Inc. et Google France SARL, la cour a rappelé que le fichier robots.txt était un moyen recevable dans le but d’interdire l’indexation de tout ou partie de son site (5) .

Et les droits d’auteur ?

A lui seul ce point pourrait nécessiter des pages et des pages de débats et d’analyse sur la loi et sur les usages.
Rappelons toutefois quelques grandes lignes qu’il semble à ce jour essentiel de rappeler pour tout procédé de veille.

  • Tout contenu qui est une œuvre originale de création de l’esprit humain est protégé par le droit d’auteur, que le contenu soit commercialisé ou proposé à titre gratuit. Grossièrement cela veut dire que même un article de blog, mis à disposition en ligne gratuitement, ne peut librement être rediffusé à l’intérieur d’une entreprise. Seuls les contenus libres de droit (Creative Commons ou autres) peuvent être exploités librement (attention toutefois à certaines restrictions comme la réutilisation commerciale et l’obligation de citer l’auteur original selon un certain formalisme).
  • La revue de presse ne saurait être une compilation d’articles en texte intégral, y compris si la société ou la personne constituant la revue de presse est citée. Toute revue de presse ne peut être composée que de courtes citations et d’extraits visant à l’analyse, la mise en perspective.
  • L’exception de copie privée ne s’applique qu’aux particuliers (art. L. 122-5 2° CPI).

Rappelons également que la jurisprudence a rappelé à plusieurs reprises que ce qui prime sur Internet c’est la liberté de faire des liens (6) , et que l’indexation du contenu est libre tant qu’elle n’est pas assortie de faits de contrefaçon. Ainsi, indexer des sites web pour y trouver des contenus et pointer vers ces derniers sans en offrir sur son propre site (ou logiciel de veille) une copie servile est autorisée (7) .
C’est bien là où le fichier robots.txt apporte un point de blocage supplémentaire, interdisant même l’indexation, y compris pour les procédés nécessitant des « copies dites techniques (8) ».

Remettre en cause nos pratiques de veille

Si à ce jour les services de veille des entreprises sont, pour beaucoup, à la recherche du logiciel miracle permettant de collecter le plus de contenus possibles et d’offrir un accès élargi en contournant des services de bases de données plus onéreux, ils ne devraient cependant pas céder aux discours commerciaux parfois enclins à quelques raccourcis ou omissions coupables…

Il est légitime pour les auteurs et les éditeurs de contenus de protéger leurs droits comme il est légitime pour nous, veilleurs, d’imaginer un positionnement de notre métier et une offre de services allant au-delà de schémas éculés des « revues de presse ».
Il y a fort à parier que dans une ambiance économique morose où nos entreprises sont à la recherche des « optimisations de coût», les équipes de veilleurs vont être amenées à connaître un avenir délicat. Alors que les agrégateurs de presse tels que Factiva se lancent sur une sectorisation de leur offre en proposant des « analyses » issues de l’exploitation fine et privilégiée de leur corpus, le veilleur doit quant à lui repositionner son métier alors qu’il est face à la propagation des compétences individuelles de veille des salariés et qu’il est challengé par les cabinets spécialistes de la veille.

Imaginons un veilleur connaisseur du Web, de la culture de l’entreprise qui l’emploie, technicien averti des logiciels et des standards utiles aux veilleurs. Reconstruisons notre métier comme celui d’un animateur capable d’apporter des solutions concrètes et personnalisées lorsqu’il s’agit de trouver de l’information et de maximiser son utilité.

N’hésitons plus à remettre au cœur du débat la valeur du dispositif de veille et celle du veilleur.

Identifions les schémas décisionnels de l’entreprise, les arbitrages et choix qui doivent être faits dans nos entreprises et intégrons l’information et la place du veilleur dans ces dispositifs pour enfin pouvoir parler de système d’information plutôt que de système informatique.

Le texte original de ce billet a été publié dans la revue NETSOURCES (n°112 de septembre/octobre 2014).

NETSOURCES est une publication bimestrielle dédiée à la recherche d’information sur internet (méthodologies de recherche, tendances dans les métiers de l’information, analyses d’outils performants, descriptions de sites à valeur ajoutée …)

Découvrir Netsources

[1] Plusieurs chefs d’accusation peuvent alors être retenus : délit d’extraction frauduleuse d’une base de données, délit de collecte de données à caractère personnel par moyen frauduleux, délit de contrefaçon.

[2] Système de Traitement Automatisé des Données

[3] Liste bien évidemment non exhaustive

[4] Dernièrement, les éditeurs de contenu de presse en ligne ont modifié un fichier sur leur site, le fichier Robots.txt, qui permet de communiquer avec les moteurs de recherche ou crawlers en leur indiquant le contenu dont l’accès est autorisé. Désormais de nombreux sites de presse français interdisent aux logiciels de veille l’accès à tout leur contenu. Pour plus d’information sur les robots.txt l’on pourra se référer à http://www.robotstxt.org/robotstxt.html ou au site du World Wide Web Consortium, w3c.org.

[5] « cet éditeur a en particulier la possibilité de poser des règles spécifiques pour chacune de ses pages et d’exclure de l’indexation les images représentées par l’utilisation de consignes (fichiers d’exclusion”robot.txt” et intégration de balises «Meta robots») ; qu’ainsi les titulaires de droits disposent de moyens de protéger les visuels fixes, l’automate d’exploration n’ayant accès qu’aux informations disponibles sur internet »

[6] Arrêt Swensson – Cour de Justice Européenne

[7] Le récent arrêt Meltwater ne fait que rappeler que la société Meltwater a payé des droits pour réaliser un service d’indexation et de courts extraits et pointer vers l’article original sur le site web de l’éditeur de contenu. Le client Meltwater en consultant le site original ne commet pas un acte contrefaçon, ne réalisant qu’une copie temporaire.

[8] Pour les copies techniques voir l’arrêt du 17 janvier 2012 de la Cour de Justice Européenne (Infopaq / Danske Dagblades Forening)

Webinar Médias sociaux & Univers numériques : Key Opinion Leaders et Web influence Leaders

J’aurai le plaisir de co-organiser un Webinar dédié à l’utilisation de la dataviz (entre autre) pour la compréhension des écosystèmes webs.

Le webinar est également organisé par l’agence Callimédia et j’y interviendrai conjointement avec Stéphane Suisse, social media analyst au sein de Sanofi Pasteur qui aura l’occasion de présenter cette démarche et de faire part de son expérience à travers plusieurs cas concrets.

Teaser ci-après :

“Les outils d’analyse des réseaux sociaux et de dataviz appliqués aux univers de la santé en ligne
 
2014 voit l’avènement des connected devices et toutes les promesses affichées de l’amélioration du bien-être. Conjointement les univers numériques sociaux continuent à croître, à se croiser, avec en leur cœur, les individus.
Forums & autres groupes de discussion Facebook, réseaux sociaux personnels dédiés à la santé permettent aux « patients » d’échanger sur leurs expériences, de trouver des conseils, voire de s’affirmer comme des leaders d’opinion numérique. Parallèlement les Key Opinion Leaders développent leur présence en ligne et leurs propres réseaux, avec quand même probablement, un peu moins de dynamisme.
 
Comment comprendre ces univers et les décrypter alors que les frontières de la recommandation et du conseil en santé se déportent clairement des experts vers le quidam ?
Quelles sont les sphères d’influence et les communautés ainsi que leurs prises de position ? Comment s’intégrer dans cet univers numérique où les big pharmas manquent d’agilité et souffrent parfois d’un déficit d’image que les nombreuses actualités n’améliorent pas ?
 
A travers les outils d’analyses des réseaux statistiques et des outils de visualisation il est désormais possible d’exploiter la masse des données numériques. Insights, pharmacovigilance 2.0, détection précoce des crises,… les données librement accessibles telles que les tweets et les posts sur Facebook permettent des approches systématiques d’étude des environnements numériques.
 
A travers ce webinar nous vous présenterons les opportunités offertes pour la détection des communautés de patients en ligne, de leurs interactions et de leur prises de positions. Le webinar sera émaillé de nombreux retours d’expérience et de cas d’études appliqués mis en œuvre dans le secteur pharmaceutique aussi bien sur la détection des sources visibles et influentes, les sphères d’influence et leurs rapports de force, la géolocalisation et le suivi de stakeholders. »

Bref inutile de vous dire que si vous faîtes partie de l’univers pharma, si la dataviz vous intéresse, il vous faut sauter sur cette occasion et booker immédiatement votre planning du 6 novembre mais bien sur pas sans vous être inscrit au préalable ! Bien évidemment même si vous travaillez dans un autre secteur d’activité, le sujet peut vous intéresser et nous serons ravis de vous accueillir.

Inscription obligatoire et attention car il n’y aura pas de place pour tout le monde.

Inscription ici : http://newsletter.calliscope.com/surveys.php?id=19

5 ans bordel…5 ans. Merci à vous !

Happy Birthday Actulligence

7 octobre 2009… C’est le jour où je franchissais la porte de l’URSSAF de l’Eure à Evreux, pour déposer en mains propres mon formulaire d’enregistrement en tant qu’auto-entrepreneur.

Précisément depuis le 1er septembre j’étais officiellement au chômage ayant quitté mon dernier emploi.

5 ans soit la plus longue période que j’ai enregistré dans le même emploi même si depuis l’enregistrement en auto-entreprise, Actulligence s’est désormais transformé en SARL Unipersonnelle.

5 ans que je n’ai pas vu passer à tel point que j’ai même un peu de retard sur ce billet et sur ce que j’aurais voulu faire pour célébrer cela à ma façon. Il faut dire que ces dernières semaines ont été un peu compliquées entre déménagement et une jambe handicapée temporairement.

Ce fût incontestablement les moments les plus enrichissants de toute ma vie professionnelle et ceux que je dois remercier avant tout ce sont quand même les clients qui m’ont fait confiance. Je me souviens encore les entretiens “avant-vente” plus intimidants que n’importe quel examen. C’était bien loin et pourtant cela reste toujours le moment le plus délicat pour moi étant toujours mal à l’aise à vanter mes qualités et à valoriser mon entreprise.

Pourtant quand je regarde les projets et les réalisations je suis fier du travail accompli.

Fier aussi d’avoir pu garder un minimum d’activité de publication. Cet espace numérique lancé sous un autre nom en 2001 c’est vraiment lui qui m’a permis de me faire connaître de d’affirmer mes convictions sur la veille, la nécessité de développer à minima ses compétences techniques et de ne pas faire de la veille comme monsieur Jourdain, sans le savoir

C’est les quelques 500 lecteurs quotidiens de ce blog qui m’ont offert cette fabuleuse opportunité d’être impliqués sur des projets innovants de veille dans lesquels le logiciel n’est qu’une partie du problème. Des projets où ce qui prime avant tout c’est de répondre à des vrais scénarios d’usage, faire de la veille un des outils de la prise de décision.

Ces moments où je réalise que l’entreprise a soufflé une bougie de plus sont toujours émouvants pour moi. Emouvants car je me suis surtout lancé dans le vide, sans projet ni clients, juste par envie de me confronter à mes clients. L’envie d’être plus autonome dans mon travail, mais aussi dans ma vie. De ne plus avoir d’intermédiaire, de patrons, de supérieur hiérarchique. L’envie avant toute chose de savoir si je pouvais concilier l’exercice d’une de mes seules compétences, la veille, et celle du service client.

Je pense qu’être là 5 ans après est un signal qui tend à dire que j’y suis parvenu au moins en partie.

Voilà, donc merci à tous clients, blogueurs amis qui se sont souvent faits les meilleurs relais de l’actualité d’Actulligence, lecteurs, étudiants… Bref, merci à tous ceux qui m’ont encouragé, lu, et avec qui des échanges souvent forts riches ont eu lieu.

Crédits Photos : Shutterstock, Happy Birthday Cloud Word, tous droits réservés.

PS : si Actulligence Consulting à 5 ans, le blog Actulligence auparavant connu sous d’autres noms tels que martinet-on-line (je sais… je plaide coupable… J’étais jeune) et Inteleco2001 a quant à lui bientôt 15 ans… 15 ans… Ca nous rajeunit pas…

PS 2 : Quelques moments forts et articles engagés ou de prospective que je vous engage à lire ou relire :

La GED de la Tribune accessible via flux RSS

Si malheureusement trop de sites réduisent drastiquement la présence de flux RSS, ce n’est pas le cas de La Tribune qui dans son immense mansuétude offre un super accès intégral à sa GED, en vous offrant l’accès à tous les flux RSS entreprise par entreprise, par pays, par thèmes, etc.

Par ici : http://ged.latribune.fr/data/rss/

Autant dire que c’est Noël avant l’heure.

(Bon en fait ça fait un moment que ça traîne mais je n’avais pas encore pris le temps de le partager… dans la foulée de l’article sur Google News et les RSS le timing me semblait impeccable.)

Choisissez votre filtre en haut à gauche, et ensuite récupérez l’adresse du flux RSS qui vous intéresse.

GED La Tribune

Vous les voulez tous bande de petits gourmands… ?

Extrayez la liste de tous les liens présents dans la page grâce à ce bookmarklet (faire glisser dans la barre de navigation).

ged la tribune 2

Seul petit bémol, vous n’aurez accès qu’aux titres et extraits. Les articles en texte intégral pointent vers la base documentaire payante et réservée aux abonnés.

Google News et les RSS

Il était une fois un truc magique qui s’appelait les RSS. Ce truc bien pratique permettait à tout un chacun de surveiller assez aisément des sites d’actualité, des résultats issus d’une base de données et parfois même les derniers résultats issus d’un moteur de recherche.

En l’occurrence, cela était possible sur Google News.

Malheureusement, au fil des abus (prendre, rediffuser, réexploiter) et de business model (plus tu passes du temps chez moi puis je peux vendre la pub chère), ces fils RSS ont fondus comme neige au soleil.

Celui de Google News y compris.

Remédions à cela.

Tout d’abord réalisons une recherche dans Google Actualités. Je prendrai un terme international afin de montrer les différences entre les exemples. Ebola.

L’URL de la requête Google News se présente ainsi :

https://www.google.fr/search?hl=fr&gl=fr&tbm=nws&authuser=0&q=ebola&oq=ebola&gs_l=news-cc.3..43j0l10j43i53.2239.2966.0.3120.5.5.0.0.0.0.230.491.2j1j1.4.0…0.0…1ac.1.HLgJ7U6HDjc

Bon… Prenons conscience que nous pouvons dégager tout un tas de choses dont ces vilains chiffres et lettres à la fin qui ressemblent vaguement à un identifiant de session.

Cela nous donne une requête simplifiée :

https://www.google.fr/search?hl=fr&gl=fr&tbm=nws&authuser=0&q=ebola&oq=ebola

Miracle elle marche encore…

Maintenant transformons la légèrement (voir en gras)

https://news.google.fr/?output=rss&hl=fr&gl=fr&tbm=nws&authuser=0&q=ebola&oq=ebola

Second miracle. Nous avons désormais un fil RSS simplement en dégageant les WWW et en remplaçant search par news et en rajoutant un format de sortie (output) en RSS.

OK.

Corsons la chose.

Il est également possible de passer sur le Google.com ou pourquoi pas d’essayer avec n’importe quel autre pays qui bénéficierait d’un Google news local en changeant l’extension du nom de domaine. Pour des résultats encore plus performants essayez de mettre les paramètres de langue et d’interface en adéquation.

https://news.google.com/?output=rss&hl=fr&gl=fr&tbm=nws&authuser=0&q=ebola&oq=ebola

Gogole News - 1

 

Pour continuer à jouer nous pouvons changer à la fois la langue des sources qui sera privilégie (paramètre gl) et la langue de l’interface (paramètre hl).

https://news.google.com/?output=rss&hl=en&gl=en&tbm=nws&authuser=0&q=ebola&oq=ebola

Nous avons alors ici des news anglaises principalement. On notera l’intérêt de savoir jouer avec ces paramètres de flux RSS, ce qui permet de contourner le cloaking de façon simple. (Le cloaking étant la salle habitude que Google a de vous renvoyer systématiquement bers ses outils dans votre langue à partir de la détection de votre proxy, de la langue de votre navigateur ou de votre OS, etc).

Rien qu’en jouant avec ces deux paramètres il est déjà possible de faire une collecte internationale facilement via des RSS.

Exemple ci-après également en allemand. https://news.google.de/?output=rss&hl=de&gl=de&tbm=nws&authuser=0&q=ebola&oq=ebola

Google News 2

 

De très nombreux autres paramètres peuvent être rajoutés et peuvent permettre de s’amuser et de générer à peu près ses fils RSS sur mesure pour Google News.

Je vous liste ceux qui me semblent plus intéressants.

Formats de sortie :

output=FORMAT : permet de gérer le format de sortie. Remplacer FORMAT par rss ou par atom selon le type de fil que vous souhaitez
hl=LANGUE : définit la langue de l’hôte. Par défaut ce paramètre sest “us”. Remplacez par la langue qui vous intéresse. sets host language.
hdlOnly=1 : Réglé sur 1 ce paramètre permet de n’afficher que les headlines.

Tri :

scoring=ORDER permet de trier les résultats. Par défait la valeur est : “r”. Alias: “as_scoring”
“r” tri par pertinence
“n” tri par date en partant de la plus récente
“d” par date en partant de la plus récente avec doublons
“o” par date en partant de la plus ancienne.

Voilà, c’était mon super truc et astuce de l’année en espérant que cela puisse aider de nombreux veilleurs 🙂

Par ailleurs vous pourrez trouver quelques bons articles sur le sujet et même pour les plus courageux lire la documentation des APIs de Google.

Quelques références :