• en
  • fr
Intelligence économique et veille : pour que l'information se transforme en action

Retour sur la conférence : Recherche d’information et veille : outils gratuits et outils payants

Hotel W BarcelonaJ’étais cordialement convié cette année à participer à la conférence / table ronde intitulée “Entre outils gratuits et outils payants, quelles nouvelles méthodes efficaces de recherche sur le web visible et invisible ? Trucs et astuces pour effectuer des recherches avancées dans le web ? ” qui se tenait lors d’i-Expo.

L’occasion ici de vous partager les questions qui étaient posées aux intervenants et les éléments de réponse que j’ai pu y apporter sur un timing serré.

Continuer la lecture « Retour sur la conférence : Recherche d’information et veille : outils gratuits et outils payants »

Stage Chargé d’études de marché

Le Groupe Pierre Fabre, au sein de Pierre Fabre Médicament, recherche un stagiaire “chargé d’études de marché” pour 6 mois à compter de mars 2017.

Le poste est situé à Castres.

Vous pouvez postuler en ligne sur le site Jobs Pierre-Fabre à l’adresse suivante :

https://job.pierre-fabre.com/offre-de-emploi/emploi-charge-etudes-de-marche-h-f_1643.aspx

INUTILE de me demander en commentaires ou mails des informations sur ce poste et je ne suis pas en charge du recrutement. Postulez directement sur le site emploi de Pierre-Fabre.

Détails du poste :

Référence : 2016-1643
Date de parution : 15/11/2016
Branche : Pharmaceutique
Société : PIERRE FABRE MEDICAMENT

Description du poste:

Emploi : Ventes/support à la vente – Chargé d’études
Intitulé du poste : Chargé études de marché H/F
Contrat : Stage
Durée du contrat : 6 mois
Taux d’activité : Temps plein

Mission :
Au sein de l’équipe Etudes de marché et Prospective, vous contribuerez à l’analyse et à la mise a disposition des données de marchés et des tendances marketing sur les axes de la santé familiale.

Dans ce cadre vous :
– participez aux activités d’analyse de marchés et de coordination des études marketing qualitatives et quantitatives en relation directe avec les équipes marketing et commerciales
– participez à la mise à jour des données de marchés nationales et internationales à l’aide des principales bases de données de vente et de promotion du domaine de la sante.
– élaborez un dossier sur une problématique d’intérêt marketing (tendance de marché, communication, …) pour présentation aux équipes marketing et à la Direction : recherche et analyse des informations, synthèse et présentation

Profil : IAE, Ecole de Commerce ou Mastère Marketing
Localisation du poste : Europe, France, Midi-Pyrénées, Castres (81)- Fontaines / Péraudel
Critères candidat : Niveau d’études minimum requis, Bac +4 / Bac +5
Spécialité : Marketing
Niveau d’expérience minimum requis : Jeune diplômé
Date de prise de fonction souhaitée : 01/03/2017

Ma bibliothèque Dataviz

Il y a maintenant 5 ans de cela j’ai commencé à constituer ma bibliothèque sur la dataviz afin de me renseigner, de me former, de m’informer, mais aussi parfois de me faire plaisir.

Je me propose de vous la partager.

Infographies :

Les livres suivants sont principalement composées d’infographies, en français ou en anglais selon les éditions.

Facts are Sacred: The Power of Data: en plus des infographies, cet ouvrage propose des lectures sur les infographies, leurs limites, la façon dont elles ont été réalisées. En plus de donner des idées, cet ouvrage offre un éclairage très enrichissant sur les infographies sélectionnées.

Infographics : Designing and visualizing data : L’ouvrage propose une centaine d’infographies toutes accompagnées d’une très courte fiche de présentation.

The Infographic History of the World : J’ai adoré dans cet ouvrage la sélection chronologique des infographies. Non pas sur leur date de réalisation mais sur le sujet qu’elles abordent. on commence par l’Univers, la Terre, l’évolution des espèces, de l’homme et au fur et à mesure on se déplace dans les âges : Moyen-Age, Ere nucléaire, Internet, etc. Les infographies sont mise ne valeur par une mise en page et un fond correspondant et toutes sont de grande qualité.

Datavision en français

Datavision² en français et Knowledge is Beautiful en anglais

Visual Miscellaneum: The Bestselling Classic, Revised and Updated: A Colorful Guide to the World’s Most Consequential Trivia

Les 3 ouvrages précédents sont de David Mc Candless. Un peu brut de décoffrage il ne s’agit que d’une succession d’infographies.

Information graphics

Understanding the World

Deux magnifiques, somptueux, merveilleux ouvrages consacrés aux infographies. A avoir absolument dans sa collection pour voyager au coeur de la donnée à travers l’imagination de chacun des auteurs de ces infographies.

infographic designers’ sketchbooks: Dans cet ouvrage, l’auteur présente des infographies mais également les esquisses de travail et la démarche créative. Cela apporte un réel plus pour voir comment certains auteurs-artistes mènent leur projet à maturation.

Time & Space Visualiser: The story and history of Doctor Who as data visualisations

Datavisualisation :

Les ouvrages suivants commencent à rentrer vraiment dans ce que j’appelle la datavisualisation. Au delà de l’infographie, ces ouvrages proposent des démarches, outils et modes de représentation variées de représentation de datasets. Ils sont une lecture essentielle pour tous ceux qui veulent réfléchir sur des représentations plus complexes, plus riches, parfois moins artistiques mais souvent beaucoup plus enrichissantes pour le lecteur qui prendra le temps de se plonger dedans le rendu et de comprendre la démarche analytique ayant permis ces représentations.

Certains de ces ouvrages apportent également une explication détaillée sur le pourquoi et le comment : quel mode de représentation adopter ? Quelles limites ? Pour quel message ? Ils sont ainsi de vrais guides à destination de tous ceux qui veulent créer leurs propres patterns et leurs propres designs

Cartographie des réseaux : L’art de représenter la complexité en français et Visual complexity en anglais

The Functional Art: An introduction to information graphics and visualization

Les deux ouvrages précédents sont pour moi parmi les plus intéressants de ma bibliothèque et absolument essentiels pour qui veut comprendre plus précisément la datavisualisation.

Envisioning Information, The Visual Display of Quantitative Information, Beautiful Evidence : Trois ouvrages incontournable d’Edward R. Tufte

Data visualisation : De l’extraction des données à leur représentation graphique

Data Points: Visualization That Means Something

Visual Methodologies : Ouvrage à lire absolument. Très complet. Si vous deviez n’en lire qu’un pour comprendre la dataviz, ce serait celui là selon moi.

Dataviz, art et créativité :

3 ouvrages pour moi un peu particulier qui vont au-delà de la datavisualisation et a fortiori de l’infographie pour se pencher sur la “représentation”. A travers différents projets de dataviz ou de création artistiques, les auteurs ont compilé et détaillé des innovations dans la façon d’occuper l’espace en deux ou trois ou quatre dimensions avec de l’information. A réserver à ceux qui veulent sortir un peu d’applications purement opérationnelles et efficaces.

Data Flow : Design graphique et visualisation d’information

Data flow 2 Design Graphique et visualisation d’informations

A Touch of Code – Interactive Installations and Experiences

Graphiques et visualisation

Les ouvrages ci-après sont plus particulièrement focalisés (ou en tout cas pour uen grande partie) sur les représentations plus traditionnelles (bar graphe, camemberts, etc). Couleurs, formes, proportions, labels, échelle, etc. Il me semble intéressant de lire au moins l’un d’entre eux pour déjà revenir aux fondamentaux de ce qui reste les outils premiers de la datavisualisation.

Presenting Data: How to Communicate Your Message Effectively

The Truthful Art: Data, Charts, and Maps for Communication

Now You See It: Simple Visualization Techniques for Quantitative Analysis

Divers :

En complément de ma bibliothèque purement dataviz, j’ai élargi un peu mes horizons. Je n’ai pas ici mis tous les ouvrages complémentaires mais uniquement ceux que je préfère.

Mapping it out an alternative atlas of contemporary cartographies /anglais : il s’agit ici de dataviz principalmeent basées sur une base géographique. Des plus anciennes aux plus récentes. Intéressant pour tous ceux qui veulent approfondir leurs dataviz en relation avec la Terre, ses continents, ses pays.

The Map as Art: Contemporary Artists Explore Cartography- : cartes de pays, de villes, du Monde. Vous trouverez dans cet ouvrage les plus belles et les plus intéressantes.

Cartographies of Time : la timeline est un objet bien spécifique dans la boîte à outils de la dataviz. Le cadre très rigide de la temporalité contrait le “datavizeur”. Cartographies of time propose les plus originales de ces timelines et la façon de jouer et de s’exprimer à l’intérieur du cadre Temps.

Wayshowing > Wayfinding: Basic & Interactive : panneaux de signalisation, direction,, etc. Comment s’exprimer, guider, informer par des signes simples. Un ouvrage de référence sur ce sujet.

Designing News: Changing the World of Editorial Design and Information Graphics : cet ouvrage m’a été très utile pour apprendre et comprendre la meilleure façon de présenter de la donnée textuelle de type news. A travers un véritable périple à travers les journaux papiers, magazines mais aussi éditions numériques et une analyse de ces pages et de leurs mise en page, l’on s’enrichira pour mieux présenter ses newsletters, ses dossiers, etc.

Et vous, quels sont vos ouvrages préférés lorsque l’on parle de dataviz ? Laissez les en commentaires pour la communauté 🙂 Je pense aussi à aborder prochainement les sites webs sur le sujet. Selon je ferai un édit de ce billet ou en proposerai un autre.

 

 

Pourquoi les outils de social media monitoring ne vous seront pas d’un grand secours pour écouter Facebook ?

Il y a déjà plus d’un an, Facebook faisait évoluer ses API et bloquait l’accès aux posts publics. La compréhension des interactions des utilisateurs et du contenu qu’ils créaient sur Facebook était déjà fortement limité par l’accessibilité limitée des données partagé en “privé” mais désormais même les posts publics des profils utilisateurs échappent à la compréhension. Se reposer sur des solutions de social media monitoring uniquement pour détecter les bad buzz est donc particulièrement risqué si l’on omet de mettre en place des dispositifs spécifiques de surveillance sur Facebook.

Explication des limites d’accès aux informations issues de Facebook.
1) Les limites d’accès aux informations privées 

Chaque individu sur le réseau social Facebook peut décider de partager ses contenus avec des personnes en
particulier selon plusieurs critères :
– Les amis : le contenu est alors partagé avec tous ses amis
– Ses amis mais pas ses « connaissances » : pour chaque individu dans son réseau d’ami, le titulaire
d’un compte peut décider qu’une des personnes n’est pas un ami mais plutôt une simple
connaissance. L’individu est alors une « acquaintance ». Il est ajouté à une liste préparamétrée qui se retrouve dans différentes sélections lors du partage.
– Des partages sur mesure : lors de chaque partage le titulaire d’un compte peut choisir de partager
nominativement à une personne ou plusieurs personnes et peut également décider de les exclure
du partage.
– Des listes sur mesure : chaque titulaire peut créer ses listes d’amis sur mesure : amis proches,
famille, collègues, etc. Il en gère le nombre, l’intitulé et les personnes à l’intérieur. Et lors d’un
partage il peut décider de partager avec une ou plusieurs listes mais également d’exclure l’un ou
plusieurs listes d’un partage.
– Public : les contenus partagés sont potentiellement visibles par tous lors d’une recherche sur le
moteur et bien évidemment visibles par tous les ami(e)s de la personne sans restriction et par tous les
amis des personnes qui vont interagir avec ce contenu.
Concernant les outils de veille et de social media listening, de toutes dates aucun des contenus partagés autre qu’en mode public n’étaient accessibles aux outils de social media monitoring. Cette donnée a toujours été protégée et n’a jamais été redistribuée à des tiers, revendus, ou accessibles via les APIS permettant d’interroger directement la base de données des posts au sein de l’infrastructure de Facebook.

Seules des données de typestatistiques pouvaient potentiellement être accessibles. Par exemple une marque pouvait avoir des statistiques sur les profils de personnes citant un produit, un mot clé mais n’avaient accès qu’à des données statistiques agrégées et jamais au contenu en texte intégral des posts partagés en mode privé.

Pendant plusieurs années toutefois les contenus publics étaient accessibles en partie via les APIs : texte
intégral, émetteur, nombres de likes, etc.
Depuis le 30 avril 205 : aucun développeur, aucune application, aucun revendeur ne peut avoir accès via les APIs de façon simple et structurée aux contenus publics postés par ses utilisateurs rendant leur monitoring extrêmement difficile.

2) Concept du « edge rank »

(NDLR : Inutile de chipoter, je sais que l’algorithme ne s’appelle plus vraiment comme cela mais le concept reste vrai)

Dans le point 1) nous mentionnions qu’avant la version 2.0 des API de Facebook, une partie des contenus
publics étaient accessibles. En effet, même lorsqu’un contenu était public, il pouvait ne pas remonter dans le moteur de recherche ni dans les API.

Il est essentiel de comprendre cela aujourd’hui car même lorsqu’un utilisateur, par exemple le community
manager d’une marque, effectue une requête avec son compte personnel, ou le compte de la marque sur
Facebook, il n’aura pas forcément accès à tout le contenu qui contient le mot clé de sa requête.
En effet, afin de faire le choix dans les contenus qu’affiche Facebook dans une timeline d’un utilisateur (le flux des informations publiés par ses amis mais aussi par les pages qu’il aime, Facebook calcul pour chaque post un « edgerank » (NDLR : la formule initiale du edgerank a clairement largement évolué mais il faut surtout en retenir que Facebook utilise un algorithme désormais complexe pour savoir comment ses contenus sont affichés sur une timeline, lors d’une recherche, etc.)

Pour qu’un contenu d’affiche dans une recherche il faut que ce dernier ait une certaine valeur pour Facebook et cette valeur est relative pour chaque individu. Ainsi lors d’une recherche Facebook sur un mot clé vous verrez apparaître en premier les contenus de vos amis, ceux ensuite publiés par des amis de vos amis. D’autres critères rentrent en ligne de compte comme le taux d’interaction avec vos amis, mais également leur nombres d’amis, etc.

Les contenus publics sont également disponibles lors de cette recherche mais c’est avant tout les contenus de vos amis qui sont valorisés.

Facebook communique peu sur cet algorithme et sur les critères de calcul.
Les conclusions importantes sont :
– Lorsque vous faîtes une recherche Facebook, sachez que vous avez peu de chance de voir apparaître tous les résultats publics concernant un mot clé.
– Seuls les contenus publics émanant de personnes actives, suivies, éventuellement proches de votre réseau d’amis vont apparaître.
– Les contenus des pages Facebook tenues par les marques, ou bien les groupes, peuvent
également apparaître.
– Il est aujourd’hui impossible d’avoir accès à tout le contenu publié publiquement par un utilisateur
sur le réseau en recherchant par mot clé directement sur l’interface Facebook.

L’on comprendra que le risque est de ne pas identifier un contenu critique.

Quelques exemples de recherche :
• Derniers posts (le mode de recherche le plus exhaustif et qui remonte le plus de contenus)
• Le mode top ne ramène que les contenus scorés le plus haut par Facebook et inclus des profils, des
posts.

3) La surveillance de channels

La seule chose que permet Facebook aujourd’hui via ses APIS pour accéder à des posts publics est de s’abonner directement à des pages voire même à des profils. Ceci est faisable avec la plupart des solutions de social media listening du marché telles que Brandwatch, Digimind Social, Radian 6, …

Ainsi afin de maximiser le monitoring sur un secteur d’activité il peut être intéressant de faire un vrai travail d’identification des pages Facebook sur un secteur d’activité et de les intégrer comme une source à surveiller directement.
Il s’agit là d’un point de paramétrage essentiel d’un outil de S2M et le seul permettant d’avoir accès à des
posts publiés sur des pages ou des profils Facebook de façon publique.

NDLR : Tous les outils de social media listening sont confrontés aux même contraintes et apportent le même type de solution : surveiller page par page.

Afin d’améliorer le paramétrage de la solution de Social Media Listening il peut être intéressant de faire le tour donc des pages Facebook des parties prenantes autour de votre marque et de vos produits. Ce paramétrage ne vous prémunira toutefois pas d’une bad buzz qui prendrait racine chez des utilisateurs “clients finaux” de la solution qui ne disposeront pas de page publique. Vous parviendrez toutefois à améliorer la surveillance de vos marques et produits sur Facebook.
4) Monitorer les contenus publics sans passer par une surveillance page par page dans un outil de SML

A plusieurs égards il est interdit de crawler des contenus de facebook avec des automates :

– Selon les termes de service  sous l’article 10 de la partie safety qui mentionne par exemple : « You will not do anything that could disable, overburden, or impair the proper working or appearance of Facebook, such as a denial of service attack or interference with page rendering or other Facebook functionality. » Or un robot peut être considéré comme un outil portant atteinte au bon focntionnement du site.

Ainsi certains développeurs ayant développé des crawlers ont pu être poursuivis en
justice par Facebook : https://petewarden.com/2010/04/05/how-i-got-sued-byfacebook/
Le robots.txt de Facebook vient rappeler cela de façon clairement explicite : tout crawler n’ayant
pas une autorisation expresse ne peut collecter de données sur Facebook.
– Enfin bien évidemment la législation sur les données personnelles est également restrictive et
implique à minima une déclaration à la Cnil pour la France (législation variable en fonction des
pays et complexe car dans le cadre d’une extraction de données internationales une donnée
devrait être effectuée dans chaque pays.)

Le seul moyen strictement légal de surveiller des posts publics sur Facebook par une recherche par mots clés est de se connecter avec son compte utilisateur et de régulièrement effecteur la requête pour détecter des contenus. Bienvenue au Moyen-Age donc.

L’intégration des channels dans un outil de Social Media Listening est une approche complémentaire ciblée.

Enfin l’on peut également se servir du moteur de recherche Google en effectuant une recherche ciblée de
type : site:facebook.com MOTCLE et filtrer par date pour avoir des contenus récents. Cette requête remonte toutefois une faible partie des contenus car Facebook est très mal indexé par Google (y compris en raison du fichier robots.txt qui interdit par exemple l’accès aux posts de type photos ce qui peut souvent être le cas pour un bad buzz). Cette requête peut être automatisée avec une Google Alerte mais sans  certitude de fonctionnement, le service Google Alerte étant clairement peu fiable.

Le CFC veut encadrer l’activité des prestataires et éditeurs de logiciels de veille

L’information est passé totalement inaperçue dans le petit landerneau de la veille et pourtant elle en dit long et vient s’ajouter à la longue liste des signaux faibles – ou moins faibles – envoyés par les agrégateurs de presse et les sites de presse en ligne.

Le CFC*, dans un article du 24 mai 2016, dit vouloir encadrer l’activité des prestataires de veille et des éditeurs de logiciels de veille. Le CFC cite ainsi clairement les “sociétés dont l’activité consiste à explorer, crawler et indexer les contenus web notamment des éditeurs de presse, afin de restituer à leurs clients une analyse et/ou des liens renvoyant sur le site de l’éditeur.”

Ouch. Petit rappel donc aux consommateurs / utilisateurs de logiciels de veille et aux éditeurs… : si le contenu que vous publiez dans vos newsletters, dont vous faîtes la curation, que vous rediffusez, est protégé par le droit d’auteur et que le CFC est mandaté par ce média vous devrez vous acquitter de droit de copie.

Voilà donc qui réjouira les agrégateurs de presse qui s’acquittaient des droits de copie là où les utilisateurs de logiciels de veille pouvaient omettre de le faire.

Le CFC propose ainsi une relation contractuelle autorisant les éditeurs de logiciels de veille / clients / veilleurs / prestataires de veille à crawler, indexer et restituer des copies partielles ou complètes des articles des médias pour lesquels ils en auraient fait la demande.

Ce nouveau dispositif vient compléter le signal envoyé par l’intermédiaire du robots.txt aux éditeurs de logiciels de veille en leur interdisant le crawling de leurs sites.

NDLR : pour exemple l’on pourra aller consulter le fichier robots.txt de Le Monde qui cite à peu près tout ce qui existe ou presque comme éditeur de logiciel de veille voire même de prestataire.

Une bien belle occasion de vous lancer à la lecture des articles suivants sur la même thématique :

*CFC : Centre Français d’exploitation du droit de Copie – Le Centre français d’exploitation du droit de copie, également connu sous le sigle CFC, est une société française de perception et de répartition de droits de propriété littéraire et artistique créée en 1984. (Définition Wikipédia)