• en
  • fr
Intelligence économique et veille : pour que l'information se transforme en action

Outils de veille d’opinion/e-réputation : pourquoi ca ne marche pas (ou si peu …)

Dans ce billet, je vais décrire deux freins à l’utilisation  de logiciels de veille d’opinion et de réputation ; les éditeurs je pense ne m’en voudront pas de pointer du doigt les faiblesses majeures des outils, bien connus pour tout veilleur qui se respecte.

Entre la collecte, le traitement et l’analyse des informations, je ne traite ici que de la recherche d’information, qui est l’étape initiale de toute veille d’opinion (de mauvaises techniques de recherche = des résultats non pertinents =des analyses à coté de la plaque etc…)

La plupart des logiciels vous proposent d’interroger des sources qualifiées et pertinentes à travers une interface d’interrogation des sources par mots-clés. Pour avoir testé de nombreuses solutions, je tiens à crier haut et fort (et merci Frédéric de me le permettre) que pour moi, deux points bloquants sont suffisants pour m’en passer

1. Vos sphères cibles ont peu de chance d’être représentées.
La majorité des logiciels vous propose d’interroger à l’aide de mots clés un corpus de source prédéfini. Hors il y a peu de chance que cette représentativité de sources corresponde réellement à vos besoins en argumentaires : comme nous le soulignait déjà à l’époque Frédéric, les éditeurs sont contraints de mettre en place des corpus « génériques » et peu personnalisables : « la réalité économique les contraint à développer des logiciels génériques dont la personnalisation est limitée et parfois même laissée à charge des utilisateurs par le choix des sources à intégrer, seule possibilité de customisation de l’outil“. Frédéric Martinet, Regards sur l’IE #29, mai 2009. (et ma réponse sur la personnalisation sur mon blog).

Les communautés d’internautes et les parties prenantes qui vous sont propres ont donc peu de chance de figurer dans le corpus de sources du logiciel. Que le logiciel indexe 5 000, 30 000 ou même 60 000 sources importe peu, si les espaces sur lesquels s’expriment vos communautés ne sont pas pris en compte : vous passerez à coté. Il est donc nécessaire de développer l’indexation des espaces sociaux de votre communauté et de les intégrer au cœur de votre stratégie de recherche.

2.    « Votre web » est en mouvement permanent
Un des éléments de réussite de l’utilisation d’un logiciel de veille spécialisé est donc la rapidité avec laquelle vous pouvez intégrer des sources dans le corpus. Au début de l’utilisation du logiciel, assurez-vous que les espaces sur lesquels s’expriment vos communautés sont bien intégrés au corpus (ou que vous pouvez les intégrer vous-mêmes)! Comme il y a tous les jours (ou au moins tous les mois), de nouvelles sources qui vous intéressent, il faut absolument pouvoir les intégrer au fur et à mesure. Si le corpus de sources est statique, il correspondra à votre environnement web à un temps T. Si on ne peut intégrer la surveillance d’une nouvelle pétition en ligne, un groupe Facebook ou un blog du jour au lendemain, ce n’est pas la peine (surtout pour les veilles de crises, et sans compter le temps de l’indexation….)

Certains éditeurs heureusement proposent d’intégrer au début et au fur et à mesure vos propres sources dans l’outil de collecte. Mais cela coute très cher car il faut prendre en compte du développement informatique ! D’autant que le  web étant espace en mutation constante, il implique un développement informatique continu, « une sorte de course technologique » ou les usages ont toujours un temps d’avance. L’intégration de source, un défi à relever.


Alors comment faire ?

A partir de ces deux freins majeurs, une des solutions est de passer par des logiciels qui intègrent absolument des recherches “ouvertes” i.e. qui utilisent les moteurs de recherche pour détecter les expressions en ligne. Cette méthode permet de ne pas se baser sur un corpus prédéfini, fixe et non-évolutif, et de passer outre les développements technologiques continus. Ainsi on détecte les tendances, les signaux faibles, on découvre les nouveaux univers de discussion, les nouveaux éléments de langages, les nouvelles sources des communautés; on reste ainsi ouvert aux dynamiques d’opinion….

Pour continuer et si vous avez encore des doutes sur l’utilisation des outils sur corpus, je vous invite à lire cet excellent de billet de No Man’s.

Rejoindre la conversation

29 commentaires

    1. Ah ben voilà un billet qui fait plaisir. Je me ferai un plaisir de le commenter plus longuement prochainement. En ce qui me concerne Google n’est pas le meilleur outil de veille car il est difficilement attaquable proprement… et les RSS de Google Alerts sont pas encore top. en fait le problème c’est qu’il n’y a pas d’Api Google…Et oui, faut bien vendre de la pub. Par contre Yahoo BOSS 🙂 La c’est pas mal! http://developer.yahoo.com/search/boss/boss_guide/

      Encore faudrait-t’il que les éditeurs se sortent un peu les doigts et remettent à plat leur modèle historique de crawl via le http…

  1. Tout à fait d’accord et je rajouterais pour compléter ce qu’à dit Gauthier qui est très juste, qu’il est impossible de se passer de Google en matière d’E-Réputation. Tout simplement parce qu’il est LE miroir à l’instant T de l’image d’une entreprise, d’une marque, d’un produit, d’un service sur la Toile. Ce caractère universel rend Google incontournable et aucun scrawler ne pourra jamais l’égaler.
    Sans oublier qu’en matière de veille d’opinion, l’outil doit être au service de l’homme et non pas l’inverse 🙂

  2. Tout à fait d’accord avec vos commentaires! Google est indispensable tout bonnement parce qu’il est le meilleur pour la recherche d’information, et aussi parce que tout le monde l’utilise et donc il participe à la construction de la réputation (il “est” même la réputation).

    Concernant les logiciels, il doivent effectivement impérativement répondre à une demande de veille pour un client/ un domaine/ une communauté, le logiciel doit se paramétrer en fonction des besoins (évolutifs) en information, comme le dit jib, et non l’inverse !

    1. Merci Camille pour cet article, on pourrait résumer en trois points:
      – Il n’existe pas d’outil miracle pour la veille d’opinion
      – Il faut souvent combiner un ou plusieurs logiciels et Google (et autres moteurs)
      – La méthodologie et expertise des veilleurs fait aussi largement la différence

      Finalement, c,est surtout ce dernier point qui permets aux éditeurs de proposer une solution adaptée…ou pas du tout.

      Merci pour l’article

  3. Très bon article Camille, qui a le mérite de mettre les points sur les i, et de démontrer aussi qu’il y a une réelle différence entre veille et recherche d’informations (et que très peu d’outil sont bons pour la recherche)…

    Après, il faut comprendre qui sont les cibles principales de ces outils pour la plupart “clés en main” sont les directeurs marketing, de la comm, etc. En résumé des personnes qui ont l’habitude de travailler avec des panels, et qui pensent qu’un blogueur est donc représentatif de sa “communauté”…

    Pour Google je suis d’accord sur le fait que c’est le meilleur “crawler” actuellement (à force de le répéter on va croire que j’ai des actions chez eux 🙂

    Par contre, Google N’EST pas la réputation de l’entreprise! Ce n’en est que le reflet (comme le souligne jib), et encore… Reflet qui va de plus en plus être différent pour chacun avec la géolocalisation, qui varie selon les requêtes, etc.

    Et une question (histoire de mettre les pieds dans le plat jusqu’au bout 🙂 ) : Quel(s) outils utilises-tu ? et lesquels nous déconseilles-tu ?

  4. des logiciels qui intègrent absolument des recherches « ouvertes » i.e. qui utilisent les moteurs de recherche pour détecter les expressions en ligne.
    OK, mais peut-on avoir les noms de ces logiciels ?

  5. Camille: Ouh là pour Google, j’efface ce que j’ai dit !! on est d’accord, Google reflète.

    Pour les panels, c’est clair que les outils s’adaptent à leurs cibles.

    En fait, les panels ne me dérangent pas dans l’absolu (on peut rechercher pertinemment dans un panel à partir du moment ou il est constitué de façon intelligente pour ses enjeux).

    C’est le coté générique des panels qui me dérangent le plus (Quelles sont les liens de panel sur le web, entre les entreprises Total, L’Oréal, Nature et Découverte?).

    Un panel personnalisé pourrait dans certains cas avoir un sens, tout dépend de l’objectif de la veille.

    Sinon, je n’ai pas d’outils favoris, ca dépend encore une fois de l’objectif de la veille (veille e-réputation, veille de tendances, veille éditoriale…).
    Tant que l’outil permet d’intégrer des sources personnalisées et des recherches “ouvertes” ca me va.

    @ Camille: Perso, j’utilise notre propre métamoteur de recherche développé en interne 🙂

    @ Romink: notre métamoteur n’a pas de nom, on ne sait pas encore comment l’appeler …!

  6. il faut quand meme savoir qu un logiciel de veille comme Digimind n utilise pas seulement son bloc de sources generiques car la plate forme est entierement personnalisable, il suffit de configurer les agents.
    On peut ainsi des le depart rajouter toutes les sources concernant votre secteur specifique, simplement et rapidement.

    De plus “Source Identifier”(technologie exclusive de Digimind) permet de tracker automatiquement et regulierement tous les moteurs du web invisible, donnant ainsi accès à de nouvelles sources non indexées ou mal indexées par les moteurs de recherche traditionnels (Google, Yahoo!…) et vous etendez ainsi regulierement votre champs de sources tout en la precisant!

    la precision me semble utile pour rendre cet article plus objectif!

    1. Je vais parler en ce qui me concerne en prenant assez peu de risque je pense qu’il en est de même pour Camille…

      Je connais assez bien Digimind pour avoir travailler sur plusieurs projets Digimind. Et Par ailleurs je connais aussi KB Crawl et Ami Software.

      Ce que je pense sincèrement c’est qu’il y a des limites à ces outils là qui sont évidentes dans le cas de la veille d’opinion…

      Lorsque l’on souhaite surveiller ce qui se dit de sa marque on souhaite regarder ce qui se dit sur Internet et pas ce qui se dit sur certains sites que l’on a par ailleurs même pas forcément identifiés…

      On a alors plusieurs options : on met tout un tas d’alertes sur différents outils qui attaquent directement Google qui à ce jour est la base d’index la plus exhaustive et la plus réactive du Web et on ajoute au fur et à mesure les sources, ce qui a ses limites par ailleurs car si ça se trouve cette source fraichement ajoutée ne publiera plus rien sur la marque. Ou bien alors on n’ajoute pas les sources ce qui pour le coup a également ces limites.

      Le malaise qui ressort de façon évidente des outils de veille existant actuellement en France c’est leur incapacité à exploiter la base d’index des “majors” sur Internet. En s’engonçant dans leur modèle de crawl http archaique au lieu de reposer sur des API ou des Web Services, les éditeurs français qui essaient tant bien que mal de raccrocher les wagons au train des solutions de social media monitoring anglophones essaient de déporter leur manque d’innovation et surtout d’adaptation aux technologies massivement adoptées par les plateformes de web sociales et les technologies de search (API, Webservices, etc)

      Pour arrondir les angles on essaie gentiment de faire comprendre aux veilleurs qu’ils doivent faire des choix, faire un corpus, un panel, etc (mais sur quelle population mère pourrait on se demander….)

      Si je pense que Digimind est une bonne solution de veille stratégique et concurrentielle je n’en pense pas de même sur la veille d’opinion ou je pense que les Alterian, Cymfony, Radian 6 ont quelques wagons d’avance.

  7. Hello,

    Je trouve vos arguments très pertinents, notamment l’importance d’effectuer un crawling découverte constant pour l’identification de nouvelles sources d’information pertinentes, communautés connexes etc.

    Il me parait également très peu pertinent de définir, en amont, un corpus de sources thématiques à surveiller … et risqué en cas de bad buzz sur une communauté “non évidente”.

    Ces exigences sont pour moi loin d’être incompatibles avec un outil, il suffit de choisir le bon 😉

  8. Pour répondre à Chloé, “Source Identifier” de Digiming, qui permet de tracker automatiquement et régulièrement tous les moteurs du web invisible peut s’avérer efficace pour toute sorte de veilles, mais pour de la veille d’opinion il est quasiment inutile.
    Ce sont les résultats visibles qui vont nous intéresser. Un billet de blog négatif, non référencé dans Google, n’est pas vraiment dérangeant pour une entreprise qui suit de près sa réputation en ligne.

    1. Rhoooo, allez juste parce que c’est mon combat 🙂 :

      “. Un billet de blog négatif, non référencé dans Google, n’est pas vraiment dérangeant pour une entreprise qui suit de près sa réputation en ligne.”

      Ah bon! Même s’il est sur un groupe Facebook avec100000 fans ?! Même dans les commentaires d’un article de presse en ligne lui même référencé par Google ? Même sur les sites d’avis de consommateurs ?!

      Bon on est d’accord; là tu parlais d’un billet de blog (donc je titille un peu :-), mais encore une fois, il faut arrêter de ne scruter que Google (après je ne sais pas ce que vaut l’outil Digimind à ce niveau là) !

      En fait le problème, et qu’un outil de veille est là pour mettre en surveillance des sources déjà identifiées, puis aider au tri, à l’analyse, etc. Chercher l’info demande non seulement des méthodos (comme le dit Antoine), mais aussi un moteur (ou méta-moteur) efficace (du Google customisé quoi)!

      Et si l’e-réputation consiste à regarder quels sites remontent sur telle requête, alors là c’est vers le SEO qu’il faut se tourner…

      Je propose, après un barbek JB, un barbek “votre réputation ce n’est pas Google, puisque c’est une perception” 🙂

      1. Pour aller plus loin la réputation ce n’est pas un outil, ce n’est pas ce qui se dit sur le Web. c’est la perception qu’un individu se fait de vous individuellement.

        Derrière les leviers, facteurs qui créent cette perception sont nombreux.

        MAIS force est de constater que quand l’avis d’un individu sur votre marque est inexistant, avoir une première page Google hyper négative a un impacts ouvent lourd sur votre réputation..

        On peut s’organiser un barcamp de l’ereputation à Carsix aussi. on fera du live streaming en se pluguant directement sur l’antennte.

      2. Oui Camille tu prends un bon exemple, la veille d’opinion sur les médias sociaux ne passent pas forcément par Google.

        Après j’ai du mal à imaginer que l’outil de Digimind scrute ce genre de sources (je n’y crois pas du tout d’ailleurs). A mon avis, Source Identifier est plus performant pour interroger des BDD scientifiques.

        Le Web Invisible selon Digimind : http://tinyurl.com/ygr42jt

    2. La encore la définition même de Invisible Web au sens de Source Identifier mériterait d’être discuté. Si je ne m’abuse (et présentement je peux me tromper) Source Identifier repose sur la techno Digimind Finder et bon … à l’époque c’était loin de crawler que du Web Invisible… D’ailleurs sur le web invisible c’était pas super performant. C’était plutôt un métamoteur de recherche.

  9. Pour appuyer mon argument de corpus, voici quelques stats que j’ai sorti au bout d’un an de veille pour un de nos clients: sur plus de 2600 sources qui ont évoqué notre client, les sources qui ont évoqué 2 fois et moins notre client représente 74 % des sources (et seul 11 % des sources l’ont évoqué 10 fois et plus).

    Ce chiffres montrent selon moi l’utilité d’un moteur de recherche, sans même avoir à insérer la source par la suite ( 1930 sources à insérer dans le corpus pour que finalement le client ne soit plus jamais cité par ces sources me semble ambitieux voire hasardeux).

    Le mieux est donc d’avoir un moteur de recherche ouvert, même si on n’intègre pas les sources dans le corpus!

    Pour la question de la visibilité sur google, je me risque à penser qu’un billet de blog argumenté (et/ ou négatif) qui ne ressort pas dans les premières pages de Google (ou qui n’a pas de visibilité), a son intérêt pour la veille d’opinion qui fait appel aux argumentaires des internautes face à un produit ou une entreprise ; tandis que la e-réputation fait davantage appel à la visibilité de la source ou de l’argumentaire (???)

    Bonne journée !

  10. Bonjour à toutes et tous.

    Etant en vacances, je fais faire pour l’instant un commentaire court sur ce billet très intéressant et plus spécifiquement sur ses commentaires pour vous faire part de mon point de vue.

    De plus, de nombreuses inexactitudes ont été écrites sur la solution Digimind, soit parce que les utilisateurs parlent de “bribes” de la suite logicielle qui est devenue volumineuse ou évoquent d’anciennes versions, soit parce qu’ils…ne l’ont jamais utilisé ce qui rend les imprécisions plus compréhensibles. 😉
    Et oui, bien sur, le logiciel permet « des recherches « ouvertes » i.e. qui utilisent les moteurs de recherche » (pour reprendre l’expression de Camille) et ce depuis 2003…

    1. Sur le billet :
    Je trouve le paragraphe 1 particulièrement pessimiste ( « Vos sphères cibles ont peu de chance d’être représentées. ») où bien vous parlez d’outils peu performants.
    Une bonne solution de social monitoring, de veille, de collecte accompagnée de l’expertise de consultants doit pouvoir répondre à ce genre de problématique. Cela implique évidemment un périmétrage précis, des coûts de maintenance et des promesses réalistes (Non, Facebook ne concerne pas tous les clients, certains trouveront leurs conversations dans les bons vieux forums).
    Par ailleurs, il convient toujours de distinguer la collecte de la veille (la surveillance au sens stricte). 2 approches, 2 méthodes, 2 objectifs et des résultats bien différents.

    Je pense que l’idéal serait de bien différencier l’analyse des possibilités de veille d’opinion selon le type d’outil (moteur, agents de surveillance, social monitoring, etc…)

    Ensuite, on peut schématiser à l’extrême les prestations de veille selon 2 approches :
    – par panel, l’échantillon de sources permettant des analyses évolutives dans le temps à périmètre constant, à l’instar d’une étude de marché quanti ou quali
    – par spectre de surveillance à 360° où l’on cherche à intégrer le maximum de sources pertinentes.
    Les 2 approches ne sont pas exclusives et se complètent.

    Il y aurait de nombreuses autres choses à dire : sur les limites de l’approche « tout Google » (j’avoue que vous m’effrayez avec votre discours Google Google, les index des moteurs se superposant de mois en moins. Ex : Google BlogSearch vs IceRocket vs Blogpulse…), les différences de besoins outils entre un client final et un prestataire de veille, les différences entre une veille d’opinion et une veille e-réputation plus axée notamment sur la visibilité et les risques immédiats….En e-réputation, vous pouvez éventuellement vous contenter d’une veille réactive selon l’adage « ma réputation, c’est la première page de Google »). Par contre, en veille, d’opinion par exemple, c’est mieux d’anticiper des crises qui naissent sur Facebook ou des forums web avant qu’elles se retrouvent indexées et visibles dans les premiers résultats de Google, non ?

    2. Sur la “solution” Digimind (solution, j’insiste, n’en déplaise à Aref ;-), le terme étant validé par nos partenaires américains à Boston) :
    Le logiciel ne fait pas encore le café mais la brique collecte et veille permet de réaliser pas mal de choses (je m’arrête aux fonctionnalités très concrètes, n’hésitez pas à me contacter pour toutes questions)

    Frédéric :
    – une mise à jour de tes connaissances sur la solution Digimind s’impose 😉
    De nombreux clients (annonceurs ou agences) l’utilisent prioritairement pour leur veille d’opinion et la gestion de crise en utilisant par exemple (en ce qui ocnerne la phase collecte/monitoring) :

    – un plug-in sur les moteurs de recherche à large index (Google, Bing, Exalead…) et les moteurs spécialisés désirés pour collecte et/ou surveillance via les requêtes de son choix permettant de découvrir de nouvelles sources et de capter des informations hors corpus de surveillance.
    – surveillance d’un corpus de sources avec ajouts de sources sur mesure selon l’évolution des besoins et sans limite de nombre.

    – Une interrogation et surveillance de bases de sources d’actualités professionnelles
    – Une indexation des résultats en temps réel pour la phase d’analyse.

    – Non, Source Identifier n’a rien à voir avec le Finder

    – Le Finder est bien un métamoteur mais pas dans l’acception des métamoteurs grand public : Sur le web invisible (pas de lien immédiat avec la veille d’opinion mais le sujet à été abordé dans les commentaires), l’approche Digimind retenue sur son module Web Insivisble 2 vise à scruter les résultats mal indexés ou pas indexés par les moteurs généralistes de type Google, ce qui correspond à un des types du web profond (Ainsi, Google indexe en partie les pages d’un Fnac.com ou d’un Internet Movie Database…Idem pour les résultats de nombreux moteurs professionnels)
    Aussi, l’utilisateur peut plugger et interroger les moteurs spécialisés de son choix (moteurs internes de sites spécialisés par exemple) pour capter des données non indexées par Google (cas du moteur The Lancet par exemple, site de référence dans le domaine médical).

    -la solution propose des Web Services pour faciliter l’intégration avec les autres outils et logiciels et ne consiste pas uniquement en un processus de crawling !

    Par ailleurs, une des fonctions de l’outil de suivi statistique automatique est de fournir un reporting des sources les plus « productives » : quelles sources ont généré le plus d’informations en relation avec mes thématiques de veille.

    Gautier :
    Le logiciel Digimind (brique Tracker) permet de surveiller –notamment- en ce qui concerne le web social :
    – les sujets et messages de forums web (module dédié), hauts lieux de l’opinion
    – les sites d’avis consommateurs
    – les pages et les groupes Facebook (plug-in dédié)
    – les flux Twitter
    – les commentaires des blogs et sites d’actus alternatifs
    – les plateformes multimédias de type DailyMotion, etc…

    Pour conclure, pour accompagner l’outil, quel qu’il soit, il faut des consultants à la tête bien faite, passionnés par le web, ses outils, ses sources et connaissant bien certains secteurs.

    Bonne fin d’été à tous !

    Christophe

  11. Hello Christophe !

    Bon ca au moins c’est de la réponse argumentée ! 🙂
    Je n’en attendais pas moins d’un veilleur tel que toi.

    – Concernant la mise à jour de mes connaissances Digimind, je pense que comme tu le sais elle ne date pas de 2003 🙂 Mais effectivement je tente d’avoir une mise à jour de mes connaissances ! J’y travaille même d’arrache pieds mais cela ne semble pas imple. En tout cas je n’ai jamais dit que les agences n’utilisaeint pas Digimind pour la veille e-reputation. Cela par ailleurs ne veut pas dire pour autant que c’est la meilleure solution ou la solution adaptée pour ce sujet.

    – Je suis preneur de voir tourner le plug-in sur les moteurs de recherche et de savoir également quel est le mode d’interrogation. Par ailleurs que veut dire exactement plug-in dans la solution Digimind ? (c’est une vraie question car pour moi le plug-in est un petit logiciel complémentaire que l’on vient greffer sur un solution)

    – Pour l’ajout de sources illimitées, c’est effectivement un des points forts de Digimind par rapport à certains modèles de facturation.

    – Concernant Source Identifier, je suis surpris d’apprendre que cela n’a “rien à voir avec Digimind Finder” étant donné que sur votre site web (http://www.digimind.fr/produits/digimind-evolution/modules/digimind-tracker/source-identifier) avant dernier paragraphe, vous spécifiez que “Source Identifier utilise la technologie exclusive de Digimind destinée à interroger les moteurs du web invisible, vous donnant ainsi accès à des sources non indexées ou mal indexées par les moteurs de recherche traditionnels (Google, Yahoo!)”.(avec un lien vers la page Digimind Finder.)

    – Concernant le métamoteur en ce qui me concerne j’en ai une définition qui doit mériter également une petite update. Pour moi un métamoteur est un outil qui reçoit une reuqête qu’il va envoyer dans des moteurs de recherche (en GET ou POST). Il collecte alors les premières URL (nombre souvent paramétrable), dédoublonne entre les différents moteurs interrogés) et restitue un classement. C’est la définition que je connais mais je ne demande qu’à connaître la définition non grand public. Faudrait peut être du coup procéder à la mise à jour de la fichie wikipedia sur le sujet. http://fr.wikipedia.org/wiki/Metamoteur

    Je rebondis sur un autre point concernant “les résultats mal indexés”. La encore je suis perplexe (mon Dieu que ce billet soulève de questions et de perplexité!): Pour moi un résultat est indexé ou pas. En gros l’URL est en base ou pas et le contenu est injecté dans l’index inversé et rattaché à l’URL. A moins que mal indexé ne veuille dire que les résultats sont peu accessibles à travers le moteur car ne ressortent pas sur certaines requêtes je ne vois pas comment un résultat est “mal indexé”. Il y a bvien sur quelques exceptions telles que les docs PDF trop lourds ou parfois les résultats en ajax.

    – Concernant les web services il me tarde de voir. Je connaissais principalement Lexis et Factiva. MAis vivcement cette update 🙂 (septembre?)

    Et pour conclure, merci pour ta conclusion ! 🙂 Il y a je pense sur ce blog (en tout cas je l’espère) beaucoup de passionnés de notre métier.

    Au plaisir de te lire à nouveau sur ce blog ! Ah et au fait si tu veux une invitation sur Actulligence pour nous pondre un billet de fond tu n’as qu’à demander. Tant que l’on parle méthodo, innovation, prospective et non pas solutions ce sera un honneur de t’accueillir !

  12. Bonjour,

    Vos contributions apportent bcp de compléments à mon billet et je vous en remercie. Je souhaite rajouter deux compléments:

    Sur le premier paragraphe, j’évoque en fait les outils basés sur des panel constitués en amont. Il faut bien sur pour chaque client un panel différent,approprié et personnalisé, pour que ce panel correspondent à ses communautés d’internautes.

    Quand je dis “il y a peu de chance que vos communautés soient représentées”, je peu rajouter “par défaut dans les logiciels”.
    Je rajoute plus bas “assurez-vous que les espaces sur lesquels s’expriment vos communautés sont bien intégrés au corpus”. En fait, je ne voyais pas un frein existentiel à l’utilisation des logiciels, mais bien une sécurité à prendre en ce qui concerne la personnalisation de l’outil.

    L’accompagnement et la personnalisation sont bien sur les deux phases essentielles et vitales pour mener à bien un projet pertinent de veille d’opinion

    Sinon, je suis tout à fait d’accord avec vous sur la collecte et le monitoring de sources, j’ai justement axé mon billet sur la fonction recherche d’information (en amont donc de la collecte et du monitoring), cette phase de recherche en continu étant le plus importante de tout le cycle de veille selon moi; car elle permet de mettre en place justement les éléments variés de veille que vous citez.

    Sinon, un dernier élément qui me tient à cœur: je pense que si certaines entreprises ne sont pas concernées par Facebook, si certaines concentrent davantage d’arguments dans les forums que dans le blogs, etc.Je pense que rien n’empêche un jour de voir la 1ere se retrouver discutée dans les forums,la seconde avoir une fanpage Facebook (ou une mobilisation)….Restons vigilants sur tous les espaces, gardons un œil sur les nouveaux usages!

    (je pars en vacances (:-)) mais je serai contente de reprendre cette discussion en septembre …)

  13. Bonjour,
    Quel débat ! Tout est quasiment déjà dit sur la dimension technique d’une veille et d’une étude d’opinions mais quid de la méthode d’analyse ? En effet, au-delà de la question du périmètre de recherche (panel ou 360°) qui est une vraie question, celle de la méthode d’analyse est aussi à considérer. Que penser de la notion de “représentativité” sur le web ? Quel sens revêt une analyse quantitative des éléments recueillis ? Quant à l’analyse qualitative, quel outil permet d’aller au-delà du nuage de tags ? Quelle orientation privilégier, morpho-syntaxique, sémantique, un peu des deux (probablement) ?

    1. Sue cette question de la méthodo, un article très intéressant de Cédric Deniaud en mars 2010 , extrait : “L’évangélisation continue à se faire autour des outils et non autour des usages ou de l’évolution des concepts de communication (De la logique d’image à la logique de réputation et De la publicité au marketing conversationnel) ou marketing (Social CRM). On se trouve donc avec des annonceurs qui savent comment gérer un compte Twitter, un blog et une page Facebook mais qui ne savent pas quoi y faire / quoi y dire, quels indicateurs pertinents en tirer et surtout comment ces dispositifs peuvent s’intégrer dans une relation client ou une démarche d’acquisition client.” http://cdeniaud.canalblog.com/archives/2010/03/10/17184798.html

  14. Excellent post.

    Je note que les réactions sur ce blog sont presque toujours aussi instructives que les articles eux même.

    Je souhaite juste rebondir sur l’intervention d’Isabelle.
    Cette question de l’évaluation des sources en fonction de leur pertinence par rapport à UNE problématique forcément spécifique me parait en effet primordiale.

    Une analyse fine de chaque source reste obligatoire pour évaluer l'”influence” de celle ci (aspect fondamentale dans la veille d’opinion).
    Le problème étant que les critères d’analyse varient en fonction du type de source à analyser (page Facebook, blog, forum…).

    Deux outils sont sympa pour cette phase de collecte et peuvent en plus être reliés à un tableau Excel. C’est gratuit et si ce n’est pas la panacée cela reste intéressant:

    1/ Copernic Agent en y ajoutant le petit programme permettant d’y adjoindre Google (boudé par Copernic).
    2/ Seo Quake (Mozilla).

    Voilà!

    Mehdi.

  15. Je note la même problématique pour les TPE-PME. Aujourd’hui les logiciels ne sont pas adaptés à ces entreprises. Quoi qu’on en dise AMI ou DIGIMIND n’arrivent pas à capter les premiers signes d’une désinformations ou d’une déstabilisation. Pour être opérationnel ces logiciels ont besoin d’une forte caisse de résonance mais comme vous le savez il est trop tard dans ce cas.

    Dernièrement j’ai testé la solution KnowledgePlaza qui me semble la plus adaptée pour les TPE-PME. Le veilleur trouve l’information et la partage avec les collaborateurs de l’entreprise.

    1. Bonjour Bertrand,

      Merci pour ces éléments.
      Je ne serais pas aussi catégorique concernant Digimind et Ami Software. Chacun des logiciels que vous citez a ses forces et ses faiblesses. Je ne trouve pas par ailleurs que justement AMI ou Digimind nécessitent particulièrement une forte caisse de résonnance. Ils demandent par contre un vrai travail de définition et de mise à jour du périmètre de veille.

      Concernant Knowledge Plaza, merci pour votre retour. Il faut décidément absolument que je découvre aussi ce logiciel.

      Bien à vous,

      Frederic

  16. Bonjour,
    Voilà un post et des commentaires tous passionnant à lire…
    Dans le titre du post “outil de veille d’opinion/d’e-réputation” même si cette dernière fait plutôt référence à l’Internet, l’opinion se construit aussi dans la presse écrite, dans les radios et à la TV. Un mauvais article dans Les Echos ou une chronique acide dans Stratégies ou sur France Info, s’ils sont ignorés, toute l’analyse fondée sur les infos du Web, que la sphère cible soit bien ou mal identifiée, risque de ne pas être crédible…
    [censuré]
    Une partie du commentaire ci-dessus a été modérée. Les espaces de commentaires de ce blog NE SONT PAS un espace publicitaire

Laisser un commentaire

Répondre à Gautier Barbe Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *