Le danger du billet du méchant blogueur (anonyme) qui va ruiner votre e-reputation du jour au lendemain c’est un peu aux marchands du temple e-reputation pour leurs clients ce que sont les usines de bombes atomiques de Saddam Hussein pour les médias américains et la communauté internationale : le spectre de la terreur qui permet de faire un jackpot sur les ressources locales.
Et pour cause. Il est difficile de prévoir, de modéliser ce qui va se passer sur Internet. D’ailleurs il est même difficile de surveiller ce qui se dit sur Internet en totalité.
Alors certes on va toujours vous sortir un ou deux cas types qui font vraiment super trop peur. Genre le gamin hargneux qui ouvre un antivol Kryptonite avec un stylo Bic.
Mais soyons honnêtes… Vous en connaissez beaucoup des cas comme ceux la où le dit destructeur d’e-reputation est un anonyme noyé dans la masse du web ? Vous connaissez beaucoup d’entreprises qui ont vu leur situation ruinées par un gamin teigneux de 16 ans qui n’est pas content de son téléphone ou de son antivol?
Le cas Kit Kat VS Greenpeace pour ne citer que lui : si ceux qui ont reçu le courrier d’avertissement de Greenpeace avaient été moins bêtes, si le community manager qui gérait la page Facebook n’avait pas été un stagiaire, on ne serait pas à se gargariser dans les conférences en parlant d’ “issue management” ou d’e-reputation… nous aussi on mangerait nos Kit Kats gentiment !
Donc dans le cadre de mes projets j’ai essayé de construire une grille de cotation des risques pour un billet publié sur le Web et mentionnant en mal la dite entreprise.
Je n’ai pas dit que c’était la grille de qualification du siècle, passe partout et magique mais je vous la soumets. Par ailleurs elle est adaptée à mon client qui n’était pas apeuré par le fait de renseigner plusieurs critères car il a une volumétrie d’articles négatifs assez faible. C’est également la version 1 de cette grille et en fonction des premières cotations qui seront effectuées, les seuils seront ajustés.
Elle repose sur plusieurs critères individuels qui permettent d’obtenir une note globale. Et en fonction de la note globale de criticité on peut rentrer dans des procédures de traitement qui sont différentes.
Les critères sont :
On aurait pu multiplier les critères et il y en a d’autres… J’aurais pu également vous dire que si c’est un “expert” qui parle c’est plus dangereux mais j’avais dans le cas présent besoin d’une grille opérationnelle la plus objective possible.
Donc voilà le travail (et je le rappelle c’est un travail qui a été fait spécifiquement pour le projet sur lequel je travaille actuellement.) :
Les cases rouges représentent un seuil de criticité assez élevé pour que la menace soit prise immédiatement au sérieux. En dehors de ces cases rouges, tous les points de chaque critère s’additionnent et le score total détermine le seuil de criticité de la publication selon la grille de correspondance ci-après.
Les seuils de cette grille de correspondance ne sont pas figés, ils sont à adapter en fonction des besoins et en fonction des moyens à disposition de l’entreprise pour gérer sa réputation en ligne.
Voilà, pour ceux que ça intéresse de pouvoir prendre un peu de recul sur les billets publiés et sur leur impact potentiel, peut être que cela vous sera utile. En ce qui me concerne j’évite d’abuser des “bouh qu’il est méchant ce billet… Vous avez pas de chance mon bon Monsieur mais là si vous ne faites rien vous allez mettre la clé sous la porte.” J’essaie toujours de juger le plus froidement possible, de la façon la plus détachée possible ce qui est publié.
Dernier point pour ceux qui voudraient catégoriser d’autres sources en peu en masse pour avoir d’autres critères quantitatifs sur les pages et / ou sites, vous pouvez toujours recourir au petit script qu’a développé Sindup voire même vous servir directement de leur plateforme pour cela.
Publicité
Critères de dangerosité et e-reputation – http://tinyurl.com/2absstm (by @actulligence)
Je trouve que tu attribues une note assez élevée aux forums, qu’ils soient généralistes ou spécialisés. Ce ne sont pourtant pas les sources les plus visibles sur le net.
Tout le reste est très juste, arrêtons la diabolisation de l’e-reputation.
RT @GautierBarbe: Critères de dangerosité et e-reputation – http://tinyurl.com/2absstm (by @actulligence)
Hello Gautier,
Tout à fait d’accord avec toi, dans ce cas la note forum est élevée. Comme je l’ai dit c’est tiré d’un cas client… qui suit plus particulièrement les forums. Par ailleurs dans son secteur d’activités c’est un lieu d’expression plus critique que les autres.
Mais par ailleurs, si le foum est invisible avec un PR trés faible son importance sera pondérée à la baisse par le PageRank entre autre. Après l’on peut jouer selon ses besoins sur les seuils en fonction des niveaux. Ici le forum donne un score de 7 ce qui représente moins de la moitié de la note “importante”.
En tout cas merci pour ton retour 🙂 Et globalement je suis d’accord avec toi : à part certains forum trés visibles et sensibles type lesarnaques.com par exemple ou doctissimo sur certains secteurs, cela reste une source un peu marginale pour l’internaute lambda.
Par ailleurs dans cette grille on pourrait aussi tout à fait imaginer des bonus par site spécifique en rajoutant une colonne par exemple mettre un bonus +2 si le post est sur lesarnaques.com ou +3 sur ciao.fr.
Comme je l’ai dit, cette grille de départ qui me semble intéressante reste à personnaliser en fonction des spécificités de chaque client.
Amitiés (du Sud) ! 🙂
Bonjour,
Je vais réagir dans le désordre.
Sur la diabolisation de l’e-réputation, il convient de garder à l’esprit qu’elle fait les choux gras de certaines entreprises (pas de noms !!!) qui surfe sur la peur suscitée auprès de leurs clients pour vendre la refonte du site Web, le blog d’entreprise, l’appli Facebook, etc. Cela pourrait, d’ailleurs, être un conseil à donner aux entreprises : méfiez vous des vendeurs qui essaient systématiquement de vous faire peur. La peur est parfois mauvaise conseillère…Certains acteurs n’hésitent d’ailleurs pas à le dire : http://www.marketing-professionnel.fr/outil-marketing/e-reputation-gestion-discours.html ou http://emploicharente.blogspot.com/2010/03/y-en-marre-de-le-reputation.html
Face à cela, l’idée d’établir un ranking destiné à mesurer l’impact d’un message négatif sur la réputation d’une entreprise ou d’une marque permet une évaluation plus précise du risque encouru, condition nécessaire pour aller de l’avant en assurant ses arrières.
Maintenant, une question me traverse l’esprit : y aurait-il confusion dans l’esprit des profanes entre veille de réputation et veille d’opinion ? Le billet publié par Camille/Kamablog (http://www.veilledopinion.fr/index.php/?post/veille-de-e-reputation-et-veille-d-opinion) me paraît intéressant en ce sens qu’il dissocie les deux notions. Vu sous cet éclairage, ta grille d’évaluation des risques concernerait davantage l’e-réputation de ton client. Ce qui signifierait qu’un message négatif évalué, disons à 3, n’aurait pas d’impact sur la réputation, mais serait signifiant dans une démarche de veille d’opinion.
J’en conviens, la nuance est fine, mais elle ouvre des pistes de réflexion…
Hello,
tu ne parles pas des Inlinks, (je ne suis pas sur qu’ils rentrent dans le page rank), mais ne peuvent ils pas constituer aussi un critère complémentaire du page Rank?
merci pour cette grille en tout cas
Antoine
Hello Antoine ! 🙂 Merci pour le commentaire. En fait le page rank se calcule en grande partie en fonction des inbound links et du PR de ces mêmes liens. Rentrer un critère inbound links complémentaire c’était donc dupliquer et donc surpondérer un même indicateur.
Par contre l’indicateur que j’e n’ai pas c’est un l’indicateur de positionnement Google : on prend le nom de la marque, on fait la requête et on accorde des points en fonction du classement du résultat sur la première page de Google (10 pour la première, 9 pour la seconde, …)
Ici toutefois je ne l’ai pas fait mais c’est un indicateur intéressant à rajouter car c’est ce que voient les internautes.
Si je devais rajouter un seul indicateur en plus ce serait celui là (mais ici je ne l’ai pas fait et je répète c’est un choix par rapport au client…)
C’est quand qu’on se fait ce Skype sinon ? J’ai récupéré mon Internet.
Amitiés
Intéressant comme méthodologie. C’est la première fois que j’entends la phrase “diabolisation de l’e-réputation” mais elle me convient parce que je pense que souvent les internautes ne cherchent pas forcément à nuire à la e-réputation d’une marque, ils ont seulement envie de se faire remarquer. Ce matin, par exemple, j’ai vu plusieurs tweets sur “la réponse de Dove aux vidéos Old Spice”, sauf que ce n’est pas du tout Dove qui a fait la vidéo. C’est un video bloggeur qui a mis “cc @Dove” dans son message pour essayer d’attirer leur attention.
Après, pourquoi ne pas inclure l’audience du site? Ca pourrait répondre à la question de Gautier, peut-être, parce qu’il y a des forums avec une très forte audience et des blogs avec moins de lecteurs..
Toujours un plaisir, Frédéric 🙂
Hello Michelle,
Merci pour ton retour.
Quelques éléments de réponse :
1) nous avons eu un débat animé avec Camille à ce sujet. Et oui Twitter rend les gens un peu cons. Je retweete de mon téléphone portable sans même consulter le lien sous-jacent. Finalement on oublie d’apprendre à lire, on clique plus vite que son ombre et les professionnels de l’information que nous sommes sensés êtes nous transformons en noobs.
2) Je n’ai pas inclus l’audience tout simplement car cette données n’est pas accessible. Et souvent quand elle est accessible elle est diffusée par les régies pubs qui veulent vendre de l’espace et donc peu fiables. Elle est aussi disponible pour le panel Nielsen par exemple des très gros sites… Mais là la question ne se posent même pas. C’est Warning direct pour les sites qui font partie de ce top 100. Après si tu as une source pour l’audience des sites alors là je suis vraiment preneur car je pense que ça résoudrait le problème de la quadrature du cercle pour nous autres qui travaillons dans l’e-reputation.
Amitiés.
J’allais répondre la même chose que Fred, l’audience est un bon critère mais elle est tout simplement inaccessible. Deux sites sortent quand même du lot : http://www.sitereport.org et http://www.statbrain.com
Exemple pour Actulligence : 388 visites/j pour Statbrain, 1141 visites/j pour Sitereport. Qui croire ? Si la fiabilité n’est pas au rendez-vous, autant ne pas utiliser le critère.
Hello Gautier,
Bon comme cela de but en blanc je serais tenté de croire Statbrain ! 😉
Bon plus sérieusement les statistiques d’un site web ne sont pas publiques. Point barre. Ca sert à rien de tergiverser. Je n’ai même aucune idée d’où ces sites là peuvent tirer ces statistiques et sur quoi ils reposent : en tout cas rien de fiable. La seule façon d’avoir des stats fiables et d’avoir accès aux statistiques du serveur ou alors au back office de la solution de stats type marqueur (Google Analytics pour ne pas le nommer)… Or sauf exception et accord spécifique, ces sites là n’y ont pas accès, et Alexa non plus par exemple.
Par ailleurs si sur certains sites très grands publics on peut à la limite faire des extrapolations (par exemple Alexa se base sur des trends de données collectés à partir de son application que certains internautes installent) ça ne peut être je pense de sites de positionnement de niche (combien de veilleurs ont la barrre Alexa…).
Seuls certains sites comme je le disais font partie d’un panel ou transmettent des stats (plus ou moins) exactes sur leur audience. Eventuellement depuis plusieurs mois Google propose également de rendre les statistiques de votre site publiques (mais voilà… Ca reste rare…)
Oui, disposer de l’audience d’un site pour mesurer le risque c’est le mieux…
Non, la donnée n’existe pas sauf marginalement et sur des sites de toute façon dont on sait que l’audience est forte et donc le risque est élevé.
Par ailleurs la donnée stat d’un site ne suffit plus. Dans mon cas par exemple c’est le flux RSS qui génère le plus de lecture car mon flux n’est pas tronqué….
Donc Michelle, si toi tu as un truc pour connaître l’audience d’un site je suis vraiment preneur. 🙂
Je ne suis pas tout à fait d’accord avec vous si vous permettez sur le peu d’intérêt des stats “publiques”.
Alexa et Google donnent des statistiques intéressantes car en la matière, cela peut fonctionner comme une balance erronée.
Elle indique peut-être un poids erroné mais l’on pourra toujours l’utiliser, en mode relatif pour savoir si l’on a maigri ou grossi.
De plus, si 3 personnes se pèsent sur cette même balance, il est possible de savoir laquelle est la plus grosse ou la moins lourde.
D’un mois sur l’autre, on peut suivre les évolutions de sa prise ou perte de poids.
De plus, avec un échantillon statistique qui tend le plus vers le 1, on s’approche de plus en plus de la vérité.
Sans compter les croisements thématiques qui donnent des informations intéressantes sur les informations standards du secteur, tant en terme de pages vues ou de temps passé.
N’oublions pas qu’un nombre important de commandes en terme de veille, de reputation en ligne, est donné par des clients qui s’intéressent à leurs concurrents. Qui veulent donc une analyse comparée. Ici aussi, la marge d’erreur est la même pour tous.
Ne rêvons pas. Les webmasters officiels de certains sites ne donneront jamais leurs chiffres. Mais pouvoir les approcher représente quand même un véritable intérêt pour qui s’intéresse à l’influence des sites et des messages qui y sont colportés.
Bien à vous
Critères de dangerosité et e-reputation — http://bit.ly/ctboJm
Critères de dangerosité et e-reputation http://bit.ly/ctboJm Bonne approche !
RT @CaddeReputation: Critères de dangerosité et e-reputation http://bit.ly/ctboJm Bonne approche !
Merci Frédéric pour cette approche!
Et puis merci :
– de préciser que cela s’adresse à un cas particulier
– de dire que le cas KitKat est proportionnel à la marque, et que ce n’est pas une généralité…
Pour l’audience du site, personnellement, j’en vois moins l’intérêt que l’audience du billet/article en question : un site peut faire 4000 visites/jours, et seulement 50 sur un billet qui intéresse une organisation.
De plus, l’audience d’un site m’a toujours parue inutile : pour les connaisseurs de Google Analytics (ou Xiti ou autre) on s’aperçoit très vite qu’une partie non négligeable des visiteurs reste peut de temps sur une page. Il faudrait alors pondérer avec un ratio du type : temps de lecture nécessaire de l’article*nombre de visite de plus de Xmn… Bref, impossible depuis l’extérieur !
Sans oublier (comme tu le dis à Michelle) ce que “j’appelle” le “web des corps gras” : lire les caractères soulignés et les titres au lieu de lire l’article et de fouiller, etc.
Enfin, travaillant sur le même type de grille, ne serait-il pas intéressant d’entrer un critère de réciprocité : est-ce que telle source est reliée à telle autre ?
Car au final, n’est-ce pas le partage d’infos qui caractérise le mieux le web dit 2.0 ?
En tout cas, peu d’agences doivent fouiller autant pour mettre en place ce type de grille qui n’est pas que de la poudre aux yeux commerciale (enfin, là je la test pour de vrai, je te irais ensuite 🙂 😉
Salut Camille,
Merci pour ton retour, en espérant que tu vas bien;
Pour la pondération par le temps…A voir. Ca dépend du site je pense, de l’information que tu cherches à faire passer, s’il y a besoin de temps ou pas… et de toute façon, la donnée n’étant pas disponible je ne me pose même pas la question. Les seuls stats que je regarde sont celles de mon site Web… et j’attaque beaucoup plus d’importance finalement au qualitatif. Par exemple un billet comme celui là, qui génère des échanges de valeur et une bonne visibilité.
Pour la réciprocité personnellement ce n’est pas un critère sur lequel je travaillerais. Certains sites sont influenceurs : ils créent, sont repris… Là où ça devient dangereux c’est lorsque le gars d’une communauté active, influenceur, en contact avec d’autres influenceurs écrit un billet argumenté, réfléchi, calme et trés négatif sur ton entreprise… Là effectivement les interations au départ de l’émission du message me semblent dangereuses.
On constate toutefois quelques choses sur le web qui est très très difficile à modéliser. Le web n’est pas une “toile” homogène. Ce sont des grappes de sites reliées par des passerelles. Les personnes dangereuses sont celles qui touchent directement plusieurs de ces grappes et qui ont un réseau à distance 1 touchant plusieurs de ces grappes. Si le message de départ reste très localisé dans une de ces grappes il ne se propagera pas.
Enfin voilà, la grille que j’ai construit c’était justement l’occasion d’essayer de m’appuyer sur des critères pas trop abstraits tels que ceux que j’évoque. Le au delà d’un certain seuil implique justement que l’on touche plusieurs de ces grappes ou que l’on est dans une grappe de taille importante et bien positionné : high tech, automobile, …
Merci donc pour le retour et pour les compliments 🙂
♺ @CaddeReputation: Critères de dangerosité et e-reputation http://bit.ly/ctboJm Bonne approche !
RT @referencement: RT @CaddeReputation Critères de dangerosité et e-reputation http://bit.ly/ctboJm
Très juste Camille, les liens reliant les sites aux autres et leurs poids respectifs sont un aspect très important, aussi.
Pour les statistiques de l’audience, c’est notre outil qui le fait en combinaison avec des statistiques payants, mais sinon j’ai découvert qu’il y a des solutions anglophones, type quantcast.com, mais je ne vois pas autant de solutions francophones.. désolée!
Mais je suis d’accord que c’est une très bonne initiative
OK, ben Quantcast fournit pour 99 % de sa base que des estimations de trafics plus ou moins bidons selon une méthode de calcul totalement invisible et le tout principalement pour le monde de la comme t de l’espace pub. Les sites mesurés en direct le sont ave leur accord et là encore quand j’ai regardé la façon dont c’est calculé ça laisse rêveur…. “This is the estimated number of human-requested pages, based on the raw event count corrected for multi-events
and robots.” Hum que du bon et que du fiable donc…
Mais je suis preneur si votre outil a la formule magique de calcul de trafic… Vraiment preneur.
Maintenant question pour toi et pour Camille : comment vous calculez la réciprocité et extrayez la data mécaniquement parlant ? parce que l’on peut bien se baser sur de la requêtes Yahoo inbound links, les lister et voir où il y a des matchs entre sites… mais bon faut de l’outillage quand même. Moi petit consultant indépendant j’ai pas donc je fais avec mes moyens. Après effectivement pour un éditeur logiciel le critère est accessible.
Par contre petite piquouse de rappel sur le PR car le PR c’est exactement cela : “les liens reliant les sites aux autres et leurs poids respectifs” ( PR(A) = (1-d) + d (PR(T1)/C(T1) + … + PR(Tn)/C(Tn)) ) L’algorithme de calcul initial [ http://infolab.stanford.edu/pub/papers/google.pdf%5Dpublié Sergei et Larry est sans équivoque et bien qu’il y ait eu des évolutions [TrsutRank et complexification de l’algorithme], le coeur du calcul du PR n’a pas disparu de l’algo actuel.
wahou que de concepts, que de débat ici !!
Je rajoute mon petit comm pour dire que c ‘est une super initiative de représentation des “dangers”. le tableau permet de rationaliser les dangers, les mettre en perspective et de rassurer le client. ca me plait beaucoup. Merci de nous le faire partager.
(Je remarque l’absence de groupe ou fanpage FB dans la colonne type de source, c ‘est voulu ou j’ai pas suivi? :-))
J’ai envie de souligner aussi que toutes les marques sont uniques et ont des environnements, des communautés, des lieux d’expressions et des actualités uniques. Il faudrait faire ca pour chaque client !
A mon avis, le poids des forums de discussion est bien réel: ils n’ont que très peu de visibilité sur Google et auprès du grand public, mais tellement de poids pour la communauté ! Ils sont donc un espace de grand danger pour la marque.
ps: j’ai l’impression que les sources françaises n’atteignent jamais un pagerank plus élevé que 5 ou 6 (tu dois donc travailler pour un big big international, so chic!)
Hello Camille,
Cool ! Merci 🙂 Je vais finir par croire que j’ai enfin écrit un truc intéressant.
Pour les pages Facebook, la c’est vraiment par rapport au client. Pour l’instant de son côté tout est vierge (et on croise les doigt pour que ça le reste….) Donc par contre cela peut être vraiment intéressant à mettre quelque part pour d’autres cas.
Pour les sources françaises : Lemonde.fr : PR 8; Libe.fr : 7; …
Yen a d’autres mais bon là en tête j’ai pas, faudrait que je fasse des vérifs plus poussées. Du coup ça a un sens car tu vois que sur un PR 7 + journal tu montes très vite en score côté warning.
PS : chez Actulligence, tous les clients sont des clients so chic ! 🙂 What else ?
PS 2 : ben alors il vient cet article sur Actulligence ? on attend plus que toi! 😉
sinon oui ca me fait marrer, e-reput par ci e-reput par là…. bon dieu !
Salut Frédéric,
Pour les sites de mesure d’audience, j’en vois deux intéressants, bien sûr, ce type d’outils est à utiliser avec précaution (peu de transparence en terme de méthodologie de mesure d’audience):
-Google planner : encore peu connu mais avec de l’avenir, grâce à la puissance de sa base de données, google sait tout et voit tout -)
-Le célèbre Compete (panel lui aussi)
J’ai pu effectuer des tests sur des sites dont je connaissais le trafic réel et la marge d’erreur a été de 10/15% en moyenne ce qui me parait résonnable pour avoir un ordre d’idée.
Quantcast, statbrain qui ont été cités plus haut ne sont pas encore très efficaces selon moi. En effet, pour les sites moyens PR 3 à 7, ils n’e parviennent pas à donner des résultats et affichent un message du genre: “pas de données suffisantes pour ce site”.
Pour les linkin (liens entrants), même si le PR de Google les prend en compte, ils ont intéressants à utiliser dans une catégorie à part ne serait ce que pour avoir une idée de la visibilité du site/blog en question. Mais c’est mon humble avis.
Il ne faut pas oublier que les lectures d’articles/posts sur le web grâce à des liens provenant d’autres sites sont plus importantes que les lectures sur la sources originale (le site ou le blog).
Je m’explique, selon moi c’est du 30% (lecture de l’article via le site lui même) / 70 % (par diffusion c’est à dire lecture de l’article via un lien laissé sur un autre site).
Mehdi.
Je confirme pour les sites de presse pr7, c est extrême difficile a nettoyer, que ça soit par demande d’ avocat comme par seo ( comptez 6 mois pour le passer en page 2.
Concernant les forum d’ arnaque, tu fais erreur sur le pr, je pense que tu songes à les arnaques.com qui n’est que pr4.
Après il ya droit.commentcamarche.com qui est quelque fois problématique, mais de nettoie quand même. 😉
Je donne deux exemples pour appuyer mes dires concernant Quantcast:
oseo.fr (PR7): “site no quantified”
axa.fr (PR6): “site non quantifed”
Je ne parle pas des sites sous un PR3…
Deux exemples pris parce qu’ils me passaient par la tête. Quantcast est précis quand il veut bien donner des résultats, mais la plupart du temps justement, il ne donne pas de résultats!
Allez a+
Billet très intéressant sur les outils et les méthodologies en matière de veille. Bravo.
Votre démarche me fait d’ailleurs penser à nos premières démarches en matière de sécurité IP, notamment dès les années 95 à 98, avec le développement du web en France.
Puisque j’ai eu la chance de développer une société dans ce domaine dès le début des années 95.
Premier point commun : L’anecdote du petit gamin qui faisait peur aux plus grands : l’histoire du gamin de 11 ans qui avait craqué la NASA (le PENTAGONE, le DOD, c’était selon, et chacun pouvait y aller de sa connaissance d’un agent de la DST locale pour l’équivalent en France, qui lui avait dit que …). Tout cela pour vendre un Firewall, petite bête à tout faire et qui vous protégeait de tous les risques. (Même de la mauvaise e-reputation puisqu’à l’époque, on craquait les home-pages des sites web des grandes marques pour faire passer des messages subversifs).
L’analyse en amont, c’était soit un truc qui ne servait à rien (du côté des vendeurs de matériels), soit au contraire un truc super-important qui faisait qu’on devait contrôler le caser judiciaire du personnel et que l’on allait suivre dans la rue les syndicalistes de l’entreprise sur laquelle portait l’installation du Firewall (j’exagère à peine).
Pensez donc, on avait des études qui démontraient que 80% des attaques étaient de l’interne.
En 2 mots, ridicule car exagéré dans les 2 cas.
Second point commun : L’offre et les vendeurs de tous bords qui venaient au web, et à la Sécurité des Systèmes d’Information (peut-être parce que les jeans se vendaient mal) et qui sortaient leur méthodologie révolutionnaire, leurs outils spécifiques, leur positionnement pure-player. Je vous passe les anglicismes bon teint qui ont amené à la crise de l’Internet dès 2001. Chaque jour, un expert, un légitime, un leader, un spécialiste reconnu avec sa cohorte de mots anglais …
Troisième point commun. Le plus intéressant, car il démontre à lui seul que l’activité est nouvelle (et peut-être en croissance), le besoin des experts de débattre, de se confondre, d’en rajouter, de disqualifier.
A l’époque, tout se faisait par site et par mailing liste.
Les blogs n’existaient pas et les forums étaient trop spécialistes. Aujourd’hui, il y a votre blog. D’ailleurs très bien fait. Et l’on sent cette envie d’en découdre sous des mots feutrés (on est entre expert/spécialiste/bloggeur influent – biffer la mention inutile ; ne l’oublions pas).
Notre social scoring ne doit pas en souffrir.
Quatrième point commun: Le goût déclaré de certains pour casser les grands acteurs majeurs uniquement parce qu’ils étaient connus de tout le monde.
Selon l’équation toute simple : “Si c’est connu de tout le monde, et que je suis un spécialiste, alors je ne peux en dire du bien”.
A l’époque, il fallait critiquer Oléane (anciennement FT, Orange) et aller mettre en avant des FAI pointus (c’est à dire n’ayant que quelques POP dans quelques villes).
Aujourd’hui, on critique Google et on surtout on évite de l’intégrer dans un plan de veille de spécialiste. Selon l’adage qui veut que : « Plus l’éditeur sera petit, plus son produit sera pointu et plus je gagnerai mes galons de spécialiste ».
On critique son moteur d’alerte et tous les outils. Pourtant Google AD Planner vous donne les estimations de tous les sites qui parlent de votre sujet, ce qui est plutôt intéressant pour savoir si un site a de l’impact ou non, vous ne croyez pas ???
D’ailleurs Alexa le faisait mais a, semble-t-il, retiré cette info depuis peu (mais je revérifierai).
L’avantage à cela, c’est l’argument ultime : « Tu parles, je n’utilise pas de produit du marché, ils sont trop nuls. J’ai mon propre service de R&D qui a développé un méta-moteur de la blogosphère sécurisé, crawlant toutes les sources mondiales et exhaustives du web visible et invisible, que même qu’on détecte les signaux faibles avant qu’ils ne soient écrits sur Internet ».
Cinquième point (j’aurais dû démarrer par celui-ci), la formalisation par des matrices, des tableaux d’un certain nombre de points à coter, pouvant aboutir à un tableau de bord décisionnel, permettant de voir ce qui relève du principal ou de l’accessoire.
Dès 1998, sous l’égide du CLUSIR dont je faisais partie (Club de la Sécurité Informatique Lyonnais- Commission Internet), nous avions mis au point une méthode de cotation avec matrice pour analyser les risques portant sur les systèmes d’information ouverts (IP).
Il est vrai que nous nous inspirions alors de MARION, RESSIF, et autres méthodes de sécurité basées sur l’analyse de critères et la notation de ces derniers. La somme donnant alors le niveau de risque ou de menace.
En ce sens, votre tableau est intéressant, même s’il en résulte que les grands média ou les gros forums de consommateurs sont toujours prépondérants par rapport à la longue traîne que l’on met en exergue pour vendre de la e-reputation à tout prix (voir mon point 1). En aurait-on encore douté ?
Ce tableau a le mérite d’exister, de démarrer une démarche analytique et intelligente.
Je pense qu’il y a d’autres points communs entre le marché de la veille/e-reputation et le marché de la Sécurité des Systèmes d’Information et notamment qu’ils évolueront de la même façon (comme l’hébergement, le conseil en e-marketing, le référencement, …)
Mais là dessus, je ferai un autre papier car il s’agira « d’économic-fiction ».
Ce qui sera écrit n’engageant d’ailleurs que moi.
Bien cordialement.
Hervé BIGAL
hb (AAT) belink-interactive.com