jeudi 5 septembre 2013

Avant la big data si on regardait la small data et les signaux faibles ?

Je vois beaucoup passer d’infos ou presque-infos sur la big data, surtout en rapport avec les médias sociaux, le web, le digital. J’ai eu à expliquer (ou tenter d’expliquer) qu’il fallait dans ce cas précis y mettre des yeux humains pour y découvrir des signaux humains et non mathématiques.
Je laisse le buzz continuer sur la big data, persuadé qu’en interconnectant plusieurs systèmes cela pourrait donner de jolis graphes de mots clés et peut-être prédire quelque chose (à qui), si seulement les personnes des systèmes pouvaient se parler et d’autres regarder les mots utilisés ou les conversations qui ont suivi et qui sont autour des mots clés. Et puis trouver les bons mots clés ce n’est pas évident.
Sur le web et les réseaux sociaux, l’expression ou la viralité sont spontanés, on peut un peu provoquer, mais au quotidien il s’agit bien d’une action volontaire d’un individu d’écrire et partager. Et tout le monde ne fait pas cet effort, ce n’est pas automatique, loin de là. Mais oui c’est big comme botte de foin à fouiller. De bons outils existent pour ratisser mais il faudra du temps homme pour trouver les noms des aiguilles à chercher et voir comment on en parle et qui en parle, voir même parler à ceux qui en parlent ou observer des conversations pour savoir ce que ça veut dire quand le sujet est complexe. La big data c’est plein de small data avec plus ou moins de volume selon les sujets (ce qui peut être décevant).
Mais je m’éloigne de la small data éparpillée :
De mon point de vue il y a donc avant tout de la small data à traiter, ces flux d’infos, d’avis, suggestions qui arrivent à différents endroits (le éparpillé) et qui interconnectés par des humains donnent des visions à 360°. Ces datas permettent d’identifier les signaux faibles et leurs répétitivité, moins nombreux on peut passer plus de temps sur le ton employé, les suites, les causes, les alternatives. Un signal faible c’est avant qu’ils ne deviennent forts ou tout simplement la cause ou la résultante d’autres effets, mais aussi tout simplement parce que tout le monde ne donne pas toutes ses infos et ne donne pas son avis sur tout. Je pense aussi et surtout à toutes ces datas qui gravitent autour d’une entreprise et qui sont disséminées dans différents systèmes hétérogènes:  Stats, clics, emails, infos d’un jeu, commentaires, articles.
Prenons une petite entreprise ecommerce qui a un site web, un blog, une page facebook et un compte twitter. Si elle organise un concours pour fêter son anniversaire sur son site (un formulaire, tirage au sort simple), et quelle en parle sur son blog, facebook et twitter + une newsletter à ses clients avec un code réduction avantage et une autre à ses prospects cela fait déjà un nombre assez élevé de systèmes mis en route, d’analytics à compiler et potentiellement de retours qualitatifs (commentaires, emails, likes, favoris, retweets etc) tout pour ça pour une small data qui pourrait être big à l’échelle de l’entreprise/service. Tout ceci sans savoir qui est qui la plupart du temps. Ni si elle livre dans les temps des produits qui font plaisir à ses clients ou pas. Si l’entreprise repose sur 2 ou 3 personnes il est possible qu’en une réunion autour d’un café la small data soit analysée en un coup, mais réutilisée ?
Je suis persuadé que bien traitée (volontairement avec un axe qualité), la small data permet même de démarrer un dialogue constructif pour une entreprise avec ses parties prenantes et notamment les clients.
nb : comme j’ai du mal à traduire big data, je ne fais pas d’effort sur le terme small data, mais on se comprend, ce sont tous ces fichiers/stats/avis éparpillés et que seuls des humains peuvent synthétiser.

Aucun commentaire:

Enregistrer un commentaire

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.