La BI 2.0 : l’opportunité d’un changement culturel radical pour les entreprises – 1/3

La BI 2.0 : l’opportunité d’un changement culturel radical pour les entreprises – 1/3

« L’humanité crée tous les deux jours quelque chose comme cinq exabytes de données, à savoir des milliards de milliards de milliards… (…) soit autant d’informations qu’elle ne l’a fait entre le début de la civilisation et l’année 2003 ! ».

Si la dernière assertion reste difficilement vérifiable, cette phrase choc dont l’auteur est Eric Schmidt, le PDG de Google, n’en a pas moins le mérite de symboliser la révolution silencieuse opérant depuis quelques années et dont nous sommes tous les acteurs directs et indirects : celle des flux et des contenus générés par les utilisateurs eux-mêmes (« User Generated Content » – UGC), à travers les multiples vidéos, messages, sms et autres flux d’actualité initiés, générés et stockés par chacun.

Une masse de données interconnectées en croissance exponentielle

Ce constat rejoint celui du Directeur Général d’IBM, lors du dernier « CIO Leadership Exchange », évènement regroupant les spécialistes des Systèmes d’Information (SI), Sam Palmisano a apporté des éléments démontrant l’intense et croissante complexité des informations à traiter et à digérer par les systèmes en précisant notamment :

  • qu’à chaque habitant de la planète correspondait un milliard de transistors…
  • que 30 milliards de puces RFID étaient déjà recensées dans nos systèmes…
  • et à cela s’ajoutait l’interconnexion quasi-permanente de ces systèmes avec l’existence de plus de 2 milliards d’individus connectés à internet via de multiples appareils numériques !

Nonobstant le fait qu’additionner des milliards peut donner mal à la tête, ces chiffres mettent en exergue la double problématique suivante : non seulement les entreprises font face à une masse de données considérable et en constante augmentation mais elles doivent également le faire dans des environnements multiples et interconnectés que permettent les technologies web 2.0 (via les réseaux sociaux, wikis, blogs, rss…).

L’enjeu est devenu considérable pour les firmes puisque cette masse de données travaillée comme il faut, peut permettre d’extraire des informations extrêmement importantes et profitables pour elles.

Dans ce contexte, obtenir des informations ne suffit évidemment plus, il faut dorénavant savoir

  1. les analyser et les utiliser – c’est le rôle de la Business Intelligence (BI) : « la bonne information à la bonne personne au bon moment pour faciliter la prise de décision »
  2. dans un environnement interactif et interconnecté – c’est le web 2.0, via la constitution des sites coopératifs de type wiki, les réseaux sociaux, la publication dynamique et en continue des contenus de blogs, les flux rss…

La rencontre des deux constituant la « BI 2.0 ».

Dès lors, deux visions contradictoires sont alors envisageables.

BI et technologies 2.0 : une relation paradoxale ?

La première est de considérer que dans un monde de plus en plus riche et complexe en terme d’informations, les nouvelles technologies accentuent cette tendance en complexifiant encore plus le traitement de ces mêmes données. Ainsi, les caractéristiques des informations 2.0 que sont la « non structuration » des données brutes (mails, sms, blogs…) et leur caractère d’immédiateté proche du « temps réel » font qu’elles restent difficiles à intégrer dans un environnement décisionnel déjà lui-même soumis à de fortes tensions.

Le « système » (les infrastructures et les utilisateurs / décideurs) risque alors de ne plus savoir comment digérer ce qu’on lui donne à manger. Aussi bien en amont (richesse et complexité des systèmes sources, volume des données…) qu’en aval (analyse trop complexe des données…), les difficultés sont potentiellement réelles.

La masse de données brutes risque de dépasser les organisations qui les ont générées et celles qui veulent en extraire l’information. Ce point rejoint une des difficultés majeures de la BI, à savoir l’utilisation (in)efficace des informations : le fait d’implémenter, par exemple, un outil de reporting supplémentaire risque d’augmenter encore un peu plus la pile de rapports dans la boîte aux lettres des managers…

Dans ce contexte, on sent bien poindre les problèmes potentiels que risquent d’engendrer les technologies 2.0 : à l’augmentation massive du volume des données viennent s’ajouter non seulement une redondance potentielle beaucoup plus importante mais également une accélération croissante du rythme de diffusion de ces informations.

« La mauvaise information chasse la bonne »

Tout comme l’inflation peut être favorisée par une augmentation du volume de monnaie et par une vitesse élevée de circulation, la multiplication des données couplée à une vitesse de circulation croissante risque de faire exploser les systèmes censés en extraire la bonne information.

Une « loi de Gresham (1) » appliquée aux systèmes d’information est désormais possible : face à l’afflux massif d’informations multiples et récurrentes, les utilisateurs ne savent plus lesquelles analyser et utiliser. Les informations risquent alors d’être noyées parmi un ensemble hétérogène de données et « la mauvaise information risque de chasser la bonne »…

Si vous ajoutez le fait qu’un utilisateur de solutions BI peut se poser un nombre de questions quasiment infinie et qu’il est impossible de les prévoir toutes, les entreprises ont en leur sein un cocktail potentiellement explosif et difficilement gérable…

(1) : Au XVIè siècle, Gresham avait constaté empiriquement que, face à deux monnaies en circulation, les agents économiques thésaurisaient la bonne et n’utilisaient plus que la mauvaise : « La mauvaise monnaie chasse la bonne ».

«A suivre prochainement, la suite de BI 2.0»

Ecrire un commentaire

* Name, Email, Comment are Required