« Big Data » : la quatrième révolution industrielle ? – 2/3

« Big Data » : la quatrième révolution industrielle ? – 2/3

Analyse et restitution simplifiées démocratisent les « Big Data » : les techniques de visualisation, les techniques de Data Mining, les outils « bac à sable », la prolifération des sources de données accessibles …

Analyse et restitution simplifiées démocratisent les « Big Data »

La technologie ayant évolué pour permettre la gestion des « Big Data », encore fallait-il que les techniques d’exploitation évoluent également. Sur ce plan, les avancées sont également significatives :

  • Les techniques de visualisation : nous en avons déjà parlé lors d’un précédent billet sur ce blog. De nouvelles formes de visualisation émergent qui facilitent l’appréhension de « Big Data ». Récemment par exemple, IBM a récemment ouvert un site, « many eyes » permettant de charger des jeux de données conséquents pour en tirer des visualisations dont certaines sont assez innovantes.
  • Les techniques de Data Mining : les techniques traditionnelles du Data Mining se sont raffinées, que ce soit l’A/B/N testing, les associations, les classifications, le clustering, les réseaux neuronaux, les algorithmes génétiques ou les prévisions temporelles. A celles-ci se sont ajoutées des techniques nouvelles comme le crowdsourcing (remontées via les réseaux sociaux de données ou d’informations suite à un appel à contribution), l’analyse de sentiments (recherche des opinions à partir de l’analyse textuelle) ou l’analyse de réseaux (techniques permettant d’identifier des leaders d’opinion et leur pouvoir de prescription dans des réseaux sociaux en particulier).
  • Les outils « bac à sable » : il s’agit là probablement de l’évolution la plus importante qui consiste à rapprocher les outils de gestion des données et d’analyse des utilisateurs avertis par opposition aux experts, qu’ils soient informaticiens ou statisticiens. Des outils comme QlickView, PowerPivot ou Tableau facilitent grandement pour tout un chacun l’élaboration de tableaux de bord et la navigation dans les différentes dimensions des données. Dans un autre registre, les outils de Data Mining tels que SPSS, SAS ou Kxen se sont démocratisés et surtout simplifiés pour permettre à des non-experts de réaliser certaines analyses simples. Des startups se lancent d’ailleurs dans cette course à la démocratisation comme Datameer qui permet entre autre d’attaquer des données Hadoop depuis une interface comparable à Excel.
  • La prolifération des sources de données accessibles : la valeur des « Big Data » passe en particulier par des croisements entre sources de données diverses. Dans ce domaine, une tendance lourde est à la mise en ligne d’informations gratuites ou payantes toujours plus nombreuses et faciles à intégrer. On peut citer par exemple Azure Datamarket de Microsoft, Google public datatexplore ou l’administration anglaise qui centralise sur http://data.gov.uk/ toutes les données qu’elles exposent au public. L’administration française se lance également avec data.gouv.fr.

En résumé, toutes ces évolutions tendent à simplifier donc à démocratiser l’accès et l’analyse des gros volumes de données.

« Big Data » : pourquoi faire ?

Les leviers de création de valeur à partir de la donnée

Nous sommes donc aujourd’hui dans la situation où le volume de données exploitables explose tandis que les technologies de stockage et de traitement ainsi que les techniques d’analyse se démocratisent. Si les possibilités sont donc avérées, quels sont les leviers de création de valeur à partir des « Big Data » :

L’innovation : de nouveaux business modèles qui reposent sur le traitement de ces masses de données émergent. Le marché du web analytics pèse déjà plusieurs milliards d’euros sur des outils et des services qui collectent toutes les informations de navigation sur un site web pour en synthétiser des analyses de performance et des recommandations d’amélioration de l’expérience utilisateur. Les détecteurs de radars ou de « zones dangereuses » basés sur les contributions d’une communauté sont un autre exemple de nouveaux business model.

La personnalisation : l’exploitation des données d’usage d’un produit connecté ou d’un site web, croisées avec d’autres données, par exemple de socio-démographie ou d’historique des usages permet de comprendre et d’adapter le produit ou le site à l’utilisateur. Imaginez, et ce n’est pas de la science-fiction puisque les constructeurs le proposent, une voiture dotée d’une clé électronique qui stocke votre style de conduite et vos réglages (sièges, téléphonie, infotainment,…) et reprend ces paramètres lorsque vous changez de véhicule, contribuant ainsi à vous fidéliser à la marque.

L’automatisation des décisions : sous réserve du respect de la vie privée, l’analyse des flux de transactions, que ce soit des écritures bancaires, des remboursements de soins ou le paiement d’indemnités, permet aujourd’hui de détecter en temps réel des point aberrants et dans certains cas, en particulier dans le domaine de la fraude bancaire, de déclencher automatiquement des décisions telles que le blocage d’une carte de crédit.

La simulation : la simulation était un outil utilisé pour la conception industrielle. Les « Big Data » permettent aujourd’hui d’envisager d’autres domaines d’application. Par exemple, la géolocalisation en magasin ou la reconnaissance de visage dans les vidéos permettent à un distributeur d’analyser les parcours client ainsi que le temps passé dans chaque rayon, informations sur lesquelles il peut simuler différentes options de merchandising. Dans le domaine de la santé, la codification des actes et le dossier médical personnel ouvre la porte à des analyses poussées des meilleures combinaisons de traitement sans pour autant nécessiter la mise en place de protocoles longs et coûteux de test en grandeur réelle.

Les secteurs les plus exposés

Les secteurs se distinguent avant tout dans leur propension à générer des volumes de données conséquents. A ce titre, les grands gagnants sont les médias, l’électronique grand public, les services financiers et les administrations. Dans le second peloton, nous retrouvons la distribution, le tourisme et le transport, les utilities et les acteurs du système de santé.

Le second critère segmentant est la capacité d’un secteur à exploiter les « Big Data », que ce soit pour des raisons culturelles, réglementaires ou de compétences. Ainsi, les services financiers devancent l’électronique grand public et encore plus les administrations dans leur capacité à exploiter la donnée. Dans le second groupe, la distribution, le tourisme et le transport tiennent la tête laissant loin derrière les utilities et le secteur de la santé.

Les principaux domaines d’application

Les domaines d’application peuvent être regroupés en 6 grandes catégories. Leur importance relative variera évidemment d’un secteur à l’autre :

  1. Le développement de nouveaux produits : la collecte et l’exploitation d’informations des produits connectés ou des comportements des consommateurs permet d’accélérer le développement de nouveaux produits et de les adapter au plus près des attentes et des usages.
  2. La détection de fraude : les techniques de traitement du signal, de prévisions temporelles et d’analyse des séries facilitent la détection de points aberrants qui peuvent dans certains cas présager d’une fraude, que ce soit dans le domaine bancaire, de la distribution ou de l’administration.
  3. L’optimisation des processus : l’analyse des données des capteurs de production croisées avec les indicateurs de qualité en aval permet d’identifier les méthodes de production ou les paramétrages maximisant la qualité du procédé.
  4. Le marketing : l’analyse des comportements permet d’élaborer des micro-segmentations et des scores d’appétence ou de churn qui sont utilisés à des fins de personnalisation de la relation et des offres. C’est sans doute aujourd’hui le domaine le plus exploité parmi ceux du phénomène « Big Data ».
  5. Le merchandising : l’analyse des parcours client et de leur comportement, confrontés aux offres et aux catégories, que ce soit par de la reconnaissance faciale, avec des caddies connectés ou par de la géolocalisation NFC forment un gisement de données dont l’analyse met en évidence des organisations de linéaires ou de pages web optimisées.
  6. La gestion des approvisionnements : les prévisions temporelles des ventes, croisées avec les données de stock permettent de calculer précisément les besoins en réapprovisionnement et d’en optimiser la logistique notamment par la programmation sous contrainte.

A lire : La première partie de « Big Data » : la quatrième révolution industrielle ?
A lire : la troisième partie de « Big Data » : la quatrième révolution industrielle ?

Ecrire un commentaire

* Name, Email, Comment are Required