La DMP, pour une expérience client omnicanale toujours plus personnalisée 2/2

Exploiter les données CRM et digitales pour personnaliser les campagnes digitales

Elle se base sur une bibliothèque de critères de ciblages (taxonomie), que l’utilisateur peut combiner grâce à des opérateurs booléens (ET, OU, SAUF, …) pour construire ses ciblages.

Ces critères peuvent être issus de différents types de données :

  • données 1st party : données digitales et CRM propriétaires, collectées dans l’écosystème de l’annonceur,
  • données 2d party : données digitales collectés en dehors de l’écosystème de l’annonceur, dans le cadre d’un partenariat par exemple,
  • données 3rd party : données externes, fournies par des data providers (profils exploités pour faire de l’extension d’audience lors de campagnes d’acquisition notamment).

Les segments d’audience, une fois définis par l’utilisateur, sont associés à une campagne display et activés en RTB par exemple.

L’exploitation de données CRM et digitales unifiées permet d’affiner les segments d’audience et générer du ROI sur l’animation digitale. Quelques exemples :

  • dans le cadre d’une campagne d’acquisition, l’utilisateur va pouvoir optimiser le coût de l’opération en excluant de son segment d’audience les profils déjà clients,
  • dans le cadre d’une campagne de retargeting, l’utilisateur va pouvoir affiner son ciblage grâce aux données CRM qui auront été rapprochées des données digitales (exclusion de clients ayant déjà acheté le produit, ou ayant une réclamation en cours avec l’enseigne).

Exploiter les données CRM et digitales pour développer la connaissance client et personnaliser les campagnes CRM

Les données digitales et CRM réconciliées par la DMP peuvent également venir alimenter un référentiel personne unique (clients, abonnés newsletters, visiteurs web…) et/ou être stockées à des fins d’analyses, afin de développer la connaissance client.

Les indicateurs et évènements clés issus de cette connaissance peuvent être exposés aux outils d’animation CRM (gestion de campagnes traditionnelle, fiche client, …), ainsi qu’aux outils de personnalisation (recommandation produit, moteur de décision marketing, …), afin de développer la valeur client (cross/up sell, mixité canal, …). Quelques exemples :

  • automatisation d’une campagne email de rebond commercial, sur la base des données trackées sur le site par la DMP et réconciliées avec les données CRM (abandon de panier, visite d’une fiche produit, processus de souscription à la carte de fidélité interrompu…),
  • exploitation des données de géolocalisation collectées par la DMP et réconciliées avec les données CRM pour contextualiser une campagne push mobile destinée à un client se trouvant en magasin.

La cohérence de communication : réactivité et cohérence à faire cohabiter entre CRM et DMP

Jusqu’à présent, les solutions de gestion de campagnes CRM centralisent l’animation des clients identifiés sur les canaux traditionnels (courrier, email, SMS, point de vente, centre de contacts), ce qui facilite la gestion de la cohérence de communication.

Aujourd’hui, le développement de nouveaux usages d’animation (rebond, campagnes digitales en RTB, …) nécessite de coupler CRM et DMP.

Dans ces conditions, comment assurer une bonne cohérence de communication entre ces 2 outils sans nuire à la réactivité des campagnes ? C’est tout l’enjeu d’une animation omnicanale bien maîtrisée.

Les éditeurs commencent à y travailler, de manière à ce que les règles métiers, aujourd’hui administrées dans les solutions CRM, puissent être également appliquées aux campagnes DMP.

A terme, nous pouvons imaginer que les fonctionnalités DMP et gestion de campagnes CRM seront regroupées au sein d’une même plate-forme d’animation, connectée aux différents canaux on et offline, permettant ainsi de centraliser la définition et le pilotage des actions marketing omnicanales… à suivre !

La DMP, pour une expérience client omnicanale toujours plus personnalisée

Les marques font aujourd’hui face à de nouveaux enjeux d’animation client

Leur pouvoir n’a jamais été aussi fort : ils comparent les produits, contactent les marques, commentent leurs achats, et deviennent de plus en plus exigeants sur la qualité de leur relation client.

Pour fidéliser les clients et développer leur valeur, les marques doivent optimiser leur expérience et personnaliser leur relation sur l’ensemble des canaux, de manière synchronisée et cohérente.

La Data Management Platform (DMP), une solution au cœur du dispositif d’animation omnicanale

Pour répondre à ces enjeux, les marques doivent être en mesure de développer la connaissance de leurs clients sur l’ensemble des parcours, afin d’identifier de nouveaux leviers d’animation sur les canaux CRM traditionnels (courrier, email, SMS, point de vente, centre de contacts), mais également sur les canaux digitaux (display, push mobile, site et applications).

La DMP s’inscrit dans la cible applicative d’un SI client omnicanal pour répondre ces besoins

Collecter les évènements clients/prospects, anonymes ou identifiés, sur les supports digitaux.

Les comportements de navigation, la géolocalisation, les préférences, les intentions d’achat, les centres d’intérêts… Toutes ces données, captées sur le parcours d’un client, d’un prospect ou d’un visiteur anonyme, pourront être utilisées comme levier d’activation et générer de la valeur.

Réconcilier et enrichir les données digitales avec les données CRM, pour maintenir une vision unifiée des parcours clients, avant/pendant/après un achat, qu’ils se soient identifiés ou non auprès de la marque, afin de pouvoir mieux personnaliser et contextualiser l’animation omnicanale.

Un même individu, dans son parcours sur le site ou les applications de la marque, peut utiliser différents devices (ordinateur, smartphone, tablette, …). Ses données de navigation, lorsqu’elles sont collectées, sont associées à un identifiant (cookie par exemple) propre au support et browser utilisés. Il en va de même pour les données CRM, qui sont rattachées à un identifiant client.

Toutes ces données doivent être réconciliées pour concourir à une vision unifiée du parcours des clients ou prospects. Les DMP sont équipées de fonctionnalités de matching cross-devices, qui permettent, quand les conditions sont réunies, d’assurer cette réconciliation. Ce rapprochement d’identifiants peut être réalisé selon différentes méthodologies : de manière déterministe (le client se connecte), probabiliste (utilisation d’algorithmes), ou grâce à des partenariats (CRM onboarding).

Le taux de réconciliation des données CRM et digitales dépend de différents facteurs, dont la proportion de navigations connectées. Il atteint 15 à 20% en moyenne, et peut dépasser les 30% en fonction du secteur (navigation généralement plus connectée dans la banque que dans la distribution par exemple) et des méthodologies employées (l’utilisation de solutions d’onboarding permettra d’augmenter la réconciliation).

Ces données collectées, « cookifiées » et réconciliées sont maintenues dans la durée, et utilisées en premier lieu par la DMP à des fins de ciblage d’audience.

Data lake et Dataviz au secours des Data Scientists 2/2

L’outillage pour l’exploration des données

La recherche des données pertinentes dans un contexte multi-entrepôt comportant des centaines de tables et de relations peut constituer un véritable défi que nous adressons avec différents types d’outils selon les contextes et l’existant :

Moteur de recherche : la solution idéale fonctionnellement, bien que techniquement complexe, consiste à « câbler » un moteur de recherche de type Lucene (SOLR ou Elasticsearch) sur les entrepôts de données qu’ils soient SQL ou Nosql. Ces moteurs indexent toutes les informations et offrent un service de type Google dans lequel l’utilisateur peut chercher les données soit par leur contenu soit par leur description. Ces indexations peuvent être enrichies par exemple par des taxonomies (ex : compteur->linky) ou des paramétrages de pondérations (ex : proximité des noms des relais électriques surpondérée par la distance géographique).

Dictionnaire de méta-données : tous les ETL proposent une solution plus ou moins élaborée de dictionnaire de données qui permet aux utilisateurs d’effectuer des recherches sur les méta-données (les données sur les données).

Base documentaire : en dernier ressort, une base documentaire pourra être utilisée en référence pour rechercher les données pertinentes.
Une fois les données pertinentes identifiées, l’exploration à proprement parler consiste d’une part à en établir une description (moyenne, répartition, complétude, qualité des jointures…) et à en extraire des éléments signifiants (corrélations, cooccurrences, patterns temporels…). Cette phase exploratoire est généralement un préalable qui va orienter l’étape de modélisation, voire une étape intermédiaire de datamanagement pour élaborer des agrégats ou effectuer des opérations de nettoyage.

Pour l’exploration des données, nous nous appuyons la plupart du temps sur 3 types d’outils :

Business Intelligence : des outils tels que SAP BI ou Microstrategy permettent d’explorer des données au travers de liens (jointures, foreign keys…) et de facettes (dimensions et indicateurs) la plupart du temps explicites et prédéterminés.

Dataviz : les outils de datavisualisation (Qlikview, Tableau, SAS Visual Analytics et consorts) développent le principe de « Self-Service BI » en ouvrant aux utilisateurs la possibilité d’expliciter par eux-mêmes de nouveaux liens ou de nouveaux indicateurs, voire des traitements de transformations ou de redressement de la qualité. Ils offrent également des modes de visualisation facilitant la détection visuelle d’éléments signifiants (ex : un point anormal ou un arbre de segmentation).

Analytique : les outils analytiques (R, SAS, SPSS et consorts) interviennent également parfois dans les phases exploratoires lorsque les outils précédents présentent des limites fonctionnelles ou techniques. Il s’agit non pas d’exploiter à ce stade la puissance de leurs algorithmes statistiques mais simplement leurs fonctions de datamanagement et d’automatisation des étapes.

Bacs à sable utilisateurs et agilité

Que ce soit à des fins de reporting, d’exploration ou d’analyse, les DSI n’arrivent plus à suivre le rythme des demandes des métiers. Dans ce contexte, la solution passe par la mise à disposition d’outils et de données aux utilisateurs pour expérimenter, voire produire, en toute autonomie.

Ces bacs à sable prennent différentes formes selon les organisations mais partagent assez généralement quelques principes :

Accès libre aux données de détail : dans la mesure des droits d’accès (tant en largeur qu’en profondeur), les utilisateurs peuvent naviguer dans les données jusqu’à la ligne élémentaire en tant que de besoin.

Espaces personnels : les utilisateurs disposent d’une zone de stockage qui peut peser des dizaines de tera-octets dans laquelle ils entreposent des copies de données et de résultats de leurs traitements de transformation ou de modélisation.

Autonomie dans les transformations : les utilisateurs sont équipés d’outils qui leur permettent d’enchaîner des étapes de transformation (ex : unpivot, dédoublonnage, cumuls….) de la donnée pour la mettre dans la forme attendue pour les traitements qu’ils envisagent.

Ergonomie et interactivité : les analystes et les métiers doivent pouvoir explorer ensemble les données. Ceci impose une bonne ergonomie des outils, que ce soit pour la visualisation ou l’analyse. Compte tenu des volumes en jeu, il est également nécessaire que les outils permettent de travailler sur des sous-ensembles de données pour faciliter l’interactivité et éviter des temps d’attente trop importants lors des ateliers.

Chargement de données externes : la performance des modèles est souvent liée au croisement de sources de données diverses. En particulier, il convient de donner aux utilisateurs des outils et des autorisations pour charger par eux-mêmes, moyennant des règles de sécurité d’entreprise, des sources externes (ex : météo, trafic…) sous les différentes formes qu’elles peuvent prendre (ex : excel, csv, xml, Json…).

Capacité à créer des liens : au-delà des jointures et autres clés externes prédéterminées, l’utilisateur doit disposer des moyens de constituer ses propres liens sans avoir à passer par un tiers. Il s’agit là d’un facteur essentiel pour développer réellement l’agilité et l’autonomie des analystes.

Outils intégrés pour l’industrialisation : le passage d’une phase de modélisation sur le bac à sable à un algorithme industrialisé applicable en batch ou en temps réel doit être outillé dans une logique Devops. C’est pourquoi les outils proposent des fonctionnalités de génération de Webservices (ex : SPSS Cads) ou d’ordonnancement de tâches (ex : Qlikview).

Méthode agile : sans nécessairement respecter stricto sensu la méthode agile, l’objectif est de s’en inspirer ; travail par atelier réunissant métier, analyste, voire datamanager ; délai court des itérations entre chaque atelier…

Conditions de succès d’une démarche exploratoire

Une démarche exploratoire mobilise quatre compétences :

  1. Métier, pour la formulation du problème à résoudre et des contraintes imposées à la solution.
  2. Datamanagement, pour accéder à la donnée, l’explorer et effectuer les transformations nécessaires que ce soit par de simples requêtes (ex : SQL), le paramétrage de progiciels (ex : SAS Miner) ou la programmation de routines (ex : Python).
  3. Statistiques ou mathématique, pour réaliser les modèles supervisés (ex : score) ou non supervisés (ex : nuées dynamiques).
  4. Gestion de projet, pour planifier puis coordonner les différentes activités et ressources (ex : mobilisation de puissance de traitement dans le cloud) dans le temps.

Selon l’organisation et la complexité des cas d’usages, ces compétences sont réparties sur une à plusieurs dizaines de personnes. Avant même la compétence intrinsèque des participants, c’est leur capacité à collaborer efficacement qui constitue le principal facteur clé de succès d’une démarche exploratoire.

Confiance et reconnaissance mutuelles sont les fondements pour une bonne collaboration et ils passent par des qualités de professionnalisme, telles que clarté des engagements pris, respect des jalons et qualité des livrables.

Il est ensuite essentiel que chaque participant ait au minimum un vernis sur les 3 autres domaines d’expertise pour fluidifier le dialogue et éviter que des incompréhensions n’aboutissent à des pertes de temps ou d’énergie.

Par ailleurs, tout ce qui pourra contribuer à l’autonomie de l’équipe (outils, moyens de communication, accès aux données, capacité intrinsèque de décision…) fluidifiera d’autant les processus et donc l’efficacité de la production.

Enfin, la disponibilité d’un vivier de référents experts capables d’orienter les intervenants sur des problématiques spécifiques pointues (ex : choix d’une méthode, optimisation d’une requête…) permettra d’accélérer le travail des intervenants et de baliser leur parcours de bonnes pratiques.

Revoir la présentation « Le Data Lake : révolution de la data science, complément au Data Warehouse ou simple buzz marketing ? »

Data lake et Dataviz au secours des Data Scientists

Explosion des données collectées et des moyens d’analyse

L’explosion des objets connectés ouvre la porte à une collecte et des interactions en quasi temps-réel au prix d’une explosion des volumes de données d’usage recueillies, stockées et analysées. La technologie, quant à elle, ouvre des perspectives révolutionnaires, tant en termes de faisabilité que de coût de possession, aux problématiques de gestion de très hauts volumes de données, d’analyse et de croisement de ces volumes de données et enfin de rapidité de traitements analytiques.

Les composantes pour l’exploration des données

Ces ruptures sans précédent constituent autant d’opportunités stratégiques pour les organisations en général et pour les Directions Informatiques en particulier. Pour les saisir, il convient de se doter de moyens (technologies, processus et compétences) pour collecter, nettoyer, appareiller, explorer, analyser et restituer la connaissance sur des volumes de données qui vont exploser de manière exponentielle au gré de l’accélération des déploiements d’objets connectés. Sur le plan des outils, les composantes essentielles sont à notre sens :

Un référentiel central des données : il s’agit de déverser les données d’entreprise et les données d’usage et de parcours digitaux dans un data lake centralisé évolutif horizontalement pour supporter une croissance exponentielle des volumes, des utilisations et des contraintes de latence. Ce data lake doit proposer des moyens avancés pour rechercher des données et évoluer rapidement afin d’absorber à moindre coût de nouveaux flux ou de nouveaux liens.

Un laboratoire agile : dotées d’accès à ces gisements de données, d’outils d’exploration, de visualisation et d’analyse adéquats, les équipes de data scientists devront apporter rapidement des réponses aux nouveaux besoins exprimés par les métiers avec un maximum d’autonomie. Ceci requiert une capacité à comprendre les besoins des métiers, à concevoir des plans d’études, à manipuler les données, à élaborer des modèles mathématiques et à en communiquer les résultats aux métiers sous une forme intelligible.

Un socle d’industrialisation : que ce soit en sortie du laboratoire agile, à l’occasion du décommissionnement d’un SI ou de la réponse à un nouveau besoin, le référentiel central des données a vocation à irriguer en données brutes ou transformées des systèmes d’informations industriels (au sens où ils sont en production et soumis aux contraintes d’exploitation et d’administration) que ce soit à des fins de reporting, de prévisions ou d’interactions.

Une gouvernance des données : toutes les organisations ont vocation à évoluer dans leur cœur de métier pour devenir également fournisseur de données internes, tant en central qu’en local, ainsi qu’externes (clients, fournisseurs, collectivités, open data…). Ceci passe par la mise en place d’une véritable gouvernance des données : cycle de vie, valeur, qualité, règle de calcul, propriété, accessibilité, conservation, anonymisation, auditabilité, documentation…

Les difficultés de la mise en place d’une démarche exploratoire

Les principaux écueils de cette vision se situent, de par notre expérience, dans l’exécution :

Compétences : les analystes doivent à la fois comprendre et dialoguer avec le métier, maîtriser le datamanagement et les outils statistiques, une combinaison rare de compétences.

Autonomie : pour les phases exploratoires et analytiques, il est essentiel que les analystes puissent dérouler leur process sur le laboratoire en toute autonomie, dans l’esprit de la « self-service BI ». Ils doivent donc maîtriser les outils d’analyse, de visualisation, d’exploration et de transformation, et connaître les données et les méta-données d’un référentiel aussi exhaustif que possible.

Rapidité : si les délais informatiques (les « paliers » dans le jargon) sont trop longs pour intégrer un nouveau flux par exemple, le métier aura vite fait de shunter le data lake pour créer une nouvelle redondance de données ou de traitement. Il est essentiel que le référentiel soit conçu, réalisé et maintenu dans une optique, à défaut d’une méthodologie, agile avec des délais de déploiement très courts.

Test and learn : analystes et métiers doivent développer une relation de confiance car elle est indispensable lors des inévitables itérations nécessaires pour trouver par ajustements successifs le juste équilibre entre underfitting et overfitting, entre lisibilité des modèles et performance prédictive.

Gouvernance : une instance décisionnaire doit pouvoir imposer des règles transversales (ex : anonymisation), arbitrer des besoins concurrents (ex : réseau et client) ainsi que la mutualisation entre différents départements ou usages, de certains flux, traitements qualité ou calculs.

Hybride : le data lake « schemaless » répond au besoin d’agilité sur la donnée. A contrario, les modèles structurés sont mieux adaptés pour une gouvernance de la donnée et en particulier pour les données de pilotage. Les équipes devront donc être capables d’adresser un environnement « hybride » (ie : sql et nosql).

Revoir la présentation « Le Data Lake : révolution de la data science, complément au Data Warehouse ou simple buzz marketing ? »

Big Data : premières leçons après 3 ans d’applications sur le terrain

Les Enjeux

Ce déluge de données ouvre de nouveaux horizons en matière de connaissance et de dialogue avec les clients. Le marketing devient résolument conversationnel, individualisé, contextualisé, mobile, social, temps réel et omnicanal.

Fort de plus de 30 ans d’expérience en matière de valorisation du Capital Client, Soft Computing, Entreprise de Services du Numérique spécialiste en CRM, Big Data et Digital, réunit près de 400 consultants, délivrant des prestations de Conseil, de Technologie et de Marketing Services.

Ainsi, nous accompagnons annonceurs & organisations, désireux de mettre en place des plateformes Big Data et omnicanal, à relever les défis opérationnels suivants :

  • Comment capter, analyser, exploiter (en temps réel ou non) l’ensemble des données off line et on line pour activer une animation visiteur/client rentable, engageante, cohérente sur l’ensemble des points de contacts ?
  • Comment réconcilier des données de navigation & « empreintes digitales » (authentifiés ou non) et données du CRM tout en garantissant l’unicité, la qualité des données, ainsi que le respect des règles légales locales et/ou internationales ?
  • Comment créer une infrastructure de données pérenne et agile, fondée à la fois sur la réalité des besoins opérationnels d’aujourd’hui et l’esquisse des usages de demain ?
  • Comment appréhender les nouvelles technologies émanant à la fois du monde innovant Open Source, des « pure-players » et des éditeurs traditionnels et solides ?
  • Comment préparer les organisations à la fois dans leur montée en compétence et leur transformation : Data-Scientism, Marketing prédictif, Agilité ?

Nos interventions

Nous menons plusieurs projets Big Data dans les secteurs de la Banque, le Retail, les Transports, l’énergie et des Télécoms. Notre démarche pragmatique, pour maîtriser ces enjeux, guide nos interventions autour de 5 axes :

Cadrer : Aligner la stratégie, les besoins métiers et SI pour établir une trajectoire de mise en œuvre volontaire face aux enjeux de marchés hautement concurrentiels,

Evaluer : Choisir les solutions technologiques pour répondre aux enjeux métiers & SI puis valider leurs bon fonctionnement et potentiel à travers des phases d’expérimentation ou Proof Of Concept,

Décliner : Mener les chantiers par priorité pour construire une solution pérenne, orientée résultat et génératrice d’efficacité opérationnelle,

Déployer : Piloter toutes les phases projet pour garantir la bonne mise en œuvre et implémentation du nouveau dispositif,

Piloter : Consolider les indicateurs de performance, QOS, QOD et mesurer leurs évolutions dans le temps tout en mobilisant les ressources internes et externes au regard des objectifs définis.

Nos retours d’Expériences

L’accompagnement de l’un des acteurs majeurs de l’énergie en France, dans la mise en œuvre d’une DMP (Data Management Platform) a fait ressortir les points clés suivants :

Démarrer petit pour finir grand

Limiter le nombre de données first party en face des millions de lignes clients permet d’intégrer progressivement des données complémentaires. Démarrer par des cas d’usages métiers simples et raisonnables permet de valider le fonctionnement de la DMP par itération avant d’investir des cas complexes à forte volumétrie.

Soigner la réconciliation des données Web et CRM

Réconcilier les données Web et clients suppose de porter une attention particulière sur la gestion des identifiants Internautes (cookies, IP, Mac…) et CRM (email, Id foyer, …). La connexion à l’espace client reste un vecteur privilégié et efficace pour rapprocher internaute et client (plus que le clic dans un e-mail par exemple).

Ajuster le dispositif de traitement au regard des usages

Connaissance client, rebond entrant, campagne marketing ne nécessitent pas la même réactivité et le même type de réponse. Aussi il est crucial de définir les usages temps réel versus batch à J+1 pour adapter le dispositif aux différents besoins métiers

L’accompagnement d’un leader du marché des Télécoms dans la mise en place d’un socle de connaissance client omnicanal (Big Data) afin de parfaire sa maîtrise des canaux (reporting & dataviz), l’analyse comportementale client, puis déclencher des actions personnalisées auprès des visiteurs sur des canaux traditionnels (point de vente, service client…) et digitaux (bannière web, selfcare…), nous amène à souligner les points suivants :

Concevoir une solution agile et interopérable

Ne pas tenter de présumer des usages de la donnée de demain, mais plutôt imaginer le dispositif agile (architecture) qui permettra d’absorber rapidement une nouvelle source ou un nouveau format de donnée « sans retour arrière » et sans déstabiliser les chaînes d’information critique (ERP, DWH…).

Diffuser en temps réel les indicateurs à forte valeur ajoutée

Se mettre en situation de propager des données client à forte valeur ajoutée en temps réel (tags, éléments de parcours ou scores) pour pouvoir demain activer la bonne action (push ou argumentaire de vente) au bon moment quel que soit le canal (une poste vendeur ou une bannière web).

Penser expérience client cross canal simple et ROI directement

Expérimenter et driver des premiers développements à partir de use cases simples, réalistes simplifiant une expérience cross canal et génératrice d’un ROI rapide.

Laisser place à la découverte des données

Laisser du temps aux équipes opérationnelles pour s’approprier et « cruncher » des nouveaux univers de données (c’est le cas des données de navigation mobile ou selfcare) pour imaginer à la fois de nouveaux modèles statistiques prédictifs et de nouveaux processus client.

En synthèse

Les principes mis en œuvre dans les projets de relation clients depuis plusieurs années s’appliquent encore aujourd’hui dans cette nouvelle aire du « digital data driven ». Il apparait important de s’ouvrir aux nombreuses nouveautés qu’offrent ces perspectives tout en gardant une démarche pragmatique et orientée vers des résultats opérationnels tangibles et concrets.

NRF 2015 : la démesure

Notre premier choc en arrivant en fut la dimension : 40 000 visiteurs, plus de 600 exposants et près de 150 conférences, le tout occupant les 180 000 m² du centre des expositions de New-York (plus ou moins la totalité du parc des expositions de la porte de Versailles à Paris). La délégation française comptait des centaines de représentants ; par exemple, à eux-seuls, les collaborateurs d’une grande enseigne spécialisée étaient venus à plus de 250.

Premier constat : les concepts en vogue sont les mêmes des 2 côtés de l’Atlantique, omnicanal, expérience client sans couture, datadriven, engagement client, personnalisation de l’expérience en magasin, mobilité-first, voire mobilité-only, digitalisation de bout-en-bout, convergence DMP-CRM.

Second constat : la réalité des présentations est beaucoup plus pragmatique, sécurisation des transactions en magasins, ré-approvisionnements, encaissement sans contact, …

Troisième constat : l’offre est très fragmentée malgré la présence d’un ou deux leaders par segments (oracle et ibm pour l’eCommerce, fujitsu et wincor pour l’encaissement, …).

Salon NRF 2015
© NRF 2015

Quelques innovations ont néanmoins attiré notre attention :

Traçabilité : les compteurs de trafic en magasin se sont étoffés et permettent maintenant de gérer des signaux multiples (beacon, wifi, bluetooth, nfc, rfid, reconnaissance faciale, app spécifique) pour suivre les clients, et, moyennant accord du client, lui soumettre des offres tenant compte de son cheminement, de ses achats et de sa position.

Imprimantes 3d : reliée à une application de personnalisation, elle permet en bout de chaîne l’impression de produits (plastique et de taille modérée) designés totalement sur mesure.

Meubles connectés : les meubles intègrent de plus en plus des écrans de formes diverses. Ces écrans sont à la fois le lieu d’affichage de contenus personnalisés, notamment en fonction de l’humeur détectée du client qui regarde (!!), mais aussi un lieu d’interactions qui propose par exemple d’essayer en réalité augmentée des vêtements et d’en voir immédiatement le rendu sans avoir à entrer dans une cabine d’essayage.

Ecran tactile au salon NRF 2015
© NRF 2015

Analytique : les 2 tendances aperçues sont d’une part, l’émergence de plate-forme de modélisation autonome (elles sont auto-apprentissantes ou facilement paramétrables par des non datascientists) et d’autre part l’extension de l’analyse aux textes mais aussi aux images. Une démo par exemple qualifiait les users instagram en fonction du contenu des photos postées et/ou appréciées.

En résumé, beaucoup de concret, un peu d’innovation et la confirmation que les orientations en matière d’innovations dans le secteur retail vont dans le bon sens et à la bonne vitesse.

Pour les avides de savoir, la plupart des conférences (vidéos) et des supports (pdf) sont accessibles depuis le site.
Crédits photos : NRF

Les objets connectés : la data, comme source de création de valeur 3/3

Les objets connectés : du Big Data à la DMP

Au regard de ce constat, si certains dirigeants se posent encore la question de la nécessité, voir de la réalité même, des solutions Big Data dans un contexte de digitalisation de l’entreprise, nous ne pouvons que leur conseiller d’intégrer au plus vite la problématique de la data des objets connectés dans leur stratégie à moyen et long terme.

Au-delà de la problématique de stockage, nous voyons apparaître depuis quelques mois des usages marketing en matière d’exploitation de ces données. En ce sens, les DMP (« Data Management Platform ») sont les premières illustrations d’usages concrets des données collectées dans une optique d’optimisation des ciblages marketing. Nous pourrions également parler de l’optimisation des parcours clients comme fonctionnalité issue de l’exploitation de toutes ces données.

L’un des enjeux majeurs, une fois que les données sont disponibles pour les métiers, est incontestablement l’identification, parmi le torrent de data, des données pertinentes et à valeur pour l’entreprise. En effet, s’il est fondamental de collecter la data, cela ne sert à rien si l’usage n’apporte pas de valeur ou bien si la rentabilité (le ROI) n’est pas démontrée. En ce sens, certaines sociétés ont fait appel à Soft Computing pour les accompagner soit dans la valorisation du ROI de dispositif Big Data ou DMP, soit dans la mise en œuvre de ces dispositifs.

Dans le cas d’une enseigne de la distribution spécialisée, un prototype basé sur quelques use cases a été réalisé par Soft Computing.
Basé sur la plate forme Big Data d’IBM (voir ci-dessous), le POC avait trois objectifs : extraire les données issues des réseaux sociaux, compléter les données CRM avec les données sociales et les web log et identifier l’apport de valeur dans l’analyse de ces nouvelles sources et dans l’activation clients / prospects.

Plate forme Big Data IBM
Plate forme Big Data IBM

Dans un autre cas, Soft Computing a été sollicité pour mettre en œuvre une DMP (« Data Management Platform »).
Dans le cadre, le choix technologique retenu a été différent (solution externalisée) et les objectifs étaient très orientés ROI : augmenter la pertinence et le ROI des campagnes multi canal en croisant le comportement web avec le patrimoine de données clients à disposition. Leur déclinaison pouvant s’appliquer sur les campagnes existantes mais également sur de nouvelles campagnes média, e-mail et autre canaux. Voir aussi : la présentation du CRM à la DMP temps réel et multicanal.

Victoires rapides : 3 mois, 1 pilote
1. Parcours clients – 2. Écoute active des réseaux sociaux – 3. Recommandations personnalisées

L’un des principaux enseignements de ces projets est l’absolue nécessité de mettre en œuvre, pour ce type de projet, une méthodologie agile et pour cela Soft Computing, à travers ces différents exemples et d’autres non cités ici, a développé une méthodologie agile pour répondre à ce type de problématique.

En conclusion

En conséquence les objets connectés vont radicalement changer notre environnement, notre style de vie et notre façon de consommer. Ils changeront également la relation et l’expérience que nous avons avec les marques. Steve Jobs en créant l’Iphone avait révolutionné le monde des smartphones et pris un avantage concurrentiel incroyable en simplifiant et fluidifiant l’expérience du client. A l’avenir, les marques qui réussiront cet exercice sur leurs propres produits généreront un avantage concurrentiel tout aussi structurant. Cette expérience client amplifiée sera le revenu des entreprises qui auront su collecter de façon pertinente et exploiter efficacement ces téra de données.

Les objets connectés : la data, comme source de création de valeur 2/3

Le nombre d’objets connectés sera vraisemblablement supérieur à 20 milliards en 2020 comme le prévoit SIGFOX, première société à offrir une connectivité cellulaire mondiale pour l’Internet des objets. (SIGFOX est une startup que vient de rejoindre Anne Lauvergeon, ancienne patronne d’Areva).

Le potentiel du marché des objets connectés : 14,4 trillions de dollars !

Potentiel des objets connectésCette estimation est dans la fourchette basse des estimations produites actuellement. Chez Cisco, on évalue qu’en 2020, 50 milliards d’objets seront connectés, quand à Luc Julia (père de SIRI chez Apple, maintenant directeur de l’innovation chez Samsung), il pense que d’ici 2020, il y aura 1,5T d’objets connectés dans le monde, au moins 70 par personne.

En conséquence, le marché des objets connectés est bien plus colossal que certains ne l’avaient imaginé mais quelle est la valeur estimée de ce marché ?

Selon Cisco, l’enjeu économique du monde des objets connectés représenteraient plus de 14 trillions de dollars de bénéfice net sur les dix prochaines années. Ce chiffre colossal est la somme de différents facteurs : meilleure utilisation des ressources, gain de productivité, gain lié à l’expérience client, … comme le montre ce schéma issu du livre blanc produit en 2013 par Cisco.

L'enjeu économique des objets connectés
L’enjeu économique des objets connectés : 14,4 trillions de dollars

A court terme, certaines grandes entreprises ont décidé d’investir sur la valeur que dégagera la maitrise des données issues de ces objets car si les objets connectés sont une source de simplification et de confort pour les clients, ils sont également une façon de collecter des données.

C’est notamment la décision de SFR, comme nous le confirme Emmanuelle Anglade. Le 2éme opérateur telecoms français intègre désormais systématiquement cet enjeu dans ses réflexions stratégiques mais c’est également le cas des autres acteurs majeurs du marché des objets connectés : les fournisseurs d’infrastructure telecoms comme Cisco, les géants d’internet et des telecoms Google et Apple, …

Google objets intelligentsC’est le sens du rachat au début de cette année de la société Nest Labs (une start-up spécialisée dans les objets « intelligents ») par Google pour plus de 3 milliards de dollars !

Ce même Nest Labs a ensuite racheté Dropcam (spécialiste de la surveillance vidéo) pour plus de 500 millions de dollars et s’attaque aujourd’hui au rachat de Revolv, société proposant un boitier universel pour contrôler les différents objets de la maison.

Dans cette course aux objets connectés, il sera d’autant plus important de maîtriser le réseau qui connecte tous ces devices qu’il permettra d’en maîtriser également le contenu c’est-à-dire les données qui transiteront par ces réseaux. Que ce soit les données collectées ou les données diffusées et c’est bien là que pourrait finalement se situer la véritable valeur des objets connectés.

C’est pourquoi tous veulent posséder la data. Data qui permettra de réaliser les 14,4 trillions de dollars de bénéfice net dont parle Cisco ! Cette data permettra par exemple l’optimisation des réseaux électriques, ou bien encore, l’amélioration des performances commerciales à travers une meilleure connaissance des besoins des clients mais aussi à travers une expérience client optimisée.

La data sera donc définitivement au cœur des enjeux du monde des objets connectés.

Mais le stockage et l’exploitation temps réel de cette donnée deviennent eux-mêmes des enjeux à très court terme.

Les objets connectés : la data, comme source de création de valeur

L’Apple Watch est enfin dévoilée ! Apple WatchLa première montre connectée de la marque à la pomme a été présentée lors de la célèbre et très attendue conférence Apple du 9 septembre dernier.

Connexion NFC pour payer avec Apple Pay, fonctionnalité permettant de téléphoner, d’utiliser SIRI, bracelet connecté pour suivre son activité physique, toutes ces fonctionnalités, encore réservées aujourd’hui aux happy few, seront-elles dans les années à venir des éléments du quotidien comme le réfrigérateur ou le PC ? La réponse, nous le verrons, est indiscutablement positive.

La maison comme socle des évolutions de la connectique

Tout d’abord, il convient de préciser que l’écosystème des objets connectés est potentiellement sans limite, il regroupe tous les outils permettant de simplifier l’interaction entre l’homme et l’objet, et d’en faciliter l’usage. Dans ce cadre, tout est possible : réfrigérateur intelligent, compteur EDF connecté, système d’alarme, domotique… Bref tout ce qui embarque ou peut embarquer un tant soit peu d’électronique est susceptible d’être un jour un objet connecté ! Selon Cisco, 99,4% des objets susceptibles d’être connectés aujourd’hui à internet ne le sont pas encore, cela donne une perspective du marché potentiel…

Chez SFR, la nouvelle Box Home intègre par exemple un système d’alarme intelligent qui offre notamment la possibilité de surveiller son domicile en temps réel depuis son smartphone.

LA BOX HOME DE SFR
LA BOX HOME DE SFR

Cette innovation n’est pas une opération marketing tactique mais bien une des premières briques de la stratégie de l’opérateur pour devenir LA plateforme connectée du foyer comme nous l’indique Emmanuelle Anglade*, directrice marketing et produit de SFR. Des discussions contractuelles plus ou moins avancées sont d’ailleurs en cours avec des sociétés comme Logo Legrandpour faire de la box de SFR une plateforme ouverte à l’intégration de tiers. A ce titre, SFR confirme discuter avec tous les partenaires potentiels sur les verticales importantes du contrôle de la maison (sécurité, domotique, énergie/chauffage et confort).

L’enjeu est de taille pour ces entreprises qui n’ont ni la technologie pour réaliser leur propre réseau de communication ni la compétence de gestion du client final comme peut l’avoir l’industrie des telecoms. A travers ces partenariats, ces sociétés de produits connectés s’ouvrent un marché de plusieurs millions de clients (SFR communique aujourd’hui sur plus de 5 millions de clients abonnés à l’internet haut débit et plus de 20 millions de clients mobiles).

Dernière illustration de l’éventail des possibilités de la connectique : la Smart City.

Chez les concessionnaires d’énergie, deux axes sont aujourd’hui les priorités des directions de l’innovation : la connectique des produits maisons (identique à la proposition de SFR) et la connectique des villes, ce que l’on appelle la Smart City.

Smart City
Smart City

La Smart City, ou ville intelligente, n’est pas une vision geek de la ville de demain. La Smart City répond à un triple enjeu environnemental, financier et sociétal. Pour répondre aux nouveaux engagements internationaux de protection de la planète (cf. les accords de Kyoto), la ville de demain devra mieux respecter l’environnement et favoriser les pratiques réductrices des pollutions dans un contexte de croissance de sa population (en 2050, les villes accueilleront 70% de la population mondiale).

Par ailleurs, la situation économique et politique d’un certain nombre de grands pays dont la France engendre une prise de conscience des villes sur la nécessité impérieuse de s’engager dans une réduction des dépenses publiques à l’instar de ce qui est fait au niveau gouvernemental. Enfin, la révolution numérique a engendré des modifications profondes de la société que la ville, en tant que territoire social, doit intégrer.

Dans ce cadre, les dernières technologies sont le moyen de répondre à ces enjeux et les exemples se multiplient.

La ville de Nice par exemple a appliqué ce concept de Smart City avec des applications très concrètes : les bennes à ordures équipées de capteurs préviennent le service des éboueurs quand elles sont pleines, ou encore les lampadaires à luminosité variable (en fonction de la présence ou non de passants).

La ville de Besançon s’est également lancée dans une démarche Smart City à travers un projet ambitieux de réduction de 50% de la facture énergétique liée à son éclairage avec l’installation de capteurs permettant de mettre la ville en veilleuse de 22h à 6h et permettant également de corréler la consommation d’énergie liée au chauffage en gérant de façon optimum les périodes de pic de consommation de chauffage.

Les exemples sont donc nombreux et toutes les grandes capitales ont désormais leur programme Smart City. Nous pouvons vous conseiller de vous rendre sur smartcity.fr pour en savoir plus.

Ainsi les applications de la connectique sont, comme nous venons de le voir, à la fois déjà une réalité dans certains secteurs et à la fois les prémices d’un monde connecté sans limite mais quel est exactement ce monde illimité dont nous parlons ici, c’est ce que nous allons voir dans la deuxième partie de cet article.

(*) Diplômée de Polytechnique, après un passage de trois ans chez Ernst & Young, Emmanuelle Anglade a successivement occupé les postes de Directrice de Programme chez Neuf Cegetel, de Directrice CRM chez SFR et enfin Directrice Marketing Marché Haut Débit chez SFR, poste qu’elle occupe actuellement. Outre la direction du Marketing Marché Haut Débit, elle dirige également le Marketing Produit du Foyer.

Paiement mobile : Une nouvelle source de données pour mieux connaître ses clients et personnaliser leur animation

Un marché en pleine expansion

Les annonceurs, de leur côté, s’intéressent de plus au plus à la dématérialisation de ces mêmes parcours et aux solutions pouvant les simplifier et faciliter l’acte d’achat, comme les nouveaux moyens de paiement.

Ce nouveau marché, en forte croissance, est estimé à près de 700 milliards de dollars à l’horizon 2020.

Dans ce contexte, les acteurs proposant des solutions de paiement mobiles se multiplient, diversifient les offres et tiennent un rôle de plus en plus important dans la collecte de données clients à forte valeur ajoutée.

Qui sont les acteurs et les technologies existantes ?

Au regard de l’importance du marché et de ses perspectives, la concurrence est de plus en plus forte entre les banques traditionnelles qui investissent dans le e-wallet (Paylib de la Société Générale, V.me by Visa pour la BPCE ou Masterpass de Mastercard), les pure players présents depuis quelques années (PayPal dès 1999) et les nouveaux entrants (distributeurs du type hypermarchés ou géants de l’internet investissant également dans le e-wallet comme Google ou Amazon…).

Chacun proposant différents moyens de paiement, tant sur les canaux off que on- line, portés par de nombreuses technologies, que ce soit des applications dédiées (flash d’un QR code puis saisie d’un code, application mobile demandant la saisie directe du code en ligne) ou « sans contact » grâce à la puce NFC (Near Field Communication) intégrée à la carte SIM d’un mobile ou dans une carte bancaire.

En septembre 2014, Apple a d’ailleurs mis en place son portefeuille électronique : l’Apple Pay. Le paiement mobile à partir du nouvel iPhone 6 et de la montre connectée Apple Watch sera ainsi basé sur la technologie NFC. Sur le marché nord-américain, Apple a signé des partenariats avec les trois grands groupes de cartes bancaires American Express, Visa et Mastercard ainsi que quelques grandes banques comme Chase, Citi ou Bank of America ; le géant californien a également convaincu de grandes enseignes telles que Bloomingdale’s, Disney Store, McDonald’s, Macy’s ou encore Sephora, ce qui représente plus de 120 000 points de vente, de proposer le service Apple Pay grâce à un terminal de paiement sans contact. L’autre innovation d’Apple, c’est l’authentification de l’acheteur via l’empreinte digitale. Si l’on considère le taux de pénétration d’Apple, il s’agit d’une bonne nouvelle pour la démocratisation de la NFC, jusqu’ici relativement peu répandue.

Quels sont les enjeux de la relation client autour des nouveaux moyens de paiement ?

Au-delà de la facilitation et de la fluidification du parcours d’achat, l’enjeu principal se situe autour de la donnée : il s’agit d’exploiter au mieux les données de paiement collectées lors de l’acte d’achat, afin de mieux connaître les habitudes des consommateurs et de leur offrir de nouveaux services.

In fine, le client doit ainsi bénéficier d’une meilleure expérience d’achat, tandis que l’annonceur augmente ses ventes et que la banque rentabilise ses données clients.

D’après le Gartner, d’ici 2016 « 30% des entreprises seront amenées à monétiser leurs données », ce qui représente un « marché de 300 milliards de dollars par an pour le seul secteur financier » d’après Booz & Company. Par « monétisation », on entend pour une entreprise « dégager du revenu net additionnel, par une utilisation profitable des informations qu’elle détient, valorisées par le rapprochement avec d’autres données et des traitements analytiques leur donnant un sens nouveau pour des clients potentiels ».

Les banques sont particulièrement au cœur du phénomène, au sein d’un tryptique Banque – Intermédiaire – Commerçant.

D’un côté, elles sont particulièrement menacées par les nouveaux entrants tels que Paypal et Google : d’après certaines études, elles pourraient perdre jusqu’à 10% de leurs revenus directs.

D’un autre côté, ce contexte présente une grande opportunité pour leur cœur de métier : les banques disposant de toutes les données de transactions de leurs clients (combien ils dépensent, dans quelles enseignes, etc.) et plus largement, les données liées au portefeuille détenu, elles pourraient en faire une source de revenus, principalement sur la base de données clients anonymisées.

Elles peuvent offrir des services aux commerçants partenaires (des analyses à valeur ajoutée de leur marché ou du profil de leurs clients, mais également l’aide à la conception de campagnes commerciales, programme fidélité etc.) sur leurs clients.

Concernant leurs clients, elles doivent pouvoir adapter leur offre de produits et de services aux besoins, de manière personnalisée.

  • Si on s’intéresse au marché nord américain, le créneau des « offres liées à la carte » (CLO Card Linked Offers) est en expansion. Par exemple, Cardlytics établit des partenariats avec des banques et utilise leurs applications bancaires afin que des annonceurs proposent des avantages ou des réductions aux clients des banques. D’après une étude récente, 90% des annonceurs sondés ont affirmé avoir accru leurs ventes, mais aussi amélioré la fidélité des clients avec une meilleure fréquentation de leurs points de vente. Qu’ont les banques à y gagner ? D’après des études, et avec un tel dispositif, 4 euros par porteur de carte bancaire et par an.
  • En Angleterre, on peut citer l’exemple de Barclays et de son offre « Bespoke Offers », un service d’offres sur mesure gratuit, adossé à un programme ralliant plusieurs centaines de commerçants : à travers des programmes de fidélité, les clients bénéficient d’avantages et d’offres promotionnelles adaptés à leur profil de consommation.
  • En France, certains acteurs se sont lancés. La start-up Cardlinkin’ tente de reproduire le succès de son modèle américain, en combinant également campagne marketing et analyse de données. Par exemple, un client pourrait recevoir sur son mobile un SMS ou un email portant des promotions liées à ses habitudes de consommation (géolocalisation, montants dépensés dans tel type d’enseigne, fréquence d’achat…) et pourrait « activer » celles dont il souhaite bénéficier automatiquement lors de son prochain passage en caisse ou paiement online. L’offre Cardlinkin’ est tout autant attractive pour les banques que pour les enseignes qui verraient dans ce dispositif un vivier de leads très qualifiés.

Ainsi, l’amélioration de la connaissance client doit permettre d’effectuer de meilleurs ciblages lors de campagnes marketing, et d’offrir en temps réel des recommandations personnalisées aux consommateurs.

Les préoccupations actuelles sur ces évolutions

Tout d’abord, les Français ayant du mal à se libérer de la carte à puce, le développement de l’e-wallet est plus timide que dans d’autres pays ; si l’on ajoute à cela le fait que la standardisation n’arrivera que dans plusieurs années, on comprend que la démocratisation de ces usages sera lente.

Outre la technologie, la principale préoccupation des entreprises et des consommateurs réside dans la sécurité des données et des transactions, la quasi-totalité des modes de paiement actuels étant d’ores et déjà touchée par la fraude.

Concernant la confidentialité des données, les banques ayant pour contrainte le respect du secret bancaire, elles doivent d’abord obtenir l’accord officiel du client pour l’exploitation de ses données à des fins déterminées. De plus, avec les lois françaises, il est peu probable qu’un jour les données quittent les banques : celles-ci auront probablement le choix entre effectuer elles-mêmes les campagnes marketing ou travailler avec des tiers de confiance tels que Cardlinkin’ (en leur fournissant des listings de clients, sans données bancaires).

Les banques françaises devront également étudier les termes d’un partenariat à la française avec des acteurs tels qu’Apple, sachant qu’à date Apple a promis de ne pas exploiter les données bancaires captées par les smartphones. L’un des enjeux de cette tractation sera le partage de la commission versée sur chaque transaction mobile (sur les 2% de commission par transaction, Apple prendrait 0,15% a priori aux Etats-Unis).

La crainte de l’usage abusif des données personnelles n’est pas infondée : la CNIL a par exemple décidé de lancer un contrôle de PayPal en 2013, à la suite des modifications unilatérales de son « règlement relatif à la vie privée » (collecte de la géolocalisation des acheteurs et utilisation des données pour la publicité ciblée, transmission d’un nombre plus important de données à ses partenaires tels que Facebook).

Cela souligne bien la nécessaire vigilance quant à la collecte et l’exploitation des données issues des transactions et que cette révolution ne se fera pas sans l’accord tripartite client / marchand / organisme de paiement, voire quatripartite si on ajoute un acteur high tech tel qu’Apple, le tout sous le contrôle des organismes de régulation.

A l’heure du Big Data et du « consom’acteur », il n’en reste pas moins qu’il s’agit d’une formidable opportunité d’améliorer son capital de connaissance client, de mieux les connaître et pouvoir leur proposer des offres de plus en plus adaptées.