Accueil Le Big Data au service des métiers

Le Big Data au service des métiers

Engrenage données
Engrenage data
Sommaire du dossier

Plusieurs études de cas confirment la percée actuelle du big data. Examinons comment extraire de la valeur et donner du sens aux données massives pour servir plusieurs métiers au quotidien.

Les cas d’entreprises de toutes tailles exploitant des technologies big data pour suivre et améliorer leurs activités opérationnelles se multiplient. Cela s’explique par la rencontre de nombreux besoins d’analyses dans plusieurs métiers et par la diversité des données massives que l’on peut réunir sur son système d’information à présent. Au croisement des deux tendances, l’émergence de plateformes de développement analytiques arrive à point nommé. Hier encore cantonnées aux architectures distribuées d’IBM, Microsoft, Oracle, SAP, SAS ou Teradata, ces plateformes d’aide à la décision se démocratisent grâce à l’open source et, en particulier, grâce au framework Hadoop. Ce modèle d’applications java distribuées est soutenu par les géants de l’Internet et par de nombreuses start-ups qui mettent à profit des grappes de serveurs standards. Ces clusters x86 s’avèrent tout aussi efficaces et beaucoup moins onéreux que les machines dédiées et propriétaires des pionniers du big data. Leur capacité de calcul permet même le traitement d’analyses personnalisées en temps réel.

L’entreprise dispose donc d’un vaste choix, à présent, et notamment d’une kyrielle de distributions Hadoop émanant de Cloudera, Hortonworks, MapR, Pivotal ou de généralistes qui s’y rallient aussi. L’écart de performances n’est plus le critère principal mis en avant par les fournisseurs, les temps de réponse ayant progressé partout grâce aux analyses menées en mémoire. Nos interlocuteurs soulignent un autre facteur clé de succès : le développement d’une solution d’analyse opérationnelle reste spécifique et il passe désormais par une étroite coopération entre des experts métiers et des scientifiques de la donnée.

Prévention de risques et détection de fraudes

« La plateforme de l’éditeur français Dataiku ingurgite de grands volumes de données. Elle manipule des modèles algorithmiques pour mener des analyses et en tirer des vérités. C’est cette perspicacité qui distingue le big data de la Business Intelligence, la B.I. restant un domaine établi autour d’indicateurs de performances clés », compare Pascal Malotti, le directeur conseil et marketing de Valtech. Faire du big data consisterait donc à changer de logique pour  découvrir des vérités métiers qu’on ne décèle pas dans les rapports financiers. Trouver ces fameux insights doit procurer de la valeur à l’entreprise ou à la collectivité, par exemple en améliorant la qualité des services clients. Valtech et Dataiku parviennent ensemble à prédire des risques professionnels, à détecter des fraudes financières ou les prochaines congestions de trafics des agglomérations. Mais l’essentiel des attentes se situe ailleurs : « Notre réseau d’agences intégrées travaille davantage sur des problématiques marketing. Là, il s’agit d’aider les entreprises à fidéliser leurs consommateurs, de prévenir un revendeur sur ses futures ventes ou d’accroître le taux de conversion des sites de commerce électronique », précise-t-il.

pascal-malotti« Analyser les données et en tirer des vérités, c’est cette perspicacité qui distingue le big data de la Business Intelligence… »

Pascal Malotti Dataiku

Les modèles de données retenus sont hétéroclites, issus de tickets de caisses, d’applications CRM, de réseaux sociaux, de traces de navigation ou encore de campagnes menées dans les médias. Cette course vers le marketing en temps réel vise à améliorer la réactivité des équipes. Elle promet aussi de transformer l’organisation en lui offrant des prises de décision plus rapides. Elle est au cœur de l’achat de mots-clés sur Internet comme de la personnalisation des messages délivrés aux clients. Dans le domaine du commerce électronique, livrer à temps ses clients distants s’avère essentiel.

Pour atteindre ses objectifs de qualité de services, l’enseigne Monoprix avait besoin d’une visibilité de bout en bout de sa chaîne d’approvisionnement. La solution Decision Insight d’Axway permet au distributeur de livrer 200 000 commandes en ligne quotidiennes, soit plusieurs millions d’Euros par jour, en moins de 24 heures.

En offrant une vision continue, l’analytique opérationnelle apporte un repérage des situations exceptionnelles et facilite la prise de décision en lien avec 800 magasins répartis en France. L’outil d’analyse proactive évite des goulots d’étranglement, améliore le parcours et la satisfaction des clients. In fine, il permet au groupe Monoprix de garantir ses délais de livraison, l’internaute en métropole étant livré de l’intégralité de sa commande le jour même ou, au pire, le lendemain.

L’apprentissage automatique pour comprendre le client

En matière de recrutement, l’analyse des compétences réparties dans les CV fournit d’excellents indices et l’examen automatique des petites annonces accélère la rencontre avec l’employeur potentiel, explique Thomas Allaire, le PDG de Jobijoba  « Nous préparons au préalable une combinaison d’algorithmes puis nous observons les résultats. Cette approche très itérative nous permet de constater que plus l’on traite de données, plus nos programmes deviennent précis dans leurs analyses et recommandations. » La principale difficulté rencontrée par l’entrepreneur bordelais consiste à « convaincre que la plateforme d’analyses numériques en ligne n’est ni dangereuse ni menaçante pour le recruteur ». Une quarantaine de collectivités en sont équipées afin d’étudier les offres d’emploi locales, les grilles salariales, les métiers en tension, les compétences émergentes ou l’adéquation des formations dispensées localement.

Le machine learning pour personnaliser

Appliqué au site de commerce en ligne, le machine learning permet d’offrir une expérience de navigation personnalisée à chaque internaute. En collectant et en activant des données contextuelles, cet apprentissage va suggérer des produits adaptés aux attentes de chacun ; par exemple, un costume de mariage pour le futur marié et un choix de vêtements coordonnés pour chaque témoin. Si l’événement est commenté sur les réseaux sociaux, la mise en relation peut s’effectuer rapidement.

Nicolas Algoedt« Nous investissons sur le machine learning parce que nous croyons que c’est l’avenir. »

Nicolas Algoedt, Farfetch

En s’appuyant sur la comparaison de paniers d’achats en ligne, les systèmes de recommandations anticipent les moindres désirs de l’internaute.

Parfois, un sondage facilite la segmentation préalable en groupes, évitant d’imposer le moteur de recherche multicritères. « Lors d’une recherche de voyage, on vérifie s’il s’agit d’une première ou d’une seconde visite. Il convient de comprendre le contexte de la visite, de savoir si la destination est déjà définie. Cela permet de générer plus d’engagement et de fidélité. Grâce au machine learning et à l’automatisation, les interactions sont personnalisées. Ce n’est plus le même site marchand pour tous. Au contraire, plus personne n’a exactement la même expérience », explique Nicolas Algoedt, directeur marketing produit de Qubit. Une autre approche consiste à rejouer les analyses sur différents échantillons de données issus de plusieurs sources ; on intervient alors sur des jeux d’apprentissage que l’on associe aux techniques classiques de datamining ou de textmining. Mais ces analyses fournissent des résultats qui ne sont pas toujours pertinents par rapport au besoin initial.

Une indispensable supervision humaine

Une supervision humaine s’impose donc pour vérifier ce qui fonctionne réellement en matière d’analyses de données massives. Ainsi, l’apprentissage automatique détecte-t-il bien les doublons de données sur un ensemble de fichiers ou de commentaires en ligne. « L’entreprise peut désormais traiter de manière intelligente pratiquement tous types de données numériques et disposer d’une vision de ses données en temps réel, dans le cadre d’une activité omnicanal », confirme Matt Quinn, le directeur technique de Tibco, éditeur de solutions de B.I. et de traitement d’événements. Selon lui, les relations nouées avec les clients doivent être cultivées pour éviter, autant que possible, les réclamations éventuelles. « Lorsqu’on cherche à améliorer l’expérience client, à développer les ventes croisées ou à provoquer une montée en gamme, il faut gagner en efficacité opérationnelle. Notre plateforme MDM (de gestion des données de référence) est fondée sur une architecture de grille de données en mémoire. Elle réunit les activités physiques et numériques derrière une vue unifiée, cohérente et en temps réel permettant d’évaluer plus rapidement et facilement de nouvelles opportunités. » Parmi les données prises en charge, il recense la capture des réseaux sociaux, les flux de streaming, les objets connectés (IoT) et le Big Data non structuré. Grâce aux API de l’offre MDM, chaque salarié peut participer à un processus MDM, où qu’il se trouve, que ce soit au travers d’une application métier, d’un portail web ou d’une application mobile.

Une astuce plus simple encore permet de réduire sensiblement les taux de retour de produits qui ne donnent pas satisfaction. Elle consiste à fournir des procédures d’utilisation et d’entretien adaptées : « L’analyse des retours de pulls en cachemire vendus en ligne a démontré que de nombreux internautes ne savaient pas comment prendre soin de cette matière. Désormais, chaque fiche produit contenant du cachemire propose une page explicative. Depuis, le taux de retour a été réduit de plus de 50% », illustre Nicolas Algoedt. Pour lui aussi, agréger les tickets de vente en boutique et en ligne devient incontournable : « En mémorisant tous les articles commandés, que ce soit via Internet ou en magasin, on dispose d’une connaissance étendue du client. On pourra ainsi l’inviter à tester, dans une cabine d’essayage en réalité augmentée, les pantalons, chaussettes et chaussures en accord avec son dressing. »

Pour Pascal Malotti, il importe surtout de soigner une chaîne de valeurs complète partant de l’agrégation des données brutes jusqu’à la visualisation du big data : « pour optimiser les campagnes marketing, les marques investissent dans un plan média généralement figé. Les data scientists ré-écrivent souvent d’anciens modèles algorithmiques pour créer de la valeur. Leur plateforme doit être assez souple pour tirer la quintessence des données. » Il confirme que les analystes de données numériques doivent passer beaucoup de temps à raffiner leurs données pour en tirer quelque chose. « Ce travail en amont nécessite plusieurs allers-retours sur l’expression des besoins afin de vérifier si la technologie apporte ou pas un vrai potentiel », dévoile-t-il. Ce serait une étape incontournable pour préciser quel modele de données correspond à quel type de besoins.

Guider l’internaute en jouant sur ses émotions

« Nous investissons sur le machine learning parce que nous croyons que c’est l’avenir. Le bon chemin à suivre consiste à personnaliser l’expérience client. La difficulté actuelle, c’est d’en faire une approche évolutive, capable de montée en charge », prévient Nicolas Algoedt. L’automatisation du marketing – à l’aide de techniques d’IA ou d’apprentissage automatique – doit démontrer sa capacité à passer à l’échelle.

Des infrastructures dynamiques

Les infrastructures évoluent dans ce sens, proposant des adaptations dynamiques notamment via le Software-Defined Network. Seront-elles suffisamment fines pour optimiser d’elles-mêmes les sites Internet dans quelques années ?

C’est très probable, selon les experts du big data. Heureusement, le facteur humain reste primordial dans l’élaboration de la solution : « Toute marque gagnante parvient à combiner à sa relation client des algorithmes d’IA ou de machine learning. Elle se distingue par ses interactions autant que par ses recettes technologiques. Elle réussit parce qu’elle sait jouer sur les émotions pour susciter l’envie d’un produit, d’un service ou d’un voyage », nuance-t-il. Toutes les étapes du marketing en temps réel ne relèvent pas de l’automatisation, confirme Pascal Malotti : « Au moment de passer de l’analyse en profondeur à la description d’une offre recommandée en ligne, il y a un travail créatif qui reste à faire. Cette re-contextualisation de l’information n’est pas du ressort de la plateforme big data. Il faut savoir décrire le produit de la manière la plus marketing possible. »