linkedin twitter

 

Une grande partie des cas d’usage du Big Data existaient déjà avant son émergence. Les nouvelles techniques permettent cependant d’aller plus vite et de traiter plus de données. Car aujourd’hui, il existe beaucoup plus de données générées automatiquement (issues du web, des appareils mobiles et de capteurs divers). La plupart des utilisations actuelles du Big Data se regroupent en quelques thèmes :

  • pressentir la naissance d’une tendance,
  • prédire l’évolution d’un phénomène,
  • repérer des corrélations pour optimiser une stratégie,
  • faire des contrôles pour découvrir une fraude,
  • organiser une communication virale,
  • mieux cibler….

Toutes les sociétés et tous les secteurs d’activités sont concernés : la vente/commerce, les administrations et le secteur public, les domaines scientifiques et médicaux, la banque/assurance, les télécoms, les usines de production.

1.    Marketing

Le Marketing est naturellement un client pour le Big Data que ce soit pour de l’analyse prédictive ou de l’analyse de sentiment, que l’on peut définir rapidement par l’interprétation automatisée de l’opinion exprimée d’un individu. Ce jugement est caractérisé par une polarité (positive, neutre, un mélange des deux) et une intensité.

e-reputation

A l’heure de la mondialisation et de la communication instantanée, les services marketing de nombreuses sociétés utilisent les échanges sur les réseaux sociaux comme le reflet de l’opinion publique. Celle-ci  devient une nouvelle source d’informations en temps réel directement fournie par le consommateur. Les questions d’e-réputation « à quoi est associée mon image ? » ou « comment est accueilli le nouveau produit que je viens de lancer ? » peuvent être   analysées avec ces données. Le Big Data permet de prendre le pouls quasiment en direct, mesurer l’impact de sa marque, savoir comment est perçue la société par le public et anticiper les mauvaises critiques. Une fausse rumeur qui se propagerait massivement peut faire énormément de dégâts : écorner l’image d’une marque, plomber les ventes d’un produit, faire chuter un cours en bourse. Il donne l’occasion aux équipes de communication de réagir avant que cela ne devienne viral.

La fidélisation

Globe Telecom, opérateur de télécom, a monté un projet basé sur des technologies Big Data qui permet la détection de l’épuisement du crédit des cartes téléphoniques prépayées en fonction des modes de consommation (durée et fréquence des appels, nb de sms/jour). L’opérateur était intéressé par ce type d’analyse car sa clientèle est très volatile. Ce procédé leur a permis de réduire de 95% les coûts des opérations marketing et d’améliorer de 600% la pertinence de leurs offres promotionnelles tout en fidélisant une plus grande partie des clients.

And the winner is…

A l’occasion de l’Eurovision, la société organisatrice a mis en place un projet Big Data sans gros budget et dans des délais réduits (3 semaines). 1 200 000 tweets ont été analysés sur toute la durée de l’événement et jusqu’à 840 000 tweets uniquement le soir de la finale. Les résultats ont permis de déterminer les 3 finalistes et le gagnant 3 jours avant la finale. Déjà testé sur les précédentes élections présidentielles américaines ou les cérémonies des oscars, le modèle prédictif de Microsoft Research repose sur les possibilités d’analyses et de croisement de données du Big Data, mêlant ici commentaires sur les réseaux sociaux, sondages d’opinion et autres paris d’internautes.

L’analyse de comportement

L’analyse du comportement des clients en magasin permet d’améliorer l’aménagement du magasin, le mix produit et la disposition des produits dans les rayons et sur les étagères. Les dernières innovations ont également permis de suivre les habitudes d’achat (compter le nombre de pas effectués et le temps passé dans chaque rayon du magasin), géolocaliser en temps réel les clients en monitorant  les signaux des boitiers émetteurs sur les caddies ou des téléphones portables dans le périmètre du magasin. Les données issues des tickets de caisse, captées depuis longtemps, peuvent  maintenant être croisées avec les données précédemment citées. Ceci permet de dresser un profil précis de chaque consommateur, et non plus d’un groupe, afin de faire de la micro-segmentation et de personnaliser les offres au maximum (marketing direct).

L’optimisation des prix

D’après l’Observatoire des Usages Internet de Médiamétrie (communiqué FEVAD), en 2012, 31,9 millions d’internautes français ont acheté en ligne, soit plus de 78% de cette population. Ce qu’ils ignorent certainement, c’est comment sont déterminés certains prix de vente affichés, car il n’est pas fixe pour tous les consommateurs à un moment donné, ce qui s’appelle le « dynamic pricing ». Concrètement, le comportement des internautes sur la toile est pisté et analysé. Par exemple : le temps passé sur la fiche d’un produit, les sites déjà visités (notamment les concurrents), le type de recherche effectué via un comparateur de prix ou un moteur de recherche. En l’occurrence, un des géants du e-commerce (plus grosse librairie en ligne) se sert de tous ces critères pour définir un profil immédiat du prospect/client et adapter le prix « à la tête du client » au moment d’afficher une page. Le « dynamic pricing » lui permet de capter plus de clients, de les détourner de ses concurrents et d’augmenter à la fois son taux de transformation et ses marges.

 

2.    Protection de la population et prévention

La surveillance

Depuis la fin des années 90, nous sommes entrés dans l’ère du renseignement. Satellites, drones, espionnage, intrusion sur des serveurs gouvernementaux, fichage de la population, écoutes téléphoniques, surveillance des mails et transactions bancaires sont autant de moyens mis en œuvre par les états au nom de la défense du territoire et de la protection des citoyens contre toute menace ou attaque. De milliards de données non structurées sont ainsi collectées sous forme d’images (photos, empreintes), d’enregistrements audio ou vidéo, de schémas ou de cartes, de documents cryptés qu’il faut pouvoir stocker, trier en fonction de la pertinence et analyser afin d’en faire ressortir des informations critiques (Cf cet article sur le sens de la donnée).

Le Big Data aide à résoudre efficacement des enquêtes policières (analyser des indices, trouver une corrélation entre plusieurs affaires), ou prévenir un attentat (suivre les déplacements d’un suspect, reconnaissance faciale sur des vidéos, interception de correspondance par mails entre terroristes). Il permet de réduire le temps de résolution des affaires et d’en augmenter le taux de résolution.

Google Suivi de la dengue (Programme Google Tendances)

En 2008, Google a lancé le projet Google Suivi de la Grippe rapidement suivi par d’autres.

L’étude a fait remarquer une corrélation étroite entre le nombre de personnes qui recherchent des mots-clés liés à la dengue et le nombre de personnes présentant les symptômes de cette maladie. Bien entendu, le modèle mathématique mis en place ne considère pas que toutes les personnes qui font des recherches sur ces mots-clés sont porteuses de la maladie. La comparaison avec les données officielles des organismes de Santé a montré que les résultats obtenus étaient tangibles, avec un taux de corrélation oscillant de 0,82 à 0,99. Le but atteint est de pouvoir estimer la progression de la dengue dans les pays ciblés afin de réagir au plus vite sur le terrain et d’endiguer une épidémie. De plus, les tendances obtenues par Google sont actualisées quotidiennement alors que les chiffres officiels ont une fréquence hebdomadaire voire mensuelle (plus de détails ici).

Source : http://www.google.org/denguetrends/about/how.html

 

3.    Les télécommunications

Que faire des logs générés par les communications de plusieurs millions d’abonnés dans plusieurs pays ? C’est la question que se sont posés SFR et Orange. Ils ont réussi à transformer un centre de coût en centre de profit en dégageant de ces logs de l’information avec un potentiel économique important et ainsi créer une nouvelle source de revenu. Pour cela, ils se sont appuyés sur une application développée par une PME française (cocorico !) du nom d’Intersec. Les données sont collectées par leurs antennes relais déployées sur tout le territoire. Elles sont ensuite agrégées, anonymisées et consolidées dans de vastes datawarehouses soutenus par une infrastructure Hadoop comme le relate cet article.

Chez SFR, chaque jour ce sont près d’un milliard d’événements (action d’allumer ou éteindre un terminal, passage d’appels…) qui sont remontés du réseau et traités. Ce flux interne est également croisé avec des sources externes : Open Data, bases de partenaires, données sociodémographiques, données du cadastre, etc. « Les enchainements d’événements émis par les mobiles permettent de suivre la densité et les flux de population que ce soit au niveau macro, national et urbain, que micro selon la topologie du réseau », explique-t-on chez SFR. « Notre dispositif nous a permis par exemple d’évaluer à 389 500 le nombre de visiteurs du Festival de Cannes en 2012, et d’observer un pic de fréquentation le 18 mai 2012 à 17h. » SFR calcule d’autres indicateurs qui peuvent intéresser des acteurs du transport ou les collectivités locales tels que  le suivi de la dispersion des passagers ayant pris un train à la gare Saint Lazare, ou encore la fréquentation des lignes du métro parisien selon l’heure de la journée.

Mais le secteur de la distribution représente aussi une cible importante du groupe, les commerçants étant très intéressés de connaitre la provenance des clients visitant leur centre commercial ou leur supermarché. L’intérêt pour les clients (B to B) de ce type d’offre est le gain en temps et en coût (moins cher qu’un  sondage humain et résultats en temps réel) pour obtenir une qualification précise du profil de leurs clients.

 

A travers tous ces exemples, on remarque que les domaines d’application du Big Data sont très variés, même si le premier client s’avère être le marketing, gros consommateur de chiffres et toujours avide des dernières tendances. En outre, les projets Big Data offrent plus de possibilités que celles proposées par l’Informatique décisionnelle classique, qui montrent ses limites lorsqu’il s’agit de traiter de très gros volumes de données ou des données non structurées (images, vidéos, logs, etc.). Plus de possibilités impliquent aussi de nouveaux défis pour les développeurs Big Data, notamment avec la data-visualisation qui traite la question de la restitution visuelle et de la représentation graphique des données. Afin de poursuivre sur le sujet, je vous proposerai prochainement un article sur les avantages du Big Data par rapport au décisionnel classique.

 

Commentaires

  1. Très intéressant. Le cas des Telcos est particulièrement prometteur, même s’il soulève des questions de protection de la vie privée évidentes.

    Je me permets de compléter votre panorama des applications sectorielles du Big Data :
    Chez les compagnies aériennes : http://www.data-business.fr/big-data-transformer-les-compagnies-aeriennes/
    Dans l’assurance : http://www.data-business.fr/opportunites-applications-big-data-assurance/

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Voir plus
scroll to top