Rechercher

Le Big Data une activité indissociable du concept Manufacture 4.0,... l'avenir est en marche Manufacture 4.0 : Le pouvoir des données

Rédacteur: Jean-René Gonthier

>> Deuxième article d'une série sur le thème générique de la MANUFACTURE 4.0 et concoctée conjointement par Xavier Comtesse, mathématicien et informaticien et Florian Németi, économiste, Directeur de la Chambre neuchâteloise de Commerce et de l'Industrie. Ici il s'agit du sujet sensible de la récolte des données et du traitement de celles-ci.

Entreprises liées

Les données sont partout, que cela soit chez son garagiste ou chez son médecin,... la récolte des données des usagers et des clients est devenue monnaie courante.
Les données sont partout, que cela soit chez son garagiste ou chez son médecin,... la récolte des données des usagers et des clients est devenue monnaie courante.
(Image: Siemens)

La révolution actuelle du digital se caractérise notamment par l'importance des données. Quelles soient structurées ou non, les données deviennent une grosse composante de toutes entités économiques, non seulement parce qu'elles sont créées en très grand nombre, mais surtout parce que l'on dispose aujourd'hui d'outils permettant d'effectuer des analyses signifiantes en termes de qualités prédictives. En quelque sorte, les données commencent à "parler" et ceux qui sauront le mieux et le plus vite les écouter et les exploiter dans leurs modèles d’affaires seront les grands gagnants.

Pour bien comprendre ce phénomène, il est nécessaire de s'attarder quelques peu sur deux éléments forts qui ont fait changer notre rapport aux données: Le "Big Data" et le "Data Driven".

Les données au centre du nouvel avantage compétitif

1.- Le Big-Data, c'est ce déluge d'informations (de données non-structurées) dont parlait "The Economist" il y a déjà quelques années (25 février 2010). En peu de temps, nous avons collecté et stocké plus de 90% de l'ensemble des données jamais produites dans l'histoire humaine. Inimaginable. C'est ce que l'on appelle les Big-Data! Les On-line Data, les blogs, les tweets, les news, les notifications, les données de géolocalisation, de tracking d'activités, de diagnostic santé ou quantified-self et de e-commerce. Cela est sans fin ...on collecte tout et n’importe quoi. On produit toujours plus de données et nous ne sommes qu'au début du processus, car l'Internet des Objets va engendrer encore plus de données notamment celles qui seront produites entre robots, entre bots et autres algorithmes. Bref, comment tirer profit de cet amoncellement de données de base (raw data) ? Pouvons-nous apprendre quelque chose de ces données ? Y a-t-il des caractéristiques intrinsèques (pattern) propres aux données qui pourraient servir la science, la gouvernance, la médecine, l'économie ? C'est ce que le Data Scientist, le Data Analytic ou le Data Mining essaient de découvrir.

Plus encore que le stock de données, c'est peut être dans la lecture du flot de données que des renseignements précieux vont nous parvenir ! Si nous pouvions apprendre quelque chose sur l'avenir en lisant et interprétant le flot de données, alors nous parviendrions à un nouveau niveau dans le calcul des prévisions.

2.- Le Data-Driven est justement cette démarche empirique et pragmatique qui se base sur les flots de données pour la gestion des systèmes d'information, des organismes étatiques, non-étatiques ou des entreprises. Ainsi la société digitale est d'abord caractérisée par les données, puis par les algorithmes de traitement de celles-ci. Dans les phases précédentes de mécanisation, d'automatisation et de robotisation des tâches humaines, on demandait aux machines de réaliser automatiquement certains gestes et travaux que l'homme effectuait auparavant. Ici, au contraire, on évoque quelque chose de plus abstrait: la donnée. Quelles soient structurées ou non, les données doivent être collectées et surtout être traitées si possible en temps réel et en continu aussi!

From «big data to small data», une infographie de Siemens.
From «big data to small data», une infographie de Siemens.
(Image: Siemens)

Dès lors et même si ces dernières sont finalement stockées dans de grandes bases de données (Big Data), les données, tout comme les informations non structurées, vont composer une sorte de flux continu qu'il devrait être possible de comprendre instantanément à condition de disposer des outils adéquats.

Aujourd'hui, ces outils modernes d'analyses existent et permettent d'interpréter quasiment en temps réel ce flux de données ou d'informations en améliorant ainsi considérablement les processus décisionnels des entreprises ou des organismes étatiques. L'aide ainsi apportée par ces nouveaux outils concernent aussi d'autres domaines de l'activité humaine comme les processus de recherche (Google, Amazon, etc.) mais aussi de production, de marketing et de logistique pour ne citer que quelques domaines. Tout devient ainsi à flux tendu (ou continu) donnant au passage de nouvelles capacités prédictives aux structures dirigeantes qu'elles soient politiques, entrepreneuriales ou autres.

Des exigences de performance supplémentaires

Regardons un instant ce qui est réellement en train de changer. Une révolution est en cours et elle engendre un nouvel avantage concurrentiel fondé sur une matière première inédite – la donnée – impliquant de nouvelles exigences de performance dans l’économie, en plus de la maîtrise des coûts, des délais et de la qualité: vitesse et pertinence d’analyse, capacité prédictive, intelligence cognitive, créativité et faculté de modélisation.

Le problème est dès lors bien posé: il suffirait d'appliquer une procédure de maîtrise des données! Ceci passerait par la mise en place dans les entreprises et les organisations gouvernementales d'une méthodologie systématique qui aurait comme tâche de faire fonctionner correctement cette nouvelle approche que l'on peut résumer simplement en cinq étapes:

  • 1.- Créer un système complet d'information capable de recevoir des quantités considérables de données, notamment non structurées (stockage).
  • 2.- Mettre en place un réseau de capteurs physiques ou virtuels qui soient en mesure d'absorber ce flux massif et continu de données (captation).
  • 3.- Maîtriser les outils d'analyse et de visualisation de ce flot de données tout cela temps réel (analyse).
  • 4.- Inventer les nouvelles procédures de décision qui découle logiquement de cette nouvelle approche (assistance en intelligence artificielle).
  • 5.- Réinventer un arsenal des procédures de contrôle, d'autocorrection ou de feedback afin de garantir une bonne gouvernance (gouvernance).

Tout ce qui précède concerne essentiellement la compréhension théorique du phénomène. Mais quelques exemples bien choisis pourraient donner un éclairage bien plus pragmatique au changement.

Parcourons donc trois exemples (qui ont été extraits d'articles médias) dans les domaines de la circulation, du marketing et du business intelligence:

  • Exemple 1: Swisscom
  • Exemple 2: Marketing
  • Exemple 3: Analyse prédictive du comportement des consommateurs

1.- Swisscom

L'opérateur suisse de télécom a présenté dernièrement ses projets dans le domaine du «Big Data», notamment dans le secteur de la mobilité.

Un exemple? «Chaque jour, les clients de notre réseau de téléphonie mobile créent vingt milliards d’événements, via des appels ou des connexions à des antennes, ce qui correspond à un volume de deux terabytes de données», a expliqué Raphael Rollier, responsable du programme Smart City chez Swisscom. Deux terabytes, c’est à titre de comparaison la mémoire totale dont disposent, en moyenne, les ordinateurs vendus en grande surface.

Tout savoir des voitures à Pully Et ces données, Swisscom compte bien les exploiter. Pour son compte. Mais via des partenariats. L’opérateur a ainsi détaillé un projet très concret démarré avec la commune de Pully, dans l’est lausannois. «Nous effectuions jusqu’à présent un comptage précis des voitures circulant dans la commune durant une semaine, mais tous les cinq ans. Cela ne nous permettait pas de savoir d’où venaient les voitures et où elles allaient » , a expliqué Alexandre Bosshard, membre de la Direction des travaux et des services industriels de Pully. Du coup, la ville de 17 000 habitants a mandaté Swisscom, qui a analysé toutes les cartes SIM des téléphones de ses clients (il détient 65% du marché suisse) actifs sur Pully. Mais aussi à l’extérieur de la commune.

From «big data to small data», une infographie de Siemens.
From «big data to small data», une infographie de Siemens.
(Image: Siemens)

L’opérateur a ainsi communiqué à la commune des données précises. «Nous savons de quelle commune et même de quel quartier viennent les voitures qui circulent à Pully, a détaillé Raphael Rollier. Nous savons que sur les 25'000 véhicules qui passent dans la commune chaque jour, 10% appartiennent à des visiteurs (qui restent entre 15 minutes et 4 heures), 5% à des pendulaires (qui restent entre 4 et 8 heures) et 75% à des personnes en transit». Swisscom assure que toutes les données sont "anonymisées", agrégé et qu’aucun de ses clients n’est tracé individuellement.

Et ensuite? «Nous allons planifier de manière plus fine notre réseau routier et par exemple nos giratoires pour éviter que le flux de pendulaire n’augmente encore, pour améliorer la qualité de vie de nos habitants», a affirmé Alexandre Bosshard. Swisscom, qui continue à travailler sur ce projet, va aussi s’intéresser à Genève. L’opérateur va démarrer une expérience avec le canton pour examiner la mobilité sur l’ensemble de son territoire.

Le «Big Data» permet de tracer des voitures, mais aussi des humains. Sur le campus de l’EPFL se trouve une start-up, Visiosafe, active dans ce domaine et soutenue financièrement par un certain… Swisscom. «Dans les bâtiments, qu’ils soient publics, qu’il s’agisse de centres commerciaux ou de boutiques, il devient important de savoir qui passe par quel chemin, combien de temps il s’arrête et où il va. Le Big Data nous aide à connaître une foule de renseignements utiles pour configurer des bâtiments ou améliorer la rentabilité de commerces» a expliqué Alain Alahi, fondateur et directeur de Visiosafe. La société a installé une centaine de capteurs dans la gare de Lausanne, capteurs qui communiquent avec toutes les cartes SIM des clients de Swisscom. «Nous sommes capables de voir qu’à 10h52, il y a un engorgement dans cette partie du passage sous voie, et pouvons déterminer s’il s’agit de passagers se dirigeant vers un quai proche ou de personnes en transit», a poursuivi Alain Alahi.

Pour Swisscom, ces expériences sont prometteuses. «Clairement, le «Big Data» est un marché d’avenir, que ce soit pour utiliser au mieux toutes nos données ou pour aider les entreprises à mieux exploiter les données qu’elles ont elles-mêmes, a expliqué Iris Kornacker, responsable de la division «Big Data Solutions» chez l’opérateur. Nous avons un savoir-faire à partager et ne sommes qu’au début de ces projets».

Source: extrait d'un article du journal Le Temps du 7 octobre 2015

2.- Marketing

« Les publicités "Display" sont aujourd'hui partout présentes sur le web. En effet, tous les sites que nous parcourons chaque jour sont couverts de pub de type "Display". Un marketing en temps réel qui fonctionne sur la base d’algorithmes enrichie par les données personnelles de chacun d’entre nous. Elles ont remplacé les cookies qui avaient jusqu'alors réalisé ce travail.

Aujourd’hui, les plus grands sites utilisent le Big Data pour récupérer et analyser les données de navigation en provenance de sites tiers.

Amazon par exemple, utilise des données de navigation en provenance de Facebook, Twitter, Google pour affiner le ciblage et mieux connaître les intérêts des usagers.

Plus de données, c’est avant tout un ciblage plus précis qui prend en compte un comportement plus objectif sur le web que sur un seul site. Si vous vous connectez sur un site marchand seulement pour un produit spécifique, ce dernier n’aura qu’un regard étroit de vos intérêts. Il va donc aller s’alimenter en données auprès des sites d’actualités, réseaux sociaux et autres pour mieux comprendre ce qui vous intéresse en matière d’information et de recherches web pour vous recommander en direct des produits.

Le real-time marketing fonctionne sur ce principe avec un besoin monstrueux de quantité de données monstrueuses que le pouvoir du Cloud pourra récupérer et collecter en direct et que d’autres sites pourront promouvoir une offre ou une annonce personnalisée. N’avez-vous fait jamais l’expérience suite à une recherche par exemple d’une destination de vacances sur internet, de recevoir dans les minutes ou les heures suivantes des offres d’hôtels de Booking.com ou Tripadvisor pour ce lieu ? Sur cette logique, le native advertising et le marketing Display évoluent vers une personnalisation de plus en plus pointue.

Le Display est depuis longtemps personnalisé en fonction des données de navigation et du contenu d’une page web, les networks qui regroupent les médias utilisent le Big Data pour segmenter et cibler au mieux, mais également Google et son offre AdWords. Pour automatiser notamment le ciblage et offrir une large audience ainsi qu’un paramétrage simplifié, les networks, mais aussi AdWords, utilisent des algorithmes qui permettent par l’intermédiaire du Big Data d’analyser de nombreuses variables pour promouvoir une annonce auprès des internautes les plus aptes à cliquer sur celles-ci.

Le native advertising va encore plus loin en mettant en avant des publicités qui participent à l’expérience de l’internaute, souvent au format vidéo. Les outils de native advertising se basent souvent sur le text mining, c’est-à-dire l’analyse du contenu d’un article pour insérer des annonces pertinentes. Par exemple, des annonces vidéos au milieu d’un article sur un grand média ou encore des annonces Display vers des contenus éditoriaux de marques».

Source: extrait article du journal online marketing

3.- Analyse prédictive du comportement des consommateurs:

« On parle de prédictif dès lors que l'on est capable d'extraire des connaissances sur les comportements futurs des clients à partir des Big Data internes ou externes, c'est-à-dire provenant de multiples flux de données. Dans ce cas, la customer intelligence utilisent des flux de données externes. Mais à part les GAFA (Google, Apple, Facebook, Amazon), peu d'entreprises sont aujourd'hui capable de la faire aisément.

On se concentre donc sur les données en interne avec une forme de Big Data In-House géré par les DMP (Data Management Platforms). Sans écarter la possibilité de mélanger les données de ses canaux de communication avec des Third Party data, les entreprises se concentrent le plus souvent sur les interactions de leurs prospects et clients avec leurs Owned Medias, depuis la chaîne YouTube à la newsletter, en passant par le blog. Les flux de données peuvent devenir dès lors très nombreux pour les entreprises.

La production intégrée est nourrie d'un flux de données impressionnant.
La production intégrée est nourrie d'un flux de données impressionnant.
(Image: Siemens)

Agréger plus de flux de données au travers du point de rendez-vous que sont les DMP, est une innovation majeure pour la customer intelligence. Autrefois réservé à chaque canal de communication, le reporting manquait d’unification et les entreprises obligées d’adopter plusieurs visions étriquées réduites à chacun de leurs canaux de communication : les perspectives et reporting restaient ainsi limitées sans vision complète de ses outils. En collectant de multiples flux de données pour les croiser et les analyser, on récupère ainsi beaucoup plus de savoirs à mettre en œuvre en business intelligence afin d’adapter le marketing opérationnel en conséquence.

Le résultat ? Des scénarios de marketing automatisés et adaptés pour chaque segment, ainsi qu'une meilleure connaissance de toutes ces populations de prospects et clients pour communiquer à travers les bons canaux de communication vers les bonnes cibles. A terme, on cherche à mettre en place une analyse prédictive qui offre la capacité à anticiper les besoins des clients pour transmettre la bonne information ou la bonne proposition, à la bonne personne, au bon moment ! »

Source: extrait de l'article du journal Webmarketing-com <<

Auteurs:

Xavier Comtesse, mathématicien et informaticien.

Florian Németi, économiste, Directeur de la Chambre neuchâteloise de Commerce et de l'Industrie.

Le premier article de cette série est paru en page 42 de l'édition MSM 1/2016.

(ID:43856840)