Rechercher

Le Big Data une activité indissociable du concept Manufacture 4.0,... l'avenir est en marche

Manufacture 4.0 : Le pouvoir des données

Page: 2/2

Entreprises liées

1.- Swisscom

L'opérateur suisse de télécom a présenté dernièrement ses projets dans le domaine du «Big Data», notamment dans le secteur de la mobilité.

Un exemple? «Chaque jour, les clients de notre réseau de téléphonie mobile créent vingt milliards d’événements, via des appels ou des connexions à des antennes, ce qui correspond à un volume de deux terabytes de données», a expliqué Raphael Rollier, responsable du programme Smart City chez Swisscom. Deux terabytes, c’est à titre de comparaison la mémoire totale dont disposent, en moyenne, les ordinateurs vendus en grande surface.

Tout savoir des voitures à Pully Et ces données, Swisscom compte bien les exploiter. Pour son compte. Mais via des partenariats. L’opérateur a ainsi détaillé un projet très concret démarré avec la commune de Pully, dans l’est lausannois. «Nous effectuions jusqu’à présent un comptage précis des voitures circulant dans la commune durant une semaine, mais tous les cinq ans. Cela ne nous permettait pas de savoir d’où venaient les voitures et où elles allaient » , a expliqué Alexandre Bosshard, membre de la Direction des travaux et des services industriels de Pully. Du coup, la ville de 17 000 habitants a mandaté Swisscom, qui a analysé toutes les cartes SIM des téléphones de ses clients (il détient 65% du marché suisse) actifs sur Pully. Mais aussi à l’extérieur de la commune.

From «big data to small data», une infographie de Siemens.
From «big data to small data», une infographie de Siemens.
(Image: Siemens)

L’opérateur a ainsi communiqué à la commune des données précises. «Nous savons de quelle commune et même de quel quartier viennent les voitures qui circulent à Pully, a détaillé Raphael Rollier. Nous savons que sur les 25'000 véhicules qui passent dans la commune chaque jour, 10% appartiennent à des visiteurs (qui restent entre 15 minutes et 4 heures), 5% à des pendulaires (qui restent entre 4 et 8 heures) et 75% à des personnes en transit». Swisscom assure que toutes les données sont "anonymisées", agrégé et qu’aucun de ses clients n’est tracé individuellement.

Et ensuite? «Nous allons planifier de manière plus fine notre réseau routier et par exemple nos giratoires pour éviter que le flux de pendulaire n’augmente encore, pour améliorer la qualité de vie de nos habitants», a affirmé Alexandre Bosshard. Swisscom, qui continue à travailler sur ce projet, va aussi s’intéresser à Genève. L’opérateur va démarrer une expérience avec le canton pour examiner la mobilité sur l’ensemble de son territoire.

Le «Big Data» permet de tracer des voitures, mais aussi des humains. Sur le campus de l’EPFL se trouve une start-up, Visiosafe, active dans ce domaine et soutenue financièrement par un certain… Swisscom. «Dans les bâtiments, qu’ils soient publics, qu’il s’agisse de centres commerciaux ou de boutiques, il devient important de savoir qui passe par quel chemin, combien de temps il s’arrête et où il va. Le Big Data nous aide à connaître une foule de renseignements utiles pour configurer des bâtiments ou améliorer la rentabilité de commerces» a expliqué Alain Alahi, fondateur et directeur de Visiosafe. La société a installé une centaine de capteurs dans la gare de Lausanne, capteurs qui communiquent avec toutes les cartes SIM des clients de Swisscom. «Nous sommes capables de voir qu’à 10h52, il y a un engorgement dans cette partie du passage sous voie, et pouvons déterminer s’il s’agit de passagers se dirigeant vers un quai proche ou de personnes en transit», a poursuivi Alain Alahi.

Pour Swisscom, ces expériences sont prometteuses. «Clairement, le «Big Data» est un marché d’avenir, que ce soit pour utiliser au mieux toutes nos données ou pour aider les entreprises à mieux exploiter les données qu’elles ont elles-mêmes, a expliqué Iris Kornacker, responsable de la division «Big Data Solutions» chez l’opérateur. Nous avons un savoir-faire à partager et ne sommes qu’au début de ces projets».

Source: extrait d'un article du journal Le Temps du 7 octobre 2015

2.- Marketing

« Les publicités "Display" sont aujourd'hui partout présentes sur le web. En effet, tous les sites que nous parcourons chaque jour sont couverts de pub de type "Display". Un marketing en temps réel qui fonctionne sur la base d’algorithmes enrichie par les données personnelles de chacun d’entre nous. Elles ont remplacé les cookies qui avaient jusqu'alors réalisé ce travail.

Aujourd’hui, les plus grands sites utilisent le Big Data pour récupérer et analyser les données de navigation en provenance de sites tiers.

Amazon par exemple, utilise des données de navigation en provenance de Facebook, Twitter, Google pour affiner le ciblage et mieux connaître les intérêts des usagers.

Plus de données, c’est avant tout un ciblage plus précis qui prend en compte un comportement plus objectif sur le web que sur un seul site. Si vous vous connectez sur un site marchand seulement pour un produit spécifique, ce dernier n’aura qu’un regard étroit de vos intérêts. Il va donc aller s’alimenter en données auprès des sites d’actualités, réseaux sociaux et autres pour mieux comprendre ce qui vous intéresse en matière d’information et de recherches web pour vous recommander en direct des produits.

Le real-time marketing fonctionne sur ce principe avec un besoin monstrueux de quantité de données monstrueuses que le pouvoir du Cloud pourra récupérer et collecter en direct et que d’autres sites pourront promouvoir une offre ou une annonce personnalisée. N’avez-vous fait jamais l’expérience suite à une recherche par exemple d’une destination de vacances sur internet, de recevoir dans les minutes ou les heures suivantes des offres d’hôtels de Booking.com ou Tripadvisor pour ce lieu ? Sur cette logique, le native advertising et le marketing Display évoluent vers une personnalisation de plus en plus pointue.

Le Display est depuis longtemps personnalisé en fonction des données de navigation et du contenu d’une page web, les networks qui regroupent les médias utilisent le Big Data pour segmenter et cibler au mieux, mais également Google et son offre AdWords. Pour automatiser notamment le ciblage et offrir une large audience ainsi qu’un paramétrage simplifié, les networks, mais aussi AdWords, utilisent des algorithmes qui permettent par l’intermédiaire du Big Data d’analyser de nombreuses variables pour promouvoir une annonce auprès des internautes les plus aptes à cliquer sur celles-ci.

Le native advertising va encore plus loin en mettant en avant des publicités qui participent à l’expérience de l’internaute, souvent au format vidéo. Les outils de native advertising se basent souvent sur le text mining, c’est-à-dire l’analyse du contenu d’un article pour insérer des annonces pertinentes. Par exemple, des annonces vidéos au milieu d’un article sur un grand média ou encore des annonces Display vers des contenus éditoriaux de marques».

Source: extrait article du journal online marketing

3.- Analyse prédictive du comportement des consommateurs:

« On parle de prédictif dès lors que l'on est capable d'extraire des connaissances sur les comportements futurs des clients à partir des Big Data internes ou externes, c'est-à-dire provenant de multiples flux de données. Dans ce cas, la customer intelligence utilisent des flux de données externes. Mais à part les GAFA (Google, Apple, Facebook, Amazon), peu d'entreprises sont aujourd'hui capable de la faire aisément.

On se concentre donc sur les données en interne avec une forme de Big Data In-House géré par les DMP (Data Management Platforms). Sans écarter la possibilité de mélanger les données de ses canaux de communication avec des Third Party data, les entreprises se concentrent le plus souvent sur les interactions de leurs prospects et clients avec leurs Owned Medias, depuis la chaîne YouTube à la newsletter, en passant par le blog. Les flux de données peuvent devenir dès lors très nombreux pour les entreprises.

La production intégrée est nourrie d'un flux de données impressionnant.
La production intégrée est nourrie d'un flux de données impressionnant.
(Image: Siemens)

Agréger plus de flux de données au travers du point de rendez-vous que sont les DMP, est une innovation majeure pour la customer intelligence. Autrefois réservé à chaque canal de communication, le reporting manquait d’unification et les entreprises obligées d’adopter plusieurs visions étriquées réduites à chacun de leurs canaux de communication : les perspectives et reporting restaient ainsi limitées sans vision complète de ses outils. En collectant de multiples flux de données pour les croiser et les analyser, on récupère ainsi beaucoup plus de savoirs à mettre en œuvre en business intelligence afin d’adapter le marketing opérationnel en conséquence.

Le résultat ? Des scénarios de marketing automatisés et adaptés pour chaque segment, ainsi qu'une meilleure connaissance de toutes ces populations de prospects et clients pour communiquer à travers les bons canaux de communication vers les bonnes cibles. A terme, on cherche à mettre en place une analyse prédictive qui offre la capacité à anticiper les besoins des clients pour transmettre la bonne information ou la bonne proposition, à la bonne personne, au bon moment ! »

Source: extrait de l'article du journal Webmarketing-com <<

Auteurs:

Xavier Comtesse, mathématicien et informaticien.

Florian Németi, économiste, Directeur de la Chambre neuchâteloise de Commerce et de l'Industrie.

Le premier article de cette série est paru en page 42 de l'édition MSM 1/2016.

(ID:43856840)