Le Big Data une activité indissociable du concept Manufacture 4.0,... l'avenir est en marche

Manufacture 4.0 : Le pouvoir des données

| Rédacteur: Jean-René Gonthier

Les données sont partout, que cela soit chez son garagiste ou chez son médecin,... la récolte des données des usagers et des clients est devenue monnaie courante.
Les données sont partout, que cela soit chez son garagiste ou chez son médecin,... la récolte des données des usagers et des clients est devenue monnaie courante. (Image: Siemens)

>> Deuxième article d'une série sur le thème générique de la MANUFACTURE 4.0 et concoctée conjointement par Xavier Comtesse, mathématicien et informaticien et Florian Németi, économiste, Directeur de la Chambre neuchâteloise de Commerce et de l'Industrie. Ici il s'agit du sujet sensible de la récolte des données et du traitement de celles-ci.

La révolution actuelle du digital se caractérise notamment par l'importance des données. Quelles soient structurées ou non, les données deviennent une grosse composante de toutes entités économiques, non seulement parce qu'elles sont créées en très grand nombre, mais surtout parce que l'on dispose aujourd'hui d'outils permettant d'effectuer des analyses signifiantes en termes de qualités prédictives. En quelque sorte, les données commencent à "parler" et ceux qui sauront le mieux et le plus vite les écouter et les exploiter dans leurs modèles d’affaires seront les grands gagnants.

Pour bien comprendre ce phénomène, il est nécessaire de s'attarder quelques peu sur deux éléments forts qui ont fait changer notre rapport aux données: Le "Big Data" et le "Data Driven".

Les données au centre du nouvel avantage compétitif

1.- Le Big-Data, c'est ce déluge d'informations (de données non-structurées) dont parlait "The Economist" il y a déjà quelques années (25 février 2010). En peu de temps, nous avons collecté et stocké plus de 90% de l'ensemble des données jamais produites dans l'histoire humaine. Inimaginable. C'est ce que l'on appelle les Big-Data! Les On-line Data, les blogs, les tweets, les news, les notifications, les données de géolocalisation, de tracking d'activités, de diagnostic santé ou quantified-self et de e-commerce. Cela est sans fin ...on collecte tout et n’importe quoi. On produit toujours plus de données et nous ne sommes qu'au début du processus, car l'Internet des Objets va engendrer encore plus de données notamment celles qui seront produites entre robots, entre bots et autres algorithmes. Bref, comment tirer profit de cet amoncellement de données de base (raw data) ? Pouvons-nous apprendre quelque chose de ces données ? Y a-t-il des caractéristiques intrinsèques (pattern) propres aux données qui pourraient servir la science, la gouvernance, la médecine, l'économie ? C'est ce que le Data Scientist, le Data Analytic ou le Data Mining essaient de découvrir.

Plus encore que le stock de données, c'est peut être dans la lecture du flot de données que des renseignements précieux vont nous parvenir ! Si nous pouvions apprendre quelque chose sur l'avenir en lisant et interprétant le flot de données, alors nous parviendrions à un nouveau niveau dans le calcul des prévisions.

2.- Le Data-Driven est justement cette démarche empirique et pragmatique qui se base sur les flots de données pour la gestion des systèmes d'information, des organismes étatiques, non-étatiques ou des entreprises. Ainsi la société digitale est d'abord caractérisée par les données, puis par les algorithmes de traitement de celles-ci. Dans les phases précédentes de mécanisation, d'automatisation et de robotisation des tâches humaines, on demandait aux machines de réaliser automatiquement certains gestes et travaux que l'homme effectuait auparavant. Ici, au contraire, on évoque quelque chose de plus abstrait: la donnée. Quelles soient structurées ou non, les données doivent être collectées et surtout être traitées si possible en temps réel et en continu aussi!

From «big data to small data», une infographie de Siemens.
From «big data to small data», une infographie de Siemens. (Image: Siemens)

Dès lors et même si ces dernières sont finalement stockées dans de grandes bases de données (Big Data), les données, tout comme les informations non structurées, vont composer une sorte de flux continu qu'il devrait être possible de comprendre instantanément à condition de disposer des outils adéquats.

Aujourd'hui, ces outils modernes d'analyses existent et permettent d'interpréter quasiment en temps réel ce flux de données ou d'informations en améliorant ainsi considérablement les processus décisionnels des entreprises ou des organismes étatiques. L'aide ainsi apportée par ces nouveaux outils concernent aussi d'autres domaines de l'activité humaine comme les processus de recherche (Google, Amazon, etc.) mais aussi de production, de marketing et de logistique pour ne citer que quelques domaines. Tout devient ainsi à flux tendu (ou continu) donnant au passage de nouvelles capacités prédictives aux structures dirigeantes qu'elles soient politiques, entrepreneuriales ou autres.

Des exigences de performance supplémentaires

Regardons un instant ce qui est réellement en train de changer. Une révolution est en cours et elle engendre un nouvel avantage concurrentiel fondé sur une matière première inédite – la donnée – impliquant de nouvelles exigences de performance dans l’économie, en plus de la maîtrise des coûts, des délais et de la qualité: vitesse et pertinence d’analyse, capacité prédictive, intelligence cognitive, créativité et faculté de modélisation.

Le problème est dès lors bien posé: il suffirait d'appliquer une procédure de maîtrise des données! Ceci passerait par la mise en place dans les entreprises et les organisations gouvernementales d'une méthodologie systématique qui aurait comme tâche de faire fonctionner correctement cette nouvelle approche que l'on peut résumer simplement en cinq étapes:

  • 1.- Créer un système complet d'information capable de recevoir des quantités considérables de données, notamment non structurées (stockage).
  • 2.- Mettre en place un réseau de capteurs physiques ou virtuels qui soient en mesure d'absorber ce flux massif et continu de données (captation).
  • 3.- Maîtriser les outils d'analyse et de visualisation de ce flot de données tout cela temps réel (analyse).
  • 4.- Inventer les nouvelles procédures de décision qui découle logiquement de cette nouvelle approche (assistance en intelligence artificielle).
  • 5.- Réinventer un arsenal des procédures de contrôle, d'autocorrection ou de feedback afin de garantir une bonne gouvernance (gouvernance).

Tout ce qui précède concerne essentiellement la compréhension théorique du phénomène. Mais quelques exemples bien choisis pourraient donner un éclairage bien plus pragmatique au changement.

Parcourons donc trois exemples (qui ont été extraits d'articles médias) dans les domaines de la circulation, du marketing et du business intelligence:

  • Exemple 1: Swisscom
  • Exemple 2: Marketing
  • Exemple 3: Analyse prédictive du comportement des consommateurs

Contenu de l'article:

Ajouter un commentaire

copyright

Ce texte est protégé par les droits d'auteur. Si vous désirez l'utiliser pour des besoins personnels veuillez consulter les conditions suivantes sur www.mycontentfactory.de (ID: 43856840 / Tendances)