Usine du futur Industrie 4.0 : déjà obsolète ?

de Gilles Bordet 12 min Temps de lecture

Related Vendors

Servi à toutes les sauces, le terme d'Industrie 4.0 est devenu un mot valise pour tout et son contraire, mais ses fondamentaux restent toujours valables.

Qu'elle génère de l'enthousiasme ou de l'angoisse, la collaboration entre les humains et les machines est bel et bien en route.(Source :  stokkete – stock.adobe.com)
Qu'elle génère de l'enthousiasme ou de l'angoisse, la collaboration entre les humains et les machines est bel et bien en route.
(Source : stokkete – stock.adobe.com)

La quatrième révolution industrielle met en jeu de nouveaux moyens technologiques pour optimiser la production grâce à la convergence des outils virtuels et le monde des objets physiques.

L'industrie 4.0 repose sur deux piliers : les systèmes cyber-physiques et l'internet des objets (IoT). Ceux-ci apportent une nouvelle autonomie à nos modes de production en laissant de plus en plus de liberté de décision aux machines. Il s'agit tout simplement de systèmes autonomes qui regroupent hardware, software et capteurs, le tout dopé à l'IA et mis en réseau. Ce qui change surtout par rapport à avant, c'est que les machines de production ne sont pas seulement mises en réseau en interne, mais également avec d'autres sites de production qui peuvent se trouver à l'autre bout du monde.

Galerie d'images

Le but premier est bien entendu d'augmenter l'efficacité des processus industriels tout en réduisant les interventions humaines. Un exemple est la maintenance prédictive, qui permet une gestion contrôlée des arrêts machines en évitant les pannes coûteuses et chronophages. Mais c'est surtout l'accroissement de la flexibilité qui rend ce concept si intéressant. Une grande flexibilité permet de fabriquer en plus petits lots et de manière personnalisée des produits complexes, tout en maîtrisant les coûts.

Les innovations qui ont permis la 4e révolution industrielle

Plusieurs technologies sont à la base de l'industrie 4.0 : l'IA, la robotique, l'impression 3D, la réalité augmentée, les logiciels en tant que service (SaaS), le machine learning, pour ne citer que les plus importantes. Les termes « smart industry » ou « smart product » reviennent fréquemment lorsque l'on parle de 4e révolution industrielle. Au regard des dernières avancées dans le domaine des IA, le choix du mot « smart », qu'on le traduise en français par intelligent, rusé ou dégourdi, était quelque peu prématuré lorsque le concept d'industrie 4.0 a été présenté à la foire de Hannovre en 2011. À ce moment, certaines technologies étaient déjà matures alors que d'autres n'en étaient qu'à leur balbutiement. Treize ans après, force est de constater que des avancées très significatives ont été accomplies dans de nombreux domaines, physiques comme cybers.

Microprocesseurs : vers l'infiniment petit, pour toujours plus de puissance de calcul

Au niveau physique, on peut citer la réduction constante de la finesse de gravure des microprocesseurs. Dans ce domaine en particulier, les évolutions sont considérables. En 1971, le premier microprocesseur commercial, l'Intel 4004, intégrait 2300 transistors avec une finesse de 10 000 nanomètres (nm). Une décennie plus tard, le nombre de transistors contenus dans un microprocesseur était multiplié par soixante, et sa finesse de gravure divisée par plus de 6 fois. En 2011, aux prémices d'industrie 4.0, un processeur Intel Core i7 intégrait un milliard cent soixante millions de transistors avec une finesse de 32 nm. Dix ans plus tard, IBM annonçait les premiers processeurs gravés en 2 nm ! Il a fallu 4 ans aux ingénieurs d'IBM pour passer de 5 nm à 2 nm et atteindre une densité de 333 millions de transistors au mm2. Cette différence de seulement 3 nm semble presque anecdotique, et pourtant, elle permet d'intégrer 20 milliards de transistors de plus que son prédécesseur en 5 nm.

Il en va de même pour le nombre de cœurs, qui est passé de 1 à 64 ! La fréquence d'horloge n'est pas en reste non plus : d'un poussif 740 kHz, elle dépasse actuellement les 6 GHz.

Cette course effrénée vers l'infiniment petit offre des performances difficilement imaginables il y a encore une décennie, sans compter avec les possibilités futures des ordinateurs quantiques qui utilisent des qubits dont l'état quantique peut posséder plusieurs valeurs simultanément.

MEMS : le premier maillon de la chaîne

Les MEMS, pour Microelectromechanical systems ou microsystèmes électromécaniques en français, sont une famille de capteurs basés, comme les microprocesseurs, sur une technologie à base de silicium, mais associés à des micro-composants mécaniques. Véritables bijoux de micromécanique, leur taille est comprise entre 1 et 1000 μm. Apparue au début des années 1970, cette technologie commence à être commercialisée dès les années 1980.

Les MEMS sont regroupés en deux grandes catégories : les micro-capteurs (accéléromètres, capteurs de pression, gyroscopes) et les micro-actionneurs (les micromiroirs des vidéoprojecteurs DLP, les interrupteurs RF). Si l'électronique de traitement du signal est très classique, c'est bien la partie mécanique qui impressionne par sa miniaturisation extrême. Leur fabrication fait appel aux mêmes procédés que pour les circuits intégrés des puces électroniques, tels que la photolithographie.

Par rapport à des capteurs de taille macroscopique, les MEMS disposent d'un gros avantage : ils sont très résistants. En effet, le rapport entre la masse et la résistance d'un matériau n'est pas linéaire. Expliqué simplement, cela veut dire qu'un objet réduit verra sa résistance augmenter. C'est pour cette raison que les MEMS sont si fiables, car leur miniaturisation, par effets d'échelle, augmente leur solidité dans des proportions très importantes. Pour autant, tout n'est pas si simple, car les phénomènes physiques à ces échelles microscopiques nécessitent de repenser les structures mécaniques pour s'adapter à la nouvelle balance des forces. Une autre difficulté est de pouvoir créer des structures ouvertes, capables de mesurer les forces extérieures, tout en étant suffisamment protégées. Avec des tailles aussi réduites, un simple grain de poussière ou une force excessive peut mettre hors service un MEMS.

S'abonner à la newsletter maintenant

Ne manquez pas nos meilleurs contenus

En cliquant sur „S'abonner à la newsletter“, je consens au traitement et à l'utilisation de mes données conformément au formulaire de consentement (veuillez développer pour plus de détails) et j'accepte les Conditions d'utilisation. Pour plus d'informations, veuillez consulter notre Politique de confidentialité. La déclaration de consentement porte notamment sur l’envoi de newsletters éditoriales par e-mail et sur le recoupement des données à des fins de marketing avec des partenaires publicitaires sélectionnés (p. ex., LinkedIn, Google, Meta).

Dépliez pour les détails de votre consentement

Le domaine des MEMS est si vaste qu'il est impossible d'être exhaustif, et, comme pour les microprocesseurs, ils profitent des dernières avancées en matière de miniaturisation. Aujourd'hui, une nouvelle catégorie de MEMS a vu le jour. Désignée par l'acronyme NEMS pour Nano Electromechanical Systems, ces capteurs franchissent le pas du μm pour passer au nm.

Les MEMS sont un élément essentiel à la numérisation, car ce sont eux qui captent les précieuses données à la base du concept d'industrie 4.0. Sans capteurs, pas de data !

Stockage et transfert des données : toujours plus et encore plus vite

Le cloud computing ou « l'informatique en nuage » consiste à utiliser des serveurs informatiques pour stocker, gérer et traiter des données. Hébergés dans des centres de données eux-mêmes connectés à Internet, ils constituent une alternative aux serveurs locaux.

Le cloud computing propose plusieurs types de services : le SaaS (Software as a Service), le PaaS (Platform as a Service), le IaaS (Infrastructure as a Service), le Desktop as a Service (DaaS), le Network as a Service (NaaS) ou encore le Mobile Backend as a Service (MBaaS) pour ne citer que les principaux. Les principes à la base du cloud computing remontent aux années 50 avec les systèmes centraux partagés, précurseurs des serveurs cloud modernes. Cependant, c'est à partir des années 2000 que le cloud computing s'est démocratisé grâce à la généralisation de l'accès à Internet, tant pour les entreprises que pour les particuliers.

Le cloud présente plusieurs avantages, notamment son aspect économique. La mutualisation des services permet des économies d'échelle à plusieurs niveaux, tant sur le plan logiciel que matériel. Les services offerts sont également évolutifs, ce qui ne limite pas les développements futurs des utilisateurs. Tous les aspects liés à la maintenance, à la sécurité et aux évolutions des services sont à la charge exclusive des hébergeurs.

Malgré ses avantages, le cloud computing est loin d'être parfait. La liste des inconvénients est même plus longue. Le premier concerne la sécurité des données, un aspect essentiel pour les entreprises, car une cyberattaque reste toujours possible. Les fermes de serveurs consomment d'énormes quantités d'énergie, ce qui entre en contradiction avec la tendance actuelle vers une sobriété énergétique accrue. L'utilisateur est aussi totalement dépendant de la qualité du réseau et perd la maîtrise de l'emplacement de ses données. Sur le plan juridique, des problèmes peuvent se poser en fonction du lieu de domiciliation du serveur. Il existe encore d'autres risques liés à l'utilisation du cloud, mais le plus important reste la perte pure et simple de toutes ses données à la suite d'une défaillance des serveurs, d'un incendie, d'une inondation ou même d'une éruption solaire.

Un cloud efficace nécessite un réseau, filaire ou aérien, avec un débit très élevé. Or, les infrastructures varient selon les régions. Dans les pays disposant d'infrastructures modernes et performantes, la question se pose moins. Cependant, dans d'autres régions où l'accès à Internet à haut débit est limité, le cloud peut être difficilement accessible. Le tout filaire présente de nombreux avantages en matière de débit et de sécurité, particulièrement pour les réseaux en fibre optique. Toutefois, le risque de coupure physique d'une ligne reste réel, qu'elle soit intentionnelle, accidentelle ou naturelle. L'utilisation croissante des réseaux sans fil réduit ces risques sans pour autant les éliminer. Les données transmises par des réseaux d'antennes terrestres ou par satellite sont également sensibles aux risques naturels et peuvent être brouillées. Un exemple de ce phénomène est le brouillage des signaux GPS au-dessus de la mer Baltique par la Russie.

Le déploiement du réseau satellitaire Starlink de Space X, qui devrait à terme compter 42 000 minisatellites, a pour objectif de réduire la fracture numérique en offrant un accès Internet à haut débit partout sur la planète.

Intelligence artificielle et robots : le cerveau et les muscles

L'intelligence artificielle est réellement la pierre angulaire de la 4e révolution industrielle. C'est elle qui apporte une véritable autonomie aux machines, et avec l'arrivée de l'IA générative, de nouvelles possibilités fascinantes s'offrent à nous. L'IA est basée sur des réseaux de neurones artificiels qui s'inspirent du fonctionnement du cerveau humain. La plupart des formes d'IA sont programmées pour réagir à des données collectées : ce sont des systèmes prédictifs. L'IA générative utilise des techniques avancées de machine learning pour créer ses propres modèles ; on parle alors de systèmes créatifs. Et c'est bien cette capacité à créer du contenu qui rapproche enfin l'IA de l'humain. Les GANs (Generative Adversarial Networks) sont au cœur de cette technologie. Ils fonctionnent grâce à un système de compétition entre deux réseaux : l'un crée du contenu et l'autre évalue sa qualité, dans une dynamique continue de perfectionnement. C'est cette interaction qui permet à l'IA générative de produire des contenus de plus en plus réalistes et imaginatifs.

Cette nouvelle donne offre de nombreuses opportunités aux entreprises qui utilisent déjà l'IA pour des applications diverses : conception de produits, support client, maintenance prédictive, ressources humaines, détection des fraudes, génération de code, etc. Mais ce nouvel outil soulève également des interrogations. Des questions éthiques se posent, car l'IA peut déjà, sur un plan technique, se substituer à l'humain. Elle véhicule beaucoup d'espoir, mais également des peurs légitimes. Plusieurs exemples récents d'IA qui « perdent » les pédales ont fait la une des journaux. Rien de bien fâcheux, car il s'agissait principalement de génération de contenu inapproprié ou totalement incohérent, mais dans un contexte différent, ces problèmes pourraient avoir de graves conséquences. Les cas de véhicules autonomes qui foncent à pleine vitesse sur un obstacle en ne laissant aucune chance à leurs passagers sont malheureusement de plus en plus fréquents. Quel niveau d'autonomie sommes-nous prêts à concéder à l'IA est certainement le plus grand défi auquel nous devrons répondre dans les années à venir.

Cependant, l'IA générative n'en est qu'à ses débuts et, comme un enfant, elle continue d'apprendre, de se perfectionner et finira très certainement un jour par être suffisamment fiable pour qu'on lui confie des tâches de plus en plus sensibles. Associée à la robotique, l'IA dispose de « muscles » pour interagir avec le monde physique, et c'est peut-être ce point qui la rend si fascinante ou effrayante selon les points de vue. Grâce à l'IA, les robots peuvent accéder à une forme d'intelligence qui leur faisait défaut autrefois. Dans les prochaines années, ils seront de plus en plus présents dans notre environnement professionnel comme privé. L'Asie, et tout particulièrement le Japon, a une avance certaine dans ce domaine avec des robots anthropomorphiques de plus en plus autonomes. On les retrouve désormais à des postes de réceptionnistes, d'aide à la personne, dans les écoles et les hôpitaux, dans les centres logistiques ou même comme agents de la circulation.

On peut dire que l'humanité arrive à un tournant où ce qui relevait encore de la science-fiction devient réalité, avec toutes les questions que cela soulève. Les trois lois de la robotique formulées par Isaac Asimov et John W. Campbell en 1942 restent toujours parfaitement d'actualité et sont à la base des règles auxquelles un robot doué d'« intelligence » doit répondre. Suffiront-elles pour éviter les scénarios catastrophes ? Cela dépendra uniquement de nous et de l'autonomie que nous déciderons de leur octroyer.

Usine 5.0 : une évolution du concept 4.0

On entend de plus en plus parler d'usine 5.0. Le concept a été présenté en 2021 dans un rapport de la Commission européenne intitulé : « Industry 5.0 – Towards a sustainable, human centric and resilient European industry ». Ce n'est en aucun cas une nouvelle révolution industrielle, mais plutôt la mise en pratique de concepts inaccessibles il y a une quinzaine d'années. Industrie 5.0 met l'accent sur la collaboration entre humains et machines pour accomplir des tâches nécessitant créativité, prise de décision complexe et compétences émotionnelles. En somme, elle redonne une place centrale à l'humain, en le réintégrant au cœur du processus de production.

Ça, c'est pour la théorie, mais dans la pratique, les choses seront certainement moins idylliques. L'IA, associée ou non à la robotique, est en mesure de remplacer l'humain dans de nombreux domaines. Comment gérerons-nous la part qu'elle prendra dans nos sociétés est une question qui reste ouverte. Mais il est certain que ces nouvelles technologies posent des questions éthiques, sociétales et humaines, qui nécessiteront un cadre légal adapté.

Limitations liées à l'implémentation de l'industrie 5.0

S'il subsiste encore quelques limitations techniques à la mise en œuvre d'une industrie où IA, robots et humains pourront collaborer en parfaite synergie, elles seront surmontées dans un avenir proche. C'est bien le volet éthique et sociétal qui demeure le véritable obstacle pour atteindre les objectifs d'industrie 5.0. Quelle part d'autonomie sommes-nous prêts à accorder à l'IA et aux robots ? Cette question à un million cristallise les espoirs les plus fous avec les peurs les plus viscérales. Déléguer à des machines des responsabilités qui ont toujours été du ressort des hommes est un véritable changement de paradigme. Dès lors, on peut comprendre la réticence de certaines entreprises à franchir le pas, d'autant plus que ces technologies sont encore jeunes et que nous manquons de recul quant à leur impact sur nos modèles de sociétés.

Quoi qu'il en soit, le progrès est en marche et comme dit l'adage, on ne l'arrêtera pas. Les plus enthousiastes ont déjà fait les premiers pas et leur retour d'expérience servira d'exemple pour ceux qui sont encore indécis. Que l'on soit partisan ou détracteur de cette évolution, la confiance reste à la base de toutes prises de décision dans ce domaine. Sommes-nous prêts à mettre notre confiance entre les « mains » d'un assemblage de semi-conducteurs ? C'est là que réside la vraie question, car il ne faudra jamais oublier, quoiqu'ils ressemblent aux humains, qu'une IA ou un robot est et restera certainement à jamais une machine dénuée de conscience propre. Wait and see. MSM

(ID:50219688)