Lecture en cours
Hypermatérialisation du «tout numérique» et enjeux industriels

Hypermatérialisation du «tout numérique» et enjeux industrielsTemps de lecture : 10 minutes

La croissance exponentielle du numérique et de son empreinte carbone nous mène-t-elle dans l’impasse ? Si des avancées technologiques promettent un numérique plus sobre, les applications concrètes sont encore peu nombreuses. Pour Sylvain Delaitre, il est donc urgent de limiter l’inflation des données, la production effrénée et très polluante de matériels électroniques et de replacer les enjeux technologiques et industriels associés dans le cadre de la délibération démocratique. L’implication des salariés, des scientifiques, des usagers citoyens dans les prises de décision stratégique permettrait de reconstruire des filières industrielles de technologies de pointe en phase avec les besoins humains et environnementaux.

L’hypermatérialisation du « tout numérique » n’est pas facile à conceptualiser, car encore récemment, certains pensaient que les données étaient réellement « dans les nuages », summum de la pensée magique liée au solutionnisme technologique, qui alimente aussi l’idée simpliste que le numérique permet de faire baisser l’empreinte carbone. En réalité, nous assistons à une augmentation exponentielle de la puissance de calcul. La cryptographie des messages utilisée par des applications comme Whatsapp, les codes correcteurs d’erreurs pour la vidéo et le son, les preuves de confiance pour les blockchains, et de calcul pour les cryptomonnaies, etc. sont quelques exemples de ce qui génère une croissance forte des serveurs et des data centers pour stocker, échanger et distribuer les informations et les contenus. Le streaming oblige à multiplier les serveurs et à les localiser géographiquement au plus près des clients. L’hébergement de myriades de données « sur le cloud » se traduit également par l’accroissement des matériels pour les stocker.

L’obsolescence programmée des ordinateurs utilise abusivement via le marketing, le versioning[1] des systèmes opérationnels, type OS ou iOS, ce qui nous oblige à changer de machine et encore plus de smartphones, car les anciens ne « supportent plus » les mises à jour[2]. Cette pratique pousse à produire toujours plus de matériels électroniques. Or, c’est dans la phase de production que cette industrie est la plus polluante et a une empreinte carbone maximum. Le numérique consomme donc énormément de ressources à cause de cette obsolescence programmée.

Avec 4,5 milliards d’humains connectés et jusqu’à huit objets connectés par personne, chaque système ou sous-système informatique se connecte et envoie quotidiennement des rapports et des informations sur son état. Les grandes plateformes[3], la National Security Agency (NSA) aux États-Unis, Palantir, créé par le renseignement militaire américain en 1999, et d’autres se régalent de ces journaux de connexion et de nos traces laissées sur Internet…[4]

En réalité, les cloud et les Big Data[5] représentent des tonnes, voire des mégatonnes de silicium contenant des océans d’électrons maintenus dans un état énergétique stable. C’est extrêmement matériel, et cela consomme énormément de ressources et d’énergie.

Face au mur du calcul et au mur énergétique, un numérique écologiquement plus sobre est-il possible?

Le modèle expansionniste actuel de l’inflation numérique (5G, flux vidéo au plus près, hyperconnectivité, Internet des objets) nous mène dans l’impasse. Un premier mur se présente à nous, celui du calcul. Il est possible que, d’ici un ou deux ans, les ressources de calcul soient insuffisantes à l’échelle de la planète pour fournir le traitement des communications et les transferts de données demandés par les applications numériques[6].

Le second mur est celui de l’énergie. Le numérique représente actuellement la consommation de la cinquième ou sixième puissance mondiale. À ce rythme-là, s’il n’y a pas de changement de modèle et de changement d’architecture du réseau mondial, il deviendra bientôt – dans quatre ans ?[7] – la première filière de consommation d’énergie.

Quand les chercheurs ouvrent de nouvelles pistes, cela permet de tester de nouvelles stratégies, plus écologiques, moins dépensières et plus efficaces d’un point de vue du calcul. Les nanoneurones artificiels ne sont pas la seule alternative à envisager aux réseaux de neurones computationnels classiques, les nouveaux algorithmes liés à l’ordinateur quantique annoncent également des gains fantastiques d’efficacité, sur certains types de calculs, notamment ceux qui nécessiteraient des calculs volumineux ou massivement parallèles. Le développement de l’ordinateur quantique, qui a beaucoup progressé d’un point de vue théorique, reste encore très limité dans ses applications pratiques. Le principal problème à résoudre réside dans la lutte contre le bruit et les perturbations du système quantique, dans notre monde macroscopique. Les qubits correcteurs d’erreurs[8] sont une des solutions travaillées en ce moment, mais leur nombre reste dissuasif d’un point de vue pratique.

Le développement des calculs intensifs (High Performance Computing, HPC), actuellement à partir de cartes graphiques, permet déjà des ruptures technologiques importantes, comme très récemment la maitrise de la stabilité du plasma, dans le cas de la fusion nucléaire contrôlée que l’on retrouve dans le projet européen de réacteur thermonucléaire expérimental international ITER, ou ses équivalents américains, anglais ou chinois. Il s’avère que c’est la puissance de calcul sur des modèles numériques (jumeaux numériques) des tokamaks ou des systèmes à ignition inertielle (lasers) qui permet de maîtriser enfin ces instabilités.

La question la plus pertinente, en dehors du champ du progrès scientifique, est de savoir pourquoi autant de cartes graphiques et microprocesseurs sont utilisés actuellement sur la planète pour coder des flux vidéo ou bien pour apporter des preuves de travail et de confiance dans les transactions dans le cas des cryptomonnaies et des blockchains.

Le calcul de haute performance constitue un enjeu de souveraineté, de par son rôle dans les cryptomonnaies, mais aussi parce qu’il contribue aux calculs scientifiques de pointe, comme dans l’exemple évoqué de la mise au point de la fusion nucléaire contrôlée où ils permettent la simulation de problèmes complexes.

Les architectes de la blockchain ont récemment proposé des algorithmes de preuve de confiance qui consommeraient beaucoup moins de puissance de calcul, et donc d’énergie, c’est une piste à suivre. Une autre alternative serait de casser son caractère centralisé donnant une architecture très consommatrice de calculs, et de la rendre semi-ouverte, voire décentralisée.

Il est nécessaire de travailler sur les architectures d’échanges et de stockage, sur la simplification des processus de validation et de cryptage, sur la sobriété du stockage en évitant l’hyper redondance des données. Des pistes existent : décentraliser la blockchain, limiter la duplication sur le cloud à deux ou trois copies, limiter le streamingvia des jetons d’accès, par exemple -, limiter le HPC aux sujets scientifiques, avec en corollaire la fin des cryptomonnaies, remplacées par des preuves de confiance efficaces. Il nous faut également développer le cryptage quantique efficace, 10 millions de fois plus économe en énergie de calcul que les algorithmes classiques[9].

Concernant les réseaux nano gravés pour l’IA connexionniste, les données ne doivent être stockées qu’après analyse des Big Data, de façon à ce que les données d’origine puissent être effacées après validation.

Articuler enjeu industriel, enjeu écologique et recherche : fabriquer quoi pour quels besoins avec quelles ressources?

La délocalisation loin de l’Europe depuis vingt-cinq ans de la production de composants et, depuis peu, l’externalisation des recherches « trop coûteuses » ont produit une forte de dépendance de la France et de l’Europe en matière industrielle et technologique. Il s’agit de choix successifs, de décisions politiques voulues. Le résultat en 2021 est caricatural. Les entreprises maitrisant le HPC sont les fabricants de puces Nvidia et Qualcomm basées en Californie, et des informaticiens « classiques » comme IBM. Mais c’est le sous-traitant taiwanais Taiwan Semiconductor Manufacturing Company (TSMC) qui concentre 90% des nouvelles technologiques informatiques mondiales[10]. Il est devenu l’« usine du monde » monopolistique pour les semiconducteurs avancés.

Dans le domaine des matériels (composants des serveurs, data centers et ordinateurs eux-mêmes), si l’Europe continue à représenter 20% de l’effort de recherche mondial dans les composants, surtout à travers des financements publics, elle ne produit plus qu’à peine 8% des composants électroniques dans le monde.

S’agissant de ST Micro, groupe franco-italien, les actionnaires ont décidé il y a dix ans de ne plus investir dans les nouvelles filières plus rapides et plus puissantes, mais plus chères à développer. Il s’agit d’un  choix assumé et non d’une erreur stratégique. De façon générale, la politique industrielle est à revoir en Europe et France. Il ne reste plus que Soitec qui développe des substrats en silicium de qualité, l’Allemand, Infineon qui est capable de concevoir les circuits, et ST Micro qui les réalise.

Les paroles et les effets d’annonce de Thierry Breton, qui connait bien le sujet puisqu’il fut successivement patron de Thomson, puis de France Télécoms, et récemment du groupe informatique Atos, et qu’il porte en partie la responsabilité de l’échec du « cloud à la française » dans les années 2010, ne peuvent remplacer une vraie volonté politique française et européenne de développer à nouveau l’ensemble des filières de la microélectronique, si nécessaire à la reconstruction de notre souveraineté et de notre autonomie en matière numérique.

La question de la création d’une véritable filière de l’imagerie médicale sur Grenoble est emblématique de ce que les syndicats et les citoyens pourraient faire. Malgré la décision de la direction du groupe Thalès de l’époque de vendre cette activité réalisée à partir d’un composant nouveau, sensible aux très faibles doses de rayons X, et transmettant une imagerie numérique de qualité, le syndicat CGT de Thalès Grenoble a lutté pendant dix ans pour conserver en propre la filière. Grâce aux interventions auprès des acteurs professionnels et des ministères concernés, de nouveaux projets industriels sont désormais développés autour d’une imagerie de santé, autonome par rapport aux grands groupes américains, hollandais ou japonais, qui verrouillent actuellement le marché européen avec des conséquences fortes sur les dépenses de santé des Français.

La CGT de ST Micro et de Soitec, avec les salariés impliqués, revendique fortement de réels investissements, substantiels (quitte à diminuer en regard les dividendes) afin de récupérer le retard accumulé en recherche et développement ces dix dernières années, et donc de pouvoir recoller au peloton de tête des nouvelles technologies.

Techniquement, les composants sur substrat de silicium (99% des composants dans le monde) sont réalisés à partir de sable (silice ou verre) ultra purifié. Si la ressource n’est en soi pas critique, c’est cependant un savoir-faire technologique très précieux. Tout cela se fait sous atmosphère ultra purifiée, dans des enceintes très propres que l’on appelle des salles blanches, et coute très cher : l’investissement pour la nouvelle usine de composants de Samsung et LG en Asie est de l’ordre de 17 milliards de dollars !

L’industrie du composant électronique est une des industries les plus polluantes, en termes de consommation d’eau nécessaire, et parce qu’elle a recours à des dopants très toxiques (métaux, terres rares, et certains gaz de combat). C’est la sécheresse à Taïwan qui a été la première cause de la pénurie de composants en 2021[11].

Le problème est également que le taux de rendement de ces processus élaborés est très faible : dès qu’une poussière tombe sur la surface du substrat, tout est bon pour la poubelle… La résolution des derniers circuits est de l’ordre de 4 nanomètres, c’est-à-dire 4 milliardièmes de mètre !

D’un point de vue écoresponsable, il faut prendre cela en compte quand on espère que le numérique va limiter les déplacements et donc l’empreinte carbone, car il a sa propre empreinte carbone. D’abord, en fonctionnement, à cause de la consommation effrénée liée aux calculs intensifs et permanents que nous avons évoqués précédemment : il représente 10% de l’électricité mondiale produite[12]. Mais aussi, et surtout, dans sa phase de fabrication, qui concentre 60 % de sa consommation de ressources et de son empreinte carbone. L’extraction des ressources nécessaires, notamment des terres rares, provoque actuellement une catastrophe au plan écologique. On voit donc bien les dégâts du marketing de l’obsolescence programmée !

Le Big Data fonctionne avec les journaux de connection des systèmes et sous-systèmes, et la production de données informatiques ou numériques, mais aussi sur des bases de données hétéroclites, ce que les analyses « classiques » ne savent pas faire. Il se nourrit de lacs de données disponibles via les cloud, les data center et les traces laissées sur Internet. Palantir est le champion du Big Data Analysis. Il tire profit de l’extraterritorialité de la loi américaine, quelle que soit la localisation des données, de sa situation de monopole depuis plus de 20 ans – il n’y a pas de véritable alternative sur le marché…-, de la compromission ou de la naïveté de grands industriels des composants et de l’informatique[13].

Comment faire avancer la démocratie sur les enjeux technologiques?

Comment infléchir cette tendance folle aux calculs « dans le vide » et sans mémoire, sans véritable « capitalisation » des connaissances ? La technologie n’est pas neutre, elle est développée sous contrainte de répondre à un cahier des charges, et cela force certains choix technologiques plutôt que d’autres. Le drame est que ce « cahier des charges » n’est pas forcément en ligne avec la réponse aux véritables besoins sociétaux ou environnementaux.

Les salariées des entreprises parties prenantes de ces nombreuses technologiques sont les premiers concernés, et les premiers experts sur ces sujets. Il faut donc écouter leurs revendications comme le démontre l’engagement des salariés de Thalès évoqués plus haut qui en imposant de revenir au secteur médical, ont permis une inflexion stratégique d’un grand groupe de défense et de sécurité.

Les financements publics qui constituent un levier très important ne doivent pas s’envoler en « cadeaux fiscaux », mais correspondre à une stratégie d’autonomie et de souveraineté numérique globale, ayant pour objectif la maitrise des principales filières industrielles et technologiques. L’obligation pour les industriels privés impliqués, d’investir au moins au même niveau que la puissance publique, aurait un effet démultiplicateur. La définition des grands programmes et des priorités de financements devrait faire l’objet d’une loi de programmation, de discussions et d’expertises développées au sein du Conseil économique, social, et environnemental (CESE) ou des CESER en région.

Les financements publics au privé (directs, ou sous forme d’exonération d’impôts) doivent donc être soumis à une obligation de résultat. Et si, à cause du caractère très en amont des études, la notion de résultat concret est difficilement applicable, il faut au minimum un contrôle a posteriori par une autorité avisée et éclairée.

 

[1] Méthode de gestion des versions d’un même produit (logiciel, base de données…).

[2] J’ai conservé mon ancien Nokia de 2010, il fonctionne encore pour le téléphone, les SMS, mais l’Internet est complètement bridé, car plus aucune application d’origine n’est supportée…

[3] Les méga plateformes sont les GAFAFMI, BAIDIX et les outsiders : aux États-Unis, on trouve Google (monopole sur les moteurs de recherche et la traduction), Apple, Facebook (META), Amazon (surtout les centres de données et ses services numériques, et pas seulement le distributeur de colis !), Microsoft (les OS pour les PC et les smartphones, et Azure pour les cloud), Intel (réinternalisation des composants critiques aux États-Unis, mais grosse sous-traitance avec Taïwan) ; et en Chine, Baidu, Alibaba, Tencent et Xiaomi. Les outsiders sont les NATU et viennent des États-Unis : NETFLIX, Airbnb, Tesla, Uber. Tous ont un fort rapport à l’exploration des données !

[4] Les révélations d’Edward Snowden, ancien agent de la CIA et consultant de la NSA, ont validé l’existence de toutes ses pratiques de surveillance cachées voire illégales.

[5] Le Big Data peut se définir selon la règle des 6V : par le volume (qui grandit de façon exponentielle), la variété (forte hétérogénéité des données, de tous types, de tous formats), la vélocité (quasiment en temps réel, mais aussi en vitesse d’accroissement des données), la véracité (besoin de vérifier les données, et de nettoyer les bases des données corrompues ou incohérentes), la valeur (exploitation commerciale ou scientifique de ces données), la variabilité des applications (le Big Data peut s’appliquer à tout ce qui est complexe, mais pas aux événements rares, ce qui en pose les limites en médecine notamment…).

[6] Jean-Paul Delahaye, «Le monde numérique passe au Zetta», Pour la science, n°528, octobre 21, p 80.

[7] En extrapolant les travaux de J.-P. Delahaye.

[8] De la même façon qu’en vidéo on rajoute des codes de correction d’erreurs (pour récupérer le bon signal lorsque la communication est mauvaise).

[9] Du type de l’algorithme de Shor, conçu par le mathématicien américain Peter Shor en 1994, qui permet de traiter en quelques cycles de calcul un problème qui, en classique, prendrait des siècles.

[10] Rapport de l’association de l’industrie des semiconducteurs des États-Unis, 2021. State of the US semiconductor industry, 2021.

[11] « Électronique. Une sécheresse historique à Taïwan menace d’aggraver la pénurie de puces », Courrier international, le 20 avril 2021.

[12] Cet impact est à comparer à l’ensemble du transport aérien qui représente 3% des émissions mondiales de CO2.

[13] On observe un laisser-faire des industriels face au problème de non fiabilité des composants liés aux mouchards ou aux fonctions cachées, et aux failles informatiques récurrentes dans les grands logiciels, malgré les très nombreuses mises en garde de l’Académie des technologies.

Pour citer cet article

Sylvain Delaitre, «Hypermatérialisation du “tout numérique” et enjeux industriels», Silomag, n°15, juillet 2022. URL: https://silogora.org/hypermaterialisation-du-tout-numerique-et-enjeux-industriels

Réagir

Si vous souhaitez réagir à cet article, le critiquer, le compléter, l’illustrer ou encore y ajouter des notes de lecture, vous pouvez proposer une contribution au comité de rédaction. Pour cela, vous pouvez envoyer votre texte à cette adresse : contact@silogora.org

AGORA DES PENSÉES CRITIQUES
Une collaboration

Mentions légales Crédits