Pour Paul Pinault, « il ne faut pas regarder un système uniquement par sa consommation énergétique »

Expert en objets connectés, architecte réseaux, prospectiviste, Paul résume sans filtre ce qu’il perçoit de l’impact environnemental du numérique, par le biais de l’énergie, des usages et du matériel.


Les intitulés dans un rectangle noir sont des blocs déroulants : cliquez dessus pour accéder à leur contenu.
De même, cliquez sur chaque photo ou visuel pour l’afficher en grand format.

Pourquoi cet article ?

J’ai un point d’accord fondamental avec Paul, exprimé dans ce choix de titre : ne pas se limiter à la consommation énergétique (et donc à la génération de gaz à effet de serre [GES]) en étudiant un système, quel qu’il soit.

Il me semble que la « décarbonation », le « zéro émission » ou encore la « transition énergétique » soient devenus l’alpha et l’oméga des comportements vertueux. Cela induit deux problèmes majeurs : d’une part, on donne l’impression que la planète ne peut supporter la moindre émission de GES alors qu’elle possède, heureusement, une capacité naturelle de recyclage (qui a toutefois ses limites). D’autre part, cela éloigne la réflexion des autres externalités négatives (notamment l’impact dudit système sur la biodiversité, sur la pollution locale, sur l’utilisation des ressources, etc.) mais aussi des externalités positives, comme les changements de comportements.

Paul conclut son interview en invitant à regarder le bilan de l’ensemble du système pour se faire son opinion. Il a bien sûr raison, même si établir un tel bilan peut s’avérer très difficile. Néanmoins, essayons de ne pas nous mettre des œillères en ne prenant en compte qu’une facette du problème.

Damien

Les principaux points à retenir

  1. La problématique énergétique n’est, selon Paul, pas un sujet majeur dans le numérique. Principalement grâce à la « loi de Moore« , vérifiée depuis des décennies, et qui stipule qu’un système informatique double en puissance de calcul – donc, indirectement, en efficacité énergétique – tous les 18 mois. Ainsi, les dispositifs évoluent naturellement vers plus de durabilité.
  2. Cependant les acteurs de la tech mettent en avant leurs efforts environnementaux, pour des raisons surtout marketing (communication) et RH (attraction de talents), le public de collaborateurs visés étant souvent sensible aux enjeux de changement climatique.
  3. Cette logique fait que la polémique sur la 5G est un faux débat selon Paul (comme il l’a souligné chez mes amies du Connecteur en février dernier) : le passage de la 3G à la 4G puis 5G, etc. n’est qu’une évolution logique des technos de données sans fil, permettant en outre d’optimiser l’efficacité énergétique des nouveaux émetteurs et de couvrir progressivement les zones rurales avec la technologie précédente.
  4. Le principal débat serait alors celui des matériaux et, plus largement, de la durée de vie du hardware. Le problème, selon Paul, est que la société de consommation (et beaucoup d’opérateurs et de constructeurs de matériel) poussent au remplacement très fréquent de nos ordinateurs et de nos téléphones, alors que le réemploi et le recyclage ne sont pas évidents (du fait de la loi de Moore).
  5. La question se pose notamment au sujet des objets connectés, qui commencent à « envahir » nos objets du quotidien. Néanmoins, ces objets, dont la mise en réseau leur procure une forme d’intelligence collective, sont des éléments clés pour mesurer précisément les déperditions d’énergie d’un dispositif (comme du chauffage collectif ou une chaîne de production industrielle) et permettre de l’optimiser.
  6. Les projets portés par les utilisateurs – qui sont crowdsourcés – se développent dans le monde numérique et permettent de pousser des innovations particulièrement intéressantes et correspondant réellement aux besoins du public. En revanche, celui-ci n’a pas de conscience écologique (ou, plus largement, du « bien commun ») et semble surtout motivé par son intérêt individuel. Exemple avec deux projets de réseaux d’objets connectés, The Things Network et Helium.

L’intervenant : Paul Pinault

Architecte IT, spécialisé dans les technologies du « cloud » et de l’internet des objets ; collaborateur à Be Ys ; ambassadeur Sigfox

Clermontois d’origine, de formation informatique (DUT + école d’ingénieur), Paul passe une grande partie de sa carrière chez Michelin où il participe à la définition stratégique dans les domaines du cloud et des objets connectés, ainsi qu’à la vision prospective dans ces domaines.

Il y a également travaillé sur les environnements des infrastructures réseaux, et le déploiement d’un data center groupe. Enfin, il a collaboré avec l’équipe de l’incubateur interne, où il a accompagné le lancement de quatre projets d’innovation. Il devient en parallèle expert reconnu nationalement sur les objets connectés et ambassadeur de la marque Sigfox, start-up toulousaine déployant un réseau de données mobiles conçu pour l’internet des objets.

Paul est désormais collaborateur du groupe Be Ys, où il travaille sur une solution data center sécurisée et dédiée au traitement de données sensibles, basée à Clermont. Il poursuit en parallèle ses cours à l’université et sa participation à la start-up Ingenious Things qui développe des objets connectés.

Enfin, depuis 20 ans, il anime le blog Disk91 qui est désormais consacré à l’internet des objets. Paul se définit comme geek mais il est aussi sensible aux enjeux environnementaux, étant ardent promoteur du vélo en ville et de l’utilisation des objets connectés pour optimiser la consommation énergétique des particuliers comme des professionnels.


Voir le blog de Paul : www.disk91.com
Contacter Paul par formulaire sur son blog

Accès direct aux questions


Information sur notre prochain événement

Beaucoup de critiques se concentrent sur l’énergie consommée par le numérique. Quelle est ton opinion sur le sujet ?

Je pense que c’est un faux problème. Dans le monde de l’électronique, l’optimisation technologique et énergétique se fait de manière continue. Avec la loi de Moore, on sait que dans 18 mois les nouveaux systèmes consommeront deux fois moins. L’optimisation est donc [permanente] dans nos métiers. Et ce n’est même pas une question que l’on se pose, car tous les acteurs de l’écosystème nous y poussent.

Avec la loi de Moore, on sait que dans 18 mois les nouveaux systèmes consommeront deux fois moins.

Autre facteur d’optimisation : l’approche “as a service” [de virtualisation], qui est un vrai progrès en termes de ressources et d’énergie. Il y a 20 ans, l’informatique, c’était un serveur physique pour une application. Conséquence : des milliers de serveurs, chacun consommant 300 watts et étant utilisés à 5% … Aujourd’hui, en logique “as a service”, tu peux concentrer des dizaines ou des centaines d’applications par serveur. La consommation par application est donc extrêmement réduite ! C’est l’avantage de la virtualisation.

Avec l’approche « as a service » (exemple : SaaS, Software As A Service), un serveur informatique peut accueillir de très nombreuses applications. C’est une source majeure d’optimisation énergétique et matérielle / Crédit photo : Edgar Oliver de Pixabay

De même, beaucoup de gens ont désormais un ordinateur “déporté” chez eux, avec uniquement un écran, un clavier et une carte graphique, reliés par internet à un serveur. [A l’inverse,], le type qui dispose de son PC complet a consommé beaucoup de matières premières et d’énergie pour la fabrication, et ça ne tournera que quelques heures par jour … Quand c’est partagé sur un serveur collectif, ça profite à tout le monde et c’est bien plus optimisé.

Pourtant, les acteurs de la tech vont beaucoup mettre en avant leurs efforts en termes de décarbonation …

Les acteurs de la tech, globalement, et comme tout le monde, vont être dans le greenwashing (…) parce que l’écologie représente un intérêt pour recruter des talents. D’autant plus qu’il s’agit d’une population assez sensible à l’écologie, plutôt jeune, et qui a l’habitude de “regarder devant”. C’est donc presque un discours un peu obligatoire aujourd’hui !

Mais la réalité c’est que l’industrie numérique ne consomme quasiment rien en énergie par rapport à n’importe quelle entreprise industrielle. J’ai eu cette discussion avec des usines qui sont équipées en panneaux solaires sur les parkings : ils peuvent sans doute alimenter un data center, mais sûrement pas des outils de production industriels classiques. Les 99% de la consommation énergétique industrielle mondiale, c’est pour le béton, l’acier, etc. Et certainement pas pour le numérique.

L’industrie numérique ne consomme quasiment rien en énergie par rapport à n’importe quelle entreprise industrielle.

Et, pendant qu’on se focalise là-dessus, on ne parle pas du reste. Tous les Google, Amazon, etc. ont annoncé viser la neutralité carbone, et ont déjà fait plein de choses. Où en est Arcelor Mittal ? Où en est l’élevage bovin ? Quand tu veux installer une méthanerie en zone rurale, tous les villages alentours s’associent pour éviter cela. (…) Mon problème, ce n’est donc pas l’énergie utilisée pour envoyer un mail. 

La production de l’acier dans un haut fourneau fait partie des activités industrielles les plus consommatrices d’énergie, loin devant le numérique / Crédit photo : Peter H de Pixabay

Quel est l’impact du numérique sur les gaz à effet de serre ?

Il y a à mon sens un débat plus intéressant à mener sur la fabrication et les matériaux. Au niveau de la consommation énergétique [lors de l’utilisation normale], en France du moins, je ne suis pas sûr qu’il y ait un impact majeur … Quand tu produis du béton, quand tu considères l’élevage, tu produis structurellement des gaz à effet de serre. Dans la tech, si tu te débrouilles pour que ton énergie soit propre, c’est vertueux. Il n’y a pas de problème de fond.

Il y a à mon sens un débat plus intéressant à mener sur la fabrication et les matériaux.

Cela revient donc à traiter le sujet de la production d’électricité. Or, vu les enjeux très importants [avec les voitures électriques notamment], les énergies renouvelables ne suffiront pas. Il ne reste donc que le nucléaire. Comme on tend à fermer des centrales atomiques, s’il faut ouvrir des centrales à charbon pour compenser … on ne va pas résoudre le problème.

Focus : crypto-monnaies et énergie, avec Tristan Colombet

Tristan Colombet est notamment le PDG de Domraider, et le fondateur de l’espace de coworking Turing22 à Clermont-Ferrand.

Domraider, la blockchain et les crypto-monnaies

Depuis 2017, Domraider est un des spécialistes français des crypto-monnaies. Nous avons réalisé la première ICO (Initial Coin Offering) française, forme de levée de fonds auprès de particuliers de la communauté Ethereum (une crypto-monnaie concurrente du Bitcoin). Elle a permis de monter une plateforme d’enchères de noms de domaines sécurisée par la technologie blockchain.

Quel est le principe de fonctionnement d’une crypto-monnaie ?

Une crypto-monnaie est une monnaie uniquement numérique, qui fonctionne via un réseau d’ordinateurs appelés “mineurs” [dans le sens de “miner” une ressource] qui partagent l’ensemble du calcul et du stockage. Ces ordinateurs s’assurent que le réseau fonctionne, qu’il soit résilient et qu’il permette la valorisation et la circulation de la monnaie.

La blockchain est la technologie socle des crypto-monnaies. Selon Blockchain France, il s’agit d’une technologie de stockage et de transmission d’informations, transparente, sécurisée, et fonctionnant sans organe central de contrôle. C’est une base de données qui contient l’historique de tous les échanges effectués entre ses utilisateurs depuis sa création, partagée par ses différents utilisateurs, sans intermédiaire, ce qui permet à chacun de vérifier la validité de la chaîne

Ce réseau était initialement composé de machines de particuliers. Il est maintenant bien plus industrialisé car des milliards de dollars sont en jeu. En particulier avec la domination de la Chine qui dédie des data center entiers au “minage” de crypto-monnaies;

Quelles sont les problématiques énergétiques des crypto-monnaies ?

Les serveurs de crypto-monnaies n’ont pas le même impact que les serveurs “classiques” [mails, vidéos, cloud …] En effet, la méthode de minage la plus utilisée aujourd’hui est la Proof Of Work. Elle est basée sur la résolution de “problèmes” mathématiques très complexes. C’est pourquoi tous les  serveurs de minage passent beaucoup de temps à résoudre ces puzzles mathématiques, afin de générer la monnaie numérique. 

Et cela monopolise beaucoup d’énergie … sans parler de ce qui est nécessaire pour assurer (et valider) les transactions. L’impact énergétique des crypto-monnaies fonctionnant en Proof of Work – principalement le Bitcoin – représente l’équivalent de la consommation de la Suède, avec une croissance très rapide.

Quelles sont les pistes de solutions ?

La solution, c’est une autre méthode de minage appelée Proof of Stake [POS]. Elle fonctionne sans calcul mathématique, mais par un “dépôt de garantie” : chaque mineur dépose sur son ordinateur une partie des crypto-monnaies générées. Cette méthode est plus compliquée à mettre en œuvre que la Proof of Work, mais elle est aussi bien plus performante, plus rapide et plus économe en énergie. C’est l’avenir des technologies blockchain.

Comment s’opère le basculement ? Chaque crypto-monnaie a sa technologie. Le Bitcoin, la monnaie historique, avance très doucement vers le POS et représente encore une consommation majeure. Ethereum, la seconde monnaie la plus utilisée (et correspondant à davantage d’utilisations pratiques), a déjà progressé dans sa transition vers le POS. D’ici 3 à 5 ans, sa bascule sera complète. 

Malgré tout, le numérique est sous le feu des critiques. Quelle en est alors la raison profonde ?

Quand on tape sur le numérique, ce n’est pas parce qu’on veut faire de l’écologie, c’est parce qu’on a un problème avec la transformation de la société qui va avec [la digitalisation]. Et qu’on se sert de l’écologie pour lutter contre cette transformation. Ce qui est idiot, car le numérique va apporter des solutions.

Quand on tape sur le numérique, c’est parce qu’on a un problème avec la transformation de la société qui va avec.

Cette transformation est à la fois une mondialisation et une accélération. (…) Quand quelqu’un a 50 ans aujourd’hui, n’a pas de culture “techno”, parle mal anglais, est confronté au quotidien à de rapides évolutions technologiques dans son métier … il se rend [souvent] compte qu’il prend du retard et qu’il ne suit pas le mouvement. 

Il risque alors d’abandonner, pas juste en se disant “je n’y arrive pas” mais en disant “le système ne devrait pas être comme ça”. Personnellement, je comprends ça, auprès de gens très intelligents par ailleurs. 

Lire l’entretien : « le changement est inconfortable pour le cerveau », selon Delphine Py

Un des grands débats d’actualité est celui de la 5G. En a-t-on réellement besoin, au regard de son impact environnemental ?

Grâce à la loi de Moore [évoquée plus haut], tout ce qu’on fait en technologie a des conséquences intéressantes en termes énergétiques. Un exemple : avant, on regardait la télévision en “hertzien” [avec des antennes]. Or, la télé hertzienne, ce sont des émetteurs radio extrêmement puissants, de dizaines de kilowatts qui émettent dans tous les sens. Passer ces flux de données dans des réseaux existants – la fibre ne consomme quasiment pas d’énergie – serait une très bonne idée. 

Mais, en France, on veut garder le hertzien : c’est aberrant ! Alors qu’on pourrait faire passer toute la télé et la radio sur les réseaux filaires ou 4G/5G. Au contraire, on cumule les systèmes de plusieurs générations qui ont chacun leur niveau de consommation d’énergie. 

L’émetteur de télévision du Puy de Dôme. Les puissances d’émission vont de 35 à 330 kW, dans toutes les directions / Crédit photo : djedj de Pixabay

Tu penses donc que la 5G est une évolution logique ?

C’est même, pour moi, un non-choix. [Refuser la 5G,] c’est comme être sur Windows 95 et ne pas vouloir installer Windows 10 ! Pour les données mobiles, la 3G n’est ainsi plus utilisable. A l’époque [de son déploiement], il y avait moins de monde connecté dessus, des pages web plus légères, etc. Aujourd’hui, il y a une forte croissance des usages. Et demain, on aura besoin pour ces raisons de la 5G. Elle arrive donc pour répondre à un problème de scalabilité qu’on aura dans 3 ou 4 ans. Sachant qu’il faut bien ce temps pour déployer le réseau. 

Pour la justifier, on évoque souvent l’exemple de la télémédecine et les usages mobiles en zone rurale …

Concernant la télémédecine, il s’agit d’un médecin et d’un patient qui se connectent en visio [et pas d’une opération chirurgicale à distance] : on peut le faire en 4G. La vraie question est donc celle de l’équipement des zones rurales en 4G : va-t-on installer un émetteur neuf à 400 000 euros pour 3 habitants qui paieront 20 euros d’abonnement ? Certainement pas. 

La bonne manière est alors de démonter une antenne 4G en ville pour la remplacer par de la 5G, et d’installer l’antenne 4G [déjà amortie] à la campagne.C’est pour la même raison qu’on a de la 3G dans les zones très rurales aujourd’hui. D’où l’intérêt de la 5G en ville, qui permettra au final la télémédecine en zone rurale.

Lire l’entretien : pour Combrailles Durables, l’énergie est un sujet de prise de pouvoir par les territoires

Tu disais tout à l’heure que la question des matériaux était plus pertinente que celle de l’énergie. Peux-tu nous en dire plus ?

La vraie question dans l’électronique, c’est celle du recyclage et de l’utilisation des matériaux. (…) Je ne suis pas expert, mais je constate qu’en ce moment, il y a des grosses pénuries sur certains composants électroniques. Il y a 7 à 9 mois d’attente pour avoir des chips, ce qui a par exemple arrêté des chaînes de production chez PSA [maintenant Stellantis]. C’est une situation jamais vue ! Même si elle reste conjoncturelle, cela montre que le marché est tellement tendu que le moindre aléa crée un problème.

Peut-on vraiment recycler des composants électroniques ?

Pour le recyclage, les choses s’améliorent lentement. Mais je ne vois pas la valorisation qui peut en être faite, à part faire fondre les plaques – une carte-mère de PC par exemple – pour récupérer l’or qui est dedans. Ça n’a pas de sens de démonter les composants. 

Et c’est un vrai sujet, car ce qui arrive avec les objets connectés, c’est l’intégration de plus en plus d’électronique dans les objets du quotidien … et la difficulté de désincarcérer ces objets lors du recyclage. Si j’intègre une puce dans une table, elle devient une table connectée. Mais ce sera plus difficile à traiter quand la table partira en décharge ou en déchetterie.

Sur la carte-mère d’un ordinateur, les composants sont très difficilement recyclables. La technique la plus répandue est simplement … de tout brûler pour récupérer les métaux résiduels / Crédit photo : Magnascan de Pixabay

Et quid du réemploi des ordinateurs, de la “seconde vie” ?

N’oublions pas que le monde de l’informatique va deux fois plus vite tous les 18 mois. Si tu réemploies un vieux PC, il va probablement consommer 4 fois plus d’énergie … Est-ce vraiment une bonne idée ?

La vraie question selon moi est celle de la durée de vie du matériel : si ton produit est conçu pour durer, la question du renouvellement sera complètement différente. Par exemple, mon premier Mac date de 2006. Aujourd’hui, c’est mon fils qui s’en sert et il tourne bien, même si j’ai installé Linux dessus. Est-ce que ça aurait fonctionné sur un Vaio ou un Dell [marques de PC portables] ? Le software doit être adapté, mais si le hardware est bon, ça permet de grandement diminuer l’impact environnemental.

Lire l’entretien : pour Jean-Anaël Gobbe, « l’éco-conception est pensée sur le cycle de vie »

L’obsolescence programmée est-elle la norme dans l’informatique ?

Pour le grand public, malheureusement oui. Comment convaincre les gens d’utiliser du matériel qui a 10 ans, qui sera malgré tout moins confortable qu’un matériel tout pourri à 200 euros au supermarché ? C’est un problème général, qu’on retrouve avec les vêtements par exemple. Dans tous les domaines, tu recherches du “pas cher” et du “à la mode”. 

Si ton produit est conçu pour durer, la question du renouvellement sera complètement différente.

C’est comme avec la 5G : au-delà des antennes, les opérateurs veulent en profiter pour vendre de nouveaux abonnements et changer les terminaux, avec des arguments marketing peu pertinents comme celui de la latence [délai entre émission et réception du signal]. On revient au problème de la société de consommation …

Ce problème de consommation excessive est-il le fait des fournisseurs ou des utilisateurs ?

Cela revient à la question suivante : la société a-t-elle une conscience écologique ? Les projets démocratiques sont-ils forcément vertueux ? Je ne pense pas : à mon sens, les gens les suivent parce qu’ils répondent à un intérêt personnel. Certes, certains d’entre nous sont “militants” et luttent pour transformer la planète. Mais ce n’est pas la majorité, loin de là.

J’en veux pour preuve un projet en cours de réalisation : celui d’un réseau d’objets connectés, créé par des particuliers [donc “crowdsourcé”], qui placent des antennes sur un territoire pour créer un usage collectif. La première approche pour le mettre en place s’appelle “The Things Network”, et c’est une logique open source, de type Linux : je donne un peu de mon temps, de mon argent, pour le bien commun, avec un usage gratuit. Lancé en 2016, le réseau représente aujourd’hui 15 000 antennes sur le monde.

Photomontage fourni par Paul Pinault pour illustrer des installations d’antennes et de relais The Things Network sur Clermont / Crédit visuel : Paul Pinault (DR)

Belle performance ? Pas forcément … car, en marge de The Things Network, s’est imposée la logique d’Helium. Il s’agit du même principe mais en rémunérant les gens qui vont placer une antenne. Il y a donc, avec Helium, une logique de rentabilité. Et là, en moins d’un an d’existence, ont été installés ou commandés … plus de 200 000 hotspots dans le monde, et on parle de 500 000 d’ici 2022 ! 

L’intérêt personnel est donc bien plus efficace pour mobiliser les foules.

Mon point est donc que les chiffres n’ont rien à voir quand tu mobilises les gens par le bien commun ou par l’enrichissement individuel. Et ce pour les mêmes usages à la fin. L’intérêt personnel est donc bien plus efficace [pour mobiliser les foules], avec un rapport de un à dix.

Tu penses malgré tout que l’informatique apporte une partie de la solution face au dérèglement climatique. Quelle en est la piste principale ?

C’est simple : pour avoir un impact écologique global, il faut avoir de la donnée. Quand on veut optimiser en informatique, ce qu’on fait donc souvent, c’est de regarder où 80% de l’énergie est consommée. Ensuite, on optimise cette fonction [énergivore]. Il faut alors focaliser son travail au bon endroit. Car on peut passer le même temps à travailler sur une fonction qui consomme 80% ou 5% de l’énergie … mais l’impact ne sera bien sûr pas le même. La data permet donc de se focaliser sur les bonnes optimisations à faire.

Paul (derrière, au milieu de la photo) avec les ambassadeurs Sigfox présents à un événement mondial à Singapour, en novembre 2019. Paul est un expert reconnu sur l’internet des objets / Crédit photo : Paul Pinault (DR)

C’est ta spécialité, l’internet des objets, qui peut donc contribuer à l’optimisation de l’impact énergétique. Comment s’assurer qu’ils le feront au mieux ?

Les “objets connectés” ont deux fonctions principales : d’abord, capter des données et comprendre un comportement. De là, des algorithmes génèreront une décision et l’appliqueront, en lien avec un serveur distant disposant d’une intelligence artificielle et surtout collective. D’où l’intérêt de la connexion en réseau … sinon, ce n’est qu’un bête thermostat.

La data permet de se focaliser sur les bonnes optimisations à faire.

Par exemple, je veux que mon thermostat chauffe ma maison avant que je rentre du travail. Le niveau 1 est de faire un planning fixe par semaine. Le niveau 2, avec une intelligence simple, va voir où est mon smartphone, et agir s’il se rapproche. Le niveau 3, complètement intelligent, va observer s’il y a une variation d’habitude dans la masse des utilisateurs. S’il y a un discours de Macron à 18h, les gens vont partir plus tôt du travail : le système pourra le repérer dans la masse et adapter la stratégie de chauffage. (…) Et tu peux ajouter des données extérieures, comme la météo. Le système intelligent pourra compiler tout cela et faire des prédictions qui fonctionneront avec la majorité des utilisateurs.

C’est pour cela que je parle plutôt d’”internet des objets” : la valeur est dans le fait que mon objet connecté, en lien avec d’autres objets connectés similaires, vont traiter “ensemble” les données pour prendre une décision “collective”. 

Paul me présentant deux « objets connectés » élaborés par sa start-up Ingenious Things (photo datant de 2018). La petite taille et l’autonomie très longue de ces dispositifs permettent de les utiliser dans de très nombreux contextes et de faire remonter quantité de data / Crédit photo : éditeur

Tout cela est possible avec la technologie actuelle, en s’appuyant sur du wifi pour du “smart home” ou du Lora [réseau de données sans fil dédié aux objets connectés] pour du “smart building” ou les “smart cities”. On pourra même monter son propre réseau privé, gratuit (en payant un appareil appelé “gateway”) pour son domicile si besoin [avec une solution appelée LoraWAN].

En conclusion, ton avis semble assez mitigé, avec une fois dans l’optimisation continue et l’intérêt de la smart data, mais aussi une crainte des habitudes de surconsommation …

Je suis, au fond, pessimiste, parce qu’on ne va pas globalement dans le bon sens et qu’on ne répond pas à l’urgence environnementale. A titre personnel, je fais du vélo dans Clermont, et je sais bien que 80% des gens pourraient faire du vélo pour aller à leur travail. Mais personne ne le fait ! Les gens parlent d’écologie en prenant le café et ne souhaitent aucune contrainte, aucun changement de fond.

Il faut étudier un bilan global, et dans la durée.

Concernant les critiques faites au numérique, il faut surtout ne pas regarder un système juste sous l’angle de sa consommation énergétique. Le GPS par exemple est un produit électronique qui consomme de l’énergie. Mais combien de tonnes de cartes et d’encre ont été épargnées ? Et il apporte beaucoup de services pour se déplacer, il permet d’éviter des embouteillages, de trouver des places de parking … à mon sens, le bilan de cette technologie est donc positif, surtout si l’énergie est décarbonée. Il faut étudier un bilan global, et dans la durée.

Pour aller plus loin :
Le blog de Paul sur la technologie et l’internet des objets
Information sur notre prochain événement

Propos recueillis le 29 avril 2021, mis en forme pour plus de clarté puis relus et corrigé par Paul. Crédit photo de Une : Paul Pinault (DR)