samedi 14 septembre 2019

Beaucoup de prédictions sur l’avenir de la technologie supposent implicitement que des tendances vérifiées par le passé vont durer éternellement. Mais les arbres ne montent pas au ciel, et il existe des limites à l’amélioration de toute technologie.

1) L’évolution du numérique : Gödel 1, Moore 0

Les prédictions les plus folles sur l’intelligence artificielle reposent sur une amélioration sans fin des ordinateurs.

Certes la loi de Moore (qui prédit que les capacités des microprocesseurs double tous les 18 mois) s’est traduite par une multiplication par un million des performances des processeurs sur 40 ans. Mais cette loi s’épuise et commence à buter sur des limites physiques.

Évolution de la puissance des microprocesseurs (Source : NextBigFuture)

D’abord, cette loi a été nourrie par la miniaturisation des transistors (la « cellule élémentaire » d’un microprocesseur). Ils atteignent désormais moins de 10 nanomètres, soit 50 atomes de silicium : le potentiel de réduction est désormais limité. Ensuite, la consommation électrique du numérique devient significative : d’ici 2030, il pourrait consommer 20% de l’électricité mondiale, alors que le dérèglement climatique pose des limites à la croissance de cette consommation.

Électricité consommée par le numérique (Source : Nature)

Enfin, il existe des limites logiques à la loi de Moore. Dans l’hypothèse où elle se poursuivrait indéfiniment, les ordinateurs finiraient par disposer d’assez de mémoire pour décrire l’état de l’ensemble de l’univers, notamment le leur. Une telle situation serait absurde dans un monde fait de particules élémentaires. Or cette limite théorique n’est pas si éloignée (dans 256 ans), et la limite réelle est probablement beaucoup plus proche.

Limite logique à la loi de Moore

2) Les éoliennes et la loi de Betz

Le coût de l’énergie éolienne n’a cessé de baisser, et il n’en faut pas plus pour que certains imaginent un monde ou l’énergie serait gratuite. Mais c’est ignorer les limites de la réduction du coût de ces énergies. Betz  a en effet démontré qu’une éolienne ne peut pas extraire plus de 16/27e de l’énergie du vent qui la fait tourner, soit environ 59%. 


La limite de Betz (Source : Wikipedia)

Cette démonstration est basée sur une idée simple : l’air qui passe à travers une éolienne doit « aller quelque part », et ne peut donc pas avoir une vitesse nulle à la sortie de cette dernière. On ne peut donc pas récupérer 100% de son énergie. Or les meilleures éoliennes atteignent actuellement une efficacité de 40 à 50 %, ce qui constitue déjà une performance remarquable (85% du maximum théorique de 59%) – par exemple, malgré des décennies de recherche, les meilleurs moteurs à essence ne dépassent pas 70% du maximum théorique (qui est de 60% pour un moteur à combustion interne).

Certes, la puissance unitaire d’une éolienne peut être augmentée en faisant grandir la taille des pales. Mais le fonctionnement d’une éolienne, qui vise à freiner le vent pour produire de l’électricité « prend » l’énergie du vent : il faut donc garder assez d’espace entre les équipements pour que chacun dispose de suffisamment de vent. Autrement dit, les éoliennes plus grandes produisent plus, mais on peut en mettre moins : au total la puissance par mètre carré de terrain ne change pas.  Reste la solution consistant à aller chercher des vents plus forts (avec des éoliennes plus hautes, ou situées au large des côtes), qui explique l’intérêt croissant pour l’éolien en mer.

Au total, l’Agence de l'environnement et de la maîtrise de l'énergie estime le potentiel éolien français maximum à environ 350 TWh/an (https://www.ademe.fr/mix-electrique-100-renouvelable-analyses-optimisations) – en supposant que l’on place des éoliennes absolument partout où c’est à la fois possible et rentable. Ce maximum de 350 TWh reste inférieur à la production totale d’électricité en France (550 TWh en 2018).

3) La capture du carbone et la thermodynamique

Face au défi du changement climatique, on pourrait être tenté de tout miser sur les technologies de capture et de stockage de carbone, qui visent à extraire le CO2 de l’air pour le stocker sous terre ou en mer. Dans la mesure où elles s’améliorent régulièrement, ne suffit-il pas d’attendre pour voir le problème se régler simplement, plutôt que de changer nos habitudes ?
Malheureusement, il n’est pas certain que cette technologie puisse atteindre un prix qui la rende moins coûteuse que de réduire massivement notre consommation d’hydrocarbures. En effet, elle suppose d’abord de capturer le CO2, c'est-à-dire de passer d’une concentration de 4% (part du CO2 dans l’air) à une concentration proche de 100%, éventuellement de le liquéfier, puis de stocker ce CO2 quelque part. Or chacune de ces étapes consomme de l’énergie, et les lois de la thermodynamique définissent un minimum d’énergie nécessaire pour chacune d’entre elles.


Minimum théorique d’énergie pour la capture de CO2
(Source : Yann Le Moullec )

Au total, l’énergie minimum nécessaire pour le processus est de 100 KWh par tonne de CO2  – ce qui signifie qu’une performance de 150 KWH (un tiers moins efficace que le maximum théorique) serait déjà une performance remarquable. Pour absorber et stocker les émissions humaines de CO2 (33 Gigatonnes en 2018), il faudrait une énergie de 5000 TWh chaque année, soit quatre fois la production mondiale actuelle d’énergie éolienne, solaire ou à partir de biomasse.

L’histoire a montré qu’il est périlleux de parier contre le progrès ou la capacité de l’humanité à inventer des solutions à ses problèmes. Mais, il est encore plus périlleux de croire dans la technologie avec un aveuglement tel qu’il fasse oublier l’existence de limites.

Vincent Champain, cadre dirigeant et président de l’Observatoire du Long Terme, le think tank dédié aux enjeux de long terme.
Suivant
Ceci est l'article le plus récent.
Article plus ancien

0 commentaires:

Enregistrer un commentaire