top of page
redesignarticle_codev-2020-02-04-1a22849402-Growing_plant.jpg

CROISSANCE

​

Sébastien Lauwers

14 juin 2021

​

j'ai enlevé les sous-lignages

pour faciliter la lecture

Introduction

La croissance est une réalité protéiforme omniprésente de nos vies : un marqueur de l'évolution, de l'augmentation de la taille et des capacités de nos corps lorsque nous atteignons l'âge adulte, des gains dans nos capacités collectives à exploiter les ressources de la Terre et à organiser nos sociétés afin de garantir une meilleure qualité de vie. La croissance a été un objectif à la fois tacite et explicite des efforts individuels et collectifs tout au long de l'évolution de notre espèce et de son histoire encore courte. Sa progression régit la vie des micro-organismes comme celle des galaxies avec l'expansion de l'Univers. La croissance détermine l'étendue de la croûte océanique et l'utilité de tous les artefacts (objets) conçus pour améliorer nos vies, ainsi que le degré de dommage que toute cellule se développant anormalement peut causer à l'intérieur de notre corps. La croissance façonne les capacités de nos cerveaux extraordinairement grands ainsi que nos économies. En raison de son omniprésence, la croissance peut être étudiée à des niveaux allant du subcellulaire et du cellulaire (pour révéler ses exigences et processus métaboliques et réglementaires) au traçage des trajectoires à long terme de systèmes complexes, qu'il s'agisse de bouleversements géotectoniques, de populations nationales ou mondiales, de villes, d'économies ou d'empires.

 

Par exemple, la croissance par terraformation - les forces géotectoniques qui créent les croûtes océanique et continentale, les volcans et les chaînes de montagnes, et qui façonnent les bassins versants, les plaines et les côtes - se déroule très lentement. Son principal moteur, la formation de nouvelle croûte océanique au niveau des dorsales médio-océaniques, progresse le plus souvent à des taux inférieurs à 55 mm/an, tandis que la création exceptionnellement rapide de nouveaux fonds marins peut atteindre environ 20 cm/an (Schwartz et al. 2005). Quant aux incréments annuels de la croûte continentale, Reymer et Schubert (1984) ont calculé le taux d'addition de 1,65 km3 et avec le taux de subduction total (car la vieille croûte est recyclée dans le manteau) de 0,59 km3 cela donne un taux de croissance net de 1,06 km3.

 

Il s'agit d'une augmentation annuelle minuscule si l'on considère que les continents couvrent près de 150 Gm2 (Gigamètre carré = 10^18) et que la croûte continentale a pour la plupart une épaisseur de 35-40 km, mais une telle croissance s'est poursuivie pendant tout l'éon phanérozoïque, c'est-à-dire pendant les 542 derniers millions d'années. Et un autre exemple, vertical cette fois, de vitesses tectoniques inévitablement lentes : le soulèvement de l'Himalaya, la chaîne de montagnes la plus imposante de la planète, s'élève à environ 10 mm/an (Burchfiel et Wang 2008 ; figure 0.1). La croissance tectonique contraint fondamentalement le climat de la Terre (car elle affecte la circulation atmosphérique globale et la distribution des cellules de pression) et la productivité des écosystèmes (parce qu'elle affecte la température et les précipitations) et donc également l'habitation humaine et l'activité économique. Mais nous ne pouvons rien faire sur le moment, l'emplacement ou son rythme, et nous ne pouvons pas non plus l'exploiter directement à notre avantage.

​

 

Figure 0.1

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

 

 

 

 

Une croissance géotectonique lente mais persistante.

L'Himalaya a été créé par la collision des plaques indienne et eurasienne qui a commencé il y a plus de 50 millions d'années et dont la poursuite fait aujourd'hui croître la chaîne de montagnes de 1 cm/an.

Photo prise en janvier 2004 depuis la station spatiale internationale (vue du sud depuis le plateau tibétain). Image disponible sur https://www.nasa.gov/multimedia/imagegallery/image_feature_152.html.

 

 

 

 

La croissance organique, expression quintessentielle (ce qu'il y a de meilleur) de la vie, englobe tous les processus par lesquels des éléments et des composés sont transformés au fil du temps en une nouvelle masse vivante (biomasse). L'évolution de l'homme a été existentiellement dépendante de cette croissance naturelle, d'abord seulement pour la nourriture fourragère et chassée, puis comme carburant et matières premières,  pour les plantes cultivées destinées à l'alimentation humaine et animale et pour l'exploitation à grande échelle de la phytomasse forestière ainsi que pour la capture d'espèces marines. Cette ingérence croissante de l'homme dans la biosphère a entraîné une transformation à grande échelle de nombreux écosystèmes, avant tout la conversion des forêts et des zones humides en terres cultivées et l'utilisation extensive des prairies pour le pâturage des animaux (Smil 2013a).

 

La croissance est également un signe de progrès et une incarnation de l'espoir dans les affaires humaines. La croissance des capacités techniques a permis d'exploiter de nouvelles sources d'énergie, d'augmenter le niveau et la fiabilité de l'approvisionnement alimentaire et de créer de nouveaux matériaux et de nouvelles industries. La croissance économique a apporté des gains matériels tangibles avec l'accumulation de biens privés qui enrichissent nos vies brèves, et elle crée des valeurs intangibles d'accomplissement et de satisfaction. Mais la croissance est également source d'inquiétudes, de préoccupations et de craintes.   Diverses personnes - qu'il s'agisse d'enfants marquant leur taille croissante sur un cadre de porte, d'économistes préparant des prévisions alambiquées sur la production et les performances commerciales, ou de radiologues examinant des images par résonance magnétique - s'en inquiètent d'une multitude de façons différentes.

 

La croissance est généralement considérée comme trop lente ou trop excessive ; elle suscite des inquiétudes quant aux limites de l'adaptation et des craintes quant aux conséquences personnelles et aux bouleversements sociaux majeurs.   En réponse, les gens s'efforcent de gérer la croissance qu'ils peuvent contrôler en modifiant son rythme (pour l'accélérer, la modérer ou l'arrêter) et réfléchissent, ou s'efforcent, d'étendre ces contrôles à d'autres domaines. Même si certaines sont couronnées de succès, la plupart de ces tentatives échouent souvent, (l'impression d'une maîtrise apparemment permanente peut s'avérer n'être qu'un succès temporaire), mais elles ne s'arrêtent jamais : nous pouvons les voir poursuivies aux deux extrémités du spectre, par exemple, lorsque des scientifiques tentent de créer de nouvelles formes de vie en élargissant le code génétique et en incluant de l'ADN synthétique dans de nouveaux organismes (Malyshev et al. nature 2014) - ainsi qu'en proposant de contrôler le climat de la Terre par des interventions de géo-ingénierie (Keith plos 2013).

 

La croissance des organismes est le produit d'un long processus évolutif, et la science moderne est parvenue à comprendre ses conditions préalables, ses voies et ses résultats et à identifier des trajectoires qui se conforment, plus ou moins étroitement, à des fonctions spécifiques, en grande majorité à des courbes en forme de S (sigmoïde ->).  Trouver des traits communs et faire des généralisations utiles concernant la croissance naturelle est un défi, mais la quantifier est relativement simple. Il en va de même pour la mesure de la croissance de nombreux artefacts créés par l'homme (outils, machines, systèmes de production), qui consiste à suivre l'augmentation de leur capacité, de leurs performances, de leur efficacité ou de leur complexité.   Dans tous ces cas, nous avons affaire à des  unités  physiques  de  base (longueur, masse, temps, courant électrique, température, quantité de substance, intensité lumineuse) et à leurs nombreux dérivés, allant du volume,  à la vitesse,  à   l'énergie  et  à  la  puissance.

 

Il est beaucoup plus difficile de mesurer les phénomènes de croissance impliquant le jugement humain, les attentes et les interactions pacifiques ou violentes entre les uns et les autres.   Certains processus agrégés complexes sont impossibles à mesurer sans d'abord délimiter arbitrairement le champ d'une enquête et sans recourir à des concepts plus ou moins douteux : mesurer la croissance des économies en s'appuyant sur des variables telles que le produit intérieur brut ou le revenu national sont des exemples parfaits de ces difficultés et indéterminations.  Mais même si de nombreux attributs de ce que l'on pourrait appeler la croissance sociale sont facilement mesurables (les exemples vont de l'espace de vie moyen par famille, à la possession d'appareils ménagers ou à la puissance destructrice des missiles stockés un peu partout sur la planète ou à la superficie totale contrôlée par une puissance impériale), leurs véritables buts restent ouvertes à diverses interprétations car ces quantifications cachent des différences qualitatives significatives.

 

L'accumulation de biens matériels est un aspect particulièrement fascinant de la croissance, car elle résulte de la combinaison d'une quête louable d'amélioration de la qualité de vie, d'une réponse compréhensible mais moins rationnelle visant à se positionner dans un milieu social plus large, et d'une impulsion plutôt atavique (inné ou héréditaire) de posséder, voire d'amasser de manière compulsive, ou ceux qui restent indifférents à la croissance et aux besoins privés.   Mais entre les deux, dans toute population dont le niveau de vie s'élève, on trouve des dépendances quotidiennes moins dramatiques, car la plupart des gens veulent plus de croissance, que ce soit en termes matériels ou intangibles, sous des idées insaisissables de bonheurs naturels ou de satisfactions personnelles obtenues en amassant des fortunes ou en vivant des expériences uniques.

 

Les vitesses et les échelles de ces poursuites montrent clairement à quel point cette expérience omniprésente est moderne et à quel point cette préoccupation croissante pour la croissance est justifiée. Le doublement des tailles moyennes est devenu une expérience courante au cours d'une seule vie : la superficie moyenne des maisons américaines a été multipliée par 2,5 depuis 1950 (AIE 2016), le volume des verres à vin du Royaume-Uni a doublé depuis 1970 (Zupan et al. 2017), la masse typique des voitures européennes a plus que doublé depuis les modèles d'après la Seconde Guerre mondiale (Citroën 2 CV, Fiat Topolino) pesant moins de 500 kg jusqu'à environ 800 à 900 kg pour une C1 (google).   De nombreux artefacts et réalisations ont connu des augmentations bien plus importantes au cours de la même période : la surface des écrans de télévision a été multipliée par 15 environ, passant de la norme d'après-guerre de 30 cm de diagonale à la taille moyenne américaine d'environ 120 cm en 2015, avec une part croissante des ventes prise par les téléviseurs dont la diagonale dépasse 150 cm (history tv). Et même cette augmentation impressionnante a été éclipsée par l'essor des plus grandes fortunes individuelles : en 2019, le monde comptait 2 755 milliardaires (Forbes 2021Forbes 2020). Les différences relatives produites par certains de ces phénomènes ne sont pas sans précédent, mais la combinaison des disparités absolues découlant de la croissance moderne, de sa fréquence et de sa vitesse est nouvelle.

 

 

 

 

 

 

Le taux de croissance

 

Bien sûr, les individus et les sociétés ont toujours été entourés d'innombrables manifestations de croissance naturelle, et les quêtes d'enrichissement matériel et d'agrandissement territorial étaient les forces qui animaient les sociétés à des niveaux allant du tribal à l'impérial, du raid sur les villages voisins en Amazonie à la soumission de grandes parties de l'Eurasie à un pouvoir central. Mais pendant l'Antiquité, la période médiévale et une grande partie du début de l'ère moderne (généralement délimitée comme les trois siècles entre 1500 et 1800 - (Fernand Braudel 1979 Tome 1, Tome 2, Tome 3), la plupart des gens partout dans le monde survivaient comme des paysans de subsistance dont les récoltes produisaient un surplus limité et fluctuant suffisant pour soutenir seulement un nombre relativement faible d'habitants plus aisés (familles d'artisans et de marchands qualifiés) des villes (généralement petites) et des élites dirigeantes séculaires et religieuses.

 

Les récoltes annuelles de ces sociétés plus simples, prémodernes et du début de l'ère moderne, présentaient peu de signes de croissance notable, voire aucun. De même, presque toutes les variables fondamentales de la vie prémoderne - qu'il s'agisse de la population totale, de la taille des villes, de la longévité et de l'alphabétisation, des troupeaux d'animaux, des possessions des ménages ou des capacités des machines couramment utilisées - croissaient à un rythme si lent que leur progression n'était évidente que dans des perspectives à très long terme. Et souvent, ils étaient soit complètement stagnants, soit fluctuaient de façon erratique autour de moyens rudimentaires, connaissant de longues périodes de régressions sur de longues durées. Pour nombre de ces phénomènes, nous disposons d'artefacts et de descriptions préservés, et nous pouvons reconstituer certaines évolutions à partir de documents fragmentaires couvrant plusieurs siècles.

 

Par exemple, dans l'Égypte ancienne, il a fallu plus de 2 500 ans (de l'âge des grandes pyramides à l'ère post-romaine) pour doubler le nombre de personnes pouvant être nourries avec un hectare de terre agricole (Butzer 1976). La stagnation des rendements en était la raison évidente, et cette réalité a perduré jusqu'à la fin du Moyen Âge : à partir du XIVe siècle, il a fallu plus de 400 ans pour que les rendements moyens en blé de l'Angleterre doublent, les gains ayant été pratiquement inexistants au cours des 200 premières années de cette période (Stanhill 1976 ; Clark 2005). De même, de nombreux progrès techniques se sont déroulés très lentement. Les roues à aubes étaient les moteurs inanimés les plus puissants des civilisations préindustrielles, mais il a fallu environ 17 siècles (du deuxième siècle de l'ère commune à la fin du 18e siècle) pour décupler leur puissance typique, de 2 kW à 20 kW. La stagnation des récoltes ou, au mieux, une faible croissance des rendements agricoles et l'amélioration lente des capacités de fabrication et de transport ont limité la croissance des villes : à partir de 1300, il a fallu plus de trois siècles pour que la population de Paris double pour atteindre 400 000 habitants - mais à la fin du XIXe siècle, la ville a doublé en seulement 30 ans (1856-1886) pour atteindre 2,3 millions d'habitants (Atlas Historique de Paris 2016).

 

Et de nombreuses réalités sont restées les mêmes pendant des millénaires : la distance maximale parcourue quotidiennement par des messagers à cheval (le moyen le plus rapide de communication à longue distance sur terre avant l'introduction des chemins de fer) a été optimisée dès la Perse antique par Cyrus lorsqu'il a relié Suse et Sardes après 550 avant J.-C., et elle est restée largement inchangée pendant les 2 400 années suivantes (Minetti 2003). La vitesse moyenne des relais (13-16 km/h) et d'un seul animal monté sur un maximum de 18-25 km/jour est restée quasi constante. De nombreuses autres entrées appartiennent à cette catégorie stagnante, de la possession d'articles ménagers par les familles pauvres au taux d'alphabétisation prévalant parmi les populations rurales. Là encore, ces deux variables n'ont commencé à changer de manière substantielle que dans la dernière partie du début de l'ère moderne.

 

Une fois que tant de changements techniques et sociaux - croissance des réseaux ferroviaires, expansion des voyages en bateau à vapeur, augmentation de la production d'acier, invention et déploiement des moteurs à combustion interne et de l'électricité, urbanisation rapide, amélioration de l'assainissement, augmentation de l'espérance de vie - ont commencé à se produire à un rythme sans précédent au cours du 19e siècle, leur essor a suscité d'énormes attentes quant à la poursuite de la croissance (Smil 2005). Et ces espoirs n'ont pas été déçus car (malgré les revers causés par les deux guerres mondiales, d'autres conflits et des ralentissements économiques périodiques) les capacités des machines individuelles, des processus industriels complexes et des économies entières ont continué à croître au cours du 20e siècle. Cette croissance s'est traduite par de meilleurs résultats physiques (augmentation de la taille des corps, augmentation de l'espérance de vie), une plus grande sécurité matérielle et un plus grand confort (qu'il soit mesuré par les revenus disponibles ou la possession d'appareils facilitant le travail), ainsi que des degrés de communication et de mobilité sans précédent (Smil 2006b).

 

Rien n'a incarné cette réalité et cet espoir au cours des dernières décennies de manière aussi évidente que la croissance du nombre de transistors et d'autres composants que nous avons pu placer sur une tranche de silicium. Largement connue comme obéissant à la loi de Moore, cette croissance a vu le nombre de composants doubler environ tous les deux ans : en conséquence, les micropuces les plus puissantes fabriquées en 2018 comptaient plus de 23 milliards de composants, soit sept ordres de grandeur (environ 10,2 millions de fois pour être plus exact) de plus que le premier dispositif de ce type (le 4004 d'Intel, une unité de traitement de 4 bits avec 2 300 composants pour une calculatrice japonaise) conçu en 1971 (Moore 1965, 1975 ; Muralidhar 2020). Comme dans tous les cas de croissance exponentielle (voir chapitre 1), lorsque ces gains sont reportés sur un graphique linéaire, ils produisent une courbe fortement ascendante, tandis qu'un report sur un graphique semi-logarithmique les transforme en une ligne droite (figure 0.2).

 

Figure 0.2

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Marqueurs  de la croissance moderne :

graphique semi-logarithmique montrant une augmentation exponentielle suivant

la loi de Moore, 1971-2018. régulière de 103 à 1010 composants par puce électronique

croisé par la croissance démographique mondiale jusqu'en 2100 (Lauwers 2021).

 

 

 

 

Ces progrès ont suscité des attentes presque illimitées quant aux progrès encore plus importants à venir, et la diffusion rapide récente de divers appareils électroniques (et des applications qu'ils utilisent) a particulièrement fasciné les commentateurs non critiques qui voient des signes omniprésents de croissance accélérée. Pour ne citer qu'un exemple récent et mémorable, un rapport préparé par l'Oxford Martin School et publié par Citi affirme que les laps de temps suivants ont été nécessaires pour atteindre 50 millions d'utilisateurs : téléphone 75 ans, radio 38 ans, télévision 13 ans, Internet quatre ans et Angry Birds 35 jours (Frey et Osborne 2015).   

 

Nous pouvons néanmoins douter de ces chiffres... font-ils référence à une distribution mondiale ou américaine ?    Le rapport ne le dit pas, mais le total de 50 millions fait clairement référence aux États-Unis, où ce nombre de téléphones a été atteint en 1953 (1878 + 75 ans) : mais le nombre de téléphones n'est pas égal au nombre total de leurs utilisateurs, qui, compte tenu de la taille moyenne des familles et de l'omniprésence des téléphones sur les lieux de travail, devait être considérablement plus élevé. La télédiffusion n'a pas eu un seul mais plusieurs débuts : La transmission américaine, et la vente des premiers postes, ont commencé en 1928, mais 13 ans plus tard, en 1941, la possession d'un téléviseur était encore minime, et le nombre total de téléviseurs (encore une fois : des appareils, pas des utilisateurs) n'a atteint 50 millions qu'en 1963. La même erreur se répète avec l'internet, auquel des millions d'utilisateurs ont eu accès pendant de nombreuses années dans les universités, les écoles et les lieux de travail avant d'obtenir une connexion à domicile ; d'ailleurs, quelle a été la "première" année d'internet ?   En réalité cette date varie entre 1960 pour le début de son utilisation en réseau par différents chercheurs, sur différents continents et 1989. Mais c'est l'année 1983 qui est communément admise comme date anniversaire. 

 

Tout cela n'est qu'une collecte de données amusante pour faire le buzz, en comparant un système complexe basé sur une infrastructure nouvelle et étendue à un logiciel de divertissement. La téléphonie de la fin du XIXe siècle était un système pionnier de communication personnelle directe dont la réalisation a nécessité la première électrification à grande échelle de la société (de l'extraction du combustible à la production thermique et à la transmission, de grandes parties de l'Amérique rurale n'ayant pas de bonnes connexions même dans les années 1920), l'installation d'une vaste infrastructure câblée et la vente de récepteurs et de haut-parleurs (initialement séparés). En réalité la croissance de ce moyen d'échange a commencé dans les années 1880 avec la production et la transmission d'électricité et elle a culminé avec la vague de conception et de fabrication de milliards de téléphones mobiles et l'installation de réseaux denses de tours de téléphonie cellulaire après 2000.  En revanche, des applications dépendants d'une publicité intense peuvent se propager de manière virale parce que nous avons passé plus d'un siècle à mettre en place les composants successifs d'un système physique qui a rendu possible une telle diffusion.

 

La croissance de l'information s'est avérée tout aussi fascinante. Il n'y a rien de nouveau dans son ascension. L'invention des caractères mobiles (en 1450) a déclenché une hausse exponentielle de l'édition de livres, qui est passée d'environ 200 000 volumes au XVIe siècle à environ 1 million de volumes au XVIIIe siècle, tandis que le rythme annuel mondial récent (mené par la Chine, les États-Unis et le Royaume-Uni) a dépassé les 2 millions de titres (UNESCO 2018 - Fink & Jensen 2015).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

À cela s'ajoutent les informations picturales, dont la croissance a été rendue possible par la lithographie, puis par l'héliogravure, et qui sont aujourd'hui dominées par les écrans électroniques des appareils mobiles. Les enregistrements sonores ont commencé avec le fragile phonographe d'Edison en 1878 (Smil 2018a ; figure 0.3) et leur énorme sélection est désormais accessible sans effort à des milliards d'utilisateurs de téléphones mobiles. Et le flux d'informations dans toutes ces catégories est surpassé par l'imagerie recueillie sans cesse par des flottes entières de satellites d'espionnage, de météorologie et d'observation de la Terre. Il n'est pas surprenant que la croissance globale de l'information ait ressemblé à la trajectoire d'expansion hyperbolique de la croissance de la population mondiale avant 1960.

 

 

Figure 0.3

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

​

 

 

 

 

 

Thomas A. Edison avec son phonographe

photographié par Mathew Brady en avril 1878.

Photographie de la collection Brady-Handy de la Bibliothèque du Congrès.

 

 

 

 

Récemment, il a été possible d'affirmer que 90 % ou plus de toutes les informations existantes dans le monde ont été générées au cours des deux années précédentes. Seagate (2017) a estimé le total des informations créées dans le monde à 0,1 zettaoctet (ZB, 1021) en 2005, à 2 ZB en 2010, à 16,1 ZB en 2016, et a prévu que l'augmentation annuelle atteindrait 163 ZB en 2025 (convertisseur).   Un an plus tard, elle a revu à la hausse son estimation de la sphère de données mondiale, la portant à 175 ZB d'ici 2025, et s'attend à ce que le total continue à s'accélérer (Reinsel et al. 2018). Mais dès que l'on considère les principales composantes de ce nouveau déluge de données, ces affirmations d'accélération ne sont guère impressionnantes. Les nouveaux flux de données hautement centralisés comprennent les mouvements incessants d'argent liquide et d'investissements électroniques entre les grandes banques et les sociétés d'investissement, ainsi que la surveillance généralisée des communications téléphoniques et Internet par les agences gouvernementales.

 

Dans le même temps, des milliards d'utilisateurs de téléphones mobiles participant aux médias sociaux renoncent volontairement à leur vie privée pour que des data miners puissent, sans poser la moindre question à quiconque, suivre leurs messages et leurs clics sur le web, analyser les préférences personnelles et les faiblesses individuelles qu'ils révèlent, les comparer à celles de leurs pairs et les conditionner pour qu'ils soient achetés par les publicitaires afin de vendre davantage de déchets inutiles - et de maintenir la croissance économique intacte. Et, bien sûr, des flux de données sont produits sans cesse par les personnes qui possèdent des téléphones portables équipés de GPS. Ajoutez à cela le flot d'images ineptes, y compris des myriades de selfies et de vidéos de chats (les photos de smartphones occupent généralement 2 à 3 Mo, soit 2 à 3 fois plus que le texte dactylographié de cet article), et la croissance sans précédent de l'"information" apparaît souvent problématique, voire instrumentalisée comme lors de l'élection de Trump.

 

Et c'est l'une des conséquences indésirables les plus conséquentes de ce déluge d'informations : le temps passé par jour par un utilisateur adulte avec les médias numériques a doublé entre 2008 et 2015 pour atteindre 7,5 heures en 2020 (eMarketer 2021), créant de nouvelles formes de vie, des zombies d'écran. Il est noter que l'année 2020 a été marquée par une pandémie exceptionnelle qui a fait exploser les compteurs.   Mais la diffusion rapide de l'électronique et des logiciels sont des sujets insignifiants comparés aux réalisations ultimes attendues de la croissance accélérée - et personne ne les a exprimées de manière plus affirmée que Ray Kurzweil, depuis 2012 le directeur de l'ingénierie chez Google et bien avant cela l'inventeur d'appareils électroniques tels que le scanner à plat à couple chargé, le premier synthétiseur commercial de texte à la parole et la première reconnaissance optique de caractères omnifontale.

 

En 2001, il a formulé sa loi des retours accélérés (Kurzweil 2001, 1) :

 

Une analyse de l'histoire de la technologie montre que le changement technologique est exponentiel, contrairement à la vision "linéaire intuitive" du sens commun. Nous ne connaîtrons donc pas 100 ans de progrès au 21e siècle, mais plutôt 20 000 ans (au rythme actuel). Les "rendements", tels que la vitesse et la rentabilité des puces, augmentent également de manière exponentielle. Il y a même une croissance exponentielle dans le taux de croissance exponentielle. D'ici quelques décennies, l'intelligence des machines surpassera l'intelligence humaine, ce qui conduira à la "singularité", un changement technologique si rapide et si profond qu'il représentera une rupture dans le tissu de l'histoire humaine. Les implications comprennent la fusion de l'intelligence biologique et non biologique, des humains immortels basés sur des logiciels et des niveaux d'intelligence ultra élevés qui s'étendent dans l'univers à la vitesse de la lumière.

 

En 2005, Kurzweil a publié The Singularity Is Near (La singularité est proche), qui doit arriver en 2045, pour être exact, et depuis lors, il n'a cessé de promouvoir ces idées sur son site Web, Kurzweil Accelerating Intelligence (Kurzweil 2005, 2017). Il n'y a aucun doute, aucune hésitation, aucune humilité dans les grandes déclarations catégoriques de Kurzweil, car selon lui, l'état de la biosphère, dont le fonctionnement est le produit de milliards d'années d'évolution, n'a aucun rôle à jouer dans notre avenir, qui sera entièrement modelé par la maîtrise supérieure de l'intelligence des machines. Mais aussi différente que soit notre civilisation par rapport à ses prédécesseurs, elle fonctionne avec la même contrainte : elle n'est rien d'autre qu'un sous-ensemble de la biosphère, cette enveloppe relativement très mince, à la fois très résistante et très fragile, dans laquelle les organismes vivants à base de carbone peuvent survivre (Vernadsky 1929). Inévitablement, leur croissance et, pour les organismes supérieurs, leurs progrès cognitifs et comportementaux, sont fondamentalement limités par les conditions physiques de la biosphère et (aussi large que cela puisse paraître en comparant ses extrêmes) par l'éventail restreint des possibilités métaboliques (Smil 2002).

 

 

 

 

 

Études sur la croissance

 

Même limitée à notre planète, la portée des études sur la croissance - des cellules éphémères à une civilisation censée se diriger vers la singularité - est trop vaste pour permettre un traitement véritablement complet en un seul article. Il n'est pas surprenant que les synthèses et les aperçus publiés sur les processus de croissance et leurs résultats aient été limités à des disciplines ou des sujets majeurs. Le grand classique de la littérature sur la croissance, On Growth and Form de D'Arcy Wentworth Thompson (dont l'édition originale est sortie en 1917 et dont la version révisée et largement augmentée est parue en 1942) s'intéresse presque uniquement aux cellules et aux tissus et à de nombreuses parties (squelettes, coquilles, cornes, dents, défenses) des corps animaux (Thompson 1917, 1942). Thompson n'a parlé de matériaux non biogènes ou de structures artificielles (métaux, poutres, ponts) que lorsqu'il a examiné les formes et les propriétés mécaniques de tissus biogènes solides comme les coquilles et les os.

 

The Chemical Basis of Growth and Senescence de T. B. Robertson, publié en 1923, délimite sa portée dans le titre du livre (Robertson 1923). En 1945, une autre revue complète de la croissance des organismes est parue, Bioenergetics and Growth de Samuel Brody, dont le contenu était spécifiquement axé sur le complexe d'efficacité chez les animaux domestiques (Brody 1945). En 1994, Robert Banks a publié une enquête détaillée sur les phénomènes de croissance et de diffusion, et bien que cet excellent volume fournisse de nombreux exemples d'applications spécifiques des trajectoires de croissance individuelles et des modèles de distribution dans les sciences naturelles et sociales et dans l'ingénierie, sa principale préoccupation est résumée dans son sous-titre, car il traite principalement (et de manière exemplairement systématique) des cadres et applications mathématiques (Banks 1994).

 

Le sous-titre d'un hommage édité à Thompson (avec le titre éponyme, On Growth and Form) annonçait les limites de son enquête : Spatio-temporal Pattern Formation in Biology (Chaplain et al. 1999). Aussi divers que soient ses chapitres (notamment les formations de motifs sur les ailes de papillon, dans le cancer, dans la peau et les cheveux, ainsi que les modèles de croissance des réseaux capillaires et de la cicatrisation des plaies), le livre portait, une fois encore, sur la croissance des formes vivantes. Et en 2017, Geoffrey West a résumé des décennies d'enquêtes sur les lois universelles de la croissance - non seulement des organismes, mais aussi des villes, des économies et des entreprises - dans un livre intitulé Scale, qui énumère tous ces sujets dans son long sous-titre et dont le but est de discerner des modèles communs et même d'offrir la vision d'une grande théorie unifiée de la durabilité (West 2017).

 

Les composantes de la croissance organique, qu'elles soient fonctionnelles ou taxonomiques, ont fait l'objet d'une grande attention et des traitements complets traitent de la croissance cellulaire, nous y reviendrons plus tard.

 

La croissance et la nutrition saines des enfants ont fait l'objet d'une attention particulière, avec des perspectives allant de l'anthropométrie à la science de la nutrition, et de la pédiatrie et la physiologie à la santé publique, Malthus (1798) et Verhulst (1845, 1847) ont publié des enquêtes pionnières sur la nature de la croissance démographique, dont les évaluations modernes vont de Pearl et Reed (1920) et Carr-Saunders (1936) à Meadows et al. (1972), ainsi que de nombreux examens et projections publiés par les Nations unies.

 

L'économie moderne s'est préoccupée des taux de croissance de la production, des bénéfices, des investissements et de la consommation. Par exemple et de manière non limitative (Kuznets 1955 ; Zhang 2006 ; Piketty 2014 et 2019), croissance et innovation technique (Mokyr 2020), croissance et commerce international, et croissance et santé. Des publications dispensent également des conseils sur la manière de rendre toute croissance économique durable.

 

 

​

​

himalaya vu de l'espace iss008-e-13304_l
thomas edison avec son tourne disque.jpg
Ancre 1
Ancre 2
Ancre 3

Commençons par le passé : l’Histoire générale révèle une succession de modes de croissance
différents, chacun plus rapide que ceux qui l’ont précédé. Sur la base de ce constat, on peut prévoir
un nouveau mode de croissance, donc encore plus rapide.  Nous allons donc revenir sur l’histoire de l’intelligence artificielle (IA) puis nous nous interrogerons sur nos capacités actuelles en la matière. Pour finir, nous nous attarderons sur de récentes enquêtes menées auprès d’experts et ferons face à notre ignorance sur le déroulement temporel des progrès à venir. Ce qui est déjà acquis et ce que nous saurons faire

 

 
La croissance dans l’Histoire 
Il y a quelques millions d’années seulement, nos ancêtres se balançaient encore dans les branches de la canopée africaine. À l’échelle géologique, ou même évolutive, l’apparition d’Homo sapiens à partir de l’ancêtre que nous avons en commun avec les grands singes a été très rapide. On a développé la station debout, le pouce opposable et, de manière décisive, des changements mineurs dans la taille de notre cerveau et de son organisation ont déclenché un bond capital de nos capacités cognitives : les humains peuvent penser de manière abstraite, communiquer des idées complexes et, bien plus que tout autre espèce de la planète, transmettre des connaissances de génération en génération grâce à la culture.  Ces capacités ont permis aux êtres humains de développer des techniques efficaces de plus en plus nombreuses, et nos ancêtres purent par exemple se déplacer loin de la forêt équatoriale ou de la savane. Après l’invention de l’agriculture en particulier, la densité de population a augmenté en même temps que le nombre total d’humains sur Terre. Plus d’êtres humains, c’est plus d’idées ; une forte densité démographique, c’est une diffusion plus rapide de ces idées et la possibilité, pour certains individus, de se consacrer au développement d’aptitudes spécialisées. L’ensemble de ces facteurs a augmenté le taux de croissance de la productivité économique et de la capacité technique. Ce qui s’est passé plus tard, au moment de la Révolution industrielle, a constitué une deuxième étape dans l’évolution de ce taux de croissance.  Ces modifications du taux de croissance ont eu des conséquences très importantes : il y a quelques centaines de milliers d’années, au début de la préhistoire des hominidés, la croissance (technique) était si lente qu’il a fallu près d’un million d’années pour que la productivité économique croisse suffisamment pour nourrir un million d’individus. Environ 5 000 ans av. J.-C., à la suite de la Révolution agraire, ce taux a augmenté au point que le doublement de la population n’a pris que deux siècles. Et aujourd’hui, à la suite de la Révolution industrielle, la croissance économique mondiale est multipliée par deux toutes les 90 minutes. Mêmesi le taux de croissance actuel se maintenait sur la durée, il produirait des résultats impressionnants. Mais si l’économie mondiale continuait de croître au même rythme que durant le dernier demi-siècle, le monde serait 4,8 fois plus riche en 2050 et 34 fois plus riche en 2100 qu’aujourd’hui.  Mais la perspective d’une croissance exponentielle continue n’est rien à côté de ce qui se produira si le monde connaît encore un autre changement radical du taux de croissance, comparable à ceux qu’ont déclenché la Révolution agraire et la Révolution industrielle. L’économiste Robin Hanson estime, sur la base de l’histoire de l’économie et de données démographiques, que l’économie mondiale a doublé en 224 000 ans lors du Pléistocène, quand nous étions chasseurs cueilleurs, en 909 ans après l’apparition de l’agriculture, et en 6,3 ans dans la société industrielle (dans le modèle de Hanson, notre époque est un mélange de modes de croissance agricole et industriel et l’économie globale ne double pas encore en 6,3 ans)3. Si nous passons à un autre mode de croissance, et s’il est en puissance comparable aux deux précédents, notre nouveau régime de croissance verra l’économie mondiale doubler en taille toutes les deux semaines environ.  Aujourd’hui, un tel taux de croissance nous semble fantastique. Dans le passé, il est probable que des observateurs auraient jugé très farfelu de prévoir que l’économie mondiale doublerait un jour plusieurs fois au cours d’une vie. Et pourtant c’est bien dans cette situation extraordinaire que nous nous trouvons aujourd’hui. 
La conviction que va se produire une singularité technologique est aujourd’hui largement répandue, depuis l’essai fondateur de Vernor Vinge et les travaux qui suivirent, comme ceux de Ray Kurzweil et de quelques autres4. Ce terme, « singularité », a néanmoins été utilisé de manière confuse dans bien des usages et a apporté une contribution regrettable à tout un ensemble d’idées techno-utopistes5. La plupart de ces sens et de ces idées n’ont aucune importance pour notre propos, aussi gagnerons-nous en clarté en nous dispensant du terme de « singularité » et en lui préférant une terminologie plus précise. 
La seule chose qui soit liée dans ce livre à cette idée d’une singularité technologique est la possibilité d’une explosion de l’intelligence, et précisément la perspective de l’invention d’une machine superintelligente. Il y en a sûrement qui sont convaincus par la courbe de croissance représentée sur la figure 1 et qui pensent qu’un autre changement drastique du mode de croissance est dans les tuyaux, comparable à ceux de la Révolution agraire et de la Révolution industrielle. Ceux là doivent donc penser qu’il est difficile de concevoir un scénario dans lequel l’économie mondiale pourrait en venir à
doubler en quelques semaines sans qu’aient été créés des esprits plus rapides et plus efficaces que ceux de notre espèce biologique. Cependant, pour prendre au sérieux la perspective d’une révolution de l’intelligence des machines, il n’est pas nécessaire de tenir compte des exercices de projection des courbes ou d’extrapolations à partir des croissances.

Ancre 4

2   Trajectoires :

ou les modèles communs de croissance

​

 

 

La croissance attire souvent des adjectifs les rendant plus démonstratifs, dont les plus courants sont : anémique, arithmétique, cancéreuse, chaotique, retardée, décevante, erratique, explosive, exponentielle, rapide, géométrique, saine, interrompue, linéaire, logistique, faible, maligne, modérée, pauvre, rapide, galopante, lente, en forme de S, forte, soudaine, tiède, inattendue, vigoureuse. Plus récemment, nous devrions également ajouter durable et non durable. La croissance durable est, bien sûr, une  contradictio  in  adjecto  (qui désigne des mots contradictoires) claire en ce qui concerne toute croissance matérielle à long terme. Il est assez peu probable que ces avancées  nous permettent  d'améliorer des éléments intangibles comme le bonheur ou la satisfaction. La plupart des adjectifs utilisés pour décrire la croissance sont des qualificatifs de son taux : souvent, ce n'est pas la croissance en soi qui nous inquiète, mais plutôt son taux, qu'il soit trop rapide ou trop lent.

 

Tout le monde connaît les préoccupations principales des économistes, des prévisionnistes ou de membres d'un gouvernement quant à la signification d'une croissance "vigoureuse" ou "saine" du produit intérieur brut (PIB). Cette demande de taux de croissance élevés est fondée sur l'attente la plus simpliste d'une répétition des expériences passées, comme si la croissance passée du PIB n'avait rien à voir avec le taux futur attendu. En d'autres termes, les économistes s'attendent implicitement à une croissance exponentielle sans fin, et de préférence assez rapide. 

​

Mais est ce une image appropriée pour comparer les résultats ?   Par exemple, au cours de la première moitié des années 1950, la croissance du PIB américain (GDP - Growth Domestic Product) a atteint en moyenne près de 5 % par an et cette performance s'est traduite approximativement par 3 500 dollars supplémentaires par habitant (pour environ 160 millions de personnes) au cours de ces cinq années. En revanche, la "lente" croissance du PIB entre 2011 et 2015 (avec une moyenne de seulement 2 % par an) a ajouté environ 4 800 dollars par habitant (pour environ 317 millions de personnes) au cours de ces cinq années, soit près de 40 % de plus qu'il y a 60 ans (tous les totaux sont exprimés en monnaie constante pour éliminer l'effet de l'inflation).  Par conséquent, en termes d'amélioration individuelle moyenne réelle, la récente croissance de 2 % a été bien supérieure à l'ancien taux, 2,5 fois plus élevée.

 

Les résultats du référendum britannique du 23 juin 2016, sur le maintien dans l'UE ou sa sortie, ont fourni une autre illustration parfaite de la façon dont le taux de changement compte plus que le résultat. Dans 94 % des régions où la population née à l'étranger a augmenté de plus de 200 % entre 2001 et 2014, les gens ont voté pour quitter l'Union européenne - même si la part des migrants dans ces régions était restée comparativement faible, le plus souvent inférieure à 20 %. En revanche, la plupart des régions où la population née à l'étranger était supérieure à 30 % ont voté pour le maintien. Comme l'a conclu The Economist, "un nombre élevé de migrants ne dérange pas les Britanniques ; des taux élevés de changement, oui" (Economist 2016).

​

D'autres adjectifs utilisés pour qualifier la croissance sont des termes précisément définis décrivant ses trajectoires spécifiques qui se conforment (parfois presque parfaitement, souvent assez étroitement) à diverses fonctions mathématiques. Ces ajustements étroits, voire parfaits, sont possibles car la plupart des processus de croissance sont remarquablement réguliers, leur progression suivant un éventail limité de modèles. Naturellement, ces trajectoires présentent de nombreuses variations individuelles, inter et intraspécifiques pour les organismes, et sont marquées par des écarts historiques, techniques et économiques pour les systèmes, les économies et les sociétés. Les trois trajectoires de base englobent la croissance linéaire, la croissance exponentielle et divers modèles de croissance finie. La croissance linéaire est triviale à saisir et facile à calculer. La croissance exponentielle est facile à comprendre mais la meilleure façon de la calculer est d'utiliser la base des logarithmes naturels, un mystère pour beaucoup. Le principe des modèles de croissance finis, y compris les fonctions de croissance logistiques, de Gompertz et exponentielles confinées, est, là encore, facile à comprendre, mais leurs solutions mathématiques nécessitent le recours au calcul différentiel.

 

Mais avant d'examiner de plus près les fonctions de croissance individuelles, leurs solutions et les courbes de croissance qui en résultent, je consacrerai deux brèves sections aux périodes de temps et aux chiffres du mérite dans les études de croissance. Dans ces brefs aperçus, je noterai les variables courantes et moins fréquentes dont la croissance nous intéresse, que ce soit en tant que parents, employés ou contribuables, en tant que scientifiques, ingénieurs et économistes, ou en tant qu'historiens, politiciens et planificateurs. Ces mesures comprennent des préoccupations aussi universelles que le poids et la taille des bébés et des enfants en pleine croissance, et la croissance des économies nationales. Il y a aussi des préoccupations peu fréquentes mais effrayantes comme la diffusion d'infections potentiellement pandémiques aggravées par les voyages aériens à grande échelle.

 

 

 

Les périodes de temps

 

La croissance est toujours fonction du temps et, au cours des études scientifiques et techniques modernes, leurs auteurs ont tracé ses trajectoires dans d'innombrables graphiques, le temps étant généralement porté en abscisse (axe horizontal ou des x) et la variable en croissance mesurée en ordonnée (axe vertical ou des y). Bien sûr, nous pouvons (et nous le faisons) tracer la croissance de phénomènes physiques ou immatériels en fonction de l'évolution d'autres variables de ce type - nous traçons l'évolution de la taille des enfants en croissance en fonction de leur poids ou l'augmentation du revenu disponible en fonction de la croissance du PIB - mais la plupart des courbes de croissance (et, dans un cas plus simple, des lignes) sont ce que James C. Maxwell a défini comme des diagrammes de déplacement et ce que Thompson a appelé des diagrammes temporels : Chacune a un début et une fin ; et une seule et même courbe peut illustrer la vie d'un homme, l'histoire économique d'un royaume... Elle dépeint un "mécanisme" à l'œuvre, et nous aide à voir des mécanismes analogues dans différents domaines ; car la nature fait sonner ses nombreux changements sur quelques thèmes simples" (Thompson 1942, 139).

 

La croissance des fonds océaniques ou des chaînes de montagnes, dont les résultats sont déterminés par les forces géotectoniques et dont l'examen dépasse le cadre déjà vaste de ce livre, se déroule sur des dizaines ou des centaines de millions d'années. Lorsqu'il s'agit d'organismes, la durée considérée est fonction de taux de croissance spécifiques déterminés par de longues périodes d'évolution et, dans le cas des espèces végétales et animales domestiquées, souvent accélérés ou améliorés par la reproduction traditionnelle et, plus récemment, par des interventions transgéniques. Lorsqu'il s'agit de la croissance de dispositifs, de machines, de structures ou de tout autre artefact humain, les périodes étudiées dépendent à la fois de leur longévité et de leur aptitude à être déployés dans de nouvelles versions améliorées dans des circonstances modifiées.

 

Par conséquent, la croissance de certains artefacts qui étaient utilisés depuis l'Antiquité ne présente plus qu'un intérêt historique. Les voiles sont un bon exemple de cette réalité, car leur développement et leur déploiement (à l'exception de celles conçues et utilisées pour les courses de voiliers rapides) ont pris fin assez brusquement au cours de la seconde moitié du 19e siècle, quelques décennies seulement après l'introduction des moteurs à vapeur, et après plus de cinq millénaires d'amélioration des conceptions. Mais d'autres modèles anciens ont connu des avancées spectaculaires pour répondre aux exigences de l'ère industrielle : les grues de construction et les grues de chantier sont peut-être le meilleur exemple de cette évolution continue. Ces machines anciennes ont vu leurs capacités augmenter considérablement au cours des deux derniers siècles, afin de construire des structures plus hautes et de manipuler les cargaisons de navires de plus en plus volumineux.

 

Les microbes, les champignons et les insectes constituent la plupart des organismes de la biosphère, et les durées courantes auxquelles s'intéressent la microbiologie et la biologie des invertébrés sont les minutes, les jours et les semaines. Les générations bactériennes sont souvent inférieures à une heure. Les coccolithophores, des algues marines calcifiantes unicellulaires qui dominent la phytomasse océanique, atteignent leur densité cellulaire maximale dans des environnements limités en azote en une semaine (Perrin et al. 2016). Les champignons blancs cultivés commercialement atteignent leur maturité seulement 15 à 25 jours après que le milieu de culture (paille ou autre matière organique) soit rempli de mycélium. Les papillons ne passent généralement pas plus d'une semaine sous forme d'œufs, deux à cinq semaines sous forme de chenilles (stade larvaire) et une à deux semaines sous forme de chrysalide, d'où ils émergent en tant qu'adultes.

 

Chez les plantes annuelles, les jours, les semaines et les mois sont des périodes d'intérêt. Les cultures à croissance la plus rapide (oignons verts, laitues, radis) peuvent être récoltées moins d'un mois après le semis ; la période la plus courte pour produire une céréale de base mature est d'environ 90 jours (blé de printemps, également orge et avoine), mais le blé d'hiver a besoin de plus de 200 jours pour atteindre sa maturité, et un nouveau vignoble ne commencera à produire qu'au cours de la troisième année après son établissement. Chez les arbres, le dépôt annuel de nouveau bois dans les cernes (croissance secondaire issue de deux méristèmes latéraux cambiaux) marque une progression naturelle facilement identifiable : les espèces de plantation à croissance rapide (eucalyptus, peupliers, pins) peuvent être récoltées après une décennie de croissance (voire plus tôt), mais dans les milieux naturels, la croissance peut se poursuivre pendant plusieurs décennies et, chez la plupart des espèces d'arbres, elle peut être réellement indéterminée.

 

La croissance gestationnelle des grands vertébrés dure de nombreux mois (de 270 jours chez l'homme à 645 jours pour l'éléphant d'Afrique), tandis que les mois, voire les jours seulement, présentent un intérêt pendant les périodes les plus rapides de la croissance postnatale. C'est notamment le cas lorsque les volailles, les porcs et les bovins destinés à la production de viande sont nourris avec des régimes optimisés afin de maximiser le gain de poids quotidien et d'amener leur masse au poids d'abattage prévu dans le délai le plus court possible. Les pédiatres comparent les courbes de croissance attendue en fonction de l'âge et du sexe avec la croissance réelle de l'individu pour déterminer si un bébé ou un jeune enfant atteint les étapes de sa croissance ou s'il ne se développe pas pleinement.

 

Bien que la croissance de certains artefacts - qu'il s'agisse de voiliers ou de grues de construction - doive être retracée sur des millénaires, la plupart des progrès ont été concentrés dans des poussées de croissance relativement brèves, séparées par de longues périodes d'absence de croissance ou de gains marginaux. Les convertisseurs d'énergie (moteurs et turbines), les machines et les appareils caractéristiques de la civilisation industrielle moderne ont une durée de vie beaucoup plus courte. La croissance des moteurs à vapeur a duré 200 ans, du début du 18e au début du 20e siècle. La croissance des turbines à vapeur (et des moteurs électriques) se poursuit depuis les années 1880, celle des turbines à gaz seulement depuis la fin des années 1930. La croissance de l'électronique moderne à semi-conducteurs a commencé avec les premières applications commerciales des années 1950, mais elle n'a vraiment décollé qu'avec les conceptions à base de microprocesseurs à partir des années 1970.

 

L'étude de la croissance collective de notre espèce dans sa totalité évolutive nous ramènerait quelque 200 000 ans en arrière, mais notre capacité à reconstituer la croissance de la population mondiale avec un certain degré de précision ne remonte qu'au début de l'ère moderne (1500-1800), et les totaux avec de faibles marges d'incertitude ne sont disponibles que depuis le siècle dernier. Dans quelques pays où des recensements ont été effectués par le passé (même s'ils sont incomplets, les comptages étant souvent limités aux hommes adultes) ou qui disposent d'autres preuves documentaires (certificats de naissance conservés par les paroisses), nous pouvons recréer des trajectoires de croissance démographique révélatrices remontant à la période médiévale.

 

Dans le domaine économique, l'évolution de la croissance (du PIB, de l'emploi, de la productivité, de la production d'articles spécifiques) est souvent suivie à intervalles trimestriels, mais les recueils statistiques présentent presque toutes les variables en termes de totaux ou de gains annuels. L'année civile est le choix standard de la période de temps, mais les deux cas les plus courants de ces dérogations sont les années fiscales et les années de récolte (commençant à différents mois) utilisées pour rendre compte des récoltes et des rendements annuels. Certaines études ont tenté de reconstituer la croissance économique nationale en remontant jusqu'à des siècles, voire des millénaires, mais (comme je le soulignerai plus loin) elles appartiennent plutôt à la classe des impressions qualitatives qu'à celle des véritables évaluations quantitatives. Les reconstitutions historiques fiables pour les sociétés disposant de services statistiques adéquats ne remontent qu'à 150-200 ans.

 

Les taux de croissance rendent compte de l'évolution d'une variable pendant une période donnée, le pourcentage par an étant la mesure la plus courante. Malheureusement, ces valeurs fréquemment citées sont souvent trompeuses. Aucune mise en garde n'est nécessaire uniquement si ces taux font référence à une croissance linéaire, c'est-à-dire à l'ajout d'une quantité identique au cours de chaque période spécifiée. Mais lorsque ces taux font référence à des périodes de croissance exponentielle, ils ne peuvent être correctement évalués que si l'on comprend qu'il s'agit de valeurs temporaires, alors que les variétés de croissance les plus courantes rencontrées dans la nature et dans toute la civilisation - celles qui suivent divers schémas en forme de S - changent constamment de taux de croissance, passant de taux très bas à un pic et revenant à des taux très bas lorsque le processus de croissance touche à sa fin.

 

 

 

Les chiffres du mérite

 

Il n'existe pas de classification obligatoire des mesures utilisées pour quantifier la croissance. La division de base la plus évidente est celle des variables retraçant les changements physiques et les évolutions immatérielles mais quantifiables (au moins par procuration, sinon de manière directe). L'entrée la plus simple dans la première catégorie est l'augmentation d'une variable étudiée, comptée sur une base horaire, quotidienne, mensuelle ou annuelle. Et lorsque les statisticiens parlent de quantifier la croissance de populations diverses, ils utilisent le terme au-delà de son sens latin strict pour désigner des assemblages de microbes, de plantes et d'animaux, voire toute entité quantifiable dont ils souhaitent étudier la croissance.

 

Quant aux grandeurs fondamentales dont la croissance définit le monde matériel, le Système international d'unités (SI) reconnaît sept entrées de base. Ce sont la longueur (mètre, m), la masse (kilogramme, kg), le temps (seconde, s), le courant électrique (ampère, A), la température thermodynamique (kelvin, K), la quantité de substance (mole, mol) et l'intensité lumineuse (candela, cd). De nombreuses mesures de croissance portent sur des quantités dérivées des sept unités de base, notamment l'aire (m2), le volume (m3), la vitesse (m/s), la masse volumique (kg/m3) et le volume spécifique (m3/kg). Des équations de quantité plus complexes donnent des mesures de croissance aussi courantes que la force, la pression, l'énergie, la puissance ou le flux lumineux.

 

Les deux unités de base, la longueur et la masse, seront utilisées pour évaluer la croissance des organismes (qu'il s'agisse d'arbres, d'invertébrés ou de bébés), des structures et des machines. La hauteur a toujours été la plus appréciée, admirée et imitée parmi les variables linéaires. Cette préférence est démontrée de diverses manières, allant de corrélations claires entre la hauteur et le pouvoir dans le monde de l'entreprise (Adams et al. 2016) à l'obsession des architectes et des promoteurs de construire des structures toujours plus hautes. Aucune organisation internationale ne surveille la croissance des bâtiments ayant la plus grande empreinte au sol ou le plus grand espace interne - mais il y a le Council on Tall Buildings and Human Habitat, avec ses critères spécifiques pour définir et mesurer les grands bâtiments (CTBUH 2018).

 

Leurs hauteurs record vont de 42 m pour le Home Insurance Building, le premier gratte-ciel du monde achevé en 1884 à Chicago, à 828 m pour la Burj Khalifa à Dubaï achevée en 2009. La tour de Jeddah (dont le principal maître d'œuvre est la société Saudi Binladin, dont le nom de famille sera toujours lié au 11 septembre) atteindra 1 008 m d'ici 2019 (CTBUH 2018). La longueur, comme la hauteur, plutôt que la masse, a également été un sujet récurrent des études anthropométriques comparatives, et Clio Infra (2017) et Roser (2017) fournissent des résumés pratiques des mesures de la hauteur, allant de celles des squelettes anciens aux humains modernes (figure 1.1). La taille des recrues militaires européennes constitue l'un des témoignages les plus fiables de la croissance humaine au début de l'ère moderne et à l'époque contemporaine (Ulijaszek et al. 1998 ; Floud et al. 2011).

 

 

Figure 1.1

Ancre 5
Ancre 6

Évolution des hauteurs corporelles moyennes

des hommes en Europe occidentale, 1810-1980.

​

 

 

 

La superficie apparaît fréquemment seule dans les études de croissance dans des instances aussi diverses que la taille moyenne des fermes, l'expansion des empires et l'installation annuelle de panneaux photovoltaïques pour produire de l'électricité solaire. Les changements dans le développement du logement (surfaces moyennes des maisons ou des appartements) sont mesurés en mètres carrés (m²), sauf pour les États-Unis non métriques où les pieds carrés sont encore utilisés. Les kilomètres carrés (km², 1 000 × 1 000 m) sont utilisés pour retracer la croissance des États et des empires.  La superficie est encore plus couramment utilisée comme dénominateur pour quantifier la productivité de la production photosynthétique, c'est-à-dire les rendements et les récoltes en foresterie et en agriculture.  L'hectare (100 × 100 m ou 10 000 m²) est l'unité de surface la plus courante dans les statistiques agricoles (sauf, encore une fois, aux États-Unis, où les acres sont encore utilisés).

 

Le volume est préféré à la masse lorsqu'il s'agit d'étudier la croissance de la production et de la consommation de boissons alcoolisées et non alcoolisées (généralement en litres), et de mesurer la coupe annuelle et l'utilisation industrielle du bois et d'autres produits du bois (généralement en m³).  Le volume a également été l'indicateur de choix pour l'extraction et le transport du pétrole brut - et c'est peut-être aussi le meilleur exemple de l'endurance d'une mesure non métrique.  Un conteneur en acier d'un volume de 42 US gallons (soit environ 159,997 litres) a été adopté par le US Bureau of the Census en 1872 pour mesurer la production de pétrole brut, et le baril reste la mesure standard de la production dans l'industrie pétrolière - mais la conversion de cette variable de volume en son équivalent de masse nécessite la connaissance de densités spécifiques.

 

Un peu plus de  six  barils  de  pétrole  brut  lourd  (généralement extrait au Moyen-Orient) sont nécessaires pour obtenir  1  tonne  de  pétrole  brut, mais le total peut atteindre  8,5  barils pour les bruts les plus légers produits en Algérie et en Malaisie, 7,33 barils par tonne étant une moyenne mondiale couramment utilisée.  De même, la conversion des volumes de bois en équivalents de masse nécessite la connaissance de la densité spécifique du bois.  Même pour les espèces couramment utilisées, les densités diffèrent jusqu'à un facteur de deux, des pins légers (400 kg/m3) aux frênes blancs lourds (800 kg/m3), et les densités extrêmes du bois vont de moins de 200 kg/m3 pour le balsa à plus de 1,2 t/m3 pour l'ébène (USDA 2010).

 

L'histoire des artefacts omniprésents illustre deux tendances opposées en matière de masse : d'une part, la miniaturisation des composants et des dispositifs couramment utilisés (une tendance rendue possible à un degré sans précédent par la diffusion de l'électronique à semi-conducteurs) et, d'autre part, une augmentation substantielle de la masse moyenne des deux plus gros investissements des familles modernes, à savoir les voitures et les maisons. La diminution de la masse des ordinateurs n'est évidemment que l'inverse de leur capacité croissante à traiter des informations par unité de poids. En août 1969, l'ordinateur d'Apollo 11 utilisé pour faire atterrir la capsule habitée sur la Lune pesait 32 kg et ne disposait que de 2 Ko de mémoire vive (RAM), soit environ 62 octets par kg de masse (Hall 1996). Douze ans plus tard, le premier ordinateur personnel d'IBM pesait 11,3 kg et 16 kB de RAM, soit 1,416 kB/kg. En 2018, l'ordinateur portable Dell utilisé pour écrire ce livre pesait 2,83 kg et disposait de 4 Go de RAM, soit 1,41 Go/kg. Si l'on laisse de côté la machine Apollo (conception unique et non commerciale), les ordinateurs personnels ont vu leur rapport mémoire/masse multiplié par un million depuis 1981 !

 

Alors que les appareils électroniques (à l'exception des téléviseurs muraux) sont devenus plus petits, les maisons et les voitures sont devenues plus grandes. Les gens pensent aux maisons principalement en termes de surface habitable, mais leur augmentation substantielle - aux États-Unis, de 91 m2 de surface finie (99 m2 au total) en 1950 à environ 240 m2 en 2015 (Alexander 2000 ; USCB 2017) - a entraîné un taux de croissance encore plus rapide des matériaux utilisés pour les construire et les meubler. Une nouvelle maison de 240 m2 nécessitera au moins 35 tonnes de bois, réparties approximativement entre le bois de charpente et d'autres produits du bois, notamment le contreplaqué, le lamellé-collé et le placage (Smil 2014b). En revanche, une simple maison de 90 m2 pourrait être construite avec pas plus de 12 tonnes de bois, soit une différence de trois fois plus.

 

En outre, les maisons américaines modernes contiennent plus de meubles et sont équipées d'appareils électroménagers plus nombreux et plus grands (réfrigérateurs, lave-vaisselle, lave-linge, sèche-linge) : alors qu'en 1950, seuls 20 % environ des ménages disposaient d'un lave-linge, moins de 10 % possédaient un sèche-linge et moins de 5 % avaient la climatisation, désormais standard même dans les États les plus septentrionaux. En outre, des matériaux plus lourds sont utilisés dans des finitions plus coûteuses, notamment le carrelage et la pierre pour les sols et les salles de bains, les comptoirs de cuisine en pierre et les grandes cheminées. En conséquence, les nouvelles maisons construites en 2015 sont environ 2,6 fois plus grandes que la moyenne de 1950, mais pour beaucoup d'entre elles, la masse des matériaux nécessaires à leur construction est quatre fois plus importante.

 

La masse croissante des voitures particulières américaines est le résultat d'une combinaison d'améliorations souhaitables et de modifications inutiles (figure 1.2). La première voiture produite en série au monde, le célèbre modèle T de Ford sorti en octobre 1908, ne pesait que 540 kg. Les gains de poids après la Première Guerre mondiale (WWI) étaient dus à des carrosseries entièrement métalliques entièrement fermées, à des moteurs plus lourds et à de meilleurs sièges : en 1938, la masse du modèle 74 de Ford atteignait 1 090 kg, soit presque exactement le double de celle du modèle T (Smil 2014b). Ces tendances (voitures plus grandes, moteurs plus lourds, plus d'accessoires) se sont poursuivies après la Seconde Guerre mondiale (WWII) et, après une brève pause et un recul provoqués par la hausse des prix du pétrole par l'Organisation des pays exportateurs de pétrole (OPEP) dans les années 1970, se sont intensifiées après le milieu des années 1980 avec l'introduction des véhicules sport-utilitaires (SUV, représentant la moitié des ventes de véhicules neufs aux États-Unis en 2019) et la popularité croissante des camionnettes et des fourgons.

 

 

Figure 1.2

smil 1.2 fig_002.png

La voiture américaine la plus vendue en 1908 était le modèle T de Ford, qui pesait 540 kg.

Le véhicule le plus vendu en 2018 n'était pas une voiture mais un camion,

le F-150 de Ford pesant 2 000 kg.

Images tirées du catalogue de la Ford Motor Company de 1909 et de Trucktrend.

 

 

 

 

En 1981, la masse moyenne des voitures et des camions légers américains était de 1 452 kg ; en 2000, elle avait atteint 1 733 kg ; et en 2008, elle était de 1 852 kg (et n'avait pratiquement pas changé en 2015), soit une multiplication par 3,4 de la masse moyenne des véhicules en 100 ans (USEPA 2016b). La croissance de la masse moyenne des voitures en Europe et en Asie a été un peu plus faible en termes absolus, mais les taux de croissance ont été similaires à ceux des États-Unis. Et si les ventes mondiales de voitures étaient inférieures à 100 000 véhicules en 1908, elles étaient supérieures à 73 millions en 2017, soit une multiplication par 700 environ. Cela signifie que la masse totale des nouvelles automobiles vendues chaque année dans le monde est aujourd'hui environ 2 500 fois plus importante qu'il y a un siècle.

 

Le temps est la troisième unité de base omniprésente. Le temps est utilisé pour quantifier directement la croissance (de l'augmentation de la longévité humaine à la durée des vols les plus longs, ou comme le temps écoulé entre les défaillances de produits qui nous informe sur la durabilité et la fiabilité des appareils). Plus important encore, le temps est utilisé comme dénominateur pour exprimer des taux aussi omniprésents que la vitesse (longueur/temps, m/s), la puissance (énergie/temps, J/s), le revenu moyen (argent/temps, $/heure) ou le produit intérieur brut annuel national (valeur totale des biens et services/temps, $/an). L'augmentation des températures est moins fréquente dans les études sur la croissance, mais elle témoigne de l'amélioration constante des performances des turbogénérateurs, tandis que l'augmentation de la luminosité totale renseigne sur le problème répandu et croissant de la pollution lumineuse (Falchi et al. 2016).

 

Les sociétés modernes sont de plus en plus préoccupées par les variables immatérielles dont les trajectoires de croissance décrivent l'évolution des niveaux de performance économique, de richesse et de qualité de vie. Les variables courantes que les économistes souhaitent voir croître comprennent la production industrielle totale, le PIB, le revenu disponible, la productivité du travail, les exportations, l'excédent commercial, la participation de la population active et l'emploi total. La richesse (PIB, revenus bruts, revenus disponibles, richesse accumulée) est généralement mesurée par habitant, tandis que la qualité de vie est évaluée par des combinaisons de variables socio-économiques. Par exemple, l'indice de développement humain (IDH, développé et recalculé chaque année par le Programme des Nations unies pour le développement) est composé de trois indices quantifiant l'espérance de vie, le niveau d'éducation et le revenu (PNUD 2016).

 

Et en 2017, le Forum économique mondial a introduit un nouvel indice de développement inclusif (IDI) basé sur un ensemble d'indicateurs de performance clés qui permettent une évaluation multidimensionnelle des niveaux de vie non seulement en fonction de leur niveau de développement actuel, mais aussi en tenant compte des performances récentes sur cinq ans (Forum économique mondial 2017). Il y a beaucoup de chevauchement entre l'IDH de 2016 et l'IDI de 2017 : leurs classements se partagent six des dix premiers pays (Norvège, Suisse, Islande, Danemark, Pays-Bas, Australie). L'ajout le plus intéressant à cette nouvelle comptabilité a peut-être été les quantifications du bonheur ou de la satisfaction de la vie.

 

Le petit Bhoutan himalayen a fait parler de lui en 1972 lorsque Jigme Singye Wangchuck, quatrième roi de la nation, a proposé de mesurer les progrès du royaume en utilisant l'indice du bonheur national brut (GNH Centre 2016). Transformer ce concept séduisant en un indicateur qui pourrait être suivi périodiquement est une autre affaire. En tout cas, pour les États-Unis d'après la Seconde Guerre mondiale, nous avons une preuve assez convaincante que le bonheur n'a pas été une variable de croissance. Les instituts de sondage Gallup demandent aux Américains, de manière irrégulière, s'ils sont heureux depuis 1948 (Carroll 2007). Cette année-là, 43 % des Américains se sentaient très heureux. Le pic de la mesure, à 55 %, a été atteint en 2004, le point le plus bas a été atteint après le 11 septembre, à 37 %, mais en 2006, il était de 49 %, soit à peine plus qu'il y a plus d'un demi-siècle (47 % en 1952) !

 

La satisfaction dans la vie est étroitement liée à un certain nombre de gains qualitatifs qu'il n'est pas facile de saisir en recourant à des mesures quantitatives simples, et les plus couramment disponibles. La nutrition et le logement sont certainement les deux meilleurs exemples de cette réalité. Aussi important soit-il, le suivi de la croissance de la disponibilité quotidienne moyenne d'énergie alimentaire par habitant peut délivrer un message rassurant et trompeur. Les améliorations de l'alimentation ont porté l'offre alimentaire bien au-delà des besoins énergétiques nécessaires : elles ont peut-être apporté une quantité plus qu'adéquate de glucides et de lipides et ont peut-être satisfait aux niveaux minimaux de protéines de haute qualité, mais elles peuvent encore manquer de micronutriments essentiels (vitamines et minéraux). Plus particulièrement, les faibles apports en fruits et légumes (les sources clés de micronutriments) ont été identifiés comme un facteur de risque majeur pour les maladies chroniques, mais Siegel et al. (2014) ont montré que dans la plupart des pays, leur approvisionnement est inférieur aux niveaux recommandés. En 2009, le déficit mondial était de 22 %, les ratios médians offre/besoins n'étant que de 0,42 dans les pays à faible revenu et de 1,02 dans les pays riches.

 

Au début de l'ère moderne, l'essor des méthodes d'investigation scientifiques et l'invention et le déploiement de nouveaux outils mathématiques et analytiques puissants (le calcul au milieu du 17e siècle, les progrès de la physique et de la chimie théoriques et les fondements des études économiques et démographiques modernes au 19e siècle) ont finalement permis d'analyser la croissance en termes purement quantitatifs et d'utiliser des formules de croissance pertinentes afin de prédire les trajectoires à long terme des phénomènes étudiés. Robert Malthus (1766-1834), un pionnier des études démographiques et économiques, a suscité une grande inquiétude avec sa conclusion opposant les moyens de subsistance qui ne croissent qu'à un rythme linéaire à la croissance des populations qui se fait à un rythme exponentiel (Malthus 1798).

 

Contrairement à Malthus, Pierre-François Verhulst (1804-1849), un mathématicien belge, n'est aujourd'hui connu que des historiens des sciences, des statisticiens, des démographes et des biologistes. Pourtant, quatre décennies après l'essai de Malthus, Verhulst a apporté une contribution fondamentale à notre compréhension de la croissance lorsqu'il a publié les premières formules réalistes conçues explicitement pour exprimer le progrès d'une croissance limitée (bornée) (Verhulst 1838, 1845, 1847). Cette croissance régit non seulement le développement de tous les organismes, mais aussi l'amélioration des performances des nouvelles techniques, la diffusion de nombreuses innovations et l'adoption de nombreux produits de consommation. Avant de commencer ma couverture thématique des phénomènes de croissance et de leurs trajectoires (dans le chapitre 2), je vais fournir des introductions brèves, mais assez complètes, sur la nature de ces modèles de croissance formels et des courbes de croissance qui en résultent.

 

 

 

Croissance linéaire et croissance exponentielle

 

Il s'agit de deux formes de croissance courantes mais très différentes dont les trajectoires sont saisies par des équations simples. Une croissance relativement lente et régulière serait la meilleure description qualitative de la première, tandis qu'une croissance de plus en plus rapide et finalement exponentielle serait la meilleure description de la seconde. Tout ce qui est soumis à une croissance linéaire augmente de la même quantité au cours de chaque période identique et l'équation de la croissance linéaire est donc simple :

 

Nt = N0 + kt

 

où une quantité au temps t (Nt) est calculée en augmentant la valeur initiale (N0) par l'ajout d'une valeur constante k par unité de temps, t.

 

L'analyse d'un grand nombre de stalagmites montre que ces colonnes effilées de sels de calcium créées sur le sol des grottes par l'écoulement de l'eau croissent souvent pendant des millénaires de manière quasi-linéaire (White et Culver 2012). Même une croissance relativement rapide de 0,1 mm/an signifierait qu'une stalagmite d'un mètre de haut ne grandirait que de 10 cm en mille ans (1 000 mm + 1 000 × 0,1). Le tracé de sa croissance linéaire montre une ligne ascendante monotone (figure 1.3). Cela signifie bien sûr que le taux de croissance en tant que part de la hauteur totale de la stalagmite sera en constante diminution. Dans une stalagmite qui croît à 0,1 mm/an pendant 1 000 ans, il serait de 0,01 % pendant la première année mais seulement de 0,009 % un millénaire plus tard.

 

 

Figure 1.3

Ancre 7
smil 1.3_fig_003.png

Millénaire d'accrétion de stalagmites illustrant des trajectoires de croissance linéaire et exponentielle.

Smil Growth 2020

 

 

 

 

En revanche, dans tous les cas de croissance exponentielle, la quantité augmente du même taux pendant chaque période identique. La dépendance fonctionnelle (de base est

 

Nt = N0 (1 + r)t

 

où r est le taux de croissance exprimé en fraction de l'unité de croissance par unité de temps, par exemple, pour une augmentation de 7% par unité de temps, r = 0,07.

 

Cette croissance exponentielle peut également être exprimée - après un ajustement multiplicatif trivial de l'unité de temps - sous la forme suivante

 

Nt = N0ert

 

où e (e = 2,7183, la base des logarithmes naturels) est élevé à la puissance de rt, une opération facile à réaliser avec n'importe quelle calculatrice scientifique manuelle. Nous pouvons imaginer une grotte où la quantité d'eau qui s'écoule et qui contient la même fraction de sels dissous ne cesse d'augmenter, ce qui entraîne une croissance exponentielle d'une stalagmite.

 

En supposant une très faible augmentation fractionnelle de la longueur de 0,05 % par an, cette stalagmite se serait allongée de près de 65 cm en 1 000 ans (1 000 mm × 2,7180,0005 × 1 000 = 1 648,6 mm de longueur totale, soit une augmentation de 64,86 cm), soit environ 50 % de plus que son homologue à croissance linéaire, et le graphique de la croissance exponentielle montre une courbe ascendante dont l'ascension est déterminée par le taux d'augmentation (figure 1.3). Après 10 000 ans, la stalagmite linéaire doublerait sa hauteur pour atteindre 2 m, tandis que la stalagmite à croissance exponentielle aurait besoin d'une grotte géante pour atteindre 148,3 m. Comme l'exposant est le produit du taux de croissance et du temps, des ajouts aussi importants peuvent provenir de taux de croissance plus faibles sur des intervalles de temps plus longs ou d'intervalles plus courts de taux de croissance plus élevés.

 

Une autre comparaison simple montre comment les trajectoires de la croissance linéaire et de la croissance exponentielle ne restent proches que pendant le premier stade de la croissance, lorsque le produit du taux de croissance et de l'intervalle de temps est faible par rapport à l'unité : elles commencent bientôt à diverger et finissent par être très éloignées l'une de l'autre. Gold (1992) a supposé que les colonies bactériennes vivant dans les profondeurs du sous-sol remplissaient jusqu'à 1 % de tous les espaces poreux des 5 km supérieurs de la croûte terrestre, tandis que Whitman et al. (1998) ont estimé le volume remplissable par les microbes à seulement 0,016 % de l'espace poreux disponible. Cela se traduirait tout de même par une énorme masse microbienne agrégée, mais avec des taux de reproduction extrêmement lents. Supposons (pour les besoins de cet exemple simple) que les contraintes physiques et chimiques permettent à une minuscule colonie de 100 cellules (soudainement comprimée par un événement sismique dans une nouvelle poche rocheuse) de faire l'ajout net de seulement cinq cellules par heure ; évidemment, il y aura 105 cellules à la fin de la première heure, après 10 heures de cette croissance linéaire, la colonie aura 150 cellules, et les totaux respectifs seront de 350 et 600 cellules après 50 et 100 heures.

 

Par rapport à de nombreuses bactéries communes, Mycobacterium tuberculosis - une cause remarquablement répandue de mortalité prématurée dans l'ère pré-antibiotique, et toujours l'une des plus grandes causes de mortalité humaine due à une maladie infectieuse et la cause de ce qui est maintenant certaines des formes les plus résistantes aux médicaments de cette maladie (Gillespie 2002) - se reproduit lentement dans la plupart des circonstances dans les poumons humains infectés. Mais lorsqu'il est cultivé sur des substrats de laboratoire appropriés, il double son nombre de cellules en 15 heures, ce qui implique un taux de croissance horaire d'environ 5 %. En partant à nouveau de 100 cellules, il y aura 105 cellules à la fin de la première heure, comme dans le cas de la croissance linéaire des microbes souterrains ; après 10 heures de croissance exponentielle, la colonie comptera 165 cellules (à peine 10 % de plus que dans le cas linéaire), mais les totaux exponentiels seront de 1 218 cellules après 50 heures (environ 3,5 fois plus que dans le cas linéaire) et de 14 841 cellules après 100 heures, soit presque 25 fois plus. Le contraste est évident : sans connaissance a priori, nous ne pourrions pas faire la différence après la première heure - mais après 100 heures, l'écart est devenu énorme car le compte exponentiel est un ordre de grandeur plus élevé.

 

Les exemples de croissance linéaire (constante) sont omniprésents. La distance (longueur) parcourue par la lumière émise par des myriades d'étoiles augmente de 300 000 000 m (299 792 458 m pour être exact) chaque seconde ; la distance parcourue par un camion roulant à 100 km/h sur une autoroute de nuit augmente de 27,7 m pendant la même période. Selon la loi d'Ohm - la tension (volts, V) est égale au courant (ampères, A) multiplié par la résistance (ohms, Ω) du circuit conducteur - lorsque la résistance reste constante, le courant augmente linéairement avec la tension. Un salaire horaire fixe (et non taxé) entraînera une augmentation linéaire du salaire avec l'allongement du temps de travail. L'utilisation d'un téléphone portable facturé à la minute (plutôt que dans le cadre d'un plan illimité) produira une facture mensuelle qui augmentera linéairement avec le bavardage.

 

Dans la nature, la croissance linéaire est souvent rencontrée temporairement au cours des premiers stades du développement postnatal, que ce soit chez les porcelets ou les enfants. L'augmentation de l'espérance de vie dans les pays riches la suit depuis plus d'un siècle, et c'est la seule trajectoire de croissance à long terme pour l'augmentation des rendements agricoles, qu'il s'agisse de céréales de base ou de fruits. Les améliorations de la puissance et des capacités des machines ont souvent été linéaires, notamment la puissance moyenne des voitures américaines depuis le modèle T de Ford en 1908, la poussée maximale et le taux de dilution des moteurs à réaction depuis leur origine, la vitesse maximale des trains et la pression maximale des chaudières des locomotives à vapeur (depuis le début du service régulier en 1830), et le déplacement maximal des navires.

 

Et parfois, une croissance linéaire simple est le résultat d'interactions complexes. Entre 1945 et 1978, la consommation d'essence aux États-Unis a suivi une trajectoire presque parfaitement linéaire - et après un bref creux de quatre ans, elle a repris une croissance linéaire plus lente en 1983 qui s'est poursuivie jusqu'en 2007 (USEIA 2017b). Les deux trajectoires linéaires résultent d'une interaction de changements non linéaires : le nombre de véhicules a explosé, multiplié par plus de sept entre 1945 et 2015, tandis que le rendement énergétique moyen des moteurs automobiles a stagné jusqu'en 1977, puis s'est considérablement amélioré entre 1978 et 1985 avant de stagner à nouveau pendant les 25 années suivantes (USEPA 2015).

 

Certains organismes, y compris les bactéries cultivées en laboratoire et les jeunes enfants, connaissent des périodes de croissance linéaire, c'est-à-dire qu'ils ajoutent le même nombre de nouvelles cellules, la même taille ou le même accroissement de masse, pendant des périodes de temps spécifiques. Les bactéries suivent cette voie lorsqu'elles reçoivent un apport limité mais constant d'un nutriment essentiel. Les enfants connaissent des périodes de croissance linéaire, tant pour le poids que pour la taille. Par exemple, les garçons américains ont de brèves périodes de croissance linéaire du poids entre 21 et 36 mois (Kuczmarski et al. 2002), et les normes de croissance de l'enfant de l'Organisation mondiale de la santé (OMS) indiquent une croissance parfaitement linéaire de la taille avec l'âge pour les garçons entre trois et cinq ans, et une trajectoire presque linéaire pour les filles entre les mêmes âges (OMS 2006 ; figure 1.4).

 

 

Figure 1.4

smil 1.4_fig_004.png

Graphiques de la croissance attendue de la taille en fonction de l'âge (moyennes et valeurs comprises dans les deux écarts types) pour les garçons et les filles âgés de 2 à 5 ans. Simplifié à partir de l'OMS (2006).

 

 

 

 

Croissance exponentielle

 

La croissance exponentielle, avec son décollage progressif suivi d'une montée en flèche, attire l'attention. Les propriétés de cette croissance, autrefois connue sous le nom de ratio géométrique ou de progression géométrique, sont illustrées depuis des centaines d'années - peut-être depuis des millénaires, bien que le premier exemple écrit ne date que de l'année 1256 - en se référant à la requête d'un homme qui avait inventé les échecs et demandé à son souverain-patron de le récompenser en doublant le nombre de grains de riz (ou de blé ?) posés sur chaque case. Le total de 128 grains (27) est encore insignifiant à la fin de la première rangée ; il y a environ 2,1 milliards de grains (231) lorsqu'on arrive à la fin de la rangée du milieu, la quatrième ; et à la fin, il s'élève à environ 9,2 quintillions (9,2 × 1018) de grains.

 

La principale caractéristique d'une croissance exponentielle avancée réside dans les ajouts fulgurants qui écrasent entièrement les totaux précédents : les ajouts à la dernière rangée de l'échiquier sont 256 fois plus importants que le total accumulé à la fin de l'avant-dernière rangée, et ils représentent 99,61 % de tous les grains ajoutés. De toute évidence, une croissance exponentielle indésirable peut être arrêtée, avec divers degrés d'effort, dans ses premiers stades, mais la tâche peut rapidement devenir ingérable à mesure que la croissance se poursuit. Si l'on suppose que la masse moyenne des grains de riz est de 25 milligrammes, le grand total (qui ne peut manifestement pas tenir sur un échiquier) équivaudrait à environ 230 Gt de riz, soit près de 500 fois plus que la récolte annuelle mondiale de cette céréale, qui était d'un peu moins de 500 Mt en 2015.

 

Sur de longues périodes, même des taux de croissance minuscules produiront des résultats impossibles à atteindre, et il n'est pas nécessaire d'invoquer des périodes de temps cosmiques - il suffit de se reporter à l'Antiquité. Lorsque la Rome impériale a atteint son apogée (au deuxième siècle de l'ère commune), il lui fallait récolter environ 12 millions de tonnes de céréales (cultivées en grande partie en Égypte et expédiées en Italie) pour subvenir aux besoins d'une population de quelque 60 millions d'habitants (Garnsey 1988 ; Erdkamp 2005 ; Smil 2010c). En supposant que Rome aurait perduré et que sa récolte de céréales aurait augmenté d'à peine 0,5 % par an, le total aurait atteint environ 160 Gt, soit plus de 60 fois la récolte mondiale de céréales de 2,5 Gt en 2015, utilisée pour nourrir plus de 7 milliards de personnes.

 

L'échelle linéaire est un mauvais choix pour représenter une croissance exponentielle dont la trajectoire complète englobe souvent plusieurs ordres de grandeur. Pour faire tenir toute la gamme sur un axe y linéaire, il devient impossible de distinguer les valeurs réelles, sauf pour l'ordre de grandeur le plus élevé, et le résultat est toujours une courbe en J qui présente une section presque linéaire de gains relativement lents suivie d'une ascension plus ou moins abrupte. En revanche, le tracé d'une croissance exponentielle constante sur un graphique semi-logarithmique (avec un axe des x linéaire pour le temps et un axe des y logarithmique pour la quantité croissante) produit une ligne parfaitement droite et les valeurs réelles peuvent être facilement lues sur l'axe des y, même lorsque l'ensemble de la plage de croissance s'étend sur plusieurs ordres de grandeur. La réalisation d'un tracé semilog est donc un moyen graphique facile d'identifier si un ensemble de données donné est le résultat d'une croissance exponentielle. La figure 1.5 compare les deux tracés pour un tel phénomène : elle représente la croissance de l'un des fondements essentiels de la civilisation moderne, l'augmentation presque parfaitement exponentielle de la consommation mondiale de pétrole brut entre 1880 et 1970.

 

 

Figure 1.5

smil 1.5_fig_005a.png

Croissance de la consommation mondiale annuelle de pétrole brut, 1880-1970 :

croissance exponentielle représentée sur des échelles linéaire et semi-logarithmique.

Données tirées de Smil (2017b).

 

 

 

 

La production commerciale de ce combustible n'a commencé à une échelle négligeable que dans trois pays, en Russie (à partir de 1846) et au Canada et aux États-Unis (à partir de 1858 et 1859). En 1875, elle ne représentait encore qu'environ 2 Mt, puis, avec l'expansion de l'extraction américaine et russe et l'arrivée d'autres producteurs sur le marché (Roumanie, Indonésie, Birmanie, Iran), la production a connu une croissance exponentielle pour atteindre environ 170 Mt en 1930. L'industrie a été brièvement ralentie par la crise économique des années 1930, mais sa croissance exponentielle a repris en 1945 et, propulsée par de nouvelles découvertes gigantesques au Moyen-Orient et en Russie, la production était, au milieu des années 1970, trois ordres de grandeur (un peu plus de 1 000 fois) plus élevée que 100 ans auparavant.

 

Les périodes temporaires de croissance exponentielle ne sont pas rares dans les économies modernes, où elles ont marqué l'augmentation du produit intérieur dans des nations en développement rapide comme le Japon, la Corée du Sud et la Chine d'après 1985, et où elles ont caractérisé les ventes annuelles de biens de consommation électroniques dont l'attrait massif a créé de nouveaux marchés mondiaux. Et, bien sûr, les systèmes d'investissement frauduleux (pyramides de Ponzi) reposent sur l'attrait de la croissance exponentielle temporaire de gains fictifs : il est possible d'arrêter la croissance exponentielle à ses débuts de manière gérable, mais l'effondrement soudain d'une croissance de type Ponzi aura toujours des conséquences indésirables. La progression des progrès techniques a souvent été marquée par des périodes exponentielles distinctes, mais lorsque la croissance exponentielle (et ses dangers) est devenue un sujet majeur du discours public pour la première fois, c'était en relation avec la taille croissante des populations (Malthus 1798).

 

Ce célèbre ouvrage - Essai sur le principe de population - de Thomas Robert Malthus a eu des précédents dans les travaux de Leonhard Euler, un scientifique de premier plan du 18e siècle qui a quitté la Suisse pour travailler en Russie et en Prusse (Bacaër 2011). À Berlin, après son retour de Russie, Euler a publié - en latin, à l'époque encore la langue standard de l'écriture scientifique - une Introduction à l'analyse de l'infini (Euler 1748). Parmi les problèmes abordés dans ce livre, il y a celui inspiré par le recensement de la population de Berlin en 1747, qui a compté plus de 100 000 personnes. Euler voulait savoir quelle serait la taille d'une telle population, augmentant annuellement d'un trentième (3,33% par an), dans 100 ans. Sa réponse, déterminée par l'utilisation des logarithmes, est qu'elle pourrait croître plus de 25 fois en un siècle : comme Pn = P0 (1 + r)n, le total en 100 ans sera de 100 000 × (1 + 1/30)100 ou 2 654 874. Euler montre ensuite comment calculer le taux annuel d'accroissement de la population et les périodes de doublement.

 

Mais c'est Malthus qui a élevé les pouvoirs de la croissance exponentielle au rang de préoccupation majeure des nouvelles disciplines que sont la démographie et l'économie politique. Sa conclusion, maintes fois répétée, était que "la puissance de la population est indéfiniment plus grande que la puissance de la terre à produire la subsistance pour l'homme" parce que la population non contrôlée augmenterait de façon exponentielle alors que ses moyens de subsistance augmenteraient de façon linéaire (Malthus 1798, 8) :

 

En prenant la population du monde à un nombre quelconque, mille millions, par exemple, l'espèce humaine augmenterait dans le rapport de-1, 2, 4, 8, 16, 32, 64, 128, 256, 512, etc. et les moyens de subsistance comme-1, 2, 3, 4, 5, 6, 7, 8, 9, 10, etc. Dans deux siècles et un quart, la population serait par rapport aux moyens de subsistance comme 512 à 10 ; dans trois siècles, comme 4096 à 13, et dans deux mille ans, la différence serait presque incalculable, bien que les produits aient alors augmenté dans une immense mesure.

 

Charles Darwin a illustré ce processus par des références à Malthus et Linné et par son propre calcul des conséquences d'une reproduction incontrôlée des éléphants (Darwin 1861, 63) :

 

Il n'y a pas d'exception à la règle selon laquelle chaque être organique augmente à un rythme si élevé que, si elle n'était pas détruite, la terre serait bientôt couverte par la progéniture d'un seul couple. Même l'homme à reproduction lente a doublé en vingt-cinq ans, et à ce rythme, dans quelques milliers d'années, il n'y aura littéralement plus de place debout pour sa progéniture. Linné a calculé que si une plante annuelle ne produisait que deux graines - et il n'y a pas de plante aussi improductive que celle-ci - et que leurs semis de l'année suivante en produisaient deux, et ainsi de suite, il y aurait un million de plantes en vingt ans. L'éléphant est réputé être le reproducteur le plus lent de tous les animaux connus, et j'ai pris la peine d'estimer son taux minimum probable d'accroissement naturel : il sera facile de supposer qu'il se reproduit à l'âge de trente ans, et qu'il continue à se reproduire jusqu'à quatre-vingt-dix ans, en donnant naissance à trois paires de jeunes dans cet intervalle ; s'il en est ainsi, à la fin du cinquième siècle, il y aurait encore quinze millions d'éléphants vivants, descendant de la première paire.

 

Comme je l'expliquerai en détail dans les chapitres sur la croissance des organismes et des artefacts, ces calculs spécifiques doivent être compris avec le bon mélange d'inquiétude et de rejet, mais ils partagent deux attributs fondamentaux. Premièrement, et contrairement à la croissance linéaire où l'augmentation absolue par unité de temps reste la même, la croissance exponentielle se traduit par des gains absolus croissants par unité de temps à mesure que la base s'élargit. L'économie américaine a connu une croissance de 5,5 % en 1957 et en 1970, mais dans le second cas, le gain absolu était 2,27 fois plus important, soit 56 milliards de dollars contre 24,7 milliards de dollars (FRED 2017). Dans la plupart des cas de croissance exponentielle couramment rencontrés, le taux d'augmentation n'est pas parfaitement constant : soit il évolue légèrement dans le temps, soit il fluctue autour d'une moyenne à long terme.

 

Un taux de croissance qui diminue lentement produira des gains exponentiels moins prononcés. Les moyennes décennales de la croissance du PIB américain depuis 1970 en sont un bon exemple : elles sont passées de 9,5 % dans les années 1970 à 7,7 % dans les années 1980, 5,3 % dans les années 1990 et seulement 4 % dans la première décennie du XXIe siècle (FRED 2017). Un taux de croissance croissant se traduit par un rythme d'augmentation super-exponentiel. La croissance du PIB réel de la Chine entre 1996 et 2010 a été super-exponentielle : le taux annuel était de 8,6 % pendant les cinq premières années, de 9,8 % entre 2001 et 2005, et de 11,3 % entre 2006 et 2010 (NBS 2016). La fluctuation des taux de croissance est la norme dans l'expansion à long terme des économies : par exemple, la croissance économique des États-Unis (exprimée en PIB) a été en moyenne de 7 % par an au cours de la seconde moitié du XXe siècle, mais ce taux de variation moyen composé cache d'importantes fluctuations annuelles, les taux extrêmes étant de -0,3 % en 1954 (la seule année de baisse du PIB) et de 13 % en 1978 (FRED 2017).

 

Deuxièmement, la croissance exponentielle, qu'elle soit naturelle ou anthropique, n'est toujours qu'un phénomène temporaire, appelé à prendre fin en raison de diverses contraintes physiques, environnementales, économiques, techniques ou sociales. Les réactions nucléaires en chaîne se terminent aussi sûrement (en raison de la masse limitée de matière fissile) que les systèmes de Ponzi (investissements pyramidaux) (une fois que l'afflux de nouveaux fonds est inférieur aux remboursements). Mais dans ce dernier cas, cela peut prendre un certain temps : pensez à Bernard Madoff, qui a pu poursuivre ses activités frauduleuses - une chaîne de Ponzi si élaborée qu'elle a échappé aux autorités de surveillance qui ont enquêté à plusieurs reprises sur sa société (mais certainement pas avec toute la diligence nécessaire) - pendant plus de 30 ans et escroquer environ 65 milliards de dollars à ses investisseurs avant d'être finalement anéanti par la plus grande crise économique de l'après-guerre à l'automne 2008 (Ross 2016).

 

C'est pourquoi il peut être si trompeur d'utiliser la croissance exponentielle pour des prévisions à plus long terme. On pourrait illustrer cela par un nombre quelconque d'exemples basés sur des histoires réelles, et j'ai choisi la croissance impressionnante du trafic de passagers aériens de l'Amérique après 1950. Au cours des années 1950, sa croissance exponentielle annuelle était en moyenne de 11,1 % et les taux pour les années 1960 et 1970 étaient respectivement de 12,4 % et 9,4 %. Un tracé des totaux annuels de passagers-kilomètres parcourus par toutes les compagnies aériennes américaines entre 1930 et 1980 produit une trajectoire qui est presque parfaitement capturée par une régression quartique (polynôme de quatrième ordre avec r2 = 0,9998), et la poursuite de ce modèle de croissance aurait multiplié le niveau de 1980 presque 10 fois en 2015 (figure 1.6).

 

 

Figure 1.6

smil 1.6_fig_006a.png

Prévisions de la croissance du trafic aérien américain (en milliards de passagers-kilomètres)

sur la base de la période 1930-1980 (en haut, le meilleur ajustement est une régression quartique)

et 1930-2015 (en bas, le meilleur ajustement est une courbe logistique avec l'année d'inflexion en 1987). Données provenant de divers rapports annuels de l'Organisation de l'aviation civile internationale.

 

 

 

 

En réalité, le trafic aérien américain a suivi une trajectoire de croissance décroissante (avec une croissance annuelle moyenne de seulement 0,9 % au cours de la première décennie du XXIe siècle) et son parcours complet de 1930 à 2015 s'inscrit très bien dans une courbe logistique à quatre paramètres (symétrique), le total de 2015 n'étant qu'environ 2,3 fois supérieur à celui de 1980 et la progression prévue d'ici 2030 étant limitée (figure 1.6). Prendre des taux temporairement élevés de croissance exponentielle annuelle comme indicateurs de l'évolution future à long terme est une erreur fondamentale - mais aussi une habitude durable qui est particulièrement favorisée par les promoteurs non critiques de nouveaux dispositifs, conceptions ou pratiques : ils prennent les taux de croissance des premiers stades, souvent impressionnants et exponentiels, et les utilisent pour prévoir une domination imminente des phénomènes émergents.

 

De nombreux exemples récents peuvent illustrer cette erreur, et j'ai choisi la croissance de la capacité des éoliennes Vestas, des machines à l'origine de la transition vers la décarbonisation de la production mondiale d'électricité. Ce fabricant danois a commencé ses ventes avec une machine de 55 kW en 1981 ; en 1989, il avait une turbine capable de 225 kW ; une machine de 600 kW a été introduite en 1995 ; et une unité de 2 MW a suivi en 1999. La courbe la mieux adaptée à cette trajectoire de croissance rapide des deux dernières décennies du XXe siècle (ajustement logistique à cinq paramètres avec un R2 de 0,978) aurait prédit des modèles d'une capacité de près de 10 MW en 2005 et de plus de 100 MW en 2015. Mais en 2018, la plus grande unité Vestas disponible pour les installations terrestres était de 4,2 MW et la plus grande unité adaptée aux parcs éoliens offshore était de 8 MW pouvant être mise à niveau à 9 MW (Vestas 2017a), et il est très peu probable qu'une machine de 100 MW soit un jour construite. Cet exemple d'un contraste qui donne à réfléchir entre les premiers progrès rapides d'une innovation technique suivis de la formation inévitable de courbes sigmoïdes devrait être rappelé chaque fois que vous voyez des reportages sur les voitures qui deviendront toutes électriques d'ici 2025 ou sur les nouvelles batteries ayant des densités d'énergie impressionnantes d'ici 2030.

 

Mais la puissance finale et inéluctable de cette réalité peut sembler inapplicable dans les cas où la croissance exponentielle est en cours depuis une longue période et où elle ne cesse d'établir de nouveaux records. Plus d'une personne normalement rationnelle a pu se convaincre, en répétant le mantra "cette fois-ci, c'est différent", que les performances continueront à se multiplier pendant longtemps encore. Les meilleurs exemples de ces illusions, souvent collectives, sont tirés de l'histoire des bulles boursières et je décrirai en détail les deux événements récents les plus notables, à savoir l'essor du Japon avant 1990 et la nouvelle économie américaine des années 1990.

 

L'essor économique du Japon au cours des années 1980 fournit l'un des meilleurs exemples de personnes qui devraient être mieux informées et qui se laissent emporter par la puissance de la croissance exponentielle. Après avoir été multiplié par 2,6 au cours des années 1970, le Nikkei 225 (principal indice boursier du Japon et équivalent pour le pays du Dow Jones Industrial américain) a augmenté de 184 % entre janvier 1981 et 1986, de 43 % supplémentaires en 1986, de près de 13 % en 1987, de près de 43 % en 1988 et de 29 % supplémentaires en 1989 (Nikkei 225 2017). Entre janvier 1981 et décembre 1989, le Nikkei 225 a plus que quintuplé, cette performance correspondant à une croissance exponentielle annuelle moyenne de 17 % pour la décennie et de 24 % pour sa seconde moitié. Parallèlement, le PIB du Japon a continué à croître à un taux annuel supérieur à 4 %, tandis que le taux de change du yen s'est renforcé, passant de 239 ¥/USD en janvier 1980 à 143 ¥/USD en décembre 1989.

 

Le dénouement devait venir et, au chapitre 6, je retrace le rapide déroulement de l'après-1989. Mais la croissance exponentielle est un puissant générateur d'illusions, et en 1999, dix ans après le pic du Nikkei, je pensais à l'expérience japonaise alors que nous attendions de récupérer notre voiture de location à l'aéroport de San Francisco. La Silicon Valley était à des années de sa première bulle Internet, et même avec des réservations à l'avance, les gens devaient attendre que les voitures qui venaient d'être rendues soient révisées et remises en circulation sur l'autoroute de Bayshore. Conscient de l'expérience japonaise, je pensais que chaque année après 1995 pourrait être la dernière période de ce qu'Alan Greenspan a appelé l'exubérance irrationnelle, mais ce ne fut pas le cas en 1996, 1997 ou 1998. Et plus encore qu'une décennie plus tôt, de nombreux économistes étaient prêts à assurer aux investisseurs américains que cette période de croissance exponentielle était vraiment différente, que les anciennes règles ne s'appliquaient pas à la nouvelle économie, où la croissance rapide et sans fin allait se poursuivre.

 

Au cours des années 1990, l'indice Dow Jones, tiré par la soi-disant nouvelle économie américaine, a enregistré la plus forte progression décennale de l'histoire, passant de 2 810 au début de janvier 1990 à 11 497 à la fin de décembre 1999 (FedPrimeRate 2017). Cette performance correspond à une croissance exponentielle annuelle de 14% au cours de la décennie, avec des pics de 33% en 1995 et 25% en 1996. La poursuite de cette croissance a permis d'atteindre un niveau d'environ 30 000 en 2010. Et l'indice composite Nasdaq - qui reflète l'augmentation des capacités de calcul et de communication et, surtout, l'envolée des performances des entreprises de la Silicon Valley, motivées par la spéculation - a fait encore mieux dans les années 90 : sa croissance exponentielle a atteint en moyenne près de 26 % par an entre avril 1991, date à laquelle il a atteint 5 000 points, et le 9 mars 2000, date à laquelle il a culminé à 5 046 points (Nasdaq 2017).

 

Même certains observateurs normalement prudents se sont laissés emporter par cette évolution. Jeremy Siegel, de la Wharton School of Business, s'est émerveillé : "C'est incroyable. Chaque année, nous disons que cela ne peut pas être une autre année de plus de 20 % (de gains) - et puis chaque année, c'est plus de 20 %. Je maintiens que nous devons nous habituer à des rendements plus faibles, plus normaux, mais qui sait quand cette série va se terminer ?" (Bebar 1999). Et les promoteurs ont gagné de l'argent en vendant l'impossible : un best-seller voyait l'arrivée précoce du Dow Jones à 40 000 (Elias 2000), un autre prévoyait l'arrivée imparable du Dow 100 000 (Kadlec et Acampora 1999). Mais la fin est arrivée et, encore une fois, elle a été assez rapide. En septembre 2002, le Dow Jones n'était plus que 9 945, soit une baisse de près de 40 % par rapport à son sommet de 1999 (FedPrimeRate 2017), et en mai 2002, le Nasdaq Composite avait chuté de près de 77 % par rapport à son sommet de mars 2000 (Nasdaq 2017).

 

La croissance exponentielle a été courante dans de nombreux cas de progrès techniques et, comme je le montrerai au chapitre 3, dans certains cas, elle a persisté pendant des décennies. La puissance maximale des turbines à vapeur est un parfait exemple de cette croissance exponentielle durable. Charles Algernon Parsons a breveté le premier modèle en 1884 et a presque immédiatement construit une petite machine - que l'on peut voir dans le hall du Parsons Building au Trinity College de Dublin - d'une puissance d'à peine 7,5 kW, mais la première turbine commerciale était dix fois plus grande puisque la machine de 75 kW a commencé à produire de l'électricité en 1890 (Parsons 1936).

 

L'essor rapide qui s'ensuivit donna naissance à la première turbine de 1 MW en 1899, à une machine de 2 MW trois ans plus tard, à la première conception de 5 MW en 1907, et avant la Première Guerre mondiale, la capacité maximale atteignit 25 MW avec la turbine installée à la station de Fisk Street de la Commonwealth Edison Co. à Chicago (Parsons 1911). Entre l'année du premier modèle commercial de 75 kW en 1890 et la machine de 25 MW de 1912, les capacités maximales des turbines à vapeur Parsons ont donc augmenté à un taux exponentiel composé annuel de plus de 26 %, doublant en moins de trois ans. C'était considérablement plus rapide que la croissance des capacités des premières machines à vapeur au cours du 18e siècle, ou que la puissance nominale des turbines hydrauliques depuis les années 1830, lorsque Benoît Fourneyron a commercialisé ses premiers modèles.

 

Et certaines performances progressent de manière exponentielle non pas par une amélioration constante de la technique d'origine, mais par une série d'innovations, l'étape suivante prenant son essor là où l'ancienne technique a atteint ses limites : les trajectoires de croissance individuelles sont indéniablement en forme de S, mais leur enveloppe trace une ascension exponentielle. L'histoire des tubes à vide, brièvement examinée au chapitre 4, est un excellent exemple d'une telle enveloppe exponentielle couvrant près d'un siècle de progrès. Dans le chapitre 4 (sur la croissance des artefacts), j'examinerai également en détail le cas peut-être le plus célèbre de croissance exponentielle moderne qui s'est maintenue pendant 50 ans, celui de l'entassement des transistors sur une puce en silicium décrit par la loi de Moore qui a doublé le nombre de composants tous les deux ans.

 

Et avant de quitter le sujet de la croissance exponentielle, il convient de noter une règle simple pour calculer la période de doublement des quantités qui y sont soumises, qu'il s'agisse de cellules cancéreuses, de comptes bancaires ou de la capacité de traitement des ordinateurs, ou, à l'inverse, pour calculer un taux de croissance en utilisant le temps de doublement connu. Les résultats exacts sont obtenus en divisant le logarithme naturel de 2 (soit 0,693) par le taux de croissance en vigueur (exprimé en fraction de un, par exemple 0,1 pour 10%), mais une assez bonne approximation consiste à diviser 70 par le taux de croissance exprimé en pourcentage. Lorsque l'économie chinoise croissait de 10% par an, sa période de doublement était de sept ans ; inversement, le doublement des composants d'une puce électronique en deux ans implique un taux de croissance exponentielle annuel d'environ 35%.

 

Croissance hyperbolique

 

Sans limite, et donc sur Terre toujours seulement temporaire, la croissance exponentielle ne doit pas être confondue (comme elle l'est parfois) avec la croissance hyperbolique. Alors que la progression exponentielle se caractérise par un taux de croissance absolu croissant, elle reste une fonction du temps à mesure qu'elle s'approche de l'infini ; en revanche, la croissance hyperbolique culmine dans l'absurdité lorsqu'une quantité croît vers l'infini dans un intervalle de temps fini (figure 1.7). Cet événement terminal est, bien entendu, impossible dans des limites finies et une rétroaction modératrice finira par exercer un effet d'amortissement et mettre fin à la progression hyperbolique. Mais lorsqu'elles commencent à des taux faibles, les trajectoires hyperboliques peuvent être maintenues pendant des périodes relativement longues avant que leur progression ne s'arrête et qu'une autre forme de croissance (ou de déclin) ne prenne le relais.

 

 

Figure 1.7

Énergies : ou la croissance des convertisseurs primaires et secondaires

​

La croissance de tout organisme ou de tout artefact est, en termes physiques fondamentaux, une transformation de masse rendue possible par la conversion d'énergie. Le rayonnement solaire est, bien entendu, l'agent énergétique primaire de la vie par le biais de la photosynthèse, et les métabolismes autotrophes et hétérotrophes qui s'ensuivent produisent une énorme variété d'organismes. Inévitablement, nos ancêtres hominines, qui dépendaient uniquement des énergies somatiques en tant que chasseurs et cueilleurs, étaient soumis aux mêmes limites énergétiques. Les limites de leur contrôle ont été élargies par la maîtrise du feu : la combustion de la phytomasse (dont l'approvisionnement était circonscrit par les limites de la photosynthèse) a ajouté la première conversion d'énergie extrasomatique et a ouvert la voie à une meilleure alimentation, une meilleure habitation et une meilleure défense contre les animaux. La cuisson était une avancée particulièrement importante car elle avait considérablement élargi la gamme et la qualité des aliments consommés (Wrangham 2009). Les populations humaines préhistoriques ont ajouté une autre conversion extrasomatique lorsqu'elles ont commencé à utiliser, il y a environ 10 000 ans, des animaux domestiqués pour le transport et, plus tard, pour les travaux des champs.

 

L'histoire ultérieure de la civilisation peut être considérée comme une quête d'une dépendance toujours plus grande aux énergies extrasomatiques (Smil 2017a). Le processus a commencé par la combustion de la phytomasse (énergie chimique contenue dans le bois, converti plus tard en charbon de bois, et dans les résidus de récolte) pour produire de la chaleur (énergie thermique) et par la conversion à petite échelle des flux d'eau et de vent en énergie cinétique des moulins et des voiles. Après des siècles de lents progrès, ces conversions sont devenues plus courantes, plus efficaces et disponibles sous des formes plus concentrées (plus grandes capacités unitaires), mais seule la combustion de combustibles fossiles a ouvert la voie aux sociétés modernes à haute énergie. Ces combustibles (charbon, pétrole brut et gaz naturel) représentent une énorme réserve de biomasse transformée produite par photosynthèse au cours de centaines de millions d'années, et leur extraction et leur conversion ont alimenté la progression conjointe de l'urbanisation et de l'industrialisation. Ces progrès ont permis d'atteindre des niveaux sans précédent d'approvisionnement en nourriture, de confort de logement, de richesse matérielle et de mobilité personnelle, et d'allonger la durée de vie d'une part croissante de la population mondiale.

 

L'évaluation de la croissance à long terme des convertisseurs d'énergie (à la fois en termes de performance et d'efficacité) est donc le précurseur nécessaire pour retracer la croissance des artefacts - objets anthropiques dont la variété va des outils les plus simples (levier, poulie) aux structures élaborées (cathédrales, gratte-ciel) et aux dispositifs électroniques étonnamment complexes - qui seront examinés au chapitre 4. J'utilise le terme convertisseur d'énergie dans son sens le plus large, c'est-à-dire comme tout artefact capable de transformer une forme d'énergie en une autre. Ces convertisseurs se répartissent en deux catégories de base.

 

Les convertisseurs primaires transforment les flux d'énergie renouvelable et les combustibles fossiles en une série d'énergies utiles, le plus souvent en énergie cinétique (mécanique), en chaleur (énergie thermique), en lumière (énergie électromagnétique) ou, de plus en plus, en électricité. Cette vaste catégorie de convertisseurs primaires comprend les machines et assemblages suivants : les traditionnelles roues à aubes et moulins à vent et leurs transformations modernes, les turbines

hydrauliques et éoliennes ; les moteurs à vapeur et les turbines à vapeur ; les moteurs à combustion interne (à essence et diesel et les turbines à gaz, fixes ou mobiles) ; les réacteurs nucléaires ; et les cellules photovoltaïques. De nombreuses formes d'éclairage et de moteurs électriques sont aujourd'hui de loin les convertisseurs secondaires les plus abondants qui utilisent l'électricité pour produire de la lumière et de l'énergie cinétique pour une énorme variété de machines stationnaires utilisées dans la production industrielle ainsi que dans l'agriculture, les services et les ménages, et pour les transports terrestres.

 

Même les civilisations anciennes s'appuyaient sur une variété de convertisseurs d'énergie. Dans l'Antiquité, les modèles les plus courants pour le chauffage dans les climats froids allaient du simple foyer (encore utilisé dans les foyers ruraux japonais au XIXe siècle) aux ingénieux hypocaustes romains et à leurs variantes asiatiques, notamment le kang chinois et l'ondol coréen. Des moulins actionnés par la main d'œuvre animale (esclaves, ânes, bœufs, chevaux) et aussi par l'eau (en utilisant des roues pour convertir son énergie en mouvement rotatif) étaient utilisés pour moudre les céréales et presser les graines oléagineuses. Les lampes à huile et les bougies de cire et de suif fournissaient un éclairage (généralement insuffisant). Enfin, les avirons et les voiles étaient les deux seuls moyens de propulsion des navires prémodernes.

 

À la fin de l'ère médiévale, la plupart de ces convertisseurs ont connu soit une croissance substantielle en termes de taille ou de capacité, soit des améliorations majeures en termes de qualité de production et de fiabilité opérationnelle. Les nouveaux convertisseurs les plus importants qui sont devenus courants à la fin du Moyen Âge sont les moulins à vent de grande taille (utilisés pour pomper l'eau et pour une grande variété de tâches industrielles et de traitement des récoltes), les hauts fourneaux (utilisés pour faire fondre des minerais de fer avec du charbon de bois et du calcaire pour produire de la fonte) et les projectiles propulsés par la poudre à canon (l'énergie chimique contenue dans le mélange de nitrate de potassium, de soufre et de charbon de bois est instantanément convertie en énergie cinétique explosive utilisée pour tuer des combattants ou détruire des structures).

 

Les civilisations prémodernes ont également mis au point une série de convertisseurs d'énergie plus sophistiqués reposant sur la gravité ou les énergies cinétiques naturelles. La chute d'eau a alimenté des clepsydres simples ou très élaborés et des tours astronomiques chinoises, mais l'horloge à pendule date du début de l'ère moderne : elle a été inventée par Christiaan Huygens en 1656. Et pour l'émerveillement et le divertissement, les riches propriétaires d'Europe, du Moyen-Orient et d'Asie de l'Est exposaient des automates humanoïdes et animaux comprenant des musiciens, des oiseaux, des singes et des tigres, mais aussi des anges qui jouaient, chantaient et se tournaient vers le soleil, et qui étaient actionnés par l'eau, le vent, l'air comprimé et des ressorts enroulés (Chapuis et Gélis 1928).

 

La construction et le déploiement de tous les convertisseurs d'énergie inanimés traditionnels se sont intensifiés au début de la période moderne (1500-1800). Les roues à aubes et les moulins à vent sont devenus plus courants et leurs capacités et efficacités de conversion typiques ont augmenté. La fusion de la fonte dans des hauts-fourneaux alimentés au charbon de bois atteint de nouveaux sommets. Les navires à voile battent des records de déplacement et de manœuvrabilité. Les armées s'appuient sur des canons plus puissants, et la fabrication d'automates et autres curiosités mécaniques atteint de nouveaux niveaux de complexité. Et puis, au début du 18e siècle, vint lentement le tournant décisif dans l'utilisation de l'énergie humaine avec les premières installations commerciales de moteurs à vapeur.

 

Les premières versions du premier moteur inanimé alimenté par la combustion du charbon - un combustible fossile créé par la conversion photosynthétique du rayonnement solaire il y a 106-108 ans - étaient extrêmement coûteuses et ne produisaient qu'un mouvement alternatif. Pendant des décennies, ils n'ont donc été utilisés que pour le pompage de l'eau dans les mines de charbon, mais dès que leur efficacité s'est améliorée et que de nouveaux modèles ont pu produire un mouvement rotatif, les moteurs ont rapidement conquis de nombreux anciens marchés industriels et de transport et ont créé de nouvelles industries et de nouvelles options de voyage (Dickinson 1939 ; Jones 1973). Une plus grande variété de nouveaux convertisseurs d'énergie a été inventée et commercialisée au cours du 19e siècle qu'à n'importe quelle autre période de l'histoire : dans l'ordre chronologique, il s'agit des turbines à eau (à partir des années 1830), des turbines à vapeur, des moteurs à combustion interne (cycle d'Otto) et des moteurs électriques (tous trois au cours des années 1880), ainsi que des moteurs diesel (à partir des années 1890).

 

Le 20e siècle a vu l'apparition des turbines à gaz (premières applications commerciales dans les années 1930), des réacteurs nucléaires (installés pour la première fois dans les sous-marins au début des années 1950 et utilisés pour la production d'électricité depuis la fin des années 1950), des cellules photovoltaïques (installées pour la première fois dans les satellites à la fin des années 1950) et des éoliennes (dont la conception moderne a débuté dans les années 1980). Je suivrai toutes ces avancées dans un ordre thématique plutôt que chronologique, en traitant d'abord de l'exploitation du vent et de l'eau (moulins traditionnels et turbines modernes), puis des convertisseurs à vapeur (moteurs et turbines), des moteurs à combustion interne, de la lumière et des moteurs électriques, et enfin des réacteurs nucléaires et des cellules photovoltaïques (PV)

 

 

Exploitation de l'eau et du vent

 

Nous ne pouvons pas fournir de chronologie précise des premiers développements de deux moteurs inanimés traditionnels, les roues à eau (dont les origines remontent à l'antiquité méditerranéenne) et les moulins à vent (utilisés pour la première fois au début du Moyen Âge). De même, leur croissance initiale ne peut être décrite qu'en termes qualitatifs simples et nous pouvons retracer leur adoption ultérieure et la variété de leurs utilisations, mais nous disposons d'informations limitées sur leurs performances réelles. Ce n'est qu'avec les machines déployées au cours de la seconde moitié du XVIIIe siècle que nous nous trouvons sur un terrain quantitatif plus solide et que nous pouvons retracer avec précision le passage des roues hydrauliques aux turbines hydrauliques et la croissance de ces machines hydrauliques.

 

Contrairement à l'évolution ininterrompue des moteurs hydrauliques, il n'y a pas eu de passage progressif des versions améliorées des moulins à vent traditionnels aux machines éoliennes modernes. La production d'électricité à partir de la vapeur a mis fin à la dépendance à l'égard des moulins à vent au début du XXe siècle, mais ce n'est que dans les années 1980 que les premières éoliennes modernes ont été installées dans un parc éolien commercial en

développement ultérieur de ces machines, aidé à la fois par des subventions et par la recherche de la décarbonisation de la production moderne d'électricité, a apporté des progrès impressionnants en matière de conception et de performance, les éoliennes étant devenues un choix commun (voire dominant) pour les nouvelles capacités de production.

 

Les roues à aubes

 

Les origines des roues hydrauliques restent obscures, mais il ne fait aucun doute que les premières utilisations de l'eau pour la mouture du grain étaient des roues horizontales tournant autour d'axes verticaux fixés directement sur des meules. Leur puissance était limitée à quelques kW et des roues verticales plus grandes (hydraletae romaines), avec des meules entraînées par des engrenages à angle droit, sont devenues courantes dans le monde méditerranéen au début de l'ère commune (Moritz 1958 ; White 1978 ; Walton 2006 ; Denny 2007). Trois types de roues verticales ont été développés pour s'adapter au mieux au débit d'eau existant ou pour tirer parti d'un approvisionnement en eau artificiellement amélioré par des détournements de cours d'eau, des canaux ou des abreuvoirs (Reynolds 2002). Les roues de fond (tournant dans le sens inverse des aiguilles d'une montre) étaient les mieux adaptées aux cours d'eau rapides, et la puissance des petites machines était souvent inférieure à 100 W, soit l'équivalent d'un homme fort travaillant régulièrement. Les roues de poitrine (qui tournent également dans le sens inverse des aiguilles d'une montre) étaient actionnées par l'eau qui coulait et qui tombait, tandis que la gravité actionnait les roues en surplomb, l'eau étant souvent conduite par des auges. Les roues à tirant d'eau pouvaient fournir quelques kW de puissance utile, les meilleures conceptions du XIXe siècle dépassant les 10 kW.

 

Les roues hydrauliques ont apporté un changement radical à la mouture du grain. Même un petit moulin employant moins de 10 ouvriers produisait quotidiennement assez de farine pour nourrir plus de 3 000 personnes, alors que la mouture manuelle avec des pierres de quern aurait nécessité le travail de plus de 200 personnes pour le même rendement. L'utilisation de la roue à aubes s'est étendue bien au-delà de la mouture du grain dès l'époque romaine. Au Moyen Âge, les tâches courantes faisant appel à la force hydraulique allaient du sciage du bois et de la pierre au concassage des minerais et à l'actionnement des soufflets des hauts fourneaux, et au début de l'ère moderne, les roues à aubes anglaises étaient souvent utilisées pour pomper l'eau et extraire le charbon des mines souterraines (Woodall 1982 ; Clavering 1995).

 

Les roues en bois prémodernes, souvent construites de manière grossière, n'étaient pas très efficaces par rapport aux machines métalliques modernes, mais elles fournissaient une puissance relativement régulière d'une ampleur sans précédent, ouvrant ainsi la voie à l'industrialisation naissante et à la production à grande échelle. Les rendements des premières roues modernes en bois à engrenages inférieurs atteignaient 35 à 45 %, bien en deçà des performances des roues à engrenages supérieurs (52 à 76 %) (Smeaton 1759). En revanche, les modèles plus tardifs entièrement métalliques pouvaient atteindre 76 % pour les roues à pignon inférieur et 85 % pour les roues à pignon supérieur (Müller 1939 ; Muller et Kauppert 2004). Mais même les roues du 18e siècle étaient plus efficaces que la machine à vapeur contemporaine et le développement de ces deux machines très différentes s'est fait en tandem, les roues étant les principaux moteurs de plusieurs industries importantes d'avant 1850, en particulier le tissage textile.

​

​

En 1849, la capacité totale des roues hydrauliques américaines était de près de 500 MW et celle des moteurs à vapeur atteignait environ 920 MW (Daugherty 1927), et Schurr et Netschert (1960) ont calculé que les roues hydrauliques américaines ont continué à fournir plus de puissance utile que tous les moteurs à vapeur jusqu'à la fin des années 1860. Le dixième recensement a montré qu'en 1880, juste avant l'introduction de la production commerciale d'électricité, les États-Unis comptaient 55 404 roues hydrauliques d'une puissance installée totale de 914 MW (soit une moyenne d'environ 16,5 kW par roue), qui représentaient 36% de toute la puissance utilisée dans l'industrie manufacturière du pays, la vapeur fournissant le reste (Swain 1885). La mouture du grain et le sciage du bois étaient les deux principales applications et la rivière Blackstone dans le Massachusetts présentait la plus forte concentration de roues du pays, au prorata d'environ 125 kW/ha de son bassin versant.

 

On ne dispose pas d'assez d'informations pour retracer la croissance des capacités moyennes ou typiques des roues hydrauliques, mais on en sait suffisamment pour confirmer plusieurs siècles de stagnation ou de croissance très faible, suivis d'une montée en flèche vers de nouveaux records entre 1750 et 1850. Les plus grandes installations combinaient la puissance de plusieurs roues. En 1684, le projet destiné à pomper l'eau pour les jardins de Versailles avec 14 roues sur la Seine (Machine de Marly) fournissait environ 52 kW de puissance utile, mais la moyenne était inférieure à 4 kW/roue (Brandstetter 2005 ; figure 3.1). En 1840, les plus grandes installations britanniques près de Glasgow avaient une capacité de 1,5 MW dans 30 roues (moyenne de 50 kW/roue) alimentées par un réservoir (Woodall 1982). Et Lady Isabella, la plus grande roue hydraulique du monde construite en 1854 sur l'île de Man pour pomper l'eau des mines de plomb et de zinc de Laxey, avait une pointe théorique de 427 kW et une puissance utile réelle soutenue de 200 kW (Reynolds 1970).

 

 

Figure 3.1

 

La machine de Marly, la plus grande installation de roue hydraulique du début de l'ère moderne, a été achevée en 1684 pour pomper l'eau de la Seine vers les jardins de Versailles. Le détail d'un tableau de 1723 de Pierre-Denis Martin montre également l'aqueduc à l'arrière-plan. La reproduction de la peinture est disponible sur wikimedia.

 

L'installation de nouvelles machines a rapidement diminué après 1850, car des turbines hydrauliques plus efficaces et des moteurs thermiques plus flexibles ont pris le relais des roues hydrauliques pendant des siècles. La capacité d'une installation typique sur une période de deux millénaires a donc été multipliée par 20 au moins, voire par 50. Les preuves archéologiques indiquent que la taille des unités n'était que de 1 à 2 kW à la fin de l'époque romaine ; au début du 18e siècle, la plupart des roues hydrauliques européennes avaient une capacité de 3 à 5 kW et seules quelques-unes dépassaient 7 kW ; en 1850, de nombreuses roues hydrauliques avaient une capacité de 20 à 50 kW (Smil 2017a). Cela signifie qu'après une longue période de stagnation (près d'un millénaire et demi) ou de progrès à peine perceptibles, les capacités typiques ont augmenté d'un ordre de grandeur en un siècle environ, doublant à peu près tous les 30 ans. Leur développement ultérieur a été assez rapidement tronqué par l'adoption de nouveaux convertisseurs, et la courbe en S fortement

asymétrique créée par le développement antérieur à 1859 s'est effondrée, d'abord progressivement puis rapidement, avec seulement un petit nombre de roues hydrauliques en fonctionnement en 1960.

 

Turbines à eau

 

Les turbines hydrauliques étaient des extensions conceptuelles des roues hydrauliques horizontales fonctionnant sous des hauteurs de chute élevées. Leur histoire commence avec les conceptions de turbines à réaction de Benoît Fourneyron. En 1832, sa première machine, avec un rotor de 2,4 m fonctionnant avec un écoulement radial vers l'extérieur et une hauteur de chute de seulement 1,3 m, avait une puissance nominale de 38 kW, et en 1837 sa version améliorée, installée à la filature de Saint Blaisien, avait une puissance de 45 kW sous des hauteurs de chute de plus de 100 m (Smith 1980). Un an plus tard, une meilleure conception a été brevetée aux États-Unis par Samuel B. Howd et, après des améliorations supplémentaires, introduite à Lowell, MA par un ingénieur britannico-américain, James B. Francis, en 1849 ; elle est devenue largement connue sous le nom de turbine Francis. Cette conception reste la machine hydraulique de grande capacité la plus couramment utilisée pour les hauteurs de chute moyennes à élevées (Shortridge 1989). Entre 1850 et 1880, de nombreuses industries situées sur des cours d'eau ont remplacé leurs roues hydrauliques par ces turbines. Aux Etats-Unis, le Massachusetts était l'état leader : en 1875, les turbines fournissaient 80% de son énergie stationnaire.

 

Avec l'introduction des systèmes électriques Edisoniens dans les années 1880, les turbines hydrauliques ont commencé à faire tourner des générateurs. La première petite installation (12,5 kW) à Appleton, dans le Wisconsin, a commencé à fonctionner en 1882, l'année même où la première station à charbon d'Edison a été achevée à Manhattan (Monaco 2011). À la fin des années 1880, les États-Unis comptaient environ 200 petites centrales hydroélectriques et un autre modèle de turbine à déployer. Une machine à impulsion, adaptée aux hauteurs d'eau élevées et actionnée par des jets d'eau heurtant les augets périphériques de la turbine, a été développée par Lester A. Pelton. La plus grande centrale hydroélectrique du monde, construite entre 1891 et 1895 aux chutes du Niagara, comptait dix turbines de 5 000 ch (3,73 MW).

 

En 1912 et 1913, Viktor Kaplan a déposé des brevets pour sa turbine à flux axial, dont les hélices réglables étaient mieux adaptées aux faibles hauteurs d'eau. Les premières petites turbines Kaplan ont été construites dès 1918, et en 1931, quatre unités de 35 MW ont commencé à fonctionner à la station allemande de Ryburg-Schwörstadt sur le Rhin. Bien que plus de 500 centrales hydroélectriques aient été construites avant la Première Guerre mondiale, la plupart d'entre elles avaient des capacités limitées et l'ère des grands projets a commencé dans les années 1920 en Union soviétique et dans les années 1930 aux États-Unis, dans les deux pays menés par une politique d'électrification de l'État. Mais le plus grand projet du programme soviétique d'électrification n'a été rendu possible que par l'expertise et les machines américaines : La station du Dniepr, achevée en 1932, était équipée de turbines Francis de 63,38 MW, construites à Newport News, et de générateurs GE (Nesteruk 1963).

​

Aux États-Unis, les principaux résultats du développement hydroélectrique mené par le gouvernement ont été les centrales construites par la Tennessee Valley Authority à l'est, et les deux projets records, les barrages Hoover et Grand Coulee, à l'ouest (CIGB 2017 ; USDI 2017). Le barrage Hoover sur le fleuve Colorado a été achevé en 1936 et 13 de ses 17 turbines avaient une puissance de 130 MW. La construction de Grand Coulee a eu lieu entre 1933 et 1942 et chacune des 18 turbines d'origine, réparties dans deux centrales, pouvait fournir 125 MW (USBR 2016). La capacité totale de Grand Coulee, à l'origine un peu moins de 2 GW, n'a jamais été dépassée par aucune centrale hydroélectrique américaine construite après la Seconde Guerre mondiale, et elle a été agrandie par l'ajout d'une troisième centrale (entre 1975 et 1980) avec trois turbines de 600 MW et trois de 700 MW. Juste au moment où la modernisation de Grand Coulee a été achevée (1984-1985), la centrale a perdu sa primauté mondiale au profit de nouvelles centrales en Amérique du Sud.

 

Tucuruí sur Tocantins au Brésil (8,37 GW) a été achevée en 1984. Guri sur Caroní au Venezuela (10,23 GW) a suivi en 1986, et la première unité de ce qui allait devenir la plus grande centrale hydroélectrique du monde, Itaipu sur Paraná, à la frontière entre le Brésil et le Paraguay, initialement de 12,6 GW, aujourd'hui de 14 GW, a été installée en 1984. Itaipu compte désormais 20 turbines de 700 MW, Guri a des turbines légèrement plus grandes que celles de Grand Coulee (730 MW), et les unités de Tucuruí ne font que 375 et 350 MW. Le record de taille des unités n'a pas été dépassé lorsque Sanxia (Three Gorges) est devenu le nouveau détenteur du record mondial avec 22,5 GW en 2008 : ses turbines sont, comme à Itaipu, des unités de 700 MW. Un nouveau record n'a été atteint qu'en 2013 lorsque la centrale chinoise de Xiangjiaba a obtenu les plus grandes turbines Francis du monde, des machines de 800 MW conçues et fabriquées par l'usine d'Alstom à Tianjin (Alstom 2013 ; Duddu 2013).

 

La trajectoire historique des plus grandes capacités de turbines hydrauliques forme une courbe en S évidente, la plupart des gains ayant eu lieu entre le début des années 1930 et le début des années 1980 et la formation d'un plateau une fois que la taille de la plus grande unité approche les 1 000 MW (figure 3.2). De même, lorsque la capacité des générateurs est exprimée en mégavolts ampères (MVA), la trajectoire logistique des puissances maximales passe de quelques MVA en 1900 à 200 MVA en 1960 et à 855 MVA dans la centrale chinoise de Xiluodu sur la rivière Jinsha achevée en 2013 (Voith 2017). La prévision de la trajectoire ne laisse entrevoir que des gains marginaux d'ici 2030, mais nous savons déjà que l'asymptote sera atteinte en raison de la construction du deuxième plus grand projet hydroélectrique de la Chine (et du monde) dans le Sichuan : Le barrage de Baihetan sur la rivière Jinsha (entre le Sichuan et le Yunnan, en construction depuis 2008) comprendra 16 unités de 1 000 MW (1 GW) lorsqu'il sera achevé au début des années 2020.

 

 

Figure 3.2

 

Croissance logistique des capacités maximales des turbines hydrauliques depuis 1895 ; le point d'inflexion se situe en 1963. Données de Smil (2008) et de la CIGB (2017).

 

Il y a une très forte probabilité que la capacité unitaire de 1 GW reste la valeur de pointe. Cela s'explique par le fait que la plupart des pays du monde ayant un grand potentiel de production hydroélectrique ont soit déjà exploité leurs meilleurs sites où ils pourraient utiliser de telles unités de très grande taille (États-Unis, Canada), soit disposent de sites potentiels (en Afrique subsaharienne, en Amérique latine et dans les régions mousson d'Asie) qui seraient mieux exploités avec les unités de 500 à 700 MW qui dominent actuellement les projets de taille record en Chine, en Inde, au Brésil et en Russie. En outre, Baihetan mis à part, les préoccupations environnementales rendent plutôt improbable la construction d'une autre centrale d'une capacité supérieure à 15 GW.

 

Moulins à vent et turbines éoliennes

 

Les premiers moulins à vent perses et byzantins étaient petits et inefficaces, mais l'Europe médiévale a fini par développer des moulins à poteaux en bois plus grands qui devaient être tournés manuellement en fonction du vent. Des moulins à tour plus hauts et plus efficaces sont devenus courants au début de l'ère moderne, non seulement aux Pays-Bas mais aussi dans d'autres régions atlantiques plates et venteuses (Smil 2017a). Les améliorations qui ont augmenté leur puissance et leur efficacité ont fini par inclure des planches à bords inclinés pour réduire la traînée sur les pales et, beaucoup plus tard, de véritables profils aérodynamiques (pales profilées), des engrenages métalliques et des queues de ventilateur. Les moulins à vent, tout comme les roues à aubes, étaient utilisés pour de nombreuses tâches autres que la mouture du grain : l'extraction de l'huile des graines et le pompage de l'eau des puits étaient courants, et le drainage des zones de faible altitude était la principale utilisation néerlandaise (Hill 1984). Contrairement aux lourdes machines européennes, les moulins à vent américains du XIXe siècle étaient des machines plus légères, plus abordables mais assez efficaces, reposant sur de nombreuses pales étroites fixées à des roues et attachées au sommet de tours en treillis (Wilson 1999).

 

La puissance utile des moulins à vent médiévaux n'était que de 2 à 6 kW, comparable à celle des premières roues à eau. Les moulins hollandais et anglais des 17e et 18e siècles ne délivraient généralement pas plus de 6-10 kW, les moulins américains de la fin du 19e siècle ne dépassaient pas 1 kW, tandis que les plus grandes machines européennes contemporaines délivraient 8-12 kW, soit une fraction de la puissance des meilleures roues à eau (Rankine 1866 ; Daugherty 1927). Entre les années 1890 et 1920, de petits moulins à vent ont été utilisés dans un certain nombre de pays pour produire de l'électricité pour des habitations isolées, mais la production d'électricité bon marché à partir du charbon a entraîné leur disparition et les machines à vent n'ont été ressuscitées que dans les années 1980, après les deux séries d'augmentation du prix du pétrole par l'OPEP.

 

Altamont Pass, dans la chaîne de montagnes Diablo, au nord de la Californie, a été le site du premier parc éolien moderne à grande échelle, construit entre 1981 et 1986 : sa turbine moyenne n'avait qu'une puissance de 94 kW et la plus grande était capable de 330 kW (Smith 1987). Cette première expérience s'est essoufflée avec la chute des prix mondiaux du pétrole après 1984, et le centre des nouvelles conceptions d'éoliennes s'est déplacé vers l'Europe, en particulier vers le Danemark, où Vestas a été le premier à concevoir des unités plus grandes. Leur puissance est passée de 55 kW en 1981 à 500 kW dix ans plus tard, puis à 2 MW en 2000, et en 2017, la plus grande capacité des unités terrestres de Vestas atteignait 4,2 MW (Vestas 2017a). Cette croissance est capturée par une courbe de croissance logistique qui n'indique que des gains futurs limités. En revanche, la plus grande

turbine offshore (installée pour la première fois en 2014) a une capacité de 8 MW, qui peut atteindre 9 MW dans des conditions de site spécifiques (Vestas 2017b). Mais en 2018, aucune des conceptions de 10 MW - SeaTitan et Sway Turbine, achevées en 2010 (AMSC 2012) - n'avait été installée commercialement.

 

Les capacités moyennes ont augmenté plus lentement. L'augmentation linéaire des capacités nominales des machines terrestres américaines a doublé, passant de 710 kW en 1998-1999 à 1,43 MW en 2004-2005, mais une croissance ultérieure plus lente a fait passer la moyenne à 1,79 MW en 2010 et à 2 MW en 2015, soit moins du triple de la moyenne en 17 ans (Wiser et Bollinger 2016). Les moyennes pour les machines terrestres européennes ont été légèrement plus élevées, 2,2 MW en 2010 et environ 2,5 MW en 2015. Là encore, les trajectoires de croissance des capacités moyennes américaines et européennes suivent des trajectoires sigmoïdales, mais qui semblent beaucoup plus proches de la saturation que ne le fait la trajectoire des capacités maximales des turbines. Les capacités moyennes d'un nombre relativement restreint de turbines offshore européennes sont restées aux alentours de 500 kW dans les années 1990, ont atteint 3 MW en 2005, 4 MW en 2012 et un peu plus de 4 MW en 2015 (EWEA 2016) 

​

​

Figure 3.3

​

​

​

​

 

La comparaison des premiers stades de croissance des turbines à vapeur (1885-1913) et des éoliennes (1986-2014) montre que l'expansion récente n'est pas sans précédent : les capacités unitaires maximales des turbines à vapeur augmentaient plus rapidement (Smil 2017b).

 

Au cours des 28 années entre 1986 et 2014, les capacités maximales des éoliennes ont ainsi augmenté d'un peu plus de 11 % par an, tandis que les modèles Vestas ont augmenté d'environ 19 % par an entre 1981 et 2014, doublant à peu près tous les trois ans et huit mois. Ces taux de croissance élevés ont souvent été pointés par les défenseurs de l'éolien comme des preuves d'admirables avancées techniques ouvrant la voie à une transition accélérée des énergies fossiles vers les énergies non carbonées. En réalité, ces gains n'ont pas été sans précédent, car d'autres convertisseurs d'énergie ont enregistré des gains similaires, voire supérieurs, au cours des premiers stades de leur développement. En 28 ans, entre 1885 et 1913, la plus grande capacité des turbines à vapeur est passée de 7,5 kW à 20 MW, soit une croissance exponentielle annuelle moyenne de 28 % (figure 3.3). Et alors que la croissance ultérieure des capacités des turbines à vapeur a fait progresser la taille maximale de deux ordres de grandeur (jusqu'à 1,75 GW en 2017), les éoliennes n'ont jamais pu connaître des gains similaires, c'est-à-dire des capacités unitaires de l'ordre de 800 MW.

 

Même deux autres doublements consécutifs en moins de huit ans seront impossibles : ils aboutiraient à une turbine de 32 MW avant 2025. Le projet Upwind a publié en 2011 une préconception d'une turbine offshore de 20 MW basée sur une mise à l'échelle similaire (Peeringa et al. 2011). La machine à trois pales aurait un diamètre de rotor de 252 m (plus de trois fois l'envergure des ailes du plus grand avion de ligne du monde, un Airbus A380), un diamètre de moyeu de 6 m et des vitesses de vent d'entrée et de sortie de 3 et 25 m/s. Mais doubler la puissance d'une turbine

n'est pas un simple problème d'échelle : alors que la puissance d'une turbine augmente avec le carré de son rayon, sa masse (c'est-à-dire son coût) augmente avec le cube du rayon (Hameed et Vatn 2012). Malgré cela, il existe des conceptions de turbines de 50 MW avec des pales flexibles (et escamotables) de 200 m de long et des tours plus hautes que la tour Eiffel.

 

Bien sûr, prétendre qu'une telle structure est techniquement possible parce que la tour Eiffel atteignait déjà 300 m en 1889 et que les pétroliers géants et les porte-conteneurs font près de 400 m de long (Hendriks 2008) revient à commettre une erreur catégorique grossière, car aucune de ces structures n'est verticale et surmontée de pièces mobiles massives. En outre, la conception de pales réelles capables de résister à des vents de 235 km/h représente un défi énorme. Par conséquent, il est certain que la croissance de la capacité des éoliennes ne suivra pas la trajectoire exponentielle établie par les développements de 1991-2014 : une autre courbe en S se forme, car les taux d'augmentation annuelle viennent de commencer, inexorablement, à décliner.

 

Et d'autres limites sont en jeu. Même si les capacités maximales ont doublé en moins de quatre ans, les meilleurs rendements de conversion des grandes éoliennes ont stagné à environ 35 %, et leurs gains futurs sont fondamentalement limités. Contrairement aux gros moteurs électriques (dont le rendement dépasse 99 %) ou aux meilleures chaudières au gaz naturel (dont le rendement dépasse 97 %), aucune éolienne ne peut fonctionner avec un rendement aussi élevé. La part maximale de l'énergie cinétique du vent qui peut être exploitée par une turbine est de 16/27 (59%) du débit total, une limite connue depuis plus de 90 ans (Betz 1926).

 

Vapeur : Chaudières, moteurs et turbines

 

L'exploitation de la vapeur générée par la combustion de combustibles fossiles a constitué un changement révolutionnaire. La vapeur a fourni la première source d'énergie cinétique inanimée qui pouvait être produite à volonté, mise à l'échelle sur un site choisi et adaptée à une variété croissante d'utilisations stationnaires et mobiles. L'évolution a commencé avec des moteurs à vapeur simples et inefficaces qui ont fourni de l'énergie mécanique pendant près de deux siècles d'industrialisation, et elle a atteint ses plateaux de performance avec les grandes turbines à vapeur hautement efficaces dont le fonctionnement fournit aujourd'hui la majeure partie de l'électricité mondiale. Ces deux convertisseurs doivent être alimentés par de la vapeur générée dans des chaudières, des dispositifs dans lesquels la combustion convertit l'énergie chimique des combustibles en énergie thermique et cinétique d'un fluide de travail chaud (et maintenant aussi très pressurisé).

 

Chaudières

 

Les premières chaudières du 18e siècle étaient de simples coquilles de cuivre rivetées où la vapeur était élevée à la pression atmosphérique. James Watt était réticent à travailler avec autre chose que de la vapeur à la pression atmosphérique (101,3 kPa) et ses moteurs avaient donc un rendement limité. Au début du 19e siècle, les pressions de fonctionnement ont commencé à augmenter car les chaudières étaient conçues pour une utilisation mobile. Les chaudières devaient être construites à partir de tôles de fer et prendre une forme cylindrique horizontale adaptée au placement sur des

navires ou des chariots à roues. Oliver Evans et Richard Trevithick, les deux pionniers de la vapeur mobile, ont utilisé de telles chaudières à haute pression (l'eau remplissant l'espace entre deux coquilles cylindriques et une grille de feu placée à l'intérieur du cylindre interne) et, en 1841, la pression de la vapeur dans les moteurs Cornish avait dépassé 0,4 MPa (Warburton 1981 ; Teir 2002).

 

De meilleures conceptions ont été introduites au fur et à mesure de l'expansion du transport ferroviaire et de la conquête de la navigation par la vapeur. En 1845, William Fairbairn a fait breveter une chaudière qui faisait circuler des gaz chauds dans des tubes immergés dans le réservoir d'eau, et en 1856, Stephen Wilcox a fait breveter une conception avec des tubes d'eau inclinés placés au-dessus du feu. En 1867, Wilcox et George Herman Babcock ont créé Babcock, Wilcox & Company pour fabriquer et commercialiser des chaudières à tubes d'eau, et la conception de la société (avec de nombreuses modifications visant à améliorer la sécurité et l'efficacité) est restée le choix dominant pour les chaudières à haute pression pendant le reste du 19e siècle (Babcock & Wilcox 2017). En 1882, la première station de production d'électricité d'Edison à New York reposait sur quatre chaudières Babcock & Wilcox alimentées au charbon (chacune pouvant fournir environ 180 kW) produisant de la vapeur pour six moteurs à vapeur Porter-Allen (94 kW) directement reliés à des dynamos Jumbo (Martin 1922). À la fin du siècle, les chaudières alimentant les gros moteurs composés fonctionnaient avec des pressions de 1,2 à 1,5 MPa.

 

Le développement de la production d'électricité à partir de charbon nécessitait des volumes de chaudière plus importants et des rendements de combustion plus élevés. Ce double besoin a finalement été résolu par l'introduction de chaudières à charbon pulvérisé et de fours à parois tubulaires. Avant le début des années 1920, toutes les centrales électriques brûlaient du charbon broyé (morceaux de 0,5 à 1,5 cm) amené par des soutiers mécaniques sur des grilles mobiles au fond du four. En 1918, la Milwaukee Electric Railway and Light Company a effectué les premiers essais de combustion de charbon pulvérisé. Le combustible est désormais finement broyé (avec la plupart des particules de moins de 75 μm de diamètre, semblables à de la farine), soufflé dans un brûleur, et brûle à des températures de flamme de 1600-1800°C. Les fours à parois tubulaires (avec des tubes d'acier recouvrant entièrement les parois intérieures du four et chauffés par le rayonnement des gaz de combustion chauds) ont permis d'augmenter plus facilement l'apport de vapeur demandé par des turbines à vapeur plus grandes.

 

Les grandes chaudières de la fin du XIXe siècle fournissaient de la vapeur à des pressions ne dépassant pas 1,7 MPa (norme pour les navires de la Royal Navy) et à une température de 300°C ; en 1925, les pressions étaient passées à 2-4 MPa et les températures à 425°C, et en 1955, les maxima étaient de 12,5 MPa et 525°C (Teir 2002). L'amélioration suivante est venue avec l'introduction des chaudières supercritiques. Au point critique de 22,064 MPa et 374°C, la chaleur latente de la vapeur est nulle et son volume spécifique est le même que celui d'un liquide ou d'un gaz ; les chaudières supercritiques fonctionnent au-dessus de ce point où il n'y a pas d'ébullition et où l'eau se transforme instantanément en vapeur (un fluide supercritique). Ce procédé a été breveté par Mark Benson en 1922 et la première petite chaudière a été construite cinq ans plus tard, mais l'adoption à grande échelle de ce concept n'a eu lieu qu'avec l'introduction d'unités commerciales supercritiques dans les années 1950 (Franke 2002).

 

La première chaudière supercritique (31 MPa et 621°C) a été construite par Babcock & Wilcox et GE en 1957 dans l'unité Philo 6 dans l'Ohio, et la conception s'est rapidement diffusée au cours des années 1960 et 1970 (ASME 2017 ; Franke et Kral 2003). Les grandes centrales sont désormais alimentées par des chaudières produisant jusqu'à 3 300 t de vapeur par heure, avec des pressions le plus souvent comprises entre 25 et 29 MPa et des températures de vapeur jusqu'à 605°C et 623°C pour le réchauffage (Siemens 2017a). Au cours du XXe siècle, les trajectoires des grandes chaudières ont été les suivantes : les pressions de fonctionnement typiques ont été multipliées par 17 (de 1,7 à 29 MPa), les températures de la vapeur ont doublé, le débit maximal de vapeur (kg//s, t/h) a augmenté de trois ordres de grandeur et la taille des turbogénérateurs desservis par une seule chaudière est passée de 2 MW à 1 750 MW, soit un gain de 875 fois.

​

​

 

Moteurs à vapeur stationnaires

 

Les dispositifs simples démontrant la puissance de la vapeur ont une longue histoire, mais la première machine commerciale utilisant la vapeur pour pomper de l'eau n'a été brevetée par Thomas Savery en Angleterre qu'en 1699 (Savery 1702). La machine n'avait pas de piston, sa plage de travail était limitée et son efficacité était médiocre (Thurston 1886). La première machine à vapeur utile, bien qu'encore très inefficace, a été inventée par Thomas Newcomen en 1712 et, après 1715, elle a été utilisée pour pomper l'eau des mines de charbon. Les moteurs Newcomen typiques avaient une puissance de 4 à 6 kW, et leur conception simple (fonctionnant à la pression atmosphérique et condensant la vapeur sur la face inférieure du piston) limitait leur efficacité de conversion à 0,5 % au maximum, ce qui limitait leur utilisation initiale aux mines de charbon disposant d'un approvisionnement en combustible sur place (Thurston 1886 ; Rolt et Allen 1997). Les améliorations apportées par John Smeaton ont permis de doubler ce faible rendement et de porter la puissance nominale à 15 kW. Les moteurs ont également été utilisés pour le pompage de l'eau dans certaines mines de métaux, mais seul le condenseur séparé de James Watt a ouvert la voie à de meilleures performances et à une adoption généralisée.

​

 

La clé de la réussite de Watt est décrite dans les premières phrases de sa demande de brevet de 1769 :

 

Ma méthode pour réduire la consommation de vapeur, et par conséquent de combustible, dans les machines à feu, repose sur les principes suivants : Premièrement, la cuve dans laquelle les forces de la vapeur doivent être employées pour faire fonctionner le moteur, qui est appelée cylindre dans les machines à feu communes, et que j'appelle cuve à vapeur, doit, pendant tout le temps que le moteur fonctionne, être maintenue aussi chaude que la vapeur qui y entre ... Deuxièmement, dans les moteurs qui doivent fonctionner entièrement ou partiellement par condensation de la vapeur, la vapeur doit être condensée dans des cuves distinctes des cuves ou cylindres à vapeur, bien que communiquant occasionnellement avec eux. J'appelle ces récipients des condenseurs, et pendant que les moteurs fonctionnent, ces condenseurs doivent au moins être maintenus aussi froids que l'air dans le voisinage des moteurs par l'application d'eau ou d'autres corps froids. (Watt 1769, 2)

 

Lorsque l'extension du brevet original a expiré en 1800, la société de Watt (un partenariat avec Matthew Boulton) avait produit environ 500 moteurs dont la capacité moyenne était d'environ 20

kW (plus de cinq fois celle des moulins à eau anglais contemporains typiques, près de trois fois celle des moulins à vent de la fin du XVIIIe siècle) et dont le rendement ne dépassait pas 2,0 %. Le plus grand moteur de Watt avait une puissance d'un peu plus de 100 kW, mais cette puissance a été rapidement augmentée par les développements postérieurs à 1800, qui ont donné naissance à des moteurs stationnaires beaucoup plus grands, utilisés non seulement dans l'industrie minière, mais aussi dans tous les secteurs de l'industrie manufacturière, de la transformation des aliments au forgeage des métaux. Au cours des deux dernières décennies du XIXe siècle, de grandes machines à vapeur ont également été utilisées pour faire tourner des dynamos dans les premières centrales électriques alimentées au charbon (Thurston 1886 ; Dalby 1920 ; von Tunzelmann 1978 ; Smil 2005).

 

Le développement des moteurs à vapeur stationnaires a été marqué par l'augmentation des capacités unitaires, des pressions de fonctionnement et des rendements thermiques. L'innovation la plus importante à l'origine de ces progrès est la machine à vapeur composée qui détend la vapeur haute pression d'abord en deux, puis couramment en trois, et finalement même en quatre étapes afin de maximiser l'extraction d'énergie (Richardson 1886). Le concept a été mis au point par Arthur Woolf en 1803 et les meilleurs moteurs composés de la fin des années 1820 approchaient un rendement thermique de 10 % et l'avaient légèrement dépassé une décennie plus tard. En 1876, une énorme machine à vapeur à deux cylindres à triple expansion (14 m de haut, 3 m de course et 10 m de volant d'inertie) conçue par George Henry Corliss était la pièce maîtresse de la Centennial Exposition de Philadelphie : sa puissance maximale était légèrement supérieure à 1 MW et son rendement thermique atteignait 8,5% (Thompson 2010 ; figure 3.4).

 

 

Figure 3.4

 

Machine à vapeur Corliss à l'Exposition du Centenaire de l'Amérique à Philadelphie en 1876. Photographie de la Bibliothèque du Congrès.

 

Les machines à vapeur stationnaires sont devenues les moteurs principaux et véritablement omniprésents de l'industrialisation et de la modernisation, et leur déploiement à grande échelle a contribué à transformer tous les segments traditionnels des économies nouvellement industrialisées et à créer de nouvelles industries, de nouvelles opportunités et de nouvelles dispositions spatiales qui allaient bien au-delà des applications stationnaires. Au cours du 19e siècle, leur capacité nominale maximale a plus que décuplé, passant de 100 kW à 1 ou 2 MW, et les plus grandes machines, tant aux États-Unis qu'au Royaume-Uni, ont été construites au cours des premières années du 20e siècle, au moment même où de nombreux ingénieurs concluaient que les faibles rendements de conversion faisaient de ces machines un choix inférieur à celui des turbines à vapeur, qui s'amélioraient rapidement (leur croissance sera abordée plus loin).

 

En 1902, la plus grande centrale électrique au charbon d'Amérique, située sur l'East River entre les 74e et 75e rues, était équipée de huit énormes moteurs à vapeur alternatifs Allis-Corliss, chacun d'une puissance de 7,45 MW et entraînant directement un alternateur Westinghouse. Les plus grandes machines à vapeur de Grande-Bretagne sont apparues trois ans plus tard.

L'électronique


 

L'histoire de l'électronique a un début théorique et de nombreux débuts pratiques. James Clerk Maxwell, s'appuyant sur les découvertes de Michael Faraday, a formulé sa théorie des ondes électromagnétiques se propageant à la vitesse de la lumière en 1865 et l'a développée en détail huit ans plus tard (Maxwell 1865, 1873). Mais ni lui ni aucun autre physicien n'a entrepris leur étude immédiate. Et les deux premières démonstrations réelles de ces ondes n'ont pas non plus abouti à quelque chose de pratique. La première a eu lieu à la fin de l'année 1879 et au début de l'année 1880 à Londres, où David Edward Hughes a pu non seulement émettre mais aussi recevoir des ondes invisibles, d'abord à l'intérieur, puis à l'extérieur, sur des distances allant jusqu'à 450 m, mais il n'a pas réussi à convaincre les experts de la Royal Society "de la véracité de ces ondes électriques aériennes" et n'a pas soumis de document résumant ses travaux (Hughes 1899).


 

En 1883, Thomas Edison déposa un brevet pour un appareil "montrant la conductivité des courants continus à travers le vide" et le présenta à l'Exposition internationale d'électricité de Philadelphie en 1884 (Edison 1884). L'appareil s'appelle une lampe à incandescence tripolaire et la "force éthérique" est connue sous le nom d'effet Edison, une simple curiosité pour laquelle le grand inventeur ne trouve aucune application pratique. La percée a eu lieu entre 1886 et 1888 lorsque Heinrich Hertz a délibérément généré et reçu des ondes électromagnétiques dont il a placé les fréquences avec précision "dans une position intermédiaire entre les oscillations acoustiques des corps pondérables et les oscillations lumineuses de l'éther" (Hertz 1887, 421). En hommage à son invention, l'unité de fréquence (cycles/seconde) a été baptisée hertz.


 

La motivation de Hertz était de confirmer la théorie de Maxwell et ses découvertes ont rapidement été appliquées à la télégraphie sans fil (premiers essais à courte distance par Oliver J. Lodge et Alexander S. Popov en 1894 et 1895, première transmission transatlantique par Guglielmo Marconi en 1901) et aux diffusions de voix et de musique (premières transmissions à longue distance par Reginald A. Fessenden en 1906). Après la Première Guerre mondiale sont apparus les émissions de radio publique (premières licences au début des années 1920), la télévision en noir et blanc (émission expérimentale en 1929, émissions programmées aux États-Unis et au Royaume-Uni dans les années 1930) et le radar (Robert Watson-Watt en 1935). Après la Deuxième Guerre mondiale, les premiers ordinateurs électroniques, la télévision en couleur, les télécommunications par satellite, la téléphonie cellulaire et le World Wide Web sont apparus (Smil 2005, 2006b).

sources :

​

Taux d'addition phanérozoïque à la croûte continentale et croissance de la croûte

Arthur Reymer , Gérald Schubert

Première publication: Février 1984

https://doi.org/10.1029/TC003i001p00063

​

​

Enquêtes sur la tectonique du plateau tibétain

BC Burchfiel , Erchie Wang

Société géologique d'Amérique , 2008 - 122 pages

https://books.google.be/books?hl=fr&lr=&id=BligM888ki0C&oi=fnd&pg=PA45&dq=Burchfiel+et+Wang+2008&ots=JNXuDOptUc&sig=E2716bH-lOmEXB-CFS4Lh3KLKbQ#v=onepage&q=Burchfiel%20et%20Wang%202008&f=false

​

http://vaclavsmil.com/2013/11/01/making-modern-world-materials-dematerialization/

​

Malyshev, D., Dhami, K., Lavergne, T. et al. 

Un organisme semi-synthétique avec un alphabet génétique étendu. 

Nature 509, 385-388 (2014). 

https://doi.org/10.1038/nature13314

​

Keith DA, Rodríguez JP, Rodríguez-Clark KM, Nicholson E, Aapala K, Alonso A, et al. 

(2013) Fondements scientifiques pour une liste rouge des écosystèmes de l'UICN. 

PLoS ONE 8(5) : e62111. 

https://doi.org/10.1371/journal.pone.0062111

​

https://www.aei.org/carpe-diem/new-us-homes-today-are-1000-square-feet-larger-than-in-1973-and-living-space-per-person-has-nearly-doubled/

​

Taille du verre à vin en Angleterre de 1700 à 2017 : une mesure de notre temps

Zupan & al.

BMJ 2017 ; 359 (Publié le 13 décembre 2017)

doi : https://doi.org/10.1136/bmj.j5623 

​

http://www.tvhistory.tv/1960s-Advertising

Fernand Braudel 1979

​

Karl W. Butzer

Première civilisation hydraulique en Égypte : une étude sur l'écologie culturelle

Chicago : University of Chicago Press, 1976P

p. xv + 134 ; 4 tableaux, 14 figures

https://oi.uchicago.edu/sites/oi.uchicago.edu/files/uploads/shared/docs/early_hydraulic.pdf

​

G Stanhill,
An urban agro-ecosystem: The example of nineteenth-century Paris,
Agro-Ecosystems, Volume 3, 1976,
Pages 269-284,
ISSN 0304-3746,
https://doi.org/10.1016/0304-3746(76)90130-X.
https://www.sciencedirect.com/science/article/pii/030437467690130X

​

Clark, Gregory.

“The Condition of the Working Class in England, 1209–2004.” 

Journal of Political Economy, vol. 113, no. 6, 2005, pp. 1307–1340. 

JSTOR, www.jstor.org/stable/10.1086/498123.

Dernier accès 13 June 2021.

​

https://paris-atlas-historique.fr/

​

Minetti, A.

Efficacité des systèmes postaux express équins. 

Nature 426, 785-786 (2003). 

https://doi.org/10.1038/426785a

Date d'émission18 décembre 2003

https://doi.org/10.1038/426785a

​

muralidhar2020energy,
Energy Efficient Computing Systems: Architectures, Abstractions and Modeling to Techniques and Standards}, 
Rajeev Muralidhar and Renata Borovica-Gajic and Rajkumar Buyya},

arXiv 2020
eprint 2007.09976

https://arxiv.org/abs/2007.09976

​

Frey, Carl Benedikt ; Osborne, Michael

rapport des tendances de l'automatisation et qui souligne la lenteur de la création d'emplois causée en partie par l'automatisation croissante

Mots-clés :  Changement technologique ; Création d'emplois ; Tendance

Oxford Martin School et Citi GPS, 2015 107 p.

http://www.oxfordmartin.ox.ac.uk/downloads/reports/Citi_GPS_Technology_Work.pdf

​

https://clio-infra.eu/Indicators/BookTitlesperCapita.html

​

Reinsel & al. 2018

Rapport d'IDC et de Seagate.

https://resources.moredirect.com/white-papers/idc-report-the-digitization-of-the-world-from-edge-to-core

​

https://www.emarketer.com/content/us-time-spent-with-media-2021-update

Consulté le 13 juin 2021

​

https://books.openedition.org/msha/8253?lang=fr

​

Smil V.

Harvesting the biosphere: the human impact.

Popul Dev Rev. 2011;37(4):613-36.

doi: 10.1111/j.1728-4457.2011.00450.x.

PMID: 22319767.

https://doi.org/10.1111/j.1728-4457.2011.00450.x

​

https://clio-cr.clionautes.org/la-culture-de-la-croissance-les-origines-de-leconomie-moderne.html

​

Philippe Askenazy, 

« Thomas Piketty, Capital et idéologie », Sociologie du travail 

[En ligne], Vol. 62 - n° 4 | Octobre-Décembre 2020, mis en ligne le 12 décembre 2020,

consulté le 13 juin 2021. 

URL : http://journals.openedition.org/sdt/35816

DOI : https://doi.org/10.4000/sdt.35816

​

Unamployement & Poor Relief .

AM Carr-Saunders

Première publication: janvier 1936

https://doi.org/10.1111/j.1467-923X.1936.tb01293.x

https://onlinelibrary.wiley.com/doi/abs/10.1111/j.1467-923X.1936.tb01293.x

​

bottom of page