Consensus et vérité, risque et précaution… L’exemple des évolutions climatiques récentes

Intervention de Vincent Courtillot, Directeur de l’Institut de Physique du Globe de Paris, membre de l’Académie des Sciences, au séminaire L’après-Kyoto: Cancún et les enjeux de la prévision climatique, tenu le 15 novembre 2010.

Ce n’est pas la première fois qu’Hervé Le Treut et moi nous retrouvons côte à côte pour exposer nos idées sur ce sujet. En fait, j’aurais préféré que son exposé précédât le mien dans la mesure où je vais apporter des interrogations par rapport au corps de doctrine que développe le Groupement Intergouvernemental d’Etude du Climat – dont Hervé Le Treut est un acteur important – depuis un peu plus de vingt ans qu’il existe.

Dans cet exposé, je pars de l’hypothèse que vous avez tous des notions de base sur les thèses du GIEC et leurs évolutions, qui ont été assez largement exposées depuis vingt ans, et sur les conclusions qu’il a remises à l’ONU et aux gouvernements des pays qui composent l’ONU.

Dans les travaux du GIEC, il existe plusieurs étapes, en particulier dans le rapport de 2007 qui comporte trois volumes importants (un millier de pages chacun). Le premier concerne essentiellement la reconnaissance scientifique des changements climatiques, le second en regarde un certain nombre de conséquences et le troisième en fait l’analyse économique.

Il est très important à mes yeux de séparer ces diverses analyses et j’essaierai, pour l’essentiel de mon exposé, de m’en tenir à ce qui fait l’objet du premier rapport du GIEC, c’est-à-dire à l’analyse scientifique et, en particulier, aux observations sur lesquelles se basent les idées qu’il développe.

J’évoquerai rapidement à la fin de mon propos les conséquences qu’on peut en tirer et surtout les réactions qu’on peut avoir en tant que citoyen en insistant sur le fait que j’abandonnerai alors le « chapeau » du scientifique qui n’a pas forcément raison mais qui a une certaine légitimité pour parler de science et de recherche. Pour animer le débat, je proposerai des questions et des remarques de citoyen qui n’ont pas plus de valeur que celles que chacun d’entre nous peut faire.

S’il est important de séparer les rôles c’est que l’acrimonie qui, dans ce débat, s’est exprimée entre certains chercheurs est en partie liée à ce mélange relativement malsain entre des arguments de nature scientifique et des arguments de nature politique sans qu’on distingue bien à quel moment on passe de l’un à l’autre et sans que soit bien claire l’autorité de l’un ou de l’autre.

« Consensus et vérité, risque et précaution …l’exemple des évolutions climatiques récentes », le titre de mon exposé comprend quelques mots-clés que je vous proposerai comme des sujets de discussion.

Je voudrais d’abord insister sur l’importance des observations dans le domaine des sciences de la nature. Le climat est un concept compliqué qui concerne l’atmosphère et l’hydrosphère. En qualité de géologue, je suis plutôt un spécialiste de la terre solide mais, comme beaucoup de mes collègues, j’ai eu à m’intéresser à l’interface entre terre solide et terre fluide dans lequel nous vivons avec l’ensemble de la biosphère et dont les évolutions nous importent considérablement. J’insisterai aussi sur la nécessité de donner des incertitudes et des marges d’erreur quand on rapporte ces observations. En effet, on nous présente souvent un résultat sans préciser le degré de confiance ou d’incertitude qui affecte les données sur lesquelles il repose.

Je commencerai par une illustration à partir des températures. Elles ne sont évidemment pas le seul élément du climat, lequel se définit à partir d’un grand nombre de paramètres : températures, pression, humidité, ensoleillement, nébulosité, chute de divers types de précipitations, vents (la circulation des vents est un élément essentiel). Les climatologues ont admis comme définition de départ que le climat est la variation moyennée à long terme (une moyenne de la météorologie sur trente ans) et diffère par là de la météorologie (du « temps qu’il fait »).

La météo est difficile à prévoir au-delà de quelques jours. Il n’est pas certain qu’on puisse jamais dépasser la limite d’une ou deux semaines. C’est le domaine où a été définie la notion de système chaotique, rendant célèbre l’image – un peu fausse mais parlante – de l’aile de papillon qui, si elle bat un jour à New York, modifie le climat à Paris quelques jours plus tard. De façon générale, la météo est chaotique et difficile à prédire au-delà de quelques semaines. Le climat, qui nous intéresse, s’exprime en dizaines d’années. Nous essaierons de savoir s’il est lui-même prédictible ou chaotique. Si je choisis l’illustration par les températures, c’est parce qu’elle est retenue par la plupart des auteurs – même si elle ne doit pas être la seule – et qu’elle est très présente dans les rapports du GIEC (IPCC en anglais).

Note de la Fondation Res Publica : M. Courtillot s’appuie dans la suite de son exposé sur le document ci-dessous. Il suffit d’utiliser les flèches pour changer de diapositive

=> cf. présentation ci-dessus, diapositive n°3

Cette figure, extraite du dernier rapport, publié en 2007, montre, pour l’Amérique du nord et pour l’Europe, l’évolution de la température moyenne ou, plus exactement, l’anomalie de température définie comme la température repérée par rapport à une valeur moyenne sur une certaine période d’une trentaine d’années. Elle est graduée en degrés sur l’axe de gauche (de 0° à 2°). Il faut avoir présent à l’esprit le fait qu’on regarde des objets, des mesures physiques très petites par rapport à la variabilité naturelle d’une station météorologique qui enregistre entre le jour, la nuit, l’hiver et l’été, d’une année sur l’autre, une variation de plusieurs dizaines de degrés, donc à une échelle beaucoup plus grande que celle qui est représentée ici. De façon très simplifiée, la courbe observée est représentée par le trait noir gras. La bande bleue est l’ensemble des calculs faits à partir des modèles numériques de climat avec tous les facteurs forçants connus au moment de la rédaction de ce rapport, sauf l’addition de gaz carbonique qui augmente de façon considérable depuis le début de l’ère industrielle. Cette augmentation est attribuée au fait que l’homme brûle en quelques dizaines d’années les réserves de carbone accumulées au cours des temps géologiques en dizaines ou centaines de millions d’années. Il ne fait aucun doute que cette exploitation, incroyablement rapide par rapport au temps d’enfouissement du carbone dans les temps géologiques, est tout à fait anormale et liée à l’homme. Le gaz carbonique présent dans l’atmosphère que nous respirons est passé, en moyenne pour la terre, de 280 ppm (parties par million) à 390 ppm, une augmentation de l’ordre de 30% qui accélère au gré de la consommation humaine au fil de l’ère industrielle. On observe que quand on ne met pas le gaz carbonique dans ces modèles tels qu’on les calcule, on n’arrive pas à prédire l’augmentation des températures durant les trente dernières années du XXème siècle. En revanche, le nuage rose représente les mêmes calculs en ajoutant les mécanismes de l’effet de serre, le gaz carbonique et les gaz qui l’accompagnent tels le méthane et l’ozone, sans oublier la vapeur d’eau, le premier gaz à effet de serre sur terre. Le nuage rose semble rendre compte de cette augmentation, nettement mieux que lorsque le modèle n’intègre pas le gaz carbonique. Cela semble indiquer que ce modèle est le bon. Face à cette figure pédagogiquement et psychologiquement déterminante du rapport de 2007, tout le monde conclut, comme le rapport (qui lui donne un degré de confiance de 90%), que le gaz carbonique d’origine anthropogénique est responsable du réchauffement climatique observé depuis trente ou quarante ans, de son accélération la plus récente même si ce réchauffement a pu commencer dès le XIXème siècle.

Pour diverses raisons que je n’ai pas le temps de résumer ici, avec un groupe de collègues à l’Institut de physique du globe de Paris, nous avons eu quelques doutes sur la validité de ces courbes noires et nous avons souhaité les recalculer.
=> cf. présentation ci-dessus, diapositive n°4

Voici le calcul de la température minimale journalière moyenne en Europe, prise à partir des données quotidiennes de quarante-quatre stations météorologiques. Nous avons analysé la température minimum, la température maximum, la température moyenne et son écart. Toutes ces séries donnent essentiellement le même résultat. Ce résultat est moyenné sur une fenêtre glissante de quelques années, pour diminuer la variabilité considérable quand on calcule ce terme jour à jour, toujours en degrés Celsius (ou centigrades). Même si on observe une augmentation de la température d’un peu moins de 1°C entre le début et la fin du XXème siècle, la façon dont elle monte peut être interprétée de diverses façons. Celle que nous retenons est le fait qu’en supprimant les données à partir de 1986, on ne voit pratiquement aucune variation, c’est-à-dire qu’il n’y a ni réchauffement ni refroidissement climatique majeurs en Europe pendant les trois quarts du XXème siècle. Vers 1986-87 une augmentation de l’ordre de 1°C se produit – cette rapidité nous semble être une observation importante – et depuis on observe un palier, voire une légère augmentation. Cette « marche d’escalier » nous paraît quelque chose d’important, avec une variabilité qui elle-même est importante.

Si on refait le même travail pour les États-Unis, avec les données quotidiennes de cent cinquante stations sur cent ans, on obtient cette courbe :
=> cf. présentation ci-dessus, diapositive n°5

La signature de la courbe, quand on regarde la façon dont elle s’agite, dont elle monte et descend est assez semblable mais la tendance à long terme diffère. Si on la simplifie considérablement, on voit qu’elle n’est pas trop mal rendue par une séquence de trois segments assez linéaires dans lesquels la température a augmenté entre 1910 et 1930 et entre 1970 et 2000. Le réchauffement climatique est donc indiscutable en Amérique du nord mais sensiblement égal, en valeur et en pente, à ce qui s’était passé pendant les trente premières années du siècle, tandis qu’entre 1930 et 1970 la température est revenue à sa valeur de 1910. Elle vient de remonter à peu près au niveau de 1930. Il est toutefois montré qu’aux États-Unis la température la plus élevée du siècle a été atteinte en 1930 et non en 1998. Mais les valeurs sont si proches que la différence statistique ne me paraît pas significative.

En comparant les deux courbes que je viens de décrire aux courbes noires du rapport du GIEC, des différences très importantes apparaissent : la « marche d’escalier » en Europe est arrondie et estompée et nous ne pensons pas qu’elle soit bien expliquée par le modèle en rose. Pour ce qui est de l’Amérique du nord, le maximum de 1930 a été complètement effacé et on a l’impression qu’il fait beaucoup plus chaud en l’an 2000 qu’en 1930, ce qui, à notre avis, est inexact.

Double résultat, pour des raisons compréhensibles : la science avance petit à petit, au gré des hypothèses qui orientent le traitement des données. Nous pensons que, dans le rapport du GIEC, les courbes moyennes observées de l’Amérique du nord et de l’Europe ne sont pas fausses mais ne sont pas assez exactes et ne donnent pas assez clairement l’incertitude qu’il faut y appliquer. Quant aux modèles en rose, ils n’expliquent pas bien les changements climatiques du XXème siècle et la grande différence qui existe entre l’Europe et l’Amérique du nord. Étrangement, ces courbes, dans le rapport du GIEC sont assez semblables alors que celles que nous avons recalculées sont assez dissemblables. Ceci nous a donné quelque inquiétude. En effet cet énorme travail avait été réalisé en plusieurs dizaines d’années par le personnel abondant de nombreux centres de données. Or nous n’avons disposé que de quelques années pour refaire ce travail et il faudrait le refaire pour tous les autres continents puis pour l’océan mondial qui représente deux tiers de la surface de la terre afin d’obtenir la courbe globale ! Nous avons même des doutes, des interrogations, sur ce que signifie le fait d’ajouter entre elles des courbes si différentes pour fabriquer une température moyenne globale. On apprend très vite en thermodynamique que les températures ne sont pas des grandeurs qui s’ajoutent et que, si on veut en faire la moyenne, il faut connaître l’histoire de la façon dont on a mis en contact les régions. Dans le cas qui nous intéresse, elles sont évidemment en contact permanent.

Si, malgré cette interrogation, on décide d’aller sur un site majeur, mondial – ici le Meteorological Office britannique (Met office) – pour regarder la température globale, voici la courbe qu’on obtient :
=> cf. présentation ci-dessus, diapositive n°7

Cette courbe (réalisée avec des données mensuelles) montre bien une augmentation de la température depuis 1950. Mais ce réchauffement, dont je vous ai tout d’abord montré qu’il est très différent d’une région à l’autre et variable d’une période à l’autre, est assez variable même à l’échelle globale.
Parmi beaucoup de tendances qu’on pourrait s’amuser à dessiner, je vous propose celle-ci :
=> cf. présentation ci-dessus, diapositive n°8

Vous retrouvez une montée non négligeable de 1910 à 1930, suivie de façon plus ou moins complexe par un plateau, voire une descente, jusqu’en 1970. Le fameux réchauffement des trente dernières années n’est pas très différent de la partie 1910-1930. Et, depuis 1998, une période trop courte pour qu’on ait une sûreté statistique (le climat se définit sur trente ans) où tous les minimums, tous les maximums et toutes les valeurs moyennes indiquent une décroissance. J’insiste là-dessus parce que c’est un des exemples de l’esprit critique que vous devez exercer quand vous entendez un rapport sur ce sujet sans avoir sous les yeux les données d’observation. On peut, à partir de cette courbe, remarquer que le réchauffement climatique s’est peut-être arrêté depuis douze ans et que, même s’il doit repartir, il nous faudrait comprendre les raisons de cette légère décroissance. Le même graphe permet de dire que tous les maximums du XXème siècle se retrouvent dans les dix premières années du XXIème siècle. C’est ce qui, inlassablement répété à la radio et à la télévision, a fabriqué la conviction que le réchauffement était exceptionnel et toujours croissant. Or, le fait de retrouver les maximums dans les douze dernières années, alors que les températures moyennes descendent est une conséquence mathématique de la forme et de la variabilité des courbes d’un mois à l’autre et d’une année à l’autre. Deux affirmations exactes peuvent donc laisser penser, l’une que le climat se refroidit, l’autre qu’il se réchauffe.

À mon avis, depuis douze ans, il a plutôt tendance à refroidir. En tout cas, il nous faudra attendre quelques dizaines d’années pour voir si le phénomène s’inverse.

Le problème, c’est que cent ans c’est beaucoup trop court. Il nous faut regarder l’échelle de mille ans. Le géologue doit et sait aller à l’échelle de dix mille, cent mille, un million d’années.

Voici un autre résultat qui, présent dans des versions antérieures du rapport du GIEC, a été à mon avis très important.
=> cf. présentation ci-dessus, diapositive n°9

La fameuse « courbe en crosse de hockey » de Mann prétend reconstituer la température moyenne du globe sur les mille dernières années. Elle semble montrer que le climat n’a cessé de se refroidir légèrement de l’an mille à 1900 et que depuis cent ans, les températures augmentent comme jamais. Cette conclusion : « Jamais la température moyenne du globe n’a été aussi élevée et jamais elle ne s’était élevée aussi vite » a longtemps empreint les esprits. Or j’affirme, avec de plus en plus de sûreté, que ces deux affirmations sont purement et simplement fausses. Les gens qui ont construit cette courbe ne disposaient pas de données de températures mesurées au thermomètre avant 1900 sur le globe entier (les températures instrumentales correspondent aux courbes orangées). Ils ont donc utilisé une donnée indirecte très astucieuse et très communément utilisée qui est l’épaisseur des cernes d’accroissement des arbres. Les statistiques sur un grand nombre de tranches d’arbres d’espèces ayant vécu suffisamment longtemps et couvrant une période suffisamment grande donnent cette courbe. Le problème est que cette méthode a été révélée incomplète par une étude plus tardive de Moberg et de ses collaborateurs, publiée dans le journal Nature en 2007. Cet auteur fait remarquer que les arbres sont très capables d’enregistrer à travers leurs cernes d’accroissement les variations rapides de la température ou de la pluviosité. Donc, les variations rapides sont bien vues par les arbres et reflètent bien les températures. En revanche si la température se maintient à une valeur donnée, très chaude ou très froide, pendant des dizaines d’années, l’arbre, qui est un être vivant, s’y adapte et modifie la façon dont il synthétise son bois. Donc, en termes d’enregistrement, il élimine les variations lentes du climat.
=> cf. présentation ci-dessus, diapositive n°10

D’autres indicateurs indirects, ici les isotopes de l’oxygène dans les carottes de sédiments, enregistrent assez bien les variations lentes de la température mais très mal les variations rapides. Moberg, a combiné les deux et a reconstitué la courbe pour les deux mille dernières années. C’est la courbe du haut, qui, à la même échelle que la courbe du bas, la corrige notablement, non pas pour les variations rapides mais pour les variations lentes. On y retrouve ce qu’en Europe on connaissait depuis longtemps : l’existence d’un optimum climatique de quelques siècles vers l’an mille, suivi de quelques siècles d’un petit âge glaciaire. Je vous rappelle les toiles de Bruegel où les gens sont en train de patiner. Je vous rappelle les hivers désastreux des campagnes de Louis XIV ou celles de Napoléon. Le réchauffement apparaît à partir des XIXème et XXème siècles. L’augmentation des températures depuis l’an mille apparaît faible et ne peut être attribuée au gaz carbonique. Elle est probablement due à une fluctuation lente, millénaire du soleil. Un mécanisme qui nous reste à déterminer est responsable de ces variations. Des travaux plus récents, qui font l’objet du même type de débat que celui que nous avons ce soir, semblent indiquer que, statistiquement, la température moyenne actuelle et la vitesse à laquelle on l’a atteinte ne sont pas sensiblement différentes de ce qui s’est déjà passé vers l’an mille et peut-être vers l’an zéro au temps des Romains … voire vers l’an – 1000. On commence à sentir les prémices observationnelles de cette longue périodicité. Mais c’est un sujet de débat, les gens qui établissent ces mesures ne sont pas d’accord entre eux.

Après vous avoir montré ces analyses des données de températures et expliqué comment nos doutes se sont formés, je vais présenter très rapidement des extraits de nos travaux les plus récents.

Depuis cinq ans nous avons publié neuf articles scientifiques sur divers aspects, en poursuivant très clairement une hypothèse, comme on le fait en recherche. Notre hypothèse, qui pourrait être démontrée fausse, est la suivante : Ce que nous trouvons d’un peu incertain dans le rapport du GIEC nous fait penser que le rôle du soleil a été sous-estimé. Nous nous étonnons qu’on n’ait pas trouvé plus de signatures solaires dans les observations climatiques et, plus nous travaillons, plus nous en trouvons.

L’une des nombreuses façons de mesurer l’activité du soleil est l’existence de taches sur le soleil. Découvertes par Galilée, ces taches sont observées depuis.
=> cf. présentation ci-dessus, diapositive n°12

Elles varient selon un « cycle de onze ans « très variable en durée (il peut aller de neuf à quatorze ans) et en amplitude : entre 1650 et 1700, il n’y a eu aucune tache solaire alors que des centaines de taches ont été observées entre 1960 et 1970. Cela montre les variations considérables d’activité du soleil. En rouge, l’enveloppe de cette courbe montre que, non seulement le soleil bat avec un pouls irrégulier de l’ordre de onze ans, mais qu’il a des variations de beaucoup plus longue période. La période sans tache solaire de la deuxième moitié du XVIIème siècle correspond en partie au petit âge glaciaire. Après la montée irrégulière mais assez systématique depuis trois cents ans qui nous a fait culminer vers 1960, nous sommes actuellement dans une nouvelle phase de décroissance. Si on se focalise sur le XXème siècle, on voit que la courbe rouge ressemble à un M irrégulier qui monte jusqu’en 1950-1960, descend jusque dans les années 70, remonte jusque dans les années 80 et descend depuis. C’est ce M dont nous avons cherché la signature dans de très nombreuses données météorologiques.
=> cf. présentation ci-dessus, diapositive n°13

Sur le graphique correspondant à la Hollande, la courbe bleue représente l’activité du soleil au cours du XXème siècle où l’on retrouve ce M irrégulier. Cette courbe bleue ne connaît que la variabilité de l’activité du soleil tandis que la courbe verte représente la variabilité de la température dans les stations de Hollande. Elle ne connaît donc que la température en Hollande. Or la corrélation de ces deux courbes est excellente.

On peut l’étendre, tout en la discutant, aux données de l’Europe (incomplètes parce qu’on n’avait pas encore toutes les données nécessaires au moment où on a fait le calcul). On la retrouve maintenant dans un grand nombre d’indicateurs : dans les vents, dans la pression, dans la température de l’ouest des États-Unis. Ce travail, que nous avons publié, révèle, à notre avis, une signature solaire incontestable qui, à ma connaissance, n’est pas modélisée ni totalement comprise actuellement. Je ne dis pas que nous l’ayons comprise mais notre observation donne une piste à laquelle il nous paraît important de réfléchir.

Je vous épargne les huit résultats intermédiaires pour évoquer le dernier de ceux que nous ayons publiés qui relève un peu plus de ma discipline de géophysicien de la terre solide.

La terre ne tourne pas de façon absolument régulière et métronomique, la longueur du jour n’est pas toujours exactement de 86 400 secondes mais varie de quelques millisecondes que les astronomes et les géophysiciens savent mesurer avec une très grande précision.
=> cf. présentation ci-dessus, diapositive n°14

Cette courbe montre sur une quarantaine d’années, de 1963 à 2008, une composante de la longueur du jour (ou de la vitesse de rotation de la terre – il s’agit ici de la variation de période six mois) qui, bien que petite en amplitude (environ un dixième de milliseconde), subit des variations considérables en valeur relative (30%).
=> cf. présentation ci-dessus, diapositive n°15

Nous observons qu’une corrélation existe entre la courbe représentant les taches solaires et des indicateurs de l’activité solaire, ici les les rayons cosmiques.

Comment la rotation de la terre solide peut-elle être corrélée à l’activité d’un indicateur solaire ?

Nous suggérons que le passage se fait par les nuages.
Quant à la rotation de la terre à ces périodes (six mois), c’est tout simplement la rotation de l’atmosphère, au signe près. En raison de la loi physique de la conservation du moment angulaire, si une partie d’un objet isolé, déformable, tourne plus vite dans un sens, il faut qu’une autre partie tourne moins vite dans l’autre sens. Ici, on observe donc la somme du mouvement de tous les vents de l’atmosphère, de zéro à quarante kilomètres d’altitude, qui tournent le long des parallèles. Alors que la terre solide pulse au rythme du soleil, les vents pulsent de façon inverse, au même rythme.

Comment faire pulser ces vents zonaux de l’atmosphère ?
=> cf. présentation ci-dessus, diapositive n°17

Cette image très classique que l’on trouve dans tous les livres de climatologie et de météorologie montre le bilan des quantités de chaleur par unité de surface qui arrivent du soleil et sont ensuite réfléchies par les nuages, par le sol, transformées en rayonnement infrarouge, renvoyées par les nuages, absorbées, réfléchies.

La partie droite du diagramme montre le fameux effet de serre. 342 watts par m2 en moyenne arrivent du soleil au sommet de l’atmosphère. 77 de ces watts sont réfléchis par le sommet des nuages tandis qu’on observe des bilans considérables, en centaines de watts par m2, du côté de l’effet de serre. Mais l’effet additionnel dû au doublement du gaz carbonique n’est pas encore encore atteint (280 ppm il y a 150 ans, 390 ppm aujourd’hui, 560 ppm pour un doublement). S’il doublait, c’est environ 4 watts par m2 qui viendraient affecter ce bilan. Dans ce système instable et complexe, de faibles changements peuvent induire des évolutions très importantes pour nous.

Mais en modifiant les nuages de quelques %, puisqu’ils reflètent environ 80 watts par m2, 5% de variation feraient une variation de l’ordre de 4 watts par m2. Même en corrigeant ce chiffre par l’albédo (1), on retrouve des ordres de grandeur importants. Or, au moment du rapport de 2007, la modélisation des nuages était reconnue par le GIEC comme un des grands problèmes physiques, non encore suffisamment résolus.

Comment modéliser le fonctionnement des nuages ?
=> cf. présentation ci-dessus, diapositive n°18

Des physiciens, conduits par Mr Tinsley, ont rappelé que dans l’ionosphère, à 100 kilomètres au-dessus de nos têtes, circulent des courants électriques intenses modulés (à plusieurs dizaines de %) par l’activité du soleil. Nous vivons à la base de cet énorme condensateur et il y a 250 000 volts entre la surface du sol et le niveau de l’ionosphère. On a découvert que l’ionosphère n’est pas un condensateur isolant parfait, un courant électrique infime mais non négligeable de quelques pico ampères (10 – 12 ampère) passe à travers. Ce courant pourrait – c’est une hypothèse – charger positivement le sommet des nuages et négativement la partie inférieure, donc changer le champ électrique et par là la microphysique des nuages, la façon dont les noyaux – eau ou glace, s’agrègent, grossissent et augmentent la couverture nuageuse ou les précipitations.

C’est l’une des pistes (une autre piste passe par les rayons cosmiques), non démontrées à ce jour, qui nous font penser qu’il y a un circuit physique non absurde entre les variations de l’activité du soleil, amplifiées par ces phénomènes et se traduisant par les diverses variations que je vous ai montrées.

J’arrive à mes conclusions.

D’abord la conclusion scientifique.

Dans ce débat, très souvent, la question : « Y a-t-il un réchauffement climatique global ? » n’est pas séparée de la question : « Le réchauffement est-il dû au gaz carbonique relâché par l’homme dans la nature ? »
Y a-t-il réchauffement climatique ?

Oui, depuis cent cinquante ans, mais il n’est ni régulier dans l’espace, d’un continent à l’autre, ni régulier dans le temps et pas sans précédent dans les 2 000 ou 3 000 dernières années.

Si les activités humaines relâchent des quantités considérables de gaz carbonique dans la nature, il n’est pas démontré qu’elles soient la cause unique ou principale de ce réchauffement.

Je pense que les sources de ce réchauffement sont plus complexes et plus nombreuses qu’on ne le croit et que les incertitudes sont insuffisamment prises en compte, en particulier les incertitudes sur ce qu’on ne sait pas modéliser.

On ne sait pas modéliser une hypothèse physique sur les nuages, elle ne figure donc pas dans les modèles et on est incapable de chiffrer l’incertitude. Si un jour on trouve que ce mécanisme fonctionne, il remplacera la solution précédente. C’est de cette manière que la science progresse.

Selon mon hypothèse de travail (que nous n’avons pas démontrée mais à laquelle nous avons donné des bases observationnelles plus solides), le rôle du soleil, des rayons cosmiques, de l’électricité atmosphérique et leurs conséquences pour la couverture nuageuse, sont, dans l’état actuel de notre compréhension des choses, très sous-évalués.

Enfin la conclusion du citoyen.
À partir de là, je me suis posé, notamment, la question du mécanisme de formation de l’expertise. Jean-Pierre Chevènement et Claude Allègre, deux ministres éminents que j’ai eu à côtoyer, ont eu à se fournir en expertise. Quand j’étais conseiller, j’avais de l’expertise une vision que je juge aujourd’hui en grande partie fausse dans la mesure où elle voulait souvent se baser sur le consensus. La notion de consensus est extrêmement dangereuse quand il s’agit d’exprimer la vérité scientifique. Les grandes découvertes du XXème siècle montrent qu’un groupe constitué des mille scientifiques les meilleurs du monde pourrait donner une réponse fausse pendant des décennies parce que c’est ainsi que la science fonctionne. Si j’avais été expert dans un GIEC de la dérive des continents, j’aurais peut-être donné une réponse fausse pendant soixante ans. À avoir trop longtemps laissé dire par les médias que les rapports du GIEC étaient proches d’une certaine vérité scientifique majoritaire, nous risquons un terrible retour de bâton antiscience. Nous sommes dans une période très dangereuse de perte de la rationalité, de montée du religieux, du dogmatique. Des scientifiques ont malheureusement contribué à ce grand danger.

Le « principe de précaution » qui a été inscrit dans notre constitution est une absurdité. Le terme de « principe » a un sens très profond et très particulier en physique. C’est un mensonge ou une erreur de vocabulaire grave que de l’utiliser pour faire croire, par une espèce de dérapage d’autorité, que cette notion de principe s’applique à la précaution, une notion de bon sens, qu’on doit apprendre dans sa famille ou à l’école laïque républicaine mais certainement pas dans la constitution ! Je ne vois pas quel juge (avec quels outils juridiques ?) serait capable d’exercer, si on attaquait pour défaut de principe de précaution… Le plus dangereux c’est que ce principe de précaution soit associé à la notion de risque zéro, mathématiquement infiniment stupide et infiniment chère (Log (0)=-∞).

Ceci ne fait pas de moi un citoyen irresponsable. Certes, les énergies fossiles sont finies et si nous avons de nombreuses raisons de les économiser intelligemment, ce ne sont pas forcément les raisons habituellement avancées.

Je suis très surpris de voir des hommes politiques de premier plan se précipiter à Copenhague ou à Kyoto pour s’attaquer à ce problème incroyablement difficile et incertain que la communauté scientifique ne peut prétendre avoir résolu tandis que passent au second plan des problèmes au moins aussi graves sur lesquels on a des certitudes. La recherche de l’eau potable au XXIème siècle, la gestion des déchets urbains dans un monde à 70% urbain peuplé par neuf milliards d’habitants, sont des problèmes parfaitement posés. Je ne parle pas de la faim dans le monde (un milliard d’humains souffrent de malnutrition). La mission des conseillers de ministres est de les aider à identifier des priorités. Mais c’est le citoyen, et non le scientifique, qui décidera ensuite de ces priorités.
Le réchauffement climatique, tel qu’il a été décrit majoritairement par les médias jusqu’à il y a un an et demi de façon quasi exclusive, était un mur infranchissable. L’angoisse se vend bien et les médias ont la coupable habitude de transformer tout sujet d’inquiétude en véritable angoisse. Or, cette angoisse est totalement démobilisatrice.

Il me semble préférable de bien poser les problèmes, de montrer qu’on a les moyens de les résoudre. Le géoscientifique, en particulier, est une source de solutions actives et possibles de certains des problèmes que je reconnais comme majeurs (recherche de l’eau potable, gestion des déchets urbains, faim dans le monde).
Merci.

——-
(1) Albédo : mesure du rayonnement réfléchi

———
Le cahier imprimé du séminaire « L’après-Kyoto: Cancún et les enjeux de la prévision climatique » est disponible à la vente dans la boutique en ligne de la Fondation

S'inscire à notre lettre d'informations

Recevez nos invitations aux colloques et nos publications.

Veuillez saisir une adresse email valide.
Veuillez vérifier le champ obligatoire.
Quelque chose a mal tourné. Veuillez vérifier vos entrées et réessayez.