Campus
L'invité | Paul Edwards
La «vaste machine» qui produit le savoir climatique
La modélisation est omniprésente en climatologie et pas seulement pour simuler l’évolution du climat. Les données météorologiques, trop nombreuses et de qualité inégale, sont en effet inutilisables sans analyse informatique
L’attaque la plus fréquente portée contre les changements climatiques consiste à affirmer que les climatologues se basent sur des simulations par ordinateur qui ne sont qu’une copie, forcément incomplète, de la réalité. Les sceptiques estiment que pour démontrer l’existence d’un réchauffement global et la responsabilité des activités humaines dans cette catastrophe annoncée, il faudrait au contraire des faits. Et, selon eux, ces derniers manquent à l’appel. Le problème, c’est qu’opposer modèles mathématiques et faits n’a pas de sens, explique Paul Edwards, professeur à l’Université du Michigan (Etats-Unis) et auteur d’un livre récent sur la question, A Vast Machine. Pour le chercheur, de passage à l’Université de Genève ce printemps où il a donné une conférence, les faits réclamés existent déjà. Seulement, ils sont impossibles à interpréter sans modèle mathématique.
Campus : vous parlez de la climatologie comme d’une « vaste machine ». Pourquoi ?
Paul Edwards : J’ai emprunté cette expression au penseur britannique John Ruskin qui l’a utilisée en 1839 lors de la fondation de la Société météorologique de Londres. Il affirmait que cette institution n’avait pas été créée pour une ville, ni pour un pays mais pour le monde. Selon lui, les observations d’un seul météorologiste sont inutiles car elles ne concernent qu’un point sur la planète. La Société météorologique avait donc vocation à devenir le centre d’une vaste machine capable de connaître à tout instant et de manière simultanée l’état de l’atmosphère en tout point du globe. Il va sans dire que cette vision était utopique à l’époque. Elle est aujourd’hui devenue réalité grâce au développement technologique qui a permis d’installer des instruments de mesure météorologiques partout, que ce soit sur la terre ferme, sur des avions, des bateaux, des satellites ou encore des ballons sondes. Sans parler de la collecte, l’analyse et le traitement des données ainsi obtenues.
C’est ce que vous appelez l’infrastructure de la connaissance climatique…
En effet. Les systèmes d’observation du climat apparaissent au cours du XIXe siècle et s’organisent progressivement en réseaux nationaux et internationaux. A cette époque, les mesures de l’atmosphère sont communiquées par télégraphe et traitées à la main. Avec l’avènement de l’informatique, les programmes météorologiques mis au point dès les années 1950 deviennent brusquement très gourmands en données et il faut les nourrir de mesures provenant de toute la planète. Peu après, le World Weather Watch se met en place. Ce super réseau combine des structures plus petites pour former un système fonctionnel intégrant l’observation globale de la météo (de plus en plus étendu), les télécommunications, le traitement de données et les prévisions. Dans les années 1970, les scientifiques entament un processus long et douloureux d’introspection consistant à réviser chaque élément de l’histoire de ce système d’observation, allant jusqu’à vérifier certaines mesures individuelles. Cette étape leur permet ensuite de tenter de reconstruire l’histoire du climat à l’aide de modèles numériques dont le nombre se met à croître rapidement.
Quel est le rôle du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) dans ce processus ?
Face à la menace des changements climatiques, devenue sensible dans les années 1980, les décideurs mettent sur pied un processus de validation des connaissances au sein du GIEC. Ce dernier devient la partie la plus visible de l’infrastructure de la connaissance climatique. Ce processus, qui en est à son cinquième cycle depuis 1990, permet de relier un vaste réseau de producteurs de savoir et de rassembler leurs résultats disparates dans un même projet. Il compare, combine et interprète des données et des modèles afin de produire une connaissance stable, fiable et largement partagée au sujet du climat global. Cela ne signifie pas que les controverses ont disparu. Au contraire, le GIEC apporte la controverse dans le consensus car il intègre toute la gamme des opinions des experts.
Peut-on se passer de modèles mathématiques pour comprendre le climat ?
Non. Tout ce que nous savons sur le passé, le présent et le futur du climat, nous le savons grâce aux modèles. Il en existe essentiellement deux types, pour faire court. Les premiers sont des modèles de simulation mathématique, basés sur les lois de la physique qui permettent de comprendre comment fonctionne le climat et comment il risque de se comporter à l’avenir. Et puis il y a les modèles d’analyse de données. En effet, aucune collection de mesures ne peut servir à établir une représentation globale du climat si elle ne passe pas d’abord par un modèle mathématique. Les informations récoltées au cours du temps sont tellement nombreuses et obtenues à l’aide d’instruments de mesure si différents les uns des autres que la première tâche des climatologues consiste à les « homogénéiser ».
Pouvez-vous préciser ?
L’exemple le plus simple est celui de la mesure de la température qui est réalisée depuis très longtemps dans de nombreux endroits. Un thermomètre du XIXe siècle possède en effet des caractéristiques différentes d’un thermomètre actuel. Il convient donc de corriger les résultats de tous les appareils de manière à ce qu’ils soient comparables et susceptibles d’être mélangés. L’opération se complique avec les données satellitaires qui mesurent la température non plus sur un point, comme le font les thermomètres, mais sur de grands volumes. En d’autres termes, les systèmes d’observation ont changé de manière si importante et si souvent dans l’histoire que l’on ne peut combiner les données obtenues sur le long terme qu’en créant des modèles d’analyse de données intégrant des centaines de facteurs dont les différences de techniques de mesure, de pratique d’acquisition de données, d’emplacement des stations d’observation, etc. Ce n’est que par ce processus, qui consiste à « rendre les données globales », que l’on parvient à produire une image cohérente du climat de la Terre à travers les âges.
A la différence des modèles d’analyse de données, les modèles de simulations, eux, se basent sur les seules lois de la physique pour reproduire artificiellement l’évolution du climat de ces derniers siècles. Sont-ils réalistes ?
Il existe en effet des modèles de simulation du climat très simples, basés uniquement sur les lois de la physique mais ils ne permettent pas de produire une simulation détaillée. S’ils souhaitent obtenir un résultat capable de représenter, par exemple, les nuages et la précipitation, les climatologues doivent « paramétriser » leurs modèles, c’est-à-dire intégrer des valeurs basées sur les observations du monde réel. Pour simuler l’évolution du climat au cours du XXe siècle, il faut ainsi inclure, entre autres, les aérosols injectés dans la haute atmosphère par les éruptions volcaniques importantes, comme celle du Pinatubo en 1992, et les émissions de gaz à effet de serre dues aux activités humaines.
Ces modèles de simulation sont-ils fiables ?
Il existe une multitude de modèles développés de manière indépendante qui tentent de reproduire les derniers 150 ans du climat. Ils ont été révisés un grand nombre de fois, comparés entre eux, améliorés, etc. Et il se trouve qu’ils convergent tous vers le même résultat. Un résultat qui est d’ailleurs en parfait accord avec l’évolution historique du climat reproduite à partir des observations météorologiques et des modèles d’analyse de données.
Dans quelle mesure ces simulations numériques prouvent-elles que le réchauffement climatique est déjà une réalité et qu’il est provoqué par les activités humaines ?
Les simulations climatiques parviennent à reproduire fidèlement l’évolution du climat au cours des cent dernières années si et seulement si elles tiennent compte des effets anthropogéniques, à savoir les émissions de gaz à effet de serre liées aux activités humaines, la déforestation, l’urbanisation, etc. Sans ces éléments, tous les modèles calculent une température globale de 0,75° C plus basse que celle que l’on mesure aujourd’hui (voir graphique ci-dessus). C’est ce qui permet aux climatologues d’affirmer que cette différence est due à l’activité humaine.
Peut-on encore améliorer les modèles de simulations ?
Oui, probablement, mais certains scientifiques pensent que cela n’en vaut pas la peine. Les résultats ne seraient pas fondamentalement différents d’aujourd’hui. De toute façon, au fur et à mesure que le climat change et que les températures augmentent, le système est susceptible d’acquérir des propriétés nouvelles au sujet desquelles nous n’avons aucune expérience. Cela demanderait de réajuster les modèles à ce moment-là.
En plus de reproduire le passé du climat, les modèles de simulation prédisent aussi son futur. Le font-ils avec plus de fiabilité que les prévisions météorologiques quotidiennes ?
Oui, car le climat ne se calcule pas sur une base quotidienne mais annuelle, voire plus. Cela dit, aucun développeur de modèle climatique n’affirmera que ses simulations produisent des prévisions. Ce sont plutôt des projections. Il ne sera jamais possible d’obtenir des prévisions exactes car la variabilité naturelle est trop importante. En revanche, les simulations produisent des courbes dont la tendance générale est correcte. On le vérifie déjà.
Propos recueillis par Anton Vos