Quels sont les éléments clés dun modèle numérique du climat ?

Introduction

1Pourvoyeurs uniques de prédictions pour les siècles à venir, inquiétants annonciateurs des changements climatiques, les modèles numériques de climat ne sont pas d’énormes édifices mathématiques délivrant des oracles dans un univers virtuel et éthéré. Ils sont au contraire constamment reliés aux données d’observation, par des liens complexes et variés. Les climatologues passent une grande part de leur temps à tester ces modèles, à les confronter de multiples façons aux mesures du véritable climat. Ce sont ces évaluations, plus généralement les circulations entre observations et simulations, qui soumettent les modèles à l’épreuve de la réalité et constituent, aux yeux des modélisateurs, les principaux garants de la validité scientifique et de la fiabilité des projections de climats futurs.

  • 1 L’éditorial d’un numéro de Science Studies de 2006 consacré aux simulations et modèles numériques d (...)

2Pourtant les relations entre modèles et observations sont restées pratiquement ignorées des chercheurs en sciences sociales comme des philosophes des sciences. Les travaux sur les modèles se sont longtemps focalisés sur leurs rapports aux théories physiques ; depuis quelques années, on assiste à un renouveau des réflexions sur la modélisation par ordinateur (Morrison & Morgan, 1999) critiquant le « culte de la théorie » (Cartwright, 1999 ; Sismondo, 1999) et quelques études s’intéressent aux expériences numériques (Galison, 1996 ; Winsberg, 2003). Mais un décalage important subsiste entre les discours théoriques sur la catégorie modèle et les pratiques de modélisation, diverses, riches et complexes, qui restent relativement peu étudiées (Armatte & Dahan, 2004) – même si on a pu récemment déceler, sur ce terrain des pratiques de modélisation, une amorce de rapprochement entre les études des philosophes et celles des sociologues des sciences1.

3Quant à la modélisation du climat, en dépit (ou à cause ?) de ses enjeux sociopolitiques majeurs, elle n’a suscité que très peu de recherches en tant que mode de production de connaissances. Pourtant, les controverses politiques sur le climat se sont souvent transposées sur le terrain scientifique (Pielke, 2002), voire épistémologique. Aux États-Unis surtout, les « sceptiques » du changement climatique ont mis en doute non seulement les prévisions mais les modèles eux-mêmes, « cherchant à stigmatiser la modélisation comme science inférieure sur des bases philosophiques » (Norton & Suppe, 2001). La plupart du temps, ces querelles portaient sur les relations des modèles aux données et au monde réel (Edwards, 1999). La portée politique de ces questions constitue une raison de plus pour les étudier en partant des pratiques des scientifiques. Dans cet article, nous chercherons à décrire et analyser de quelles façons les modélisateurs établissent des connexions, des « dialogues » entre données et simulations, pour évaluer les capacités de leur modèle à expliquer et prévoir le climat.

Pratiques et témoignages

4L’approche par les pratiques apparaît incontournable dans un domaine scientifique à la fois récent, multidisciplinaire et d’une importance sociale majeure. C’est seulement en observant la science « en action » qu’on peut en découvrir les différentes facettes – va-et-vient entre complexité et simplification, imbrication d’expériences virtuelles et de confrontation aux données. Suivre les scientifiques au travail constitue l’unique façon d’observer comment ils naviguent entre une multiplicité de niveaux, de motivations et de contraintes sociales et institutionnelles. S’intéresser aux contenus scientifiques des modèles de climat permet de comprendre comment ils peuvent être à la fois robustes, fondés sur des soubassements théoriques inattaquables, étayés par des évaluations solides, capables de produire des projections fiables – et dans le même temps, pleins d’incertitudes et de lacunes. L’étude des pratiques permet d’échapper aux dichotomies tranchées, de montrer comment ces sciences concilient des caractéristiques souvent perçues comme antagonistes.

5Le présent texte résulte en grande partie d’une enquête de terrain menée de 2003 à 2006 dans les deux principaux organismes développant et utilisant des modèles numériques de climat en France, le Laboratoire de Météorologie Dynamique (LMD) du CNRS, dans la région parisienne, et le Centre de recherche de Météo-France à Toulouse (Guillemot, 2007). Cette étude est fondée sur deux types de sources : d’une part la « littérature grise » des laboratoires investigués (rapports d’activité depuis leur création, rapports de prospective, journaux internes, sites web, comptes rendus de colloques et de réunions, etc.) ; et d’autre part de nombreux entretiens approfondis avec les scientifiques de ces différents laboratoires.

6Il faut reconnaître que prétendre décrire les pratiques scientifiques en modélisation est un peu abusif, tant elles sont peu matérielles et corporelles. Par définition, on n’observe aucune expérience de laboratoire, pas d’instrument ni de mesure. Il y a bien des supercalculateurs, des réseaux de stations météorologiques maillant la surface du globe, des satellites bourrés d’appareils sophistiqués la survolant, des navires instrumentés parcourant les océans – mais ils sont loin et leurs calculs ou leurs mesures parviennent aux modélisateurs via des écrans interchangeables. À première vue, l’activité quotidienne de ces scientifiques n’a rien de spectaculaire : ils passent leur temps dans des bureaux, face à un ordinateur, ou devant un article ; ou bien ils discutent autour d’un café, lors de réunions ou de colloques. Et leurs gestes sur le clavier sont les mêmes pour raffiner une paramétrisation physique, comparer des observations par satellite à des simulations, répondre à leur courrier électronique ou soumettre une demande de crédit. Dans ces conditions, la description des pratiques des chercheurs passe inévitablement par leur propre discours lors d’entretiens. Mais ce biais doit être relativisé ; d’abord, il serait naïf ou présomptueux de prétendre avoir un accès direct, non médié, aux pratiques de modélisation. Ensuite, les récits des acteurs se recoupent, se complètent, produisent un effet de synergie, peuvent souvent être confrontés aux sources écrites. Enfin, on sait que les chercheurs ont plusieurs langages, que leurs paroles pour décrire la science qu’ils font ne sont pas les mêmes que celles qu’ils tiennent sur la science constituée (Latour, 2001). Parlant de leur travail, les scientifiques ne délivrent pas un discours construit et bien rodé, ils passent d’un registre à l’autre sans distinguer les catégories.

Des liens entre modélisation et observations ancrés dans l’histoire

7La relation privilégiée entre modélisation et observation du climat remonte aux origines de ce domaine scientifique. La modélisation du climat est issue d’une double ascendance ; elle est étroitement apparentée à la modélisation numérique du temps, émergeant (comme cette dernière) sous sa forme actuelle avec les premiers calculateurs électroniques, au lendemain de la Seconde Guerre mondiale. Sans revenir sur l’histoire du calcul du temps (Nebecker, 1995), rappelons que les modèles de météorologie comme de climat n’auraient pas pu se développer sans les puissants réseaux d’observations terrestres, océaniques et spatiales mis en place par des institutions scientifiques internationales puissantes et bien organisées. La principale est bien sûr l’Organisation météorologique internationale (OMI, IMO en anglais), créée en 1873 et devenue agence de l’ONU en 1950 sous le nom d’Organisation Météorologique Mondiale (OMM ou WMO), à l’origine de nombreux programmes internationaux. La seconde ascendance de la modélisation du climat est constituée par l’ensemble des recherches sur la composition de l’atmosphère et sur l’équilibre du climat notamment sur l’effet de serre (Fleming, 1998). Là encore, ce domaine s’appuie sur des réseaux de mesures anciens : on citera seulement le World Weather Records, lancé en 1927 par l’IMO, dont la collecte mondiale de mesures météorologiques a contribué aux toutes premières mises en évidence du réchauffement global (Le Treut et al., 2007). Si la modélisation du climat a atteint un degré d’avancement inégalé dans les sciences de l’environnement, elle le doit autant à un réseau d’instruments unique, dense, hautement développé et organisé à l’échelle internationale, qu’à la résolution d’équations physiques gouvernant la circulation atmosphérique globale.

  • 2 À l’origine, les modèles climatiques étaient des modèles de circulation de l’atmosphère. Les premie (...)

8En France aussi, les histoires des laboratoires témoignent de l’influence des observations, des savoir‑faire expérimentaux, des campagnes de mesures sur la modélisation. Le LMD a misé depuis sa création en 1968 sur la synergie entre les différents outils scientifiques utilisés pour l’étude de l’atmosphère : théorie, modélisation, observation et instrumentation. Il fait partie depuis 1993 de l’Institut Pierre‑Simon Laplace (IPSL), fédération de cinq laboratoires d’Île-de-France se consacrant chacun à une composante du système climatique (océan, biosphère, etc.) – la modélisation du système global étant gérée au niveau de l’IPSL. Dans tous ces laboratoires, la dimension expérimentale ou instrumentale est importante et souvent antérieure à la modélisation. Les liens entre modélisation et observation s’observent tout autant à Météo-France : le rôle majeur des observations va de soi en prévision du temps, à laquelle la modélisation du climat emprunte bien des façons de travailler. Mais ce trop bref survol ne doit pas donner une image idyllique des relations entre modélisation et observations. Certes, la modélisation ne saurait se passer des autres outils d’étude du climat, mais elle constitue aussi un ensemble de pratiques spécifiques qui réunit une communauté bien distincte, souvent éloignée des autres groupes de chercheurs, notamment des observations. Les modélisateurs évoquent volontiers la nécessité d’une collaboration avec les scientifiques des observations, mais également les difficultés rencontrées dans cette communication – en raison de différences d’approches et d’intérêts scientifiques, voire de rivalités. Cependant, l’évolution récente de la modélisation – nouveaux couplages de modèles2, demande de prévisions du changement climatique – rend ce rapprochement de plus en plus indispensable. Et au-delà des difficultés pratiques, la culture des observations imprègne profondément la modélisation et constitue une valeur commune aux laboratoires français de ce domaine.

Les données ne sont pas données

9Il faut d’abord préciser brièvement quelles sont les données observations du climat auxquelles on confronte les simulations. On a coutume de distinguer trois catégories : les données provenant de réseaux d’instruments terrestres ou maritimes ; les données spatiales fournies par les instruments à bord des satellites (d’observation météorologique ou de recherche) ; et enfin les données collectées lors de campagnes de terrain ciblées sur une région, un phénomène et une période – les données de cette troisième catégorie étant locales, tandis que les autres peuvent être qualifiées de globales. Depuis la fin des années 1970, des organismes météorologiques de différents pays ainsi que d’autres institutions (défense, aménagement du territoire, transports…) ont organisé plusieurs dizaines de campagnes de mesures. Il s’agit généralement d’opérations internationales lourdes et coûteuses en moyens humains et matériels (avions, bateaux, ballons…), qui s’étendent sur une dizaine d’années depuis les premiers projets jusqu’à l’exploitation des résultats.

10Insistons surtout sur une des caractéristiques essentielles de toutes ces données, d’où qu’elles proviennent : elles sont éminemment indirectes et reconstruites. Dans les sciences de l’atmosphère et du climat, les « données brutes » n’existent pas ou sont inutilisables. Ce que mesure un satellite est très éloigné des grandeurs physiques utiles aux météorologues ou aux climatologues : par exemple, pour obtenir la température de surface d’un point de la Terre en partant du signal capté par un satellite météorologique, pas moins de trois modèles intermédiaires sont nécessaires, qui combinent les données initiales avec de nombreux autres facteurs (Kandel, 2002). Les informations provenant des stations de surface sont certes un peu moins indirectes, mais elles sont en revanche plus hétérogènes et lacunaires, et doivent donc être complétées et harmonisées, toujours à l’aide de modèles numériques. D’autre part, si l’on veut obtenir des séries de données homogènes sur plusieurs décennies (ce qui est indispensable pour déceler des tendances d’évolution du changement climatique), il faut accomplir un important travail de reconstruction : les données doivent être corrigées et recalibrées pour tenir compte des changements de techniques de mesure ou de capteurs. Météo-France a ainsi mis au point un programme informatique permettant de repérer les « ruptures d’homogénéité » de ses mesures depuis plus d’un siècle (dues en particulier à des modifications de l’environnement des instruments), ce qui a permis de reconstituer de façon homogène l’évolution du climat de la France au long du XXe siècle.

11Enfin, les climatologues ont de plus en plus souvent recours à un nouveau type de données appelé « réanalyses », qui poussent encore plus loin ce que Paul Edwards a nommé « l’interdépendance symbiotique » entre modèles et observations (Edwards, 1999). Il s’agit de séries de données entièrement retraitées et complétées à l’aide d’un modèle de climat, par un procédé inspiré de la technique d’« assimilation variationnelle », utilisée quotidiennement en météorologie pour introduire les données d’observations dans le modèle en temps quasi réel. Grâce au modèle, les données réanalysées comblent les « trous » et corrigent les défauts des observations : elles deviennent complètes, homogènes et cohérentes, donc plus faciles à utiliser. Véritables hybrides d’observation et de modélisation, les réanalyses comportent évidemment des incertitudes, liées aux défauts des données initiales, à ceux du modèle et surtout à la rareté des observations artificiellement comblée par la modélisation. Les modélisateurs qui les utilisent essaient d’en tenir compte, par exemple en accordant une confiance moins grande aux réanalyses de périodes anciennes qu’aux récentes.

Difficultés fondamentales des validations de modèles climatiques

  • 3 Les modèles météorologiques et les modèles de climat sont très semblables. Dans les deux cas, il s’ (...)

12Une première difficulté de l’évaluation des modèles de climat saute aux yeux si l’on fait le parallèle avec les modèles de prévision du temps. Pour les prévisions météo, la validation semble assez simple, du moins en principe : elles peuvent être comparées dès le lendemain aux caractéristiques du véritable temps. Mais en modélisation du climat, les simulations n’ayant de valeur que statistique, la comparaison ne peut se fonder que sur des séries de données sur le climat présent ou passé3. Quant à la validation des projections du climat futur, pour lesquelles n’existe par définition aucune observation, elle est encore plus difficile et indirecte – on y reviendra plus loin.

13Une autre difficulté fondamentale réside dans la délimitation du processus que l’on cherche à valider : la multiplicité des mécanismes climatiques et leurs intrications dans le modèle rendent la validation de la représentation d’un phénomène particulier extrêmement délicate. Aux débuts de la modélisation, la fécondité et la maniabilité des modèles ont créé quelques illusions sur leurs capacités à expliquer les mécanismes du climat. Le modèle présente l’avantage d’être en apparence bien plus aisé à explorer que le climat : du modèle on connaît tout, ou l’on peut en principe tout connaître. Jule Charney (grand pionnier de la modélisation du climat qui a mis en place et dirigé le Numerical Meteorology Project à Princeton dès 1948) remarquait qu’une expérience numérique testant à la fois une hypothèse sur un processus climatique et l’ensemble du modèle, on peut supposer que si elle produit un climat simulé ressemblant au vrai, elle aura validé du même coup l’hypothèse théorique et le modèle.

  • 4 Les théories, elles aussi, sont sous-déterminées par les expériences : une expérience ne peut jamai (...)

14Mais avec la complexification des modèles, il a fallu déchanter et constater que la remarque de Charney peut se retourner comme un gant : l’apparente validation d’un modèle par des observations peut résulter d’une combinaison entre une fausse hypothèse et une mauvaise représentation dans le modèle, qui ensemble donnent un assez bon climat simulé, grâce à ce que les modélisateurs appellent des « compensations d’erreurs ». Une simulation peut ainsi apparaître « correcte pour de mauvaises raisons ». La validation d’un modèle s’avère donc plus délicate encore que celle d’une théorie4 : le modèle faisant interagir de nombreux processus non linéaires, la comparaison de ses simulations avec les observations sera indirecte et complexe.

15À mesure que les modèles incorporaient un nombre croissant d’éléments et de processus impliqués dans le système climatique, les scientifiques ont été confrontés à la difficulté d’interpréter leurs simulations, d’attribuer une cause à un phénomène et d’en comprendre les multiples rétroactions. Et le travail des chercheurs a de plus en plus consisté à comprendre ce qui se passe dans leurs modèles, quel paramètre influe sur tel résultat et de quelles façons. Désormais « presque aussi difficile à dominer que le climat réel », le modèle est devenu lui aussi objet d’étude. « Faire de la modélisation du climat, c’est travailler sur ce qui entre dans le modèle et ce qui en sort, c’est comprendre ce qu’il y a dans le modèle, comment il réagit, quelles sont ses caractéristiques », explique un chercheur du LMD.

Évaluer plutôt que valider

16Les modélisateurs se méfient quelque peu du terme de validation et préfèrent employer des expressions plus vagues, comme « évaluation » – désormais de rigueur dans les rapports du GIEC, par exemple (Randall et al., 2007). Le concept de validation a été critiqué dans un article de la revue Science (Oreskes et al., 1995) affirmant que les modèles numériques de climat ne peuvent être ni vérifiés, ni validés de façon rigoureuse – seulement confirmés dans certaines conditions. Cet article a suscité beaucoup de débats, et les modélisateurs, incités à une certaine prudence, déclarent plus modestement qu’il s’agit d’« évaluer la performance du modèle », ou de montrer qu’il est « suffisamment bon pour être utile ».

17Au-delà de ces nuances sémantiques, le premier point essentiel est qu’on n’évalue pas un modèle en général, mais sa capacité à simuler, rendre compte d’une caractéristique ou d’un phénomène climatique particulier que l’on définit. Les évaluations sont donc extrêmement variées. Elles peuvent concerner un processus climatique, un phénomène géographiquement limité, la capacité du modèle à représenter telle rétroaction, les caractéristiques du climat moyen sur le globe… Elles se pratiquent à toutes les échelles de temps et d’espace et à tous les niveaux du modèle, de l’étude d’un mécanisme aux statistiques climatiques. Le type de validation dépend des questions posées et de l’utilisation du modèle ; un modèle peut convenir pour des simulations à moyen terme (par exemple pour l’étude de la variabilité interannuelle) mais ne pas être capable de réaliser des simulations à cent ans. En conséquence, il n’existe aucun protocole systématique pour évaluer un modèle. Une évaluation suppose souvent un questionnement préalable, la définition d’un problème pour lequel il faut imaginer une méthode adaptée de confrontation entre modèle et données. « Elle requiert davantage d’astuce, de créativité que de respect d’une méthode », comme le résume un chercheur du LMD. Les modélisateurs doivent savoir faire feu de tout bois pour « contraindre le système ». Par exemple, l’irruption du Pinatubo, en 1991, leur a fourni une occasion unique de valider les représentations des aérosols dans des modèles.

18Malgré la diversité de ces évaluations, les climatologues distinguent par commodité deux types d’approches, dits « top-down » ou « au niveau du système », et « bottom‑up » ou « au niveau des composants ». Les validations top-down consistent à comparer les simulations à des séries de données globales. Historiquement, les modèles ont d’abord été validés par rapport au climat moyen : on comparait une carte de climat terrestre simulé avec une carte de moyennes climatiques provenant de données d’observation, en regardant si le modèle reproduisait correctement les grandes caractéristiques (températures, vents, phénomènes climatiques principaux). Puis on a voulu valider aussi la variabilité du climat : cycle saisonnier, variabilité interannuelle et décennale, moussons, fréquence des événements El Niño… L’évaluation des modèles a concerné des domaines de variabilité de plus en plus larges. Météo‑France étudie ainsi la capacité de son modèle Arpège-climat à reproduire le spectre de variabilité des précipitations, y compris les plus extrêmes, en étudiant la distribution des intensités de pluies jusqu’aux échelles journalières.

Trois modèles et une campagne de terrain pour évaluer une paramétrisation

19Depuis les années 1990, un autre type de validation (bottom‑up) est utilisé pour tester isolément des parties du modèle, c’est-à-dire des paramétrisations, à partir d’une campagne de mesure locale. Il faut ici ouvrir une parenthèse pour préciser ce que l’on entend par paramétrisation. Un modèle numérique du climat (comme un modèle de prévision du temps, dont il est très proche) est composé de deux grandes parties : une partie « dynamique » qui décrit les mouvements des masses d’air à partir des équations de la dynamique des fluides ; et une partie dite « physique » qui traite des échanges verticaux entre l’atmosphère et l’espace et entre l’atmosphère et la surface du globe – océan, continent ou glace. Ces échanges – de rayonnement, d’énergie, d’eau, etc. – se situent à des échelles très inférieures à la maille du modèle (qui a quelques centaines de kilomètres) et on les représente par des « paramétrisations » qui reproduisent statistiquement, à l’échelle d’une maille, les effets climatiques des phénomènes considérés. Les paramétrisations, véritables petits modèles dans le modèle, sont extrêmement diverses ; certaines sont plus ou moins directement issues de théories physiques (par exemple pour le rayonnement), d’autres sont des représentations plus empiriques ou phénoménologiques (pour les écosystèmes végétaux) (Guillemot, 2006).

20Comment évalue-t-on une paramétrisation isolée ? Le procédé consiste à étudier un phénomène climatique où et quand il est prépondérant (par exemple la mousson en Inde, les tempêtes d’hiver en Atlantique Nord) et à utiliser ce cas d’étude pour tester la paramétrisation du phénomène physique en jeu. L’opération peut se décomposer en trois étapes. La première étape consiste à réaliser une campagne de mesure (comme évoqué plus haut) dans une zone que l’on quadrille et entoure de stations d’observations. Puis on fait appel à un modèle à méso-échelle (modèle détaillé, dont la maille mesure quelques kilomètres) pour simuler précisément l’évolution de l’atmosphère dans cette zone pendant la période considérée. Les spécialistes de la méso-échelle entrent dans leur modèle les paramètres mesurés en début de période, et définissent les conditions aux limites de telle sorte qu’in fine le climat simulé ressemble au climat observé durant la campagne. On valide ainsi de façon très fine le modèle méso-échelle par les observations. Enfin – c’est la troisième étape – les modélisateurs du climat testent la paramétrisation dans une version simplifiée du modèle, à une seule dimension. Ce modèle dit « colonne », constitué d’une seule maille horizontale avec toutes les couches verticales superposées, contient toute la physique du modèle de circulation générale, mais il est beaucoup moins lourd à utiliser. On lui fournit les paramètres extérieurs provenant du modèle méso-échelle, puis on le fait tourner, et on confronte sa simulation à celle produite par le modèle méso, ce qui permet de valider la paramétrisation, et éventuellement de l’améliorer.

21En résumé, on compare le climat simulé par un modèle unidimensionnel équipé de la paramétrisation, au climat simulé par le modèle méso validé par les observations. Dans cette méthodologie sophistiquée, le modèle méso‑échelle joue les intermédiaires entre les données et le gros modèle, en fournissant à ce dernier un jeu complet de données « prédigérées » reconstituées à partir des observations. Ces études de paramétrisations par des expériences de terrain se sont multipliées depuis une quinzaine d’années dans le cadre de grands projets internationaux grâce à la disponibilité de modèles de moyenne échelle opérationnels, tel le modèle Méso-NH développé par Météo-France (Chaboureau & Bechtold, 2002).

Trouver les bons « diagnostics » pour les rétroactions entre nuages et rayonnement

22Mais l’évaluation ne se réduit pas à des validations globales du modèle en le comparant à des banques de données globales et à des validations de paramétrisations par des cas d’études locaux. Car les processus représentés par les paramétrisations ont aussi des conséquences à long terme et à longue distance, qui ne sont pas perceptibles à partir d’études de terrain. Ces effets, dits climatiques, doivent eux aussi être reproduits, et les paramétrisations doivent donc être capables d’en rendre compte. L’un des effets les plus importants est la rétroaction entre nuages et rayonnement. Les nuages sont les éléments du climat les plus influents (ils couvrent plus de la moitié de la surface du globe), aux effets les plus variés, les plus complexes et les plus difficiles à modéliser. Ils interagissent de nombreuses façons avec tous les composants du climat, en particulier avec les rayonnements, qu’ils peuvent réfléchir ou absorber, selon les cas. Or, si certains phénomènes nuageux (formation, convection, précipitations) peuvent être étudiés à partir de campagnes locales, les interactions entre nuages et rayonnement ne sont pas observables dans l’immédiat.

23C’est la perspective du réchauffement global qui a soulevé la nécessité d’étudier les impacts à long terme de paramétrisations. Car les changements climatiques ne sont rien d’autre que la conséquence lointaine et globale d’un réchauffement du sol à petite échelle, provoqué par l’accroissement des gaz à effet de serre. Ce réchauffement provoque un déséquilibre des basses couches de l’atmosphère, ce qui interfère avec les turbulences, la microphysique des nuages et autres phénomènes de petite échelle, tous représentés dans le modèle par des paramétrisations. Or de nombreux travaux ont établi que les différentes représentations paramétriques des nuages et de leurs rétroactions sont les principales responsables des incertitudes des modèles, et des différences de prévisions sur le changement climatique entre les modèles. Il est donc crucial de comprendre comment les rétroactions entre nuages et rayonnement évoluent avec le réchauffement, et d’évaluer si les modèles reproduisent bien cette évolution. Faute d’observations du climat futur, les climatologues doivent se contenter d’explorer à partir des données disponibles les corrélations statistiques des variables climatiques avec des variations de températures.

24Lors d’un séjour au Godard Institute for Space Studies (GISS), à New York, une jeune chercheuse du LMD a développé une méthode originale pour explorer les rétroactions nuages-rayonnement et leur sensibilité au réchauffement. Il lui fallait d’abord s’affranchir d’un obstacle gênant : l’augmentation de la température influe en premier lieu sur la dynamique de l’atmosphère, en favorisant certains types de nuages par rapport à d’autres. Et cet effet de premier ordre masque l’action de la hausse de température sur la microphysique des nuages, sur la hauteur de convection – bref, sur les évolutions de la physique des nuages qui importent vraiment pour le climat à long terme, car elles affectent leur interaction avec le rayonnement. Un point clé, en modélisation, est de bien choisir les variables qui caractérisent le phénomène qu’on étudie, que les modélisateurs appellent les « diagnostics ». Disposant au GISS de toutes sortes de données d’observations sur des nuages (bases de données satellite, réanalyses, etc.), cette climatologue a cherché, par des analyses statistiques de ces données, à établir les « diagnostics » montrant l’action d’une augmentation de température sur la physique des nuages, indépendamment des conditions dynamiques. Elle a imaginé pour cela de représenter les nuages, non pas selon la longitude et la latitude, mais selon un axe unique, fonction de la vitesse verticale de l’air.

De cette façon, on peut représenter sur un seul axe, d’un côté là où l’air monte, de l’autre où il descend, explique la chercheuse. Là, tous les nuages convectifs, ici tous les nuages bas... C’est une représentation très simplifiée qui conserve toute l’information. (…) En classant toutes les zones en fonction de la vitesse verticale, on obtient des variations extrêmement continues des propriétés nuageuses, de la vapeur d’eau, de tout, qui s’organise de façon simple... C’est beaucoup plus facile, à partir de là, d’analyser ce qui se passe, et c’est comme ça qu’on a pu avancer dans l’étude des rétroactions. Pour moi, c’est une approche qui simplifie énormément l’analyse : au lieu de regarder les choses régionalement, on essaie de les classer de façon synthétique.

25En imaginant ce diagnostic (souvent utilisé depuis) qui offre au spécialiste un panorama synoptique nouveau sur l’organisation des nuages, la scientifique a pu extraire du flot de données disponibles des informations inédites. La recherche de nouvelles façons de voir, qui donne accès à des logiques et des corrélations jusque‑là cachées, est décrite comme créative et ludique :

On peut choisir de regarder les choses plus finement, en regardant différentes variables entre elles, en faisant des analyses statistiques dessus... Il y a plein de façons de voir, c’est assez créatif. Je trouve ça rigolo ! (…) Moi, ce qui m’intéresse c’est de regarder les choses autrement que la façon dont on les regarde d’habitude ; de manière un peu tordue...

Simulations et observations sont soumises aux mêmes analyses

26Un diagnostic est une façon d’analyser les données observations, mais il permet aussi d’analyser les simulations du modèle (Bony et al., 2002), et constitue donc une méthode d’évaluation : en appliquant le même diagnostic aux simulations et aux observations (l’analyse des nuages en fonction des mouvements verticaux des masses d’air, dans l’exemple précédent), on les rend commensurables et on peut comparer deux diagrammes construits selon les mêmes critères. Certains climatologues, au LMD notamment, s’imposent d’ailleurs cette règle : « utiliser les observations et les simulations exactement de la même façon » ; c’est‑à‑dire ne jamais produire de diagnostics qui n’ont pas d’équivalents en termes de données d’observation. Par exemple, on choisira d’étudier le rayonnement renvoyé par le sommet de l’atmosphère, car c’est ce flux que mesurent les instruments à bord des satellites. Mais on évitera de travailler sur la répartition verticale de rayonnement, que le modèle calcule mais qu’on ne sait pas mesurer.

27L’évaluation du modèle, dans le cas qu’on vient de voir, n’est pas séparable de l’analyse des données d’observation. L’exemple qui suit confirme que les relations entre modèles et données ne se réduisent pas aux validations des premiers par les secondes. Des chercheurs du LMD, voulant évaluer la façon dont leur modèle reproduisait la mousson en Inde, ont utilisé un programme d’analyse de données météorologiques mis au point par un chercheur britannique du Centre européen de prévision à moyen terme de Reading. Ce programme sélectionne dans les données les paramètres caractéristiques des dépressions, constituant ainsi des trajectoires qui sont ensuite analysées selon des critères choisis ; puis le programme produit une représentation statistique des propriétés de ces perturbations. À l’aide de ce programme, l’équipe du LMD a analysé les dépressions calculées par leur modèle dans la région de l’Inde durant neuf années simulées. Ils ont identifié parmi ces dépressions simulées celles qui avaient les caractéristiques des moussons, et les ont comparées à des observations de mousson indienne réelles analysées par ce même programme. Leur conclusion est double :

  • 5 Extrait d’un article du journal interne du LMD, LMDZ Info, n° 0, juillet 2000, p. 12 : « Caractéris (...)

a) le modèle du LMD est capable de simuler des dépressions de mousson ayant des caractéristiques de circulation réalistes ; b) la méthode de « tracking » est puissante et offre une panoplie d’études statistiques quantitatives robustes permettant d’effectuer une analyse précise des systèmes dépressionnaires simulés5.

28Avec cet exemple, on voit que la recherche ne se borne pas à une évaluation du modèle ; elle concerne aussi la méthode d’analyse utilisée et les déplacements des moussons. Ce travail porte en fait sur trois niveaux d’analyse : la mousson (dont on étudie les caractéristiques statistiques) ; le modèle (à évaluer quant à sa capacité à reproduire la mousson) ; et enfin la méthode d’analyse commune (dont on souhaite évaluer l’efficacité).

Remarques d’épistémologie « bottom-up » sur les pratiques de modélisation

29Cet aperçu sur les évaluations des modèles est inévitablement bien trop partiel, étant donnée la grande diversité des pratiques dans ce domaine. Il faudrait évoquer les simulations des climats du passé, et aussi les intercomparaisons des modèles entre eux, qui occupent une place essentielle dans les évaluations. Mais les descriptions qui précèdent, même exagérément succinctes et limitées, peuvent déjà suggérer quelques réflexions pour une épistémologie « bottom-up » de la modélisation que l’on pourrait tirer de l’analyse des pratiques.

    • 6 Dans cette section, les expressions entre guillemets qui ne sont pas attribuées à un auteur particu (...)

    Les immenses possibilités offertes par l’ordinateur s’étendent à l’analyse des observations. L’ordinateur n’engendre pas seulement un climat virtuel, il permet aussi de manipuler les observations pour en exhiber les corrélations cachées. Grâce au libre accès aux banques de données, mesures de terrain et réanalyses dont bénéficient les chercheurs depuis leur bureau, la faculté de jongler avec les observations est partie intégrante de leur travail. On est loin de l’opposition entre des données figées et intouchables et des simulations malléables à volonté. C’est presque l’inverse : déjà passées par toutes sortes de transformations en amont, les données peuvent encore être manipulées, triées et « tordues »6 en tous sens, puisqu’elles proviennent d’observations et y restent indéfectiblement rattachées, puisqu’on ne cesse jamais d’« analyser ce qui existe ». Tandis que les simulations demandent un usage plus précautionneux, car n’étant pas reliées au monde réel, elles sont astreintes à toujours pouvoir se mesurer aux données.

  1. Les échanges sont donc plus symétriques qu’on le croit. Les circulations entre données et simulations ne se font pas à sens unique mais dans les deux sens, par multiples transformations et allers‑retours, selon un « va-et-vient itératif », où données comme simulations sont comparées et discutées. Car si l’on a coutume d’évaluer les modèles à partir d’observations, il arrive (en paléoclimatologie, notamment) qu’à l’inverse le modèle serve à valider des méthodes d’interprétation de ces données.
    Cette forme de symétrie entre simulations et observations vient de la nécessité de leur faire « parler le même langage », de « les utiliser exactement de la même façon ». C’est l’ordinateur qui permet cette commensurabilité et cette comparaison. Le « langage commun » est souvent celui d’un diagnostic, d’une méthode d’analyse, d’une mesure instrumentale (le modèle calculant par exemple le signal qu’un instrument spatial donnerait de son climat fictif, afin de le comparer au signal réel enregistré). In fine, comme tout outil scientifique, l’ordinateur produit des cartes, courbes et histogrammes (provenant de simulations comme de données) qui constituent ce qui fait preuve, ce que l’on compare, analyse et commente.

  2. On n’évalue pas un modèle par rapport au climat en général ; on évalue sa capacité à reproduire un phénomène climatique particulier. Et l’évaluation ne marche jamais seule : il faut à la fois définir le phénomène climatique à valider, l’étudier et déterminer une méthode d’analyse adaptée aux simulations comme aux observations et permettant de les comparer. On pourrait dire que les chercheurs doivent « construire » le phénomène à valider. Ce ne sont évidemment pas les climatologues qui construisent la mousson indienne, par exemple ; mais ce n’est pas « la mousson indienne » qu’on cherche à reproduire et dont on veut évaluer la simulation, mais tel ensemble de paramètres caractérisant la mousson – qui, lui, est effectivement construit.
    Il n’existe donc pas de protocole général de validation – pas plus qu’il n’existe de norme universelle de la preuve expérimentale (Atten & Pestre, 2002). Chaque combinaison de phénomènes, de données disponibles et de questions urgentes suggère des méthodes d’analyse à l’imagination des chercheurs. Comme pour les expériences de laboratoire, les normes de validation ne sont pas préétablies mais définies en même temps que les faits à valider et les méthodes d’analyse auxquelles seront soumis données et modèles (Pestre, 1995).

  3. La capacité de tri et de combinaison de l’ordinateur, qui permet de mettre de l’ordre dans les observations et de classer les nébulosités, conjure en partie la fameuse complexité des nuages et de leurs interactions climatiques. Le mode d’analyse utilisé pour les simulations et les observations, en faisant émerger des structures, des corrélations et des rétroactions dans le modèle et dans les données, est aussi ce qui permet au modélisateur d’expliquer et de comprendre les phénomènes en les simplifiant. Les modes d’évaluation ont aussi une fonction heuristique.

  4. S’il importe que simulations et observations parlent le même langage, celui-ci n’évoque en rien le climat familier. Quoi de moins réaliste que des nuages rangés en ordre de bataille, ou des moussons réduites à leurs caractéristiques statistiques ? Ce qui intéresse les climatologues, c’est de « regarder les choses autrement », « dans des repères qui n’ont rien à voir » pour faire émerger des propriétés sous-jacentes. Leur modèle sera d’autant plus lié au climat réel qu’observations et simulations seront soumises aux mêmes traitements ; mais il n’en offrira pas pour autant une représentation mimétique.

30Même les données ne composent pas une représentation fidèle du climat. « La confrontation entre modèle et réalité ne se situe pas entre un réel déjà là et un modèle qui le représenterait. Ce n’est pas la « réalité » qui est représentée mais une double reconstruction, à la fois théorique et empirique, de cette dernière » (Dahan, 2001). Le référent auquel on confronte les simulations n’est pas « le climat », c’est un ensemble de données remodelées sélectionnées parmi les centaines de milliers que fournissent des réseaux d’instruments sur terre, mer et dans l’espace. Seul un monde instrumenté, préparé à cet effet, est capable de fournir les données qui mettront les modèles à l’épreuve.

31Ainsi, malgré l’importance primordiale du lien des modèles aux observations, l’objectif de la modélisation n’est pas de parvenir à une image mimétique du climat. Il s’agit de comprendre les mécanismes climatiques, d’accroître la confiance dans les modèles et dans les projections de changements climatiques, ce qui n’implique pas de produire des représentations réalistes du climat

Modélisation, représentation et mobilisation du monde

32En un sens, les remarques qui précèdent ne sont pas nouvelles. Que les données soient reconstruites à l’aide de modèles, que les sciences ne produisent pas d’images mimétiques de la réalité, voilà qui a été déjà montré, grâce notamment aux travaux de Peter Galison (2002), Ian Hacking (1989) et Bruno Latour. Les analyses des rapports entre observations et simulations climatiques qu’on vient d’esquisser rappellent d’ailleurs celles de Latour (2001) sur la science du sol en Amazonie : mêmes transformations et traductions en cascade, même réversibilité des circulations et traçabilité des observations, capacité identique de combinaison et comparaison de ces données faisant surgir de nouvelles corrélations pour triompher de leur enchevêtrement initial… Pour ce qui concerne les liens aux observations de terrain, la parenté de la modélisation du climat avec des sciences plus classiques et plus anciennes est manifeste. Sur ce plan en tout cas, il ne semble pas y avoir de différence de principe entre une science « pauvre et légère » comme la pédologie et une science aussi lourde et complexe que la modélisation du climat. Il existe bien sûr, en revanche, des différences de taille et d’échelle, les modèles du climat reposant sur une véritable « mobilisation du monde » (technique, métrologique, administrative...) qui a permis le développement et l’entretien de réseaux denses et complexes. Des grandeurs représentant les objets, milieux, et propriétés hétérogènes impliqués dans le climat (mesures des nuages par satellite, mesures de l’eau par les navires, caractéristiques des sols et de la végétation…) y circulent, y sont transformées, concentrées, combinées, et toutes ces informations réduites venues du monde entier sont rendues disponibles pour le modèle. À l’intérieur de ce gigantesque centre de calcul, il s’agit enfin, pour maîtriser l’avalanche de données, de classer, superposer et combiner encore, d’inventer de nouvelles transformations qui vont réduire le nombre de ces objets, traduire et résumer leurs relations, les transcrire à notre échelle.

33En dépit des similitudes qu’on vient de souligner, ces observations des confrontations entre modèles et données ne sont pourtant pas aussi banales qu’il paraît. D’abord parce qu’elles concernent justement la modélisation numérique. Les philosophes et historiens des sciences ont rarement abordé la modélisation dans son rapport aux observations. Ils ont décrit les modèles numériques comme des objets scientifiques nouveaux et étranges jouant les médiateurs entre les théories et les données (Morgan & Morrison, 1999), sortes d’hybrides fondés sur des théories et empruntant certaines caractéristiques à l’expérimentation (Winsberg, 2003). Mais ils n’ont guère prêté attention au fait trivial que les « expériences numériques » réalisées grâce aux modèles, si elles permettent d’explorer un monde (virtuel), de faire varier des paramètres, de produire des résultats – tout comme les expériences de laboratoires – ne remplissent pas la fonction de mise à l’épreuve par le réel, et n’exonèrent donc pas les chercheurs de la confrontation aux observations. En regardant les climatologues au travail, on constate que, sur ce plan, la modélisation du climat se soumet aux mêmes épreuves et obligations que les autres sciences.

34Au-delà des similitudes, l’observation du travail des climatologues a également permis de relever des spécificités propres aux modèles de climat. Les scientifiques n’ont certes pas attendu les ordinateurs pour manipuler les données. Mais le calcul numérique permet de pratiquer ces manipulations à très grande échelle ; sans lui, il serait impossible de transformer virtuellement le climat réel, d’expérimenter sur les observations, tant il est vrai que « la simulation numérique enjambe les classifications épistémologiques et les rend poreuses » (Serres, 2006). Ce qui ne signifie aucunement que l’ordinateur fait sortir de la réalité – on n’analyse jamais que « ce qui existe ». Le changement est ici de degré : l’ordinateur prolonge une histoire ancienne, en offrant un pouvoir de calcul et de superposition surmultiplié (Latour, 1989). La puissance de l’informatique confère une plasticité sans égale aux modèles et aux données et permet entre eux des connexions inédites.

35Le calcul numérique, en rendant possible la modélisation d’un système global aux éléments nombreux et hétérogènes et aux processus multiples, non linéaires et interagissant, en a aussi rendu la validation particulièrement ardue, puisque, comme on l’a vu, il est très délicat d’interpréter des simulations et d’isoler des mécanismes individuels. Quant aux observations, elles aussi sont globales et imbriquées : impossible de découper un modèle ou de sélectionner des données qui permettraient de tester uniquement un processus climatique particulier, sans interaction avec le reste du climat. D’où la nécessité pour chaque question préalablement définie, d’étudier à la fois le fonctionnement du modèle et celui du climat véritable en définissant les outils d’analyse spécifiques qui s’appliqueront aux simulations comme aux données et permettront de tester une partie ou une fonction du modèle. Cette méthodologie au cas par cas, ces analyses conjointes, finement imbriquées, en va‑et‑vient constant entre données et modèles, sont peut-être propres aux sciences à la fois globales, complexes, hétérogènes et physiquement modélisables comme la science du climat.

36Enfin, la question assez rebattue du « réalisme » – les sciences prétendent-elles imiter, reproduire ou représenter la réalité – revêt, dans les cas de la modélisation du climat, une importance toute spéciale. En premier lieu, si dans leurs pratiques les scientifiques ne construisent pas et ne visent pas une représentation réaliste du climat, il n’en reste pas moins que la modélisation du climat repose sur des algorithmes reproduisant les lois de la dynamique et de la thermodynamique de l’atmosphère et que les paramétrisations cherchent à se rapprocher de la physique des processus. Le progrès des ordinateurs et des moyens d’observation se traduit notamment par une meilleure résolution spatiale et temporelle, donc une représentation géographique plus précise, et par l’ajout de nouveaux milieux et phénomènes. Un des objectifs essentiels de la modélisation est en effet la prise en compte du maximum de facteurs et de cycles climatiques, par l’adjonction de nouveaux modules (glace de mer, chimie atmosphérique, écosystèmes, etc.) – ce qu’on désigne par un modèle de « système Terre » – notamment pour améliorer les simulations des climats futurs. Il existe donc bien une problématique du réalisme en modélisation du climat (faisant d’ailleurs débat chez les climatologues eux-mêmes) qui mériterait sans doute un examen plus approfondi. Mais surtout, le problème du changement climatique charge la question du réalisme de nouveaux enjeux politiques. Car les partisans d’une réduction des émissions de gaz à effet de serre s’appuient sur les prévisions des modèles ; et dans les discours destinés au public ou aux politiques, il est admis que seuls des modèles réalistes, et appelés à l’être de plus en plus, sont capables de fournir des prévisions crédibles des climats futurs. Discuter cette vision naïve des modèles, remettre en cause leur réalisme, souligner le caractère construit des données, etc., c’est prendre le risque d’être confondu avec les « sceptiques » ou les opposants à la politique climatique, dont certains ont abondamment critiqué les modèles. La science occupe une place centrale dans le problème climatique, et la conception de la connaissance scientifique et de son rapport au politique défendue notamment par le GIEC, est celle, traditionnelle, du « modèle linéaire » (même si le fonctionnement de l’expertise du GIEC ne correspond pas, dans les faits, à ce modèle (Dahan & Guillemot, 2006). Il est d’autant plus intéressant d’observer la façon dont les chercheurs améliorent la fiabilité de leurs modèles et de leurs prévisions malgré les incertitudes, approximations et lacunes – et sans passer par une reproduction mimétique du climat.

37Notre conclusion est que, contrairement aux idées reçues, ce sont les liens des modèles au monde réel (instrumenté), aux observations, qui en font une science en partie « comme les autres ». L’originalité de la modélisation du climat, ce qui la distingue des autres modes de production de connaissance, se trouve ailleurs – sans doute dans sa capacité à intégrer des théories, milieux et éléments hétérogènes, à enjamber les échelles de temps, d’espace et de complexité, à combiner la simplification et le complexe, le singulier et le contingent ; et aussi dans la faculté des simulations de prendre en compte l’histoire et des scénarios de fiction (Stengers, 1993). Quant aux rapports entre modèle et observation, aux rencontres et langages communs que les scientifiques tissent entre simulations et données, ce sont ces liens originaux et robustes qui fondent la confiance des scientifiques dans leurs modèles et font de la modélisation du climat un domaine scientifique innovateur et porteur d’enjeux majeurs.

Quels sont les éléments clés d'un modèle numérique du climat ?

Un modèle numérique du climat (comme un modèle de prévision du temps, dont il est très proche) est composé de deux grandes parties : une partie « dynamique » qui décrit les mouvements des masses d'air à partir des équations de la dynamique des fluides ; et une partie dite « physique » qui traite des échanges verticaux ...

Quels paramètres sont pris en compte pour construire un modèle climatique ?

Pour réaliser des projections réalistes du climat, les modèles de climat doivent décrire les quatre composantes du système climatique : l'atmosphère, océan, biosphère et cryosphère. La complexité d'un modèle est ainsi définie comme le nombre de processus climatiques pris en compte.

Comment se construit un modèle climatique ?

L'établissement d'un modèle climatique comporte plusieurs étapes. Les scientifiques réalisent d'abord des observations (directes et indirectes) et appliquent ensuite les lois fondamentales de physique, chimie, biologie et mathématiques connues.

Comment les modèles informatiques Peuvent

Les observations associées aux modélisations montrent l'impact majeur des activités humaines libérant des gaz à effet de serre sur le réchauffement climatique. Les modèles prévoient les conséquences du réchauffement climatique sur l'ensemble des sous-systèmes composant la planète.