Aller au contenu
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

le rechauffement sur le dernier siecle est il exeptionnel


olivier13
 Partager

Messages recommandés

UNIVERSITE Paul Cézanne

Centre universitaire Montperrin

UV Mémoire bibliographique

Licence SUE, 3ième année

Le réchauffement sur le dernier siècle est-il exceptionnel ?

Par : CARTAPANIS Olivier

MENABREAZ Lucie

Proposé par Gilles Delaygue

Année 2004-2005

Introduction

L’estimation de la variabilité climatique durant les siècles passés, est basée sur des archives naturelles ou proxies climatiques, qui enregistrent les variations du climat. Les tendances multiséculaires sont évidentes lorsque l’on analyse l’évolution des glaciers(Grove et Switsur, 1994), ou les données issues de forages de subsurface(Pollack et al, 1998). La reconstitution du climat année après année, pour les périodes antérieures aux données instrumentales, nécessite des proxies climatiques qui enregistrent les variations saisonnières ou annuelles comme les cernes d’arbres, les sédiments varvées, les carottes de glaces ou les coraux. Les études basées sur des données proxies multiples (Bradley et al, 1993 ; Hughes et Diaz, 1994 ; Mann et al, 1995, 1998, 1999;Esper, 2002; Von Storch et al., 2004) ont permis de placer le 20éme siècle dans une perspective a long terme de manière à le comparer à la variabilité naturelle du climat. Nous présenterons ici deux reconstitutions de températures (Esper et al.,2002; Mann et al., 1999) ainsi qu'une analyse des méthodes et une comparaison des résultats obtenus ( Von Storch et al., 2004; Briffa et al.,2002).

I/ La reconstitution RCS ( Regional Curve Standardization)

Préserver la variabilité multiséculaire du climat dans les enregistrements dendrochronologiques est important pour la reconstitution de l’évantail complet des variations de température durant le dernier millénaire. Des données dendrologiques soigneusement sélectionnées peuvent préserver une telle information basse fréquence si des méthodes d’analyse appropriées sont utilisées (Esper et al., 2002). Dans une première partie, la méthode RCS de reconstitution des températures de l’hémisphère Nord (HN) extratropical sur les derniers mille ans sera présentée. Différentes hypothèses sont faites : d’une part, la croissance des arbres grandissant dans des environnements froids est influencée par les températures de saison chaude (Jacoby et al., 1996) et d’autre part, les tendances basse fréquence des températures de saison chaude et annuelles dans l’HN sont statistiquement indistinctes. Les reconstitutions de températures annuelles issues de données fortement influencées par les conditions estivales supposent des relations constantes entre la donnée proxie et le climat estival, et entre les climats annuels et estivaux (Briffa et Osborn, 2002).

Ensuite, l’analyse de la reconstitution obtenue montrera que l’optimum médiéval (MWP : Medieval Warm Period) semble avoir été un phénomène à large échelle dans l’HN extra tropical et qui paraît avoir approché, pendant certains intervalles, la magnitude du réchauffement du XXième siècle au moins jusqu’en 1990 (Esper et al., 2002).

1) Principes de la reconstitution

Cette méthode est basée sur l’analyse des tendances de largeurs de cernes d’arbres dans 1205 séries d’anneaux de croissance radiaux provenant de 14 sites répartis à travers les hautes et moyennes latitudes de l’HN (figure1). Les espèces d’arbres représentées appartiennent aux genres Piceas, Pinus, Larix, et Abies.

[Esper et al., Science, 2002]

a) Traitement des données :

La longueur typique de segment de ces séries est d’environ 300 ans ; les séries individuelles sont alignées sur l’année calendaire et connectées dans le temps en utilisant la méthode du « coss-dating » (Cook et Kairiukstis, 1990) pour obtenir une chronologie totale. La difficulté de préserver la variabilité multi séculaire résulte d’abord de la suppression des tendances de croissance biologique liées à l’âge, qui montrent une diminution des largeurs de cernes avec un âge croissant (Cook et Kairiukstis, 1990).Ces tendances se retrouvent presque universellement dans toutes les séries et parasitent la reconstitution. Pour s’affranchir de ce signal, les dendrochronologistes appliquent à chaque série une fonction mathématique de croissance ajustée et lissée. Mais dans de tels cas, la longueur d’onde maximale de l’information climatique exploitable est limitée par les longueurs de segment des séries individuelles (Cook et al., 1995). Les exceptions sont les chronologies construites à partir de séries individuelles de mille ans ou plus, et celles développées par la méthode RCS (Briffa et al., 1992).

default_wub.png La reconstitution :

Les données, qui proviennent de différents sites et différentes espèces, sont classées en deux groupes : un groupe dont les tendances d’âge montrent une forme faiblement linéaire (443 séries), et un autre dont les tendances d’âge sont plus non linéaire (762 séries). L’ensemble des données a été divisé ainsi car les différences de pente et de niveaux de croissance peuvent biaiser les chronologies qui en résultent (Esper, Cook, et Peters).Pour chaque groupe, les auteurs estiment une courbe régionale de croissance (RC). Le succès de la méthode RCS requiert un grand nombre de séries de largeurs de cernes car la méthode d’élimination des tendances n’est basée sur aucun ajustement linéaire des séries individuelles. Par conséquent, les déviations par rapport à ces RCs sont fréquentes, ce qui reflète peut-être un changement basse fréquence dans le climat. C’est en ce sens que la méthode RCS peut préserver les tendances au-dessus des longueurs des enregistrements individuels « détendancés ».Ces déviations des cernes ont été calculées sous forme de rapports suivant des procédures standard (Cook et Kairiukstis, 1990) et les indices résultants ont ensuite été moyennés pour obtenir deux chronologies RCS, linéaire et non linéaire, à peu près indépendantes et couvrant l’intervalle 800-1990 (figure 2).

Fig. 2. : chronologies RCS des arbres classés linéaires et non linéaires, exprimées en terme de variations de l’indice de déviation sur les derniers 1200 ans.

[Esper et al., Science, 2002]

2) Analyses :

Les deux chronologies, très similaires, montrent la preuve de températures déduites au-dessus de la moyenne pendant l’optimum médiéval (900-1300), et au-dessous de la moyenne pour le petit âge glaciaire (1200-1850). Depuis 1850, un réchauffement à large échelle est indiqué, en accord avec les données instrumentales (Jones et al., 1999). Ce graphique révèle cependant des différences dans la date des conditions maximales du MWP. Cela reflète d’une part une représentation spatiale non uniforme des données puisque le nombre de sites décroît quand on remonte dans le temps, et d’autre part une plus grande variabilité spatiale des températures du MWP dans les moyennes et hautes latitudes de l’HN (Crowley et Lowery, 2000). Enfin, les courbes montrent que cet optimum médiéval a approché la magnitude du réchauffement du 20ième siècle, mais qu’il apparaît tout de même plus variable temporellement.

II/ Reconstitution MBH99 (Mann, Bradley, Hughes)

Récemment, Mann et al (Mann, Bradley, Hughes, 1998 ; "MBH98") ont reconstitué les températures annuelles moyenne de surface de l'hémisphère nord("NH") jusqu'à AD 1400, en calibrant de multiples données proxies avec des données instrumentales modernes.

Les auteurs appliquent la méthodologie utilisée dans MBH98 aux quelques séries de données proxies éparses valable pour la période 1000-1400 et obtiennent ainsi la reconstitution MBH99.

1) Données et Méthodes

Le réseau de séries proxies utilisée par MBH98 est constitué de 112 indicateurs variés, tandis que pour la période 1000-1400 seulement 14 séries réparties sur 12 sites différents sont utilisables(cf Tableau 1).

Tableau 1:

Parmi ces 14 séries, les 3 composantes principales("PC") de l'"International Tree Ring Data Bank"("ITRDB") sont valables jusqu'à l'an mille.

La procédure de calibration de MBH98 présuppose qu'il existe une relation linéaire entre les données proxies et les schémas globaux de température, et que les schémas globaux de température dans le passé puissent être décrit correctement et de manière linéaire avec les schémas actuels. Or seul un petit nombre de ces indicateurs est valable jusqu'à l'an mille pour les zones où les variations régionales apparaissent comme bien corrélées à MBH98, et aux simulations numériques(Amérique du nord). Ces séries de données ont donc une importance toute particulière et sont pondérées en conséquence selon la représentativité des régions concernées vis à vis des tendances globales(ITRDB PC#1 devient la composante principale) . Du fait du poids important de ITRDB PC#1, il devient nécessaire de retirer toute influence non climatique.

Un grand nombre de séries dendroclimatiques de haute et moyenne altitude montre une augmentation de la croissance des arbres depuis la fin du 18ième siècle, qui ne peut être expliquée par la seule tendance de température mesurée. Graybill et Idso(1993) ont montré que cette augmentation de la vitesse de croissance des arbres est liée à la hausse de la concentration atmosphérique en dioxyde de carbone. Sachant que ITRDB PC#1 est constitué majoritairement de séries d'altitude, les auteurs comparent les variations d'amplitude relatives entre ITRDB PC#1 et la "North American Treeline"("NT")qui n'est pas affectée par l'effet du CO2(Overpeck et al, 1997). La cohérence à basse fréquence des deux séries est assez remarquable entre 1400 et 1800 (figure 1) mais ces dernières divergent significativement à partir de AD 1800.

L'augmentation du résidu des deux courbes est étroitement corrélée à la hausse du taux de CO2 jusqu'au début du 20ième siècle avant de diverger. Les auteurs attribuent cet effet a l'établissement d'un facteur limitant passé un certain seuil de concentration atmosphérique en dioxyde de carbone. On soustrait donc ce résidu à ITRDB PC#1 de manière à aligner cette série à la série NT, cette correction se justifiant d'autant plus que les zones d'où sont issues les deux séries montrent des tendances très similaires lors du siècle passé. Cette nouvelle série crée valable mille ans est donc très similaire pour ses tendances basse fréquence à la série NT plus courte mais plus étendue et donc statistiquement plus représentative.

Figure 1. Comparaison de ITRDB PC#1 et de la série NAT :

(a) Séries NAT et ITRDB PC#1 lissées (75 ans). La version lissée corrigée de ITRDB PC#1 apparaît pour comparaison.

( default_mad.gif Résidus entre ITRDB PC#1 et la série NAT et tendances séculaires de ce résidu (filtré à 150 ans). Les variations relatives du taux de CO2 atmosphérique sont indiquées à titre de comparaison.

2) Vérification de la cohérence des résultats

Comme on pouvait s'y attendre, les statistiques de calibration et de vérification (reconstitution des températures de la période de calibration à partir des proxies) des données valables jusqu'à l'an mille sont relativement dégradées comparé à celles valables depuis 1400. Les variances résolues de calibration et de vérification (respectivement 39% et 34%) sont compatibles bien que plus faibles que pour les données disponibles depuis AD 1400(respectivement 42% et 51%; Cf MBH98).

D'autre part, un indicateur de la variabilité climatique doit montrer au moins le bruit rouge caractéristique du climat. Seulement cinq des indicateurs sont significatifs(montrent un bruit rouge au moins supérieur à la médiane pour la fréquence 0 ).

Seul ITRDB PC#1 montre une corrélation significative avec les schémas de température de la période de calibration. Cet indicateur est donc indispensable et il est représentatif d' une région essentielle pour la reconstitution des tendances climatiques; cependant rien ne prouve que cette relation n'a pas changé au cours du dernier millénaire.

Les auteurs ont également examiné les résidus de calibration pour toutes les séries jusqu'à AD 1820, et pour les 12 séries valables jusqu'à AD 1000(figure 2).

fig. 2. Spectre des résidus de calibration. Résidus de calibration des séries pour la période de 1820 à nos jours (traits pleins). Résidus de calibration des séries pour la période de l'an mille à nos jours (en pointillés). Médiane, niveaux de significativité à 90, 95 et 99%.

L'ensemble de ces analyses montre que les incertitudes calculées pour la reconstitution depuis AD 1000 sont légèrement plus importantes que celles calculées par MBH98 sans pour autant, selon les auteurs, altérer les conclusions qui vont suivre.

3) Reconstruction des températures

La reconstitution des températures, les incertitudes et le spectre de puissance associé sont présentés dans la figure 3. Le pic de puissance spectral centennal est hautement significatif relativement au bruit rouge et il est associé à la tendance au refroidissement a long terme de la période pré-industrielle. Ce refroidissement (δT=-0.02°C/100ans) pourrait être lié aux forçages astronomiques qui sont supposés avoir contrôlé les variations de température globale depuis le milieu de l'holocène à des vitesses de l'ordre de -0.01 à -0.04°C/100 ans (Berger, 1988). De plus, la variabilité centennale significative pourrait être liée aux variations de l'activité solaire.

Selon cette reconstitution, le 20ième siècle (1900-1998) (ΔT=+0.07°C par rapport à la période de calibration 1902-1980) est le plus chaud du millénaire passé (11éme siècle :ΔT=-0.04°C ; 19ième siècle :ΔT=-0.21). Les températures estimées dans cette reconstitution pour la fin des 11ième et 14ième siècles rivalisent avec la moyenne de ces 100 dernières années.

Fig. 3. (a) anomalies de température pour le dernier millénaire. ( default_mad.gif spectre de puissance des séries. Médiane; niveaux de significativité à 90, 95 et 99%.

La première partie de ce millénaire serait donc caractérisée par des températures relativement douces tandis que le refroidissement du 15ième siècle correspondrait à la mise en place du petit âge glaciaire. Cependant, les températures les plus chaudes du début du millénaire sont loin de rivaliser avec les températures modernes(1998: ΔT=+0.78°; 1253 et 1366: ΔT≈+0.25°; 1989-1998: ΔT=+0.45; 1166-1175: ΔT ≈+0.11), incertitudes comprises. Les températures moyennes globales de l'hémisphère nord de la dernière décennie sont donc, selon cette reconstitution, les plus élevées du millénaire passé, ce qui est d'autant plus frappant que ce réchauffement brutal va à l'encontre d'une tendance à plus long terme au refroidissement.

4) Conclusion

Selon les auteurs, bien que les températures moyennes globales de l'hémisphère nord reconstituées du début du millénaire soit marqués par une barre d'erreur non négligeable, il est toujours possible d'en tirer des conclusions importantes. Alors que les périodes les plus chaudes du début du millénaire approchent la moyenne des 100 dernières années, la fin du 20ième siècle apparaît comme une anomalie. La dernière décennie et l'année 1998 sont les plus chaudes de ce millénaire.

III/ Les limites des méthodes basées sur la régression

Les reconstitutions empiriques des températures de l’HN pour le dernier millénaire basées sur des enregistrements multiproxies (et c’est le cas de MBH98 et 99) dépeignent des variations de faible amplitude suivies d’une nette tendance au réchauffement pendant les deux derniers siècles. Ces reconstitutions sont basées sur des méthodes dites de régression : pour reconstruire l’évolution des températures, des modèles de régression sont développés durant la période commune aux données proxies et aux données instrumentales puis sont appliqués aux enregistrements proxies qui correspondent à la chronologie totale. De récentes études basées sur des modèles de circulation générale suggèrent que les variations séculaires ont été plus importantes (Jones et Mann, 2004 ; Rind et al., 2004). Le réalisme des estimations des variations fournies par les méthodes basées sur la régression peut être testé dans un climat de substitution simulé par des modèles climatiques à trois dimensions (Von Storch et al., 2004).

1) Le modèle ECHO-G (European Centre Hamburg 4-Hamgurg Ocean Primitive Equation-G)

La simulation climatique pour le dernier millénaire est effectuée avec un modèle couplé océan/atmosphère de circulation générale (ECHO-G) conduit par des estimations de forçage climatique historique. Comparé au MBH99, cette simulation produit des variations plus importantes. Bien qu’elle ne soit pas totalement réaliste en raison des limites du modèle (résolution grossière, représentation déficiente des processus), cette simulation est utilisée pour tester la fiabilité des méthodes de régression car elle reproduit un climat interne cohérent et car le forçage externe s’étend dans les limites des valeurs possibles (Von Storch et al., 2004).

2) séries de tests

Un réseau de données « pseudo-proxies » est obtenu en ajoutant un bruit statistique (qui imite la présence d’un signal autre que le signal climatique) à chaque température simulée en un point associé au réseau proxi MBH98 (figure1).

[Von Storch et al., Science, 2004]

La méthode statistique MBH98 est alors appliquée sur la base de ces données pseudo-proxies. Les données de type proxi étant moins précises quand on remonte dans le temps, seules les données pseudo-proxies ont été utilisées pour reconstruire l’évolution des températures (Von Storch et al., 2004). Idéalement, les reconstitutions issues de données pseudo-proxies parfaites, c’est-à-dire dépourvues de bruit statistique, devraient coïncider avec la simulation. Or, ce n’est pas le cas, donc l’utilisation seule de la méthode de régression induit des pertes dans les variations à l’échelle séculaire.

Différents tests sont effectués sur la reconstitution obtenue et sont illustrés dans la figure 2 :

· Lorsque des tests sont effectués avec un bruit statistique croissant, une diminution de l’amplitude des variations est constatée (fig. 2 .).

· L’ensemble de données est élargi en ajoutant 18 sites d’Asie et d’Afrique (fig. 1.) afin d’améliorer la couverture spatiale. La figure 2 montre que cela a légèrement amélioré la reconstitution des températures de l’HN, indépendamment de l’exclusion on de l’inclusion de pseudo-proxies de l’hémisphère Sud.

· Pour savoir si l’éventail de variabilité présent dans la période de calibration est suffisant pour reconstituer le climat des siècles passés, la gamme de variabilité a été augmentée en prenant les intervalles [1680-1720] et [1900-1940] à la place de la période standard [1900-1980] pour calibrer le modèle statistique. Lorsque les données ne sont pas parasitées, la reconstitution s’en trouve fortement améliorée ; et même avec un bruit statistique de 50%, cette amélioration est notable(fig. 2.).

· Afin de tester l’influence de données instrumentales, des pseudo-proxies parfaites ont été inclues dans le réseau. L’effet de cette modification s’avère faible, les différences dans les anomalies de température reconstruites étant inférieures à 2%.Mais il faut remarquer que ce test effectué sur d’autres méthodes de régression utilisées pour des reconstitutions plus régionales a au contraire montré une amélioration dans les résultats obtenus (Luterbacher et al., 2004).

4) Conclusions :

Les simulations climatiques du dernier millénaire sont influencées par les limites du modèle et les incertitudes concernant le forçage externe, et c’est pourquoi les résultats obtenus doivent être considérés avec soin. Mais leur réalisme est suffisant pour pouvoir conclure que l’utilisation des méthodes de régression considérées ici entraîne une sous estimation de la variabilité séculaire des températures de l’HN. De plus, d’autres tests ont montré que par rapport à MBH98, cette perte de variabilité est amplifiée pour des méthodes de régression plus simples (Von Storch et al., 2004). Les variations passées ont donc peut-être été deux fois plus importantes que celles indiquées par les méthodes empiriques. Ces résultats indiquent qu’un test détaillé de ces méthodes dans des climats simulés devrait constituer une part essentielle du processus de reconstitution et pourrait aider à une meilleure précision.

V/ Etude comparative

Pour effectuer une comparaison entre les reconstitutions existantes, Briffa et Osborn recalibrent les séries de manière à les rendre compatibles.

1) Calibration :

Les données de Mann et al. sont interprétées comme des indicateurs de la température annuelle moyenne, incluant les signaux de saison chaude et froide. Tous les enregistrements présentés sur la figure 1, qui montre sept reconstitutions différentes de température pour l’HN, ont été calibrés en supposant qu’ils reflètent la température annuelle (Briffa et Osborn, 2002). Cependant, les données utilisées par Esper et al. sont plus influencées par les conditions estivales qu’hivernales. Pour que leur enregistrement soit compatible avec les autres reconstitutions et ainsi permettre une comparaison, les auteurs ont rééchelonné la chronologie moyenne RCS (moyenne des chronologies RCS linéaire et non linéaire) en utilisant la période 1900-1977 comme période de calibration, car c’est l’intervalle le plus similaire entre les reconstitutions. Ceci est possible en raison de la forte corrélation (r = 0.94) entre les températures annuelles et les températures de saison chaude pour l’HN.

fig. 1. les courbes en trait plein colorées représentent sept reconstitutions des températures de l’HN : jaune (Overpeck 97) ; rouge (Jones 98) ; violet (Mann 99) ; orange (Crowley 00) ; vert (Briffa 00) ; bleu (Briffa 01) ; rose (Esper 02). La courbe en noir représente les observations lissées. En gris, sont représentés les changements de température annuelle estimés à partir de profils de température pour l’HN issus de forages de sub-surface (en pointillé, la moyenne pondérée de nombreux sites [Huang et al., 2000] ; en trait plein, les enregistrements sont pondérés spacialement avant d’être moyennés.)

Pour placer les enregistrements sur une même échelle, Briffa et Osborn recalibrent les séries sur la température annuelle moyenne observée pendant la période 1881-1960 sur les zones émergées au nord du 20°N. Les résultats ont été lissés sur 50 ans avec un filtre numérique afin d’accentuer les changements de température à l’échelle multidécenale et multiséculaire.

2) Analyses :

La figure 1 montre que la reconstitution Mann et al. fournit une variabilité multiséculaire de plus faible amplitude et elle est à la limite supérieure de la gamme des enregistrements produits par d’autres études (Overpeck et al., 1997 ; Briffa et al., 2001). Pour les hautes fréquences, les courbes sont assez similaires ; en revanche, c’est dans le comportement basse fréquence qu’apparaissent des différences frappantes, notamment entre MBH et RCS qui semblent représenter les deux extrêmes des reconstitutions. Le désaccord au niveau de l’amplitude des variations peut s’expliquer en partie par le fait que la reconstitution MBH inclue des estimations de température de la zone tropicale et sub-tropicale de l’HN, qui ne sont pas prises en compte dans l’enregistrement RCS. De plus, l’étude d’un modèle de balance énergétique a montré que les différences entre RCS et MBH semblaient exiger un forçage pour les expliquer, forçage qui s’atténue vers l’équateur (Esper et al., 2002).

L’optimum médiéval est plus prononcé pour la courbe Esper02 que dans les autres reconstitutions. La chronologie moyenne RCS indique qu’il a peut-être commencé au début de l’an 900, un résultat cohérent avec briffa02. La période la plus chaude couvre l’intervalle 950-1045, période non comprise dans MBH, et avec un pic aux alentours de 990 (Esper et al., 2002). Cette conclusion suggère que les comparaisons passées du MWP avec le réchauffement du 20ième siècle n’avaient pas inclus tout le MWP et peut-être même pas son intervalle le plus chaud.

La courbe de Esper et al. montre également une phase de refroidissement marquée au 17ième siècle, en accord avec les autres enregistrements et en particulier avec les données issues de forages de sub-surface (Huang et al., 2000). Cependant, pour le début de ce 17ième siècle, l’estimation d’Esper et al. diffère d’environ 0.7°C de celle de Mann et al. (Esper et al., 2002, fig3):

Fig. 1. Comparaison entre les températures de l'HN issues de la reconstitution MBH et la chronologie moyenne RCS ré-échelonnée. Chaque série a été lissée sur 40 ans avec un filtre numérique pour accentuer les variations sur le long terme.

[Esper et al., 2002]

Cette différence peut être réduite à 0.4°C quand l’enregistrement d’Esper et al. est régressé avec des données non lissées. Recalibrer les deux courbes avec les températures estivales réduit même cette différence à 0.35°C (Briffa et Osborn, 2002). Mais quel que soit le degré réel de refroidissement au cours du 17ième siècle, la courbe Esper02 montre des températures déduites bien au dessous de celles indiquées par les autres reconstitutions pour les 12ième, 13ième et 14ième siècles. Donc le dernier millénaire a peut-être été plus froid que ce qui a été indiqué par les interprétations précédentes (Briffa et Osborn, 2002).

3) Conclusions :

Malgré des différences dans la répartition géographique, les techniques et les données utilisées, la reconstitution élaborée par Esper et al. met en avant une variabilité climatique plus marquée durant le dernier millénaire que celles qui déduites des études antérieures. Cette étude tend donc à relativiser le caractère exceptionnel du réchauffement observé au cours du 20ième siècle.

Conclusion

Le dernier rapport de l'IPCC se base sur les résultats de MBH99 qui montre, comme beaucoup d'autres reconstitutions, que le réchauffement récent est abrupt et exceptionnel, et va à l'encontre de la tendance au refroidissement constatée lors du dernier millénaire. Cependant, selon les résultats obtenus par Esper ainsi que par la simulation ECHO-G, le climat des derniers mille ans a peut-être été plus variable que ce qui a été précédemment estimé. Il est donc nécessaire de disposer de reconstitutions plus fiables ainsi que de comprendre les causes des variations climatiques passées avant de pouvoir dire si le réchauffement à venir sera plus proche du maximum ou du minimum de la dernière fourchette fournie par l’IPCC qui prédit un réchauffement global allant de 1,4 à 5,8 degrés avant la fin du 21éme siècle.

REFERENCES BIBLIOGRAPHIQUES

-Northern Hemisphere Temperatures During the Past Millennium: Inferences, Uncertainties, and Limitations- Michael E. Mann, Raymond S. Bradley and Malcolm K. Hughes; Géophysical Research letters,Mars 1999

-Low frequency signals in long Tree-Ring chronologies for reconstructing past temperature variability- Esper, Cook, Schweingruber; Science, Mars 2002

-Blowing Hot and Cold- Briffa and Osborn; Science, Mars 2002

-Reconstructing Past Climate from Noisy Data- Von Storch et al.; Science, Octobre 2004

-Global-scale temperature patterns and climate forcing over the past six centuries- Michael E. Mann, Raymond S. Bradley and Malcolm K. Hughes; Nature, Avril 1998

-http://www.RealClimate.org

Lien à poster
Partager sur d’autres sites

  • 1 month later...

quelqu un peut il m'expliquer comment mettre les figures SVP.

bon OK personne ne repond c'est que personne n' a du lire mon poste jusqu'au bout. tans pis ca aurait été mieux avec les figures.

Un sujet passionnant qui m'avait échappé... Mieux vaut tard que jamais en espérant que tu passes encore sur le forum. Ces figures sont-elles sur un site, et si oui, lequel ??Florent.
Lien à poster
Partager sur d’autres sites

merci olivier13 pour ce bon résumé des différentes reconstitutions et de leurs implications.

Un point assez important, à mon sens, est mis en évidence à la fin de ce document:

Il est donc nécessaire de disposer de reconstitutions plus fiables ainsi que de comprendre les causes des variations climatiques passées avant de pouvoir dire si le réchauffement à venir sera plus proche du maximum ou du minimum de la dernière fourchette fournie par l’IPCC qui prédit un réchauffement global allant de 1,4 à 5,8 degrés avant la fin du 21éme siècle.

En effet la reconstruction des températures sur le globe, et notamment sur l'HN, s'accompagne d'une reconstruction de l'évolution des forçages.

Il est bien clair que tout cela peut changer la sensibilité du climat à ces différents forçages et donc l'évolution future de ce climat.

Autrement dit si la reconstruction actuelle des forçages est correcte, et si les variations de température au cours du dernier millénaire sont plus importantes que la reconstitution de Mann (ce qui n'est pas du tout prouvé par le rapport ci-dessus) cela veut dire que la sensibilité climatique est plus importante que calculée précédemment et donc que les risques de se situer dans la partie haute de la fourchette du GIEC augmentent considérablement..

Lien à poster
Partager sur d’autres sites

Posté(e)
Remiremont - Porte des Hautes Vosges (400 m)

Une étude très interessante, mais c'est vraiment dommage qu'un sujet aussi pointu, et souvent traité à partir de graphiques, ne soit pas illustré par les figures qui le composent. Cela en complique considérablement la lecture et la compréhension.

Pour ce qui est d'intégrer tes figures à ton post, je ne peux que te conseiller d'aller voir ce topic, peut-être y trouveras-tu ton bonheur:

/index.php?s=&showtopic=13448&view=findpost&p=220868'>Comment insérer des images à un post

En tous cas, merci pour ces informations default_laugh.png

Lien à poster
Partager sur d’autres sites

Eh bien ma foi, encore un a qui ce post avait échappé. :-( J'espère qu'Olivier13 est encore dans les parages pour recevoir nos félicitations.

Evidemment, tout le monde n'en retient pas la même chose... :-)

Pour ma part, je note ce clou supplémentaire dans le couvercle du cerceuil en bois de crosse de hockey :

"Les simulations climatiques du dernier millénaire sont influencées par les limites du modèle et les incertitudes concernant le forçage externe, et c’est pourquoi les résultats obtenus doivent être considérés avec soin. Mais leur réalisme est suffisant pour pouvoir conclure que l’utilisation des méthodes de régression considérées ici entraîne une sous estimation de la variabilité séculaire des températures de l’HN. De plus, d’autres tests ont montré que par rapport à MBH98, cette perte de variabilité est amplifiée pour des méthodes de régression plus simples (Von Storch et al., 2004). Les variations passées ont donc peut-être été deux fois plus importantes que celles indiquées par les méthodes empiriques. Ces résultats indiquent qu’un test détaillé de ces méthodes dans des climats simulés devrait constituer une part essentielle du processus de reconstitution et pourrait aider à une meilleure précision."

Et par ailleurs, oh surprise, je ne suis pas tout à fait d'accord avec Météor. :-))

En bonne logique, la sous-estimation de la variabilité naturelle passée a plutôt conduit à une surestimation du forçage anthropique récent - puisque la hausse du XXe siècle en devient tout à fait exceptionnelle. Si cette hausse s'inscrit au moins en partie dans une amplitude multiséculaire, le forçage radiatif des GES humain y est moindre dans le réchauffement constaté (ergo à venir).

Mais en fait, je ne suis même pas certain que les valeurs actuellement retenues par les modèles climatiques à visée prédictive aient quoi que ce soit à voir avec le dernier millénaire. Sauf erreur, ces modèles partent pour l'essentiel de l'évolution du CO2, avec comme base une évaluation du forçage pour un doublement de CO2 atmosphérique à 4 W/m2, et une réponse climatique à 3(+/-1) °C. Ils se rétrovalident sur les mesures récentes, ne serait-ce que pour des raisons de puissance de calcul.

Lien à poster
Partager sur d’autres sites

-

Bonjour

Merci Olivier13 pour cet excellent mémoire que je ne découvre qu'aujourd'hui.

Très bonne analyse. Je le surveille et je viendrais y faire une relecture quand les quelques graphes prévus seront en place.

Merci aussi à Charles.muller pour son site que je ne connaissais pas et qui apporte beaucoup d'informations pertinentes.

Cordialement.

-

Lien à poster
Partager sur d’autres sites

Et par ailleurs, oh surprise, je ne suis pas tout à fait d'accord avec Météor. :-))

En bonne logique, la sous-estimation de la variabilité naturelle passée a plutôt conduit à une surestimation du forçage anthropique récent - puisque la hausse du XXe siècle en devient tout à fait exceptionnelle. Si cette hausse s'inscrit au moins en partie dans une amplitude multiséculaire, le forçage radiatif des GES humain y est moindre dans le réchauffement constaté (ergo à venir).

Non je ne pense pas que ce soit exact.

Pas que tu ne sois pas d'accord avec moi bien sûr, mais pour le reste.

Je ne crois pas que les reconstructions, en général, donnent des températures dans l'absolu.

Il est donc nécessaire de les calibrer sur la période actuelle.

Il est assez facile d'imaginer, pour la dendrochronologie par exemple, que l'on étudie l'influence du climat connu précisément sur les cernes des arbres (calibration) et qu'on s'en serve pour déterminer le climat passé (reconstruction)

Si le climat actuel était constant, il n'y aurait pas de variation des cernes, ou, si cette variation existait, il serait impossible d'utiliser ce proxy.

Les courbes avant et après cette période actuelle sont donc, par nature, interdépendantes, mais pas dans le sens que tu supposes.Le plus logique est que l'on parte du présent pour "étalonner" le passé.

De plus, d'autres possibilités que les reconstructions par proxies existent.

Il s'agit, comme j'en ai déjà maintes fois parlé sur ce forum, des reconstructions par les forçages radiatifs connus.

Mais bien entendu on peut toujours remettre en cause l'évolution connue des forçages.

Toujours est-il qu'aucun forçage naturel connu ne permet d'expliquer les variations que supposent certains lors de l'OM et du PAG, ni bien sûr l'emballement constaté en fin XXième.

Lien à poster
Partager sur d’autres sites

Non je ne pense pas que ce soit exact.

Pas que tu ne sois pas d'accord avec moi bien sûr, mais pour le reste.

Je ne crois pas que les reconstructions, en général, donnent des températures dans l'absolu.

Il est donc nécessaire de les calibrer sur la période actuelle.

Il est assez facile d'imaginer, pour la dendrochronologie par exemple, que l'on étudie l'influence du climat connu précisément sur les cernes des arbres (calibration) et qu'on s'en serve pour déterminer le climat passé (reconstruction)

Si le climat actuel était constant, il n'y aurait pas de variation des cernes, ou, si cette variation existait, il serait impossible d'utiliser ce proxy.

Les courbes avant et après cette période actuelle sont donc, par nature, interdépendantes, mais pas dans le sens que tu supposes.Le plus logique est que l'on parte du présent pour "étalonner" le passé.

De plus, d'autres possibilités que les reconstructions par proxies existent.

Il s'agit, comme j'en ai déjà maintes fois parlé sur ce forum, des reconstructions par les forçages radiatifs connus.

Mais bien entendu on peut toujours remettre en cause l'évolution connue des forçages.

Toujours est-il qu'aucun forçage naturel connu ne permet d'expliquer les variations que supposent certains lors de l'OM et du PAG, ni bien sûr l'emballement constaté en fin XXième.

Bien entendu qu'il va falloir en passer par la remise en cause de l'évolution des forçages. Tels qu'ils sont établis actuellement, il n'expliquent en effet déjà pas les variations de l'OM, ni du PAG qui pourtant semblent bien exister comme nous en avons apporté de multiples indices.Je pense pour ma part que le forçage solaire est largement sous-estimé au Moyen-Age. De toute manière, on en sait pas grand chose et aucun élément actuellement connu ne peut démontrer qu'il n'a pas été beaucoup plus fort que ce qui est habituellement répercuté dans les reconstructions. Par conséquent, l'impact de celui-ci pourrait être pas suffisament connu même pour établir le poids relatif du forçage solaire sur le réchauffement constaté en fin du XXe siècle d'où en partie les écarts de scénarios de 1,4 à 5,9°C, ce qui est tout de même un petit peu gênant si on veut réellement savoir à quoi s'attendre... Et le pire, c'est que ce n'est pas le seul forçage qui soit très douteux...

Florent.

Lien à poster
Partager sur d’autres sites

De plus, d'autres possibilités que les reconstructions par proxies existent.

Il s'agit, comme j'en ai déjà maintes fois parlé sur ce forum, des reconstructions par les forçages radiatifs connus.

Mais bien entendu on peut toujours remettre en cause l'évolution connue des forçages.

Toujours est-il qu'aucun forçage naturel connu ne permet d'expliquer les variations que supposent certains lors de l'OM et du PAG, ni bien sûr l'emballement constaté en fin XXième.

Les grands esprits finissent toujours par se rencontrer : figure-toi que je planche en ce moment sur ces fameux forçages radiatifs. Et j'aurai certainement besoin de tes lumières. Pour l'instant, les estimations que je rencontre le plus souvent ne collent pas du tout entre elles. Je lis par exemple :

- les temp. ont augmenté de 0,7°C depuis 120 ans.

- le forçage radiatif anthropique cumulé de ces 120 ans est à peu près égal à 2,7 W/m2

- la hausse du CO2 (comme marqueur générique de ce forçage tel qu'utilisé par le GIEC) est de 30% depuis 120 ans.

- un doublement du CO2 atmosphérique est censé provoquer un forçage de 4W/m2 et une hausse de 3 +/- 1 °C.

D'évidence, ces constats et/ou estimations ont un problème. Par exemple, si 2,7 W/m2 ont provoqué 0,7°C de réchauffement, je ne vois pas comment 4W/m2 en provoqueraient approx. 3°C, selon l'estimation canonique en vigueur pour un doublement du CO2.

Mais tout cela est un peu précoce, je creuse la littérature avant de lancer le débat.

Lien à poster
Partager sur d’autres sites

Les grands esprits finissent toujours par se rencontrer : figure-toi que je planche en ce moment sur ces fameux forçages radiatifs. Et j'aurai certainement besoin de tes lumières. Pour l'instant, les estimations que je rencontre le plus souvent ne collent pas du tout entre elles. Je lis par exemple :

- les temp. ont augmenté de 0,7°C depuis 120 ans.

- le forçage radiatif anthropique cumulé de ces 120 ans est à peu près égal à 2,7 W/m2

- la hausse du CO2 (comme marqueur générique de ce forçage tel qu'utilisé par le GIEC) est de 30% depuis 120 ans.

- un doublement du CO2 atmosphérique est censé provoquer un forçage de 4W/m2 et une hausse de 3 +/- 1 °C.

D'évidence, ces constats et/ou estimations ont un problème. Par exemple, si 2,7 W/m2 ont provoqué 0,7°C de réchauffement, je ne vois pas comment 4W/m2 en provoqueraient approx. 3°C, selon l'estimation canonique en vigueur pour un doublement du CO2.

Mais tout cela est un peu précoce, je creuse la littérature avant de lancer le débat.

du haut de mon savoir puissant dans ce domaine je consens à te répondre et à t'aider un peu.

Non plus sérieusement, il faut tenir compte de tous les forçages connus, je le répète.

Parmi ceux-ci il faut noter particulièrement le forçage des aérosols tant anthropiques que volcaniques ainsi que le forçage solaire.

Lorsque je parle forçage solaire il s'agit bien sûr de sa variation et pas de sa valeur absolue.

Mais au cours de ces 50 dernières années le delta de forçage solaire peut être négligé.

Par contre le forçage par aérosols volcaniques, troposphériques et stratosphériques et le forçage par aérosols anthropiques (sulfates, noir de C, ...) sont assez bien connus et importants.

ainsi en supposant constant les aérosols volcaniques au cours des 50 dernières années (ce qui n'est pas vrai mais pour simplifier) on a le forçage des GES qui a augmenté de 1.61W/m2 (de 1948 à 1998) et le forçage par aérosols tropo qui a augmenté de -0.61 W/m2.

De 1948 à 1998 (dernière année pour laquelle je dispose de données) le forçage global a donc augmenté de 1.00 W/m2.

L'augmentation de température en résultant peut se calculer en dehors de toute sensibilité climatique par la dérivation de la loi de Wien soit:

delta T = delta flux/ 4*T3* sigma

avec sigma = 5.67 10-8

AN

delta T = 1.00/5.31 = 0.2°C

en fait comme tu le sais il faut tenir compte de l'effet des rétroactions et notamment de la vapeur d'eau.

le chiffre de 0.2°C représente l'effet radiatif pur des GES et aérosols, il est bon de reprendre les différentes sensibilités climatiques pour retrouver le delta de température.

La courbe de tendance entre 48 et 98 donne un delta de température de 0.39°C à comparer avec le 0.2°C en radiatif excepté H2O pur.

On peut ainsi avoir une approche de la sensibilité climatique qui est de 0.4°C/W.m-2

Le calcul plus précis tenant compte des aérosols volcaniques est à faire pour avoir une meilleure approche de cette sensibilité.

Mais l'essentiel est de bien voir qu'il faut tout prendre en compte et pas seulement les GES.

Si on fait le même calcul pour 1900-1998 on obtient un delta de forçage de 1.57W/m2 compte-tenu cette fois d'un delta solaire de +0.38W/m2.

La tendance de température donne pour cette période une augmentation de 0.51°C.

Soit une sensibilité climatique de 0.32°C/W.m-2

N'oublions pas cependant les phénomènes d'inertie thermique qui sont responsables notamment du fameux déficit de rayonnement de 0.85W/m2.

Il convient d'être prudent pour prendre en compte ce chiffre dans un calcul de sensiblité climatique qui correspond à une phase de transition (hors équilibre thermique).

On voit bien que si l'on soustraie ces 0.85W/m2 à 1.57W/m2 on obtient une sensiblité climatique de

0.71°C/W.m-2.

Mais un calcul différentiel intégral serait nécessaire pour avoir du plus précis et encore on n'a pas les valeurs du déficit radiatif au cours de toutes ces années.

Lien à poster
Partager sur d’autres sites

ahhh enfin. je commencait a penser que c'etait totalement illisible. desolé pour les figure mais non elles ne sont sur aucun sites internet du coup je sait pas trop comment faire. merci de vos felicitations, je tacherai de mettre a disposition mon prochain memoire. j'ai créé un post a ce sujet mais il n'as pas non plus eu de succée. desolé de ne pouvoir etre plus present sur le forum mais mon memoire et la mobilisation actuelle dans les universitées ne me laissent que peu de temps.

Lien à poster
Partager sur d’autres sites

Invité
Ce sujet ne peut plus recevoir de nouvelles réponses.
 Partager

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...