Aller au contenu
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

L'ex ministre fait le clown!


wetterfrosch
 Partager

Messages recommandés

Dans le scénario C, il y a de larges éruptions volcaniques qui sont simulées et une stabilisation NETTE des émissions de GES dès 2000. Donc, le "forçage précis" dont tu parles a été précisé.

question:

Quelles sont donc les émissions du scénario C et quelles sont les émissions réelles année par année?

C'est à cela qu'il faut répondre et ne pas rester dans de telles généralités.

Il est par exemple assez évident que les émissions de CH4 ne sont pas conformes à ce qui avait été prévu.

Il est donc farfelu de parler de mauvaises prévisions des modèles d'autant que les écarts prév B et réalité sont actuellement <0.1°C, ce qui est dérisoire.

D'autre part on n'a pas répondu à ma question sur le bricolage des courbes et sur les périodes de référence.

Pourquoi avoir utilisé une évolution HadCRUT mal positionnée, avec une période de référence différente du NASA-GISS et donc des modèles?

Lien à poster
Partager sur d’autres sites

  • Réponses 441
  • Créé
  • Dernière réponse

Les plus actifs

Si on le croit (et il assez est bien placé pour être cru), a- les modèles parviennent à simuler les températures du XXe siècle... sans faire intervenir de variation d'albédo des nuages qui représentent pourtant 15% de l'albédo total (soit bien plus que les autres forçages : GES + volcan + irradiance totale considérés à titre principal par les mêmes modèles) ; b- cette anomalie n'a pas vraiment été testée ; c- il n'existe pratiquement aucune théorie à ce jour sur les variations de l'albébo / nébulosité.

Qu'un poste aussi important soit aussi mal pris en considération sur 1900-2000 et aussi mal analysé en général indique aussi la difficulté qu'il y a à prendre au sérieux les estimations actuelles des modèles pour 2000-2100. Quand on fait un modèle radiatif du climat en reconnaissant que les évolutions d'un forçage -15/-20 W/m2 ne sont pas connues empiriquement et théoriquement, alors que les autres forçages considérés sont de l'ordre de ±0-3 W/m2, il ne faut pas s'étonner que certains doutes surgissent sur la qualité de ces modèles à refléter le réel.

Il convient d'apprécier tout de même un peu les choses.

1-si l'on regarde l'ensemble du "forçage" albédo nuage, il faut regarder l'ensemble du "forçage" des GES+solaire, et là évidemment les 15 W/m2 sont bien peu de choses comparés à ces derniers.

Il faut donc comparer des choses comparables.

On ne compare pas une valeur absolue d'un côté avec une variation de l'autre.

Pourquoi ne pas comparer le forçage des GES avec le flux solaire total, tant qu'on y est?

2-le pb des nuages et de l'albédo ne peut se dissocier de l'ES qu'il impliquent également.

Les -15W/m2 ne sont pas le résultat de "15% de l'albédo total (ce qui est faux d'ailleurs) mais le résultat de l'addition albédo + effet IR.

Lorsque l'on parle de variation des nuages ne pas oublier que celle-ci s'accompagne suivant la nature et la position des nuages d'un effet IR différent.

Les modèles ne savent pas parfaitement prévoir ce que peut donner un doublement du CO2 sur les nuages.

J'ai bien quelques infos qui disent qu'en cas de doublement les nuages pourraient constituer un feedback positif.

Il y aurait moins de nuages en basse couche et plus en haute.

On jouerait donc, si je puis dire, sur les 2 tableaux:

baisse de l'albédo et augmentation de l'IR.

Il est un peu léger de parler d'un "manque de sérieux" des modèles actuels.

Ce n'est pas parce que la modélisation parfaite de ce que je viens de décrire plus haut n'existe pas encore qu'il n'est pas tenu compte des nuages dans les différents modèles.

Mais je retiens cette info assez intéressante, je cite Ramanathan:

Yet it is remarkable that our general circulation climate models are able to explain the observed temperature variations during the last century solely through variations in greenhouse gases, volcanoes and solar constant. This implies that the planetary albedo has not changed during the last 100 years by more than ±0.2% (out of 30%). This, seemingly improbable model generated hypothesis, has not been tested thus far. [...]

Autrement dit, lorsqu'on fait tourner les simulations sans les nuages, on retrouve les variations constatées.

Autrement dit aussi, les effets albédo et IR éventuels s'annuleraient.

Lien à poster
Partager sur d’autres sites

Schmidt, G.A., R. Ruedy, J.E. Hansen, I. Aleinov, N. Bell, M. Bauer, S. Bauer, B. Cairns, V. Canuto, Y. Cheng, A. Del Genio, G. Faluvegi, A.D. Friend, T.M. Hall, Y. Hu, M. Kelley, N.Y. Kiang, D. Koch, A.A. Lacis, J. Lerner, K.K. Lo, R.L. Miller, L. Nazarenko, V. Oinas, Ja. Perlwitz, Ju. Perlwitz, D. Rind, A. Romanou, G.L. Russell, Mki. Sato, D.T. Shindell, P.H. Stone, S. Sun, N. Tausnev, D. Thresher, and M.-S. Yao 2006. Present day atmospheric simulations using GISS ModelE: Comparison to in-situ, satellite and reanalysis data. J. Climate 19, 153-192, doi:10.1175/JCLI3612.1.

Une bonne nouvelle à la lecture de ce papier, c'est que la sensibilité climatique 2xCO2 ne cesse de diminuer à mesure que les modèles s'affinent :

6. Climate sensitivity

This paper is mainly concerned with the fidelity of the ModelE simulations of present-day climate. However, the generic climate sensitivity of the model is a function of the base state and is a useful metric to estimate the response of the model to more specific forcings. Accordingly, we use the q-flux model (with a

maximum mixed layer depth of 65 m to reduce computation time) to estimate the climate response to 2 CO2

and 2% reduction in the solar constant, which are roughly comparable (4.12 and 4.69 W m2 adjusted forcing at the tropopause, respectively) but of opposite sign. The M20 model warms by 2.6°C for doubled CO2 and cools by 2.8°C in the reduced solar case, giving a sensitivity of 0.6°C (W m2)1. With a preindustrial base case (1880 conditions), which has slightly increased sea ice, the doubled CO2 sensitivity is slightly larger, 2.7°C. The F20 and M23 models have sensitivities to 2 CO2 of 2.8° and 2.4°C, respectively.

On était à 4,2°C au début des années 1990 (d'après Hansen 2006), on est entre 2,4 et 2,8 °C selon la variante choisie du ModelE. Cela fait quand même une appréciable réduction d'env. 40% en 15 ans.

L'autre point intéressant, c'est que les nuages posent toujours problème. La figure 10 sur le forçage radiatif des nuages donne:

forçage SW

ERBE (mesure) : -48,11

M20 (modèle) : -46,34

F20 (modèle) : -46,24

M23 (modèle) : -45,61

forçage LW

ERBE (mesure) : 29,44

M20 (modèle) : 22,46

F20 (modèle) : 23,06

M23 (modèle) : 21,17

Quant à la quantité globale de nuage, elle reste elle aussi sous-estimée par les modèles : 66,72% pour les données ISCCP (1982-2001), 56,71, 58,48 ou 58,75 % pour les trois variantes. 8 à 10 % de nuages en moins, cela représente quand même une certaine perte d'albédo dans les modèles par rapport au réel (d'autant que les stratocumulus des régions maritimes sont apparement les plus sous-estimés par le ModelE, et que ces nuages de basse couche ont l'albédo le plus élevé).

Lien à poster
Partager sur d’autres sites

Lorsque l'on parle de variation des nuages ne pas oublier que celle-ci s'accompagne suivant la nature et la position des nuages d'un effet IR différent.

Bien sûr, mais deux études convergentes dont on a déjà beaucoup parlé ici ont montré que les seules variations de nébulosité ont pu représenter un forçage supérieur à celui des GES dans les années 1985-2003 (Wild 2005, Pinker 2005). Comme ces études n'ont pas été contredites pour le moment, leur résultat mérite considération. Et montre la difficulté de simuler le climat d'un point de vue radiatif avec un poste encore très spéculatif.

Ce n'est pas parce que la modélisation parfaite de ce que je viens de décrire plus haut n'existe pas encore qu'il n'est pas tenu compte des nuages dans les différents modèles.

Exact, voir par exemple ModelE dans mon autreréponse.

Mais je retiens cette info assez intéressante, je cite Ramanathan:

Yet it is remarkable that our general circulation climate models are able to explain the observed temperature variations during the last century solely through variations in greenhouse gases, volcanoes and solar constant. This implies that the planetary albedo has not changed during the last 100 years by more than ±0.2% (out of 30%). This, seemingly improbable model generated hypothesis, has not been tested thus far. [...]

Autrement dit, lorsqu'on fait tourner les simulations sans les nuages, on retrouve les variations constatées.

Autrement dit aussi, les effets albédo et IR éventuels s'annuleraient.

Ramanathan souligne précisément le caractère apparemment improbable d'une quasi-constance de l'albédo terrestre sur le XXe siècle. Si un modèle trouve la bonne température avec un mauvais paramètre, cela démontre soit que le paramètre est indifférent au résultat (c'est justement "improbable"), soit que le modèle a mal calibré l'ensemble des autres paramètres.
Lien à poster
Partager sur d’autres sites

Ramanathan souligne précisément le caractère apparemment improbable d'une quasi-constance de l'albédo terrestre sur le XXe siècle. Si un modèle trouve la bonne température avec un mauvais paramètre, cela démontre soit que le paramètre est indifférent au résultat (c'est justement "improbable"), soit que le modèle a mal calibré l'ensemble des autres paramètres.

D'ailleurs je ne comprends pas bien ce que dit Ramanathan.

Les modèles incluent une variation d'albédo suite à l'effet indirect des aérosols.

Pourquoi parler dans ce cas d'absence de variation d'albédo?

On était à 4,2°C au début des années 1990 (d'après Hansen 2006), on est entre 2,4 et 2,8 °C selon la variante choisie du ModelE. Cela fait quand même une appréciable réduction d'env. 40% en 15 ans.

J'ai pas vu ces 4.2°C.

Pourrais-tu préciser?

de quel Hansen 2006 parles-tu?

Lien à poster
Partager sur d’autres sites

J'ai pas vu ces 4.2°C.

Pourrais-tu préciser?

de quel Hansen 2006 parles-tu?

te déranges surtout pas, j'ai vu:

Close agreement of observed temperature change with simulations

for the most realistic climate forcing B is accidental,

given the large unforced variability in both model and real world.

Indeed, moderate overestimate of global warming is likely because

the sensitivity of the model used (12), 4.2°C for doubled CO2, is

larger than our current estimate for actual climate sensitivity, which

is 3+-1°C for doubledCO2, based mainly on paleoclimate data (17).

Par contre ce que j'ai mis en gras me gêne un peu.

Les modèles actuels, qui ne sont pas tous des NASA-GISS, n'ont pas besoin des données paléoclimatiques pour donner les mêmes sensibilité pour 2XCO2.

Lien à poster
Partager sur d’autres sites

D'ailleurs je ne comprends pas bien ce que dit Ramanathan.

Les modèles incluent une variation d'albédo suite à l'effet indirect des aérosols.

Pourquoi parler dans ce cas d'absence de variation d'albédo?

Je pense qu'il fait allusion à la variation de la nébulosité en général, pas seulement celle induite par l'homme. Dans le résumé de son intervention (ci-dessous), il inclue l'effet indirect des aérosols dans la modélisation et les progrès en cours.

How do Aerosols and Clouds Regulate the Planetary Albedo and the Solar Radiation

Budget?

V. Ramanathan [vram@fiji.ucsd.edu], Scripps Institution of Oceanography, University of

California at San Diego.

The global average planetary albedo is about 29% (±2%). The albedo of the clear sky

region of the planet is about 14% (±2%). Thus the presence of clouds enhances the albedo of a

cloud free earth by about a factor of two. We also know that, while the atmospheric circulation

determines the location and extent of clouds and water content, aerosols determine the size and

number distribution of cloud drops and ice crystals. The aerosol properties are determined by

the chemistry (e.g. oxidation of sulfur dioxide and organics) and the biology (dimethyl sulfide).

All of these parameters including the aerosol concentration and composition undergo

significant temporal (minutes to years) and spatial (meters to planetary scales) variations. Yet it

is remarkable that our general circulation climate models are able to explain the observed

temperature variations during the last century solely through variations in greenhouse gases,

volcanoes and solar constant. This implies that the planetary albedo has not changed during the

last 100 years by more than ±0.2% (out of 30%). This, seemingly improbable model generated

hypothesis, has not been tested thus far. Another fundamental question, we as a community

have to address is: Why is the global albedo about 29%? To understand why this is an

important question, consider the following two examples. A global albedo of 32% would

plunge the Earth into a climate similar to that of the last ice-age; while an albedo of 26% would

be comparable to a five fold increase in the CO concentration. Is the albedo hovering around

29%, because of the need to maintain a habitable climate?; or is it sheer chance that the planet

settled into the 29% albedo?

There is practically no theory for explaining how the cloudy sky albedos are regulated.

Given this state of the field, and given the fact that clouds exert a large global cooling effect

(about –15 to 20 Wm -2 ) we need a new approach to cut through the current impasse on this

fundamental problem in climate dynamics. On a more practical level, the link between aerosols

and cloud albedo produces the so-called indirect effect of anthropogenic aerosols. Many

models and field observations (e.g, INDOEX and ACEII) have shown that an increase in

anthropogenic aerosols can nucleate more cloud drops and enhance the cloud albedo and lead

to a cooling effect. The IPCC-2001 report shows that this cooling effect may be large enough

to offset 50% to 100% of the radiative heating due to the build up in greenhouse gases. This

indirect effect (i.e, the regulation of cloud albedo by anthropogenic aerosols) is acknowledged

to be the largest source of uncertainty in understanding the human impact on the global

climate.

It is clear to us that new discoveries await us in a serious quest that determines, from

observations, the processes by which aerosols regulate cloudy sky albedo. After setting the

stage with recent results, I will describe a new observing system that is designed to address the

aerosol- cloud albedo regulation problem. It consists of vertically stacked and multiple UAVs

(light weight and long range) carrying miniaturized aerosol-cloud-radiation instruments. A

campaign with 3 stacked UAVs was completed this year in the Indian ocean and results from

that expt will also be discussed top suggest that this new platform, in conjunction with satellite

observations, offers a promising avenue for solving the outstanding problem in climate.

Lien à poster
Partager sur d’autres sites

te déranges surtout pas, j'ai vu:

Par contre ce que j'ai mis en gras me gêne un peu.

Les modèles actuels, qui ne sont pas tous des NASA-GISS, n'ont pas besoin des données paléoclimatiques pour donner les mêmes sensibilité pour 2XCO2.

A ma connaissance, l'estimation de la sensibilité climatique s'obtient en faisant tourner fait un modèle CGM jusqu'à un doublement du CO2, mais aussi en observant les climats passés (XXe ou avant) et en déduisant une sensibilité climatique effective au CO2 sur une période donnée et en fonction de forçages donnés. Je pense que le modèle GISS fait allusion à ce second type de correction.
Lien à poster
Partager sur d’autres sites

A popos, je signale au passage le dernier livre dirigé par Ramanathan et Kiehl, consacré aux principales problématiques des modèles aujourd'hui. J'espère qu'il est bien parce que j'ai commandé (...120$, gloups).

Frontiers of Climate Modeling

Edited by J. T. Kiehl, V. Ramanathan

(ISBN-13: 9780521791328 | ISBN-10: 0521791324)

September 2006 | 381 pages | 247 x 174 mm

The physics and dynamics of the atmosphere and atmosphere-ocean interactions provide the foundation of modern climate models, upon which our understanding of the chemistry and biology of ocean and land surface processes are built. This volume captures modern developments in modeling the atmosphere, and their implications for our understanding of climate change, whether due to natural or anthropogenic causes. Emphasis is on elucidating how greenhouse gases and aerosols are altering the radiative forcing of the climate system and the sensitivity of the system to such perturbations.

Contents

Preface; 1. Overview of climate modeling J. T. Kiehl; 2. Climate change modeling: a brief history of the theory and recent 21st century ensemble simulations W. M. Washington, A. Dai and G. A. Meehl; 3. Energy balance climate models G. R. North and M. J. Stevens; 4. Intrinsic climate variability: modes and mechanisms of oceanic and atmospheric fluid dynamics J.C. McWilliams; 5. The radiative forcing due to clouds and water vapor V. Ramanathan and A. Inamdar; 6. A model study of the effect of Pinatubo volcanic aerosols on stratospheric temperatures V. Ramaswmay, S. Ramachandran, G. Stenchikov and A. Robock; 7. Unresolved issues in atmospheric solar absorption W. D. Collins; 8. Cloud feedbacks D. A. Randall, M. E. Schlesinger, V. Galin, V. Meleshko, J.-J. Morcette and R. Wetherald; 9. Water vapor feedback D. Rind; 10. Water vapor observations B. J. Soden; 11. New frontiers in remote sensing of aerosols and their radiative forcing of climate Y. J. Kaufman, L. A. Remer and D. Tanré; 12. Cloud-climate feedback: lessons learned from two El Niño events M. Zhang; 13. Runaway greenhouses and runaway glaciations: how stable is Earth's climate? J. F. Kasting.

Lien à poster
Partager sur d’autres sites

Je pense qu'il fait allusion à la variation de la nébulosité en général, pas seulement celle induite par l'homme. Dans le résumé de son intervention (ci-dessous), il inclue l'effet indirect des aérosols dans la modélisation et les progrès en cours.

ok ça doit être çà en effet, merci pour l'extrait.

concernant ce que tu disais sur la baisse des valeurs de la sensibilité climatique:

Dans le TAR on lit ceci:

Summary

The climate sensitivity is a basic measure of the response of the climate system to a change in forcing. It may be measured in several ways as discussed above. The equilibrium climate sensitivity, that is, the range of the surface air temperature response to a doubling of the atmospheric CO2 concentration, was estimated to be between 1.5 and 4.5°C in the SAR (Kattenberg et al., 1996). That range still encompasses the estimates from the current models in active use.

La valeur médiane est de 2.8°C pour le TAR.

Pour l'AR4 c'est 3.2°C

Les valeurs fin années 80 (le rapport de Hansen datait de 1988 donc vraisemblablement basé sur des modèles avant 88) étaient effectivement plus élevées.(comme celles d'Arrhénius d'ailleurs default_tongue.png/emoticons/tongue@2x.png 2x" width="20" height="20"> )

Néanmoins il semble qu'on assiste à une relative stabilisation de la sensibilité climatique vers 3 °C de valeur médiane.

2.6°C pour le modelE, 2.8°C pour le TAR, 3.2 °C pour le FAR ou AR4.

Ceci dit j'ai moi-même (très modestement étant donnée mon importance toute relative dans le dispositif default_rolleyes.gif ) toujours considéré, que la messe n'était pas dite en ce qui concernait les mesures d'albédo et de couverture nuageuse.

Il est, de plus, extraordinairement difficile de mettre en évidence, a posteriori, une variation de ces 2 paramètres.

Je ne pense pas qu'il y ait de proxy suffisamment fiable pour cela.

Il est non moins difficile de distinguer maintenant l'évolution naturelle de l'évolution anthropique.

Surtout que l'on peut avoir quelques doutes sur la précision des mesures actuelles.

Il va donc falloir être patient.

Mais, à mon sens, cela ne change pas grand-chose au problème.

La variation naturelle venant soit renforcer, soit amoindrir, par périodes successives, le réchauffement en cours.

Lien à poster
Partager sur d’autres sites

A popos, je signale au passage le dernier livre dirigé par Ramanathan et Kiehl, consacré aux principales problématiques des modèles aujourd'hui. J'espère qu'il est bien parce que j'ai commandé (...120$, gloups).

Charles Muller bientôt embauché par le GIEC! default_tongue.png/emoticons/tongue@2x.png 2x" width="20" height="20">

En temps qu'expert des modèles bien entendu.

Lien à poster
Partager sur d’autres sites

Ce post a pris une tournure très interessante avec un questionnement sur certain des paramétres des modèles (réponse à un éventuel doublement du CO2, évolution de la nébulosité, albedo, etc...)

Pour ma part, j'avais retenu au départ les paramètres et hypothéses suivants (en ne citant ici que les paramètres discutés dans ce post) :

- sensibilité de l'évolution de la température terrestre moyenne à un doublement de la masse de CO2 atmosphérique: + 3°C

- évolution moyenne de la nébulosité : nulle (hypothése que l'augmentation à certaines latitudes serait compensée par la réduction à d'autres. Il existe en effet trop d'incertitudes pour retenir une autre hypothèse)

- évolution de la capacité de l'atmosphère à retenir de la vapeur d'eau sans atteindre le point de rosée: augmentation exponentielle par rapport à l'évolution de la température de l'atmosphère (au niveau de la mer, la masse de vapeur d'eau correspondant au taux de saturation passe de seulement 5 grammes par mètre cube à 0°C à 10 g pour 10°C, 30 g pour 25°C, 60 g pour 80°C et...420 g pour 80°C. Il est évident qu'on n'en arrivera pas là, mais ces valeurs montrent qu'il n'y a pas proportionalité.)

- évolution de l'albédo: essentiellement en fonction du recul des glaciers et des banquises (valeurs moyennes retenues: albédo = 0,8 pour la glace et 0,2 pour l'eau de mer).

- incidence de l'évolution des paramètres astronomiques et en particulier de l'activité solaire : variabilité de la température moyenne atteignant au maximum 1°C (j'en tiens compte dans ma marge d'erreur) ; mais incidence nulle en moyenne sur le moyen et le long terme.

J'ai rapidement recalculé l'incidence sur ma modélisation d'une sensibité au doublement du CO2 passant de 3 à 2,5, tous les autres paramètres restant inchangés: Je trouve +11,6°C vers 2050 au lieu de +12,1°C dans mon hypothése minimale initiale.

En cas de ralentissement du recul de la banquise lié à la réduction de salinité des eaux de surfaces, je trouve un ralentissement de la dérive climatique au cours des 20 prochaines années (la quasi disparition estivale de la banquise serait retardée d'environ 8 ans par rapport à mes prévisions initiales), suivie d'un ratrapage partiel de ce retard au delà: j'obtiens tout de même +11,4°C aux environs de 2050, soit légérement moins que l'hypothèse maximale envisagée en 2005 par l'équipe du Pr Stainforth.

La faiblesse de la réponse de mon modèle à une réestimation à la baisse de la relation température/CO2 et de l'évolution de l'albédo provient du fait qu'il attribue un rôle prépondérant dans l'avenir à l'évolution de la concentration atmosphérique en CH4 (résultat envisagé du dégel du permafrost et de la déstabilisation des gisements de clathrates) et , dans une moindre mesure, aux gaz fluorés utilsés dans les systèmes de réfrigération. Il prend aussi en considération rétroactions (positives et négatives) et effet de seuil (je me suis déjà longuement expliqué à ce sujet sur les forums d'InfoClimat).

L'évolution de la hausse de la température moyenne serait d'abord relativement faible (tout à fait comparable à la plus forte des hausses découlant des modèles du GIEC) au cours des 20 ou 25 prochaines années, mais connaîtrait ensuite un emballement (partie exponentielle de la fonction logistique représentative de l'évolution découlant à moyen et long terme de mon modèle) à partir des environs de 2030, essentiellement - mais pas uniquement - à la suite de la déstabilisation de plus en plus massive des gisements de clathrates et des effets de rétroaction qui s'en suivraient.

Alain

Lien à poster
Partager sur d’autres sites

Moi je veux bien miniTAX mais d'où sort ton graphique?

Je vois une courbe rouge, la courbe observée et une courbe bleue HadCRUT.

Qui a rajouté cette courbe bleue?

A mon sens c'est du bricolage qui ne tient pas la route.

1-HadCRUT utilise,on l'a déjà dit 1000 fois, une référence différente de NASA-GISS.

Les courbes de Hansen ne sont pas par rapport à la référence Hadley mais par rapport à la référence NASA-GISS.1ère erreur.

2-en 2005 Hadley annonçait 0.47°C d'anomalie.

Pour tenir compte de la différence de référence j'ajoute 0.07°C à ces 0.47°C et j'obtiens 0.54°C bien au-dessus du 0.41°C -0.43 °C indiqué sur ton graphe.2ème erreur.

Donc attention aux bricolages ou alors les faire soigneusement.

Bonjour Meteor,On parle d'anomalie avec un calage plus ou moins abitraire à la date de début du graphe en 1958, je ne vois pas ce que des périodes de références différentes ont à voir dans des fluctuations RELATIVES ? default_crying.gif

La courbe bleu est celle de HadCrut, que doit on justifier de plus ?

De plus elle est calée au meme ordonné que la température des modèles en départ de la simulation ce qui serait beaucoup plus logique que la courbe rouge qui mystérieusement est placée plus haut par Hansen (sans doute pour démontrer que la terre se réchauffe aussi bien que les simulations le prévoit ?) alors que toutes les simulations commencent strictement à la meme température.

Donc au final, meme avec le scénario C où les émissions anthropiques se stabilisent net dès 2000, la température simulée reste bien supérieure au réel à partir de 2000. Dès lors, pour oser dire que les modèles sont prédictifs, il faut avoir de sacrées lunettes... déformantes default_smile.png/emoticons/smile@2x.png 2x" width="20" height="20">

Edit: graphe remis pour faciliter la discussion, désolé modérateurs.

hansen%20with%20hadcrut.jpg

Lien à poster
Partager sur d’autres sites

La faiblesse de la réponse de mon modèle à une réestimation à la baisse de la relation température/CO2 et de l'évolution de l'albédo provient du fait qu'il attribue un rôle prépondérant dans l'avenir à l'évolution de la concentration atmosphérique en CH4 (résultat envisagé du dégel du permafrost et de la déstabilisation des gisements de clathrates) et , dans une moindre mesure, aux gaz fluorés utilsés dans les systèmes de réfrigération. Il prend aussi en considération rétroactions (positives et négatives) et effet de seuil (je me suis déjà longuement expliqué à ce sujet sur les forums d'InfoClimat).

Bonjour Alain, Je ne sais pas retrouver où a eu lieu la discussion sur l'effet de seuil pour les chlarates, si éventuellement des chiffres ont été donné ou non. Mais supposons que la SST augmente de 11°C (délirant), crois tu que la température en eau profonde, sous la thermocline, serait montée suffisamment pour libérer les chlarates ? Pour avoir fait de la plongée, je peux te dire que meme sous les tropiques, ça caille dès que tu descends un peu dans les profondeurs default_crying.gif

Quels sont tes ordres de grandeurs stp, si ça te dérange pas de les (re)donner ?

Lien à poster
Partager sur d’autres sites

Si, ce que tu peux faire pour moi, c'est d'essayer de comprendre ce dont on parle au sujet des simulations. default_crying.gif

J'insiste :

Dans le scénario C, il y a de larges éruptions volcaniques qui sont simulées et une stabilisation NETTE des émissions de GES dès 2000. Donc, le "forçage précis" dont tu parles a été précisé.

Jusque là tu me suis ?

Ensuite malgré ce forçage beaucoup moins important que la réalité, la simulation donne une température trop haute par rapport aux observations. Si on alimente le modèle avec les vrais taux de GES, la température simulée ne peut qu'être encore plus haute. Dans tous les cas, c'est hors clou !

Tu me suis toujours ?

Je t'ai donne deux fois la meme explication avec differents mots, t'as pas compris. C'est pas grave, on continue.

Alors ma question est: si les modèles de 1990 ont été archivées, ce qui serait la moindre des choses, pourquoi ne les a-t-on pas alimentés avec les VRAIES valeurs de GES (nul besoin de projection ou de lscénario d'émission puisqu'on dispose des valeurs réelles) pour simuler la température de maintenant, histoire de faire la comparaison simulation-observation et de juger le "skill" des modèles de 1990. Si on ne l'a pas fait dans le papier de Hansen, qui rappelons le cherchait à justifier la prédictibilité des modèles, tout ce qu'on pourrait dire sur cette supposée prédictibilité ne peut que relever de la profession de foi.

On fait tourner (pour des questions completement differents) exactement ce modele au labo, personne va faire ces simulations (personne s'interesse a ca, pour des raisons que je t'ai deja explique deux fois), mais si ca t'interesse je t'envoie le code.
Profession de foi qui est par ailleurs prononcée par toi même dans le point 5: si on a, selon toi, des "facteurs insuffisamment compris", même maintenant (que dire de 1990 !), le fait que les simulations d'il y a 20 ans seraient en accord avec les observations, ce que je réfute preuve à l'appui (cf graphique précédent), ne peut être que pure coincidence. Le mérite n'en revient donc pas au modèle mais au hasard. C'est ce qu'a fait remarquer d'ailleurs Charles mais je tenais à souligner la contradiction entre tes points 4) et 5).

Je crois la pluspart de la communaute dirai maintenant que la sensitivite est entre 2-3.5° pour le doublement CO2. Pour moi le calcul le plus simple etait toujours l'etablissement de la sensitivité pour le dernier maximum glaciaire. Le forcage fait -3W/m2 pour le CO2/CH4/N2O, -3W/m2 pour l'albedo de la glace -1W/m2 pour la poussiere et -1W/m2 pour l'Albedo de la vegetation. Le DMG est a peu pres 5-6°C plus froid ce que fait 6/8°C/W/m2=0.75°C/W/m2 correspondant a 3°C pour un doublement CO2. La partie de la sensitivite forte vient des modeles avec une forte retroaction des nuages qui n'est peu pas etre exclus sur la base des donnees directes (dernier siecle). Donc la "contradiction" vient surtout d'extreme prudence de GIEC. Je crois les incertitudes sont plus petits que il y a 5ans avec un moyen qui reste presque stable.
Lien à poster
Partager sur d’autres sites

Bonjour Alain,

Je ne sais pas retrouver où a eu lieu la discussion sur l'effet de seuil pour les chlarates, si éventuellement des chiffres ont été donné ou non. Mais supposons que la SST augmente de 11°C (délirant), crois tu que la température en eau profonde, sous la thermocline, serait montée suffisamment pour libérer les chlarates ? Pour avoir fait de la plongée, je peux te dire que meme sous les tropiques, ça caille dès que tu descends un peu dans les profondeurs default_smile.png/emoticons/smile@2x.png 2x" width="20" height="20">

Quels sont tes ordres de grandeurs stp, si ça te dérange pas de les (re)donner ?

Bonjour MiniTAX,Je chercherai ma doc plus tard, mais je te donne quelques éléments de mémoire.

- Les estimations de la masse de carbone présente dans les hydrates de méthane océanique varient de 10 000 à 30 000 Gt (une gigatonne GT = un milliard de tonnes)

- Il suffirait d'une hausse des températures océaniques de 4°C pour déstabiliser de 96 à 98% des gisements.

- La presque totalité des gisements océaniques est située à moins de 1000 m de profondeur. Certains sont à moins de 200 m.

Il suffirait d'une augmentation de la température des eaux d'à peine 1/2 °C pour déstabiliser certains des plus importants gisements, notamment dans les zones arctiques. Ainsi le titanesque gisement situé en bordure du nord de l'Alaska : 200Km de large en moyenne sur plus de 1000 Km de long et probablement jusqu'à plusieurs centaines de mètres d'épaisseur.

- Si un gisement commençait à se gazéifier localement, il créerait un vide, donc des glissements de terrain et/ou un effet d'aspiration. Les terrains riches en clathrates sont en même temps extrémement poreux et la circulation de l'eau, donc la transmission potentielle des calories y est très importante.

Tout début de gazéification pourrait donc se transmettre plus ou moins rapidement de proche en proche à l'ensemble du gisement.

- Il est possible qu'un partie du CH4 ainsi dégazé soit dissous par la pression dans l'eau de mer. Mais il est infiniment probable qu'une grande partie parviendra à la surface et se diffusera dans l'atmosphère.

Risques immédiats: tsunamis, asphyxie d'organismes marins, explosions atmosphèriques.

Risque à moyen terme: aggravation exponentielle de l'effet de serre, le CH4 bloquant les infrarouges dans une autre fenêtre que le CO2.

Dans ces conditions, une augmentation des températures atmosphériques moyennes de 11 ou 12 °C à l'horizon 2050 n'a rien de délirant. D'ailleurs, un climatologue réputé comme David Archer, qui a travaillé à partir de mes hypothéses, les considère comme vraisemblables, même si il s'abstient de préciser un quelconque timing des événements.

Si les valeurs proposées par le GIEC sont très inférieures, c'est qu'ils ne tiennent absolument aucun compte du risque potentiel que présentent les hydrates de méthane (et le CH4 issu du dégel du permafrost) dans leurs calculs et qu'ils paraissent sousestimer les rétractions possibles et ignorer la notion d'effet de seuil.

Alain

Lien à poster
Partager sur d’autres sites

Bonjour Meteor,

On parle d'anomalie avec un calage plus ou moins abitraire à la date de début du graphe en 1958, je ne vois pas ce que des périodes de références différentes ont à voir dans des fluctuations RELATIVES ? default_dry.png

La courbe bleu est celle de HadCrut, que doit on justifier de plus ?

De plus elle est calée au meme ordonné que la température des modèles en départ de la simulation ce qui serait beaucoup plus logique que la courbe rouge qui mystérieusement est placée plus haut par Hansen (sans doute pour démontrer que la terre se réchauffe aussi bien que les simulations le prévoit ?) alors que toutes les simulations commencent strictement à la meme température.

Donc au final, meme avec le scénario C où les émissions anthropiques se stabilisent net dès 2000, la température simulée reste bien supérieure au réel à partir de 2000. Dès lors, pour oser dire que les modèles sont prédictifs, il faut avoir de sacrées lunettes... déformantes default_tongue.png/emoticons/tongue@2x.png 2x" width="20" height="20">

Edit: graphe remis pour faciliter la discussion, désolé modérateurs.

hansen%20with%20hadcrut.jpg

OK pour le décalage mais la courbe rouge, quant à elle, suit très bien le scenario B.

D'ailleurs si tu lis bien Hansen, ce dernier dit que c'est un hasard.

Ces courbes ont en effet été établies avec un modèle à 4.2°C établi à la fin des années 80.

Actuellement et depuis pas loin de 10 ans on est à 3°C de sensibilité environ.

Il est donc tout à fait normal que les courbes aient une pente légèrement supérieures à la réalité.

J'attends toujours tes scénarios d'émissions pour A, B et C et les émissions réelles, sans te commander.

Tu étais tellement affirmatif que cela ne doit pas être un pb pour toi.

Lien à poster
Partager sur d’autres sites

Je crois la pluspart de la communaute dirai maintenant que la sensitivite est entre 2-3.5° pour le doublement CO2. Pour moi le calcul le plus simple etait toujours l'etablissement de la sensitivité pour le dernier maximum glaciaire. Le forcage fait -3W/m2 pour le CO2/CH4/N2O, -3W/m2 pour l'albedo de la glace -1W/m2 pour la poussiere et -1W/m2 pour l'Albedo de la vegetation. Le DMG est a peu pres 5-6°C plus froid ce que fait 6/8°C/W/m2=0.75°C/W/m2 correspondant a 3°C pour un doublement CO2. La partie de la sensitivite forte vient des modeles avec une forte retroaction des nuages qui n'est peu pas etre exclus sur la base des donnees directes (dernier siecle). Donc la "contradiction" vient surtout d'extreme prudence de GIEC. Je crois les incertitudes sont plus petits que il y a 5ans avec un moyen qui reste presque stable.

Sauf errur, IPPC 2007 donnera des valeurs plus hautes pour la fourchette de sensibilité climatique. Enfin, c'est le cas du draft qui circule mais que l'on n'a pas le droit de citer avant parution.

Sinon, pour le DMG, tu calcules les forçages radiatifs par rapport à quelle période de référence ?

Lien à poster
Partager sur d’autres sites

On a déjà eu ce genre de discussions ici. L'argument est assez plat et témoigne généralement d'un agacement à devoir débattre sur le fond. Comme les budgets de la climatologie ont été considérablement augmentés entre 1980 et 2005 grâce au chiffon rouge du global warming, je dois sans doute en déduire (d'après ton dicton) que bon nombre de climatologues sont désormais des salariés du réchauffement et ne peuvent se dédire sous peine de perdre leur financement. On ne va pas très loin sur ce terrain...

Avec quelques petites differences. Les profits dans l'entreprise "rechauffement de la terre" sont malheureusement assez petits par rapport à Exxon (1 milliard$ volume d'affaire par jour). En plus moi et mes collegues indiquent clairement pour qui on travaille (ce que n'est pas le cas pour tous les examples en haut). Donc tout ca, ca a avoir avec la transparence. Il faut aussi mentionner des examples positives. Willie Soon signe maintenant tous ses papier avec la remarque que son travaille etait sponsorisé par le "American Petrol Institute" et Chip Kappenberger signe meme ses contributions dans les differents forums avec cette remarque. Ce que ne constitue pas du tout un argument pour ou contre la qualité de leur arguments scientifiques. C'est juste une question de transparence.A propos. Je trouve ton site climat-sceptique particulierement bien fait (a part le contenu evidemment). C'est juste une question....

En effet. Voici un papier encore plus récent sur ce sujet précis, cosigné par M. Vuille. La difficulté à faire un lien entre le RC, l'Océan indien et le Kilimajaro est bien là : le mode zonal indien a connu un changement significatif vers 1880, c'est-à-dire bien avant le RC. Raison pour laquelle Mölg, Kazer et autres considèrent que la dynamique des glaces du Kilimanjaro depuis un siècle est relativement indépendante du RC.

GRL, 33, L18710, doi:10.1029/2006GL026384, 2006

Indian Ocean zonal mode activity in a multicentury integration of a coupled AOGCM consistent with climate proxy data

Thomas Mölg, Manuel Renold, Mathias Vuille, Nicolas J. Cullen, Georg Kaser

Abstract- The coupled atmosphere-ocean system over the Indian Ocean (termed Indian Ocean Zonal Mode, IOZM) and its activity over the past 200 years is analyzed in a paleoclimate simulation from a coupled atmosphere-ocean general circulation model (AOGCM). Validation shows that the AOGCM captures spatio-temporal patterns of sea surface temperature anomalies as well as the seasonal phase-locking feature of the IOZM. The period 1820–1880 exhibits a high frequency of climatically significant IOZM events, compared to a relatively low frequency in the 20th century. This shift in frequency provides a climate dynamics background for the interpretation of proxy data from East Africa, a region subjected to anomalously strong October–December precipitation during IOZM events. In the late 19th century, East African lakes had highstands (e.g., Lake Victoria) and its glaciers stable extents (e.g., Kilimanjaro), consistent with a wetter climate due to the higher frequency of IOZM events.

J'ai ce papier deja depuis quelques mois, pour cela justement on travaille sur le sujet. Je ne veux pas le commenter pour l'instant, mais ce que je trouves tres tres amusant que tu cites un papier 100% modele, en plus sur une question qui est au moins 5 fois plus compliquée et disputée entre differents modeles que l'importance de l'effet de serre. On pourrait penser tu selectionnes les papiers plutot en function si ca sert a tes interesses ou pas?
Là, je doute un peu. As-tu des références montrant que les avancées / reculs des glaciers n'étaient pas synchrone au cours des 10.000 dernières années.

Tu prends tous les papiers de Thompson et note l'age de la glace toute au fond. Parce que, comme tu sais maintenant, a partir de ce date le glacier a existé.
Des données comparables ont été obtenues dans d'autres zones : Andes tropicales (Polissar 2006, pour le PAG), sud du Chili (Koch et Kilian 2005, pour le PAG), en Patagonie (Glasser 2004, pour le PAG et l'OM)...

Dans le cas des Alpes, nous sommes actuellement au-dessus des minima du Holocène dans certaines zones. Hormes et al. 2001 ont par exemple identifié 8 phases du Holocène où les glaciers suisses étaient en retrait par rapport au niveau actuel : 9910-9550, 9010-7980, 7250-6500, 6170-5950, 5290-3870, 3640-3360, 2740-2620, 1530-1170. Résultat retrouvé par Joerin et al. 2003 et Joerin 2005.

Celui de Hormes et Joerin m'interesse. T'as les noms de journals quelque part?
Tu affirmes que l'on va dépasser ces minima dans trente ans, sur la base des modèles glaciologiques / climatologiques. On verra en 2030. Reste que la perception commune selon laquelle les glaces alpines n'ont jamais été en si mauvaise forme dans le passé est fausse.

Non, j'ai dit uniquement basé sur les modeles glaciologiques et j'ai souligné ce point. Une fois que t'as etablit le bilan de masse d'un glacier il y a aucune maniere d'eviter le retrait du glacier quand t'as affirmé que sa epaisseur a diminuée. Un bon example pour cette epaisseur reduit est certainement le Ötzi ou d'autres restes de plantes qui se trouvent maintenant dans la zone d'accumulation de certains glaciers. L'application de cette logique simple je n'appelerai meme pas vraiment un "modèle glaciologique". Ce que tu appeles une "perception fausse" va apparaitre dans un papier en preparation cosigne par un grand nombre de glaciologues. A part ca je te fais remarquer qu'on discute maintenant la situation recente par rapport a l'optimum de l'Holocene, une de phases les plus chaudes de derniers millions des annees.
Lien à poster
Partager sur d’autres sites

Sauf errur, IPPC 2007 donnera des valeurs plus hautes pour la fourchette de sensibilité climatique. Enfin, c'est le cas du draft qui circule mais que l'on n'a pas le droit de citer avant parution.

Sinon, pour le DMG, tu calcules les forçages radiatifs par rapport à quelle période de référence ?

préindustrielle.
Lien à poster
Partager sur d’autres sites

En plus moi et mes collegues indiquent clairement pour qui on travaille (ce que n'est pas le cas pour tous les examples en haut). Donc tout ca, ca a avoir avec la transparence.

euh, c'est pour qui exactement?

Tu es dans le domaine de la climato, au sens large?

Bon je suis indiscret.

Lien à poster
Partager sur d’autres sites

euh, c'est pour qui exactement?

Tu es dans le domaine de la climato, au sens large?

Bon je suis indiscret.

C'est mentionné dans le impressum de mon blog. Je travailles au LSCE, Laboratoire des Sciences du Climat et de l'Environnement, Saclay, plus précisement dans le groupe de Valerie Masson/Jean Jouzel sur l'interpretation des differentes carottages dans les glaciers.Voici plus des infos:http://www.ipsl.jussieu.fr/GLACIO/hoffmann/hoffmannengl.html
Lien à poster
Partager sur d’autres sites

D'ailleurs, un climatologue réputé comme David Archer, qui a travaillé à partir de mes hypothéses, les considère comme vraisemblables, même si il s'abstient de préciser un quelconque timing des événements.

C'est assez gonflé de votre part de tourner les choses comme ca, alors qu'à l'époque ou Archer a sorti son papier, vous n'étiez jamais entré en contact avec lui, je vous avais d'ailleurs demandé pourquoi vous n'essayiez pas de le contacter étant donné que vous vous interessiez au meme problème. Archer pour établir son papier ne s'est absolument pas basé sur vos travaux!

même si il s'abstient de préciser un quelconque timing des événements

Encore une fois la meme remarque qu'à l'époque, vous déformez. Archer précise dans son papier que pour la grande majorité des clathrates, il faudrait plusieurs siècles avant que le réchauffement n'atteigne les sédiments.

Bien sur certains sédiments sont peut etre poreux et la déstabilisation pourrait etre plus rapide. Mais avant d'établir une quelconque prévision, avec autant de certitude et chiffrée aussi précisement que vous le faites, ils faudrait peut etre commencer par avoir des données précises sur l'épaisseur des sédiments, cartographiée sur toute la planète, leur porosité, avant de lancer des calculs. Désolé de le dire mais dans votre modèle, il semble que beaucoup de choses sont supposées ou extrapolées, car il n'y a aucune données chiffrées à ma connaissance, sur le pourcentage de clathrates exposés à des sédiments poreux, ni quelle surface de clathrate se trouve sous 1 mètre de sédiments, 2 métres, 3 métres......

Je ne conteste pas du tout qu'il y ait un danger concernant les clathrates, c'est pour cela qu'il faut étudier la chose, ce qui est fait en ce moment il me semble. Cela dit étant donné, qu'il n'y a pour l'instant aucune données concernant ce que j'ai mentionné plus haut, faire une prévision chiffrée et datée me parait plus que spéculative.

lien sur l'article d'archer sur realClimate

C'est mentionné dans le impressum de mon blog. Je travailles au LSCE, Laboratoire des Sciences du Climat et de l'Environnement, Saclay, plus précisement dans le groupe de Valerie Masson/Jean Jouzel sur l'interpretation des differentes carottages dans les glaciers.

Ma parole mais il commence à y avoir des vrais qui s'expriment enfin. N'hésitez pas à encourager d'autres collègues à venir, et surtout intervenir. D'après ce que je sais certains viennent parfois lire ici et en rire. C'est déja mieux , s'ils interviennet pour corriger les bétises.

Au passage j'en profite pour donner mon impression personnelle sur l'évolution depuis quelques temps ici.

La qualité du débat s'est franchement grandement améliorée. Les discussions entre sceptiques et non sceptiques(CM et méteor,....), est devenue extrèmement interessante et argumentée, avec un Charles Muller qui a le grand mérite de baser ses propos sur des études, dont il donne toujours les sources (contrairement à ce qu'on avait l'habitude de lire venant d'autres sceptiques ici). Après ce qui est interessant c'est les différentes lectures qu'ont les uns et les autres de ces papiers. Ces différent points de vues et objections des uns et des autres ont lemérite énorme d'en apprendre beaucoup à ceux qui sont intéressés par le domaine, et n'ayant aucune compétence spécifique en climatologie.

Par comparaison au passé ou la voie des scéptiques ne se faisait que par négation de toutes les mesures et études, sans aucun argumentaire. (ca arrive encore ponctuellement, mais bien plus rare qu'avant).

Lien à poster
Partager sur d’autres sites

Avec quelques petites differences. Les profits dans l'entreprise "rechauffement de la terre" sont malheureusement assez petits par rapport à Exxon (1 milliard$ volume d'affaire par jour). En plus moi et mes collegues indiquent clairement pour qui on travaille (ce que n'est pas le cas pour tous les examples en haut). Donc tout ca, ca a avoir avec la transparence. Il faut aussi mentionner des examples positives. Willie Soon signe maintenant tous ses papier avec la remarque que son travaille etait sponsorisé par le "American Petrol Institute" et Chip Kappenberger signe meme ses contributions dans les differents forums avec cette remarque. Ce que ne constitue pas du tout un argument pour ou contre la qualité de leur arguments scientifiques. C'est juste une question de transparence.

A propos. Je trouve ton site climat-sceptique particulierement bien fait (a part le contenu evidemment). C'est juste une question....

Aux Etats-Unis, les dons du lobby nucléaire / alternatif aux organisations popularisant le global warming sont supérieurs à ceux des organisations pétrolières sur le même thème depuis déjà quelques années. Mais c'est un détail. Car je suis entièrement d'accord avec toi sur la transparence des financements pour les chercheurs et surtout sur la relative indifférence de ces financements par rapport au contenu de leurs papiers (au sens que ce contenu est valable ou non).

Merci pour mon site, je te rassure : la plateforme overblog permet à un nul comme moi de faire une présentation correcte sans subsides extérieurs. Les seules entreprises de l'énergie pour qui j'ai participé à des missions de communication sont Idex (renouvelable) et tout récemment Areva (nucléaire). Comme quoi...

J'ai ce papier deja depuis quelques mois, pour cela justement on travaille sur le sujet. Je ne veux pas le commenter pour l'instant, mais ce que je trouves tres tres amusant que tu cites un papier 100% modele, en plus sur une question qui est au moins 5 fois plus compliquée et disputée entre differents modeles que l'importance de l'effet de serre. On pourrait penser tu selectionnes les papiers plutot en function si ca sert a tes interesses ou pas?

Quand on me dit ou quand j'entends, "le phénomène X est lié au réchauffement climatique", je cherche effectivement s'il existe des papiers sur le phénomène X incitant à penser le contraire. Et s'ils existent, je les mentionne. Mon travail vise à corriger la perception de la recherche climatique par le grand public, parce que cette perception me semble globalement déformée dans un sens unique depuis quelques années. En tant que chercheur, tu peux considérer cela comme un "biais", évidemment. Mais je ne suis justement pas chercheur.

Celui de Hormes et Joerin m'interesse. T'as les noms de journals quelque part?

Hormes, A., B.U. Muller, C. Schluchter, 2001, The Alps with little ice: evidence for eight Holocene phases of reduced glacier extent in the Central Swiss Alps, The Holocene 11, 255-265.Joerin UE, T. Stocker, Ch. Schlüchter, 2003, Holocene Alpine variations, Geophysical Research Abstracts, Vol. 5, 11947

Joerin, UE, Stocker, TF, Schlüchter C., 2006, Multicentury glacier fluctuations in the Swiss Alps during the Holocene, The Holocene, 16, 5, July 2006, 697-704

Lien à poster
Partager sur d’autres sites

préindustrielle.

Dans ce cas, on a quand même un forçage solaire très négatif, non ? Dans ton compte, tu énumères :

Le forcage fait -3W/m2 pour le CO2/CH4/N2O, -3W/m2 pour l'albedo de la glace -1W/m2 pour la poussiere et -1W/m2 pour l'Albedo de la vegetation.

Or, j'imagine qu'entre -21.000 (LGM) et 1750 (PI), la variation Milankovic à elle seule représente un forçage négatif assez sustantiel.
Lien à poster
Partager sur d’autres sites

Invité
Ce sujet ne peut plus recevoir de nouvelles réponses.
 Partager

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...