Aller au contenu
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Les modèles (climato, météo)


charles.muller
 Partager

Messages recommandés

Une discussion a commencé sur la question des conditions initiales / conditions aux limites des modèles météo ou climato. Je suggère qu'elle se poursuive ici, dans le cadre d'un débat plus large sur les modèles.

Début de la précédente discussion (post 58 de miniTAX) :

/index.php?s=&showtopic=18228&view=findpost&p=388310'>http://forums.infoclimat.fr/index.php?s=&a...st&p=388310

Ce n'est pas seulement ce point que je souhaite aborder dans cette discussion. Un débat sur les modèles est toujours un débat sur leur fiabilité prédictive. En météo comme en climato, on ne fait pas seulement de la prévi pour le plaisir de la prévi, mais aussi parce que son employeur (privé ou public) a besoin d'anticiper sur les situations à venir. Dans le cadre du climat, le GIEC a un cahier des charges assez précis, évaluer une perturbation anthropique dangereuse. Et donc notamment voir à quoi peut ressembler le climat en 2100 en prenant en compte cette perturbation anthropique, c'est-à-dire les GES, les aérosols et les usages des sols.

A mes yeux, les 19 modèles GCM ne disent pas grand chose de fiable concernant le climat terrestre en 2100. Et les variantes régionales (RCM) encore moins. Donc, le GIEC ne remplit pas son cahier des charges et nous ne savons pas aujourd'hui si les activités humaines aboutiront à une situation dangereuse ou non, ni pour qui au juste sur le planète. Notez bien : je ne prétends pas qu'il n'y a pas de danger, simplement que nous ne savons rien de précis sur ce supposé "danger".

Voici les impressions provisoires que je retire de mes lectures. Ce ne sont que des impressions, je précise, c'est-à-dire sans commune mesure avec l'appréciation d'un homme de l'art sachant distinguer l'important du secondaire dans son travail quotidien de modélisation. Je précise aussi qu'elles ne sont pas issues de la seule lecture de sceptiques acharnés, mais aussi bien (et même surtout) de publications "mainstream", comme le récent Frontiers of climate modeling édité par Kiehl et Ramanathan.

Limites physiques (ou intrinsèques) :

- les rétroactions nébulosité / vapeur d'eau / gradient thermique aux forçages sont encore mal appréciées (et/ou très paramétrisées, c'est-à-dire dépendant plus de contraintes issus de mesures locales que d'un calcul purement physique du phénomène)

- le cycle biogéochimique, incluant notamment la réponse de la biosphère, de la lithosphère et de l'hydrosphère au surcroît de GES, est dans l'enfance et n'est pas réellement couplé aux GCM ;

- la circulation océanique reste mal modélisée (aussi bien les évolutions de la MOC / THC que les échanges convectifs / turbulents en couche supérieure)

- les évaluations des changements de la circulation générale atmosphérique sont souvent très médiocres (voir les comparaisons intermodèles / réanalyses assez désastreuses sur l'ENSO, le géopotentiel 500 hPa, etc.)

- les usages des sols (le budget énergétique de surface terrestre en général) sont implémentés de manière assez rudimentaire

- le couplage stratosphère / troposphère (donc forçage solaire UV et photochimie) est encore en étude sur des modèles spécifiques, donc pas vraiment couplé aux modèles GCM

- les modèles du comportement des glaces (Groenland, glaciers, banquise arctique, plateformes antarctiques) ne semblent pas prendre en compte de nombreux phénomènes de petite échelles influant probablement sur la dynamique réelle (donc l'albedo et les rétroactions en Arctique, zone du plus fort réchauffement attendu cf. discussion en cours sur RC et notamment le comment 24 de Judith Curry)

- les forçages ne sont même pas clairement connus (effets directs et indirects des aérosols notamment, mais la plupart en dehors des GES sont en low level of understanding)

- et, bien sûr, le débat mené dans l'autre discussion sur le poids exact des conditions initiales dans l'exercice de modélisation climatique

Limites contingentes (ou extrinsèques) :

- la puissance de calcul des ordinateurs est imitée (imposant des grilles encore grossières, donc la paramétrisation des phénomènes "sub-grid")

- les incertitudes sont encore importantes sur bon nombre de mesures, de même que leur manque de profondeur avant les satellites (or, ces mesures sont celles qui servent justement à paramétriser)

- les SRES (émissions) ne sont qu'une fourchette des possibles énergétiques/démographiques/économiques ;

- les forçages naturels (volcan, soleil) sont ignorés dans la période 2000-2100 (parfois même dans le reconstruction 1900-2000 pour le soleil);

- la variabilité intrinsèque / chaotique sur les divers échelles de temps est inconnue ou mal contrainte (les runs de contrôle "sans forçage" sont autoréférentiels, leur valeur présuppose que la modélisation est correcte ou que les conditions initiales choisies sont bonnes quand on fait de la rétrovalidation).

Ces limites (les premières surtout) font précisément l'objet du travail de chercheurs. Elles sont donc progressivement repoussées et c'est la marche normale de la science.

Mais, et c'est un grand mais, les discussions habituelles sur le climat en dehors de la communauté des chercheurs ne portent nullement sur ces points précis. 90% des gens disent simplement : "vous avez vu ce que le GIEC prévoit pour 2100?" Or, cette phrase n'a aucune portée : ce que le GIEC prévoit pour 2100 a peu de chances de représenter l'état réel de la température globale 2100. Même les limites extrinsèques suffisent à conclure à cela. A fortiori les limites intrinsèques. Et ce qui est vrai pour les Tm globales l'est encore plus pour les autres facteurs (hydrologiques par exemple) et pour l'état régional du climat, là où sont conçues les politiques d'adaptation.

Le climat étant ce qu'il est, c'est-à-dire quand même assez stable malgré tout, on ne doit sans doute pas s'attendre à un refroidissement de 3°C ni à une hausse de 8°C. Mais on sait très bien que la notion de perturbation anthropique dangereuse (le cahier des charges initial) se joue à moins que cela, dans la fourchette 0-3°C 2100 où les incertitudes sont justement maximales. Sans parler de l'au-delà 2100, bien sûr.

***

Nota

> J'ai insisté sur les modèles climato., mais l'avis des modélisateurs météo est le bienvenu. Après tout, ils savent beaucoup mieux ce qui se passe à petite échelle et ils ont forcément une idée de la fiabilité que l'on peut accorder à certains points (je pense surtout au principal : nébulosité, VE, gradient thermique, liens radiatifs-convectifs sur la colonne atmo.) lorsque l'on passe du calcul conditions initiales dépendant au calcul conditions limites dépendant.

> Cette critique des modèles actuels peut très bien satisfaire une position "alarmiste" (je crois qu'Alain la partage en partie ici ; des auteurs comme Overpeck ou Otto-Bliesner ont publié en ce sens récemment, etc.). Elle est donc neutre sur ce qui se passera vraiment en 2050 ou 2100.

Lien à poster
Partager sur d’autres sites

  • Réponses 110
  • Créé
  • Dernière réponse

Concernant le précédente discussion, le plus simple pour ne pas parler dans le vide serait de publier ici ce que donne le même modèle climato aux mêmes forçages avec trois conditions initiales légèrement différentes. On verrait bien la fourchette des résultats après 100 ans.

Je suis quand même un peu sceptique sur la portée de cette critique, ie sur l'importance que l'on doit accorder à la fourchette à l'arrivée. Il me semble que tout modèle fait des centaines ou des milliers de runs à partir de paramétrisations (notamment conditions initiales) différentes, et calcule ensuite la moyenne statistique des résultats obtenus (les fameux PDF). En ce sens, la modélisation climato. est très classiquement probabiliste : son résultat est le plus probable, mais il ne peut totalement exclure que les runs les plus écartés de cette valeur médiane (les plus "chaotiques" si l'on veut) ne se réalisent pas. Ce qui n'est bien sûr pas de nature à rassurer sur la fiabilité prédictive.

Lien à poster
Partager sur d’autres sites

Un début de réponse :

Chaos and Climate

Par James Annan et William Connolley

http://www.realclimate.org/index.php?p=204

“ By climate, we mean the statistics of weather, averaged over suitable time and perhaps space scales. We cannot hope to accurately predict the temperature in Swindon at 9am on the 23rd July 2050, but we can be highly confident that the average temperature in the UK in that year will be substantially higher in July than in January…”

« Nous ne pouvons pas prévoir la température à Paris à 9 heures le 23 juin 2050, mais nous pouvons être presque sûr que la moyenne des températures en France de cette année sera plus élevée en juin qu’en janvier ».

"Imagine a pot of boiling water. A weather forecast is like the attempt to predict where the next bubble is going to rise (physically this is an initial value problem). A climate statement would be that the average temperature of the boiling water is 100ºC at normal pressure, while it is only 90ºC at 2,500 meters altitude in the mountains, due to the lower pressure (that is a boundary value problem)."

Imaginez une casserole d'eau bouillante. Une prévision météo c'est comme essayer de prévoir où la prochaine bulle va apparaitre (physiquement, c'est un problème lié aux conditions inititiales). Un "communiqué" climatique serait : l'eau bouillante est à 100°C à pression atmosphérique normale, et à 90°C à 2500 mètres d'altitude, ceci à cause d'une pression atmosphérique plus faible.

Un débat sur le même sujet : /index.php?showtopic=17115'>http://forums.infoclimat.fr/index.php?showtopic=17115

Lien à poster
Partager sur d’autres sites

A ce propos des modèles, je signale ce papier récent des JGR que j'ai trouvé hier.

J'ai l'impression que les auteurs parlent des modèles météo / régionaux, et ils évoquent les incertitudes des flux radiatifs depuis la surface. Mais c'est un point qui m'intéresse plus globalement : la "surface-kin temperature" ici évoquée est-elle différente de la température mesurée par les stations (à 1-2 mètres du sol je crois) ? Quand on calcule l'émission IR lointain depuis la surface vers l'atmosphère, on fait comment au juste (on prend quelle T de quelle couche : surface skin, premiers mètres) ? De même, comment calibre-t-on l'albedo des sols à l'échelle locale, régionale, globale (ils évoquent une marge assez importante de 5-10 W/m2 en flux SW sortant, je pense que c'est la variabilité locale, mais je suppose qu'il existe une variabilité temporelle, c'est-à-dire qu'un sol 2000 n'a pas le même albedo en 2050 selon son usage, ou encore selon les sécheresses, etc.) ?

JOURNAL OF GEOPHYSICAL RESEARCH, VOL. 112, D01102, doi:10.1029/2005JD007008, 2007

Comparison of different global information sources used in surface radiative flux calculation: Radiative properties of the surface

Yuanchong Zhang, William B. Rossow, Paul W. Stackhouse Jr.

Abstract - Direct estimates of surface radiative fluxes that resolve regional and weather-scale variability over the whole globe with reasonable accuracy have only become possible with the advent of extensive global, mostly satellite, data sets within the past couple of decades. The accuracy of these fluxes, estimated to be about 10–15 W/m2, is largely limited by the accuracy of the input data sets. The leading uncertainties in the surface fluxes are no longer predominantly induced by clouds but are now as much associated with uncertainties in the surface and near-surface atmospheric properties. This study presents a fuller, more quantitative evaluation of the uncertainties for the surface albedo and emissivity and surface skin temperatures by comparing the main available global data sets from the Moderate-Resolution Imaging Spectroradiometer product, the NASA Global Energy and Water Cycle Experiment Surface Radiation Budget project, the European Centre for Medium-Range Weather Forecasts, the National Aeronautics and Space Administration, the National Centers for Environmental Prediction, the International Satellite Cloud Climatology Project (ISCCP), the Laboratoire de Météorologie Dynamique, NOAA/NASA Pathfinder Advanced Very High Resolution Radiometer project, and the NOAA Optimum Interpolation Sea Surface Temperature Analysis and the Tropical Rainfall Measuring Mission (TRMM) Microwave Image project. The data sets are, in practice, treated as an ensemble of realizations of the actual climate such that their differences represent an estimate of the uncertainty in their measurements because we do not possess global “truth” data sets for these quantities. The results are globally representative and may be taken as a generalization of our previous ISCCP-based uncertainty estimates for the input data sets. Surface properties have the primary role in determining the surface upward shortwave (SW) and longwave (LW) flux.From this study the following conclusions are obtained. Although land surface albedos in the near-infrared remain poorly constrained (highly uncertain), they do not cause too much error in total surface SW fluxes; the more subtle regional and seasonal variations associated with vegetation and snow are still in doubt. The uncertainty of the broadband black-sky SW albedo for land surface from this study is about 7%, which can easily induce 5–10 W/m2 uncertainty in (upwelling) surface SW flux estimates. Even though available surface (broadband) LW emissivity data sets differ significantly (3–5% uncertainty), this disagreement is confined to wavelengths >20 μm so that there is little practical effect (1–3 W/m2) on the surface upwelling LW fluxes. The surface skin temperature is one of two leading factors that cause problems with surface LW fluxes. Even though the differences among the various data sets are generally only 2–4 K, this can easily cause 10–15 W/m2 uncertainty in calculated surface (upwelling) LW fluxes. Significant improvements could be obtained for surface LW flux calculations by improving the retrievals of (in order of decreasing importance): (1) surface skin temperature, (2) surface air and near-surface-layer temperature, (3) column precipitable water amount, and (4) broadband emissivity. In addition, for surface SW fluxes, improvements could be obtained (excluding improved cloud treatment) by improving the retrievals of (1) aerosols (from our sensitivity studies but not discussed in this work) and (2) surface (black-sky) albedo, of which the NIR part of the spectrum has much larger uncertainty.

Lien à poster
Partager sur d’autres sites

Je suis quand même un peu sceptique sur la portée de cette critique, ie sur l'importance que l'on doit accorder à la fourchette à l'arrivée. Il me semble que tout modèle fait des centaines ou des milliers de runs à partir de paramétrisations (notamment conditions initiales) différentes, et calcule ensuite la moyenne statistique des résultats obtenus (les fameux PDF). En ce sens, la modélisation climato. est très classiquement probabiliste : son résultat est le plus probable, mais il ne peut totalement exclure que les runs les plus écartés de cette valeur médiane (les plus "chaotiques" si l'on veut) ne se réalisent pas. Ce qui n'est bien sûr pas de nature à rassurer sur la fiabilité prédictive.

C'est ce que dit justement Cecilia Bitz dans RC sur sa simulation qui "conclut" à la disparition de la glace pérenne de l'Arctique en 2100 (discussion que toi et Météor vous suivez):
It is common practice to run climate models multiple times with slight variations to the initial conditions. Because the system is chaotic, the natural variability in each run is random and uncorrelated from one run to the next. When an ensemble of runs is averaged, the natural variability is reduced in the ensemble mean, and it is easier to detect a significant trend.

Alors quand j'entends décréter que les modèles climato "ne dépendent peu/pas des conditions initiales", ça me laisse dubitatif.D'ailleurs, au sujet du traitement "statistique" des runs, j'ai un article très intéressant qui reprend la thèse de l'indécidabilité du climat de Lorentz, il faut que je le retrouve. Je suis sûr que ça t'éclairerait sur les tenants et les aboutissants de la modélisation climatique et sur des choses que les modélisateurs ne t'avoueraient pas forcément volontiers.
Lien à poster
Partager sur d’autres sites

... nous pouvons être presque sûr que la moyenne des températures en France de cette année sera plus élevée en juin qu’en janvier».

Je ne te crois pas default_flowers.gifPour info, la différence de température moyenne entre Janvier et Juin en France, c'est largement plus de 10°C. Et malgré un tel écart, les modèles sont "presque sûrs".

Alors, pour des variations de 0,6°C sur le 20e siècle ou des prévisions de hausse moyenne de 3°C d'ici 2100, l'incertitude des modèles doit certainement être énorme. default_smile.png/emoticons/smile@2x.png 2x" width="20" height="20">

Lien à poster
Partager sur d’autres sites

« nous pouvons être presque sûr que la moyenne des températures en France de cette année sera plus élevée en juin qu’en janvier ».

J'en reviens pas, qu'il faut tant de calculs pour arriver à cette conclusion.Quand aux conditions initiales, elles existent toujours, quelquesoit l'objet sur lequel on va appliquer la transformation.

Sinon c'est de la création...

Lien à poster
Partager sur d’autres sites

« nous pouvons être presque sûr que la moyenne des températures en France de cette année sera plus élevée en juin qu’en janvier ».

J'en reviens pas, qu'il faut tant de calculs pour arriver à cette conclusion.

Oui, et ce qui est encore plus incoyable c'est que cette phrase parait évidente à tous alors que quelques rares personnes ont du mal à comprendre que des émissions massives de gaz à effet de serre ne peuvent que conduire à un réchauffement. C'est pourtant exactement le même principe.
Lien à poster
Partager sur d’autres sites

J'en reviens pas, qu'il faut tant de calculs pour arriver à cette conclusion.

Quand aux conditions initiales, elles existent toujours, quelquesoit l'objet sur lequel on va appliquer la transformation.

Sinon c'est de la création...

A la décharge des auteurs, ils précisent : "Of course, we don't need a model to work that out - historical observations already give strong evidence for this prediction."

En fait, ce texte est centré sur le problème "chaotique". Même là-dessus, l'équipe de RC n'est pas toujours claire. Dans une autre discussion sur un papier de Gavin Schmidt dans Physics Today, celui-ci précise :

"Maybe this could have been clearer, but it is the climate within the models that is non-chaotic, not the model itself. All individual solutions in the models are chaotic in the 'sensitivity to initial conditions' sense, but their statistical properties are stable and are not sensitive to the intial conditions (though as I allude to in the article, I don't know whether that will remain true as we add in more feedbacks)."

On en revient donc au même problème : un run individuel sera sensible à la variation des conditions initiales, un ensemble de runs (à CI légèrement modifiées) conservera les propriétés statistiques "moyennes" du climat, donc du signal attendu. Par ailleurs, comme GS le signale, on n'est pas sûr que cela reste vrai à mesure que les modèles vont se complexifier. La définition large du climat par le GIEC / IPCC :

"The climate system is the highly complex system consisting of five major components: the atmosphere, the hydrosphere, the cryosphere, the land surface and the biosphere, and the interactions between them. The climate system evolves in time under the influence of its own internal dynamics and because of external forcings such as volcanic eruptions, solar variations and human-induced forcings such as the changing composition of the atmosphere and land-use change."

Les modèles actuels concernent pour la plupart une définition plus restreinte du climat : principalement les interactions océan-atmosphère et leur évolution attendue sous l'action de forçages anthropiques. C'est déjà très complexe. Mais ce n'est pas le système climatique en tant que tel.

Discussion RC :

http://www.realclimate.org/index.php/archi...mate-modelling/

Lien à poster
Partager sur d’autres sites

Imaginez une casserole d'eau bouillante. Une prévision météo c'est comme essayer de prévoir où la prochaine bulle va apparaitre (physiquement, c'est un problème lié aux conditions inititiales).

Assimiler la prévision météo à un problème chaotique, c'est vraiment méconnaître la science actuelle. Ce problème de bulle est typiquement un exemple de chaos, alors que la dynamique de l'atmosphère est régie par les lois de mécanique des fluides et de thermodynamique connues depuis des lustres.
Lien à poster
Partager sur d’autres sites

« nous pouvons être presque sûr que la moyenne des températures en France de cette année sera plus élevée en juin qu’en janvier ».

Oui, et ce qui est encore plus incoyable c'est que cette phrase parait évidente à tous alors que quelques rares personnes ont du mal à comprendre que des émissions massives de gaz à effet de serre ne peuvent que conduire à un réchauffement. C'est pourtant exactement le même principe.

Bonne année à tous...

Le bon sens ne peut pas résoudre les problèmes complexes. Cependant, il me parait nécessaire, de relativiser les chiffres de temps en temps.

Si on se ramène aux conditions dites normales, l'atmosphère pourrait être représentée par une couche uniforme d'environ 7,7 km d'épaisseur.

Dans les mêmes conditions, la totalité du CO2 de l'atmosphère représenterait une couche d'environ 3 mètres d'épaisseur, et le CO2 "anthropique" serait représenté par environ 1 mètre de cette couche.

C'est peu.

Le méthane, quant à lui, représenterait une couche d'un peu plus de 1 cm.

Lorsqu'on sait que ces gaz sont tous communément transparents, et que c'est , en somme, une différence de transparence à différentes longueurs d'onde qui provoque ce fameur "effet de serre", le bon sens ne peut que rendre les gens dubitatifs sur les effets réels de ces couches lorsqu'elles sont bien mélangées dans l'atmosphère.

Si on ajoute que les effets de cette absorption sont logarithmiques, c'est à dire que si on double la quantité d'un gaz et que l'absorption supplémentaire obtenue est A, il faudra de nouveau doubler la quantité de gaz pour amener une nouvelle augmentation de A, si donc on tient compte de ce fait, on est obligé de considérer que les émissions dites anthropiques représentent bien peu d 'une chose elle-même peu importante.

Pour en revenir au débat (les modèles) je pense que la principale difficulté à laquelle ils se heurtent ( et qui restera encore longtemps un problème majeur) c'est qu'ile tentent d'analyser des effets, somme toute très marginaux, ce qui fait que la précision des mesures et la précision du choix des paramètres apparaîssent souvent comme plus déterminants que le résultat lui-même du modèle .

Pour conclure, je dirai que les discussions actuelles sur les effets des GES me font un peu penser au Concile de Nicée (le 2ième) où on débattait très sérieusement du sexe des anges...

,

Lien à poster
Partager sur d’autres sites

Pour conclure, je dirai que les discussions actuelles sur les effets des GES me font un peu penser au Concile de Nicée (le 2ième) où on débattait très sérieusement du sexe des anges...

Je comprends mieux où Lorentz a trouvé son aile de papillon default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20">
Lien à poster
Partager sur d’autres sites

(...)

Pour conclure, je dirai que les discussions actuelles sur les effets des GES me font un peu penser au Concile de Nicée (le 2ième) où on débattait très sérieusement du sexe des anges...

(...)

La question trinitaire (Ier Concile) n'était pas moins grave.
Lien à poster
Partager sur d’autres sites

(...)

Si on se ramène aux conditions dites normales, l'atmosphère pourrait être représentée par une couche uniforme d'environ 7,7 km d'épaisseur.

Dans les mêmes conditions, la totalité du CO2 de l'atmosphère représenterait une couche d'environ 3 mètres d'épaisseur, et le CO2 "anthropique" serait représenté par environ 1 mètre de cette couche.

C'est peu.

Le méthane, quant à lui, représenterait une couche d'un peu plus de 1 cm.

Lorsqu'on sait que ces gaz sont tous communément transparents, et que c'est , en somme, une différence de transparence à différentes longueurs d'onde qui provoque ce fameur "effet de serre", le bon sens ne peut que rendre les gens dubitatifs sur les effets réels de ces couches lorsqu'elles sont bien mélangées dans l'atmosphère.

Si on ajoute que les effets de cette absorption sont logarithmiques, c'est à dire que si on double la quantité d'un gaz et que l'absorption supplémentaire obtenue est A, il faudra de nouveau doubler la quantité de gaz pour amener une nouvelle augmentation de A, si donc on tient compte de ce fait, on est obligé de considérer que les émissions dites anthropiques représentent bien peu d 'une chose elle-même peu importante.

Pour en revenir au débat (les modèles) je pense que la principale difficulté à laquelle ils se heurtent ( et qui restera encore longtemps un problème majeur) c'est qu'ile tentent d'analyser des effets, somme toute très marginaux, ce qui fait que la précision des mesures et la précision du choix des paramètres apparaîssent souvent comme plus déterminants que le résultat lui-même du modèle .

(...)

Je ne suis pas convaincu par le premier argument des ordres de grandeur, car il est aisément réversible. Il n'est pas rare qu'une petite cause ait de grands effets. Par exemple, l'apport d'iode doit représenter qq chose comme un milliardième du poids d'un enfant. Il n'empêche qu'une carence totale se traduit par des troubles cognitifs et hormonaux assez importants.

L'autre point - le mécanisme exact de l'absorption/émission IR et son évolution logarithmique - mérite en revanche d'être creusé. On avait commencé à en parler (Météor et Sirius), mais la discussion s'était vite arrêtée.

Lien à poster
Partager sur d’autres sites

Bonne année à tous...

Le bon sens ne peut pas résoudre les porblèmes complexes. Cependant, il me parait nécessaire, de relativiser les chiffres de temps en temps.

Si on se ramène aux conditions dites normales, l'atmosphère pourrait être représentée par une couche uniforme d'environ 7,7 km d'épaisseur.

Dans les mêmes conditions, la totalité du CO2 de l'atmosphère représenterait une couche d'environ 3 mètres d'épaisseur, et le CO2 "anthropique" serait représenté par environ 1 mètre de cette couche.

C'est peu.

Le méthane, quant à lui, représenterait une couche d'un peu plus de 1 cm.

Lorsqu'on sait que ces gaz sont tous communément transparents, et que c'est , en somme, une différence de transparence à différentes longueurs d'onde qui provoque ce fameur "effet de serre", le bon sens ne peut que rendre les gens dubitatifs sur les effets réels de ces couches lorsqu'elles sont bien mélangées dans l'atmosphère.

Si on ajoute que les effets de cette absorption sont logarithmiques, c'est à dire que si on double la quantité d'un gaz et que l'absorption supplémentaire obtenue est A, il faudra de nouveau doubler la quantité de gaz pour amener une nouvelle augmentation de A, si donc on tient compte de ce fait, on est obligé de considérer que les émissions dites anthropiques représentent bien peu d 'une chose elle-même peu importante.

Pour en revenir au débat (les modèles) je pense que la principale difficulté à laquelle ils se heurtent ( et qui restera encore longtemps un problème majeur) c'est qu'ile tentent d'analyser des effets, somme toute très marginaux, ce qui fait que la précision des mesures et la précision du choix des paramètres apparaîssent souvent comme plus déterminants que le résultat lui-même du modèle .

Pour conclure, je dirai que les discussions actuelles sur les effets des GES me font un peu penser au Concile de Nicée (le 2ième) où on débattait très sérieusement du sexe des anges...

,

du grand n'importe quoi là!

navrant.

Lien à poster
Partager sur d’autres sites

L'autre point - le mécanisme exact de l'absorption/émission IR et son évolution logarithmique - mérite en revanche d'être creusé. On avait commencé à en parler (Météor et Sirius), mais la discussion s'était vite arrêtée.

Je signale par exemple cette page de Peter Dietze, mais je n'ai jamais pris le temps d'approfondir et je n'ai donc aucune appréciation particulière sur la validité de son raisonnement.

http://www.john-daly.com/forcing/forcing.htm

Lien à poster
Partager sur d’autres sites

Je ne suis pas convaincu par le premier argument des ordres de grandeur, car il est aisément réversible. Il n'est pas rare qu'une petite cause ait de grands effets. Par exemple, l'apport d'iode doit représenter qq chose comme un milliardième du poids d'un enfant. Il n'empêche qu'une carence totale se traduit par des troubles cognitifs et hormonaux assez importants.

L'autre point - le mécanisme exact de l'absorption/émission IR et son évolution logarithmique - mérite en revanche d'être creusé. On avait commencé à en parler (Météor et Sirius), mais la discussion s'était vite arrêtée.

Je préfère nettement ce post à celui de PE.

Bon c'est pas le sujet mais la discussion s'était en effet arrêtée.

J'avais émis l'hypothèse de l'augmentation d'ES du CO2 par les "ailes" des pics d'absorption.

Sirius par contre disait que plus on rajoutait du CO2 et plus l'ES augmentait et qu'il n'y avait pas saturation de la bande centrale de l'absorption.

Il est clair que si l'on considère plusieurs couches qui sont autant de corps noirs pour une longueur d'onde en particulier, l'effet de la couche supplémentaire qu'on ajoute est bien d'augmenter la température au sol.

Donc dans ce sens sirius a raison.

D'ailleurs il a aussi raison quand il dit qu'il n'existe pas de point pivot, suggéré par Gavin (qui s'est plutôt emmêlé les pinceaux à mon sens)

Le point d'émission monte lorsqu'on rajoute des couches et la température au sol aussi.

Très grosso-modo, dans le cas de couches qui sont des CN complets (cas théorique) la température au sol monte comme:

255°K*(n+1)^0.25

n=1: Tsol=303°K

n=2: Tsol=336°K

n=10: Tsol = 464°K

n=11: Tsol= 475°K

on voit ainsi que si on rajoute 1 couche à 1 couche la température au sol augmente de 33°K, mais si on rajoute la même couche à 10 couches la T sol n'augmente plus que de 11°K.

Voilà où j'en suis pour le moment. default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20">

mais c'est bien clair que ce n'est pas logarithmique dans ce raisonnement qui n'est pas, j'insiste, la réalité.(même pas sur Vénus!)

Lien à poster
Partager sur d’autres sites

Pierre-Ernest,

Pour information le diazote (N2) et le dioxygène (O2) ne sont pas des gaz à effet de serre, ils n'aborbent pas (ou presque pas) dans l'IR. Ces deux gaz représentent 99% de l'atmosphère.

Dans ton raisonnement ta couche de 7,7km d'épaisseur maigrit ainsi de plus de 7,6 km.

(...) L'absorption du rayonnement infrarouge dépend de la structure de la molécule : les molécules bi-atomiques et symétriques (O2, N2, H2...) sont très peu absorbantes dans le domaine infrarouge lointain (4 à 40 micromètres, domaine du spectre IR terrestre); les molécules non symétriques (H2O, CO2, CH4, CO...) sont beaucoup plus absorbantes.

Par ailleurs, certaines piègent ce rayonnement infrarouge plus que d'autres, comme le CO2 (qui est relativement abondant et qui a une bande d'absorption pratiquement là où la Terre émet le plus : 15 microns).

http://www.ens-lyon.fr/Planet-Terre/Infosc...ffetdeserre.htm

(...) La surface de la Terre perd 390 watts par m2 par rayonnement infrarouge, or l’ensemble de la planète en gagne (énergie solaire absorbée) et en perd (énergie infrarouge rayonnée vers l’espace) 235 watts par m2. A une émission de 390 watts par m2 correspond une température de +15°C, ce qui fait dire que la température moyenne à la surface de la Terre est de +15°C. A une émission de 235 watts par m2 de la Terre vers l'espace, correspond une température moyenne de -19°C. La différence représente l’action globale de l’effet de serre : 155 watts par m2 de chauffage de la surface (dont environ 100 Watts liés au rôle de la vapeur d’eau et de 50 watts à celui du CO2). Ce chauffage représente environ 30°C, il est d’origine naturelle et est essentiellement dû à la vapeur d’eau et au CO2, la vapeur d’eau introduisant un réchauffement de l'ordre de 20°C et le CO2 de 10°C.

http://www.cnrs.fr/cw/dossiers/dosclim/sys...serre/index.htm

Actuellement le forçage C02 augmente à cause des émissions humaines et cela ne peut que conduire à un réchauffement (réchauffement qui peut être amplifié par un ensemble de rétroactions positives : albedo, vapeur d'eau etc.). C'est cela le problème.Bonne année à toi...
Lien à poster
Partager sur d’autres sites

Assimiler la prévision météo à un problème chaotique, c'est vraiment méconnaître la science actuelle. Ce problème de bulle est typiquement un exemple de chaos, alors que la dynamique de l'atmosphère est régie par les lois de mécanique des fluides et de thermodynamique connues depuis des lustres.

Il faut, à mon sens, bien identifier le chaos dont on parle.Le chaos déterministe est une chose, un exemple (correction faite)

Les équations sont simples et même simplistes, bien loin de celles de la mécanique statistique des fluides turbulents. Il n'a rien d'aléatoire. Les observations ne voient rien d'aléatoire à petite échelle, simplement une petite variation d'un paramètre produit des résultats très différents.

Le chaos stochastique est celui des systèmes à la fois chaotiques et stochastiques

On abuse parfois en mettant sous l'étiquette de chaos ce qui n'est qu'aléatoire.

Cette confusion est d'autant plus facile à faire que les comportements de ces systèmes sont très mal discernables.

C'est pour cela que le fait que la dynamique de l'atmosphère est régie par les lois de mécanique des fluides et de thermodynamique connues depuis des lustres ne garantit en rien que cette dynamique ne soit pas chaotique !

Lien à poster
Partager sur d’autres sites

C'est pour cela que le fait que la dynamique de l'atmosphère est régie par les lois de mécanique des fluides et de thermodynamique connues depuis des lustres ne garantit en rien que cette dynamique ne soit pas chaotique !

Ah bon, parceque les résultats seraient aléatoires, ou mal discernables?
Lien à poster
Partager sur d’autres sites

Je suis plutôt d'accord avec david3 : "Oui, et ce qui est encore plus incoyable c'est que cette phrase parait évidente à tous alors que quelques rares personnes ont du mal à comprendre que des émissions massives de gaz à effet de serre ne peuvent que conduire à un réchauffement. C'est pourtant exactement le même principe."

Je n'ai pas vérifié, mais je ne pense pas que la sensibilité aux conditions initiales entraîne une incertitude sur le fait que les GES puissent expliquer un réchauffement rapide du climat.

Evidemment, le problème est de quantifier l'influence exacte, et à cause des interactions multiples.

Lien à poster
Partager sur d’autres sites

C'est pourtant exactement le même principe

Je savais pas que l'émission de GES pouvait avoir un effet sur l'inclinaison de l'axe de rotation de la terre .Alors la solution, c'est comme pour les Shadoks, y'a qu'à aller de l'autre côté de la terre pour rejeter les GES!
Lien à poster
Partager sur d’autres sites

Je suis plutôt d'accord avec david3 : "Oui, et ce qui est encore plus incoyable c'est que cette phrase parait évidente à tous alors que quelques rares personnes ont du mal à comprendre que des émissions massives de gaz à effet de serre ne peuvent que conduire à un réchauffement. C'est pourtant exactement le même principe."

Je n'ai pas vérifié, mais je ne pense pas que la sensibilité aux conditions initiales entraîne une incertitude sur le fait que les GES puissent expliquer un réchauffement rapide du climat.

Evidemment, le problème est de quantifier l'influence exacte, et à cause des interactions multiples.

Je pense que du côté de Davos des chercheurs ont peut-être trouvé le modéle qui permet de calculer la quantité d'ozone dans l'atmosphère. SOCOL serait capable de donner des prévisions proches du réel. Ainsi nous devrions bientôt tout connaître du sujet climatique qui nous fait tant souffrir.

Atmos. Chem. Phys., 5, 1557–1576, 2005

www.atmos-chem-phys.org/acp/5/1557/

SRef-ID: 1680-7324/acp/2005-5-1557

European Geosciences Union

T. Egorova1,2, E. Rozanov1,2, V. Zubov3, E. Manzini4, W. Schmutz2, and T. Peter1

1Institute for Atmospheric and Climate Science ETH, Zurich, Switzerland

2Physical-Meteorological Observatory/World Radiation Center, Davos, Switzerland

3Main Geophysical Observatory, St.-Petersburg, Russia

4National Institute for Geophysics and Volcanology, Bologna, Italy

Document pdf en anglais que Charles Muller pourra traduire sans problème

autre page internet qui donne plusieurs références en anglais

Lien à poster
Partager sur d’autres sites

Je n'ai pas vérifié, mais je ne pense pas que la sensibilité aux conditions initiales entraîne une incertitude sur le fait que les GES puissent expliquer un réchauffement rapide du climat.

J'ai bien peur que tu ne fasses ici un argument circulaire. Tu sembles dire que les modèles permettent d'attribuer aux GES la cause du réchauffement (le "rapide" lui est une appréciation purement personnelle). Mais ce n'est pas dans cet ordre. C'est parce qu'à l'origine, les modélisateurs décident d'attribuer une part du réchauffement aux GES en faisant les modèles. Ce serait alors bien étonnant que les résultats des simulations n'aillent pas dans le sens de l'hypothèse des modélisateurs ! Un ordinateur capable de se rebeller, ça n'existe pas encore que je sache.Je te rappelle que l'augmentation de 0,6°C sur le siècle a pu être attribué, seulement en partie, mais avec de grande incertitude (cf la partie evaluation du GIEC) aux GES seulement parce qu'on a supposé que le climat a été relativement constant pendant 1000 ans suivant la fameuse courbe en crosse de hockey. Mais la crosse de hockey qui apparaissait partout dans le TAR puis dans tous les rapports officiels gouvenementaux sans compter les multiples propagandes documents des écologistes, a été réfutée.

Donc si on prend les nombreuses autres reconstitutions de températures passées, par exemple celle du graphe ci-dessous, où on voit une grande variabilité du climat, la hausse de 0,6°C en 1 siècle n'est en aucun cas "rapide", ni "sans précédent". Elle reste largement dans la variabilité naturelle, càd que le climat est susceptible de varier bien plus que ce qu'on a eu au 20e siècle, même avec un nombre de 4x4 sur les routes exactement égal à zéro. Ca voudrait donc dire que l'hypothèse d'un réchauffement dû aux GES qu'on a injecté dans les modèles est fausse. Un modèle, il ne sait que recracher en fonction de qu'on lui fournit au départ : garbage in, garbage out.

histoireclimatImg2.gif

Lien à poster
Partager sur d’autres sites

Merci MiniTAX pour ce graphique passionnant issu de forages dans les glaces du Groenland et qui n'a rien à voir avec la trop célèbre courbe en forme de crosse de hockey...

Ce graphe est tiré de cet article concernant le climat des trois derniers millions d'années et traduit d'un ouvrage anglais. Je vous invite à lire si ce n'est encore fait : c'est passionnant et cela permet de relativiser au combien nos changements climatiques !

http://skyfall.free.fr/?m=200609

Florent.

Lien à poster
Partager sur d’autres sites

Invité
Ce sujet ne peut plus recevoir de nouvelles réponses.
 Partager

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...