Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

charles.muller

Membres
  • Compteur de contenus

    2597
  • Inscription

  • Dernière visite

Tout ce qui a été posté par charles.muller

  1. Pour l'évaluer, cela suppose que le signal des GES soit différent du bruit de la variabilité naturelle, ajouté aux autres forçages anthropiques. Ce n'est pas le cas sur 1750-2006. Ou encore, avant influence humaine, que l'on puisse déduire simplement le poids des mêmes GES sur la comparaison maximum glaciaire / interglaciaire : ce n'est pas le cas non plus, les GES sont noyés parmi d'autres rétroactions au forçage orbital initial (albedo glace et végétation, poussières, etc.) et le deltaT exact est mal connu. Il reste donc la seule physique des modèles pour dire ce que fait un doublement du forçage GES. Voir première limite mentionnée dans mon post initial : les rétroactions VE / gradient thermique / nébulosité (comptant pour l'essentiel du réchauffement) sont le point le plus difficile de la modélisation, et les avancées en 20 ans sont faibles. Dans les premiers papiers des années 1970 / 1980, les estimations étaient déjà à peu près celles d'aujourd'hui (par exemple Hansen et al 1984) avec des modèles radiatifs-convectifs très rudimentaires. Arrhenius lui-même (1896) était à 5°C sur la base d'une table de log toute bête et de la seule vapeur d'eau (donc, sans doute dans la fourchette GIEC si Arrhenius avait pris en compte les autres rétroactions gradient thermique / nébulosité). Bref, on sait que plus de GES doit réchauffer. Mais dans quelle proportion, à quel rythme, avec quelles conséquences régionales, ce n'est toujours pas concluant. Bien moins concluant que la différence moyenne entre un mois de janvier et un mois de juin en zone tempérée, métaphore initiale.
  2. Il faut cependant préciser que la T du Groenland (évaluée probablement sur le ratio des isotopes oxygène) n'est pas suffisante pour inférer la T globale. Sur cette dernière, on ne remonte pas pour l'instant au-delà de quatre siècles avec assez de certitudes (sur les proxies, leur nombre, leur interprétation et les méthodes de lissage) pour conclure quoique ce soit selon le rapport de synthèse NAS. Du moins sur les amplitudes qui nous intéressent ici (entre 0,5 et 2°C). J'ai tendance à suivre ce rapport sur ce point. NAS : http://www.nap.edu/catalog/11676.html
  3. Le lien est incorrect.
  4. Je signale par exemple cette page de Peter Dietze, mais je n'ai jamais pris le temps d'approfondir et je n'ai donc aucune appréciation particulière sur la validité de son raisonnement. http://www.john-daly.com/forcing/forcing.htm
  5. Je ne suis pas convaincu par le premier argument des ordres de grandeur, car il est aisément réversible. Il n'est pas rare qu'une petite cause ait de grands effets. Par exemple, l'apport d'iode doit représenter qq chose comme un milliardième du poids d'un enfant. Il n'empêche qu'une carence totale se traduit par des troubles cognitifs et hormonaux assez importants. L'autre point - le mécanisme exact de l'absorption/émission IR et son évolution logarithmique - mérite en revanche d'être creusé. On avait commencé à en parler (Météor et Sirius), mais la discussion s'était vite arrêtée.
  6. La question trinitaire (Ier Concile) n'était pas moins grave.
  7. A la décharge des auteurs, ils précisent : "Of course, we don't need a model to work that out - historical observations already give strong evidence for this prediction." En fait, ce texte est centré sur le problème "chaotique". Même là-dessus, l'équipe de RC n'est pas toujours claire. Dans une autre discussion sur un papier de Gavin Schmidt dans Physics Today, celui-ci précise : "Maybe this could have been clearer, but it is the climate within the models that is non-chaotic, not the model itself. All individual solutions in the models are chaotic in the 'sensitivity to initial conditions' sense, but their statistical properties are stable and are not sensitive to the intial conditions (though as I allude to in the article, I don't know whether that will remain true as we add in more feedbacks)." On en revient donc au même problème : un run individuel sera sensible à la variation des conditions initiales, un ensemble de runs (à CI légèrement modifiées) conservera les propriétés statistiques "moyennes" du climat, donc du signal attendu. Par ailleurs, comme GS le signale, on n'est pas sûr que cela reste vrai à mesure que les modèles vont se complexifier. La définition large du climat par le GIEC / IPCC : "The climate system is the highly complex system consisting of five major components: the atmosphere, the hydrosphere, the cryosphere, the land surface and the biosphere, and the interactions between them. The climate system evolves in time under the influence of its own internal dynamics and because of external forcings such as volcanic eruptions, solar variations and human-induced forcings such as the changing composition of the atmosphere and land-use change." Les modèles actuels concernent pour la plupart une définition plus restreinte du climat : principalement les interactions océan-atmosphère et leur évolution attendue sous l'action de forçages anthropiques. C'est déjà très complexe. Mais ce n'est pas le système climatique en tant que tel. Discussion RC : http://www.realclimate.org/index.php/archi...mate-modelling/
  8. Ben, pareil pour moi. Et comme elle semble avoir peu de temps pour répondre, je ne vais pas insister sur RC. Ce que j'en retire, c'est que la largeur des grilles du modèles (les longitudes) convergent différemment du réel, donc il faut déplacer le pôle vers le Groenland. Mais je ne comprends pas le sens de cette précision (notamment l'histoire du carré) ni ce que cela représente concrètement quand on fait le modèle. J'ai toujours vu de belles images où la Terre est "grillée" de manière réaliste en surface et en hauteur. Quelqu'un a peut-être une idée, voici le texte : Comment 14 How is the North Pole displaced into Greenland? Just as longitudes (or meridians) converge at the real NP, the width of grid cells converge in a model that is square with real longitudes and latitudes. This is undesirable, so this model's NP is displaced into Greenland, and the grid cells are NOT square with real latitudes and longitudes.
  9. A ce propos des modèles, je signale ce papier récent des JGR que j'ai trouvé hier. J'ai l'impression que les auteurs parlent des modèles météo / régionaux, et ils évoquent les incertitudes des flux radiatifs depuis la surface. Mais c'est un point qui m'intéresse plus globalement : la "surface-kin temperature" ici évoquée est-elle différente de la température mesurée par les stations (à 1-2 mètres du sol je crois) ? Quand on calcule l'émission IR lointain depuis la surface vers l'atmosphère, on fait comment au juste (on prend quelle T de quelle couche : surface skin, premiers mètres) ? De même, comment calibre-t-on l'albedo des sols à l'échelle locale, régionale, globale (ils évoquent une marge assez importante de 5-10 W/m2 en flux SW sortant, je pense que c'est la variabilité locale, mais je suppose qu'il existe une variabilité temporelle, c'est-à-dire qu'un sol 2000 n'a pas le même albedo en 2050 selon son usage, ou encore selon les sécheresses, etc.) ? JOURNAL OF GEOPHYSICAL RESEARCH, VOL. 112, D01102, doi:10.1029/2005JD007008, 2007 Comparison of different global information sources used in surface radiative flux calculation: Radiative properties of the surface Yuanchong Zhang, William B. Rossow, Paul W. Stackhouse Jr. Abstract - Direct estimates of surface radiative fluxes that resolve regional and weather-scale variability over the whole globe with reasonable accuracy have only become possible with the advent of extensive global, mostly satellite, data sets within the past couple of decades. The accuracy of these fluxes, estimated to be about 10–15 W/m2, is largely limited by the accuracy of the input data sets. The leading uncertainties in the surface fluxes are no longer predominantly induced by clouds but are now as much associated with uncertainties in the surface and near-surface atmospheric properties. This study presents a fuller, more quantitative evaluation of the uncertainties for the surface albedo and emissivity and surface skin temperatures by comparing the main available global data sets from the Moderate-Resolution Imaging Spectroradiometer product, the NASA Global Energy and Water Cycle Experiment Surface Radiation Budget project, the European Centre for Medium-Range Weather Forecasts, the National Aeronautics and Space Administration, the National Centers for Environmental Prediction, the International Satellite Cloud Climatology Project (ISCCP), the Laboratoire de Météorologie Dynamique, NOAA/NASA Pathfinder Advanced Very High Resolution Radiometer project, and the NOAA Optimum Interpolation Sea Surface Temperature Analysis and the Tropical Rainfall Measuring Mission (TRMM) Microwave Image project. The data sets are, in practice, treated as an ensemble of realizations of the actual climate such that their differences represent an estimate of the uncertainty in their measurements because we do not possess global “truth” data sets for these quantities. The results are globally representative and may be taken as a generalization of our previous ISCCP-based uncertainty estimates for the input data sets. Surface properties have the primary role in determining the surface upward shortwave (SW) and longwave (LW) flux.From this study the following conclusions are obtained. Although land surface albedos in the near-infrared remain poorly constrained (highly uncertain), they do not cause too much error in total surface SW fluxes; the more subtle regional and seasonal variations associated with vegetation and snow are still in doubt. The uncertainty of the broadband black-sky SW albedo for land surface from this study is about 7%, which can easily induce 5–10 W/m2 uncertainty in (upwelling) surface SW flux estimates. Even though available surface (broadband) LW emissivity data sets differ significantly (3–5% uncertainty), this disagreement is confined to wavelengths >20 μm so that there is little practical effect (1–3 W/m2) on the surface upwelling LW fluxes. The surface skin temperature is one of two leading factors that cause problems with surface LW fluxes. Even though the differences among the various data sets are generally only 2–4 K, this can easily cause 10–15 W/m2 uncertainty in calculated surface (upwelling) LW fluxes. Significant improvements could be obtained for surface LW flux calculations by improving the retrievals of (in order of decreasing importance): (1) surface skin temperature, (2) surface air and near-surface-layer temperature, (3) column precipitable water amount, and (4) broadband emissivity. In addition, for surface SW fluxes, improvements could be obtained (excluding improved cloud treatment) by improving the retrievals of (1) aerosols (from our sensitivity studies but not discussed in this work) and (2) surface (black-sky) albedo, of which the NIR part of the spectrum has much larger uncertainty.
  10. Concernant le précédente discussion, le plus simple pour ne pas parler dans le vide serait de publier ici ce que donne le même modèle climato aux mêmes forçages avec trois conditions initiales légèrement différentes. On verrait bien la fourchette des résultats après 100 ans. Je suis quand même un peu sceptique sur la portée de cette critique, ie sur l'importance que l'on doit accorder à la fourchette à l'arrivée. Il me semble que tout modèle fait des centaines ou des milliers de runs à partir de paramétrisations (notamment conditions initiales) différentes, et calcule ensuite la moyenne statistique des résultats obtenus (les fameux PDF). En ce sens, la modélisation climato. est très classiquement probabiliste : son résultat est le plus probable, mais il ne peut totalement exclure que les runs les plus écartés de cette valeur médiane (les plus "chaotiques" si l'on veut) ne se réalisent pas. Ce qui n'est bien sûr pas de nature à rassurer sur la fiabilité prédictive.
  11. Une discussion a commencé sur la question des conditions initiales / conditions aux limites des modèles météo ou climato. Je suggère qu'elle se poursuive ici, dans le cadre d'un débat plus large sur les modèles. Début de la précédente discussion (post 58 de miniTAX) : /index.php?s=&showtopic=18228&view=findpost&p=388310'>http://forums.infoclimat.fr/index.php?s=&a...st&p=388310 Ce n'est pas seulement ce point que je souhaite aborder dans cette discussion. Un débat sur les modèles est toujours un débat sur leur fiabilité prédictive. En météo comme en climato, on ne fait pas seulement de la prévi pour le plaisir de la prévi, mais aussi parce que son employeur (privé ou public) a besoin d'anticiper sur les situations à venir. Dans le cadre du climat, le GIEC a un cahier des charges assez précis, évaluer une perturbation anthropique dangereuse. Et donc notamment voir à quoi peut ressembler le climat en 2100 en prenant en compte cette perturbation anthropique, c'est-à-dire les GES, les aérosols et les usages des sols. A mes yeux, les 19 modèles GCM ne disent pas grand chose de fiable concernant le climat terrestre en 2100. Et les variantes régionales (RCM) encore moins. Donc, le GIEC ne remplit pas son cahier des charges et nous ne savons pas aujourd'hui si les activités humaines aboutiront à une situation dangereuse ou non, ni pour qui au juste sur le planète. Notez bien : je ne prétends pas qu'il n'y a pas de danger, simplement que nous ne savons rien de précis sur ce supposé "danger". Voici les impressions provisoires que je retire de mes lectures. Ce ne sont que des impressions, je précise, c'est-à-dire sans commune mesure avec l'appréciation d'un homme de l'art sachant distinguer l'important du secondaire dans son travail quotidien de modélisation. Je précise aussi qu'elles ne sont pas issues de la seule lecture de sceptiques acharnés, mais aussi bien (et même surtout) de publications "mainstream", comme le récent Frontiers of climate modeling édité par Kiehl et Ramanathan. Limites physiques (ou intrinsèques) : - les rétroactions nébulosité / vapeur d'eau / gradient thermique aux forçages sont encore mal appréciées (et/ou très paramétrisées, c'est-à-dire dépendant plus de contraintes issus de mesures locales que d'un calcul purement physique du phénomène) - le cycle biogéochimique, incluant notamment la réponse de la biosphère, de la lithosphère et de l'hydrosphère au surcroît de GES, est dans l'enfance et n'est pas réellement couplé aux GCM ; - la circulation océanique reste mal modélisée (aussi bien les évolutions de la MOC / THC que les échanges convectifs / turbulents en couche supérieure) - les évaluations des changements de la circulation générale atmosphérique sont souvent très médiocres (voir les comparaisons intermodèles / réanalyses assez désastreuses sur l'ENSO, le géopotentiel 500 hPa, etc.) - les usages des sols (le budget énergétique de surface terrestre en général) sont implémentés de manière assez rudimentaire - le couplage stratosphère / troposphère (donc forçage solaire UV et photochimie) est encore en étude sur des modèles spécifiques, donc pas vraiment couplé aux modèles GCM - les modèles du comportement des glaces (Groenland, glaciers, banquise arctique, plateformes antarctiques) ne semblent pas prendre en compte de nombreux phénomènes de petite échelles influant probablement sur la dynamique réelle (donc l'albedo et les rétroactions en Arctique, zone du plus fort réchauffement attendu cf. discussion en cours sur RC et notamment le comment 24 de Judith Curry) - les forçages ne sont même pas clairement connus (effets directs et indirects des aérosols notamment, mais la plupart en dehors des GES sont en low level of understanding) - et, bien sûr, le débat mené dans l'autre discussion sur le poids exact des conditions initiales dans l'exercice de modélisation climatique Limites contingentes (ou extrinsèques) : - la puissance de calcul des ordinateurs est imitée (imposant des grilles encore grossières, donc la paramétrisation des phénomènes "sub-grid") - les incertitudes sont encore importantes sur bon nombre de mesures, de même que leur manque de profondeur avant les satellites (or, ces mesures sont celles qui servent justement à paramétriser) - les SRES (émissions) ne sont qu'une fourchette des possibles énergétiques/démographiques/économiques ; - les forçages naturels (volcan, soleil) sont ignorés dans la période 2000-2100 (parfois même dans le reconstruction 1900-2000 pour le soleil); - la variabilité intrinsèque / chaotique sur les divers échelles de temps est inconnue ou mal contrainte (les runs de contrôle "sans forçage" sont autoréférentiels, leur valeur présuppose que la modélisation est correcte ou que les conditions initiales choisies sont bonnes quand on fait de la rétrovalidation). Ces limites (les premières surtout) font précisément l'objet du travail de chercheurs. Elles sont donc progressivement repoussées et c'est la marche normale de la science. Mais, et c'est un grand mais, les discussions habituelles sur le climat en dehors de la communauté des chercheurs ne portent nullement sur ces points précis. 90% des gens disent simplement : "vous avez vu ce que le GIEC prévoit pour 2100?" Or, cette phrase n'a aucune portée : ce que le GIEC prévoit pour 2100 a peu de chances de représenter l'état réel de la température globale 2100. Même les limites extrinsèques suffisent à conclure à cela. A fortiori les limites intrinsèques. Et ce qui est vrai pour les Tm globales l'est encore plus pour les autres facteurs (hydrologiques par exemple) et pour l'état régional du climat, là où sont conçues les politiques d'adaptation. Le climat étant ce qu'il est, c'est-à-dire quand même assez stable malgré tout, on ne doit sans doute pas s'attendre à un refroidissement de 3°C ni à une hausse de 8°C. Mais on sait très bien que la notion de perturbation anthropique dangereuse (le cahier des charges initial) se joue à moins que cela, dans la fourchette 0-3°C 2100 où les incertitudes sont justement maximales. Sans parler de l'au-delà 2100, bien sûr. *** Nota > J'ai insisté sur les modèles climato., mais l'avis des modélisateurs météo est le bienvenu. Après tout, ils savent beaucoup mieux ce qui se passe à petite échelle et ils ont forcément une idée de la fiabilité que l'on peut accorder à certains points (je pense surtout au principal : nébulosité, VE, gradient thermique, liens radiatifs-convectifs sur la colonne atmo.) lorsque l'on passe du calcul conditions initiales dépendant au calcul conditions limites dépendant. > Cette critique des modèles actuels peut très bien satisfaire une position "alarmiste" (je crois qu'Alain la partage en partie ici ; des auteurs comme Overpeck ou Otto-Bliesner ont publié en ce sens récemment, etc.). Elle est donc neutre sur ce qui se passera vraiment en 2050 ou 2100.
  12. Eh bien j'en fais autant (aller sur la toile pour trouver et lire des études) et c'est bien la raison de mon étonnement initial. A ma connaissance, les phases abruptes les mieux documentées sont les événements de Dansgaard-Oeschger et de Heinrich, en phase glaciaire ou de déglaciation. Mais je n'ai jamais lu à leur sujet l'hypothèse d'un arrêt de la THC (ou du GS en particulier). Je t'accorde volontiers que tu n'as pas dit "du jour au lendemain". Accorde-moi que tu as écrit : "Je veux bien que le GS ne s'arrête pas du jour au lendemain, mais il faut aussi arrêter de dire que c'est impensable qu'il s'arrête. cela est déjà arrivé par le passé, DONC cela arrivera dans le futur." De toute façon, c'est le comportement de la DNA plus que du GS qui importe si l'on a en tête un refroidissement européen (qui serait d'ailleurs surtout nord-européen et hivernal, car c'est en hiver que l'apport relatif de chaleur océanique est le plus important / chaleur atmosphérique, et plus on va vers le sud moins cet apport est important). Il est probable en revanche qu'il y ait des "déplacements" de cette circulation, ayant des conséquences régionales (plutôt que globales) significatives. (De toute façon, en phase glaciaire, les banquises descendent bcp plus bas, donc la circulation est déjà déplacée en HN et en Atlantique en particulier). Il est aussi possible que les situations glaciaires soient une des conditions nécessaires à ce genre d'épisodes abrupts (notamment des déversements rapides d'eau froide et douce dans le bassin Atlantique, plus salé que la moyenne il me semble, cf. le lien de miniTax sur le possible rôle de la calotte Laurentide ; cf. aussi notre discussion récente sur le "seasaw" Groenland / Antarctique et les cycles de 1470 ans). A l'horizon 2100, la seule hypothèse
  13. Fondamentalement, je réagissais ici à l'info initiale : la soi-disant hypothèse soutenue par des chercheurs d'un arrêt du jour au lendemain du GS. Ensuite, je ne demande justement qu'à être informé de ce que toi et Grecale2b avancez : quand donc le GS ou la THC ont-ils été "arrêtés" au cours des derniers siècles, millénaires ou millions d'années ? Pour ce que j'en ai lu, les hypothèses initiales de Broecker sur le rôle de la THC dans certains changements rapides sont toujours discutées. Et il s'agit souvent de détournements de certains flux océaniques (sur le bassin Atlantique Nord par les variations des pôles ou calottes), mais pas d'un "arrêt", selon ton terme et celui de Grecale2b pour le GS. Cela dit, je n'ai pas plus creusé que cela, donc les références de ces épisodes apparemment bien connus m'intéressent.
  14. Oui, mais il était bien plus puissant que le nôtre, dès l'automne. Indice MEI des différents El Nino disponible à cette page : /index.php?showtopic=18188&pid=388213&st=20'>http://forums.infoclimat.fr/index.php?show...mp;#entry388213
  15. Sur le pb conditions initiales / conditions limites, voir aussi les travaux de Collins 2002 ou Collins et Allen 2002 sur cette page : http://www.climateprediction.net/science/s...ific_papers.php En revanche, je n'avais pas trouvé Giorgi 2005 dont parle Pielke. C'est dommage, j'aurais bien voulu voir en figure 2 ce que donnent vraiment les simulations d'un même AOGCM pour un même forçage quand on a simplement changé les conditions initiales.
  16. Ah, du jour au lendemain ? A quelle époque et sous quelles conditions, au juste ? Parce que rester flou sur les mécanismes, les échelles de temps et les ordres de grandeur, c'est aussi une manière de désinformer. Exemple : la Terre était une quasi boule glace, elle peut bien le redevenir, arrêtons de parler du réchauffement. (Précision utile : c'était au Cryogénien, voici 850-630 Ma, époque où la Terre état fort différente, et même le soleil).
  17. Sauf que l'indice MEI du Nino 2006/2007 est bien moindre que celui de 1998 : http://www.cdc.noaa.gov/people/klaus.wolter/MEI/ On va voir sur la durée, en 97/98 El Nino s'était maintenu en valeurs fortes jusqu'à mars-avril. L'anomalie de février (0,79) a ainsi été bien plus prononcée que celle de janvier. Cela sera peut-être l'inverse cette année. Bien sûr, cette idée était juste un prétexte pour observer mois à mois comment deux années à El Nino initial évoluent. Entièrement d'accord avec cela, une année ne dit rien (pas même un automne ni un hiver chaud /emoticons/smile@2x.png 2x" width="20" height="20"> ). Egalement d'accord, en fait la prévi en question du Met Office porte simplement sur un delta T. Comme Meteor l'a signalé, il est dommage que l'on ait pas accès aux runs du modèle et à ses commentaires, cela permettrait ensuite de voir plus en détail ce qui a divergé. Je ne sais pas trop quel type de modèle a été utilisé ni s'il a tourné en version "simplifiée" ou "complète".
  18. Non, c'est insensé, le GS ne peut pas s'arrêter ainsi du jour au lendemain car cela supposerait l'arrêt de ses facteurs causaux (pression, vent, Coriolis, différence température, salinité et densité de l'eau dans la circulation océanique globale, etc.) et c'est évidemment fantaisiste. A nouveau, voir (et prendre surtout le temps de lire !) le dossier de B. Voituriez sur FS : http://www.futura-sciences.com/comprendre/d/dossier637-1.php Quant aux checheurs, c'est l'inverse : Bryden a récemment reconnu que son papier dans Nature 2005 était peut-être prématuré vu la variabilité interannuelle importante du courant sur les zones mesurées. D'ailleurs, Bryden trouvait de mémoire que le GS est stable, c'est la boucle de retour en eaux profondes qui avait le plus changé. Il est donc faux de dire "certains chercheurs" annoncent un arrêt du GS, tout au plus certains suggèrent un possible ralentissement dans les décennies à venir. On en a en effet parlé ici des centaines de fois rien qu'au cours des derniers mois, cela serait quand même bien que ces efforts ne soient pas vains et que l'on ne voit pas toujours resurgir les mêmes serpents de mer.
  19. Faudra demander à l'auteur... mais elle (?) n'est pas trop pressée de répondre pour l'instant aux nombreuses questions, et l'équipe de RC ne le fait pas à sa place.
  20. Je croyais que la pôle nord magnétique avait tendance à s'éloigner du Groenland. Voir cette animation récente en Google Earth ou Google Maps : http://bbs.keyhole.com/ubb/showthreaded.php/Number/200028 Par ailleurs, je saisis toujours mal ce que ce paramètre fait dans un modèle climatique.
  21. Y a-t-il une limite selon toi à cette progression des modèles ? En réflexion théorique, c'est-à-dire sans considérer l'échelle de temps de la vie humaine. Limites extrinsèques (genre puissance de calcul des ordis) ou limites intrinsèques (genre physique de la chose).
  22. Oui, écrit trop vite, désolé. Ce qui est difficile quand on approfondit, c'est notamment le couplage entre ionosphère et magnétosphère et les relations physico-chimiques associées. Par exemple, à ce que j'en ai compris, le processus d'ionisation (formation de l'ionosphère diurne) découle en premier lieu du rayonnement UV et EUV (collision des photons et des atomes qui éjectent les électrons, lesquels entraînent la cascade d'ionisation secondaire), pas des particules du vent solaire lui-même.
  23. Merci. Le dernier lien ne fonctionne pas, c'est peut-être celui-là : http://www.ncdc.noaa.gov/paleo/data.html Nota : si les lecteurs ont leurs propres liens sur des bases de données paléo. non mentionnées, ils sont les bienvenus, cela va sans dire et encore mieux en le disant.
  24. En fait, le géomagnétisme en tant que tel n'intervient pas directement sur le climat. Ce qui importe potentiellement, c'est la manière dont la magnétosphère (créé par ce géomagnétisme) interagit avec le vent solaire d'une part (dans la gamme des rayons X et extrême UV surtout), avec le rayonnement cosmique galactique d'autre part, et cela après le passage de ces radiations dans la première zone collisionnelle de l'ionosphère. Ensuite, on a les effets plus ou moins connus (interaction UV ozone en stratosphère, éventuel rôle de l'ionisation troposphérique dans la nébulosité). En détail, c'est horriblement complexe et je progresse très lentement dans le bouquin que j'ai acheté là-dessus (Lilensten et Blelly, Du soleil à la terre. Aéronomie et météorologie de l'espace) Magnétisme et climat à l'IPGP, quelques travaux en cours : http://www.ipgp.jussieu.fr/pages/0214030402.php http://www.ipgp.jussieu.fr/pages/050707.php
  25. Sur RC, il faut aussi lire les comments (au moins les 50 ou 100 premiers, après cela part en HS sur toutes sortes de sujets mineurs). Celui d'Eric Swanson est intéressant, on attend les précisions de l'auteur (Swanson remarque que le modèle CCSM3 du papier de Holland et al. ne prend pas en compte la dépendance à l'angle d'incidence solaire pour le calcul de l'albedo, mais utilise un coefficient fixe issu des expériences SHEBA). Il y a d'ailleurs un autre point que je comprends pas dans la papier de Holland 2006, quand ils écrivent : "The model is run at a nominally 1-degree resolution with the north pole displaced into Greenland." Je saisis mal pourquoi le modèle déplace ainsi l'Arctique vers le Groenland.
×
×
  • Créer...