Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

charles.muller

Membres
  • Compteur de contenus

    2 597
  • Inscription

  • Dernière visite

Visiteurs récents du profil

Le bloc de visiteurs récents est désactivé et il n’est pas visible pour les autres utilisateurs.

charles.muller's Achievements

Cumulus congestus

Cumulus congestus (9/24)

  1. De toute façon, pas mal d'études suggèrent que les GES ne sont pas les seuls responsables de la forte pente réchauffement arctique : j'ai vu passer ces dernières années toutes sortes de papier soulignant l'importance des suies de carbone, de l'ozone troposphérique, des nuages d'altitude, de la variabilité forte du bassin Atlantique, etc. Et il semble que l'Arctique réagit de toute façon plus fortement aux phases de réchauffement, avec ou sans l'homme. Disons que l'amplification polaire n'est pas ce qui permettra de trancher clairement sur les attributions / détections des pentes globales. Et en terme de rétroaction, je ne pense pas que cela pèse beaucoup pour le réchauffement attendu d'ici 2100 (c'est-à-dire qu'un Arctique libre de glace en été en 2010, en 2040 ou en 2070 n'est pas un facteur déterminant de hausse globale des T dans les modèles - seuls ceux qui envisagent l'hypothèse clathrate, comme Alain ici, en font un facteur de hausse brutale).
  2. Je dis simplement qu'il y a à peu près stagnation depuis 2001 (et que la nouvelle info commentée ici confirme cette tendance en 2008, qui serait plus fraîche que 2001, si tant est que l'on puisse donner crédit aux projections annuelles du Hadley) en même temps qu'il y a forçage CO2 (anthropique en général) plus important que dans les décennies précédentes. Cela fait donc réfléchir sur la part de la variabilité naturelle dans la stagnation actuelle comme dans les hausses ou baisses passées. Car on sait que c'est un point mal contraint des modèles à l'échelle pluridécennale ou séculaire. Pas le seul bien sûr.Pour transformer cette stagnation de quelques années en accélération, tu peux bien sûr choisir une échelle ad hoc, mais cela ne mène pas à grand chose : si tu te retrouves avec une tendance 2001-2010 nulle, tu pourras difficilement dire que le RC s'accélère, non ? Mais par ailleurs, je ne conteste pas le fait que les dernières dix années comptent effectivement les plus chaudes des mesures depuis les satellites (1978) ou les bases de surface (1850). Pas plus que je n'oublie régulièrement de rappeler qu'une stagnation de quelques années n'est pas vraiment significative. Plus elle dure et décroche des prévisions des modèles, plus elle sera intéressante à analyser (pour les modélisateurs). Comme indiqué plus haut, le point est surtout de savoir l'amplitude de cette variabilité naturelle, et sa part éventuelle au sein des 0,76 K de hausse observé depuis 1850. C'est important pour attribuer les évolutions pluridécennales, et ensuite projeter. Par exemple, dire que la stagnation 1940-1975 est entièrement due au masquage du réchauffement par les aérosols n'est pas la même chose que de dire qu'elle est due pour partie aux aérosols, pour partie au soleil, pour partie à des couplages océan-atmosphère. Par définition, pour qu'un modèle projette correctement en 2100, il faut qu'il simule correctement la réaction du climat aux différents forçages depuis 1900 (ainsi que les transferts de chaleur au sein de l'océan et vers l'atmosphère). Et je continue de penser que l'on a aucune certitude forte à ce sujet pour le moment. Il m'a toujours semblé que les années 2000-2020 serait importante pour clarifier nos vues et le premier tiers de cette période correspondant pour le moment à cette attente. J'ai lu cette conférence, mais elle n'analyse pas la stagnation 2002-2007 (de mémoire). Tu confonds peut-être avec le texte de Meteor sur le même blog.Tout le monde semble d'accord pour dire que 2009 et 2010 seront les années les plus révélatrices, avec soit une reprise de la hausse (ce qui est attendu), soit une stagnation persistante ou une baisse (ce que personne n'anticipe). Il faudra donc un peu de patience.
  3. A ce propos, la variabilité naturelle a le vent en poupe, si l'on peut dire. Une étude venant de paraître dans Science (Express, prépub) analyse le réchauffement du bassin atlantique Nord depuis cinquante ans. Elle conclut que ce réchauffement est variable selon les régions (certaines ayant refroidi), qu'il s'explique correctement par les variations de la NAO selon les modèles et qu'il est impossible d'assigner la hausse constatée de manière sûre au RC anthropique ou à la variabilité naturelle, celle-ci étant connue pour être prononcée sur l'Atlantique. Science DOI: 10.1126/science.1146436 Reports The Spatial Pattern and Mechanisms of Heat Content Change in the North Atlantic M. Susan Lozier 1, Susan Leadbetter 2, Richard G. Williams 2, Vassil Roussenov 2, Mark S. C. Reed 1, Nathan J. Moore 3 1 Division of Earth and Ocean Sciences, Nicholas School of the Environment and Earth Science, Duke University, Durham, NC 27708, USA. 2 Department of Earth and Ocean Sciences, Liverpool University, Liverpool, L69 3GP U.K. 3 Division of Earth and Ocean Sciences, Nicholas School of the Environment and Earth Science, Duke University, Durham, NC 27708, USA; Current affiliation: Department of Geography, Michigan State University, East Lansing, MI, 48823 USA. The total heat gained by the North Atlantic Ocean over the past fifty years is equivalent to a basin-wide increase in the flux of heat across the ocean surface of 0.4 ±0.05 Wm-2. We show, however, that this basin has not warmed uniformly: though the tropics and subtropics have warmed, the subpolar ocean has cooled. These regional differences require local surface heat flux changes (±4 Wm-2) much larger than the basin-wide average. Model investigations show that these regional differences can be explained by large-scale, decadal variability in wind and buoyancy forcing, as measured by the North Atlantic Oscillation index. Whether the overall heat gain is due to anthropogenic warming is difficult to confirm, since strong natural variability in this ocean basin is potentially masking such input at the present time.
  4. Pour revenir sur Nino/Nina présentés désormais comme les facteurs de premier ordre de variabilité interannuelle, voici les indices MEI pour l'ENSO du site NOAA. http://www.cdc.noaa.gov/people/klaus.wolter/MEI/ On voit que l'amplitude des phases Nino depuis 2000 reste très modérée par rapport aux années 1980-2000, qui ont connu des phases positives fortes, dont 1997-98 correspondant au record de température de surface. Il serait intéressant de savoir s'il s'agit d'une simple phase de calme provisoire, ou si nous retournons vers une phase trentenaire à Nino faible et Nina fort, comme ce fut le cas entre 1950 et 1980. Dans ce dernier cas, je doute un peu que le rythme du RC global soit aussi emballé que certains ne le prévoyaient dans la décennie 1990 et au début des années 2000. Bien sûr, l'ENSO n'est qu'une des oscillations du climat et ne résume pas toute la variabilité naturelle.
  5. Je sais bien que le journalisme n'est pas synonyme d'exactitude et que le climat aggrave le phénomène (rétroaction cognitive dite de l'amplification du n'importe quoi), mais l'AFP serait tout de même avisée de relire ses dépêches avant de les publier, à moins qu'elle rêve de devenir rapidement une agence de presse de sous-préfecture. L'histoire de la planète dure depuis 4,5 milliards d'années et des brouettes, je suppose que ni 2007 ni 1998 ni tout autre année récente ne prétend à un quelconque record de chaleur sur la période. Sinon, ce sont les Nino et les Nina qui semblent définir désormais les rangs dans les classements annuels de chaleur. Etonnant retour de la variabilité naturelle alors que le GIEC martelait encore voici un an, dans les premières lignes de son résumé pour décideur, que le dioxyde de carbone est le plus important GES anthropique et que son taux de croissance atmosphérique 1995-2005 a été le plus élevé depuis le début des mesures directes. Que ce rythme endiablé s'accompagne d'une stagnation persistante des températures, voilà qui donne à réfléchir. Pendant ce temps là, le baril de pétrole dépasse les 100 dollars, on peut toujours méditer sur la solidité des scénarios d'émission du XXIe siècle censés ajouter des centaines de ppm CO2 dans notre atmosphère...
  6. Cette info dans le dernier Nature. En substance, l'analyse de la structure verticale du réchauffement arctique montre que celui-ci est développé sur toute l'épaisseur de l'atmosphère, quoique diversement selon les saisons. Les auteurs suggèrent que la rétroaction positive de la fonte des neiges et des glaces ne peut être la cause principale d'une telle signature atmosphérique, car elle devrait être surtout sensible dans la basse troposphère et près de la surface. Ils concluent que l'amplification polaire a également pour cause des modifications plus larges de la circulation atmosphérique. (Figure reproduite : le réchauffement de la colonne verticale selon les saisons ; on voit notamment qu'en été c et en automne d, là où les glaces disparaissent le plus vite, le réchauffement est soit moins marqué près de la surface, soit réparti également sur toute la colonne). L'amplification polaire et surtout arctique est un phénomène connu des réchauffements passés ou présents, mais j'ignore le poids que les modèles attribuent habituellement à la perte d'albédo dans cette amplification). FIGURE 1. Averaged temperature trends around latitude circles for 1979–2001 plotted versus latitude and height for the four seasons. Trends are shown for winter (a, December–February), spring (b, March–May), summer (c, June–August) and autumn (d, September–November). The linear trends are estimated from monthly mean data using a least-squares fit. *** Nature 451, 53-56 (3 January 2008) | doi:10.1038/nature06502; Received 28 March 2007; Accepted 29 November 2007 Vertical structure of recent Arctic warming Rune G. Graversen1, Thorsten Mauritsen1, Michael Tjernström1, Erland Källén1 & Gunilla Svensson1 Department of Meteorology, Stockholm University, S-106 91 Stockholm, Sweden Abstract Near-surface warming in the Arctic has been almost twice as large as the global average over recent decades1, 2, 3, 4, 5—a phenomenon that is known as the 'Arctic amplification'. The underlying causes of this temperature amplification remain uncertain. The reduction in snow and ice cover that has occurred over recent decades6, 7 may have played a role5, 8. Climate model experiments indicate that when global temperature rises, Arctic snow and ice cover retreats, causing excessive polar warming9, 10, 11. Reduction of the snow and ice cover causes albedo changes, and increased refreezing of sea ice during the cold season and decreases in sea-ice thickness both increase heat flux from the ocean to the atmosphere. Changes in oceanic and atmospheric circulation, as well as cloud cover, have also been proposed to cause Arctic temperature amplification12, 13, 14, 15, 16, 17. Here we examine the vertical structure of temperature change in the Arctic during the late twentieth century using reanalysis data. We find evidence for temperature amplification well above the surface. Snow and ice feedbacks cannot be the main cause of the warming aloft during the greater part of the year, because these feedbacks are expected to primarily affect temperatures in the lowermost part of the atmosphere, resulting in a pattern of warming that we only observe in spring. A significant proportion of the observed temperature amplification must therefore be explained by mechanisms that induce warming above the lowermost part of the atmosphere. We regress the Arctic temperature field on the atmospheric energy transport into the Arctic and find that, in the summer half-year, a significant proportion of the vertical structure of warming can be explained by changes in this variable. We conclude that changes in atmospheric heat transport may be an important cause of the recent Arctic temperature amplification.
  7. Si tu considères le JGR Atmosphere comme un journal sérieux (c'est habituellement le cas), tu as le papier tout récent de McKitrick et Michaels, ainsi déjà que McKitrick 2004 sur le même thème (dans Climate Res. celui-là de mémoire). On en a discuté ici : /index.php?showtopic=24737'>http://forums.infoclimat.fr/index.php?showtopic=24737 Sinon, Roger A. Pielke Sr (celui qui a répondu au travail de Parker 2004 sur les nuits peu venteuses comme critère d'analyse de l'UHI) a pas mal publié sur le thème des influences locales / régionales sur le réchauffement, donc sur le problème d'une métrique adaptée (autre que les stations de surface). Une synthèse de ses vues par exemple dans : Pielke Sr., R.A., G. Marland, R.A. Betts, T.N. Chase, J.L. Eastman, J.O. Niles, D. Niyogi, S. Running (2002), The influence of land-use change and landscape dynamics on the climate system- relevance to climate change policy beyond the radiative effect of greenhouse gases, Phil. Trans. A., 360, 1705-1719. Son livre sur la question a connu une réédition augmentée en 2006 : William R. Cotton, Roger A. Pielke, Human Impacts on Weather and Climate, Cambridge UP. Son blog, avec beaucoup d'articles signalés sur ce thème dont certains disponibles en pdf : http://climatesci.colorado.edu/ *** A nouveau, je pense qu'il faut reprednre le problème à la base. La question est de savoir si l'assertion suivante est vraie ou fausse : l'ensemble des activités humaines (urbanisation, mais aussi bien déforestation, agriculture, irrigation, pollutions diverses, etc.) modifie localement et régionalement le budget énergétique de surface / couche limite, ainsi que le cycle de l'eau. Si cette assertion est vraie, on peut supposer que le signal du réchauffement issu des stations de surface, presque toujours situées dans ou à périphérie des activités humaines, est en partie contaminé par des phénomènes ne relevant pas du forçage radiatif mesuré au sommet de l'atmosphère. Ce qui ne change pas grand chose au fait que le RC est également observé dans les océans et dans la troposphère, là où il n'y a cette influence "parasite".
  8. Il y a ce papier de Moisselin et Canellas 2005 pour ce qui est de l'insolation : doi:10.1016/j.crte.2005.04.002 Géophysique externe, climat et environnement Longues séries d'insolation homogénéisées en France French homogenized sunshine-duration long-term series Jean-Marc Moisselin Claire Canellas Météo France, direction de la climatologie, 42, av. Gaspard-Coriolis, 31057 Toulouse, France Résumé - Disposer de longues séries de mesures d'insolation exploitables nécessite au préalable un effort de recherche de données anciennes, puis de numérisation. Dix-huit séries ont été homogénéisées sur la période 1931–2000. Ces séries viennent enrichir le jeu de diagnostics sur le changement climatique à l'échelle du territoire, confortent une partie des résultats établis pour les températures et offrent de nouvelles pistes d'analyse des mécanismes d'évolution du climat. Pour citer cet article : J.-M. Moisselin, C. Canellas, C. R. Geoscience 337 (2005). Cela dit, tu ne trouves pas de valeurs mensuelles ou annuelles dans le papier. Je reproduis ici les deux schémas des 18 stations avec la tendance sur toute la période.
  9. Je ne sais plus si cela a été commenté ici : une étude Nasa de Nghiem et al. sur l'analyse des glaces arctiques à partir des données QuickScat. Selon les auteurs, le point important est l'état de la banquise à la sortie de l'hiver (notamment mars 2007), avec des glaces plus fines se fragmentant et fondant plus facilement pendant l'été boréal. Les chercheurs soulignent le rôle d'un régime "inhabituel" de pression et de vents, installé depuis le début des années 2000, dans ce phénomène de fragilisation. http://www.nasa.gov/vision/earth/lookingat...t-20071001.html
  10. charles.muller

    1998-2007

    Très bien ! Je te réponds là-bas dès que possible.
  11. A la base, le propos d'Akasofu n'est pas clair sur ce point. Il semble attribuer toute la pente 1900-2000 aux GES (je suppose que c'est là qu'il tire son 0,6 K / siècle, à peu près le chiffre du TAR 2001). Outre que c'est contestable, cela ne signifie pas grand chose sans le forçage correspondant. Sinon, comme toujours, le point important et "terre à terre" sera la sensibilité climatique du CO2 (le CH4 est pour le moment de côté vu que l'on ne comprend pas bien son cycle). Je constate à ce sujet que deux travaux récents ont conclu à une sensibilité faible (Chylek 2007 et Schwartz 2007 dans le JGR), de l'ordre de 0,3-0,5 K /W/m2, en-dessous des 0,7-0,8 K /W/m2 qui est la valeur "moyenne" habituellement avancée. Le débat continue donc entre chercheurs pour savoir si les rétroactions positives seront si puissantes que ce que disent les modèles actuels, ou du moins leur majorité (et donc, pour les citoyens, pour savoir s'il y a vraiment des raisons de s'inquiéter de la hausse du CO2). Mais dès que j'ai un peu de temps, je reprends le débat de fond à ce sujet sur FS.
  12. charles.muller

    1998-2007

    Je ne comprends toujours pas pourquoi on pourrait comparer deux années en surface alors qu'on ne pourrait pas comparer deux années en basse troposphère. 2007 n'est pas plus chaude que 1998 pour le Hadley en surface (et semble-t-il pour NOAA) et n'est pas plus chaude non plus en basse troposphère pour le RSS et l'UAH. Ce ne sont pas les mêmes infos, mais le fait est qu'elles convergent : la précision El Nino ne change pas grand chose vu que c'est aussi à cause d'El Nino que la Ts 1998 a été si élevée (c'est-à-dire que le signal El Nino se retrouve en basse tropo comme en surface). PS : quant au réchauffement anthropique, il n'est peut-être pas attendu en basse troposphère mais j'aimerais juste comprendre pourquoi dans ce cas.
  13. Sans mépris pour les bac + 8/16/64... je crois que le GIEC ne prend rien en compte, si ? Je n'ai pas réussi à charger ton lien, mais mon propos est juste que le GIEC n'est pas un organisme de recherche, donc au mieux il prend (plus ou moins bien) en note des études parues sur un sujet donné pour en faire la synthèse, mais il n'a aucune autorité pour les hiérarchiser (au sens d'une méta-analyse avec critique des sources et des méthodes). On peut faire le compte précis, sur les UHI, il y a une grosse littérature, cela serait bien. Surtout, je ne vois pas trop la cohérence entre un chap 7 (de mémoire, pas chez moi là) qui reconnaît les modif du budget de surface et le reste (chap 2 de mémoire là aussi) disant que les stations de surface sont OK. Si tu déboises et construis dans le 10x10 km autour de la station, autant penser à autre chose que cette station pour isoler un signal atmosphérique (les GES), cela me paraît évident.
  14. Là je crois que tu t'avances sur un terrain que tu n'aimes pas trop (à juste titre) : les paléoclimats. Je doute que l'on puisse en extraire grand chose (en ordre de grandeur de dixième de degré). Je doute aussi que cela ait (physiquement) un sens de comparer 1000-1100 et 1900-2000. Même s'il y a vraiment 0,3 K de plus dans la pente du XXe siècle, cela ne serait pas si clair à interpréter.
  15. Oui mais lesquels (sur 12 points), chère zazou ?
×
×
  • Créer...