Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

charles.muller

Membres
  • Compteur de contenus

    2 597
  • Inscription

  • Dernière visite

Tout ce qui a été posté par charles.muller

  1. En l'occurrence, Wunsch utilise le modèle ECCO-GODAE, avec une résolution de 1x1° et 23 couches verticales. C'est ce modèle qui lui permet d'intégrer et calibrer l'ensemble des données : 2,11 x 10^19 observations au total sur la période (voir tableau 1) : réanalyses NCEP/NCAR, données altimétriques satellites, données de surface XBT, Argo, etc., données hydrographiques. Il s'agit donc bien de mesures (les données Topex-Jason-Poseidon sont intégrées dans cet ensemble), mais je suppose que les mesures "brutes" n'ont pas de sens et nécessitent un modèle pour les interpréter. Contrairement à ce que tu écris (cette fois c'est sûr /emoticons/smile@2x.png 2x" width="20" height="20">), il me semble donc que Wunsch est particulièrement "regardant" sur la qualité des données, le papier consistant précisément à montrer que l'on doit intégrer l'ensemble de ces paramètres (y compris les variables climato et leur influence sur la mesure) pour aboutir à des estimations moins imprécises et ne pas se contenter de données satellite plus ou moins bien calibrées (on sait que pour l'atmosphère, il y a eu pas mal de pb avec les données satellite au départ : pas de raison de penser que l'analyse altimétrique n'est pas aussi problématique quand à l'interprétation des données brutes, surtout pour l'ordre de grandeur du mm). Il a l'honnêteté et la modestie de dire dans ses remarques de conclusion qu'obtenir des données vraiment utilisables reste clairement un défi pour la recherche aujourd'hui : Although intense interest exists in the global average value of sea level change, and the plau- sible inference of an average rise, actually obtaining a useful result proves extremely difficult. If errors in the altimetric data are fully understood (not clear), estimates of an average rise near 3mm/y (e.g., CN2004) are sensible, but currently untestable against in situ data sets. Several problems exist: Figs. 1 or 2 show the great regional variability in trend values, sometimes up to two orders of magnitude larger than the apparent spatial mean. In addition to remaining ques- tions about altimetric error sources (e.g., geocenter movement), the sampling errors involving temporal aliasing and missing high latitude coverage need to be better understood. In situ data are never truly global, have strong seasonal biases, are primarily confined to the upper ocean, and likely contain systematic errors of various types. Meteorological estimates from the so-called reanalyses are unconstrained in terms of global heat and freshwater budgets. Conversions from halosteric to mass components in sea level necessary to compute net fresh water inputs from salinity changes place very strong requirements (Munk, 2003) on the accuracy of the mean salin- ity change and on the equation of state, particularly in models where various simplifications are made. Models based upon the Boussinesq approximation (the ma jority, as here) are susceptible to otherwise negligible small errors such as the use of source terms in the near-surface salinity conservation equation, among others. At best, the determination and attribution of global mean sea level change lies at the very edge of knowledge and technology. The most urgent job would appear to be the accurate deter- mination of the smallest temperature and salinity changes that can be determined with statistical significance, given the realities of both the observation base and modeling approximations. Both systematic and random errors are of concern, the former particularly, because of the changes in technology and sampling methods over the many decades, the latter from the very great spatial and temporal variability implied by Figs. 2, 6, 8. It remains possible that the data base is insufficient to compute mean sea level trends with the accuracy necessary to discuss the impact of global warming–as disappointing as this conclusion may be. The priority has to be to make such calculations possible in the future. Pour ma part, je trouve cela convaincant. Je ne vois pas l'intérêt qu'il aurait à exagérer les difficultés. Je vois en revanche très bien l'intérêt qu'ont certains auteurs (y compris sceptiques, je te rassure) à rejeter ces questions de méthode et le poids des incertitudes dans un coin obscur et plus ou moins facilement accessible de leur papier. On se souvient de la grande difficulté de certains chercheurs à transmettre leurs données et leurs algorithmes, y compris des gens qui font la leçon aux autres sur des sites climatiques anglo-saxons bien connus. /emoticons/wink@2x.png 2x" width="20" height="20"> De toute façon, je pense et j'espère que le débat climatique va se clarifier un peu dans les années à venir, avec l'émergence d'auteurs comme Wunsch appelant à la prudence contre les sceptiques et contre les alarmistes (ceux qui ont pris pour habitude récente de dire que le GIEC est dépassé, que leur propre travail est meilleur et plus inquiétant, ce qui les placera forcément à la périphérie du débat s'ils continuent ainsi à jouer les cavaliers seuls du catastrophisme-par-communiqué).
  2. Tout à fait je partage ton analyse, j'avais souligné le même point jadis dans la critique d'un papier de Hansen et al. sur le "réchauffement climatique dangereux" (où Hansen et al prenaient déjà l'Eemien comme "benchmark" d'un futur réchauffement dangereux du point de vue du niveau des mers, ce qui me semblait et me semble toujours assez incertain compte-tenu des conditions différentes en HN, particulièrement en Arctique). Le "contrairement" s'appliquait juste au papier de Wunsch, que tu ne trouvais pas lié à la présente discussion. Mais il est vrai que le papier du même auteur vraiment (= directement) lié au sujet (hausse du niveau des mers) est plutôt celui-là : C. Wunsch, R. Ponte, P. Heimbach, 2007. Decadal trends in sea level patterns: 1993-2004 J. Clim., in press On peut le télécharger sur la même page. La figure suivante montre que la complexité du phénomène : sur les treize dernières années, il y a des hausses et des baisses régionales. Mais la lecture du papier montre surtout la difficulté de l'interprétation des données. Concernant le calcul des moyennes évoquées plus haut, les auteurs lui consacrent l'Appendix 1 (bon courage) Si je suis bien, leur valeur finale de hausse des mers est plus faible que celles lues habituellement : 1,61 +/- 0,07 mm / an pour 1993-2004 (voir tableau de synthèse), soit moitié moins environ que les 3 mm/an habituels. Mais je n'ai pas encore bien compris comment ils arrivent à cela. PS : à noter qu'il ne sont pas d'accord avec le fameux calcul de Hansen 2005 où celui-ci évaluait la qualité du déséquilibre radiatif selon le modèle GISS en prenant en compte la hausse thermostérique. On voit que sur la même période (à un an près), le calcul de Wunsch et al divise par deux cette part de la hausse due à la dilatation thermique. S'ils ont raison, c'est que le modèle GISS se trompe quelque part quand il fait le bilan radiatif "en dynamique" (c'est-à-dire pas simplement la somme des forçages depuis 1750, mais la distinction entre forçages déjà "équilibrés" par la hausse des Tsurface ou Tocéaniques et forçage encore "actifs", si je puis dire, correspondant à la hausse encore "dans le pipe-line").
  3. Je ne sais pas trop où le mettre, je choisis ici en supposant que le Groenland est inclus. En substance, une équipe de chercheurs de l'Université de l'Ohio a suggéré lors du dernier meeting AGU que la fonte du Groenalnd pourrait être en partie liée des causes naturelles encore mal observées et donc modélisée, à savoir le réchauffement par la base (avec la fameuse lubrification), c'est-à-dire directement par le magma sous la croûte terrestre. Quand cette dernière n'est pas très épaisse, la chaleur du manteau (ou du volcanisme sous-terrain) pourrait faire fondre les glaces au-dessus et favoriser le "flot" de certains grands glaciers. C'est semble-t-il ce que les chercheurs soupçonnent pour le Nord-Est du Groenland. (Traduit vite, vous pouvez corriger). EARTH'S HEAT ADDS TO CLIMATE CHANGE TO MELT GREENLAND ICE COLUMBUS , Ohio -- Scientists have discovered what they think may be another reason why Greenland 's ice is melting: a thin spot in Earth's crust is enabling underground magma to heat the ice. They have found at least one "hotspot" in the northeast corner of Greenland -- just below a site where an ice stream was recently discovered. The researchers don't yet know how warm the hotspot is. But if it is warm enough to melt the ice above it even a little, it could be lubricating the base of the ice sheet and enabling the ice to slide more rapidly out to sea. Ralph von Frese The behavior of the great ice sheets is an important barometer of global climate change, said Ralph von Frese, leader of the project and a professor of earth sciences at Ohio State University. However, to effectively separate and quantify human impacts on climate change, we must understand the natural impacts, too. Crustal heat flow is still one of the unknowns -- and it's a fairly significant one, according to our preliminary results. Timothy Leftwich, von Frese's former student and now a postdoctoral engineer at the Center for Remote Sensing of Ice Sheets at the University of Kansas, presented the study's early results on Thursday, December 13, 2007, at the American Geophysical Union meeting in San Francisco. von Frese's team combined gravity measurements of the area taken by a Naval Research Laboratory aircraft with airborne radar measurements taken by research partners at the University of Kansas. The combined map revealed changes in mass beneath the Earth's crust, and the topography of the crust where it meets the ice sheet. Below the crust is the mantle, the partially molten rocky layer that surrounds the Earth's core. The crust varies in thickness, but is usually tens of miles thick. Even so, the mantle is so hot that temperatures just a few miles deep in the crust reach hundreds of degrees Fahrenheit, von Frese explained. It could be that there's a volcano down there, he said. But we think it's probably just the way the heat is being distributed by the rock topography at the base of the ice. Where the crust is thicker, things are cooler, and where it's thinner, things are warmer. And under a big place like Greenland or Antarctica , natural variations in the crust will make some parts of the ice sheet warmer than others, he said. The ice thickness, the temperature at the base of the ice, and ground topography all contribute to the forming of an ice stream -- a river of ice that flows within a larger ice sheet. In recent years, Greenland ice streams have been carrying ice out to sea faster, and ice cover on the island has been diminishing. Once the ice reaches the sea, it melts, and global sea levels rise. The complete melting of these continental ice sheets would put much of Florida, as well as New Orleans, New York City and other important coastal population centers, under water, von Frese said. The ice sheet in northeast Greenland is especially worrisome to scientists. It had no known ice streams until 1991, when satellites spied one for the first time. Dubbed the Northeastern Greenland Ice Stream, it carries ice nearly 400 miles, from the deepest interior of the island out to the Greenland Sea. Ice streams have to have some reason for being there. And it's pretty surprising to suddenly see one in the middle of an ice sheet, von Frese said. The newly discovered hotspot is just below the ice stream, and could have caused it to form, the researchers concluded. But what caused the hotspot to form? It could be that there's a volcano down there, he said. But we think it's probably just the way the heat is being distributed by the rock topography at the base of the ice. Collaborator Kees van der Veen began working on the project when he was a visiting associate professor of geological sciences and research scientist at Byrd Polar Research Center at Ohio State. He is now at the University of Kansas. Recent observations indicate that the Greenland Ice Sheet is much more active than we ever believed, van der Veen said. There have been rapid changes in outlet glaciers, for example. Such behavior is critically linked to conditions at the ice bed. Geothermal heat is an important factor, but until now, our models have not included spatial variations in heat, such as this hotspot. Our map is the first attempt at quantifying spatial variations in geo-heat under Greenland -- and it explains why the Northeast Greenland Ice Stream is where it is, van der Veen added. To measure actual temperatures beneath the ice, scientists must drill boreholes down to the base of the ice sheet-- a mile or more below the ice surface. The effort and expense make such measurements few and far between, especially in remote areas of northeast Greenland. For now, the researchers are combining theories of how heat flows through the mantle and crust with the gravity and radar data, to understand how the hotspot is influencing the ice. Once they finish searching the rest of Greenland for other hotspots, they hope to turn their attention to Antarctica.
  4. Enfin bref, pour revenir à ce topic, sommes-nous d'accord que la hausse du niveau des mers ne s'accélère pas depuis dix ans ? Donc, on peut s'amuser à comparer 2000-2100 avec 125.000-124.900 BP, ou même pourquoi pas avec le Précambrien. Mais les chercheurs devraient plutôt répondre à des questions simples : pourquoi alors que nous sommes en température "record" et en fonte des glaces "accélérée" depuis dix ans la pente reste-t-elle aussi sage? Pour répondre à cela, il faut de bonnes observations et de bons modèles de l'océan. Idem pour spéculer sur la hausse 2100 (où il faut en plus de bons modèles des glaces, de la circulation, etc.) Raison pour laquelle je conseillais le texte de C. Wunsch, car il remet assez clairement en question le confiance trop importante que l'on place dans les modèles actuels (de l'océan en l'occurrence) pour les projections ou les reconstitutions, et il explique pourquoi (modèle sur-simplifié du type "grand tapis roulant" ne correspondant pas à la réalité, ignorance des turbulences à moyenne échelle et de leur importance dans les échanges océan-atmosphère, intégration spatiale sur la base de données éparses, puis intégration temporelle ayant toute chance d'amplifier de mauvais calculs initiaux, etc.) Quelques citations parmi d'autres : "Il y a beaucoup de raisons de penser que la circulation de l'océan a une influence profonde sur le climat ; mais il est douteux que les causes et les conséquences de ses changements soient bien compris. Le message ici n'est pas qu'il n'y a aucun espoir, mais plutôt que la définition d'un problème doit être la première étape pour le résoudre et que des conjectures de convenance ne devraient pas être prématurément transformées en "faits", pas plus que les ambiguités ou les incertitudes ne devraient être supprimées. Parce que le changement climatique et la circulation océanique sont des problèmes importants qui conduisent déjà par eux-mêmes à des 'just-so-stories' excitantes et attractives dans les médias grand public -y compris Hollywood- un peu de retenue serait la bienvenue(...) Tous les modèles numériques ont des erreurs dont les sources sont variées, incluant une physique tronquée (chimie, biologie), des erreurs dans la représentation numérique des champs continus, dans les conditions initiales et dans les conditions aux limites, des paramétrisations erronées aux échelles inférieures aux grilles, des fautes de programmation. On sait peu de chose quantitativement sur la magnitude et les effets de ces erreurs sur les solutions, si ce n'est que les erreurs ne disparaissent jamais et qu'elles auront tendance à s'accumuler. L'accumulation des erreurs dans le temps est importante parce que le "climat" du modèle peut devenir juste une somme d'erreurs. (...) Le chemin pour résoudre un problème difficile passe par sa reconnaissance et sa définition. Quand des conclusions hypersimplifiées sont transformées en vérités (…), un champ d’études peut être déformé pendant des décennies avant que sa fondation bancale soit finalement reconnue (…) Les modèles sont extrêmement importants et éclairants, mais une meilleure compréhension de leur simulation réelle et de leurs capacités prédictives est nécessaire" Bref, le message de Wunsch à ses collègues me paraît assez limpide : passez un peu moins de temps à brandir au médias votre dernière projection pour 2100 ou votre dernière simulation du LIG, un peu plus de temps à vous colleter aux vrais problèmes, les défauts des observations et des modèles que vous présentez à ces mêmes médias en dissimulant leurs carences. Et contrairement à ce que tu penses Météor, je trouve que cela s'applique très bien à ce dont nous parlons en ce moment, à savoir une étude qui bricole une comparaison entre l'Eemien et le prochain siècle, étude dont la surface médiatique est inversement proportionnelle à l'intérêt scientifique (mais qui plaît bien sûr car on peut brandir un chiffre pour la hausse des mers 2100).
  5. Non. Pour trouver une éventuelle "solution" à un problème, il faut analyser ce pb et connaître ses causes. Raison pour laquelle on débat ("on", ce sont les chercheurs, pas nous ici qui les commentons). Je n'ai personnellement aucune raison de croire Rignot plutôt que Chylek (deux chercheurs) sur l'analyse de la variabilité naturelle / forcée en Arctique. Or, ils disent des choses contradictoires. Ce n'est pas parce que Rignot est fort en communiqué de presse que cela influe mon jugement rationnel. Plutôt le contraire, même : quand on perd du temps et de l'énergie à flatter les médias, c'est autant de perdu pour la recherche... Certes, mais nous avons tous nos convictions "intimes" (j'ai vécu à la campagne et cela a contribué à me "persuader" du contraire). L'intérêt de se référer à la science, c'est que l'on ne se contente pas de discuter au café du commerce, on fait l'effort d'argumenter sur la base de travaux. C'est-à-dire de gens qui consacrent leur existence à explorer / expliquer le réel, et qui méritent pour cela notre attention et notre reconnaissance. En tout cas la mienne.
  6. charles.muller

    1998-2007

    Non, en l'occurrence c'est du mois par mois. Les différences proviennent soit des moyennes de référence par rapport auxquelles l'anomalie mensuelle est quantifiée, soit des réseaux de mesure, soit encore des techniques d' homogénéisation / interpolation quand les réseaux de mesures sont inexistants / inhomogènes. Ces deux derniers points étant semble-t-il assez ésotériques, les responsables des bases ne jouant pas toujours la carte du débat ouvert et transparent sur les méthodes employées pour arriver à des moyennes globales et sur les raisons pour lesquelles ils continuent de diverger.
  7. Oui, mais il serait intéressant de lire des analyses sur la significativité spatiale/temporelle d'une tendance au regard du domaine concerné. Le climat est la moyenne du temps à long terme (> 30 ans). Mais le temps change par définition d'un endroit à l'autre. (Je dis le temps parce que je pense aux grandeurs climato. habituelles de surface, dérivées de la météo, mais il faudrait aller au-delà et regarder les océans, par exemple, je conseille à nouveau à tous de lire en détail la synthèse ci-dessous de Wunsch sur les modèles en ce domaine, c'est très clair et très instructif) C. Wunsch, 2007. The Past and Future Ocean Circulation from a Contemporary Perspective, in AGU Monograph, 173, A. Schmittner, J. Chiang and S. Hemming, Eds., 53-74, Téléchargeable ici : http://puddle.mit.edu/~cwunsch/
  8. Oui. Point 1) Pourquoi une telle hausse à l'époque avec des GES si sages ? A cause du forçage orbital du soleil. Mais le budget radiatif TOA est quasi-constant en cas de forçage orbital (c'est juste une répartition spatiale différente). D'où une autre question: le budget radiatif TOA est-il la seule métrique pertinente pour les hausses et baisses de T (et pour l'influence solaire) ? Point 4) Les auteurs eux-mêmes relèvent que le Groenland a surtout contribué à la hausse de l'Eemien. La bonne question me semble : que se passait-il au Groenland voici 125.000 ans ? Est-ce comparable avec ce que le GIEC prévoit au Groenland en 2100? Là, c'est le pb des moyennes globales et de leur signification.
  9. Pour la banquise estivale, on verra bien, je doute pour ma part qu'elle disparaisse en dix ans. Pour les ours blancs... ils ne vivent pas au milieu de l'océan Arctique, mais sur les côtes du bassin arctique. Et ils ont déjà l'habitude de se reposer en été sur des terres dans les lieux où il manque de glace. On verra bien ce qu'il en est à long terme, il est courant de voir un décalage de la période de reproduction pour s'adapter à un changement de milieu (car le problème essentiel est là, la disponibilité en nourriture puis en lieu de repos pendant la gestation et après la naissance, les ours blancs ont déjà vécu des périodes où l'Arctique était plus chaud qu'aujourd'hui et sans doute demain, il est faux de penser qu'ils ont besoin d'un environnement glacé toute l'année). Bref, il ne faut pas vendre la peau de l'ours avant de le voir disparaître, tout de même.
  10. Je lis : Toute l'agitation actuelle semble finalement reposer sur cette fameuse "dynamique des glaces" que le GIEC sous-estimerait. Pourquoi pas, mais on attend des données tangibles à ce sujet, plus tangibles que des reconstructions de l'Eemien avec tous les défauts inhérents à l'interprétation des paléoclimats. Je veux bien croire que les glaciologues découvrent des choses exceptionnelles, mais ils communiquent mal : car la seule chose dont ils parlent, c'est une observation plus fine du Groenland dans une phase chaude, observation et phase qui n'ont en soi rien de très exceptionnel pour le moment. Il y a plein de papiers qui paraissent (voir échange récent sur meeting AGU), mais cela fait un certain temps que je n'ai pas lu de "review" = synthèse sur ces papiers, sur l'état de la recherche, sur les enjeux réels et précis, sur les avancées qui ont vraiment bousculé des idées reçues, etc.
  11. En effet il y en a plus pour MF, je me focalise sur ces stations-là parce qu'elles sont utilisées semble-t-il par le réseau NOAA/NCDC dans leurs évaluations historiques du climat mondial. C'est donc l'occasion de voir concrètement sur quelles bases sont produites les fameuses tendances globales et séculaires sur lesquelles tout le monde spécule. Hélas, j'avoue que je suis un peu déçu par le manque d'entrain des uns et des autres (ie sur la dimension "physique" d'évaluation et prise en compte des déséquilibres énergétiques de surface et sur la dimension "enquête" sur l'historique des stations françaises, ou même suisses dans le cas intéressant relevé par lozere). Je n'ai pas trouvé de mon côté le temps de formuler un mail complet et précis aux ingénieurs de MF, je vais tâcher de le faire bientôt car je veux quand même en avoir le coeur net. Pour être franc, j'ai l'intuition que l'urbanisation progressive dans les 5-10 km alentour d'une station n'est pas prise en compte dans les données pluridécennales, sauf s'il y a rupture locale, ie aux abords immédiats (50-150 m) de la station, et rupture perceptible comme saut "net" sur la mesure ; mais il faut se méfier de ses intuitions, qui sont parfois des préjugés, donc je vais poursuivre et vous tiendrai au courant des réponses que je reçois le cas échéant.
  12. Sinon, pour revenir au sujet, il faut quand même prendre avec des pincettes les paléoclimats. D'abord, les valeurs de T issues des proxies régionaux sont toujours situées dans des limites assez larges : pour le dernier maximum glaciaire, qui est plus proche et mieux documenté, cela fait facilement +/- 1 voire 2 K, ce qui est quand même énorme. Ensuite, la concordance temporelle de ces proxies régionaux est mal assurée. Rien que pour le dernier millénaire, on peut difficilement statuer à l'échelle de la décennie. Si l'on veut parler en global, il importe de contrôler que ce ne sont pas des variations régionales décalées de quelques décennies, voire quelques siècles, mais bien des phénomènes rapprochés dus aux mêmes causes (de forçage ou de circulation). Enfin, autant certains éléments sont relativement bien connus (les T, les GES), autant d'autres le sont peu à très peu (la végétation, les aérosols naturels, l'englacement saisonnier, la circulation océanique, etc.) On peut voir tout cela sur la figure 6.5 de l'AR4 du GIEC. A ces précautions de méthode limitant la portée des comparaisons, j'en ajoute deux autres : - je ne vois aucune raison de penser que la même quantité de CO2 aura les mêmes rétroactions (donc la même sensibilité) aujourd'hui qu'hier. Plus précisément, ajouter 100 ou 200 ppm de CO2 sur un climat glaciaire ne produit pas les mêmes effets que le même ajout sur un climat déjà tempéré (notamment parce qu'il y a déjà bcp de végétation, parce qu'il y a bcp moins de glaces, etc.) ; - pas mal d'indices suggèrent que les effets du soleil (forçage total) sur le climat sont mal pris en compte par les modèles actuels (et sur le climat moderne), je ne vois pas de raison que les choses soient meilleures sur les climats anciens et sur le forçage orbital / régional. Si l'on ne reproduit pas correctement tous les effets d'un forçage solaire sur la chimie et la circulation atmosphérique, sur le contenu de chaleur, la biologie et la circulation océaniques, eh bien on ne reproduit pas correctement le climat terrestre, qui ne se résume pas à des variations de l'espèce CO2 ou CH4.
  13. Désolé pour le HS, mais cette histoire de CO2 qui limite la croissance des arbres, cela vient d'où ?? Toutes les expériences actuelles en milieu CO2 enrichi (et dans le cas des forêts à intrants et ensoleillement équivalents, ie restant en conditions actuelles) et notamment FACE montrent au contraire des gains de productivité végétale, et pour les arbres généralement plus que pour les céréales de mémoire. Et cela alors que l'enrichissement est immédiat (c'est-à-dire que l'on projette directement sur la zone étudiée à 700 ppm de CO2 par exemple)
  14. charles.muller

    1998-2007

    Précaution qui n'est pas très éloignée du pile ou face, d'ailleurs.
  15. charles.muller

    1988 La Rupture !

    Ceux qui l'ont contesté la trouvaient contestable sur le plan du calcul (statistique) ou sur le plan des proxies choisis. Dans l'ensemble, ils ont obtenu gain de cause entre l'AR3 2001 et l'AR4 2007, car elle a disparu de son ancienne place de choix (résumé pour décideurs) et est désormais placée à égalité avec des courbes très différentes, dans un chapitre à ce sujet.
  16. charles.muller

    1998-2007

    Mais non mais non, de mon intérêt bien réel, la politesse n'a rien à voir là-dedans ! Même si je préfère être poli, entre gens de bonne compagnie /emoticons/ohmy@2x.png 2x" width="20" height="20">.
  17. charles.muller

    1998-2007

    Excat. Si je prends les terres de l'HN sur RSS en basse tropo, j'obtiens un graphique plus "conservateur", avec un réchauffement récent assez plat et en dessous de 1998, comme pour le reste du globe. Je n'ai pas regardé UAH, mais en dehors de la valeur absolue, les deux bases satellites sont habituellement convergentes pour la position relative des années. On a donc des bases terrestres avec une surface particulièrement chaude en 2007 sur les terres de l'HN, des bases satellite avec une basse troposphère pas spécialement chaude en 2007 sur les terres de l'HN. La petite expérience de cette année a quand même montré, au-delà du record anecdotique, que les grandes bases diffèrent encore pas mal (par rapport aux anomalies qu'elles détectent, dont l'ordre de grandeur est en dixième de K), que leurs techniques d'interpolation des stations éparses ne sont pas les mêmes et que ces interpolations transforment une année plus fraîche en année plus chaude (cas de Nasa Giss). Pour ma part, je reste assez sceptique sur la robustesse de ces données et la manière dont elles corrigent les biais de surface ou inhomogénéités (sceptique ne signifie pas que "je n'y crois pas", mais qu'un grand déballage "transparent" entre chercheurs serait quand même utile pour avoir les idées claires et comprendre les divergences des bases climatologiques). Sinon, j'attends avec impatience tes explications (et je subodore qu'elles auront à voir avec les transferts de chaleur océaniques /emoticons/smile@2x.png 2x" width="20" height="20">)
  18. charles.muller

    1988 La Rupture !

    A mon avis, n'importe quel climat local présente des variations pluri-annuelles ou décennales de ce genre.
  19. charles.muller

    1998-2007

    Certes, mais c'est quand même bien mystérieux car les gaz à effet de serre sont dits "bien répartis" et exercent leur forçage sur les deux hémisphères (et en HS il n'y pas bcp d'aérosols anthropiques pour masquer leur effet). Où passe le surcroit d'énergie en HS ? Si la chaleur est stockée par les océans, les couches supérieures des océans de l'HS montrent-elles une hausse importante ? Si elle est diffusée en profondeur, même question (et la hausse du niveau des mers s'accélère-t-elle, par dilatation thermique) ? Si l'énergie est re-radiée vers l'espace, cela se traduit-il par certaines évolutions de la nébulosité ? Je n'ai pas l'impression que les réponses soient très claires aujourd'hui.
  20. L'amplification polaire en Hémisphère Nord semble un trait que l'on rencontre dans la plupart des phases de réchauffement connu (au Holocène ou au Quaternaire). J'ignore l'ensemble des causes. La première est bien sûr la rétroaction négative des neiges et glaces : plus il fait chaud, moins elles sont abondantes (en intégrale sur l'année, même si elles peuvent être plus abondantes telle ou telle saison), et le puissant albedo des glaces joue un rôle de premier plan dans le budget énergétique de l'Arctique et des régions péri-arctiques (le rayonnement solaire est moins réfléchi par la surface, celle-ci accumule beaucoup plus de chaleur pendant l'été boréal, ce déséquilibre rend de plus en plus difficile l'englacement, etc.). Mais je suppose que la rétroaction négative de l'albedo des glaces n'est pas seule en cause dans l'amplification polaire, il y a sans doute des phénomènes de circulation (bassin Atlantique notamment) ou d'oscillation (AO, vortex polaire) que je connais moins bien. Si certaines veulent les expliquer ici... (L'amplification polaire signifie aussi que le plus fort de la hausse des T attendue aura lieu dans les zones où il fait le plus froid, et des zones peu habitées ; ce qu'il faut avoir en tête quand on parle de moyennes globales de hausse des T et de conséquences du RC, car ce sont surtout les moyennes locales qui devraient nous intéresser, et même les moyennes saisonnières plutôt qu'annuelles).
  21. En tout cas, le fait est que les végétaux profitent pour le moment du RC 1850-2007, y compris de sa phase récente et rapide en France ou en Europe occidentale. Qu'ils en profitent moins que prévu selon certains modèles de la végétation (ce que concluent certaines études, mais elles sont minoritaires à ma connaissance et il y a débat sur la plupart) ou qu'ils en profitent moins localement (ce qui est probable dans les zones déjà sèches, par exemple) ne doit pas faire oublier qu'ils en profitent tout de même globalement. Sauf à vouloir noircir le tableau à tout crin, on ne peut donc pas dire que tout va mal en mésinterprétant sélectivement ce qui va bien. Evidemment, au-dessus de tout cela, "mal" et "bien" sont des notions assez peu scientifiques, il faut à chaque fois s'accorder sur des critères communs de ce qui bon ou mauvais. Par exemple, un Arctique libre de glace en été (thème qui te tient à coeur) n'est ni bon ni mauvais en soi, il faut faire le bilan précis des conséquences attendues, voir s'il y a des dommages irréversibles, voir la balance avantages/inconvénients pour chaque point, voir aussi le coût et l'efficacité de l'adaptation / prévention pour chaque point, etc. On parle peu de tout cela ici parce que l'on s'intéresse surtout au rapport 1 du GIEC (les bases physiques), mais je suppose que les rapports 2 et 3 sont tout aussi discutables (au sens neutre de "dignes d'être discutés").
  22. Ah, je n'avais pas saisi depuis le départ que tu parlais d'espèces fruitières en culture intensive, je comprends déjà mieux la problématique de faible résistance aux coups de froid. Sinon les coups de froid à -5°C existeront toujours avec le RC... mais ils seront quand même moins fréquents cf. tableau 2 du SPM GIEC 2007 sur les événements extrêmes ou cf. prévision française des modèles (je parle dans la logique du RC et de l'info que tu donnes, ie dans l'hypothèse où les modèles sont réellement capables de prévoir quoique ce soit à 50 ou 100 ans et sauf effet régional genre ralentissement de la thermohaline et refroidissement en Europe). Pour les essences forestières, on peut donc supposer que les gains végétatifs compenseront la mortalité en coup de froid (en tout état de cause, si la forêt est entretenue, une telle mortalité serait bonne pour le bilan carbone puisqu'il faudrait re-planter et que les premières phases de croissance sont celles qui mobilisent le plus de CO2).
  23. Oui c'est plus clair, mais c'est déjà ce que j'avais compris /emoticons/biggrin@2x.png 2x" width="20" height="20"> Mon souci est qu'en même temps que les automnes sont plus doux, les hivers le sont aussi. Donc, c'est ce point que je ne comprends toujours pas dans le raisonnement : "La probabilité que l'arbre subisse un coup de froid tardif ou précoce augmente avec le réchauffement du climat!" Je comprends bien que les coups de froid seraient plus stressant* à cause de l'allongement végétatif dû au réchauffement. Mais comme le même réchauffement est censé diminuer tendanciellement la fréquence et l'intensité des coups de froid, c'est un peu circulaire. (*) En supposant que le mécanisme décrit est exact et représente un péril réel, ce qui reste à quantifier puisque la plupart des espèces actuelles sont biologiquement adaptées à des variations météo / climatiques importantes déjà présentes dans la variabilité naturelle du Holocène (et au-delà, des derniers millions d'années), à l'échelle saisonnière, annuelle ou décennale.
  24. Il n'y a rien d'affolant dans la hausse constatée du niveau des océans depuis 150 ans, y compris dans la phase récente d'observation par satellite (Jason-Topex-Posidéon) 1993-2007. Cette hausse récente s'établit à environ 3,2 mm par an, contre environ 1,7 ±0,3 mm/an pour l'ensemble du XXe siècle, mais avec des phases décennales ayant pu déjà atteindre 2,5 mm / an. Le tout avec des marges d'erreur importantes dans la mesure (de l'ordre de 20 à 60% de la valeur observée selon les époques et les moyens d'observation). Bref, rien qui ne justifie pour le moment une réévaluation drastique des estimations GIEC (rappel : le GIEC prévoit 0,18-0,59 m d'ici 2100, soit 1,8 à 5,9 mm/an si l'on ramène cela en linéaire et en annuel). La soi-disant fonte "exceptionnelle" du Groenland et de la Péninsule antarctique depuis 10 ans ne s'est accompagnée d'aucune accélération significative de la hausse du niveau des mers sur les mêmes dix dernières années, la pente de la courbe Jason-Topex-Poséidon reste assez sage depuis 1993. Comme zazou le montre avec les dernières nouvelles du meeting en cours de l'AGU, les glaciologues sont tout excités car ils ont des moyens de plus en plus fins d'observer le Groenland (et aussi la péninsule Antarctique). Cela leur permet donc de mieux mesurer la fonte (par satellite GRACE) ou de mieux comprendre les mécanismes à l'oeuvre (voir abstracts de zazou sur divers campagnes d'études). Mais évidemment, ces mécanismes n'ont pas attendu les chercheurs pour exister, ce n'est pas parce que l'observation est nouvelle que le phénomène observé est nouveau. Il faut donc encore rentrer tout cela dans des modèles (glaciologiques) améliorés, les coupler à des modèles climatiques, observer ce que cela donne. En attendant, la seule chose que nous ayons ce sont des indices empiriques issus des climats passés, plus ou moins proches. Contrairement aux idées reçues, les deux dernières décennies du XXe siècle ont été les plus froides au Groenland (et non les plus chaudes) depuis 1921 (Chylek 2004, Vinther 2006). Et la dernière fois que le Groenland a beaucoup fondu (au maximum thermique du précédent interglaciaire, voici 125.000 ans), il subissait un forçage régional solaire sans commune mesure avec le forçage attendu des gaz à effet de serre. Donc, il faut suivre tout ce la de près, mais pour ma part, je n'accorde aucun crédit particulier à la surenchère médiatique catastrophiste, qui va de toute façon accompagner toute l'Année polaire internationale. Science & Vie ou Géo, que tu cites comme sources, vendent du papier sur la base de titres extrémistes et aguicheurs, comme la plupart de leurs confrères. Et les chercheurs vendent aussi leurs travaux en essayant de montrer qu'ils correspondent à des sujets très préoccuppants (c'est de bonne guerre, tout le monde fait cela dans toutes les disciplines scientifiques). PS : Hansen, cela fait 30 trente ans qu'il répète la même chose, dans son papier "séminal" de 1981 il annonçait déjà que la Floride pourrait en partie disparaître à échéance proche. Il a peut-être raison, note-bien, mais à force de répéter toujours la même chose quel que soit le niveau de compréhension du phénomène dont on parle (car en 1981, on comprenait pas grand grand chose à la dynamique des glaces en situation de RC anthropique), cela devient inintéressant, c'est de la pure rhétorique. Il vaut mieux observer ce que disent les spécialistes.
×
×
  • Créer...