
charles.muller
Membres-
Compteur de contenus
2597 -
Inscription
-
Dernière visite
Type de contenu
Profils
Forums
Calendrier
Tout ce qui a été posté par charles.muller
-
--> CITATION(Jean-Séb @ 27/04/2006 - 10:53) <{POST_SNAPBACK}>Je suis d'ailleurs un peu surpris de constater que ces moyens sont en réalité limités par rapport à l'ampleur du problème, et aux conséquences -heureuses ou malheureuses- que le comportement du GS et de la DNA peut avoir sur l'humanité. Enfin... surtout sur l'Europe (GS et DNA) quand même, une large partie de l'humanité a des problèmes plus pressant (même climatiques). Ma foi, la recherche scientifique n'est pas l'emploi le plus inutile de l'argent public. Je ne suis pas tout à fait d'accord avec toi sur l'exclusivité des "mauvaises" nouvelles**. Disons plutôt que l'esprit humain est programmé pour parler de celles-ci plus que tout autre, pour de probables raisons adaptatives qui se comprennent assez bien. Disons aussi que certains ont intérêt à ne propager que les mauvaises nouvelles, car ce sont les seules conformes à leur intérêt immédiat (50% des médias feraient faillite s'il n'y avait pas au moins un "drame" par jour). **On peut faire un test en regardant dans les prochains jours combien de médias parleront de la (plutôt) bonne nouvelle sur les coraux postée ce jour, par rapport aux couvertures d'annonces précédentes sur les mêmes coraux. Michaels (2005) a fait une quantification amusante du phénomène, grâce à la base statistique Lexis-Nexis (hélas payante). Sur les deux dernières décennies, il a mis côte à côte une courbe d'intensité des cyclones atlantiques et une courbe des articles de journaux (américains) portant les mentions "ouragans, violents et réchauffement global". Le résultat est impressionnant... surtout pour la courbe médiatique qui connaît une très forte croissance. Cela permet de constater de visu le fossé entre la réalité et la représentation de cette réalité.
-
La mort annoncée de la grande barrière de corail est un serpent de mer de la biodiversité depuis pas mal de temps - au point qu'on est surpris et ravi de constater que les coraux sont encore là. Les principaux accusés étaient jadis les cyclones, la pollution et la pêche intensive, mais le réchauffement (ici comme ailleurs) est devenu la vedette depuis que certaines études ont prédit les pires choses (Hoegh-Guldberg 1999, Buddemeier 2004, Orr 2005). 60% des coraux devraient disparaître dans quelques décennies... comme toujours, la prédiction est d'autant plus sombre qu'elle est lointaine et spéculative, les données du bon vieux réel étant pour le moment nettement moins alarmantes (certains récifs ont au contraire connu au XXe siècle leur plus forte croissance depuis 300 ans, Lough et Barnes 1997 par exemple). Une recherche paraît ce jour dans Nature qui devrait apporter du baume au coeur aux amoureux des fonds sous-marins : elle montre que plusieurs espèces peuvent s'adapter sans grand problème à un surcroît de chaleur (et éviter le blanchissement dû à l'expulsion des zooxanthelles), grâce notamment à des mécanismes hétérotrophiques favorables de métabolisation du carbone. Un hypothétique réchauffement global des eaux de mers (au-delà et en plus de l'actuelle variabilité naturelle forte, qui provoque des blanchissements de toute façon selon les cycles Niño/niña) amènerait sans doute une modification des espèces dominantes, et non une disparition ni même une nette diminution des récifs coraliens. Une autre étude (Hughes 2003) avait d'ailleurs abouti aux mêmes conclusions, en soulignant la diversité génétique des espèces coraliennes et, surtout, leur adaptativité rapide. Contrairement à ce que l'on entend ici ou là, les coraux ne sont absolument pas des "fossiles vivants" à l'incroyable longévité : chez la plupart des espèces de ces vastes colonies, les individus atteignent la maturité sexuelle en 3 à 5 ans et meurent à 20 ans. Ce qui est un profil idéal pour une adaptation rapide à un milieu changeant. *** Nature 440, 1186-1189 (27 April 2006) | doi:10.1038/nature04565; Received 4 November 2005; ; Accepted 3 January 2006 Heterotrophic plasticity and resilience in bleached corals Andréa G. Grottoli1, Lisa J. Rodrigues2 and James E. Palardy3 Mass coral bleaching events caused by elevated seawater temperatures1, 2 have resulted in extensive coral mortality throughout the tropics over the past few decades3, 4. With continued global warming, bleaching events are predicted to increase in frequency and severity, causing up to 60% coral mortality globally within the next few decades4, 5, 6. Although some corals are able to recover and to survive bleaching7, 8, the mechanisms underlying such resilience are poorly understood. Here we show that the coral host has a significant role in recovery and resilience. Bleached and recovering Montipora capitata (branching) corals met more than 100% of their daily metabolic energy requirements by markedly increasing their feeding rates and CHAR (per cent contribution of heterotrophically acquired carbon to daily animal respiration), whereas Porites compressa (branching) and Porites lobata (mounding) corals did not. These findings suggest that coral species with high-CHAR capability during bleaching and recovery, irrespective of morphology, will be more resilient to bleaching events over the long term, could become the dominant coral species on reefs, and may help to safeguard affected reefs from potential local and global extinction. Top of page 1. Department of Geological Sciences, Ohio State University, Columbus, Ohio 43210, USA 2. Department of Biology, Villanova University, Villanova, Pennsylvania 19085, USA 3. Department of Ecology and Evolutionary Biology, Brown University, Providence, Rhode Island 02912, USA
-
les modèles climatiques sont extrêmement imparfaits
charles.muller a répondu à un sujet de anecdote dans Archives
La question sur la salinité est abordée dans une autre discussion que celle-ci (banquise...). Je n'ai pas eu le temps de chercher la donnée en question (tendances de la salinité dans le cercle arctique sur plusieurs décennies) et j'avoue que j'apprécierais si un autre intervenant prenait le temps de faire cette recherche (car je consacre déjà beaucoup d'effort à aller aux sources et à les rapporter ici, sur pas mal de sujets différents). Il me semble qu'Alain nous a dit qu'il est en déplacement et j'espère encore qu'il trouvera cette donnée à son retour dans sa base. Faute de quoi je m'y collerai à l'occasion... sauf si vous le faites avant moi, chère Patricia -
les modèles climatiques sont extrêmement imparfaits
charles.muller a répondu à un sujet de anecdote dans Archives
Là j'en suis moins sûr (cf. la remarque initiale en réponse à laquelle tu as posté tes qustions, à savoir que dans bien des cas, avant les années 1970 ou 1940, on n'a pas de données du tout dans le réel ; les stats infèrent dans ce cas ce qui est conforme aux résultats du modèle avec d'autres données connues... mais cette inférence est justement un cas de circularité ; ce qui est intéressant pour un modélisateur, c'est de se confronter aux contraintes du réel, pas de faire un modèle purement virtuel). Cf. par exemple les "choix" d'émission d'aérosols anthropiques sulphatés. Comme la valeur de leur forçage depuis 1750 est une quasi inconnue, les modèles choisissent en général un intervalle qui colle à peu près avec le reste. Mais comme cela a été souligné par Anderson et al. (2003), ce choix circulaire n'exclut pas que les modèles se trompent complètement (soit que la sensibilité climatique est plus forte que prévu, soit que la variabilité naturelle / chaotique est sous-estimée). Non, je parlais là des découvertes successives qui obligent à chaque fois les modèles à se complexifier ou à se modifier, parce qu'un nouveau phénomène non connu et donc non prévu a été mis en lumière. Cf par exemple les résultats récents d'Indoex sur le bilan radiatif de la troposphère, où il ressort que les échanges radiatifs surface-tropopause ont une très forte amplitude, de sorte que l'ancienne simplification du bilan TOA "top of atmosphere" n'est plus pertinente. Cf. aussi tout le débat du rayonnement solaire/cosmique, dont il ne ressort certes rien de très clair pour le moment, mais dont il est de plus en plus probable néanmoins qu'il amènera des révisions sur le bilan radiatif / la sensivilité climatique (cf. le modèle de Shaviv 2005 lorsqu'il commence à intégrer dans ses calculs certains éléments connus de ce rayonnement). -
les modèles climatiques sont extrêmement imparfaits
charles.muller a répondu à un sujet de anecdote dans Archives
Certainement pas (la solution de génie). Mais je pense en revanche qu'une critique précise peut être bénéfique pour tout le monde, en obligeant les chercheurs concernés à lever des imprécisions nuisibles à la communication de leurs conclusions scientifiques. -
les modèles climatiques sont extrêmement imparfaits
charles.muller a répondu à un sujet de anecdote dans Archives
Pas trop, je suis en plein dedans de toute façon avec la sensibilité climatique. Et puis la question posée n'avait guère de sens, vu que tu dois te rapporter à la méthodologie de chaque papier d'un modèle pour avoir l'info sur les techniques statistiques employées. -
les modèles climatiques sont extrêmement imparfaits
charles.muller a répondu à un sujet de anecdote dans Archives
Eh bien... nous en avons parlé ici même, non ? Tu as par exemple un facteur 3 à 9 d'incertitude sur la sensibilité climatique selon les études. Ce qui est passablement gênant puisque ce coefficient est indispensable au calcul de l'amplitude thermique. Tu semblais penser qu'une telle incertitude était bien improbable (hors simulation de variations d'émissions de GES à l'avenir). Je t'ai montré qu'elle est prise très au sérieux par les revues scientifiques. Cela ne te suffit pas, un facteur 9 d'incertitude pour le principal coefficient de calcul de l'amplitude thermique liée au CO2 ? Sinon, tu trouves sur GIEC 2001 (tableau de synthèse du bilan radiatif) les incertitudes de chaque forçage radiatif, voire les forçages sans marge d'incertitude (aérosols) quand GIEC 2001 a même renoncé à donner un intervalle de confiance. Enfin, tu trouves aussi dans mon article cité par anecdote quelques exemples quantifiés. Par exemple, la combustion de biomasse comptée comme -0,20 W/m2 (forçage négatif) mais dont les travaux plus récents suggèrent qu'elle est en réalité un forçage positif (mais on n'est plus à ca près, hein ?). Il suffit de regarder les parties "Méthodes" ou les "Supplement" de chaque modèle quand des résultats sont publiés. Hansen est celui qui le fait le plus souvent (le budget de la NASA aide à la productivité) et tous ses papiers sont dispo. sur ses pages au GISS. (Avec Hansen, tu peux aussi t'amuser à regarder en détail comment ses calculs évoluent entre 1988 et 2005 et comment son alarmisme croît de manière inversement proportionnelle à sa sensibilité climatique, c'est un motif de divertissement bien connu chez les sceptiques). Comme indiqué par la citation de GIEC 2001, c'est plutôt la comparaison des paramétrisations entre les modèles qui sont encore très rares. Murphy et al. ont proposé récemment un Climate Prediction Index (Nature 2004) basé sur ce type d'évaluation interne des incertitudes entre différents modèles. Cela donne par exemple chez eux : Les blocs sont les 5-95 percentiles pour chaque paramètre, les traits la dispersion totale des valeurs, la fiabilité CPI est en ordonnées. Cela ne fait que confirmer que la nébulosité, la vapeur d'eau et les forçages liés au rayonnement dans l'atmosphère sont encore dans le flou. De toute façon, ce genre de méta-analyses statistiques est purement interne aux modèles. Cela ne dit rien : - sur les incertitudes liées aux mesures externes (c'est-à-dire la plus ou moins bonne qualité / fiabilité des mesures du réel servant à rétrovalider) - sur la circularité (pour les données très peu connues d'un paramètre, la sélection arbitraire d'une plage de valeurs à plus fort intervalle de confiance qui correspond en fait au résultat attendu sur un autre paramètre bien connu) - sur les incertitudes liées aux connaissances physiques fondamentales, notamment le rayonnement dans l'atmosphère. * J'espère que cela répond en partie à ta question. Je suis preneur d'infos sur ce sujet que tu sembles bien connaître. -
question sur ta question à ma question : quelle est la question ? En fait, ce que l'on n'entend le plus souvent (pour faire simple), ce sont des propos du genre : la hausse des températures pourrait ralentir le GS, modifier la circulation thermohaline, etc. Il semble donc évident dans ce genre de propos que les variations de température atmosphérique sont la cause première et déterminante de certains comportements océaniques. Je me demande simplement - notamment dans le cas ici évoqué - comment on exclut d'autres causes, c'est-à-dire comment on connaît la régularité des flux océaniques à T constante (par exemple).
-
--> CITATION(Jean-Séb @ 26/04/2006 - 11:21) <{POST_SNAPBACK}> Bonjour Alain, J'avais rédigé ces éléments un peu à la va vite, mais sans pour autant ne pas m'appuyer sur des considérations scientifiques. J'ai retrouvé l'extrait d'un article de futura science à ce sujet, que je me permets de reproduire en partie : Je ne connais pas très bien ce sujet, j'en profite pour creuser un peu et vous poser des questions. D'abord, un point plus précis sur la recherche dont tu parles. L'étude de Bryden et al. (référence ci-dessous) a mesuré en 2004 le débit, la salinité et la température au 25°N. à un point où il existait déjà des mesures en 1957, 1981 et 1992 . Les chercheurs ont mesuré le courant "ascendant" du GS, puis les deux courants "descendants" qui en résultent : courant de surface (qui retourne vers l'Afrique occidentale et l'Amérique centrale) et courant profond (qui fait la boucle an Atlantique Nord pour retourner vers l'Amérique du Nord). Le GS lui-même est resté très stable sur les 46 ans de mesure, avec un niveau de confiance élevé dans le résultat (GS + Ekman : 35,6Sv en 1957, 37,6 Sv en 2004, marge d'incertitude 1,1 Sv). Nota : Mesure de débit en sverdrup (Sv) = 1 million m3/s En revanche, le flux redescendant vers le Sud a changé. En surface, il est passé de 12,7 à 22,8 Sv, mais en profondeur, il est passé de 22,9 à 14,8 Sv, la couche ayant connu l'évolution la plus sensible étant celle de 3000-5000 m (courant descendant profond qui vient de la mer de Norvège et fait la boucle de l'Atlantique Nord pour retourner sur les côtes américaines) : de 14,8 à 6,9 Sv. Le principal problème est que la marge d'erreur (6Sv) est forte. Ce qui a été noté quand même à la sortie de l'étude (cf. Didier Paillard et Alain Colin de Verdière, deux océanographes interviewés in Le Monde) : - c'est une des premières mesures de tendance du genre, que l'on ne peut donc comparer à d'autres ; - la marge d'erreur pour les courants descendants est élevée (+/- 6 Sv), en fait équivalente à l'amplitude trouvée ; - la durée des enregistrements a été courte (un mois) par rapport à la variabilité océanique ; - 4 points d'études en 50 ans sur une seule latitude, c'est très peu. Bref, comme toujours, une conclusion un peu frustrante : on assiste peut-être à une modification notable de la circulation thermohaline et l'Europe en particulier devra peut-être se préparer à des hivers froids... mais il faudra d'autres mesures pour le confirmer. J'ajoute une question très naïve, vu que la circulation générale atmopshère-océan n'est pas mon fort dans les détails : comment est-on sûr que c'est la température qui dirige cette circulation océanique et non pas l'inverse (c'est-à-dire que des variations océaniques pour des raisons X ou Y finissent par influer les températures) ? C'est-à-dire comment sépare-t-on le poule et l'oeuf (l'ordre des causalités donc) dans ce cas précis ? Merci d'avance de me déniaiser. Réf. : Harry L. Bryden, Hannah R. Longworth and Stuart A. Cunningham (2005), Slowing of the Atlantic meridional overturning circulation at 25° N, Nature, 438, 655-657.
-
--> CITATION(Jean-Séb @ 25/04/2006 - 06:19) <{POST_SNAPBACK}>Cela signifie que les théories qui tablent sur des changements lents, progressifs et donc assez facilement assimilables, sont valides pour un certains nombre de cas (ex : glaciations de type solaire), mais que, de manière très récurrente, le climat peut changer brusquement, pour ne pas dire très brusquement, durant ces périodes. Cela m'interpelle sur les scénarios "romantiques" des adeptes du réchauffement climatique progressif bienfaiteur, car au fond, bcp de personnes l'abordent ainsi... Il faut également voir la répartition spatiale des réchauffements dont on parle. Il me semble que tous les paléoclimatologues sont d'accord pour dire qu'il a existé, même récemment (Holocène), des changements abruptes de climat à l'échelle locale. La région arctique aurait gagné entre 10 et 15°C en quelques décennies au Dryas récent, par exemple. En revanche, ce sont les changements à la fois abruptes (moins d'un siècle) et globaux qui semblent rares, voire inexistants dans le passé de la Terre (sauf catastrophe type chute de météorite géante).
-
les modèles climatiques sont extrêmement imparfaits
charles.muller a répondu à un sujet de anecdote dans Archives
Oui, l'IA faible ou forte n'a pas vraiment tenu ses promesses depuis les visions de papys Turing, Wiener, McCulloch et autres prophètes des années 50-60. C'est d'ailleurs dommage, mais j'espère que les approches récentes, plus proches du fonctionnement concret de la machine cérébrale et de ses réseaux neuronaux parallèle/distribués, permettront des progrès. Dans le cas des modèles cependant, et pour en revenir au sujet, je crois que la simple puissance (a fortiori "intelligence") des machines / logiciels n'est pas fondamentalement en cause. C'est ce que disent souvent les modélisateurs, ne serait-ce que pour avoir une nouvelle machine inscrite au budget de l'année suivante (c'est de bonne guerre). A mon avis, le problème de base est la mesure. Le meilleur logiciel du monde paramétré par les meilleurs physiciens du monde ne donnera rien si on ne peut le nourrir à la base par des mesures fiables sur des séries longues (si ce logiciel a pour fonction de prévoir l'évolution d'un système complexe). Or, que savons-nous au juste (par exemple) de la température exacte des océans (et de 70% des terres sans stations météos, et de la troposphère) avant les années 1970 ? Et avant encore, à l'ère préindustrielle ? Et même aujourd'hui, où l'on voit par exemple que les données top-of-the-art des MSU sont toujours l'objet de révisions, controverses ? -
Banquises et changements climatiques
charles.muller a répondu à un sujet de Alain Coustou dans Archives
Là, je m'y perds complètement. - Dans ta carte de salinité, on voit que celle-ci est moins prononcée au-dessus de 70-80°N que partout ailleurs (ce qui est logique, vu la moindre insolation-évaporation vers les pôles) - Si les glaciers fondent, cela rajoute de l'eau douce plutôt que de l'eau salée. - Les hausses de T. atmosphérique contribuent à la salinisation, mais comme il y a aussi moins de gel (glaces flottantes cf. dernières remarques d'Alain), cela crée également une tendance opposée. Bref, a-t-on en fait un bilan de l'évolution de la salinité des mers / océan arctiques sur plusieurs décennies ? C'est quand même le meilleur moyen de voir la tendance. Et tant qu'on y a est, a-t-on un bilan long terme des SST de la région (sinon, je chercherai, mais si dispo c'est encore mieux) ? -
Tiens, c'est un fait que j'ai remarqué : par rapport à d'autres domaines comme la biologie ou la médecine, la climatologie manifeste apparemment une forte domination masculine, au moins pour ce que je vois dans les auteurs d'articles peer-reviewed. Peut-être la sur-représentation des physiciens, discipline peu féminisée pour l'instant.
-
les modèles climatiques sont extrêmement imparfaits
charles.muller a répondu à un sujet de anecdote dans Archives
Quand tu parles de "ce que la nature est capable de faire", évoques-tu la variabilité naturelle du climat et des T ? Dans ce cas, tu ne fais que reformuler le dilemme de base sans pour autant le résoudre : c'est précisément les parts variabilité naturelle / variabilité anthropique qui sont en question dans toute cette discussion (et dans le principal débat du GIEC). L'incertitude des modèles n'est pas seulement projective, puisque ces mêmes modèles sont à la base rétrodictifs. Or, leur interprétation du climat passé (1750-2000 ou 1860-2000) repose précisément sur les incertitudes des forçages radiatifs mentionnés dès le départ et sur les incertitudes de la sensibilité climatique développées dans ce post, de sorte que ce que tu poses comme "clair" (la majeure partie du réchauffement est anthropique) n'est en fait pas si clair. Nous avons débattu ici récemment d'autres facteurs pouvant expliquer une partie la hausse récente (insolation effective 1990-2002 : Wild 2005, Pinker 2005) ainsi que de problèmes persistants dans l'hypothèse à dominante anthropique (stagnation/léger refroidissement de 1940-70, mal digéré par les modèles actuels). (Désolé, la fonction recherche est plantée ce soir et je n'ai pas les liens ; tu trouveras facilement en tapant les mots clé "insolation" ou "1940-70" quand elle sera rétabli). Je crois donc que les choses sont ouvertes, dans les deux sens (c'est-à-dire aussi dans l'hypothèse d'une part anthropique importante). Reconnaître cette ouverture des possibles apporterait un bol d'air... frais au débat climatique. Mais il ne semble pas que les auteurs principaux du GIEC ni les équipes modélisatrices soient encore prêts à cette "révolution culturelle". Oui, pourquoi pas. Le meilleur moyen de le savoir serait de vérifier si, à l'époque où il a tenu ces propos sur les limites des modèles, le Dr Myles Allen a été vivement contredit par ses collègues outrés. Ou s'il ne faisait qu'exprimer là une vérité bien connue quoique peu évoquée des modélisateurs. -
les modèles climatiques sont extrêmement imparfaits
charles.muller a répondu à un sujet de anecdote dans Archives
C'est bien ce que je pensais et je te confirme donc que plusieurs estimations récentes intoduisent un large facteur d'incertitude (8, et même 9 dans cet exemple) dans l'estimation de la sensibilité climatique. Ci-dessous par l'exemple l'abstract d'Andronova et Schlesinger (2001 et non 2002, désolé de l'erreur), dont le papier se trouve facilement en [pdf]. Ils obtiennent ces résultats en faisant simplement varier les incertitudes de forçage (essentiellement aréosols anthropiques) et non les émissions de GES (présentes ou futures). Andronova, N. and Schlesinger, M. (2001). Objective estimation of the probability density function for climate sensitivity. Journal of Geophysical Research 106(D19): doi: 10.1029/2000JD000259. issn: 0148-0227. The size and impacts of anthropogenically induced climate change (AICC) strongly depend on the climate sensitivity, ΔT2x. If ΔT2x is less than the lower bound given by the Intergovernmental Panel on Climate Change (IPCC), 1.5 °C, then AICC may not be a serious problem for humanity. If ΔT2x is greater than the upper bound given by the IPCC, 4.5 °C, then AICC may be one of the most severe problems of the 21st century. Here we use a simple climate/ocean model, the observed near-surface temperature record, and a bootstrap technique to objectively estimate the probability density function for ΔT2x. We find that as a result of natural variability and uncertainty in the climatic radiative forcing, the 90% confidence interval for ΔT2x is 1.0 °C to 9.3 °C. Consequently, there is a 54% likelihood that ΔT2x lies outside the IPCC range. © 2001 American Geophysical Union *** Sinon, tu trouves pas mal d'infos sur les prévision sd'un sensibilité climatique > 5°C dans : Forest, C. E. et al. Quantifying uncertainties in climate system properties with the use of recent climate observations. Science 295, 113−117 (2002) Allen, M. R., Stott, P. A., Mitchell, J. F. B., Schnur, R. & Delworth, T. L. Quantifying the uncertainty in forecasts of anthropogenic climate change. Nature 417, 617−620 (2000) Stott, P. A. & Kettleborough, J. A. Origins and estimates of uncertainty in predictions of twenty-first century temperature rise. Nature 416, 723−726 (2002) -
les modèles climatiques sont extrêmement imparfaits
charles.muller a répondu à un sujet de anecdote dans Archives
Peux-tu repréciser cette partie ? Je ne saisis pas bien en détail. Concernant les incertitudes sur évaluation des modèles couplés, voici un extrait de GIEC 2001 (8.10.1) : Our attempts to evaluate coupled models have been limited by the lack of a more comprehensive and systematic approach to the collection and analysis of model output from well co-ordinated and well designed experiments. Important gaps still remain in our ability to evaluate the natural variability of models over the last several centuries. There are gaps in the specification of the radiative forcing (especially the vertical profile) as well as gaps in proxy palaeo-data necessary for the production of long time series of important variables such as surface air temperature and precipitation. In order to assist future coupled model evaluation exercises, we would strongly encourage substantially expanded international programmes of systematic evaluation and intercomparison of coupled models under standardised experimental conditions. Such programmes should include a much more comprehensive and systematic system of model analysis and diagnosis, and a Monte Carlo approach to model uncertainties associated with parametrizations and initial conditions. The computing power now available to most major modelling centres is such that an ambitious programme that explores the differing direct responses of parametrizations (as well as some indirect effects) is now quite feasible. Further systematic and co-ordinated intercomparison of the impact of physical parametrizations both on the ability to simulate the present climate (and its variability) and on the transient climate response (and its variability) is urgently needed. The systematic analysis of extremes in coupled models remains considerably underdeveloped. Use of systematic analysis techniques would greatly assist future assessments. It is important that in future model intercomparison projects the experimental design and data management takes heed of the detailed requirements of diagnosticians and the impacts community to ensure the widest possible participation in analysing the performance of coupled models. Dommage que le résumé des décideurs n'ait pas mentionné cet état rudimentaire du diagnostic des modèles et de leur comparaison. Cela tourne en rond comme un modèle saturé par les aérosols ! Si la conclusion est qu'une partie du réchauffement est anthropique, pas besoin de Deep Blue pour y parvenir, Fourier et Arrhenius me l'avait déjà suggéré avec un papier et un crayon. Quant aux niveaux élevés d'augmentation attendus, les voilà qui reviennent comme une certitude par la cheminée. Plus lourd mais plus précis. Je ne suis pas d'accord avec ton "immense majorité", argument d'autorité mille fois entendu. Sondage Bray et von Storch 2003 chez les experts du climat : env. 9% des climatologues totalement d'accord avec le réchauffement anthropique tel qu'il est présenté par le GIEC, env. 9 % entièrement en désaccord, le reste au milieu. Rien de tel qu'un sondage individuel et secret pour délier les langues : c'est moins convivial qu'une AG du GIEC ou une réunion sur les crédits de son labo, mais on est bien plus libre de dire ce qu'on pense. Conformément à ta remarque initiale (s'en tenir exclusivement au sujet) et afin d'éviter la dispersion, je ne rentre pas dans ce débat sur ce post (comme je n'avais pas répondu à miniTAX plus haut pour la même raison). Je suggère une discussion autonome sur ces questions de Kyoto du post Kyoto, du risque, etc., dont on ne parle jamais. Je pense que tu parles de Dupuy JP (et non Dupuis), l'individu qui en appelle au catastrophisme éclairé (et qui récemment exige que l'on compte comme victimes réelles de Tchernobyl toutes ses victimes potentielles) ? Et de Hans Jonas, le brave Germain qui envisage calmement une dictature par respect du principe responsabilité ? Si c'est le cas, ouvre vite la discussion car j'ai pas mal de choses à dire à leur sujet... Eh bien moi aussi. Je constate des modèles qui patinent dans la semoule, des incertitudes qui ne se réduisent pas, des chercheurs qui remettent ouvertement en cause certains choix (Anderson et 6 co-auteurs physiciens d'institutons différentes en 2003 : « Dans la mesure où les modèles climatiques reposent sur le calcul inversé, la possibilité d’un raisonnement circulaire existe – c’est-à-dire, utiliser la mesure des températures pour dériver une donnée clé des modèles climatiques, qui sont ensuite testés selon les températures [...] Les calculs en amont ouvrent la possibilité que le forçage total depuis les temps préindustriels jusqu’au présent ait été faible, voire négatif. Si c’est exact, cela impliquerait que la sensibilité climatique et/ou la variabilité naturelle (c’est-à-dire la variabilité non forcée par les émissions anthropiques) est bien plus importante que ce que les modèles indiquent actuellement ») En face de cela, on s'accroche aux (in)certitudes et on répète toujours la même chose. Je l'ai déjà dit plein de fois sur ce forum : que l'on m'oppose des arguments construits et référencés sur tel ou tel point précis, je réviserai volontiers mon jugement après examen. Mais si au bout d'un moment on me dit : de toute façon c'est réglé, l'immense majorité est d'accord, c'est même plus la peine d'en discuter, etc., je persiste et signe. Si, je me la pose souvent figure-toi. Si je ne le faisais pas, je pense que je n'aurais aucune motivation réelle à fouiller la littérature. Je me contenterais d'une certitude et je répéterais mon catéchisme (sceptique ou alarmiste) sans le mettre à l'épreuve de connaissances nouvelles. -
les modèles climatiques sont extrêmement imparfaits
charles.muller a répondu à un sujet de anecdote dans Archives
Très instructif cette affaire ! Voici ce qu'on lisait sur BBC News, en 2002, à l'annonce du lancement du binz : http://news.bbc.co.uk/1/hi/sci/tech/1958296.stm With a vast range of simulations done, it should be possible to get an idea of the full range of possible changes to global climate over the next 50 years, said Dr Allen. At the moment climatologists had only explored a small fraction of all the possible outcomes and this had inevitably led to disputes about the effects of global warming, he said. "Quantifying the uncertainty is something we cannot do at the moment," he said. * Si je résume ce que disait le Dr Myles Allen (physicien, spécialiste de l'atmosphère) : - les modèles actuels n'explorent qu'une petite fraction de ce qui est possible ; - la quantification des incertitudes est impossible ; - ce modèle va tout changer. Ce modèle a planté par la faute des maudits aérosols sulfatés (on comprend mieux pourquoi le GIEC 2001 ne donnait même pas une estimation de forçage avec marge d'incertitude). Il ne reste donc plus que les propos du Dr Allen concernant la "petite fraction" des possibles et l'immense fraction des incertitudes. Dont acte. -
les modèles climatiques sont extrêmement imparfaits
charles.muller a répondu à un sujet de anecdote dans Archives
A partir du moment où l'estimation finale des réchauffements 2100 inclut A, B et C, je suis bien obligé de tout mélanger. C'est le GIEC qui le fait, pas moi. Quant aux incertitudes de A/, celle sur les aréosols anthropiques (par exemple) n'est même pas donnée dans GIEC 2001, car les auteurs reconnaissent une diversité trop extrême des approches en la matière. A partir du moment où GIEC 2001 reconnaît que tous les forçages hors GES et ozone ont un niveau bas à très bas de confiance, je ne vois pas comment la confiance deviendrait élevée à très élevée dans le résultat final. Au mieux, si l'on reconnaît cette imprécision généralisée comme une méthode merveilleuse, cela signifie que tous les résultats sont strictement équiprobables, ce qui n'avance pas d'un iota (car 1,5°C de réchauffement en un siècle n'impose pas du tout les mêmes décisions que 4,5°C). Que les fourchettes soient toutes dans le domaine positif n'a rien d'étonnant vu que tout le monde est d'accord pour dire : a/ que les GES augmentent dans l'atmopshère ; b/ qu'ils augmentent la température toutes choses égales par ailleurs. Mais on sait que le vrai débat est de savoir dans quelle proportion ils l'augmentent par rapport à la variabilité naturelle. "Détracteur du réchauffement" ne signifie pas grand chose de ce point de vue. Par ailleurs, tu raisonnes comme si aucune découverte fondamentale en climatologie ne devait émerger dans les 5, 10 ou 20 prochaines années, c'est-à-dire comme si tous les éléments du système étaient désormais bien connus, et que la seule chose à faire était de régler les détails (réduire les incertitudes). Il est absolument impossible de savoir aujourd'hui ce qui résultera demain du débat foisonnant sur le forçage solaire / cosmique, par exemple. Je n'ai pas les moyens de démontrer que le GIEC se trompe dans ses fourchettes. Mais qu'il se trompe lorsqu'il attribue avec une quasi-certitude la part la plus importante du réchauffement récent à l'homme, c'est une évidence : le mot "quasi-certitude" est en trop. Et on m'otera difficielment de l'idée que c'est un choix politique plus que scientifique. Je défriche le sujet, donc je posterai les réponses à cette question précise au fur et à mesure que je lirai en détail les différents travaux. Je suis déjà quasi certain qu'Andronova et Schlesinger 2002 sont entre 1 et 9,3 °C à 90% de confiance. Merci de préciser à ce stade ce que tu entends par "entrées constantes", afin qu'il n'y ai pas malentendu. -
les modèles climatiques sont extrêmement imparfaits
charles.muller a répondu à un sujet de anecdote dans Archives
Certes, mais des pdfs comme celui-là, tu en trouves treize à la douzaine depuis quinze ans. Si je prends le tout dernier en date paru avant-hier dans Nature, dont je parle un peu plus haut et qui est un modèle paléo. pré-industriel, cela nous donne par exemple cela : Tu t'aperçois que l'on est déjà légèrement décalé par rapport au tien, puisque les valeurs les plus probables sont entre 2 et 3 plutôt que 2,5 et 3,5. Si je prend maintenant Shaviv 2005, qui intègre une pondération moins forte du rayonnement dans son modèle, cela va donner cela : On est dans des valeurs encore plus basses. Et ainsi de suite. La question devient donc : comment fait au juste le GIEC pour trancher entre ces différentes reconstructions (et aboutir, semble-t-il à 2,5-5 °C)? Une méta-analyse suivie d'une moyenne? Mais cela suppose que tous les modèles ont également raison, alors que l'intérêt est justement qu'ils partent chacun d'hypothèses différentes qui ne peuvent pas être toutes vraies en même temps. -
2005 : année plus ou moins chaude que 1998 ?
charles.muller a répondu à un sujet de charles.muller dans Climatologie
Sans doute, mais même dans leurs marges d'erreur, les deux séries satellite sont d'accord pour placer 2005 derrière 1998, 2002 et 2003 (qui avaient elles aussi la même marge d'erreur de toute façon) et comme les ballons sondes correspondent à peu près, soit avec l'une soit avec l'autre, cela fait pas mal de séries convergentes en troposphère. Autre point et qui procède de la même remarque de fond : la marge d'erreur n'explique pas non plus (sauf coïncidence, mais c'est un peu frustrant) pourquoi les satellites enregistrent "mieux" tous les deux la hausse de surface en 1998 que dans les autres années. On voit qu'ils sont à 0,1°C de différence, alors que la "norme" pour les autres années est plutôt un écart de 0,2-0,3°C. Un réchauffement El Niño a-t-il la même signature troposphérique qu'un réchauffement GES (sur le plan théorique, j'entends) ? Sinon, merci pour la recherche sur les bases de données surface. Je dois dire que la diversité des années de référence (1951-80, 1961-90, 1880-2004) reste une énigme à mes yeux : je ne vois pas ce qu'elle apporte, à part de la confusion. Pour le GISS, l'explication donnée est la suivante, en note 8 de cette page : http://data.giss.nasa.gov/gistemp/2005/ Analyses of global temperature change by different groups, particularly, ours (NASA GISS), the NOAA National Climate Data Center (NCDC), and the combination of the British Meteorological Office and the University of East Anglia (BMO/UEA), are generally in close agreement, as shown, e.g., in reference 5. The ranking of individual years, however, depends upon differences of only a few hundredths of a degree, which is finer than the accuracy that any method can achieve given observational limitations. One large source of differences is the attempt in the GISS method to estimate the temperature anomaly for all areas that have at least one station located within 1200 km, using weights for these stations that decrease linearly with distance from the station.At any given point the temperature anomaly estimated in this way can be substantially in error, but the increased coverage usually allows an improved estimate of the global temperature anomaly, as judged from tests made with spatially and temporally complete data sets generated by a general circulation model. However, in some cases this method can increase error by giving undue weight to one isolated station with anomalous temperature. Another source of difference is the method of averaging over the world, given the fact that data is not available everywhere. In the GISS method, we divide the Earth in four latitude belts. Within each belt the region with data is weighted by area. The anomaly for the entire belt is then taken as the anomaly for the portion of the belt that has data. The global anomaly is then the area-weighted mean of the four belts. This method gives equal weight to the hemispheres, but if one of the belts has little data that is not actually representative of the entire belt, substantial error can occur. The land (meteorological stations) data sets have substantial commonality, but they are not identical. Our approach, described in more detail in references 1, 4 and 7, uses GHCN (Global Historical Climatology Network) data, adjusting urban station data so that the long-term trend of the urban station matches that of neighboring rural stations, with the distinction between urban and rural based on either population or nightlights observed by satellite. Our ocean data is the "OI" analysis of Reynolds and Smith (2) for the period of satellite data, i.e., after 1982. Earlier ocean data is from Rayner et al. (3). These two ocean data sets are combined by working with anomalies for both data sets and defining anomalies relative to a common period, specifically 1982-1992. Il est aussi dit (corps principal) : The map shows that current warmth is nearly ubiquitous and largest at high latitudes in the Northern Hemisphere. Our ranking of 2005 as warmer than 1998 is a result mainly of the large positive Arctic anomaly. Excluding the region north of 75N, 1998 is warmer than 2005. If the entire Arctic Ocean were excluded, the ranking of 2005 may be even lower. Je me demande si les deux données doivent être mis en rapport (très peu de stations auPôle Nord, donc interpolation/extrapolation à partir des rares données). En tout cas, je vois mal comment le GISS fait pour obtenir des données fiables sur une région dans l'hypothèse où il n'a qu'une station paumée sur 1200 km. Le mieux serait quand même d'exclure les régions concernées des moyennes globales en attendant une meilleure couverture, surtout quand on sait les imprécisions des enregistrements de base dans les stations météo (voir nos discussions détaillée sur les différents biais de mesure, parfois très importants, dans les thread effet urbain entre autres). -
les modèles climatiques sont extrêmement imparfaits
charles.muller a répondu à un sujet de anecdote dans Archives
PS : je relis GIEC 1990 et je vois que les estimations 2100 pour le scénario busines-as-usual données dès la première page vont de +2 à +5 °C. Sans préjuger de GIEC 2007, s'il y au moins une chose qui n'a objectivement pas changé en près de 20 ans d'existence, ce sont les marges d'incertitude des résultats des modèles. Mais dans ce cas, pourquoi diable prétendre à chaque fois dans le résumé décideurs que les modèles ont nettement progressé ? Un modèle prédictif existe pour donner une estimation fiable : si cette fiabilité patine, le modèle n'est pas substantiellement meilleur. -
les modèles climatiques sont extrêmement imparfaits
charles.muller a répondu à un sujet de anecdote dans Archives
Je ne sais pas pourquoi, j'ai été coupé dans la réponse. Sur cette deuxième partie de ton propos : - je citais là en vrac et rapidement quelques chiffres des études que je suis en train de lire, mais je vais volontiers approfondir le sujet puisque cela t'intéresse ; - les chiffres mentionnés sont généralement les fourchettes situées dans un intervalle de 90 ou 95% de confiance selon les études (il va de soi que je ne citais pas les valeurs extrêmes des pdfs dont la probabilité est faible à quasi-nulle). - citer un grand nombre de travaux est encore le meilleur moyen que je connaisse pour faire avancer les connaissances et reféter la diversité de la recherche. Même que le GIEC fait pareil dans chaque partie et sous-partie de sa synthèse scientifique. Cela me paraît plus pertinent que de recopier une estimation lue dans Terre sauvage, le Monde ou Science&Vie (je ne parle pas pour toi spécialement, mais pour bon nombre de posts des forums où les infos alarmistes ne sont jamais référencées sur la publication d'origine, a fortiori sur une synthèse des publications pertinentes sur le sujet) ; - d'après l'édito de J.L. Dufresne dans le dernier n° de La Météorologie (52), les valeurs actuellement retenues pour la fourchette sensibilité climatique dans GIEC 2007 seraient 2,5-5°C (valeur médiane inconnue pour l'instant), "un éventail aussi large aujourd'hui qu'il y a cinq ans", comme le dit JLD. Je fourmille d'impatience de voir comment GIEC 2007 a évacué comme non pertinents les travaux assez nombreux faisant état de fourchette plutôt situées en 1,5-3,5 °C, voire moins. Et je constate en tout cas a minima que les incertitudes ne semblent pas levées malgré les "immmenses progrès des modèles". - je ne doute pas un seul instant que tu sois difficile à convaincre -
les modèles climatiques sont extrêmement imparfaits
charles.muller a répondu à un sujet de anecdote dans Archives
Parce que l'on sait que la sensibilité climatique à un doublement CO2 en situation d'équilibre "idéal" est de toute façon de 1,1°C. Si elle est estimée "concrètement" de 1,5 à 10 °C, c'est parce que les modèles ajoutent les effets des fameuses "rétroactions positives" accompagnant le doublement CO2. Que 1,3°C soit très faible n'est mis en doute par personne. (Il faut avoir en tête que la progression de l'effet thermique de cette sensibilité est logarithmique et non linéaire : une fois que l'on a doublé le CO2 / l'ère préindustrielle en atteignant par exemple 540 ppm / 270 ppm, il faudra encore doubler, à 1080 ppm cette fois, pour avoir une amplitude thermique équivalente ; ce qui te ferait une hausse de 2,2°C - sur l'hypothèse sensib. clim = 1,1 - dans les scénaios les plus sombres en termes d'émission, où l'on passerait de 380 ppm aujourd'hui à 1080 ppm en 2100). -
les modèles climatiques sont extrêmement imparfaits
charles.muller a répondu à un sujet de anecdote dans Archives
Merci de cette citation. J'avais abordé sur ce forum la question du bilan radiatif : /index.php?showtopic=14428'>http://forums.infoclimat.fr/index.php?showtopic=14428 La cascade d'incertitudes des modèles est effarante et plus je m'enfonce dans la littérature, moins je comprends la substance scientifique des prévisions climato. à long terme. A/ Les chercheurs ne savent pas estimer le bilan radiatif global car ils sont dans le flou total concernant les aréosols sulfatés, les variations solaires / nébulosité, l'attribution positive ou négative de certains forçages (combustion de biomasse par exemple). B/ Les chercheurs ne savent pas estimer la sensibilité climatique et les travaux varient désormais de 1 à 8 voire 10 °C/W/m2 (!). C/ Les chercheurs ne savant pas (par définition) ce qui se passera exactement au XXIe siècle pour l'humanité (énergie, technologie, guerre, économie, démographie, maladies) et pour la nature (variation des forçages naturels, variation du stockage C02). Et c'est la combinatoire de AxBxC que l'on présente comme le delta(T) 1990-2100 au dixième de degré (ou même au degré) près. Franchement, cela relève de l'escroquerie intellectuelle. Non pas les travaux eux-mêmes, bien sûr, mais la présentation de ces travaux comme des informations fiables pour les décideurs et pour l'avenir de l'humanité. * Je continue actuellement à travailler sur le volet B/, celui de la sensibilité climatique. Le constat est simple : la situation en termes d'incertitude s'est aggravée depuis GIEC 2001, au lieu de s'améliorer. (Pour mémoire, la sensibilité climatique est la réponse des températures au doublement du CO2 atmosphérique; on sait qu'elle est de 1,1°C en théorie, mais il faut inclure des rétroactions positives pour l'estimer). On a désormais ceux qui la voient forte à très forte (Andronova 2002 par exemple, 50% de prob. > 4,5°C/W/m2), ceux qui la voient faible à très faible (Shaviv 2005 par exemple, env. 1,3°C/W/m2) et les autres qui restent dans la fourchette existante 1,5-4,5 °C/W/m2, avec deux sous-groupes qui la font tendre soit vers les valeurs basses (moins de 2,5°C), soit vers les valeurs hautes (plus de 3°C). Un fait marquant des dernières années a été l'apparition de sensibilités climatiques extrêmes annonçant des prévisions incroyables (Stainforth 2005 par exemple) et donnant des gros titres de presse comme "Une hausse de 11°C à prévoir" ou "Une crise climatique dans 10 ans". Même RealClimate, sous la plume de G. Schmidt et S. Rahmstorf, a été obligé de mettre le hola en reconnaissant que l'on s'enfonçait là dans le catastrophisme non scientifiquement crédible. (A ce sujet, un article vient par exemple tout juste de paraître dans Nature (Hegerl 2006), qui considère les estimations très hautes comme très faiblement probables, donne une sensibilité pré-industrielle de 1,4-6,1 (valeur médiane de 2,6 cependant) pour son propre modèle, une sensibilité de 1,3-3,6 pour les autres estimations pré-industrielles. Mais à quoi bon faire encore ces estimations paléo. de la sensibilité climatique puisque Jouzel affirme dans le Workshop IPCC on Climate Sensitivity 2004 : "Il est important de reconnaître qu'il n'existe aucun analogue satisfaisant dans le passé pour le futur changement climatique", p. 29.)) Un autre fait problématique est que certains n'excluent pas que le sensibilité climatique varie considérablement entre la surface et la tropopause d'une part, qu'elle ne soit pas équivalente pour tous les forçages d'autre part (ce qui était assumé par GIEC 2001), c'est-à-dire par exemple qu'une variation solaire et une variation carbonique équivalentes dans le bilan radiatif n'auraient pas forcément une traduction thermique identique. Bref, tout cela devient tragi-comique et la fameuse "amélioration progressive" des modèles promise depuis près 20 ans n'est pas au rendez-vous. L'augmentation de la puissance informatique ou de la précision des grilles ne change rien au fait que les experts bataillent à la base sur des mesures rares et/ou incertaines et/ou rudimentaires, et que certains domaines sont encore très spéculatifs quoique potentiellement très importants (rayonnement solaire/cosmique + nébulosité/vapeur d'eau). Dans ces conditions, il sera toujours possible de faire co-varier les inputs dans leur marge d'incertitude, de faire tourner un million de fois sa machine, de faire des jolis pdfs sur les outputs et de clamer que tel résultat semble plus probable que les autres. Prendre au sérieux ce résultat dont la validité sera mise en cause quinze jours plus tard par un autre modèle, cinq ans plus tard par des mesures un peu plus précises ou dix ans plus tard par la découverte d'un nouveau mécanisme climatique relève psychologiquement du besoin de croire. -
Mais nos modes de vie industrialisées affectent beaucoup le climat... local : regarde l'effet urbain sur les températures, avec parfois des différences de 5 à 10°C par rapport aux campagnes environnantes (ce qui contribue énormément à la morbidité caniculaire). Sinon, je ne crois guère aux "miracles", ce qui ne te surprendra pas :-) Nous pourrions être hyper-industrialisés sans avoir d'effet notable sur le climat (il suffirait que les industries dominantes émettent bien moins de GES et d'aérosols, ce qui finira par arriver à l'échelle des décennies ou des siècles). Inversement, nous pourrions être sous-industrialisés et aggraver les choses (dans le schéma dominant actuel que tu sembles partager) : une population de 10 milliards d'individus vivant essentiellement du riz et de l'élevage produirait sans doute une quantité effrayante de méthane. Enfin, tu développes une position que j'appelle le "prométhéisme inversé". Avant, l'homme se croyait capable de tout maîtriser rapidement par la seule grâce de la technoscience (= prométhéisme). Les choses se sont révélées un peu plus compliquées que cet optimisme et ce volontarisme le laissaient entendre. Aujourd'hui, l'homme croit plus volontiers que ses actions vont tout bouleverser rapidement et définitivement sur la planète (= prométhéisme inversé). Même dans ce constat pessimiste, l'espèce humaine est à mon sens encore très imbue d'elle-même et s'attribue symboliquement des pouvoirs (négatifs) qu'elle n'a pas réellement. La terre et la vie en ont vu d'autres avant l'émergence du grand singe industrieux, et elles en verront d'autres après lui... Mais ces considérations très générales ne nous disent évidemment pas s'il faudra acheter un parasol après-demain /emoticons/smile@2x.png 2x" width="20" height="20"> Ouaf ! Ouaf ! En fait, je n'ai jamais vu un alarmiste, un sceptique ni un quelconque climatologue aboyer. Dans le genre fort-en-g****e, tu as Hansen qui n'est pas vraiment sceptique. Et dans le genre calme et posé, tu as Christy et Spencer qui ne sont pas vraiment alarmistes. Enfin, il faudrait aussi faire une échelle d'aboiement sur ce forum afin d'évaluer la pertinence de ta perception canine du débat. (A défaut, nous pourrions faire une mesure quantitative des points d'exclamation dans les posts, sachant que ces pontuations traduisent en général l'équivalent humain d'un aboiement). (J'ai la nette impression que nous aboyons en rond et que la climatologie n'a plus rien à voir avec ces palabres. Puissent les modérateurs ne pas nous enfermer au chenil pour cela).