Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

charles.muller

Membres
  • Compteur de contenus

    2597
  • Inscription

  • Dernière visite

Tout ce qui a été posté par charles.muller

  1. charles.muller

    1998-2007

    Dans le même ordre d'idée, j'avais calculé la tendance récente 1990-2006 sur la base Hadley3. Elle est de 0,33°C. Si on supprime 1992 et 1993 (maximum du signal Pinatubo vers la baisse) et 1998 (maximum du signal El Nino vers la hausse), la tendance de la série reste à 0,30°C, donc équivalente malgré le retranchement des signaux volcaniques / naturels. Les dernières années sont globalement en plateau, mais c'est bien trop court pour déduire quoi que ce soit à mon sens.
  2. Je ne comprends pas ta réponse. Au départ, tu nous dis : "la nébulosité influence aussi le forçage." Et maintenant, tu poses que cette nébulosité peut être exprimée en équivalent forçage. Mais ce dernier propos n'explique et ne justifie pas le premier. Es-tu basiquement d'accord avec le fait que les valeurs radiatives des forçages dans le bilan GIEC sont indépendantes de la nébulosité, sauf les deux effets indirects des aérosols (sur la formation et la profondeur optique des nuages, justement)? Si oui, le débat est clos, la nébulosité n'influence pas comme telle les autres forçages, mais ses variations modifient bien sûr le bilan surface-tropopause dans les deux sens (LW sortant et SW entrant). Je suis tout à fait persuadé que d'éventuelles variations longues de nébulosité, dessinant une tendance autre que la variabilité annuelle et aléatoire de la couverture nuageuse, peuvent être analysées comme un forçage transitoire à la manière dont tu le suggères. Et c'est bien la raison pour laquelle je suis sceptique face à une reconstruction / attribution des T surface 1950-2005 sans prendre en compte les phénomènes de global dimming / brightening, ou même plus basiquement sans être capable de vérifier que cette tendance existe et de la reproduire sur un modèle. Tu sais, il est tout à fait possible d'échanger des arguments sans agresser son interlocuteur à chaque échange. Si la satisfaction de cette pulsion te soulage, je trouve ça très bien cependant et nous pouvons continuer ainsi.
  3. Il faudrait préciser le sens du mot "protocole". Y a-t-il une définition courante en méthodologie / épistémologie? Le mot est pour moi attaché à la description d'une expérimentation et de ses mesures, avant toute interprétation, dans le but s'assurer la reproductibilité. Dans le cas des sciences climatiques, il existe de nombreux problèmes de mesure, mais je ne sais pas à quel "étage" les attribuer. Par exemple, quand deux bases satellite utilisent les mêmes données brutes mais divergent sur l'établissement d'une tendance à partir d'elles (sur les algorithmes d'interprétation, donc), ce n'est pas exactement le même cas de figure que lorsqu'un travail suggère que les mesures des températures de surface sont biaisées par les usages du sol (c'est-à-dire expriment en partie le budget énergétique de surface dans certains éléments non pris en compte par le budget radiatif TOA). Un problème est bien sûr que les mesures en question sont non reproductibles, car il ne s'agit pas d'une expérimentation en laboratoire. Autrement dit, les mesures 1900 ne vont pas être refaites, on doit désormais faire confiance à leur interprétation (aucune mesure de cette époque est utilisée sans être corrigée).
  4. Quelle exagération: le simple fait de rappeler que la VE ne donne pas d'indication particulière sur la nébulosité? Et comment peux-tu "supposer" au début de ta phrase en m'assurant que "c'est prévu" à la fin? Non, pas vraiment : le forçage TOA reste le même, avec ou sans nébulosité, son effet sur les différentes couches et ses rétroactions varient en revanche selon la nébulosité. Ce que je dis et que tu fais semblant de ne pas bien comprendre, c'est que la nébulosité influence les températures de surface et que si l'on prétend simuler et attribuer avec une grande vraisemblance ces T surf., j'attends fort logiquement que l'on exclut cette nébulosité des facteurs explicatifs à l'échelle pluridécennale. Une totale inconnue, pas tout à fait. Disons que lorsque les modèles divergent moitié / moitié sur le signe d'une rétroaction, ce qui est le cas aujourd'hui, on n'est pas loin du pile ou face.J'avais pris soin de repréciser : je ne parle pas ici de la projection de la nébulosité (comme rétroaction au RC notamment), mais plus simplement de son observation et de sa simulation. Je parle des nuages au-dessus de nos têtes, la première chose qu'un enfant de cinq ans remarque quand il se pose des questions sur le temps qu'il fait (mais apparemment, la dernière chose que les vrais, gros et vieux cerveaux sont capables de lui expliquer, vu la difficulté que tu as à satisfaire ma demande assez simple, celle d'un enfant de cinq ans se demandant s'il y a toujours autant de nuages dans le ciel).
  5. Cela ne ferait que repousser la question : montre-moi les simulations de VE en 1950, 1975 et 2000 (et les comparaisons avec les observations dans le cas des dernières décennies). Mais surtout, me répondre que les modèles tiennent compte de la nébulosité "via" la VE n'a aucun sens. Si cette VE ne condense pas, ou bien si elle condense à basse, moyenne ou haute altitude, ou bien encore sur telle ou telle latitude, les effets sur le climat (les T surface en l'occurrence) seront différents. Autant dire que l'info VE est nulle en tant que telle sur la nébulosité. Je ne parle pas là des projections sur 2100, mais bien des observations et des simulations sur 1900-2000. Si l'on se demande quelle quantité d'énergie sortante a été piégée par les GES, il paraît logique de se demander aussi quelle quantité d'énergie entrante est parvenue à la surface pour la réchauffer. A moins que cette dernière grandeur et son évolution soit sans intérêt pour les "vrais et gros cerveaux". Mais tu auras la bonté de m'expliquer pourquoi en deux mots.
  6. J'y réponds sur quelques points. Je ne prenais pas là 1901-2000 ou 1906-2005, mais bien 1860-présent, comme Leroux. C'est Leroux qui les compare, justement. Un modèle doit calculer des moyennes à long terme sur une résolution spatiale grossière, l'autre établir des prévisions exactes avec une résolution précise et un pas de temps court. Même si la physique de base est la même, l'exercice n'est pas vraiment comparable. Quant à la sensibilité aux conditions initiales ou les trajectoires chaotiques, il me semble qu'elles existent dans les modèles climatiques mais qu'elles sont de toute façon effacées par l'approche probabiliste et ensembliste (ce qui ne fait que repousser le débat d'ailleurs sur la crédibilité des prévisions, présentées par certains comme un produit robuste des premiers principes de la physique alors qu'il s'agit en grande part d'un jeu sur des paramétrisations empiriques). Plusieurs points. D'abord, Leroux développe un propos général sur le GIEC depuis deux exemples particuliers (Petit, Jouzel). Je me contente de dire que les 500 auteurs principaux sont ce que l'on peut appeler des scientifiques du climat (c'est-à-dire des chercheurs ayant publié sur les questions climatiques, tout simplement). Ensuite, Jouzel publie dans le domaine où il est pertinent (l'analyse des glaces et le paléoclimat) et c'est à mon avis une question indépendante de ce qu'il dit aux médias comme porte-parole du GIEC (la langue de bois habituelle consistant à réciter le SPM). Enfin, je cerne mal l'identité de la "climatologie" que Leroux semble opposer au GIEC. L'analyse du climat rassemble nécessairement des disciplines très différentes en physique, chimie, biologie, etc. En poussant à l'absurde, on peut dire qu'un océanographe ne connaît rien d'autre que les océans, un atmosphéricien l'atmopshère, etc. donc que plus personne ne peut s'exprimer sur l'objet "climat". Il y a plein de choses que les modèles prennent (potentiellement) mal en compte parce qu'elles sont mal connues (cas du soleil ou des aérosols), ou qu'ils ignorent parce que les hypothèses ne sont pas suffisamment étayées pour le moment (cas du RCG). Dans le cas des paramètres astronomiques, c'est en revanche couramment implémenté dans les modèles paléo. Mais c'est différent de dire "les modèles ignorent ces paramètres" et "les modèles maîtrisent mal ces paramètres".
  7. "On", c'est qui ? Tu considères que l'incertitude des modèles est très acceptable. Comme tu es sensé, tu considères aussi sans doute que les évolutions de la nébulosité sont un facteur important du climat terrestre. Montre-moi donc les simulations de nébulosité 1950, 1975 et 2000 des 19 modèles AR4. Ce doit être facile à trouver, les "cerveaux" du GIEC n'iraient quand même attribuer des changements de température sans être capables de simuler les nuages et leurs évolutions pluridécennales.
  8. Si tu veux. C'est de toute façon plus utile de se livrer à une critique point par point que d'insulter les gens, comme certains se croient autorisés à le faire avec Leroux. Voici donc quelques critiques. Le reste, soit je n'ai aucune idée pertinente (AMP) soit je suis à peu près d'accord avec Leroux. (A charge de revanche, bien sûr, quand on postera la enième pleurnicherie alarmiste devant laquelle chacun verse sa larme de contrition sans le moindre début d'esprit critique). En me parlant de réchauffement, vous voulez sûrement me faire peur, moi qui ai vécu 40 ans en Afrique ! Personnellement, je souhaite que la terre se réchauffe. C’est d’ailleurs la position de la Russie, qui considère qu’un réchauffement serait bénéfique. Il y aura des gagnants et des perdants, insister sur les seuls bénéfices n'a pas plus de sens que de ne mettre en avant que les coûts. Et puis tout dépend de l'amplitude du RC, de toute façon. Leroux est libre de souhaiter ce qu'il veut par ailleurs. Car lors de toute période chaude, à l’échelle paléoclimatique comme à l’échelle récente, les pluies tropicales sont plus abondantes. Ce qui veut dire que paradoxalement, si le réchauffement était effectif, la sécheresse cesserait dans le Sahel ! Mais malheureusement, ce n’est pas le cas. Si, après les pires période de sécheresse des années 1970 et début 1990, le Sahel a tendance à reverdir semble-t-il (Herrmann 2005, Olsson 2005). Parce ce que tout le monde accorde foi à la courbe de température globale publiée tous les ans par l’OMM (Organisation Météorologique Mondiale) et le GIEC (Groupe intergouvernemental sur le changement climatique). Or, cette courbe n’est autre qu’une moyenne des températures mesurées dans 7.000 stations de la planète, traitées à l’Université d’East Anglia, à Londres, sous la direction de Philipp Jones. C'est plutôt 4300 stations terrestres pour le CRU. Sinon, il est normal qu'une moyenne globale soit faite à partir des moyennes locales. Le CRU inclue d'ailleurs diverses marges d'erreur dues au défaut d'échantillonnage, aux homogénéisations, aux interpolations, etc. A la limite, la critique vaut pour la zone arctique et la zone antarctique, très médiocrement couvertes par rapport aux régions industrialisées, alors que leur comportement est assez crucial (et pèse dans la moyenne pour l'Arctique). De plus, l'équipe du CRU reconnaît que le réchauffement est loin d'être significatif dans toutes les grilles. L’augmentation serait de 0,6° de 1860 à nos jours, soit la différence de température qu’on observe à l’échelle moyenne annuelle entre Nice et Marseille. 0,75°C en mis à jour. Cette courbe n’est d’ailleurs pas validée par les mesures récentes effectuées par les capteurs de satellites qui, depuis 1978, ne montrent au contraire aucune évolution notoire, pas plus que les mesures issues de millions de radio-sondages. Si, il y a réchauffement pour les bases satellites et radiosondes (en basse tropo), mais à des rythmes différents selon les bases, moindre que la surface pour UAH, équivalent pour RSS. En outre, comment parler de moyenne à l’échelle globale en mélangeant des températures marines, continentales, urbaines et surtout des températures de régions qui se refroidissent alors que d’autres se réchauffent ? Par exemple, l’Arctique occidental (au nord du Canada) se refroidit, alors que l’Arctique au nord de la mer de Norvège se réchauffe. Que fait-donc alors vraiment l’Arctique ? On ne peut pas du tout dire avec certitude que la terre se réchauffe. Si on prend la dernière période trentenaire 1977-2006, je ne vois pas de zones qui se refroidissent. En revanche, le Sud et l'Ouest du Groenland reste équivalent ou un peu plus frais que par rapport à 1951-80. Un modèle n’est qu’un super calculateur qui dépend entièrement des données qu’on lui fournit et de la démarche qu’on lui impose pour traiter ces données. Il ne faut pas prêter aux modèles des vertus « magiques », d’autant plus qu’ils ne donnent qu’une vision très incomplète et déformée de la réalité météorologique. En particulier, ils ne tiennent pas compte de la circulation générale de l’atmosphère, de son organisation et de son mouvement. Si, ils en tiennent compte, c'est la différence entre les AOGCM et les premiers RCM ou ERB. Cela ne veut pas dire qu'ils simulent bien, mais il est faux de dire qu'ils ne tiennent pas compte de la circulation. Les modèles utilisés pour la prédiction climatique sont fondés sur les mêmes principes que ceux utilisés pour la prévision météorologique. Or, ces derniers se trompent constamment : ils n’ont pas été capables de prévoir les tempêtes de 1999, les inondations de Nîmes ou Vaison la Romaine, la canicule de 2003 et l’été pourri de 2004. Comment pourraient-ils être fiables à l’horizon de 2100 ? On a déjà débattu de cela. Les modèles climatiques ont une sensibilité aux conditions initiales, mais elle n'affecte pas leur projection dans les mêmes proportions qu'un modèle météo. Ensuite, il y a plusieurs sortes de « climatologues ». Prenons le GIEC, présenté comme l’autorité en la matière. En réalité, il s’agit d’un groupement intergouvernemental, c’est-à-dire que la nomination de ses membres est politique, et ne répond pas à des critères scientifiques. D’ailleurs, la grande majorité de ses membres ne sont pas climatologues, à l’instar de Michel Petit, ingénieur en télécommunications, ou bien Jean Jouzel, qui est un excellent chimiste glaciologue, mais dont les connaissances scientifiques sur le climat sont limitées. C'est jouer sur les mots et les compétences, le GIEC rassemble bel et bien des scientifiques du climat. Mettre l’accent sur les gaz à effet de serre donne une vision très simpliste du climat, alors que d’autres facteurs sont beaucoup plus importants ; en particulier, ceux qui déterminent la dynamique de l’atmosphère, les transferts méridiens d’air et d’énergie, et pour faire simple, les transferts d’air froid et d’air chaud. En météo. dynamique, peut-être, mais en climato. ce n'est pas vraiment le débat. Si l'on détecte un réchauffement décennale / séculaire et qu'on veut l'attribuer, ce n'est pas le mouvement des masses d'air qui est pertinent. en revanche, sur le long terme, la variation dépend de l’activité solaire (tâche, magnétisme, éruption et vent solaires), des projections volcaniques, de la turbidité de l’air, des paramètres astronomiques, etc... Comment voulez-vous que leur responsabilité dans le climat puisse être mise en évidence dans des modèles qui ne prennent tout simplement pas en compte l’ensemble de ces paramètres ? Ils les prennent (plus ou moins bien) en compte, en même temps que les différents forçages anthropiques, et reconnaissent de toute façon leur bas niveau de compréhension sur la plupart des forçages. C'est plutôt la variabilité intrinsèque du climat aux longues échelles de temps (pluridécennale à séculaire) qui reste un point assez aveugle des modèles. Dans l’Atlantique Nord, on observe un refroidissement de la façade ouest (Canada, Etats-Unis à l’est des Rocheuses), alors que l’Europe occidentale se réchauffe, notamment la Scandinavie. L’Europe centrale, elle, se refroidit, comme la Méditerranée orientale, ou comme la Chine. Ces différences de comportement résultent de la dynamique aérologique. Je ne vois aucun refroidissement en Europe centrale, Chine, etc. En partie l'Est et le Centre des Etats-Unis ont des tendances moins marquées, sans doute non significatives depuis trente ans. En outre, ils pointent du doigt le comportement particulier et l’importance des régions polaires qui, contrairement aux prédictions des modèles, ne se réchauffent pas, mais au contraire se refroidissent. (...)Le refroidissement des pôles a atteint 4 à 5°C pendant la période 1940-90 - c’est-à-dire plus de la moitié, mais en négatif, de la valeur prévue pour 2100 ! Le pôle Nord se réchauffe. Le pôle Sud se refroidit (légèrement). Vous voulez dire qu’il n’y a pas de fonte des calottes glaciaires ? C’est un fait incontestable ! Cependant, évitons de généraliser : dans le détail, la glace de mer fond au nord de la mer de Norvège ou dans la région des Aléoutiennes dans le Pacifique nord, où arrivent de l’eau marine et de l’air chauds. En revanche, la banquise ne varie pas au Nord du Canada. Dans le cas de l'océan arctique, si, elle diminue tendanciellement depuis l'observation précise par satellite (1979). Au Groenland, certaines régions fondent, notamment sur les pourtours, mais la masse de glace augmente au centre de l’île, comme la masse de la plupart des glaciers scandinaves. C’est le démenti le plus flagrant apporté aux prévisions des modèles. Les mesures récentes donnent un bilan de masse négatif, ce qui n'était pas encore le cas dans la décennie 1980 ou 1990. Région très variable de toute façon, et il semble que les modèles y prévoient un réchauffement limité par rapport au reste de l'HN.
  9. Merci des précisions. De toute façon, c'est en effet une technique intéressante. Pour l'humidité, je n'avais pas fait attention que les auteurs mentionnaient un taux d'accumulation constant.
  10. Je ne comprends pas ta distinction entre un "avis" et une "critique". Ni l'intérêt d'un avis/critique qui ne serait pas fondé sur un minimum de lecture de travaux scientifiques. Il faudrait donc se contenter de donner ici ses impressions personnelles sur le temps qu'il fait? Par ailleurs, je m'inscris en faux contre ta présentation volontairement "naïve" des choses. Quand l'équipe de X dit que les T ont été globalement stables au cours du dernier millénaire, et que l'équipe de Y dit qu'elles ont été variables, personne n'a besoin d'être spécialiste en paléoclimatologie pour comprendre qu'il y a débat et pour observer les différences entre les reconstructions. Encore faut-il savoir que le débat existe entre chercheurs. Il est notoire que le cahier des charges de l'industrie nucléaire en matière de sécurité est draconien. Et l'on se souvient de difficulté de refroidissement des coeurs lors de la canicule 2003. Inclure l'éventualité du RC dans les plans à long terme me semble donc assez normal. Cela ne me dit pas grand chose sur les T 2050 ou 2100 en France (pas plus que la prise en compte de risques sismiques élevés ne me dit s'il aura des tremblements de terre de magnitude 5 demain à Chinon). Il serait étonnant que l'hiver 2006-2007 (décidément, l'Himalaya t'ennuie) permette de tirer des conclusions sur la variabilité naturelle ou forcée du climat. Comme tout le monde ou presque est d'accord pour dire que le climat est en partie forcé par les activités humaines, la question est de surcroît étrange. As-tu lu de ma part que le RC 1750-2000 résulte entièrement de la variabilité naturelle?
  11. A condition que le forçage TOA soit l'outil le plus pertinent pour analyser des températures de surface sur des périodes courtes de quelques décennies (dans ce cas, ce n'est d'ailleurs pas la sensibilité climatique qui est impliquée, car elle se calcule à l'équilibre, mais la réponse transitoire). Or, les modèles contraignent mal la variabilité naturelle (on ne sait pas aujourd'hui si l'accélération et l'intensification des El Nino observée dans la seconde moitié du XXe siècle ou la longue phase NAO+ sont naturelles ou forcées)A condition aussi que cet outil de forçage TOA soit bien calibré - tous les forçages hors GES longue durée sont encore en niveau faible à moyen de compréhension scientifique. Et la valeur même du forçage GES-LD 1860-2000 implémenté varie encore de 1,5 à 2,7 W/m2 dans les modèles de l'AR4 (Collins 2006), c'est dire si un "haut" niveau de compréhension scientifique n'est pas une garantie de grande précision. A condition enfin que les modèles servant à l'attribution-détection reproduisent assez fidèlement l'ensemble des traits du climat. Ce qui n'est pas le cas (ils sont toujours aussi médiocres sur la nébulosité, par exemple). J'oublie sûrement d'autres conditions pour que cet exercice d'attribution de 0,5 °C +/-0,1°C soit crédible. Celles-là me suffisent pour suspendre mon jugement. En effet, il est préférable que les modèles expriment les observations.
  12. C'est un article d'octobre 2004. Beaucoup d'erreurs factuelles, en effet (la troposphère ne se réchauffe pas, les régions polaires se refroidissent, etc.).
  13. Au passage, tu as pas mal de publications et de données en libre accès sur le site du groupe GIOMAS : http://psc.apl.washington.edu/zhang/Global_seaice/index.html
  14. Mais alors, il n'y a presque rien de robuste. De plus, les qualificatifs de "très vraisemblable" (>90%) ou "haut niveau de confiance" (> 9 chances sur 10) utilisés par le GIEC ne relèvent que rarement d'analyses quantitatives. Par exemple, le GIEC juge très vraisemblable (>90%) que le CO2 est la cause principale de hausse des T 1950-2005. Mais quand on va regarder les travaux d'attribution-détection, ceux-ci donnent au mieux des intervalles de confiance de 90% pour une certaine fourchette de réchauffement attribuable à chaque forçage (et le CO2 n'est presque jamais isolé des GES). Cela dépend et des modèles et des observations. La lecture des intercomparaisons en vogue depuis quelques années montre des résultats très variables :http://www-pcmdi.llnl.gov/ipcc/subproject_publications.php Qu'entends-tu par là?
  15. Comme tu l'auras remarqué, les forums sont vastes, les thèmes de discussion nombreux. Quand zazou poste une info sur une nouvelle méthode pour estimer le réchauffement de l'Himalaya, je lis cette info, je lis l'article concerné, je fais part de mes observations. Tu appelles cela "chercher la petite bête", j'appelle cela discuter du climat et respecter mon interlocuteur. Je pense sérieusement que la politique de sécurité nucléaire n'est pas un bon proxy du réchauffement, et n'a de toute façon rien à voir avec l'Himalaya.
  16. Quel rapport avec l'Himalaya, au juste ?
  17. Quand on regarde la carte Cryosphere, les "coups d'arrêt" de ce genre ne sont pas non plus exceptionnels (les années 1995-98 semblent avoir connu un regain d'extent en toutes saisons, par exemple). L'important, ce serait un coup d'arrêt durant assez longtemps pour être significatif. Quant aux routes maritimes, j'ignore s'il faut que l'océan arctique soit vide de toute glace pour être considéré comme navigable. Dans cette hypothèse, c'est 2050 au mieux pour un modèle (les autres modèles sont à 2080-2100). Un armateur trop pressé pourrait nous offrir un joli remake du Titanic.
  18. Le papier cité dans l'article en exemple de cette technique (Herron 1981) concerne pourtant le Groenland (partie Sud en l'occurrence, où la fonte estivale est effectivement plus marquée). J'ignore s'il s'agissait exactement du même type d'analyse, laquelle ne serait alors pas aussi "originale" que le suggère zazou (Herron et al. 1981 font déjà allusion à des travaux plus anciens des années 1970). De toute façon, les glaciers continentaux ont tous des fontes saisonnières assez marquées, et la plupart des reconstructions que j'ai lues utilisent plutôt l'O18 ou le D que la teneur en gaz. Le fait que la courbe 1800-2000 ait des variations prononcées alors que les périodes anciennes 300-1800 sont assez stables suggère que le proxy perd de sa précision avec l'âge. Par ailleurs, je ne saisis pas très bien la partie 4 du papier. Il semble que la fonte des glaces sur ce site dépend de l'humidité autant que de la température, la première influant sur le bilan SW qui est le facteur de premier ordre de la fonte (Aizen 2002, Wagnon 1999).
  19. Intéressant. Puisque tu n'es ni stupide, ni fou ni intéressé, et que tu sembles au fait des avancées de la "climato", explique-moi ce qui "concorde" au juste et ce que l'on peut en déduire de robuste.
  20. Il me semble que l'O18 ou le deutérium sont indépendants des facteurs biologiques eux aussi, le problème étant plutôt de distinguer les signaux température/précipitation. Ce qui m'a étonné de prime abord, c'est que cette méthode nouvelle pour des analyses historiques soit inaugurée sur un massif où l'on a par ailleurs très peu de données, ce qui ne permet pas de savoir si la teneur en gaz de la glace converge avec d'autres proxies. Y a-t-il d'autres exemples avec cette méthode? J'ai trouvé quelques analyses sur des forages glaciaires à profondeur plus importante (glaciaire-interglaciaire), mais rien pour le moment sur les variations décennales / séculaires.
  21. Non... t'es sûr? De la part d'une personne dont la principale participation ici consiste à sortir de son silence toutes les cinq semaines environ pour se livrer à des attaques ad hominem en deux phrases maximum, je prends ce jugement à l'emporte-pièce sur les impressions durables des uns et des autres comme un hommage du vice à la vertu (selon le registre moral qui t'agrée, le même qui indexe étroitement ton degré d'indignation dans les questions climatiques à la température de l'eau de la piscine d'Al Gore).
  22. La référence à la messe est de circonstance
  23. charles.muller

    1998-2007

    Pas seulement Nino, mais aussi bien la prévision solaire, volcanique et anthropique (indice GSO pour cette dernière). Là où je suis un peu étonné, c'est que la variabilité naturelle semble limitée aux indices ENSO dans le modèle Hadley. Même si El Nino / La Nina ont du poids, ce ne sont pas non plus les seuls facteurs variables à l'échelle annuelle ou pluri-annuelle (NAM, SAM, QBO, etc.).
  24. Je constate que ceux qui se complaisent dans le jugement moral (ce n'est pas mon cas, je n'ai pas la pulsion du curé à faire ch*er ses ouailles) ne sont pas spécialement outrés par le détournement des faits au service d'une cause, dès lors que la cause est supposée "bonne". En matière de "cohérence" (ci-après), cela m'amuse. Ce que j'assimile à de la pipolisation, c'est que la piscine d'Al Gore est devenue un motif de débat dans un forum consacré à l'évolution du climat. Si cela t'amuse de me prêter des discours que je ne tiens pas... Cela doit être ta contribution personnelle à l'honnêteté et à la cohérence de la discussion.
  25. On en avait déjà parlé, je reposte ici ma réponse (c'est mieux de consacrer un post individualisé en paléoclimat que de noyer le sujet au milieu du rapport GIEC, où il était). La courbe obtenue est assez curieuse : Il s'agit de la courbe à points rouges "Cores 2001 et 2002". On voit qu'elle donne une croissance quasi continue sur les 2000 dernières années, avec des variations bien plus amples depuis 200 ans environ, en hausse et en baisse. Un effet de l'altitude (le forage est au-dessus de 6000 mètres) et de la localisation du masif, peut-être épargné des fluctuations anciennes que l'on repère ailleurs, dans les glaciers tempérés ou tropicaux ? Ou un effet de la nouvelle méthode d'analyse choisie et décrite dans le communiqué ? *** Un précédent travail sur la base des anneaux de croissance et sur le versant indien de l'Himalaya n'avait pas non plus trouvé signe du refroidissement observé ailleurs (Petit Age Glaciaire) et atteignant son maximum entre le XVe et le XVIIe siècles. The Holocene, Vol. 9, No. 1, 85-90 (1999) DOI: 10.1191/095968399667529322 Spring-temperature variations in western Himalaya, India, as reconstructed from tree-rings: AD 1390-1987 Ram R. Yadav Birbal Sahni Institute of Palaeobotany, 53 University Road, Lucknow 226007, India Won-Kyu Park Department of Forest Products, College of Agriculture, Chungbuk National University, Cheongju 361-763, Republic of Korea Amalava Bhattacharyya Birbal Sahni Institute of Palaeobotany, 53 University Road, Lucknow 226007, India The Himalayan region plays a very important role in influencing the regional and extra-regional circulation system. Long-term instrumental or proxy climate records for this region are scant, but are essential for a global perspective of climate variability. A 598-year (AD 1390-1987) reconstruction of spring (March-May) temperature has been derived for the first time for the western Himalayan region, India using a well replicated ring-width chronology of Himalayan cedar (Cedrus deodara (D. Don) G. Don). The reconstruction showing annual to multi-year episodes of cool and warm springs is well correlated with the instrumental record of spring temperature for 1876-1987 (r = 0.53, p < 0.001). Prominent large-magnitude century-scale excursions in negative anomalies of spring temperature which might reflect the regional influence of the ‘Little Ice Age’ are not indicated in our data. The seventeenth century experienced monotonically warm springs. Neither recostruction or instrumental data provide evidence of warming during the last few decades of this century which could be attributed to anthropogenic causes. A strong out-of-phase relationship between the instrumental sprin-temperature record over the western Himalayan region and sea-surface temperatures (SSTs) of ensuing months (June-May) over the equatorial Pacific Ocean has been noted. This suggests that temperature responsive tree-ring chronologies from the Himalayan region could also serve as a valuable proxy of the Southern Oscillation. PS : la discussion est en Evolution du climat ou en Paléo ?. Je poste sur l'un mais cela arrive sur l'autre.
×
×
  • Créer...