Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

charles.muller

Membres
  • Compteur de contenus

    2597
  • Inscription

  • Dernière visite

Tout ce qui a été posté par charles.muller

  1. Je suis d'accord que tout pari est gamin. Mais bon, cela nous fera un "pitch" pour 2007 et cela dédramatise, on en a parfois besoin. Sinon, tu as mal interprété mon choix : je pense que les modèles du Met Office sont bons - et certainement meilleurs que mon pifomètre, ce qui n'est pas difficile. Je me base donc entièrement sur eux. Simplement, il donne 60/40 pour 2007>1998, ce qui montre que c'est serré dans leur prévi. Je fais donc un simple pari à la marge du modèle, à savoir une légère sous-estimation soleil+nino qui inverse la probabilité à 40/60 et me donne gagnant. Sinon, je l'ai déjà dit, je regrette qu'il n'y ait pas plus de prévi à court terme en climatologie. Je sais bien que cela n'a guère de sens par rapport à la variabilité chaotique et aux imprévus (genre volcanisme), mais c'est toujours plus stimulant de débattre sur 1, 5 ou 10 ans que sur 100 ans, où nous aurons les uns les autres augmenté le budget CH4 ou CO2 de la planète (selon le choix post-mortem inhumation vs incinération). La seule chose que l'on peut suivre, ce sont les SRES. Mais il semble que GIEC / IPCC 2007 s'avance un peu plus (dans ce que j'ai lu, je n'ai pas vu de tableaux de prévi. modèles par modèles et tous les 10 ans cependant). PS : et je l'avoue, je suis très joueur Pas spécialement de l'argent, un bon tarot ou une belote, cela me va. Mais dès que je peux, je joue !
  2. Sur RC, sujet très intéressant par le co-auteur d'un travail récent (et très médiatisé) sur l'avenir de la banquise arctique : http://www.realclimate.org/index.php/archi...e-21st-century/
  3. Moi aussi, j'ai pensé aux satellites, mais on va dire que je me défile (en 2005, RSS comme UAH étaient très conservateurs, c'était très nettement en dessous de 1998). Pour le CRU, en théorie, cela devrait m'avantager un peu. Mais en pratique, cela dépend des pôles. Il me semble avoir lu que les différences provenaient surtout des techniques d'interpolations dans les zones où il y a peu de stations. Si les pôles sont chauds, Nasa Giss chauffe. Allez, je propose une solution neutre : Nasa Giss + CRU Hadley / 2. De toute façon, je pense qu'il sera inutile d'en venir là. Mon raisonnement est assez basique : El Nino actuel est annoncé comme plus faible que 1998 et nous sommes en 2007 en quasi-minimum solaire, contrairement à 1998. Il y a bien sûr la variabilité intrinsèque et les émissions 1998-2007 en plus dans la balance (pas grand chose en CH4), mais je subodore que c'est moins important que El Nino + soleil. Pour mémoire, voici à quoi ressemblait janvier 1998.
  4. Bien sûr, pas de problème avec cela (la tendance au RC, donc les anomalies chaudes plus fréquentes que les anomalies froides sur le long terme). Pour le coup, et comme je suis ici en climato plus "court terme", c'est le côté dynamique de la signature ENSO qui m'intéresse, et aussi d'où vient précisément ce surcroît de chaleur qui fait pousser mes fleurs.
  5. OK, on sablera le champagne ensemble Bon, pour calculer régulièrement mes probabilités de gagner, je vais désormais faire une rubrique "Pari 1998-2007", où je comparerai mois après mois les anomalies Tm 1998 et 2007 par rapport à 1961-1990. Précision : il faudra que l'on se mette d'accord sur la base de référence, puisque 2005 a montré les variations "importantes" (enfin, pour le pari, pas importantes en soi) entre Giss, NOA, OMM, CRU Hadley...
  6. charles.muller

    Réchauffement et océan

    Que cela soit délicat, je n'en doute pas. Que l'on tire des déductions triomphantes de ces mesure délicates, cela m'amuse. Si l'on revoit ainsi à la baisse, cela peut signifier que Argo / Lyman ne fait que rétablir le contenu de chaleur réel. Et que MM Hansen et cie ont tout intérêt à réviser leur modèle, parce que ce contenu de chaleur (version Levitus) était justement ce qui leur manquait pour arriver au bon compte. Une nouvelle révision à la baisse de la sensibilité climatique, ce ne serait jamais qu'une bonne habitude en train de s'installer.
  7. Merci de ces liens, celui-là et les précédents. Je suis en train de creuser tout doucement, mais ces histoires de magnétisme sont rudement complexes.
  8. Merci de la précision, tu as déjà répondu à une partie des remarques que je faisais. Il existe donc bien des sous-programmes dédiés à ce genre de problématiques, et ils sont paramétrisés à partir d'expériences locales permettant de quantifier les processus concernés. En fait, une question basique sous-jacente à toute cette discussion est : les modifications d'usage des sols ont-elles affecté de manière significative le budget de surface terrestre (question physique) et la mesure des températures (question métrique), ou leur influence est-elle de toute façon marginale (dans un cas ou dans l'autre) ? J'aurais tendance à dire que cela reste physiquement marginal dans la plupart des cas (sauf régions entières hyperurbanisées au XXe siècle ou zones largement défrichées-cultivées, donc un effet local mais pas global) mais que cela peut être métriquement significatif (pour les bases de données servant à faire les courbes les plus célèbres du RC). A dire vrai, c'est une simple représentation naïve de la question, j'aurais du mal à mettre des ordres de grandeur sur le premier point. Sur le second, c'est beaucoup mieux documenté, surtout pour les ICU/UHI.
  9. Content de te lire à nouveau. Le "bruit" dont parle Pielke et al. dans leur papier JGR (en page 6), si je comprends bien, c'est que la T surface terrestre mesurée à 1-2 m du sol dépend de facteurs de surface qui sont mal (ou pas) implémentés dans les modèles. Quand les mêmes modèles utilisent les équations mentionnées plus haut (forçage, sensibilité) pour voir si la variation T0 > T1 colle avec les valeurs retenues pour F et lambda sur une période donnée, le fait qu'ils n'aient pas (mal) retenu l'ensemble des facteurs expliquant T1 (dont les usages des sols) fait que la rétrovalidation des valeurs retenues pour F ou lambda est incomplète. Concrètement et en version hypersimplifiée, pour parvenir à un réchauffement de 0,6°C en 100 ans, je peux mettre 2 W/m2 de forçage CO2 et 0,5°C de sensibilité (les 0,4°C manquant étant l'inertie transitoire > équilibre). Mais si je m'aperçois que le réchauffement de surface est dû pour 0,2°C à un facteur sans rapport avec le CO2, et si ce forçage CO2 est par ailleurs correct, la valeur qui collera mieux aux observations sera 0,4°C pour ma sensibilité. Raison pour laquelle Pielke : prenons le contenu de chaleur des océans comme métrique principale du réchauffement à long terme, cela sera moins sujet à caution qu'une moyenne des T surface incluant notamment les surfaces terrestres "humanisés" (vu les stations météo). Mais évidemment, la mesure du contenu de chaleur des océans est moins facile, et l'on a vu qu'elle est sujette à variation mal connue (je trouve donc un peu utopique cette idée). Cela, c'est pour l'aspect tambouille / empirique / rétrovalidation. Pour l'aspect purement physique, la question est de savoir si un modèle climatique aujourd'hui évalue l'ensemble des modifications d'usage des sols, comment il le fait d'un point de vue convectif-radiatif en basse couche. A te lire, il semble par exemple que les modifications anthropiques de rugosité et d'humidité sont prises en compte, par la suite les modifications d'évaporation et de condensation, etc. D'après Pielke (dans l'ensemble de ses textes sur la question, son dada), ce n'est pas le cas du tout : les modèles actuels font quelques paramétrages assez grossiers (genre on prend en compte X W/m2 TOA pour la déforestation), mais rien de plus précis pour ce qui est des usages du sol 1901-2100. Or, c'est un forçage anthropique à sa manière, et il peut être important pour les évolutions régionales du climat (toujours selon Pielke). Voilà comment je vois la problématique du "bruit".
  10. Il est mesuré, ce Jérôme Lecou, cela fait plaisir à lire. En 1975, précédent record journalier hivernal, on était en plein... La Nina. Dur dur, la prévision. Par définition, l'ES anthropique est un phénomène continu : les X°C d'anomalies ne viennent pas soudain de lui, comme si le CO2 et le CH4 avaient décidé de se réveiller en septembre dernier. En revanche, cela pourrait en bonne partie venir de l'ES naturel : mesure-t-on les taux de vapeur d'eau atmosphérique lors des épisodes El Nino ? Cette vapeur d'eau dépend de l'évaporation à la base, mais elle est aussi conditionnée par les flux je crois. Il est dommage que lors de tels épisodes on ait des explications "simples" (masse d'air chaud du sud-ouest), mais pas d'explication plus poussée de l'anomalie du contenu de chaleur avec un point de vue radiatif / convectif (VE, nébulosité, etc.) et dynamique. Enfin, on les a peut-être, mais je ne sais pas où. PS : le même sujet existe aussi en évolution du climat.
  11. C'est vrai. On en avait parlé en paléo. avec le travail récent sur le mouvement de balancier entre Groenland et Antarctique lors des événements Dansgaard-Oeshger. Il serait intéressant de voir si l'anticorrélation PN-PS est un trait permanent de la dynamique atmosphérique et océanique, et à quelles échelles de temps si c'est le cas. Sur les quarante dernières années, cela ne se vérifie que partiellement (l'exception péninsule masque toutefois un signal clair, et les données sur les stations Antarctique ne sont pas très nombreuses).
  12. Si, il y a un paquet de travaux sur les usages des sols. Mais comme tu le dis, ce qui complique beaucoup les choses est le cycle hydrologique (et aussi les vents) en couche limite, parce que c'est dur à modéliser localement a fortiori globalement. En fait, si j'ai bien compris la remarque de Gomberveaux dans la discussion El Nino, les modèles ne savent pas simuler l'évaporation / condensation en basses couches, ils la paramètrent au lieu de la calculer. Difficile dans ces conditions d'avoir une estimation des évolutions 1901-2000. Par exemple, le forçage TOA Giec prend sans doute en compte l'albedo du sol agricole, mais pas les effets de l'irrigation sur un budget énergétique de surface ni les effets de la déforestation sur les flux de vents. Or, localement, cela peut influencer les T de surface, donc leur mesure, donc la moyenne régionale et globale que l'on fait de ces mesures. Néanmoins, j'ai tendance à penser que cela reste assez marginal dans le bilan global, disons dans la fourchette 1-10% de la mesure, notamment parce que les influences de l'usage des sols sont en sens opposé (certaines réchauffent, d'autres refroidissent). Mais comme on prend en compte des choses plus insignifiantes encore (contrails par exemple) dans le bilan radiatif TOA et que les amplitudes moyennées sont assez faibles, cela mériterait d'être plus creusé. Ce que j'aimerais bien trouver, c'est un papier de synthèse "théorique" assez clair sur le rapport bilan de surface / bilan TOA, parce que les liens advection-convection-radiation sont complexes (et que l'on compte vite deux fois la même chose quand on n'est pas trop familier du binz.)
  13. Mais c'est intéressant de voir ainsi comment les zones réagissent différentiellement en évolution des T. Je ne pense pas non plus que le climat français se refroidisse durablement au cours de ce siècle (à part un ralentissement significatif du GS, mais la probabilité m'en semble assez faible). En revanche, des épisodes de rafraîchissement dus aux variations solaires et volcaniques, cela me semble assez probable. A ce propos, voici la carte des tendances Nasa Giss 1941-80 : cela fait bizarre, tout ce bleu /emoticons/tongue@2x.png 2x" width="20" height="20"> En tout cas, on voit que l'amplification polaire n'a pas tellement fonctionné pendant quatre décennies, alors qu'il y avait déjà hausse des GES. Ou du moins, on voit qu'elle a fonctionné... à l'envers : le pôle nord a accentué à l'époque le refroidissement par rapport aux tropiques.
  14. J'aurais un peu de mal à pleurer pour les touristes adeptes du motoscooter finlandais. Ce qui se semblerait plus stressant pour le vivant, c'est le choc thermique d'un février-mars glacial suivant une période octobre-janvier très douce. Si la douceur continue jusqu'au printemps sans épisode très froid et prolongé, pas de pb majeur à mon sens.
  15. charles.muller

    Réchauffement et océan

    Je reprends ce topic pour signaler une nouvelle parution : GEOPHYSICAL RESEARCH LETTERS, VOL. 34, L01610, doi:10.1029/2006GL027834, 2007 How much is the ocean really warming? Viktor Gouretski, Klaus Peter Koltermann Abstract - We use a global hydrographic dataset to study the effect of instrument related biases on the estimates of long-term temperature changes in the global ocean since the 1950s. The largest discrepancies are found between the expendable bathythermographs (XBT) and bottle and CTD data, with XBT temperatures being positively biased by 0.2–0.4°C on average. Since the XBT data are the largest proportion of the dataset, this bias results in a significant World Ocean warming artefact when time periods before and after introduction of XBT are compared. Using bias-corrected XBT data we argue reduces the ocean heat content change since the 1950s by a factor of 0.62. Our estimate of the ocean heat content increase (0–3000 m) between 1957–66 and 1987–96 is 12.8·1022 J. Because of imperfect sampling this estimate has an uncertainty of at least 8·1022 J En substance, la mesure du réchauffement océanique serait affectée par des biais (à la hausse) dus aux balises XBT. Une correction de ce biais impliquerait de multiplier par un facteur 0,62 les estimations couranes (Levitus et al.). Les auteurs font leur propre estimation sur 1957-1996, mais avec une marge d'erreur des deux-tiers de la valeur médiane ! Décidément, il y a quand même un problème de mesure de base en climatologie... Quasiment pas un domaine où tout le monde soit d'accord, que ce soit en surface, en tropo ou en océan.
  16. Je pense que c'est en forçage TOA (?) et que cela reflète surtout les modifications d'albedo forêt > zone agricole. Pielke parle de cela dans un récent sujet de son blog (voir papier des JGR à paraître, draft en lien dans l'article) : http://climatesci.atmos.colostate.edu/2007...ng-and-cooling/ Son approche (dont je ne suis pas sûr d'avoir tout compris) : les modèles évaluent le réchauffement de manière radiative-convective, en calculant les couplages thermodynamiques de la surface au sommet de l'atmosphère, sur la colonne verticale. Or, les T surface sont influencées par le budget énergétique de surface (usages du sol et leur conséquence : chaleur sensible, évaporation, condensation, etc.) médiocrement couplés au phénomènes radiatifs pris en considération dans l'équation de base du GIEC (2001, 9.2 : dH/dt = F-lambdaT, avec H contenu de chaleur, F forçage, lambda sensibilité climatique et T température). Une autre manière de dire cela est qu'en bilan radiatif, chaque couche émet à la puissance quatrième de sa température et que la température près de la surface évolue aussi par des facteurs n'apparaissant pas dans le bilan radiatif actuel, ce qui ajoute donc forcément du "bruit" dans le calcul (en l'occurrence, les variables d'ajustement sont F, puisque les forçages TOA sont réévalués régulièrement à part les GES, et lambda la sensibilité climatique). Mais peut-être cette critique est-elle critiquable. Cela rejoint en tout cas ce qui dit miniTax en réponse à Alain : le seul poste anthropique assez bien estimé du bilan radiatif, ce sont les GES, et les autres (aérosols, usages des sols) sont bien moins contraints empiriquement et intégrés physiquement.
  17. A nouveau, je dois faire une réserve - mais cela devrait s'arranger sans que nos avocats s'en mêlent. /emoticons/biggrin@2x.png 2x" width="20" height="20">Comme tu le vois sur les cartes Nasa Giss que j'ai publiées, l'échelle devient assez grossière au-dessus de 1°C. Et les détails ne sont pas donnés. Exemple, voici le monde sur 1901-2000 (dont la France bien sûr) et la France en détail sur Imfrex. On voit qu'il y a jusqu'à 0,4°C de différence entre deux régions françaises (soit une amplitude locale équivalent à 66% du réchauffement global de la période). De même, entre un orange moyen et un orange foncé de la Carte Nasa Giss, tu peux avoir jusqu'à 1,5°C de différence (et jusqu'à 3°C entre un orange foncé et un rouge clair). Il faut donc rappeler d'une part que nous parlons ici de petites amplitudes, d'autre part que ce qui apparaît comme assez homogène sur une carte mondiale ne l'est pas forcément dans la réalité, quand on prend en compte l'ordre de grandeur du phénomène observé. Mais cela ne remet pas en cause la tendance, bien sûr (réchauffement > dans les terres de l'HN). Non, ce n'est pas indigeste. Ce que je ne sais pas, c'est si c'est exact /emoticons/biggrin@2x.png 2x" width="20" height="20"> La chaleur est distribuée par l'océan (lentement ) et par l'atmosphère (rapidement). Tu sembles faire l'hypothèse que la chaleur s'accumule dans un coin, puis qu'une oscillation naturelle accélère sa redistribution au bout d'un moment. Mais j'ai un peu de mal à voir le rapport avec les oscillations, qui existent sans le RC moderne et qui ont souvent une périodicité (pluri-)décennale ou (pluri-)annuelle. Et surtout, je vois mal l'hypothèse initiale, c'est-à-dire "une région de l'HN assez grande cernée par d'autres ayant une anomalie de plus de 1°C". Tu vois sur la carte ci-dessus que deux régions françaises ont 0,4°C de différence alors qu'elles sont distantes de quelques centaines de kilomètres. Si je prends le climat continental sibérien et le climat de notre façade atlantique, en situation de RC, je m'attends à des différences plus importantes encore, qui ne vont pas forcément s'uniformiser très vite par un échange atmosphérique.
  18. J'avais lu certains chapitres de cette thèse de Mestre. Je ne doute pas que l'on repère une discontinuité franche dans l'historique des mesures sur un siècle, quand une station est déplacée du centre-ville à la périphérie, ce qui fut fréquent, ou quand un biais de ventilation du capteur fausse visiblement à la hausse sur une certaine durée par rapport aux stations voisines, etc. En revanche, une série d'aménagements dans l'usage des sols, étalée sur un siècle, passera à mon sens inaperçue. Imagine qu'il se construit une maison à 150 mètres de la station tous les cinq ans. Au bout de 100 ans, tu as vingt maisons qui se sont installées, dans un périmètre proche. Ce n'est pas une urbanisation massive. Leur émergence individuelle n'apparaît pas forcément comme une rupture, mais il n'est pas inimaginable que leur effet cumulé représente 0,1°C de hausse locale (flux de chaleur sensible, modification du vent, etc.). Or, on parle de 0,6°C en moyenne globale sur 1901-2000. Même chose sans doute dans l'autre sens, si toutes les forêts à 5000 mètres à la ronde ont été progressivement remplacées par des champs cultivés : modification de l'albedo et des vents. Tu as aussi, dans certaines zones, des effets à échelle moyenne : une déforestation massive change le budget de surface régional, et les précipitations.
  19. Post scriptum : un détail sur l'effet urbain (Ouessant). A mon sens, cette expression induit souvent en erreur, quand on parle d'un effet d'îlot urbain on pense à l'extension importante d'une ville. Il vaut mieux parler d'un changement d'usage des sols comme terme générique. N'importe quelle intervention humaine (la construction d'une route ou d'un bâtiment, la culture d'un sol ou la plantation d'arbres, etc.) affecte légèrement le budget de surface, donc potentiellement la mesure des températures si l'environnement proche d'une station est concerné. Cela dit, c'est sans doute très marginal dans le cas d'Ouessant. Mais comme on a souvent eu l'occasion de le signaler, il est dommage qu'il n'existe pas des stations de référence en milieux isolés et "non-humanisés" de plaine (ni urbanisation ni agriculture, ni flux de villes proches), cela serait un bon outil de contrôle. Aucune série homogénéisée de MF ne correspond à ce cas de figure (le Mont Aigoual s'en rapproche, mais c'est en altitude et on ne peut pas comparer avec des stations de plaines plus urbanisées). Un exemple récent ci-dessous, une simulation de modèle sur le plateau tibétain. Dans le texte, les auteurs montrent qu'en reproduisant seulement sur la simulation les modifications d'usages des sols (sans autre forçages anthropiques) par rapport à la situation pré-anthropique, ils obtiennent en laissant tourner jusqu'à l'équilibre une variation locale de température de +0,17°C, et une variation de précipitation de -9mm/an. Ref. Xuefeng Cui at al. (2006), Climate impacts of anthropogenic land use changes on the Tibetan Plateau, Global and Planetary Change, 54, 1-2, Pages 33-56 Anstract - A general atmospheric circulation model (ECHAM5) has been applied to investigate the impact of land use changes on the Tibetan Plateau (TP) on local and global climate. The “control” simulation with current land cover reasonably represents the large-scale circulation and state of the atmosphere over the Tibetan Plateau and the surrounding region. Modifying the land cover to a hypothetical non-anthropogenically-influenced vegetation cover shows significant modifications to the local and remote climate. Compared to this scenario, the TP is warmer and drier under present conditions. The Indian summer monsoon is intensified and the East China summer monsoon is weakened due to human-induced land cover change on the TP. The mean global temperature has almost no variation, whereas precipitation slightly increases. Our study indicates that human-induced land use changes on the Tibetan Plateau have had a significant impact on local to regional, and to a lesser extent global, climate.
  20. Attention : il est très difficile de montrer que les 0,7°C de hausse en 150 ans ont eu telle ou telle influence sur l'amplitude des oscillations naturelles (leur durée, leur intensité, leur fréquence, etc.) Les modèles indiquent que l'on devrait tendre vers une NAO+ et un El Nino plus fréquent, mais on ne peut assurer pour autant que la longue NAO+ de la fin du XXe siècle ou que l'El Nino 98 porte la marque spécifique d'une influence sensible du RC. A un large niveau de généralité, on peut dire que le RC a forcément quelque influence (puisque l'état de l'atmosphère et des océans n'est pas le même en 1750 et en 2007), mais cela ne va pas au-delà pour le moment. Euh là, je ne comprends pas trop. Tu ne peux pas raisonner sur une seule station et je ne vois pas de quel "retard" tu parles (l'anomalie négative de 1986 répond peut-être à des conditions méso-échelle sur telle ou telle saison qui a plombé la moyenne annuelle, par exemple un régime de blocage en hiver). En matière de RC, la France est plutôt "en avance" dans l'Hémisphère Nord, de mémoire elle n'est battue que par l'Alaska et la Sibérie pour le rythme de hausse des 30 dernières années.Quand tu dis le RC local se fait par à-coup, tu veux peut-être dire : cela se réchauffe partout progressivement, mais certaines oscillations (genre NAO ou ENSO ou autres) font que le signal de ce réchauffement peut être localement masqué un certain temps, si les oscillations en question donnent des anomalies plutôt négatives à la zone concernée. Dans ce cas oui, c'est probable, sinon on aurait partout les mêmes hausses. Mais le RC n'est pas le même partout de toute façon (pour la métrique des T surface), il est plus fort au Pôle qu'à l'Equateur en HN (amplification polaire) et plus faible dans l'HS que dans l'HN (inertie thermique des océans occupant une plus grande surface), par exemple.
  21. charles.muller

    2012

    A Meteor En fait, c'est assez gratuit, comme tous les paris. Disons que je fais l'hypothèse suivante : la variabilité intrinsèque, un prochain cycle faible, une hausse de nébulosité et la répercution de la baisse actuelle du CH4 suffiront à compenser le forçage GES sur 2007-2012. Je partais en revanche du principe qu'il n'y avait pas d'El Nino spécialement massif en 2012. A Meteor et miniTAX Sur le cycle solaire de 11 ans, il faut voir à quel rythme le climat répercute l'effet. Le cycle en cours 23 a par exemple eu un maximum plus faible que 22 (mais plus long, il se peut que l'intégrale du forçage soit identique) et l'on ne sait pas encore sa valeur au minimum (c'est en ce moment). En admettant qu'après analyse, le cycle 23 se révèle plus faible que les deux précédents (21 et 22, très proches), je pense qu'une partie du signal peut être retardé à cause des océans (océans moins réchauffés au cours du cycle). Par ailleurs, on ne sait pas non plus si la réponse du climat est linéaire, notamment pour ce qui regarde le lien UV / stratosphère / troposphère (et le lien de cela à la circulation type courant jet, ondes planétaires, vortex polaire). En fait, on ne sait presque rien du couplage soleil-climat en irradiance totale et spectrale, à part des corrélations assez nombreuses laissant entendre que ce couplage est une réalité (au-delà bien sûr des cycles jour-nuit et saisons). Voilà pourquoi je ne me représente pas les cycles de 11 ans (ou 22 ans, ou quasi-200 ans) comme une simple relation linéaire plus de chauffage > T surface plus hautes.
  22. charles.muller

    2012

    Aller, si l'on s'engage en pronostic chiffré, je dis +0°C entre 2007 et 2012. (Et pour que ce soit plus marrant, je parie par la même occasion que le Met Office se plante et que 2007 n'atteindra pas 1998 malgré El Nino ; au moins, on pourra vérifier dès janvier prochain ).
  23. charles.muller

    2012

    Je suis assez en accord avec les phénomènes décrits. En imaginant que l'on ait simultanément un maximum solaire et un fort El Nino en 2012, cela augmente la probabilité d'une "année record". Mais on peut aussi imaginer : - une baisse de l'activité solaire sur le cycle 24 (hypothèse gratuite) - une répercution de la stagnation / baisse du CH4 (si elle se poursuit) - une fin de l'effet "baisse d'aérosols" (avec ré-augmentation de la nébulosité - global dimming - au moins un maintien aux valeurs actuelles, contrairement au global brightening des 15 dernières années) Tout cela aboutissant à un plateau des températures moyennes dans les années à venir, voire une légère tendance à la baisse. Quoiqu'il en soit, si je reste sur ton hypothèse, suffirait-elle à franchir un "point de non retour" ? En quoi 2012 serait très différent de 1998, une année chaude, certes, mais qui ne semble pas avoir amplifié de phénomènes particuliers ?
  24. "Je risque de manquer un peu d'argent sur mes vieux jours, il faudra que je songe à épargner." "Je risque d'être ruiné d'ici peu de temps, il faut vraiment que j'épargne un maximum pour faire face à cette éventualité." Désolé de cette métaphore vulgaire, elle illustre à mon sens le problème : tout est dans le degré d'appréhension, pas l'appréhension elle-même. Appréhension qui est collective et non individuelle, bien sûr, mais le mécanisme est le même pour la prise de décision. Or, pour fixer correctement ce degré légitime d'appréhension, il faut encore et encore parler en long, en large et en travers du... climat
  25. Je vais examiner cela plus en détail. Ce qui me gêne un peu de prime abord avec l'explication "oscillations naturelles", c'est qu'il faut supposer une conjonction d'oscillations positives (en terme de conséquence sur les T) aboutissant à des effets comparables sur les terres de l'HN (et même au-delà, voir cartes plus haut). Autant je vois bien ces oscillations comme ayant un effet sur une partie des différences de T régionales (par exemple, NAO et AO pour les hivers doux européens plus marqués qu'ailleurs depuis la fin des années 1970 jusqu'au début des années 2000), autant je les vois mal expliquer toutes ensembles une bonne part de la tendance positive de Los Angeles à Vladivostok. Il faut aussi voir que les variations saisonnières sont convergentes (c'est-à-dire que le surcroît de chaleur ne se résume pas à la douceur hivernale, par exemple). Il faudrait enfin se poser la question... de la conservation de l'énergie et du mouvement (je veux bien qu'une oscillation modifie la distribution, mais elle n'en crée pas sui generis).
×
×
  • Créer...