Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

charles.muller

Membres
  • Compteur de contenus

    2597
  • Inscription

  • Dernière visite

Tout ce qui a été posté par charles.muller

  1. Coupe du monde oblige : je me demande s'il existe une météorologie ou une climatologie du football. L'hypothèse est la suivante : les équipe de zones chaudes devraient mieux résister à la chaleur estivale de la coupe du monde que les équipes de zones tempérées, a fortiori nordiques. (Du moins tant qu'on reste sur ce mois de juin, chaud en Allemagne comme en France semble-t-il). Bien sûr, il faut pondérer par plusieurs facteurs, notamment le fait que les internationaux évoluent toute l'année sous plusieurs climats, par exemple anglais et français. Il y a aussi le fait que les équipes dominantes ont tendance à marquer rapidement (première mi-temps), puis à défendre leur score (seconde mi-temps), le contraire étant vrai pour les outsiders (ces derniers viennent souvent du Sud, moins riche, ce qui ajoute à la difficulté d'analyser cela d'un strict point de vue météo/climato). Néanmoins, toutes choses égales par ailleurs, l'équipe de la Côte d'Ivoire, du Costa Rica ou du Brésil a a priori plus de chance d'être mieux résistante après 60 minutes d'efforts intensifs sous la chaleur que l'équipe de Suède, d'Allemagne ou d'Angleterre (dans le cas de la France, c'est plus discutable car on a beaucoup de joueurs issus de l'outre-mer). Donc, plus une équipe est originaire d'une région chaude, plus forte serait sa probabilité d'être performante dans les 30 dernières minutes lorsqu'elle joue une partie dans un cadre estivale de coupe (Europe, Monde). Sur un grand nombre de matches, on pourrait peut-être voir se dessiner une tendance. Pour vérifier cette hypothèse, il faudrait imaginer un ratio. Cela pourrait être but encaissé / but marqué par demi-heure (la première et la dernière) rapporté à la latitude et minoré par un "facteur dominance". Des volontaires pour ce calcul complexe? * Sinon, pour rester sur des généralités, j'ai quand même l'impression générale (et subjective, je regarde cela de loin) que les équipes du sud de l'Europe et des régions intertropicales sont meilleures au football que les autres. Là aussi, il faudrait voir l'évolution à long terme pondérée par le facteur économique (il y a deux chômeurs dans l'équipe d'Angola, ce qui en dit long sur leurs moyens) et sociologique (certains pays, comme les USA, n'ont aucun intérêt ou presque pour le ballon rond). Un passionné a-t-il une statistique des podiums (trois premiers) coupe du monde / coupe d'Europe par latitude sur les deux dernières décennies, histoire de voir s'il y a une tendance vers le Sud qui se dessine ? * J'admets que le lien entre le football et la météo est assez ténu. Mais il faut bien se détendre et rebondir sur l'actualité, non ?
  2. charles.muller

    Mai dans le monde

    Les cartes de mai sont aussi arrivées sur NASA GISS. On est à +0,34°C par rapport à 1971-2000, +0,09°C par rapport à 1996-2005. Les anomalies froides sont surtout en HS (hors Antarctique) par rapport à 1971-2000, et plus réparties par rapport à 1996-2005. Pour les anomalies chaudes, ce sont les pôles et l'Asie centrale (aussi l'Espagne et une partie de l'Afrique du Nord).
  3. Eh bien moi, je ne comprends rien à cette discussion et je me demande si janet02 s'y retrouve pour son orientation scolaire ! Soit on pense qu'une situation météo à t+1 est déterminée par les paramètres en t + les lois de la physique. Dans ce cas, il faut bien bosser sa physique (et donc ses maths). Soit on pense qu'entre t et t+1, il y a autre chose... et je voudrais bien comprendre cet "autre chose" qui semble faire débat ici. Je ne dis pas que les modèles sont parfaits, bien au contraire. Mais à part les parfaire, en améliorant les mesures, les théories et les équations, je ne saisis pas où est l'alternative. Notre "intuition", c'est quand même totalement subjectif, non ? Et l'empirisme, je veux bien à un niveau très local, là où des micro-conditions échappant au modèle créent sûrement des régularités, mais à un niveau régional, que signifie au juste cet "empirisme" ? J'aimerais juste que chacun précise ses positions au-delà des récriminations contre le coeff. de telle ou telle matière, pour bien saisir les alternatives et donc l'enjeu de la discussion. Vu de mon côté (simplement curieux de la météo et pas du tout prévi), je ne vois pas d'autre avenir à la météorologie comme discipline qu'un surcroît de physique, et donc forcément de mathématiques. L'observation est bien sûr importante, mais elle l'est surtout pour montrer les failles de la physique actuelle donc, en dernier ressort, pour s'obliger à repenser cette physique au prix de nouvelles hypothèses et de nouveaux calculs... corroborés ensuite par de nouvelles observations. La physique est certes une science expérimentale, mais cela ne signifie pas une simple succession d'expériences : plutôt extraire des lois générales d'expériences particulières, puis infirmer / confirmer ces lois par d'autres expériences. Le moment-clef de la physique comme de toute science, c'est la construction de la loi et la validation de son universalité. Sinon, on peut aussi bien dire que l'astrologie est une science expérimentale. PS : j'ajoute que la mesure (la quantification) est le point de départ nécessaire et que la précision de ces mesures manque sûrement à la météo. Mais l'amélioration des mesures, cela viendra plus probablement des satellites ou des capteurs que de notre observation personnelle et de ses cinq sens assez limités.
  4. Merci, je lirai cela avec grand plaisir.
  5. Oui, il faudrait vérifier ce chiffre : s'il s'agit d'une valeur moyenne de surface pour toute une ville, cela paraît très élevé, même avec l'éclairage et le chauffage en hiver.
  6. Ci-dessous l'abstract de l'étude cité (Block et al. 2004), qui mentionne plutôt 0,15°K pour 2W/m-2 (jusqu'à 0,5°K pour 20 W/m-2). Je pense que de Laat et Maurellis n'ont pas inventé les 0,9°K, mais je n'ai pas accès à l'intégralité de Block et al. pour voir comment ils déduisent ce chiffre. C'est probablement une valeur maximale de cette précédente étude. La circulation atmosphérique disperse bien sûr le surcroît, mais pas entièrement ou pas très loin puisque les Tn ou les Tx urbaines (selon la situation synoptique) sont couramment supérieures de 1-4°C (parfois jusqu'à 7-10 °C en nuit peu venteuse) par rapport aux Tn ou Tx rurales d'un rayon de 10-100 km alentour (ce qui tient au rayonnement IR sortant des matériaux sombres type asphalte, mais aussi probablement au flux énergétique dont parle Laat et Maurellis). Ce qui serait intéressant, c'est de modéliser la dissipation de cette énergie industrielle/urbaine/démographique, puis de comparer aux grilles du réchauffement significatif. GEOPHYSICAL RESEARCH LETTERS, VOL. 31, L12211, doi:10.1029/2004GL019852, 2004 Impacts of anthropogenic heat on regional climate patterns Alexander Block, Klaus Keuler, Eberhard Schaller Abstract - Four different simulations of a winter period in Central Europe are carried out to investigate the principle effect of anthropogenic heat release from the highly industrialized and populated Ruhrarea region (Germany) on regional climate conditions. The results reveal a permanent warming due to anthropogenic heat emissions over affected areas ranging from 0.15 K over land area with an additional 2 W m−2 anthropogenic heat flux up to 0.5 K over the Ruhrarea with additional 20 W m−2 anthropogenic heat flux. The temperature effects induced by anthropogenic heat not only depend on the amount of added heat but also on orographical factors. No significant variations are found for precipitation.
  7. Les auteurs de ce dernier travail font une remarque intéressante en conclusion, en suggérant en quelque sorte d'étendre la notion de forçage radiatif aux activités humaines de surface. Leur idée est que nous consommons (surtout en zone urbaine) des quantités importantes d'énergie (jusqu'à 70 W/m2) et que cette énergie produit forcément des perturbations dans un système physique local. Recently, Block et al. (2004) investigated the influence of ‘anthropogenic heat’ on surface temperatures, which is released by densely populated industrialized areas using a (regional) climate model. The proposed physical mechanism is that energy – which is consumed in large quantities in these areas – is a conserved quantity in any physical system, and at some point this energy will be released into the atmosphere in the form of a direct near-surface temperature (energy) perturbation. By way of illustration, the average energy consumption for Germany is 1.3Wm−2, for Japan it is 2.9Wm−2, for the Netherlands it is almost 4Wm−2, while for certain industrialized regions it can easily be 20–70 Wm−2 (IIASA, 2003; Crutzen, 2004). Temperature perturbations of up to 0.9 K were found by Block et al. (2004) for a 90-day simulation of a constant surface flux of 2 Wm−2 over Europe’s land areas, which suggest that the significant regional temperature trend enhancements discussed in this work and in Paper I could be partly explained by this process. Qu'en pensez-vous ?
  8. Un deuxième papier récent traite du même sujet (abstract ci-dessous, in Int. J. Clim.). Ces auteurs néerlandais ont développé en 2004 et étendent dans ce papier de 2006 une technique visant à évaluer l'effet sur les températures des modifications de surface liées à l'homme, mais non au GES. Ils affirment notamment l'existence à l'échelle régionale d'une corrélation entre changement de température et industrialisation que ne prévoient pas les modèles GES. Ils considèrent que l'effet urbain "classique" (urbanisation stricto sensu) ne peut expliquer les changements de températures observées en surface et basse troposphère à l'échelle régionale, mais que les modifications du sol en général (incluant déforestation, agriculture, etc.) et leurs conséquences (sur l'albédo, l'humidité, etc.) ont une influence réelle qui n'est pas prise en compte par les modèles actuels (en raison notamment de leur dimension régionale et du manque de quantification standardisée). Les auteurs concluent que la hausse 1979-2001 des températures de surface (intervalle de leur étude) s'explique par d'autres contributions significatives que les GES (dont le rôle n'est pas ici remis en question, mais relativisé). *** Evidence for influence of anthropogenic surface processes on lower tropospheric and surface temperature trends A. T. J. De Laat *, A. N. Maurellis Abstract - In de Laat and Maurellis (2004), a new framework was introduced in the form of a spatial-thresholding trend technique for analyzing the correlation between anthropogenic surface processes (e.g. changes in land use, albedo, soil moisture, groundwater levels, solar absorption by soot or energy consumption) and lower tropospheric and surface temperature trends for the period 1979-2001. In situ measured surface and satellite-measured lower tropospheric temperature trends were shown to be higher in the vicinity of industrialized regions, while such higher trends were not found in enhanced greenhouse gas (GHG) climate model simulations of temperature. It was suggested that surface and lower tropospheric temperature trends appeared to be influenced by anthropogenic non-GHG processes on the earth's surface. In this paper, we verify the robustness of the thresholding technique and confirm our earlier conclusions on the basis of an extended analysis and two additional data sets. We confirm the presence of a temperature change-industrialization correlation by analyzing the data with an additional statistical method and further confirm the absence of the above correlation in climate model simulations of enhanced GHG warming. Our findings thus provide an important test of climate model performance on regional scales. These findings suggest that over the last two decades non-GHG anthropogenic processes have also contributed significantly to surface temperature changes. We identify one process that potentially could contribute to the observed temperature patterns, although there certainly may be other processes involved. Copyright © 2006 Royal Meteorological Society.
  9. Je ne retrouve plus le post où nous parlions de l'effet urbain. Ci-dessous, une nouvelle étude américaine sur 366 stations. Les auteurs ont utilisé un indice de modification des usages du sol développé par l'US Land Cover Trends Project, qui leur permet de repérer le moment où l'environnement de la station a connu le plus de changement. Avant cette période, les stations donnent des résultats divers, également répartis en refroidissement et réchauffement. Après la phase la plus active de modification de leur environnement, 95% des stations indiquant une tendance significative donnent un réchauffement. GEOPHYSICAL RESEARCH LETTERS, VOL. 33, L11703, doi:10.1029/2006GL026358, 2006 Land use/land cover change effects on temperature trends at U.S. Climate Normals stations Robert C. Hale Kevin P. Gallo Timothy W. Owen Thomas R. Loveland Abstract - Alterations in land use/land cover (LULC) in areas near meteorological observation stations can influence the measurement of climatological variables such as temperature. Urbanization near climate stations has been the focus of considerable research attention, however conversions between non-urban LULC classes may also have an impact. In this study, trends of minimum, maximum, and average temperature at 366 U.S. Climate Normals stations are analyzed based on changes in LULC defined by the U.S. Land Cover Trends Project. Results indicate relatively few significant temperature trends before periods of greatest LULC change, and these are generally evenly divided between warming and cooling trends. In contrast, after the period of greatest LULC change was observed, 95% of the stations that exhibited significant trends (minimum, maximum, or mean temperature) displayed warming trends. Received 20 March 2006; accepted 1 May 2006; published 3 June 2006.
  10. Exact. Mais sans avoir le syndrome d'Asperger comme l'ami Atmosphère, il est vrai que l'on comprendrait un tout petit peu mieux (ou plus vite) avec des graphiques, quand c'est possible de représenter les phénomènes physiquement décrits. Sinon, on est un peu overshooté par l'uppercut des échanges en surface /emoticons/sad@2x.png 2x" width="20" height="20">
  11. Ah le bois de Païolive... J'ai pas mal de souvenir de vacances dans la très belle région des Vans (d'où viennent une partie de mes ancêtres) et j'envie sacrément ton frère ! Une bonne plongée dans les eaux du Chassezac ou de l'Ardèche avant l'arrivée des troupes de l'Internationale du Bronzage, ce doit être merveilleux. Ici (Azé, Loir-et-Cher, Vendômois), pas de cigales mais bcp de grillons, depuis les premières chaleurs de mai. Ce sont les habituelles stridulations d'adultes en début de saison, à dominante grillon champêtre (Gryllus campestris, une espèce rustique bien présente dans tout le Nord de la France, sauf Pas-de-Calais je crois). Il y a aussi quelques grillons des bois (Nemobius sylvestris). Je n'ai pour l'instant jamais observé d'espèces plus rares, mais signalées non loin de la région (grillon domestique, grillon bordelais, grillon d'Italie, grillon des marais).
  12. charles.muller

    La banquise

    Merci à tous les deux pour les références. Effectivement, le sujet à l'air complexe et ne fait pas vraiment l'unanimité pour l'instant. J'ai trouvé sur le net quelques textes d'Yves Tourré (que me signalait marco) et il semble rapporter la genèse de la NAO aux échanges air-mer, surtout dans l'Atlantique tropical et moyennes latitudes. Le workshop de Meteor insiste plutôt sur le rôle de la stratosphère. Difficile de s'y retrouver pour le moment. La NAO, c'est un peu comme le rayonnement : on trouve des corrélations "significatives" un peu partout, mais on ne sait pas encore démêler nettement l'écheveau des causes et des effets. A titre indicatif, voici l'évolution de l'indice NAO 1901-2005 (valeur annuelle en bleu, moyenne mobile sur 5 ans en noir), sur la base des données de Jim Hurrell (http://www.cgd.ucar.edu/cas/jhurrell/indices.html).
  13. charles.muller

    La banquise

    A propos de la NAO justement, j'étudie le phénomène en ce moment et je me pose des questions. On sait qu'il y a des variations annuelles parfois fortes, mais aussi des tendances longues. On sort par exemple d'une phase fortement positive 1970-1995 qui, dans l'ensemble, coïncide souvent avec des hivers doux et pluvieux sur le Nord de l'HN, des côtes Est de l'Amérique jusqu'à l'Oural. Cela explique notamment pourquoi les glaciers scandinaves progressent a contrario des autres. Une partie des hausses de Tm constatées ces trois dernières décennies est peut-être associée au phénomène, du moins sur la partie atlantique de l'HN. (Les années 1940-70 ont plutôt été dominées par des NAO négatives). Ce que je ne trouve guère dans la littérature, c'est une explication de ces variations décennales ou pluridécennales de l'indice NAO. On pourrait penser aux gaz à effet de serre, bien sûr. Une toute récente étude à paraître dans Climate Dynamics, sur laquelle je suis tombée par hasard, compare les estimations de 18 modèles de circulation générale (dans le cadre du CMIP2, un projet de comparaison des modèles) et il en resort que tous ont tendance à surestimer la NAO en général, qu'aucun n'est pour l'intant capable de simuler la forte hausse 1970-1995 en rapport avec le CO2. 13 sur 15 prévoient globalement une hausse de la NAO en rapport avec la hausse du CO2, mais avec une magnitude plus faible que celle observée et surtout assez peu cohérente d'un modèle à l'autre. Lien (pdf) de l'étude : http://www.met.rdg.ac.uk/cag/publications/2006/nao2006.pdf On en revient donc à la question. Les variations NAO sont-elles simplement les effets de l'évolution stochastique du climat, donc une part de cette fameuse variabilité chaotique défiant pour l'instant les modélisations ? Ou peut-elle être associée à un forçage radiatif et si oui lequel ? Le forçage solaire vient bien sûr à l'esprit en premier lieu, puisqu'il influe les variations thermiques équateur-pôle et que le schéma NAO dans ses grandes lignes correspond assez à certaines courbes de l'activité solaire. Mais je n'ai pour l'instant rien trouvé de précis sur le sujet.
  14. Pour ma part, je ne connais pas d'études sédimentaires aussi détaillées sur une aussi longue période. Mais cela existe peut-être. L'épisode d'eau douce s'est quand même étalé sur 800.000 ans (ce n'est pas à proprement parler une "variation rapide").
  15. En tout cas, l'affiche a été conçue pour flatter l'obsession cyclonique du public US (obsession concevable puisqu'ils subissent les cyclones, même si le bassin atlantique hypermédiatisé ne représente bon an mal an que 10-12% des cyclones annuels). On verra si la version européenne reprend le thème moins sensible chez nous ou choisit plutôt la thématique caniculaire. Et on verra surtout la qualité du docu à la sortie en salle.
  16. Il n'y a pas bcp d'indications géologiques sur l'origine et l'évolution de la ride Lomonosov. Est-on sûr qu'elle était située plus au sud au Crétacé / Paléocène ? D'après ce que disent les auteurs (ci-dessous, Moran et al.), elle proviendrait des marges continentales de Barents. Origin of the Lomonosov ridge ACEX confirmed the previously hypothesized continental origin of the Lomonosov ridge by recovering core material deeper than the Cenozoic sedimentary sequence across the regional seismic unconformity (Fig. 2). Below the late Palaeocene mudstone, ACEX recovered Upper Cretaceous (Campanian age; approx80 Myr) sands, sandstone and mudstone that are interpreted to have been of shallow marine origin because of the presence of agglutinated foraminifera. This palaeoenvironment is consistent with the theorized origin of the ridge as part of the shallow Barents continental margin. The confirmation of continental rifting also validates the ridge as a palaeoenvironment that captured a long sediment record over a time period of approx57 Myr.
  17. Comme promis, une rapide synthèse des papiers. Un mot d'abord sur l'expédition ACEX / IODP. Il s'agit d'un forage sur une crête de la ride Lomonosov (celle-ci est aussi haute que les Alpes), à 800 m de profondeur sous l'Océan Arctique et sur 450 m de sédiments, ce qui correspond à environ 60 Ma de dépôts. La carte ci-dessous donne le lieu du forage (point rouge) Trois papiers sont issus de cette expédition et analysent le passage d'un climat greenhouse à un climat icehouse au cours des 60 millions d'années passées. (Je ne sais pas comment on traduit "icehouse climate" en français : "effet glacière" ? ). Moran et al. donnent une reconstitution de l'ère Cénozoïque (0-65 Ma) en Arctique. Un point important de leur papier est que les glaces sont apparues dans cette région bien plus tôt qu'on ne le pensait, dès 45 Ma (milieu de l'Eocène) c'est-à-dire en même temps que l'Antarctique, et qu'elles étaient déjà très développées vers 14 Ma. Auparavant, on n'avait retrouvé des traces de glaces sur les marges du cercle arctique que vers 2-4 Ma, ce qui faisait un "trou" de plusieurs dizaines de millions d'années entre l'HN et l'HS. Il y a bien eu un refroidissement global et bipolaire, ce qui renforce selon les auteurs l'hypothèse d'unrôle dominant des GES (par rapport à des événements tectoniques par exemple, dont les modifications induites de circulation océanique n'auraient pas été globales). Autre découverte de Moran et al. : à la fin du Paléocène et au début de l'Eocène, les SST arctique étaient de l'ordre de 18°C en moyenne, et elles ont même grimpé jusqu'à 24°C voici 55 Ma, lors de l'épisode connu comme le maximum thermique Paléocène-Eocène (PETM). Dans un deuxième papier, Sluijs et al. se concentrent sur cet épisode du PETM. Ils ont analysé dans les sédiments la présence d'Apectodinium augustum, des dinoflagellés caractéristiques des zones sub-tropicales, de diverses autres espèces tolérantes ou non à la salinité ; ils ont aussi mesuré les isotopes C13, l'indice BIT de comparaison des faunes aquatiques de milieu marin / terrestre. L'étude confirme que les SST du PETM ont grimpé jusqu'à 23°C, avec 18°C comme valeur avant et après le pic. Cette hausse de 5 °C est comparable à celle observée dans les Tropiques en situation de réchaufement par effet de serre, mais les STT absolues sont en revanche bien supérieures aux calculs des modèles (10°C au Pôle Nord pour un CO2 à 2000 ppm, soit appremment 8 à 13°C en dessous de la réalité), avec un gradient Tropiques-Pôles nettement inférieur aux 30°C prévus. Les auteurs suggèrent que d'autres mécanismes ont amplifié la hausse : nuages stratosphériques sur l'Arctique ou cyclones hyper-actifs mixant les masses océaniques. Enfin, dans le troisième et dernier papier, Brinkhuis et al. étudient une période de 800.000 ans située autour de 49-50 Ma, au milieu de l'Eocène. Ils ont analysé comme indice principal l'évolution des fougères aquatiques du genre Azolla, connues pour croître en région tempérée dans des eaux très peu salées (maximum toléré de 1-1,6‰ en conditions naturelles, de 5‰ en sélection forcée). Or, dans cette période 800.000 ans, l'abondance des Azolla témoigne de l'absence ou quasi absence d'eau salée. La circulation actuelle (où l'eau chaude et salée remonte de l'Atlantique) n'existait donc pas et l'excès de précipitation sur l'évaporation semble même avoir créé un bassin d'eau douce qui se déversait sur les mers alentours, où les Azolla ont aussi pu prospérer. A la fin de l'épisode, l'eau arctique retrouvé de la salinité et connu une légère hausse (de 10°C à 13°C). Cette étude montre que les SST de l'Arctique étaient à 10-11°C (20°C > aujourd'hui) au cours de l'intervalle considéré, même sans apport chaud / salé de l'Atlantique. * Dans l'ensemble, comme le souligne H.M. Stoll dans un commentaire global, ces études vont permettre d'améliorer les modèles à effet de serre. Il reste pas mal de points à comprendre en détail : le CO2 seul ne suffit pas à expliquer les SST très hautes du Paléocène et de la limite Paléocène/Eocène et on doit faire d'autres hypothèses (comme de grandes quantités de méthane relâchées dans l'atmosphère). Par ailleurs, l'évolution ultérieure des GES explique mal les deux phases d'accélération du refroidissement voici env. 14 Ma et 3 Ma, que l'on retrouve dans l'HN et l'HS.
  18. Merci de vos réponses. Un point que je saisis mal (Marco) c'est comment des données reconstitutées seraient "meilleures" que des mesures (plus homogènes, sans aucun doute, mais homogènes par rapport à la programmation de modèles qui, sauf erreur, ne donnent pas toujours de bon résultats en prévision ; donc des modèles océan-atmopshère encore imparfaits, au même titre que sont imparfaites les anciennes mesures). Un autre point que je saisis mal, c'est la méthode de Huber et al. Ils n'ont pas reconstitué ("bogussé") des cyclones, mais ils ont quand même bien dû analyser les données sur les zones supposées de cyclones (pas sur les bassins en général), non ?
  19. Je vous en donnerai, promis Je suis en déplacement, mais effectivement, j'ai vu juste avant de partir que c'était la couverture du dernier Nature, avec 3 papiers sur le thème de l'Arctique au Cénozoïque.
  20. Je lis : "La température de l’air à 1800 m en hiver a augmenté de 1 à 3 °C selon les massifs au cours des 45 dernières années. Ce réchauffement est plus marqué que celui de l’ensemble du territoire français au cours du 20ième siècle (de l’ordre de 1°C). Les Alpes françaises sont très exposées au réchauffement de l’atmosphère en période hivernale." Cela change beaucoup, +1 à +3 °C à + de 1800 m en DJF ? Je pensais qu'on était assez nettement négatif sur cette période et à cette altitude. Il semble que non.
  21. PS : J'en profite aussi pour poser une question très factuelle et concrète. Je suis dans l'Océan pacifique ou atlantique au début des années 1960. Comment et où je mesure les SST, la pression de surface, les vitesses de vent à 10 mètres, les précipitations, la température à 500 hPa, etc. ? C'est-à-dire : où les outils sont-ils embarqués (avions, bateaux, sondes flottantes, ballons...) et sait-on à peu près combien y avait-il à l'époque d'instrument par bassin à un moment t ? Dans le compte-rendu d'une conférence récente sur la cyclogenèse, j'ai lu qu'un cyclone de l'Atlantique (réputé bien surveillé) avait en moyenne 7 enregistrements sur toute sa course dans les années 1950, contre un par heure dans les années 2000. Cela relativise quand même la notion de "record" individuel pour la vitesse des vents ou la pression au centre.
  22. J'ai été voir le site ERA-40, qui a l'air en effet d'une riche initiative. Si j'ai bien compris le principe de leur "ré-analyse", cela consiste à intégrer les données anciennes (assez éparses) dans les meilleurs modèles actuels de prévision à moyen terme, pour essayer de reconstituer des séries continues à peu près fiables sur un maximum de paramètres (temp., vent, pression, etc.). Ce que je n'ai pas réussi à trouver (en lecture rapide), c'est le rapport données réellement enregistrées / données reconstituées par modèle et les marges d'erreur sur la période pré-satellite (avant 1979 en gros). Y a-t-il un papier de référence ayant accompagné la publication des données et expliquant tout cela en détail ? PS : il m'agace avec son hetero le correcteur automatique
  23. Je ne sais pas trop. Je te recopie le passage où ils expliquent leur utilisation des données pour que tu te fasses une idée (et que tu nous expliques, vu ta connaissance de la base ERA) : By using the ERA-40 high-resolution wind data, we circumvent the geometricproblems faced when using historical winds. Here we introduce our estimation of hétéro as: where CD and ρ are assumed constant and equal to 0.002 and 1 kg/m3, respectively. In this expression for hétéro, we area integrate the ERA-40 wind field over each storm at 6 hour intervals. The inclusion of the area integral allows us to represent more accurately the TC wind profile with respect to PDI, which only includes the maximum sustained winds. By using ERA-40, we avoid making ad hoc and subjective adjustments to TC winds. Moreover, whereas the Emanuel [2005] study was limited to estimating PDItrends to the Atlantic and northwestern Pacific regions, here we calculate ERA-40 derived hétéro for all TCs globally. By using unadjusted wind data throughout the ERA-40 project period and including all TC activity globally, we are able to test more robustly the hypothesis that globally integrated TC dissipation is highly correlated with tropical SST. While shortcomings in the reliability of ERA-40 wind data exist, especially priorto 1979, we do not attempt to correct them here. Instead, results of this study are presented as an independent, uncorrected, and robust representation of trends in globalTC activity as a compliment to the results of previous studies discussed above. 3. Methods We use 10 meter wind speed, two meter air temperature (2MT) and SST data from ERA-40 to investigate low frequency variability in trends of TC frequency and intensity. These data are analyzed 4 times daily at a spatial resolution of 1.125 x 1.125 degrees, and we have area weighted all data. The ERA-40 project period begins in September, 1957 and ends in August, 2002, and we use the time period from 1958 to 2001 for our study to achieve a global representation of TC activity. TCs have not been ‘bogussed’ into ERA-40 or otherwise adjusted or augmented to match observations beyond the standard process of assimilation [Fiorino, 2002;Uppala, personal communication], which makes the results presented here truly independent of ‘best track’ approaches used in previous studies. Despite the lack ofbogussing, Uppala et. al. [2004] found that ERA-40 has a credible representation of aspects of TCs.
  24. Non tu as raison, et c'est moi qui me suis trompé : apparemment, les anomalies dans les rapports pression-vitesse des cyclones avant les années 1970 amènent à des corrections usuelles de 2,5 à 5 m/s. Dans son papier, Emanuel avait abaissé de plus de 12 m/s les anciens cyclones, ce qui les sous-estimait.
  25. Et hop, comme prévu, après l'AFP voici le Nouvel Obs / Sciences et Avenir qui s'y colle. Au passage, Emanuel et Mann voient leurs affectations inversées, l'article de Webster dans Science est rajeuni d'une année ("mars dernier"... 2005, et non 2006), Huber passe à la trappe... et bien sûr toujours aucune trace de Klotzbach ni de Michaels et al. Derrière la force des ouragans, la main de l’homme Alors que commence la saison 2006 de tempêtes sur l’Atlantique nord, les scientifiques apportent de nouvelles preuves de l’influence des activités humaines sur la formation des ouragans. Deux types de pollutions, les aérosols et les gaz à effet de serre, influenceraient l’intensité des tempêtes tropicales, selon de nouveaux travaux. La saison 2005, marquée par de violents ouragans comme Katrina, Dennis ou Wilma, a relancé le débat sur l’impact du réchauffement climatique sur ces tempêtes, qui dépendent notamment de la température de surface des océans. Une étude publiée en mars dernier dans Science affirmait déjà que l’augmentation de la surface des océans était la principale cause de l’intensification des ouragans depuis 35 ans (lire ci-contre). Certains suggèrent qu’un cycle climatique naturel, l’oscillation Atlantique multi-décennale (AMO), où les phases froides et chaudes de l’océan Atlantique nord alternent tous les 20 à 40 ans, est impliqué. Pour éclaircir ce point, Kerry Emanuel (Penn State University) et Michael Mann (MIT) ont comparé l’impact des différents facteurs impliqués depuis le 19ème siècle. Ils en déduisent que l’AMO n’a pas d’impact, ou peu. En revanche, les activités humaines jouent un rôle de premier plan. Les températures de surface augmentent sur l’Atlantique comme sur le reste du globe, observent les deux chercheurs. Cependant, entre 1950 et 1980 une phase de refroidissement marque l’Atlantique. Emanuel et Mann expliquent cette tendance par l’augmentation de la concentration d’aérosols dans l’atmosphère. Ces polluants ont un effet parasol en bloquant les rayons du soleil. Depuis les années 1990, avec l’amélioration des normes de pollution, les aérosols ont diminué, poursuivent Emanuel et Mann. L’effet ‘’refroidissant’’ diminue et les températures de surface augmentent, suivant la tendance globale au réchauffement. Ces travaux vont alimenter le débat théorique tandis que les côtes américaines, les Caraïbes et l’Amérique Centrale se préparent à une nouvelle saison cyclonique difficile, avec un minimum de 10 ouragans annoncés par les prévisionnistes. Cécile Dumas (01/06/06)
×
×
  • Créer...