
Météofun
Membres-
Compteur de contenus
932 -
Inscription
-
Dernière visite
Type de contenu
Profils
Forums
Calendrier
Tout ce qui a été posté par Météofun
-
Tempête tropicale GRACE
Météofun a répondu à un sujet de Météo78 dans Suivi des Phénomènes Cycloniques
Merci à vous ! Et aussi merci pour les discussions fortes intéresantes, ta superposition Alexy (c'est pas facile avec les différences de projection) ou encore l'image sat de Fourmi103. D'ailleurs au sujet des images MODIS si on veut profiter des images reprojettées, il existe cette page : http://rapidfire.sci.gsfc.nasa.gov/subsets/ mais même s'il y a de très nombreux domaines, malheureusement tout les globe n'est pas couvert, en particulier au-dessus des océans. Sinon c'est ici que l'on peut avoir toutes les info(s) (lol) concernant les abrévations utilisées par le programme de diagnostique SATREP. http://www.knmi.nl/satrep/faq.html#6 On note que c'est un programme automatique comme précisé ici : http://www.knmi.nl/satrep/faq.html#2 Ce n'est donc, je pense, pas à prendre au pied de la lettre même si y'a parfois des commentaires rajoutés après-coup. Ceci dit c'est très abouti est très performant je trouve. Pour l'intéressante discussion sur le MCS avec Damien et Simon je sais pas trop : il faudrait regarder dans le détaille. C'est vrai que le système a pris naissance au sein d'un très gros MCS particulièrement durable dans le temps, ce qui a probablement son importance. Une des raisons probables de sa longue durée c'est sa présence au coeur de la goutte froide d'altitude et du tourbillon de surface. Donc forcément les valeurs de tourbillon initiale étaient déjà importante (ce qui change de la rotation parfois observé dans les gros MCS durables dans d'autres environnements synoptiques) mais n'exclue pas un certain rôle à cette échelle. Ce n'est qu'une fois qu'il a quitté le coeur, et est donc rentré dans un environnement plus barocline qu'il a véritable explosé (on voit ça très bien avec l'outil SATREP qui permet d'associer des images sat avec des champs CEP). Je pense que le caractère barocline a été déterminant, au moins en temps que phénomène déclenchant. Mais pour observer l'aspect barotrope il faudrait étudier en détaille les axes de contraction-dilatation de tourbillon (à échelle assez large, mais aussi à l'échelle du système), ce qui n'est pas évident étant donné l'échelle que l'on regarde et que les modèles sans initialisation spécifique passent à travers. En faite je pense qu'on a tous à peu près la même vision mais qu'on a du mal à aller plus dans le détaille … A suivre, mais je ne suis pas sûr qu'avec les éléments dont on dispose on puisse vraiment aller plus loin sans partir dans des supputations hasardeuses ... -
Tempête tropicale GRACE
Météofun a répondu à un sujet de Météo78 dans Suivi des Phénomènes Cycloniques
Effectivement, joli petit bébé … Faute de temps je serai assez bref, mais je vous renvois vraiment sur les champs SATREP : http://www.satreponline.org/index.php Je vous laisse analyser les champs du CEP en les superposant avec les images sat et regarder les difficultés des modèles globaux à prendre en compte cette petite structure. Cependant en regardant dans les archives on observe bien sa mise en place. Elle correspond cependant assez bien au petit maximum d'advection de température à l'étage moyen ainsi qu'à une petite anomalie chaude. Pour la question précédente Damien, on reconnaît quand même de faibles advections de TA, mais non insignifiantes et relativement persistantes même si le modèle ne les phase pas forcément parfaitement avec le système. Ceci qui laisse quand même penser que si le mode de croissance barotrope a probablement dominé, notamment influencé par le cisaillement convectif, la croissance barocline a probablement joué un rôle non négligeable, j'y reviens un peu plus loin. Il y a quand même une différence assez significative de ce système avec les cyclones classiques qui n'a pas encore été évoquée (autre que l'échelle, la température de la mer, l'origine extratropicale du tourbillon, …), mais on le voit bien sur cette image de retraitement, issus de SATREP qui montre la température des sommets des nuages : Et on voit en particulier que les sommets des nuages de Grace sont parmis les plus chauds des différents amas convectifs présents sur la zone. C'est une caractéristique assez remarquable de ce genre de système qui montre que le coeur chaud n'est pas très présent dans les hautes les hautes couches, avec donc une tropopause assez basse par rapport à l'environnement, ce qui est tout à fait cohérent avec la présence du thalweg d'altitude. C'est une signature assez classiques des systèmes tropicaux ayant une origine extratropicale et qui est très nette ici. Pour finir, je vous propose ici une carte de ce matin (vers 6h50 UTC) des champs de vent Quickscat ( http://manati.orbit....a.gov/quikscat/ ) : Et ici une image sat retravaillée à la même heure (7h UTC) où l'on distingue très bien les amas convectifs ( http://oiswww.eumets...UROPE/index.htm ) : et là, une correspondance entre les deux (voir les lettres sur-apposées) : On note que Grace est très loin d'être le seul système convectif à générer des vents tempétueux sur la zone : les système convectifs très venteux sont même fréquents … Et le champs de vent atténue d'autant le caractère « spectaculaire » des images sat qu'on s'aperçoit que ce système tropical montre une dissymétrie remarquable dans ces vents de basses couches, ce qui laissent franchement à réfléchir sur son mode de formation et relative un peu son classement par le NHC (même si les asymétries sont loin d'être rare dans les systèmes tropicaux, là c'est quand même particulièrement extrême et montre la difficulté à classer ce genre de système hybride). Je n'ai pas le temps de chercher davantage, mais on note quand même que parmi tous les systèmes convectifs venteux qui affectent cette large région, Grace est un de ceux qui ont probablement été le plus affecté par les légers forçages d'altitude, tent dans le positionnement que la durée (ce qui montre le rôle probable joué par la baroclinie), et aussi un des plus proches de la zone centrale du tourbillon cyclonique présent à plus grande échelle avec la convergence qui y est associé. Il faudrait affiner davantage mais je donne là, pour ceux que ça intéresse, quelques pistes de réflexions pour aller fouiner plus loin. -
A la recherche de deux livres sur la meteo
Météofun a répondu à un sujet dans Presse, livres, médias et cinéma
Bha mince ... Si un jour j'avais su qu'on pouvait spéculer sur les bouquins de météo, j'en aurais acheté un wagon de celui-là pour les revendre maintenant ! ! En attendant, je revends le mien 150€ : si y'en a qui sont intéressé, contactez-moi par MP ! :lol: -
Orientation post-bac concernant la météo
Météofun a répondu à un sujet de lyonnais69610 dans Questions - réponses sur la météo
Effectivement si tu n’as pas ton concours via les CPGE, ton choix est très bien. C’est du moins ce que je pense après avoir suivis ce master sur Paris (j’ai fini le M2 l’année dernière). Via ce Master, tu peux faire une petite préparation pour tenter le concours spécial IENM (tu rentres directement en seconde année de l’ENM retrouver ceux qui sont passé par le concours CPGE). Je ne sais pas pour le concours CPGE, mais celui-là tu ne peux effectivement le passer que 3 fois dans ta vie. L’année dernière il n’y avait que 2 places et l’année d’avant 3 (plus à chaque fois une place sans affectation chez MF derrière). Mais, même en cas d’échec (honnêtement, c’est le plus probable, il ne faut pas se voiler la face …), la formation à ce concours, si elle n’est pas particulièrement dure (le niveau du concours est élevé et nécessite beaucoup de rapidité, mais la difficulté n’est pas très énorme au regard d’autres matières) permet d’acquérir des automatismes tout à fait utiles pour la seconde année et la suite. Si tu as des questions sur ce master, n’hésite pas à me contacter par MP, où même sur le forum si tu penses que tes questions peuvent en intéresser d’autres. Bon courage pour ton année de prépa ! -
Suivi de l'englacement au pôle sud
Météofun a répondu à un sujet de northern lights dans Evolution du climat
Pardon Yann… Je n'avais aucune intention de paraître sec. Si c'est le cas, je m'en excuse. C'est vrai que je suis parfois habitué à faire des messages un peut plus (trop ?) long et donc usuellement moins direct … Je ne faisais allusion à personne en particulier, mais simplement en général sur ce thème qui reviens finalement assez souvent dans les discussions. Ben déjà, il est bien précisé dans la dernière phrase du résumé de cet article : http://www.agu.org/p...4JC002403.shtml« The long-term trend in the observed sea ice area does not appear to be related to the trend in the SAM index. » Donc cette étude n'arrive pas à statuer sur des corrélations entre les deux séries de données au regard des seuils de significativité statistique. Et l'autre article que j'avais signalé dans mon message précédent regardait clairement la composante non-annulaire du signal. De plus, dans les oscillations du SAM, il a une composante principale annulaire, mais il y a aussi des réponses non strictement zonales au SAM. Par exemple, dans les phases positives, il y a notamment la présence d'un minimum de pression dans les zones Amundsen-Ross. De façon similaire (et même beaucoup plus extrême), l'Oscillation Arctique dans l'hémisphère nord n'est pas un mode annulaire parfait, loin de là même … En effet, les oscillations de l'AO sont très liées avec celles de la NAO et celles de la PNA (Pacific North American) Oscillation qui génèrent des anomalies méridiennes marquées sur ce mode théoriquement très zonal. Le découplage des phénomènes physique par le biais de ces indices simpliste n'est pas du tout évident même s'ils arrivent quand même souvent à résumer efficacement les principaux modes de variabilité. Il faut toutefois faire attentions aux conclusions que l'on en tire et aux causes et implications physiques que l'on souhaite mettre en évidence en se basant sur ces modes (initialement simplement statistiques). Je vais terminer en mettant 2 images assez parlantes issues de l'article. C'est quelque chose que je ne fais ici que de façon exceptionnelle car c'est théoriquement interdit vue que l'article n'est pas en libre accès et que j'ai pas envie de me faire taper sur les doigts … Mais on va dire que la culture et les discussions scientifiques que l'on a sur ce forum peuvent le justifier dans ce cas précis … Voici la première image que je vous montre : on notera que le seuil de significativité à 95% de la corrélation est fixé à 0.4 … Ce qui en dit long sur la faible significativité … Et voici une table de corrélation en en fonction des régions avec la carte pour localiser les différentes zones : -
Suivi de l'englacement au pôle sud
Météofun a répondu à un sujet de northern lights dans Evolution du climat
C'est bien parce que si se référer uniquement aux anomalies de température sans considérer les anomalies de vent pour étudier les anomalies de glace amène à des raisonnements tronqués, l'inverse est aussi vrai … Et en particulier il semble bien que les oscillations du SAM n'apportent pas entière satisfaction pour expliquer la tendance du comportement de la banquise Antarctique : http://www.agu.org/p...4JC002403.shtml Et notament il y a de fortes différences de tendance en fonction des régions. Le SAM, comme son nom l'indique, est une oscillation annulaire (c'est-à-dire en anneau autour de la Terre, on pourrait donc aussi dire zonale : c'est une oscillation du comportement zonal de la circulation atmosphérique -c'est vrai que j'avais pas très bien expliqué ça tout à l'heure-). De ce fait, pour étudier plus en détail la variabilité et les tendances, on fait plutôt appel à la circulation non-annulaire, c'est-à-dire essentiellement les oscillations méridiennes. http://www.agu.org/p...9GL037524.shtml -
Et même ‘taf95’ pour aller plus loin et avoir une idée des raisons physiques (conditions thermodynamiques, dynamiques et/ou radiatives), on ne peut pas se contenter uniquement des conditions synoptiques. Je ne sais pas ce que tu disposes comme données, mais un thermogramme est beaucoup trop limité : se serait beaucoup mieux (et à la limite avant même les conditions synoptiques) d’avoir plus d’info sur les conditions locales (humidité et vent notamment, mais aussi éventuellement couverture nuageuse et sa hauteur, brouillard éventuel, …).
-
Suivi de l'englacement au pôle sud
Météofun a répondu à un sujet de northern lights dans Evolution du climat
Effectivement Yann … car c’est en fait tout l’inverse qui est observé depuis les dernières décennies. En effet, à l’image de l’oscillation arctique présente dans l’hémisphère nord, il y a aussi une oscillation antarctique qui prend souvent le nom de SAM (Southern hemisphere Annular Mode) ou AAO (AntArctic Oscillation). Or ces dernières décennies la tendance est plutôt à un renforcement de la phase positive (même si c’est peut-être un peu moins vrai ces dix dernières années), c'est-à-dire un renforcement de la circulation d’ouest.Une des raisons de cette évolution serait lié au trou dans la couche d’ozone et son impacte sur le profil de température, donc de la dynamique. Pour cela je vous envoie sur 2 petites présentations que je trouve assez parlantes : http://www.esrl.noaa.gov/research/themes/o3/pdf/OzoneClimateInteractions1.pdf http://www.esrl.noaa.gov/research/themes/o3/pdf/OzoneClimateInteractions2.pdf Les études sur le lien entre ces variations du SAM et d’extension des glaces autour de l’Antarctique (comme évoqué dans la seconde présentation) sont l’objet d’une recherche encore assez ouverte. En effet certaines, au-delà du SAM, préfèrent étudier justement la variabilité non-annulaire pour s’appuyer sur la variabilité régionale des anomalies de glace. C’est à suivre dans le futur. -
Pour ceux que ça interesse je reviens sur certains points : Pas forcément : certaines advection froide de basse couche se produisent avec un vent marqué : c’est parfois le cas dans certains cas de flux d’est continentaux (mais effectivement, dans ce cas, sauf temporairement la nuit, l’inversion n’est pas situé dès le niveau du sol mais un peu plus haut). De même les inversions présentent avec une chape de nuage bas sont monnaie courante, même si leur mise en place est un peut différente de ce qu’on peut connaître avec un ciel clair et que là aussi l’inversion n’est pas au niveau du sol mais juste au sommet de la couche de nuage. Par une inversion en ciel clair on peut par exemple voir se former le brouillard d’abord près du sol : à partir de là la température ne remonte pas encore mais en tout cas elle arrête de descendre, essentiellement du fait que le brouillard est à une température très proche de l’air au niveau du sol et envoie un flux infra-rouge vers le sol quasiment égale à celui qui le quitte. L’apport d’énergie latente par la condensation n’est pas complètement négligeable dans l’affaire mais agit au second ordre et de plus il ne fait que ralentir le refroidissement et non réchauffer l’atmosphère car si la condensation se poursuit c’est bien que le refroidissement s’accentue.Etant donné que le refroidissement par le bas c’est arrêté avec l’arrivé du brouillard l’air se mélange un peu par turbulence. Dans ce cas, près du sol, la température peut avoir tendance à remonter, tandis que plus haut elle s’abaisse, et ceci pour deux raison : d’une part parce que initialement une partie de l’air froid près du sol monte en altitude tandis que l’air chaud situé plus haut se retrouve plus bas et en plus par les mouvements adiabatiques l’air qui s’élève se refroidie dans dis que l’air qui descend se réchauffe. Dans la pratique on observe plus un mélange (donc une homogénéisation des températures) plus ou moins rapide avec l’intensité de la turbulence. Quand je parle d’homogénéisation c’est en tenant compte du fait que la turbulence tend à « neutraliser » le profil thermique, c’est-à-dire que progressivement on a une température qui décroit du sol jusqu’à l’inversion (la couche de nuage est située juste sous celle-ci). Jusqu’à présent j’ai parlé de turbulence : elle est nécessaire pour casser la stabilité de l’inversion initiale présente dans les très basses couches qui rend l’atmosphère très stable et qui n’a pas du tout envie de se mélanger. Il y a toujours un petit peu de turbulence (mais très faible par calme plat et air très stable), mais c’est bien sur beaucoup plus efficace s’il y a un peu de vent. Une fois le profil homogénéisé, le réchauffement près du sol est parfois important par rapport à la période avant brouillard où l’inversion débutait dès le niveau du sol. Du coup, souvent, l’échauffement est suffisamment important pour que le brouillard s’évapore au niveau du sol et évolue en stratus très bas. Il faut parfois l’aide du faible réchauffement diurne avec la petite part de rayonnement qui arrive encore à atteindre le sol, et d’autres fois ce n’est pas suffisant et on reste dans le brouillard, très joli l’hiver lorsqu’il est givrant ! Et autre chose, moins le profil est stable plus turbulence devient marquée : donc pour casser l’inversion l’évolution est lente au début et s’accélère vers la fin. Une fois que le brouillard est formé, le refroidissement par perte radiative se fait par le haut de la couche de brouillard puisque c’est elle qui émet vers l’espace beaucoup de rayonnement sans en recevoir trop en retour. Du coup le refroidissement à lieu par le haut, ce qui accélère le brassage par petites boucles convectives et/ou turbulence dans la couche situé entre le sol et cette inversion. Ce qui est important dans l’affaire de l’effet de Serre avec l’humidité contenue dans la colonne d’air, ce n’est pas l’humidité présente dans les premiers mètres et même dizaines de mètres glaciaux (là c’est vrai qu’elle est nécessairement très faible et ça ne change justement quasiment rien), mais c’est plutôt le contenu en humidité de l’air plus doux situé au-dessus de l’inversion. Les variations d’humidité à ce niveau ont beaucoup plus d’importance, particulièrement pour les zones situées à basse altitude. Les flux de chaleur en provenance du sol sont très faibles, surtout à partir du moment où on atteint une certaine durée et que les sols ont pu se refroidir dans les premiers décimètres, voire mètres. Mais c’est vrai qu’ils existent et sont parfois bien visibles en faisant fondre par le sol la neige très isolante tandis qu’il fait très froid au-dessus. Mais c’est plus sur le raisonnement scientifique qu’il y a un problème.Même lorsque la température s’est stabilisée à un point très bas, la surface du sol continue à être plus froide que l’air suite à la différence entre le rayonnement émis et le rayonnement reçu, et donc à refroidir l’air, avec ou sans flux de chaleur en provenance du sol. Alors évidement s’il n’y avait pas ces flux de chaleur la température de surface serait peut-être encore plus froide (il faudrait quand même regarder les ordres de grandeur et voir si c’est réellement significatif à ce niveau). Mais il n’empêche que le sol continue à refroidir l’air en dépit de ces flux de chaleur du sol. Si la température s’est stabilisé c’est que l’air n’est jamais complètement statique et que la micro-turbulence permet à l’air de se renouveler lentement mais c’est suffisamment efficace pour stabiliser la température. Alors il y a certaines situation où il faut un différentiel énorme en température pour que se soit efficace (et d’autant plus que la stabilité est très importante) avec donc un niveau de stabilité très bas. La raison directe de l’arrêt de la baisse des températures est à chercher de ce côté.
-
Même climat entre la latitude et l'altitude ?
Météofun a répondu à un sujet de Neigement dans Questions - réponses sur la météo
Ca m'a toujours laissé assez dubitatif ce genre de correspondance … Exemple tout bête : le climat de Montréal et de Bordeaux n'ont rien à voire alors que ces deux villes sont situées à des latitudes similaires… Alors trouver une correspondance entre altitude et latitude est un peu hasardeux … Et puis on peut trouver une correspondance pour la température, mais ça n'aura rien à voir pour les précipitations ou l'ensoleillement par exemple … Si on veut faire des études climatiques, mieux vaut directement travailler sur les données et faire les conclusions qui s'imposent (notamment en biologie et environnement par exemple) sans recourir à ce genre d'approche très aléatoire … Ce qui n'empêche pas, par exemple puisque vous en avez déjà parlé, de faire des comparaisons sur les différence d'étagement de la végétation en regardant quels sont les paramètres qui ont le plus d'influence. -
Effectivement il n’y pas de formulation simple de la Td car il faut passer par des formulations empiriques … Il y en a de plusieurs sortes qui donnent parfois des écartes de quelques dixièmes en fonction de leur qualité. Heu … Sinon Julien j’ai bien trouvé avec une T de 20.7 °Cet une HR de 57% une Td de 11.88 °C sur le calculateur du lien donné par Cirus, ce qui est effectivement la valeur correcte …
-
Suivi de l'englacement au pôle nord
Météofun a répondu à un sujet de sirius dans Evolution du climat
Pour avoir quelques infos sur la croissance de la glace j'ai trouvé ce document qui peut être intéressant : http://iahs.info/red...a054/054005.pdf Sur ce document on appréciera les unités dans le système international … (sic) mais il a l'avantage d'être techniquement abordable. Et pour ceux qui veulent aller plus loin il y a sur le Net pas mal d'articles sur les modèles thermo-dynamiques plus complexes, mais ça devient justement beaucoup plus compliqué. Sinon, merci fsd8tr pour ces infos sur les bouées ! Super intéressant ! Je pense que les 2 décrochements de Mars et Juillet dans l'épaisseur de la Banquise peuvent (à vérifier quand même) venir de zone de convergence qui oblige des plaques à se chevaucher (c'est d'ailleurs tout à fait compatible avec la zone où se trouve la bouée qui correspond à celle de l'accumulation de glace ancienne, ou légèrement en bordure de cette zone). Pour la petite couche d'eau chaude juste sous la glace c'est vrai que c'est bizarre … Peut-être un phoque qui s'est frotté sur le capteur ? ? Plus sérieusement je ne sais pas mais c'est vrai que c'est très peu épais comme zone, et de surcroit, encadré par deux zones plus froide, et pourtant présent avec un mois d'écart alors que 30 cm en dessous la température n'a pas bougé d'un pouce ! ! Vers -280 cm on voit bien un problème instrumental puisque les points de chaque date sont décalés, or ici il n'y a que deux profils concernés et en plus sur le dernier s'est remis comme initialement … Donc comme toi, je suis assez surpris : y'en a qui ont des avis ? -
Suivi de l'englacement au pôle nord
Météofun a répondu à un sujet de sirius dans Evolution du climat
Oui c'est exagéré de dire que les conditions ont été glaciaires cet été. En revanche, on voit bien à partir des réanalyses NCEP (disponibles ici : http://www.cdc.noaa....es/printpage.pl ) que les températures de ces deux derniers étés, et 2009 en particulier, ont été nettement plus fraîches que ceux des années précédent comme en témoigne ce petit montage :http://images.meteoc...arctic_ltj5.jpg Evidemment les anomalies thermiques restent en moyenne légèrement positives en moyenne par rapport à la moyenne 68-96, il faut comparer les dernières années entre elles. On peut lire aussi ce petit résumé qui anticipe la fin de saison : http://nsidc.org/arcticseaicenews/ En revanche, pour la banquise, les anomalies thermiques sont loin de tout faire : les anomalies de flux sur le transport et l'éventuelle dislocation de la banquise sont aussi très importantes. De ce côté l'année 2007 avait été très particulière. -
Suivi de l'englacement au pôle nord
Météofun a répondu à un sujet de sirius dans Evolution du climat
Certes, mais on arrive quand même à avoir une estimation de l'épaisseur des glaces. Je ne connais pas exactement la technique utilisée dans ce cas précis (technique d'observation et du traitement des données et part de modélisation), il faudrait que je cherche. Mais même si on a des informations parcellaires on arrive à obtenir des états initiaux corrects en alliant observations et modélisation via une assimilation de données ad-hoc. C'est le principe utilisé en météo : les états initiaux ne partent pas ex-nihilo (là ce serait complètement foireux) mais d'une prévision de base qui proviens de l'état initial précédent (c'est schématique car maintenant les techniques d'assimilation de données fonctionne en temps continue ou presque). Sinon en météo on aurait le même problème au-dessus des océans de l'hémisphère sud par exemple (même si les observations satellites y remédient de plus en plus). Ainsi même avec des observations spatio-temporellement très limité on arrive à avoir un état initial hautement perfectible mais qui tient à peu près la route. C'est vrai que ça fait beaucoup comme évasion de glace … C'est d'ailleurs assez parlant sur l'animation … Mais en même temps on voit que le taux de renouvellement de la glace est important vue la part de glace jeune, cette part ne faisant d'ailleurs qu'augmenter … Enfin, il y a toujours eu beaucoup de variabilité interannuelle à ce niveau : http://www.nasa.gov/...okfig4_full.jpg http://www.nasa.gov/...erfig2_full.jpg Et en plus en terme de volume sur la glace ancienne si il y a eu une baisse un peu plus importante après l'été 2007, il n'y a pas de rupture à ce niveau par rapport aux deux années précédentes comme en témoigne ce graph (qui a d'ailleurs déjà été montré) : http://www.nasa.gov/...090707-full.jpg Il faut bien faire attention à regarder toutes les données avant de faire des raccourcis un peu rapide … -
Graph weatehr vent
Météofun a répondu à un sujet de BenWS2305 dans Questions - réponses sur la météo
Sans certitude absolue, mais on dirait quand même bien que c'est le pourcentage d'occurence pour chaque secteur de vent ... Pas très sympa de leur part de ne rien indiquer du tout ... -
Statistiques et anomalies climatiques globales
Météofun a répondu à un sujet de Sam82 dans Evolution du climat
Merci (avec beaucoup de retard !) pour ton retour. Effectivement, j’ai regardé un peu et en fait on n’a pas du tout les mêmes données ! Je ne sais pas où j’avais trouvé les miennes (sur un site de la NOAA, j’en suis certain, mais je ne sais plus lequel exactement), mais effectivement ça a visiblement l’air d’avoir son importance comme en témoigne ce schéma … Ce qui confirme bien l’importance d’avoir un nombre de données suffisant pour établir des statistiques fiables. Effectivement, merci pour ces précisions. Les tests de Spearman et de Kendall sont plus choisis, probablement parce qu’ils sont non paramétrique et que le test de Student suppose une distribution normale (Gaussienne). Ces raisons paraissent logiques. D’ailleurs quand on dit « plus utilisé » c’est bien par rapport au test de régression linéaire, parce que sinon, les études récentes vont généralement nettement plus loin avec des technique beaucoup plus complexes, mais là on sort de ton sujet sur les techniques de base … -
Suivi de l'englacement au pôle nord
Météofun a répondu à un sujet de sirius dans Evolution du climat
Contrairement à ce qu'on pourrait penser au premier abord (et de ce qui a déjà été dit dans ce fil), le fait que les prévisions du SEARCH soient effectivement assez à coté de la plaque ne veut absolument pas dire que les modèles de glace des modèles de climats soient aussi faux que ça. Il faut déjà réfléchir aux raisons de cet échec, et en premier lieu les scientifiques ne vont pas manquer de faire retourner les modèles dynamiques (c'est moins évident pour ceux qui sont basés sur les statistiques, ça dépend de leur construction) en les forçant avec les conditions atmosphériques réellement observées au cours de cet été. Là on pourra réellement savoir ce valent intrinsèquement les modèles de glace et analyser, avec d'autres études, les points positifs et négatifs de chacun d'entre eux pour ensuite tenter d'apporter des améliorations. On n'arrête pas de le répéter, mais la Recherche Scientifique c'est pas la lecture brute d'un graphique publié en communication sur une page web … De plus, le fait qu'ils fassent des erreurs sur une année en particulier ne veut absolument pas dire qu'ils soient complètement à la rue sur le long terme. Ensuite, je voulais revenir sur le graph apporté par fsd8tr : c'est intéressant et sujet n'est pas assez abordé de façon chiffré sur ce forum. Effectivement, si on regarde les variations de l'extent et de l'area c'est parce qu'elles sont facilement observable par les satellites. Le problème, c'est que la santé de la banquise ne dépend pas forcément spécialement de sa surface, mais surtout de son volume. (C'est comme on observe la variabilité de l'Effet de Serre avec l'observation des températures à 2m sur le globe plutôt que la chaleur contenue dans les océans qui représente la quasi-totalité de l'énergie interne du système climatique). Je vous donne quelques liens si vous souhaitez approfondir un peu le sujet : http://www.nasa.gov/...090707-full.jpg http://www.nasa.gov/...090707-full.jpg http://www.nasa.gov/...okfig4_full.jpg http://www.nasa.gov/...ic_thinice.html http://www.nasa.gov/...t-20090707.html http://www.agu.org/p...9JC005312.shtml -
Je fais remonter se topic pour vous rappeler l'existence du puissant outil qu'est SATREP qui est régulièrement amélioré et complété : http://satreponline.org/index.php J'en profite aussi pour vous rappeler que vous pouvez profiter de très belles images sur le site Eumetsat avec notamment des champs de Nowcasting très intéressants disponibles dans la rubrique « Visualised Products » et « RGB composites », la partie « Near-Real time imagery » présentant des images plus classiques : http://www.eumetsat..../index.htm?l=en Et je vous donne aussi se lien : http://www-angler.la...&domain=weuroge Malheureusement les images ne sont pas en temps réel (décalage d'environ une journée) mais c'est très intéressant pour revoir a postériori un événement. Malheureusement il y a aussi parfois quelques trous dans l'historique, mais ça reste un super outil avec des champs dérivé et parfois très pointus.
-
Le comblement du tourbillon cyclonique avec l'altitude est du à la formidable machine thermique dégagée par un cyclone et donc la très forte anomalie chaude de la zone cyclonique qui augmente les épaisseurs dans le cyclone, et, en conséquence, affaibli donc progressivement la basse pression de surface à mesure qu'on monte en altitude. Dans les basses pressions tempérées on a un phénomène similaire (mais évidement une organisation très différente) avec le décalage du maximum de tourbillon/minimum de pression en amont du flux avec l'altitude : dans un flux d'ouest le tourbillon de basse couche est souvent associé à une anomalie chaude : il diminue dans les couches moyenne par contre il se décale vers l'ouest et reprend de la vigueur en altitude (correspond à l'anomalie de tropo) avec l'anomalie froide d'altitude. Les environnements cycloniques aiment bien des zones anticycloniques en altitude car elles correspondent généralement à des températures plutôt élevées au sein de la troposphère et permettent de plus, lors de leur création, une divergence de grande échelle qui permet l'évacuation de la colonne ascendante cyclonique. Généralement les cyclones n'ont pas d'anomalie de tropo comme on l'entend dans nos systèmes tempérés, même si y'a parfois des exceptions. Et en particulier pour les systèmes, plutôt de fin de saison, qui naissent très l'Est et un peu plus au Nord dans l'Atlantique, avec souvent une origine une goutte froide d'altitude venant des régions tempérées qui initie la convection.
-
Prévisions régions Méditerranéennes
Météofun a répondu à un sujet de jepeto86 dans Prévisions à court et moyen terme
Ben ça dépend de quel WRF tu parles Yann : C’est vrai que celui de Météociel suit bien le GFS 0.5° : Mais ceux de LAMMA suivent plutôt l’option que j’entrevois, qu’ils soient initialisés par GFS : Ou le CEP : (bien qu’avec le CEP c’est un peu plus ambigu …). Et COSMO est donc aussi du même acabit, mais un peu plus sur nord de l’Ile. Et si on en crois Dudu AROME aussi. Je pense que ça peut dépendre des options choisi dans les paramétrisations des modèles mais aussi des conditions aux limites. En effet, sur le WRF de Météociel la Corse, et à fortiori sa côte Est, est en limite du domaine de calcul. Or à la limite du domaine on impose les champs de GFS 0.5° … D’où le problème … -
Prévisions régions Méditerranéennes
Météofun a répondu à un sujet de jepeto86 dans Prévisions à court et moyen terme
Je suis assez dubitatif sur ce comportement de GFS. Ce genre de noyau hyper-réactif n'est pas très réaliste en tant que tel. Le problème c'est qu'ils sont une grande conséquence pour la suite comme en témoigne cette carte : On voit bien là la conséquence de ce noyau qui fait réagir les champs de vent à l'échelle régional avec une très forte convergence en mer et qui décale la langue de flux d'humidité aussi large des côtes orientales de la Corse avec une advection d'air plus frais et sec par l'ouest. Compte tenu de la situation (et en particulier de l'advection d'humidité particulièrement marquée dans les basses couche et d'un forçage d'altitude conséquent sur une échelle finalement pas si petite que ça) je pense que ce n'est pas très réaliste : le tourbillon principal au sud-ouest de la Corse est bien puissant et le relief des îles est mal pris en compte par les modèles globaux comme GFS. Ce relief a plus de chance d'être plus efficace pour modifier les flux à méso-échelle que les éventuels MCS qui se créeraient éventuellement sur la Sardaigne (c'est pas leur existance que je remet en cause, qui est tout à fait possible, sans être garentie, c'est plutôt les conséquence de ces système sur la dynamique à méso-échelle). On peut raisonnablement tabler sur un renforcement de la convergence le long des côtes et du relief oriental de la Corse avec les conséquences que cela impliquent au niveau des précipitations vue l'alimentation d'humidité très intense mais effectivement pas très durable. Effectivement on a un forçage de courte longueur d'onde unique et le déplacement de la convergence sous-synoptique lié au tourbillon principal qui devraient empêcher le maintient de l'alimentation des systèmes pluvio-convectifs organisés en l'absence de forçage d'altitude une fois ce dernier évacué. D'ailleurs on peut noter que les modèles à maille fine sont bien plus partagés que cette tendence de GFS … Enfin, bon, ça reste à suivre … -
Statistiques et anomalies climatiques globales
Météofun a répondu à un sujet de Sam82 dans Evolution du climat
Je n'avais pas encore pris le temps de lire tout les messages, mais félicitation Christian pour cet exposé sur plusieurs messages et les exemples d'application ! Vraiment Bravo ! Je me permets de revenir sur quelques points au grès des messages des uns et des autres. Des éléments de biblio que tu sites, je n'ai que le cours N°15, donc je ne sais pas ce qu'ils racontent dans les 2 autres références que tu donnes. Et d'autre part les stats c'est franchement pas mon fort … Mais je voulais quand même revenir sur ce point. Les tests de Spearman et de Kendall sont des tests qui s'appuient sur les ordres de classement et permettent donc de d'étudier la monotonie d'une évolution, même si elle est gouvernée par une loi très complexe. Mais lorsqu'on étudie une loi qu'on suppose linéaire (et donc qu'on calcul un coefficient de corrélation), on peut regarder la pertinence de ce coefficient à l'aide d'un test de Student. Exactement comme tu l'expliques par la suite à propo des coefficients de corrélation linéaire : c'est exactement le même principe.L'hypothèse H0 est « le coefficient de corrélation est nul ». Il existe des tables qui donnent en fonction du nu (nu=N-2 avec N le nombre d'évènements indépendants) la valeur de r à partir de laquelle on peut rejeter H0, et donc dire qu'il y a bien un coefficient de corrélation. Dans ce cas, le pourcentage de variance expliqué par cette relation linéaire peut être estimé par Q = r²*100 avec Q en %. Voici un exemple de table : http://www.fao.org/d...1F/X6831f26.htm Si on prend un exemple, j'ai pris les moyennes sur 12 ans pour 1997-2008. On trouve : r = 0.622 pour 12 événements. On a donc nu=12-2=10. Si on regarde la table, on voit que pour nu=10 , on peut rejeter l'absence de corrélation à 95% si r est supérieur 0.5760. C'est bien le cas, donc, même pour seulement 12 ans on peut refuser l'hypothèse de l'absence de corrélation à 95%. Et même, comme Q=0.622²*100=39%, on peut donc dire que 39% de la variance est expliqué par ce coefficient de corrélation. C'est faible mais statistiquement significatif. En fait ce test est plus sévère que les deux autres (il rejette plus facilement l'hypothèse nulle) car il tient compte des écarts quadratiques et non uniquement des classements. Or, ici, la variance est assez faible. On avait déjà évoqué la significativité d'une courbe de tendance dans cette discussion : /index.php?showtopic=44214'>http://forums.infocl...showtopic=44214 C'est très bizarre… avec des données mensuelles de la PDO et les anomalies mensuelles de température « détrendées » j'obtenais un coefficient de corrélation nettement plus important. Les résultats sont visibles ici : /index.php?showtopic=40167&view=findpost&p=959031'>http://forums.infocl...ndpost&p=959031Ce qui était surtout remarquable c'est le décalage de phase qui s'amplifiait au fur et à mesure des décennies : phénomène de fond et/ou en partie à cause du fait que le forçage anthropique n'est pas linéaire dans le temps et/ou que sais-je encore ? J'ai essayé de comprendre un peu tes résultats pour la PDO, mais j'avoue que j'ai un peu de mal … Certes, si je reprends mes données et que j'enlève la détrend (donc que je laisse les données brutes), le coefficient de corrélation est à 0.19 contre 0.28 en enlevant la tendance linéaire sur les températures. C'est une différence assez significative mais ça ne fait pas tout … Par contre, après vérification mes données de PDO sont légèrement différentes des tiennes. Pas grand-chose, comme en témoigne ce graphique avec les données annuelles calculée à partir des données mensuelles (en fait, j'ai appliqué un coefficient de 3.5 aux données que j'ai utilisées pour que ce soit plus clair sur le graph, mais ça ne change absolument rien pour les corrélations) : En revanche, ça change absolument tout sur les corrélations : avec les données de températures brutes, j'obtiens des coefficients de corrélation d'environ 0.02 (conforme à tes résultats) avec tes données contre 0.14 avec les miennes ! La différence est vraiment énorme. Si on compare avec les anomalies de température détrendées les coefficients de corrélation passent à environ 0.14 avec tes données de PDO et 0.40 avec les miennes. Je ne te cache pas que ces différences sont vraiment impressionnantes, mais que, compte tenus de ce que l'on sait, j'aurai tendance à privilégier les corrélations issues de mes données. Ceci dit c'est quelque chose à creuser sérieusement … notamment en travaillant avec des moyennes glissantes sur quelques années par exemple. J'essaierai de faire ça prochainement si j'ai un peu de temps. Je pense que plus qu'un problème d'homogénéisation c'est bien un problème du modèle en lui-même : on montre bien les limites de ce genre de régression linéaire (même multiples). Et ce d'autant plus quand on remarque les différences que l'on obtiens entre les données de PDO … Là ça montre très clairement que les statistiques sont parfois très éloignées des éléments physiques qui gouvernent le climat (sans compter toujours ce souci avec les données de PDO) … Cette durée ne dépend pas du cycle solaire en lui-même mais de la réactivité du système climatique à ce forçage. Petite remarque annexe (mais qui est fondamentale) : c'est différent de la PDO qui n'est pas un forçage mais un régime d'oscillations de ce même système qui dépend de rétroactions produites par cette variabilité interne. Il n'y a pas de certitudes que les rétroactions soient perturbées avec des forçages (anthropique, par exemple). Par exemple, quid de l'augmentation du déphasage à mesure qu'on se rapproche de la période actuelle entre PDO et anomalies de température détrendé que j'ai montré dans le post que j'ai mis en lien un peu plus haut ? Si toute l'explication avec la moyenne glissante sur 30 ans est très intéressante, en revanche, je trouve que les conclusions que tu en tires flirtent avec la limite … En effet, on peut tout à fait étudier des variations de température sur des échelles de temps plus courtes. Bien entendu, il est effectivement particulièrement ridicule et stupide de dire que le GIEC s'est trompé et que le climat va partir sur une pente descendante sur le long terme, mais en revanche, il est indéniable qu'il ya un petit tassement sur les anomalies de températures et une forte diminution de l'augmentation ces dernières années voire, un semblant de stabilité. Dans ce cas il faut raisonner sur les anomalies mensuelles, mais c'est quelque chose de tout à fait significatif et trouve sa réponse tant dans la variabilité interne système climatique que, probablement aussi ces toutes dernières années et mois, dans une baisse de l'activité solaire. C'est un fait indéniable qu'on ne peut cacher mais dont beaucoup qui le mettent en valeur mélangent allégrement les échelles temporelles. Ce qui va perturber le système climatique sur le long terme se sont les forçages dont les réponses sont variables en fonction des rétroactions, et non les oscillations internes qui, cependant, influent sur ces rétroactions tout en dépendant d'elles : elles ne sont donc pas tout à fait neutres, c'est ce qui fait tout le sel et la complexité du système climatique.Je disais donc que ce qui va influencer le système climatique se sont les forçages : anthropique, solaire, volcanique, … Or, on sait que le forçage solaire est bien inférieur au forçage anthropique sur le long terme, même s'il peut temporairement jouer un rôle sur le court terme, éventuellement moyen terme. Donc effectivement, ces cycles ne remettent pas en cause de façon très importante la tendance de fond et d'un point de vue statistique sur le long terme c'est effectivement non significatif, ce qui est cohérent entre physique et statistique (lorsqu'on considère les bonnes échelles). Mais cela ne signifie pas qu'il n'existe pas, au contraire, il faut faire attention à la façon dont on traite les données et les conclusions que l'on en tire. D'ailleurs ce que l'on considère comme un signal aléatoire pour une certaine échelle ne l'est pas forcément lorsqu'on considère des échelles plus fines. C'est vraiment une des limites majeures des études statistiques car il ya des interactions d'échelles qui sont parfois importantes, et le signal que l'on considère comme aléatoire ne l'est du coup pas forcément. Par exemple, après un pic El Niño important on peut légitimement s'attendre à avoir plutôt des phases de type La Niña. On met ainsi en avant la notion complexe d'événement indépendant (ce qui est généralement la base des études statistiques) en climato. J'en reparle un peu plus bas mais ça me semblait important de le dire ici. D'ailleurs la température à 2m du sol n'est pas forcément très pertinente pour juger de l'influence des forçages. Pour ce faire, il faut regarder là où se situe l'essentiel de l'énergie emmagasinée par le système climatique : dans les océans. En effet, les cycles océaniques influence notablement l'atmosphère (cycles ENSO, PDO, AMO par exemple pour ne citer qu'eux) car l'atmosphère n'a qu'une toute petite de l'énergie. Voici par exemple le rapport issu de la convention de Copenhague sur le climat : http://climatecongre...synthesisreport On note bien sur la figure suivante que l'essentiel de l'énergie est bien absorbé par les océans, et ceci de façon ultra majoritaire (ce graph est aussi visible dans l'AR4) : Et si on regarde l'évolution l'énergie absorbée par le système climatique, c'est-à-dire à un très large premier ordre par les océans, on note que ça grimpe de façon particulièrement nette, avec toutefois une petite variabilité interannuelle (un graph assez proche est visible dans l'AR4). Même si l'augmentation des températures marque un peu le pas, le système climatique continue à gagner de l'énergie. Tout ça pour dire que limiter l'étude du réchauffement climatique sur le long terme à des études et des statistiques sur la température près du sol est on ne peut plus insuffisant. Sinon, il y a aussi un petit problème d'interprétation avec les moyennes sur 30 ans que j'ai pu lire plus haut. Ca vient peut être de définitions prises dans certains bouquins (je ne sais pas), mais il faut faire attentions à la physique qui est représenté. En fonction de l'échelle des phénomènes qu'on analyse on décide arbitrairement (sous réserve des seuils de significativité) que le climat moyen est représenté par la moyenne sur 31 ans (c'est plus simple que 30 ans pour ce que je vais expliquer …). D'un point de vu statistique le climat moyen à un instant t ne va pas être définie par la moyenne des 31 années précédentes, mais par les 15 années précédentes et les 15 suivantes, d'où l'intérêt des moyennes glissantes centrée sur la période étudiée. C'est physiquement beaucoup plus pertinent. Mais effectivement, dans ce cas on ne peut pas la calculer pour les 15 dernières années. Donc effectivement, la solution de facilité est de prendre la moyenne des 30 dernières années, mais en sachant que si le climat évolue continument, ce qu'on calcul peut être physiquement déjà périmé et non directement représentatif. C'est absolument scandaleux ! Ceci montre toute ta mauvaise fois (à l'image des énormités que tu as mises sur ton site cet été à propos du GIEC qui montrent soit que tu ne maîtrises pas du tout le sujet, soit que tu es d'une totale mauvaise fois, soit les deux). En ce qui concerne le lien que tu mentionnes dans ton message, je suppose que tu parles du graphique en évoquant les prévisions du GIEC ?? Evidement que le GIEC n'a absolument rien à voir avec ce graphique qui n'engage que son auteur. Ce qui est vrai en revanche c'est les scientifiques du GIEC sont tout à fait au courant de la PDO (et heureusement !), ce point est d'ailleurs (par exemple)longuement développé dans l'AR4. Tiens je te conseille ici pour l'ENSO : http://jisao.washing...#digital_valuesPour le DVI, j'en sais rien … Au-delà de l'application brut des statistiques, il ya beaucoup à dire sur les applications que l'on peut en faire et les conséquences que l'on peut en tirer. Christian en as d'ailleurs, fort justement, en partie parlé dans son développement. Je ne vais pas répéter ce que j'ai déjà dis ailleurs sur l'utilisation des indices (ici : /index.php?showtopic=47132&view=findpost&p=1044782'>http://forums.infocl...dpost&p=1044782 ou là : /index.php?showtopic=46978&view=findpost&p=1044795'>http://forums.infocl...dpost&p=1044795 ) mais ça trouve aussi sa place dans ce sujet. Le principal problème des études de significativité c'est les hypothèses que l'on pose et en particulier l'indépendance des évènements. La règle de base, c'est de supposer les événements indépendants, ce qui est complètement (ou du moins, partiellement) erroné, en particulier lorsqu'on étudie les cycles où précisément on sait pertinemment que la température d'une année dépend de la précédente, au-delà des tendances que l'on étudie. Par exemple (complètement extrême, mais assez révélateur), si on étudie la tendance des températures sur le long terme, on a besoin de plus d'évènements pour augmenter la significativité. Du coup, il suffit d'étudier les anomalies mensuelles, et d'un coup on a multiplié par 12 le nombre de données ! C'est bien sûr totalement ridicule, mais on est confronté à des problèmes similaires avec les cycles inter-annuels. Dans la pratique, on peut s'en affranchir en calculant le nombre d'évènement significatif grâce à des fonctions d'autocorrélation mais ça complexifie nettement la démarche. Comme autre point important pour ce genre d'étude c'est bien entendu la séparation entre les traitements statistiques et phénomènes physiques. Les premiers peuvent servir à étudier les seconds en donnant certaines informations et les seconds peuvent être représenté ou décrit schématiquement et partiellement par les premiers. Mais il n'y a rien de direct ni de systématique. Par ailleurs les extrapolations futures sur la base de séries statistiques sont parfois très hasardeuses … En voici un exemple parlant, si après un passage orageux la température se rafraichie et que pendant toute une semaine elle ne fait que remonter et redevient très chaude, la tendance est clairement à une augmentation de la température et on serait tenté de la continuer. Mais en faite une nouvelle dégradation pointe le bout de son nez et la température rechute brutalement … Cela la tendance ne l'avait absolument pas anticipé ! En revanche si avec des études plus approfondies des différentes périodes de variation (études spectrales complètes), on aurait pu voir que généralement à cette saison après une semaine de beau temps et de température en augmentation, la température a tendance à s'effondrer brutalement. Ceci n'est visible que par des études spectrales du signal plus approfondie. Là encore c'est un exemple extrême et un peu tiré par les cheveux, mais je veux montrer que les extrapolations « à la hussarde » sont parfois hasardeuses si on ne prend pas soins d'étudier plus attentivement la dynamique spectrale du signal. En fonction de ce qu'on étudie : si on recherche un phénomène en particulier, si on se base volontairement pour telle ou telle raison sur des analyses plus limitées car on a montré que pour ce qu'on étudie c'est suffisant, ou que sais-je encore, il n'y a pas de problème, mais il faut être conscient des limitations de la méthode ou du moins de la nécessaire prise de recul et analyse des phénomènes pertinents. Du plus, en corolaire de ce qui a été dit avant, une baisse ou une hausse que l'on montre non significatif sur le long terme peut être d'une importance capitale (et tout à fait significative) pour des échelles intermédiaires s'il s'agit d'un phénomène à plus haute fréquence par exemple. C'est tout le problème de se limiter à des études de corrélation linéaire avec un nombre d'événements indépendants non ajusté à la situation. On pourrait en dire encore beaucoup sur ce très intéressant sujet, mais mon message est déjà assez long comme ça … -
Cycle lunaire et journée chaude
Météofun a répondu à un sujet de noctiluque dans Questions - réponses sur la météo
Un rôle important des courants de marées lorsqu'ils sont marqués : le brassage de l'eau près des côtes et les conséquences que cela implique sur les échanges thermiques. C'est par exemple un phénomène assez sensible en Bretagne. Bon j'ai pas fait d'étude particulière sur le sujet et ce que je vais dire par la suite est purement empirique pour avoir pas mal navigué, mais quand même je pense que les marées ont un rôle plutôt marginal sur les côtes … y compris dans l'établissement des brises. En situation limite, la présence d'une zone de convergence (et donc de renforcement des gradients) liée à la convection sur les terres et son absence sur la mer est par exemple nettement plus sensible. Toujours pour les cas de brises, on peut aussi par exemple citer l'orientation du flux synoptique. Après, il y a peut-être d'autres liens ??? Mais effectivement je vois mal comment on pourrait trouver un lien avéré de façon générale en dehors de quelques cas très particuliers … Disons que là-dessus tu montres une oscillation qui correspond aux larges oscillations des régimes de temps (1 à 3 semaines). De plus si tu as une anomalie positive sur une certaine période du cycle lunaire, c'est assez logique d'avoir ailleurs, et en particulier à l'opposé, une anomalie négative pour compenser et tomber sur une anomalie nulle sur un cycle lunaire.Ensuite tu prends 3 stations en France : c'est un petit pays … En moyenne lorsqu'il fait chaud à Renne il fait aussi chaud à Strasbourg et à l'Aigoual, sauf pendant les périodes de transitions ou certains cas qui ne sont pas les plus courant … Il faudrait faire l'étude sur des stations de pays éloignés et sur plusieurs continents. -
Juste si je peux simplement me permettre d'ajouter quelque chose au sujet de l'intérêt de telles découvertes … En plus de l'importance des variations des émissions, si cela peut permettre d'améliorer les connaissances sur les sources actuelles ce ne peut être que bénéfique. Si on connait bien, par les mesures, l'évolution inter-annuelle des concentrations (de méthane, pour ce qui nous intéresse dans ce topic), la régionalisation des sources est beaucoup moins bien connue. Les inventaires fait par les pays sont souvent incomplets voire erronées. Les méthodes d'inversions permettent de palier un peu le manque d'informations, mais c'est pas évident, et arriver à réduire l'incertitude sur des sources significatives ne peut être que bénéfique, en diminuant une partie de l'erreur globale, mais aussi, en retour, sur les autres régions.L'intérêt de mieux cibler les sources est non seulement pour élaborer avec une meilleur pertinence les émissions futurs en fonction des scénarios économiques, mais aussi de mieux cibler les sources clefs qui présentent rapport diminution des émissions / coût écolo-socio-économique le plus grand possible.
-
Des expériences à faire chez soi ou à l'école
Météofun a répondu à un sujet de jereml47 dans Questions - réponses sur la météo
Je ne l'ai jamais lu, mais on m'a dit beaucoup de bien de ce bouquin : "100 expériences pour comprendre les phénomènes météo", Yves Corboz, Editions Belin http://www.editions-belin.com/ewb_pages/f/fiche-article-meteorologie-9243.php?destroy=1