Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Météofun

Membres
  • Compteur de contenus

    932
  • Inscription

  • Dernière visite

Tout ce qui a été posté par Météofun

  1. Excel peut donner une petite idée. Lorsque tu traces ta courbe de tendance tu peux demander d’avoir de coefficient de détermination. Comme le dit Excel, ça correspond à la proportion de la variance de x due à y. Ca correspond au carré d’un coefficient de corrélation linéaire. Par contre, c’est pas vraiment une significativité, mais ça peut donner une idée de la représentativité de la tendance. Pour avoir une significativité on utilise généralement un test de Student. Je crois qu’Excel doit pouvoir le faire, mais je ne sais pas si c’est simple à faire, je laisse les pros d’Excel parler. Par contre, je ne sais pas exactement c’est pour quoi, mais il faut se méfier de ce genre de chose en physique, et météo-climato en particulier. En effet, la valeur à un instant « t » n’est pas totalement indépendante de la valeur précédente. La significativité est donc plus basse, car cette non indépendance entraîne de fait une baisse du nombre d’échantillon significatif (nombre d’échantillon significatif inférieur au nombre d’échantillon total). Ca se comprend très bien, si tu regardes l’évolution de la température sur 50 ans, c’est pas parce que tu prends une valeur par jours plutôt que une par an que tu augmentera ta significativité ! Là c'est un exemple idiot, mais en théorie il faut tenir compte de la variabilité inter-annuelle par exemple. Mais les calculs associé à ce genre de chose ne tombent pas vraiment du ciel (c’est peu de le dire).
  2. Donc bon courage pour la suite ! Mais effectivement regarder les applications comme te le conseil Sirius est surement une très bonne approche (plus intuitive et surtout concrète que les aspects théoriques que je t’avais aussi présenté). Tu as de la chance, le LMD est très impliqué sur le sujet (mais c’est plutôt une partie sur Polytechnique, mais comme les applications est un sujet un peu transverse, il y a aussi des chercheurs sur Jussieu qui touchent à ce sujet). Il y a vraiment pléthores d’instruments satellites pour le sondage vertical ou l’étude des espèces chimiques et aérosols qui concernent ton sujet. Sinon pour ton parcours, t’inquiète pas, on trouve toujours quelque chose qui nous plait si on a la motivation pour /emoticons/wink@2x.png 2x" width="20" height="20"> ! (c'est du moins ce que j'espère aussi ...)
  3. C’est parce que la situation est bien plus compliqué que ce qui est parfois écrit dans les livres … Ca dépend vraiment ce qu’on considère … Par exemple, pour l’Afrique, en été boréal, le max de chauffage à lieu au niveau du Sahara où on retrouve bien un dépression thermique, mais on note déjà que cette dépression est légèrement plus sud que le max du chauffage. Et c’est encore plus compliqué si on pense que l’ITCZ correspond bien à la zone de ceinture pluvieuse et du max de vitesse vertical au milieu de l’atmosphère (typiquement vers 500 hPa), car là c’est nettement plus au sud et avec une grosse variabilité intersaisonnière (mousson Africaine). En fonction de ce qu’on regarde on peut faire plein de diagnostique, d’où l’intérêt de comprendre les processus en jeu.Et en particulier celui de la convection. Cette dernière fournie une part importante d’énergie au système par la condensation. Elle se déclenche par la circulation général (d’ascendance de grande échelle), mais entretient celle celle-ci par rétroaction. Elle va donc l’entretenir là où se trouve l’humidité qui permet la convection par libération de chaleur latente (ce qu’explique fsd8tr dans son post). Une partie de la raison se trouve donc à ce niveau, mais il faut tenir compte aussi de la température de l’eau de surface (qui joue non seulement pour la température de basse couche, mais aussi pour l’alimentation en humidité). Si on regarde ce qui se passe au niveau de l’Indonésie, on comprend bien toute la difficulté d’isoler un seul et unique FIT, il vaut mieux se référer à la dynamique et thermodynamique de la circulation. Ca complique, mais c’est plus juste, et c’est le seul moyen de comprendre.
  4. En France c'est l'émagramme. Ce que j'ai c'est un émagramme complet. Il est scanné assez propre, mais c'est probablement pas ce que tu veux. Si jamais tu veux que je te l'envoie pour que tu essais, donne moi une adresse mail par MP.
  5. Ha oui … Comme quoi j’étais un peu médisant et qu’on arrive quand même à faire 2-3 trucs avec Windows (si on ne cherche pas à aller trop loin … )
  6. Le lien n’est pas directes, mais il est important car les études spectroscopiques servent à établir les spectres d’absorptions, et sont donc la base des codes de transfert radiatifs, qui servent sous une forme approchée dans les codes de prévision météo, où sous une forme parfois beaucoup plus pointue pour l’étude par satellite. Comme tu es sur Jussieu, une partie du LMD (Laboratoire de Météorologie Dynamique, tour 45/55 3ieme étage pour la partie sur Jussieu) étudie se genre de chose, avec notamment une base de donnée mondialement reconnue (Base GEISIA). http://ara.lmd.polytechnique.fr/ Par contre, l’équipe qui travaille sur le sujet n’est pas sur Jussieu, mais à Polytechnique. Cette équipe du LMD s’occupe de l’entretient de la base de donnée, mais surtout des applications qui peut faire à partir de telles connaissances. Il y a un autre labo de l’UPMC qui travaille en plein sur le sujet : le LPMAA (Laboratoire de Physique Moléculaire pour l’Atmosphère et l’Astrophysique) : http://www.lpma.jussieu.fr/ Actuellement il n’est pas sur le campus de Jussieu à cause des travaux, mais ça ne t’empêche pas de te renseigner dessus. Je ne sais pas exactement ce qu’ils font, mais je crois que c’est beaucoup plus accès sur la technique. Mais je te conseille vivement de parcourir le site internet et éventuellement de prendre contact avec eux. Sinon, la spectroscopie est donc utilisé en application pour la surveillance de la qualité de l’air (étude des composés atmosphériques). Sur Jussieu, le SA (Service d’Aéronomie, nouvellement LATMOS), étudient un peu ça. Une partie du labo est situé en tours 45/46 au 3ieme et 4ieme étage, et une autre partie en dehors de Jussieu. http://www.aero.jussieu.fr/ Par exemple les équipes CA (instruments SAOZ, SANOA) et PCT (instrument SAMU) lorsque tu regardes sur le lien que je viens de te donner. En labo de l’IPSL (Institut Pierre Simon Laplace), auquel appartient le LMD et le SA (LATMOS maintenant), il y aussi le LSCE (Laboratoire des Sciences du climat et de l’Environnement) (ce labo appartient à l’IPSL, mais il n’est pas sous tutelle de l’UPMC, et pas présent sur Jussieu) : http://www.lsce.ipsl.fr/ Dans ce cas, la spectroscopie intervient à la fois pour l’étude de l’atmosphère actuelle dans le cadre du suivi globale de l’atmosphère ou la qualité de l’air. Mais aussi, tout autre chose (pour les objectif, mais c’est le même principe), dans le cadre des paléoclimats et l’étude des échantillons anciens. Bref, je me suis limité à des pistes qui te sont facilement accessibles depuis Jussieu, mais il en a surement d’autres, mais que de toutes les façons je ne connais pas. Et d’ailleurs, là je ne te donne que des pistes, j’y connais pas grand-chose (c’est peu de le dire) sur le sujet, et pourtant je fais de la météo (je te dis ça histoire de te rassurer). Et sinon, tout autre chose, si tu veux faire le Master de météo/climato de Jussieu (OACT), choisi le parcours le plus « physique » possible. Bon courage !
  7. Bon … pardon … Un modèle spectral c’est ce que j’avais essayé d’expliquer juste en dessous, mais visiblement assez mal. Disons qu’au lieu de représenter les champs atmosphériques par des valeurs en des points précis, on les représentent par une somme (un spectre) de fonctions. Sur le schéma que j’avais mis en lien, ça correspond à représenter la fonction créneau en noir par une somme de fonction sinusoïdale qui est donnée en bleu, et on voit que plus on met de fonctions (ordres élevé, avec des ondulations –longueur d’onde- fines, plus on représente finement la situation). C’est peut-être plus clair sur cette animation : http://www.irem.univ-mrs.fr/spip.php?article343 . On voit bien qu’au début les ondulations que l’on rajoute (en noir) sont larges, et elles deviennent toutes petites sur la fin. La somme de tout ce qu’on rajoute (en bleu) devient de plus en plus précis. Au début, on a besoins des fonction grossière pour avoir la structure de grande échelle, puis on rajoutes les fonction plus fine, qui se greffe sur cette structure de grande échelle. Typiquement, pour le signal de pression, si tu as un petit thalweg, tu es obligé d'avoir la structure de grande échelle pour savoir si c'est l'affaiblissement locale d'un anticyclone ou le renforcement locale d'une grosse dépression. Je te donne aussi ce lien http://www.math.harvard.edu/archive/21b_fa...rier/index.html (en bas de page, le reste tu t’en fout). L’image du gars en 2D est très clair, c’est un peu sur ce principe que fonctionne les modèles météo spectraux (au début, lorsque c’est large on ne voit pas grand-chose puis son dessin devient de plus en plus clair par la suite). Ce qui fait que concrètement, le modèle, au lieu d’étudier les différences entre deux points, il calculs des opérations directement sur la fonction (plutôt la somme de fonctions) et non sur les valeurs en des points précis de ces fonctions. C’est le calcul spectral. Par contre, il y des fois (calcul des advections et toutes les paramétrisations physiques par exemple), où il est obligé de repasser par le calcul de la valeur de cette somme de fonction à des points précis. Pour faire ces calculs, on projette donc cette somme de fonction sur des points précis : la grille de Gauss ! Est-ce (un peu) moins confus comme ça ?
  8. Enfin, les gros orages avec un LI positifs doivent être quand même franchement exceptionnels … Ca l’est moins en terme de prévision des modèles, surtout lorsqu’ils représentent mal la situation. C’est typiquement le cas près de ta région lorsque GFS sous-estime grandement l’advection et la convergence d’humidité à l’avant du relief et le forçage du relief plus local que ce que représente le modèle. Mais localement au niveau de l’orage, le LI est, dans les faits négatif, mais pas toujours de façon très prononcée. Attention à l'étude du contexte synoptique. C’est certes très intéressant (et même un passage obligé), mais ça ne renseigne pas vraiment le type de convection attendu (sauf en procédant par analogie en connaissant sa région, mais c’est pas une méthode « universelle »). Pour cela il est nécessaire d’aller étudier plus précisément les profils thermodynamique et dynamique, les cisaillements et hélicité (absolu et par rapport au déplacement des orages –mais là malheureusement on n’a pas trop de source sur Internet-) et bien sûr les indices composites qui permettent de résumer la situation mais pour comprendre leur forces et faiblesses dans la situation étudiée, il est nécessaire de connaitre leur formulation et d’avoir étudié les profils avant. Pour reprendre ces cartes, la première chose à savoir c’est qu’elles sont issues de GFS, donc si modèle est à la rue, ces cartes le seront aussi. Et sinon comme dit Cotissois, pas de ces paramètres sont assez explicites. Ca c’est une méthode qui approxime les vitesses verticales, c’est une approximation qui permet de lisser « intelligemment » le « bruit » parfois très présent dans les champs modèles des VV. Quand je parle de bruit, c’est un peu abusif, puisque c’est une réponse produite par les anomalies de prévue à la petite échelle du modèle qui a une réalité physique pour le modèle. Dans certains cas ces anomalies ont aussi une réalité météorologique pour la prévision (relief, anomalie régionale bien prévu, …), d’en d’autres cas à moitié puisque l’anomalie peut être mal placé ou avoir une mauvaise amplitude et d’en d’autre pas vraiment, … C’est au prévisionniste de faire ce –très- délicat travail de distinction, pour ce faire, l’étude des VV associé à l’étude du contexte synoptique par ce genre de carte peut être une aide. Ca c’est une carte du TP (PV en anglais) à l’étage moyen. On peut y déceler certaines zones actives d’un point de vu de la dynamique (tourbillon, plongée de tropo, zone de faible TP dans certaines zones orageuses -malheureusement les plages de cette cartes la rende surtout utile pour les zones élevée de PV, les zones basses ne sont pas assez résolues- …), et en la couplant avec les cartes de géopotentiel à la 1.5 PVU tu pourras y reconnaitre des structures, les VV ascendantes ayant plutôt lieu en aval. Ca c’est la température de la parcelle la plus instable du profil (sous 600 hPa) lorsqu’elle arrive au niveau d’équilibre. Ca donne une idée de la hauteur des sommets des Cb, que l’on peut aisément comparer dans la réalité (au moins d’un point de vu qualitatif et comparaison par zone géographiques) avec les réflectivités IR des satellites (car la carte donne la température des sommets). Les couleurs représentent le Thompson Index ( TI = (850mb T - 500mb T) + 850mb Td - (700mb T - 700mb Td) – LI (sur Lightningwizard c’est le LI de la parcelle la plus instable). Les lignes épaisses colorées sont les pluies convectives. Les lignes noires sont l’altitude géopotentiel à 700 hPa. L’indice de Thompson est un des indices les plus général pour la convection, mais il n’indique pas grand-chose de spécifique en terme d’organisation, précisément parce qu’il est relativement général.Je précise que là c’est pas du tout une traduction du document. Je te conseil de le faire, c’est un bon exercice (maintenant l’anglais c’est indispensable), surtout que c’est un document technique donc avec un anglais souvent assez simple et transparent (et c’est un type vraiment nul en anglais qui te dis ça !). Aides-toi de traducteurs automatiques s’il le faut vraiment (mais c’est pas une très bonne idée).
  9. Heu Damien, avec 3°, GFS il n’irait pas bien loin … Surtout que les champs haute résolution disponibles sur les serveurs de la NOAA sont à 0.5°! La grille de GFS est de 0.3125°. Il faut savoir que les modèles tel que GFS, IFS (celui du CEP) ou encore ARPEGE sont des modèles dit spectraux. Les équations du premier ordre de la dynamique ne sont pas traité par point de grille mais de façon spectrale. Voici un cas 1D : on a une fonction créneau qu’on cherche à approximer par une somme de fonction sinusoïdale. http://cnx.org/content/m10687/latest/fourier4.png Au premier ordre c’est pas terrible, mais plus on diminue la longueur d’onde (avec des ordres élevés) plus on dessine finement le créneau en sommant toutes les fonctions. Pour un plan 2D, c’est tout à fait similaire avec la notation complexe. Et on arrive alors à représenter les structures des différents champs (température, vent, …) sous la forme d’harmoniques sphériques. En théorie, on y arrive parfaitement avec un nombre infini de fonctions de plus en plus précises. Bien sûr c’est inconcevable pour les ordinateurs, qui tronquent donc cette infinité à un certain nombre, et plus il est important, plus le modèle est fin. Par exemple T799 pour IFS. GFS, c’est du T382 mais on ne peut pas trop comparer car en fait il faudrait plutôt écrire TL799 pour IFS. Dans les deux cas T se réfère à une troncature Triangulaire et le « L » pour IFS à Linéaire (par opposition à quadratique pour GFS). Mais là c’est du détail technique et c’est un peu inutilement compliqué : c’était juste pour signaler une différence qui peut surprendre au premier abord si tu voulais chercher un peu plus loin. Bref, c’est là qu’on en arrive à ta question, la grille de Gauss est la représentation dans l’espace physique des informations contenu dans l’espace spectrale via une transformation mathématique ad-oc. C’est en quelque sorte la projection des fonctions harmoniques du calcul spectral, sur une grille que l’on tracer sur une carte. C’est nécessaire pour faire certains calculs de dynamiques (comme les advections par exemple) et tous les calculs des paramétrisations physiques. Sinon je te renvoie aussi vers ce lien où on en parlait un peu, mais malheureusement la personne qui a posé la question s’était volatilisé. /index.php?showtopic=34481&hl='>http://forums.infoclimat.fr/index.php?show...c=34481&hl= Voilà, c’est clair ou pas trop ? Mais moi je vais avoir du mal à aller plus loin dans les explications car la modélisation c’est un truc que je ne connais pas trop …
  10. Ben, je ne cois pas directement (du moins je ne connais pas). Par contre, ce qui est possible c’est d’installer un émulateur LINUX avec un X serveur comme ça : http://x.cygwin.com/ Mais là c’est un peu compliqué et je ne suis pas sûr que ce soit parfaitement compatible avec tout (quelqu’un pour confirmer ?) Par contre, je pense que ça doit être suffisent pour ce que tu veux en faire (enfin, j’espère). Mais franchement, autant défragmenter son disque dur, partitionner son PC et installer LINUX en second OS. Ceci dit, peut-être qu’il y a des trucs plus simple ? A voir si quelqu’un d’autre répond.
  11. Ha oui, là c’est pas possible … Il faut un logiciel pour les décoder. Soit sous une forme graphique avec GrADS ( http://www.iges.org/grads/ ) ou FERRET ( http://ferret.wrc.noaa.gov/Ferret/ ) par exemple, soit sous une forme numérique avec des librairies s’appliquant à divers langages disponibles chez Unidata ( http://www.unidata.ucar.edu/software/netcdf/). Par contre, il faut que tu ais LINUX.
  12. Merci Météor pour ce retour. En fait si j’ai fait comme ça c’est parce qu’on se heurte à un sérieux problème si on détrend en 2 parties. En effet, on s’intéresse notamment aux cycles longs (très basse fréquence) et sur la période 1960-2009 on n’a pas un cycle complet (plutôt globalement une phase chaude de la PDO. Du coup, en enlevant la tendance sur une période aussi courte, on enlève aussi la composante due au cycle qu’on étudie puisqu’on a eu moins d’une période ! Du coup c’est assez parlant sur le tableau de corrélation qui suit (bleu les données moyennées sur 5 ans et rouge sur 20 ans) et sur les graphiques plus bas. Surtout sur le lissage sur 20 ans, on note des corrélations ridicules avec les anomalies de températures, qui n’ont je pense pas lieu d’être (dans mon post précédent je remettais en cause la confiance aveugle qu’on pouvait parfois avoir dans les liens avec les indices, mais je pense qu’il y a un peu plus de corrélation que ça quand même !). Et que dire de la légère anticorrélation de l'ENSO à très basse fréquence ? ! De toutes les façons pour les corrélations j’ai pas fait les calculs de significativités : j’ai donné les tableaux plus à titre indicatifs qu’autre chose, surtout pour le lissage sur 20 ans où bien entendu on ne dispose pas assez de recul (je l’avais déjà mentionné dans mon post précédent). Sur les graphs suivants la hausse de l’anomalie de température en fin de période est complètement coupée, comme effectivement on pouvait s’y attendre après avoir fait le detrend en 2 parties. Et pour le coup, comme sur le tableau de corrélation, le lien PDO-température est bien ténu sur le dernier cycle avec une augmentation du « retard » signalé dons mon post précédent, et même presque une opposition de phase sur la fin ! Voilà pourquoi j’avais gardé un trend unique sur la période dans ma petite étude. Par rapport à ce que je voulais montrer ça restait beaucoup plus significatif et plus robuste en signalant les sources probables d’écarts. Ici ça n’a je trouve plus aucun sens physique ou mathématique. Pour le faire propre, il faudrait avoir réellement la part sur forçage thermique anthropique (et non uniquement le forçage radiatif). Mais ça impose des données qui sortent de simulation ou d’étude sur la sensibilité thermique et des études plus complexes, ce qui n’était pas mon but. Là au moins on ne travail qu’avec des observations, quitte à faire quelques approximations si on les signale. Bon, ce genre d’étude climatique c’est un peu en dehors de mon champ principal de connaissance, donc je suis à ton écoute (et d’autres aussi bien sûr) pour savoir ce que tu en penses.
  13. Bha bien sûr que si ! ! C’est de la physique de base. Je reprends avec ce schéma qui montre l’établissement de l’équilibre géostrophique qui explique en grande partie la rotation à droite. On voit bien que la rotation est progressive une fois que la particule d’air à sa vitesse. On arrive au final à l’équilibre force de pression – force de Coriolis. Le bilan des forces est nul : le vent est en équilibre (situation stationnaire). Imagine maintenant qu’on annule la force de pression : la particule continue son mouvement avec uniquement la force Coriolis : la rotation à droite se poursuit donc ! On parle d’ailleurs d’oscillation inertielle. Si maintenant, cas moins idéalisé, en fin de journée le déséquilibre de pression diminue, on a donc une baisse de la force de pression, et donc au contraire un vent qui tourne encore un peu plus à droite (du moins suivant la théorie). Puis les frottements font progressivement baisser la vitesse. En gros, ce que tu n’as pas compris, c’est que la seule force qui amène la particule perpendiculairement à la côte est la force de pression (on considère le cas théorique du modèle géostrophique à 2 forces) et que lorsque la vitesse de la particule d’air diminue, et donc effectivement que Coriolis est en baisse, c’est que la force de pression est aussi en baisse. On peut donc rester à l’équilibre comme l’indique le schéma que j’ai mi plus haut ! Mais ce qui est dit là concerne un modèle théorique pur qui est effectivement peu réel dans le détail puisque l’équilibre géostrophique est rarement complètement atteint en fin de journée. Mais ça n’explique pas trop mal le phénomène dans la globalité. Effectivement ça joue sur des effets locaux qui sont amusants (ça permet de se creuser les méninges) à exploiter en régate. Mais il n’y a pas d’organisation globale, pas de canalisation qui contredit Coriolis, … C’est absolument pas comparable parce que ce n’est pas du tout la même échelle ! Et en plus, comme dit Pinthotal, les modèles fins (sans prendre en compte ce que tu dis) arrivent à simuler les brises.
  14. Salut et bienvenue ! Je le traduirai simplement par forte et faible convection. Tu dois aussi pouvoir dire aussi convection violente et convection peu prononcée. Généralement on parle plutôt de convection profonde (lorsqu'elle est forte) et de convection peu profonde. Mais pour ça les anglais on leur vocabulaire (deep et shallow convection), et peut-être que là ça concerne dans les deux cas convection profonde. Donc si y' a d'autres avis plus tranchés ...
  15. Ben non pas du tout ! Dis nous quelle autre force la ramerait perpendiculairement à la côte ? Il n’y a que la force de pression, mais si le vent baisse c’est bien parce qu’elle diminue aussi ! Et l’équilibre est conservé, tant que le vent n’est pas trop faible.La rotation à droite est lente parce que la force de Coriolis est une force très faible qui « met du temps à agir » (typiquement quelques heures -5 à 10 h par exemple-). Donc si la rotation se poursuit à droite (même si la brise de mer ne change pas d’intensité) c’est le temps que la force de Coriolis agisse. D’où cette impression que la brise « tourne avec le soleil », même si évidement ce sont deux phénomène complètement distincts. Et si la brise de mer met 6h à s’équilibrer en tournant d’un quart de cercle (ce qui est assez rapide et concerne surtout les cas bien établit), on est bien dans le même ordre de grandeur que la rotation du soleil (1/4 de cercle en 6h). En gros, je crois que ce que tu n’as pas très bien compris c’est que même si l’écoulement reste avec la même vitesse, la rotation due à Coriolis mettra entre 5 et 10h environ pour tourner des 90° vers la droite. Je ne sais pas maintenant si c’est plus clair dit comme ça . Et, en mer, la brise de mer tourne à droite dans toutes les régions où elle s’établit correctement, y compris (par exemple) sur les côtes nord de l’Afrique, où suivant ton principe elle devrait surtout tourner à gauche. Et si tu navigues sur les côtes Atlantiques lorsque la brise est bien en verve (ça arrive parfois) : la rotation y est parfois aussi très marquée. Avant le relief, ce qui fait surtout la différence avec la Méditerranée c’est la rapidité et la puissance du chauffage (en partie à cause de la sécheresse des sols et de la végétation). Et puis dans le sud-est de la France le chauffage est très efficace et une dépression thermique marquée se met parfois en place, avec une extension au large bien au-delà de l’influence des brises de vallées, et avec la même rotation à droite. A non pas du tout, la distribution de la turbulence des bulles convectives est bien trop aléatoire pour ça ! Pour les pentes et les vallées ça fonctionne car le relief à une échelle plus grande que l’organisation convective. Ca ne peut fonctionner pour les échelles plus petites.On ne nie pas du tout l’effet des brises de vallées mais il n’est pas du tout général : c’est une influence locale qui agit en plus du principe général.
  16. Météofun

    Niveau Kéraunique

    La seule chose que je peux te donner c’est cette carte qui représente l’ensemble de l’activité électrique détecté par satellite entre Janvier 1998 et Mars 2008 : http://thunder.msfc.nasa.gov/data/query/mission.png Sinon sur cette page : http://science.nasa.gov/headlines/y2001/ast05dec_1.htm Il y a aussi cette image, toujours basé sur l’observation satellite en nombre de flash/m²/ans : http://science.nasa.gov/headlines/images/l...ngmap_large.gif Et puis c’est pas trop à l’échelle de l’Algérie … il a sûrement mieux à droite ou à gauche …
  17. Si tu préfères l'écriture en 4 cadrants tu peux utiliser ce qu'a écrit Cotissois hier soir (message 11) : /index.php?showtopic=43719&st=0&p=958878'>http://forums.infoclimat.fr/index.php?show...mp;#entry958878 Bonne journée à tous ^^
  18. Oui, pardon Damien pour mes petits écarts, j’espère être mieux dans le sujet avec ce qui suit. Utilisation des indices, limitations et liens avec les processus physiques : l’exemple de la PDO. Le but de ce qui suit est de montrer que le retour qu’on a sur certains indices (la PDO dans le cas présent) est relativement limité et que l’utilisation pour l’extrapolation future est à prendre avec vraiment beaucoup de recul. Pour ce faire il faut en comprendre les principes physiques. Or la physique associé à la PDO est assez mal connue, et si on reprend le dernier rapport du GIEC elle semble reposer sur plusieurs processus différents, ce qui rend son interprétation particulièrement complexe. Je vous présente ici une série de tableau qui présente les corrélations entre plusieurs indices et les anomalies de températures globale mensuelles de l’air. Chaque tableau correspond à un filtrage temporel différent (données brutes ou moyennes glissantes sur 1, 2, 5, 10 et 20 ans). Les valeurs en bleues correspondent à une durée plus longue, donc une meilleure représentativité que les données en rouges mais qui ont en plus l’indice de la MEI (malheureusement je n’ai pas trouvé de données de la MEI pour les années inférieures à 1950). Pour les données brutes, les corrélations en rouge sont sur la période Janvier 1900 / Février 2005 et Janvier 1950 / février 2005 pour la période en bleu. Les bords extrêmes de la période ne peuvent être traitées par la moyenne glissante, donc plus la période de moyenne augmente, plus la plage se réduit. Pour la moyenne glissante sur 20 ans, la période se réduit à Janvier 1910 / Février 1995 pour les données rouges et seulement Janvier 1960 / Février 1995 pour les données en bleu. Pour faciliter la lecture des graphiques présentés un peu plus bas, les anomalies ou indices de toutes les données ont été normalisées sur la période 1950/2008. Par ailleurs les données des anomalies globales de température ont été retravaillées de sorte à enlever la tendance linéaire. On suppose que le forçage anthropique est une augmentation linéaire de la température sur les 130 dernières années. C’est là une petite approximation sur laquelle on reviendra un peu plus tard. Le premier point que l’on peut observer c’est qu’à haute fréquence (données mensuelles et filtrage sur un an) la corrélation entre l’ENSO (basée sur les anomalies de SST) et les anomalies de température et la PDO et les anomalies de températures sont assez semblables ; en revanche à basse fréquence, en particulier avec les moyennes glissantes sur 10 et 20 ans, le corrélation ENSO/température s’effondre alors que la corrélation PDO/température augmente nettement. On note que si, pour les moyennes sur 10 et 20 ans, pour les données bleues la corrélation ENSO/température est bien plus élevée que pour les données rouges, c’est à cause du manque flagrant de significativité des données en bleu due à une période d’étude bien trop faible. Toujours est-il que sur notre période d’étude la corrélation PDO/température est importante à basse fréquence (résultat attendu, et déjà montré précédemment). On peut aussi remarquer, que malgré une période d’étude bien trop faible pour être significative (données bleues), la MEI est systématiquement la variable qui a la meilleure corrélation avec la température (mieux que la PDO, même à basse fréquence). La prise en compte d’un indice complet (SST, circulation atmosphérique, …) permet donc d’augmenter la corrélation et ainsi résume mieux les forçages physiques impliqués dans la variabilité étudiée. C’est un signe (et on pouvait bien sûr s’en douter) que la réponse thermique globale dépend du forçage de la dynamique océanique et de la dynamique atmosphériques, lesquels sont en très fort couplage dans le cas de l’ENSO/PDO. Si on regarde les corrélations, et même visuellement sur les graphiques un peu plus bas, l’intérêt majeur de la PDO est plutôt sur la basse fréquence. C’est ce que tendent aussi à montrer les articles en peer-review, le post de Treizevent ou encore l’article du blog de Météor. L’inconvénient majeur c’est qu’on a très peu de retour sur cette variabilité très basse fréquence. Par conséquent les conclusions des études statistiques qu’on peut faire dessus, certes très intéressantes, sont à prendre avec le recul qu’elles méritent. En particulier, l’aspect a déjà été mentionné, si on considère la forte variabilité observé malgré le peu de cycle avec par exemple la phase plutôt neutre du début du XXieme siècle. Et je vais maintenant montrer que si on s’en tient au cycle pour ces dernières années certains résultats méritent attention et dessinent une certaine incohérence. On s’intéresse à la variabilité moyenne fréquence (moyenne glissante sur 5 ans) et basse fréquence (moyenne glissante sur 20 ans). Les deux graphiques qui suivent présentent donc la distribution des anomalies normalisée de la PDO (ordonnée) par rapport aux anomalies normalisées de la température globale au sol auquel on a enlevé la composante linéaire (en abscisse). Comme ce sont les données mensuelles qui sont tracées on remarque bien que l’évolution basse fréquence est soumises à d’autres sources de variabilité basse fréquence que cette PDO puisque la distribution des anomalies est relativement bien agencée avec des périodes individualisées sur plusieurs années. Et en particulier j’ai tracé en rouge les dernières années (Janvier 1998 / Août 2002 pour la moyenne glissante sur 5 ans et Janvier 1991 / Février 1995 pour la moyenne glissante sur 20 ans). Il est étrange de remarquer l’évolution tout à fait différente de ce qu’on aurait attendu si l’indice de la PDO avait suivi un cycle similaire au précédent. Concrètement, on observe ici une baisse de la PDO associée à une augmentation des anomalies de température globale. Cet effet est très net et sans ambiguïté sur les graphiques en dépassant de beaucoup toute la variabilité qu’on a pu observer au cours du siècle précédent. Pour autant ça ne veut pas dire que cette observation soit significative, la période du cycle étant très grande, on n’a un recul que sur environ 2 périodes, dont une en phase neutre (quel est le sens de cette phase neutre d’ailleurs ?). Il est donc possible que cet écart ne soit pas significatif (pas assez de recul pour le dire), mais on peut aussi s’interroger sur la significativité même (d’un point de vu statistique pur) des conclusions concernant cet indice sur les anomalies globales : sont-elles correctement cernés ? Bien entendu, je ne dis pas que les fluctuations observées ne sont que du vent puisqu’elles sont réelles, mais, concernant le lien PDO/température globale, qu’en est-il de la notion de cycle (et donc de répétitivité qui lui est associé) et avec quelle variabilité (tant en amplitude qu’en fréquence). La robustesse de l’ensemble est très loin d’être excellente. On se rend alors compte du danger à faire des extrapolations (c’est d’ailleurs pas pour rien que malgré l’abondante discussion de la PDO/IPO dans le rapport du GIEC il y peu d’observations sur ce genre d’extrapolation, tout comme dans les revues spécialisées en peer-review). On peut s’interroger sur les raisons de ces écarts. On a déjà évoqué une certaine méconnaissance des liens entre PDO/anomalie globale. Ce peut aussi être la cause de d’autres processus basses fréquence très influents. Ca peut aussi être lié à une accélération du réchauffement au cours de la fin de XXième siècle. En effet, on a enlevé une tendance linéaire pour les anomalies de température, si la tendance de température n’est pas linéaire, mais augmente de plus en plus, comme ce qui est déduit des observations et modèles, il n’est pas anormal d’observer une augmentation des anomalies thermiques chaudes sur la fin de la période. Ce peut aussi être du à plusieurs de ces facteurs cumulés (ou tous), mais ce n’est pas avec ce genre d’étude ultra simpliste qu’on pourra apporter quelque chose de pertinent sur le sujet. Des réponses pourront être apportées ultérieurement par deux voies. La première, mais seulement à long terme, via davantage de recul statistiques (et éventuellement une meilleur reconstitution des cycles passés). Et la seconde, qu’on peut espérer à court ou moyen terme, par la compréhension des processus physiques mis en jeu. Je présente maintenant 2 courbes temporelles sur les anomalies de température globales et différents indices (ENSO sur les SST, PDO et MEI). Comme dit plus haut chaque série de donnée brutes a été normalisée sur la période 1950-2000 de sorte à faciliter la lecture graphique. Pour chaque série de donnée les années précédentes ont été corrigées du facteur de normalisation de la période 1950-2000 : On peut déjà noter que le signal sur la température est légèrement en retard par rapport à celui des indices. Par ailleurs on remarque que les indices sont globalement bien corrélés entre eux, plus que par rapport au signal de température, c’est un aspect qui ressortait évidemment aussi dans les tableaux de corrélation donnés plus haut. Il ya eu une exception notable dans les années 1965-75. Le décalage du signal indice-température est surtout marqué pour l’indice SST de l’ENSO, c’est moins vrai pour la PDO et visiblement aussi pour le MEI, même si on a un séreux manque de recul de ce côté. Là encore, cela ressortait dans les tableaux chiffrés des corrélations. Mais surtout, ce qui est remarquable, c’est le retard pris actuellement par le signal de température par rapport aux indices. Ce décalage était déjà présent au cycle précédent, mais il prend au cours de ces dernière une proportion vraiment importante : alors que la PDO est en baisse depuis la fin des années 80 ou le début des années 90, les anomalies de températures ne semblent marquer aucune baisse particulière. C’est une autre visualisation que ce qu’on avait déjà mentionné en étudiant les graphiques de la distribution PDO/anomalies de température. Certes on perçoit une petite baisse sur le filtrage sur 5 ans, mais elle n’est pas beaucoup plus importante que les autres variations présentes lors de la croissance de l’anomalie thermique. On retrouve alors la discussion sur les causes éventuelles de ce retard abordée plus haut, mais qu’on ne peut conclure avec des études aussi simplistes. De façon un peu arbitraire on peu donc distinguer des indices qui ont permis d’identifier des cycles atmosphériques et mis en lumière des forçages physiques et des indices plutôt issus de ces processus physiques. Dans le premier cas les études scientifiques permettent alors de comprendre le/les forçages physiques impliqués et leurs éventuelles interactions. L’indice ainsi remis dans son contexte gagne en représentativité, notamment dans le cadre des extrapolations/prévisions qu’on est tenté de faire, puisqu’on connaît les interactions et forçage qu’il résume, ses avantages, mais aussi ses limitations. De ce point de vue c’est parfois assez utile pour la validation des modèles. On peut donc aussi discerner une seconde classe d’indice dont le but est d’identifier et résumer des interactions physiques complexes mais à peu près connu au premier ordre. Ceux-là sont bien plus pertinents pour les extrapolations puisqu’ils ne sont pas issus d’étude climatologiques statistiques, mais de fondements physiques solides. Incontestablement la PDO appartient plutôt à la première catégorie (avec une compréhension physique encore assez limitée) et la MEI plutôt à la seconde. Et cette différence ressort très bien dans l’étude des corrélations. Il y a peu de conclusions définitives dans ce long post, mais j’essaie juste d’apporter des éléments pour mettre en perspective certains éléments, les replacer dans leur contexte, et appuyer sur un certain nombre d’incertitudes et les difficultés et la faible robustesse des extrapolations qu’on peut faire (ce qui ne signifie pas qu’elles soient fausses, mais plutôt que le raisonnement n’est pas forcément très solide). J’insiste aussi également sur la nécessaire prise en compte des études sur un plan physique et des processus et forçages physiques associés aux phénomènes décrits par les indices. Bonne lecture !
  19. C’est vrai que c’est intéressant. D’ailleurs si les modèles représentent ces périodes correctement cela peut évidement être interpréter comme un signe positif, au contraire d’une mauvaise simulation. En revanche, si la simulation présente des loupés, cela ne veut pas dire pour autant que les simulations futures sont à côté de la plaque. Par rapport au réchauffement envisagé, la gestion de la cryosphère et des courants océaniques est très différentes dans ce cas froid. Mais c’est clair que ce genre de « test extrême » permet de mieux cibler les limites des modèles sur des conditions où on ne possède que peu d’éléments de comparaison. C’est différent de la représentation du dernier siècle par exemple, où les observations sont très précises mais qui reste dans les conditions « actuelles » (donc proches de la majorité des éléments qui ont permis l'élaboration des modèles) et donc relativement éloignées des projections.
  20. Ca c'est du gage ! Effectivement, bien vu Ribi ! J'y avais pas pensé. Je ne connais pas du tout le php, mais c'est vrai que ça existe dans beaucoup de langages (Fortran, Matlab-Scilab, C aussi si je me souviens bien ... ). Le principe est basé sur la notation complexe u+i*v.
  21. Décidément c'est pas mon jour ... Il faut dans ce cas rajouter un mettre l'opposé du vent méridien (le coup de l'inversion de la direction du vent c'est une symétrie centrale et non axiale !). Bon faut rester zen on va y arriver, la prochainement fois je ferais des tests avant de poster ce genre de chose un peu vite ... Et en tout cas, merci Maloin ... Simon, tu viens de cruellement descendre dans mon estime humainement parlant ... /emoticons/sad@2x.png 2x" width="20" height="20"> Quelle sincérité ! /emoticons/biggrin@2x.png 2x" width="20" height="20"> Correction définitive (on peut toujours rêver ! !) Si u < 0 : Direction = 90 - arcsin(-v/vitesse)*180/pi Si u > 0 : Direction = 270 + arcsin(-v/vitesse)*180/pi Si u = 0 Si v > 0 ==> Direction = 180° Si v < 0 ==> Direction = 0°
  22. Bha bien sûr Simon ! C'est la grosse honte là quand même ... Effectivement je sais pas comment tu avais raisonné Pinthotal mais j'avais griffonné sur un bout de papier quelques vecteurs qui partaient du centre d'un cercle trigo ... l'erreur fatale ! /emoticons/biggrin@2x.png 2x" width="20" height="20"> Bon donc voilà la correction : Si u < 0 : Direction = 90 - arcsin(v/vitesse)*180/pi Si u > 0 : Direction = 270 + arcsin(v/vitesse)*180/pi Si u = 0 Si v > 0 ==> Direction = 180° Si v < 0 ==> Direction = 0°
  23. Effectivement, la viscosité moléculaire à une influence primordiale. Mais son échelle est très petite elle n’intervient que par ce qu’on appel la « descente d’échelle turbulente ». C'est-à-dire que seuls les petits tourbillons centimétriques ou millimétriques sont influencés par la viscosité moléculaire. Et les plus gros tourbillons de la turbulence sont influencés par les plus petits (tout en les générant), donc au final par la viscosité moléculaire. Mais cette influence est donc très indirecte. Dans les modèles c’est paramétrisé via l’étude de la turbulence, notamment dans la couche limite où la turbulence est bien plus marquée. Et d’ailleurs globalement les frottements sont plutôt faible en-dehors de cette couche limite très influencé par la surface (beaucoup de phénomènes, et quasiment ceux de grande échelle, se comprennent très bien en première approximation en négligeant les frottements). Donc, par exemple, si l’ensemble de l’atmosphère tourne globalement avec la terre, c’est bien qu’elle a été entrainée progressivement (entrainement moléculaire juste à la surface et transporté par turbulence juste au-dessus et plus haut). Pour prendre un parallèle peut-être mieux connu, c’est un peu comme la conduction de la chaleur au cours d’une journée ensoleillée. On sait que la conduction intervient très peu dans le transport de chaleur en cours de journée : il est largement dominé par la convection. Pourtant, le chauffage des couches de surface à bien lieu par la conduction de la chaleur du sol chauffé vers l’atmosphère, mais juste pour les premiers centimètres, après c’est bien la convection et la turbulence qui prennent le relais. C’est le même principe dans le cas de la viscosité moléculaire qui n’intervient qu’à toute petite échelle avant d’être repris par la turbulence.
  24. Tiens ça marche toujours pas les liens … Tu utilises visiblement la version bas débit du forum (lofiversion), je sais pas si c’est du à ça mais c’est bizarre … Bon tant pis, en tout cas, effectivement, je trouve ça très bien comme conclusion en restant assez vague.
  25. Jim tu es sur de ce que tu as écrit comme code ? Normalement la méthode de Pinthotal ou la mienne marche bien (et donne d'ailleurs les mêmes résultats). Par contre Maloin, pour la direction il manque une partie, ce que tu dis marche bien pour les u négatifs, mais pas pour les valeurs positives du vent zonal.
×
×
  • Créer...