Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Météofun

Membres
  • Compteur de contenus

    932
  • Inscription

  • Dernière visite

Tout ce qui a été posté par Météofun

  1. Globalement le Québec n’est pas la région la plus impacté du Canada par El Niño. Mais quand même, on a globalement une tendance excédentaire au niveau des températures qui apparait, surtout en seconde partie d’hiver. Mais bon, cet épisode reste modéré et sur l’est du Canada, il y a visiblement une variabilité encore assez marquée en fonction des épisode, au-delà de cette tendance dominatrice. Sinon le mieux est quand même d’aller éplucher toutes les données du site officiel Canadien, pour le coup assez complet sur le sujet ! http://www.smc-msc.ec.gc.ca/education/elnino/canadian/index_e.cfm
  2. Hello « ToutOublié », hello à tous ! /emoticons/smile@2x.png 2x" width="20" height="20"> Voilà donc un exemple de démarche. C’est, je pense, assez similaire à ce que pensais Eric. C’est peut-être un peu long mais j’ai préféré passer un peu de temps à expliquer la méthode plutôt que de donner d’un seul coup les formules brutes, et j'ai quand même pas mal mâcher le travail je pense (mais ça m'amuse aussi pas mal de faire ce genre de petits calculs) … Je reste à disposition si certains passages sont un peu rapide pour être compris. Pour commencer il faut connaître V, la vitesse de chute limite des gouttes pluies. Voici une formule qui marche très bien pour les diamètres supérieurs 0,2 mm : V = 9.4*(1-EXP(-0.556*D^1.13)) en m/s²avec D le rayon de la goutte en mm Pour les diamètres plus petits on utilise plutôt : V = 2*(D/2000)^2*1000*9,81/(9*1,8*10^(-5)) en m/s²avec D le rayon de la goutte en mm. En fait, pour être rigoureux, il faut utiliser cette dernière formule (issue d’un résultat théorique) pour les gouttes vraiment petites (diamètre inférieur à 0,06 mm), une autre formule (que j’ai pas mentionnée) pour les gouttes plus grosses et enfin la première que j’ai mentionnée pour les gouttes au diamètre supérieur au millimètre (cette dernière équation est une formule empirique pour tenir compte du fait que les gouttes supérieur à 1 mm de diamètre se déforment et ne reste pas complètement sphérique). Mais je pense que c’est un peu compliqué et qu’il vaut mieux se limiter à ces deux là, et même uniquement la première, c’est largement suffisant pour donner une idée. Par ailleurs ces deux formules sont valables pour lorsqu’on n’est pas à une altitude trop élevée (sinon éventuellement, pour la seconde je peux donner la forme brut à adapter en fonction des conditions, mais pas pour la première qui est empirique). Par ailleurs les gouttes au-dessus de 4 ou 5 mm de diamètre deviennent instables et tendent à éclater. Les plus grosses atteignent jusque 6 mm mais elles sont vraiment instables et éclatent vraiment très facilement. Ensuite il est nécessaire de connaître le diamètre moyen des gouttes en fonction des situations. Généralement on retient : des diamètres entre 0,05 mm et 0,5 mm pour la bruine, 0,5 mm et 1mm pour la pluie fine, 1 à 2mm pour la petite pluie, 2 à 3 mm pour la pluie modérée à u peu plus soutenue, 3 à 4 pour les averses usuelles et 4 à 6 mm pour les plus fortes pluies orageuses. Tout ceci reste quand même relativement subjectif mais ça donne une idée. En fonction des hypothèses postulées sur la taille moyenne des gouttes, on peut calculer Mg la masse des gouttes (volume d’une sphère * masse volumique de l’eau) : Mg = 4189*(D/2000)^3 en kg avec D le diamètre des gouttes en mm. Ensuite il est nécessaire de connaître I, l’intensité des précipitations. Elle se note généralement en mm/h, cela correspond au nombre de litre d’eau par m², donc à la masse d’eau par m². On peut alors calculer une donnée très importante : N, le nombre de gouttes qui tombe en une 1h et par m² : N = I / Mg Globalement, sous les 1mm/h c’est de la pluie très faible ou la bruine, sous les 2 à 3 mm/h les précipitations sont toujours bien faibles. Sous les 5mm/h on reste avec des petites pluies, elles deviennent plus modérées jusque 10 mm/h. Les intensités de allant jusque 15 à 20 voire 30 mm/h deviennent plus soutenues puis elles commencent à être fortes au-delà. Les averses montent fréquemment jusque 100 à 200 mm/h dans les passages intenses. Et les averses diluviennes sous les gros orages montent jusque 250 à 400 mm/h voire parfois davantage, mais il s’agit là d’intensités généralement très peu durables. Petite remarquable Si on veut on peut calculer E, l’énergie des précipitations en 1h et par m² pour le modèle qu’on utilise : E = Mg * V² / 2 en joules Ou encore P, la puissance développée par les précipitations arrivant au sol par m² : P= E/3600 en W/m² Mais ceci est annexe. Pour avoir la notion de pression, il va falloir revenir à celle de la force. On a va donc calculer la force qu’il faut soumettre à la goutte pendant un certain temps (on prend arbitrairement 1 seconde pour simplifier) pour qu’elle atteigne la vitesse de chute avec laquelle elle va percuter la surface. Ensuite il y a plusieurs grosses hypothèses à faire. La première c’est qu’on se rend compte que toute l’énergie de la goutte n’est pas utilisée sous une forme de pression (ou force) dans le sens de l’impacte. Une partie de cette énergie part dans la déformation de la goutte et est déviée par mouvements horizontaux (on le voit bien avec les micro-gouttes qui giclent sur le côté au moment de l’impact d’une goutte). Je n’ai absolument aucune idée de la quantité d’énergie qui est véhiculée de la sorte, et qu’il faudrait donc enlever de notre raisonnement. Pour simplifier, on va dire qu’elle est nulle, mais je ne suis pas sûr que ce soit vraiment le cas, il faudrait regarder plus précisément, si elle n’est pas nulle il faut en tenir compte dan ce qui suit en enlevant une partie de l’énergie … Bref, on suppose cette perte d’énergie dans le sens vertical comme nulle. On suppose ensuite que la surface d’impacte est horizontale et que les gouttes tombent verticalement, sinon ça complexifie encore le problème, notamment en modifiant la quantité d’énergie qui quitte l’axe vertical (et qu’on a considérée comme nulle !). Ceci posé, on suppose donc que les gouttent exerce sur la surface d’impacte une force perpendiculaire à la surface et d’intensité et de durée identique à ce qui a été nécessaire pour la mettre en mouvement à la vitesse V. Comme on cherche la force moyenne, si on suppose que les gouttes tombent régulièrement, on peut calculer DT, le temps moyen qui sépare la chute de 2 gouttes sur une surface de 1 m² : DT = 3600/N On calcule ensuite F en Newton la force qu’il faut soumettre à la goutte pour qu’elle atteigne la vitesse V pendant l’intervalle de temps DT en seconde : F = Mg * V / DT Cette force (en N) correspond donc, suivant notre modèle, à la force moyenne des gouttes de pluie sur une surface de 1m². C’est donc aussi la pression moyenne (en Pa) exercée par les gouttes sur la surface ! ! ! CQFD ! ! ! Ouf ! En fait pour que la pression moyenne ai un sens il faut savoir combien de gouttes s’écrasent sur la surface en même temps (on va appeler ce nombre Ngsimult). En effet l’impacte d’une goutte est très ponctuel, pour qu’il y ai un sens statistique et physique à ce problème, il faut donc posée une hypothèse sur le temps en seconde Tdissip que mets une goutte à s’écraser (rien à voir avec le DT calculé précédemment qui est un artifice de calcul) : Ngsimult = Tdissip * Surf * N / 3600 avec Surf la surface en question en m². Ainsi si Ngsimult est inférieur à 1 (et même, dans une moindre mesure, inférieur à 10 car l’intensité maximale n’a lieu que sur un très court laps de temps) c’est que la pression réellement subie par la surface est très hétérogène et très mal représenté par la pression moyenne. Voili voilou … J’espère ne pas avoir fait de gaffe dans le développement des calculs … lol Après, on peut complexifier un peu prenant non pas des diamètres uniques de gouttes de pluie mais une distribution statistique, ou peut aussi mettre une variabilité dans l’intensité, … Mais je ne pense pas que ce soit ce que tu cherches et ça complique très rapidement beaucoup les choses.
  3. Pure diffamation : allégation totalement gratuite et parfaitement erronée ! L’intérêt de ce genre d’exercice est de comparer des méthodes. Les équipe qui fond ces prévisions ont chacune leur méthode : modélisation, diverses méthodes statistiques, … Le but est de mieux comprendre le fonctionnement de la banquise et d’améliorer les paramétrisations des modèles de glaces dans les simulations climatiques : le résultat final brut n’est que relativement accessoire (son analyse détaillée l'est en revanche beaucoup moins ...) … En effet si une équipe à fait une modélisation et obtient un bon résultat et que, à postériori, la même modélisation avec les conditions atmosphériques qui ont réellement été observées donnent un moins bon résultat, c’est que le modèle est mauvais (ou perfectible) et qu’il faut chercher à voir ce qui ne va pas. Pour se faire, il faut regarder ce qu’ont obtenu les autres équipes avec leurs méthodes, il faut regarder là où le modèles a de meilleurs comportements que d’autres zones ou variables et il faut alors assayer de trouver les raisons : courant, conditions atmosphériques, épaisseur, … Bref 1000 et 1 pistes ! Si une équipe à choisi une démarche statistique elle peut regarder pourquoi là elle obtient un meilleur ou moins bon résultat que la dernière fois, pourquoi la fois précédente ça marchait mieux en tenant en compte d’une certaine façon tel cycle et que là au contraire ça marche moins bien … C’est très complexe comme démarche et bien plus riche que de regarder une tout petit graphique sur un site Internet … Sachant qu’Olivier à raison : il y a généralement des probabilités d’erreur avec telle ou telle pourcentage de confiance (techniquement on parle souvent d'intervalle de confiance) ou alors des probabilités de dépassement de seuil. C’est tout ça qui est important. C’est beaucoup de boulot et donc des personnes qui travaillent à temps plein sur le sujet. L’amélioration des simulations couplées du climat global (mais aussi des simulations de glace) est à ce prix et c’est ça qui est si passionnant !
  4. Cest jolie … mais pour le coup ça na plus trop à voir avec la météo … Ca fait plus "météoritique" ou "cométique" quautre chose ! lol /emoticons/biggrin@2x.png 2x" width="20" height="20">Par contre, dans ce qui suit, je vais tenter dexpliquer quelques exemples pour associer ton petit exemple théorique avec le concret et la réalité. Ce que tu avais avant est quelque chose qui se voit beaucoup en océano : après un fort coup de vent qui sarrête brutalement le courant de surface généré par le vent continue quelque temps sur sa lancée et on observe parfois des oscillations de ce type sur des bouées ou la dérive des glaces. Cest très parlant sur ces deux graphiques qui sont très proches de tes cas théoriques : http://oceanworld.tamu.edu/resources/ocng_textbook/chapter09/Images/Fig9-1.htm http://www.cleonis.nl/physics/inertosc_img/inertia_circle.png Dans la pratique je vais mentionner une petite différence entre les spirales étirées des schémas et celles que tu obtiens lorsque tu es près de léquateur sur tes exemples théoriques. Sur tes simulation théorique, tu vois que lorsque tu commence à téloigner de léquateur tu obtiens des cercles quasi-parfait (cest logique, le rayon de giration nest pas énorme et plus on séloigne de léquateur et moins le paramètre Coriolis varie pour un décalage en latitude donnée, or, ce sont les variations de la force de Coriolis avec la latitude qui rendent laspect non-circulaire). Dans ces exemples, qui sont des bouées, donc avec une vitesse très petite et donc un rayon de giration très court, si on nobserve pas des cercles quasi-parfaits cest parce que le phénomène nest pas parfaitement pur, ce qui est différent des spirales étirées que tu obtiens avec tes simulation pures près de léquateur. En météo ce type doscillation est moins pertinent même si apparemment quelques faibles oscillations de ce type on put être observées sur des ballons qui restent plusieurs jours dans la haute atmosphère à une même pression. Sinon, je ne sais pas si tu en a déjà entendu parlé, mais une des explications (ou une partie de lexplication) des courants jet nocturne de basse couche tient en partie là-dessus avec une excitation dû au forçage thermique diurne et au transport de quantité de mouvement apporté par la turbulence et la modification du profil thermique apporté par le forçage. Mais là cest plus technique et très particulier. Sinon pour lajout de force pour simuler une dépression, il y a un gros problème conceptuel qui explique que lexemple foire. En effet, pour ce genre détude, on ne peut considérer une particule prise indépendamment des autres. Dans latmosphère, les particules sont « touche-touche » et interagissent alors entre-elles. Par exemple, on voit bien le problème lorsque ta particule commence à séloigner de lattraction du point bleu : fatalement elle ne peut faire cette trajectoire puisquelle va rencontrer (et percuter) une particule qui accélère vers se point bleu. En gros, il faut faire intervenir une sorte de friction entre ces particules (rien à voire avec la friction entre les molécules dair, on nest pas du cout aux mêmes échelles !). Lensemble de déplace en lien avec des oscillations plutôt limité autour de léquilibre (du moins à léchelle synoptique dans latmosphère sur le plan horizontal). Lorsquil ya des ruptures de léquilibre les particules tendent à se percuter et à se monter les unes sur les autres : on produit des vitesses verticales ! Cest très imagée, mais cest plus ou moins ça qui se passe. Cest un peu technique, mais jespère que cest un minimum compréhensible. Cest en tout cas particulièrement intéressant de montrer ce genre de simulations et ensuite danalyser ce quelles apportent, ce quelles expliquent, mais aussi ce quelles ne montrent pas.
  5. OK, je pense que c’est à cette ligne qu’il y a un petit problème : La valeur « 0.03490… » que tu utilises pour la conversion des degrés en radiant n’est pas la bonne car elle correspond à PI/90, or il faut PI/180 . A ce moment la force de Coriolis est environ deux fois moins forte et on devrait trouver quelque chose de plus raisonnable.Sinon, le changement de la circonférence n’affecterait en rien le phénomène en lui-même. Ca ne changerait que la représentation sur la carte en fonction de la projection. C’est une question de référentiel. Sinon au pôle le point ne tournerait pas autour de lui-même mais effectuerait un cercle (ou presque) avec une période de 12h (ou presque). EDIT : En fait tu viens de me devancer d'une petite minute ! lol Donc je pense que maintenant ça doit être les bonnes valeurs !
  6. Oui ... C'est pas faut ... Comme quoi ... D'ailleurs ce site je ne le regarde quasiment plus, ou alors uniquement lorsque j'ai vraiment du temps à perdre ou pour quelques trucs bien précis comme là d'ailleurs ! :-D
  7. La forme convient bien. Ce sont ce qu’on appelle des oscillations d’inertie. Elles seraient circulaires si tu fais l’approximation de ne pas faire varier la force de Coriolis avec la latitude. Le fait de ne pas tenir compte de la variation circonférence de la Terre avec la latitude ne doit avoir aucune influence importante car tu ne t’éloigne jamais beaucoup de l’équateur (variation suivant le sinus de la latitude). En revanche à vue de nez, je trouve les oscillations un peu rapide. En théorie la période est 2.PI/f (d’où l’aspect circulaire si f est constant sur la trajectoire) avec f= 2.PI.OM.sin(PHI) avec OM=3600*24 (le nombre de secondes en 1 journée) et PHI la latitude. En disant que sur ton schéma on a environ 1.7 période en 6 jours, je trouve une latitude moyenne d’environ 8.1°, ce qui est un peu trop élevé par rapport à l’échelle de latitude que tu mets. Bon, après, j’ai peut-être fais une petite erreur dans le calcul ou c’est moi qui fait un petite erreur d’interprétation … Donc éventuellement je veux bien voir ton code source (éventuellement en MP si tu préfères) s’il n’est pas dans un langage trop ésotérique … Sinon, pour info, le rayon de giration R est : R=U/f avec U le module du vent horizontal total, mais c’est difficilement applicable dans ton cas où tu es très proche de l’équateur et où du coup f varie énormément au cours de la trajectoire (très peu circulaire et proche d’une cycloïde).
  8. Sinon pour en revenir à une de tes questions initiales. Effectivement, on a généralement bien une forte diminution des valeurs du tourbillon entre les basses couches et les plus hautes couches. C’est quand même visible sur les cartes d’analyse du CIMSS même si on a bien toujours un noyau positif marqué à 200 hPa : http://cimss.ssec.wisc.edu/tropic2/real-time/windmain.php?&basin=atlantic&sat=wg8∏=vor1&zoom=&time= Mais en fait c’est que 200 hPa ce n’est pas assez haut : Voici la vision du GFS 0.5° pour le tourbillon relatif en couleur et les altitudes géopotentielles en contour à 900 hPa : puis à 175 hPa : : en altitude les valeurs de tourbillon cyclonique sont beaucoup plus faible qu’en basse couche. Mais surtout on voit bien apparaître en altitude une circulation anticyclonique (visible avec les valeurs du tourbillon et les altitudes géopotentielles) dans lequel est emprisonné le reste de tourbillon cyclonique à plus petite échelle. C’est aussi bien marqué lorsqu’on regarde les vents à 175 hPa : . La diffluence anticyclonique apparait bien autour du petit reste cyclonique. Sur les cartes CIMSS on voit aussi bien à 200 hPa que le noyau de tourbillon est plus faible qu’à 850 hPa et noyaux autour de régions à tourbillon relatif négatif : Même à 300 hPa sur les sorties MM5 de l’Université de Floride on voit bien apparaître l’environnement avec globalement un tourbillon relatif négatif, sauf au niveau du centre cyclonique :
  9. Pardon du retard … J’avais complètement oublié que j’avais commencé à sauvegarder des cartes pour ce topic … il suffit d’être patient, tout fini par arrivé ! lol (regardez, elles dates du 1er juillet ! lol) Bon si on regarde les cartes Météoblue. Voici le flux solaire incident : Si on compare les flux de chaleurs sensible : avec les flux de chaleur latentes : L’idée est notamment de regarder la région de Saragosse en Espagne, avec visiblement des sols très sec si on en juge la faiblesse des flux latents par rapport aux flux sensibles. C’est exactement l’inverse en France du centre-Est au Bassin-Parisien là où l’ensoleillement est similaire à celui d’Espagne. Les sols sont donc beaucoup plus humides. J’ai donc sélectionné un Météogramme dans la région de Saragosse : et un autre dans les Charentes : Sur le graphique Espagnol, on remarque que l’évolution diurne du Td est un vrai encéphalogramme plat. Effectivement sur le graphique du bas on constate que les flux de chaleur latente sont au plus bas, inférieur à 100 W/m² alors que les flux de chaleur sensible enregistrent des pics à plus de 400 W/m². dans ce cas l’échauffement est important. Les 100W/m² correspondent à 0.14L/m²/heure, sachant, que les 100W/m² ne sont pas dépassé et que c’est un maximum, on voit là que l’évaporation et l’évaporation est vraiment très faible … A l’inverse dans les Charentes, en début d’échéance et en fin d’échéance l’évolution journalière de la Td est très nette. Si on regarde les flux on voit effectivement des flux latents qui montent jusque 400 W/m² (soit presque 0.6L/m²/heure). Dans ce cas les flux sensibles sont nettement en retraits et atteignent péniblement les 200 W/m² soit 2 fois moins qu’en Espagne ! La différence se fait donc sentir sur l’échauffement (mais attention pas forcément directement sur la température à 2m en fonction de la distribution de cette chaleur dans la couche limite !). Par exemple c’est un paramètre à prendre en compte pour l’établissement des dépressions thermiques par exemple. Et évidement pour les orages … entre l’humidification qui fait baisser les seuils de condensation ou l’échauffement des basses couches ce n’est pas la même chose … Si on regarde des zooms, ici pour les flux de chaleur sensible et des lignes noires pour la température : . On s’aperçoit du rôle des agglomérations (nature des sols) dans les flux de chaleur sensible (et donc une baisse des flux latent). Le cas de la région parisienne est très nette avec une bulle chaude, mais aussi Rouen (on voit bien ce que fait l’isotherme qui contourne l’agglomération). Le modèle modélise même un petit îlot sur Melun (77) ! (mais là c’est une chance, on ne devait vraiment pas être loin de la valeur de l’isotherme …). Sinon on reconnait sur les flux de chaleur sensible les villes d’Orléans, Tours, Reims, Troyes, Valencienne, Arras, Lille, ou encore Bruxelles et Charleroi en Belgique. Inversement juste à l’Est de Reims les Lacs de la forêt d’Orient apparaissent clairement come des zone à faible chaleur sensible et bien plus froide. Avec tout ça, par le biais de la modélisation, on voit bien de l’importance joué par le contenu en eau du sol …
  10. Déjà, félicitation pour le travail … Ca n’a visiblement pas été facile … mais le résultat est très propre ! Bravo ! Pas de chance pour le problème sur les citations des messages datant d’avant le changement … C’est assez pitoyable de la part d’IPB de laisser passer ce genre de chose sur une mise-à-jour … Vous pensez qu’il y aura un jour un patch de correction ?? Sinon, c’est vraiment annexe, et ça ne concerne peut-être que moi … Mais lorsqu’on est dans les pages où sont listé tous les sujets d’une même rubrique, lorsqu’il ya beaucoup de page sur un même sujet les pages en accès direct sont les 1, 2, 3 et la dernière. Si jamais c’est possible et ça vous semble pertinent, est-il possible de mettre en accès direct la page 1 et les trois dernières ? Et aussi pour la fonction recherche avancé. Lorsqu’on fait une recherche en sélectionnant une partie du forum en particulier, on ne peut pas retourner en arrière en ne faisant aucune sélection de rubrique : pour cela il faut sortir de la fonction rechercher et y re-rentrer (par défaut il n’y a rien de coché). Dans la version précédente il y a avait une rubrique qui s’appelait « Tous les forum » ou un truc du genre. C’était plus pratique. Et toujours dans la fonction recherche, avant on pouvait voir uniquement les messages qui correspondait à la recherche. Ils s’affichaient tous les uns à la suite des autres avec des ascenseurs pour chacun d’entre eux qui étaient trop long. C’était aussi très pratique. Mais si c’est je suis le seul, si c’est impossible ou même simplement compliqué, c’est pas dramatique. C’est déjà très bien comme ça !
  11. Je te conseille d’aller voir ce site qui référence un certain nombre données : http://www.ipcc-data.org/ Il y a pour ce qui pourrait t’intéresser : Un outil de visualisation : http://www.ipcc-data.org/maps/ pour certains paramètres et toutes les simulations de tous les centres de calculs. (et sinon, je pense que tous le monde connais le site de MF pour ses simulations : http://climat.meteofrance.com/chgt_climat/simulateur/ ) Un outil pour retirer des formats SCV (lisible avec lecteur de text ou Excel) : http://www.ipcc-data.org/cgi-bin/ddc_nav/dataset=ar4_gcm (je crois que c’est ça qui t’intéresse le plus). Mais il n’y a là que des données assez limités. Pour aller plus loin, il faut manipuler les fichiers NetCDF. Il faut quand même savoir que si on veut vraiment travailler avec les simulations c’est un incontournable. Mais c’est pas extrêmement dur non plus, tous les logiciels nécessaires (traitements et visualisation) sont gratuits sur OS Linux … Pour avoir accès à ces données, en fouillant un peu dans le site : http://www.ipcc-data.org/ pour pouvoir télécharger quelques données de base. Pour avoir des données plus complètes il faut généralement des codes d’accès ou aller ailleurs, comme par exemple ici pour les données bruts des simulations de l’IPSL : http://mc2.ipsl.jussieu.fr/simules.html En fait, c’est très transparent, il n’y a rien d’obscure. Mais c’est sûr que pour aller plus loin il faut maîtriser les outils informatiques pour manipuler les données.
  12. Je pense qu’il y a quelque chose de très important, c’est que les indices ne sont qu’une représentation très parcellaire d’un état à un certains instant. Ils n’expriment en rien les processus qui gouvernent l’évolution des océans et de l’atmosphère. Ils ne sont pas fait pour ça, et il ne faut pas trop leur en demander, même si je suis bien d’accord que c’est quelque chose qui est très facilement manipulable pour le passionné. Je ne dis pas qu’on ne peut rien faire, mais on reste forcément beaucoup trop superficiel. Je ne vais pas me répéter ce que je viens de dire dans une autre rubrique (c’est mon cheval de bataille aujourd’hui ! ), donc je mets le lien : /index.php?showtopic=47132&view=findpost&p=1044782'>http://forums.infoclimat.fr/index.php?showtopic=47132&view=findpost&p=1044782 C’est pour ça TreizeVents que je ne suis pas étonné qu’on ne trouve que des corrélations très faibles pour certains indices. D’autre fois ça marche mieux (NAO ou AO pour l’Europe, certains indices qui matérialisent l’ENSO pour le bassin Pacifique, …).
  13. Si on regarde rapidement comme ça effectivement, les séries climatiques d’El Niño ne paraissent pas très corrélées avec le temps observé en France. En revanche il est erroné de dire que ça n’a aucun rôle. Le problème vient du fait que les séries climatiques des indices ne donnent qu’une vague idée de la climatologie et ne renseigne en rien sur les processus physiques en jeu. Actuellement la recherche va (et heureusement) bien au-delà de ces indices, qui servent quand même toujours à repérer les années typiques par exemple. On peut noter que certains indices composites et complexes ont été élaborés pour décrire un peu mieux la climatologie, mais ils n’arriveront jamais à décrire les processus auquel est soumis la machine climatique. Il y a très probablement un rôle bien plus important que ce que laissent suggérer les indices. Si les phénomènes globaux sont très proches dans la zone, les indices sont incapables de décrire complètement la situation. Actuellement on passe par des techniques statistiques beaucoup plus perfectionnées pour décrire les champs et leurs phases. On s’aperçoit qu’il ya des anomalies de structures qui passent parfois inaperçus avec les indices et qui montrent en faite une dynamique légèrement différentes. Cela peut ne pas avoir grande importance dans la zone Pacifique par exemple, mais la réponse pout alors être différente lorsqu’on sort de la zone. Le message que je veux faire passer c’est que les indices sont intéressants d’un point de vue descriptif en donnant une certaines image très parcellaire (dont ils convient de connaitre les limites) de la situation. Mais ce qui est important pour la compréhension des phénomènes et donc la prévision, c’est la physique qui se cache derrière, l’organisation des processus météorologiques. Et pour ça on n’a d’autre choix que d’aller bien plus loin que ces indices. En revanche, si on ne comprend pas les processus, faire des études spectrales des indices (c’est-à-dire étudier très précisément les variations des l’indices) peut amener à établir (avec plus ou moins de bonheur) des prévisions sur ces indices que l’on peut éventuellement traduire en données météo si des corrélations (plus ou moins solides) ont pu être établies. Mais c’est tout autre chose, et l’expérience montre qu’avec les indices simples c’est semble-t-il plutôt inapplicable pour l’Europe vis-à-vis de l’ENSO.
  14. C'est pas grave. Merci. /emoticons/smile@2x.png 2x" width="20" height="20"> De toutes les façons même si je pars pour ces prochaines années vers la météo pure, ces problèmes de climat m'intéresse beaucoup. A l'avenir et en parallèle je vais tacher de me cultiver davantage sur le sujet.
  15. Effectivement … J’ai rapidement parcouru le sujet et on peut revenir sur quelques points … Il y a parfois quelques confusions. La formation des mammas typiques sous les enclumes des Cb est du à des processus de turbulence instable. Ils se produisent généralement lorsque le profil est proche de l’instabilité dans leur zone de formation. L’apport d’eau nuageuse par la convection dans une zone d’altitude très sèche entraîne une évaporation du nuage à l’interface, donc un refroidissement du bord de nuage qui est « érodé ». dans ce cas, on peut généré de l’instabilité avec la plongée de poches froides nuageuses qui termine de s’évaporer lentement. Rien à voir avec les photos de cette soit-disant nouvelle espèce. Ensuite ou a les bases turbulentes, généralement par le relief (à dissocier de la convection). Dans ce cas, on a généralement une couche sèche en basse couche qui est surmonté par une couche humide et condensée dans un environnement très stratifié. Les turbulences lié au relief se propagent et déforment cette couche stratifié si les conditions sont réunies. La limite nuageuse évolue alors comme une surface déformable. On le voit par exemple sur cette photo que j’ai une fois prise en Norvège : Sur le zoom, on montre que les pointes nuageuses s’effiloche : à ce niveau la turbulence (peut-être aidé le déferlement ou quasi-déferlement des ondes turbulentes à ces endroits –comme des vagues sur une plage-) détruit la couche stratifiée et l’air sec évapore ce petit bout de nuage, donnant l’aspect filamenteux. Ce genre de mammas n’a rien à voir comme mode formation avec les précédents. Je pense que les photos des « asperatus »en question à ranger dans ce genre de phénomènes, mais pas forcément avec une couche nuageuse régulière, mais discontinues et non complètement saturées, qui permet d’ajouter la formation de lenticulaires qui ajoutent encore à l’aspect mystique. Enfin, il ne faut pas du tout confondre avec les bases turbulentes que l’on peut voir dans les zones orageuses. Elles peuvent avoir 2 origines. La première est des bases instables à l’étage moyen avec des stratifications d’humidité. La turbulence et la profondeur de l’ascendance convective jouant alors avec les stratifications d’humidité pour donner des bases nuageuses à hauteur variable, donnant un aspect tourmenté. Et ceci n’est pas à confondre avec le sillage turbulent derrière un front de rafales. Dans ce cas, on a la limite du courant de densité frais et sec qui glisse sous l’air chaud et humide. La turbulence à l’interface de l’air frais et sec et de la limite nuageuse donnant un aspect très tourmenté. Là encore c’est différent. Bien sûr, sur ces aspect convectifs, dans les deux cas, le relief peut jouer le trouble fête et complexifier la chose. Voilà simplement 2 ou 3 réflexions là-dessus pour exprimer mon avis.
  16. Je pense que c’est de la fumée. Les turbulences de l’air agissent très vite, surtout près du sol. Pour la condensation j’y crois pas une seule seconde. Il faudrait un phénomène qui ai amené un refroidissement ultra-localisé sans être compensé par le phénomène inverse en réchauffement juste après (je n’en vois pas …). De toute les façons vue les conditions sur la photo (bases nuageuses assez haute, donc un air assez sec en dépit d’un léger voile pluvieux), un tel filament de condensation s’évaporerait en quelques secondes, bien avant de pouvoir être chahuté de la sorte par les turbulences.
  17. Je me permets de répondre car comme ça Pinthotal pourra en profiter pour éventuellement me corriger/compléter …Mais effectivement je ne sais pas ce que fais MF sur le sujet mais à propos du couplage il y plusieurs trucs à prendre en compte. Déjà le pas de temps : le modèle global à un pas de temps compris entre 10 et 20 minutes en général contre quelques minutes à une dizaine de minutes pour les modèles régionaux. Donc déjà là il faut s’adapter, mais ça se fait bien. Généralement le couplage aux bords du domaine se fait avec un champ toutes les 3h ou toutes heures qui est interpolé temporellement et géographiquement pour s’adapter au pas de temps du modèle régional et de sa maille. Le couplage « en temps réel » se fait aussi mais nécessite plus de ressources informatiques pour un gain assez limité (enfin, il me semble, et qu'’on préfère utiliser cette ressources à d’autres fins plus « efficaces » comme la résolution ou la physique des modèles). Mais l’avantage majeur de découpler les 2 et de lui ingérer des champs sauvegardé par ailleurs, c’est que ça permet de découpler totalement les deux. Comme ça avec une seule simulation globale on peut faire toutes les simulations régionales qu’on veut (différentes configurations de modèle, différentes périodes temporelles, …). Ceci dit il y a des essais (mais on en est qu’à des tests actuellement) où le couplage « en temps réel » est une nécessité, c’est pour la synchronisation à double sens. C’est-à-dire que le modèle fils agit en retour sur le modèle père (on parle de « two-way nested model »). En météo, ça fait longtemps que la technique du downscaling est opérationnelle (par exemple le consortium ALADIN à été crée en 1991, pour développer proprement en opérationnel un tel outil). A ma connaissance Meso-NH date d’ailleurs grosso-modo de la même période. En climato je crois que ça fait maintenant quelques années que la technique se répend de plus en plus, merci la puissance de calcul …
  18. Merci pour toutes ces précisions Pinthotal. Donc si je comprends bien, c’est que l’AS climato ne retranscrit (on pourrait dire « résume ») pas son apprentissage par régression comme le fait l’AS météo. Tu dis qu’à chaque fois on refait appel à tout l’historique via des méthodes ad-hoc (type réseaux neuronaux par exemple il me semble). Ca doit en effet être très lourd en calcul par rapport à l’AS météo qui est légère (tout le travail –très lourd aussi- est fait préalablement lors de l’apprentissage). Merci encore.
  19. Oui, merci pour ces précisions. En fait je ne cherchais pas forcément vraiment à les opposer. Mais il y a quelques points sur lesquels j’aimerai revenir. Donc si jamais tu as 5 minutes … Là, je pense comprendre de travers … Si je comprends bien (mas j’ai des doutes) tu appliques au modèle régional une adaptation statistique à l’échelle régionale. Effectivement, c’est très bien, mais dans ce cas ça correspond à mixer les deux méthodes et donc l’incertitude/erreur ajoutée ne provient pas de la méthode du downscaling dynamique mais à la correction statistique. En allant plus loin, on peut aussi remarquer dans ce cas que l’impact de ces correction statistiques doit être plus faible avec le modèle régional qu’avec le modèle local, sinon ça veut dire que le modèle régional est foireux et n’apporte pas grand-chose … Dans ce cas, si c’est bien ça que tu voulais dire, pourquoi est-on obligé d’en faire pour les sorties climato alors qu’elle n’apporte qu’une amélioration assez limité en météo (au regard de l’incertitude liée à l’évolution climatique du modèle global) ? Ensuite pour ça, en théorie c’est exacte. Dans les faits j’ai du mal à croire que ça ai une réelle influence puisque les modèles régionaux météo sont sensés s’appliquer assez bien à toutes types de régions, éventuellement avec des modifications de paramètre mais qui peuvent dans ce cas être en (grande ?) partie programmées en fonctions des conditions qui lui sont ingérées. Pourquoi en serait-il différemment dans le futur (la gamme de variation climatique au cours du temps pour une région donnée étant bien inférieurs aux variations des climats actuels en fonctions des régions) ? Et enfin là je ne saisi pas bien la différence … les adaptations statistiques météo se basent bien sur les situations passées aussi, c’est le principe de la méthode non ? Et ce quelques soit la technique utilisée (juste les champs analysé à un instant t ou les prévisions par modèle).Ceci dit je suis tout à fait d’accord avec toi, c’est bien des techniques complémentaires ! Pour finir je sais qu’une version climatique du modèle ALADIN est en cours de développement (ou déjà fini peut-être ?). Sais-tu ce qu’elle apportera de plus par rapport à la version classique utilisée jusqu’à maintenant pour ce type d’exercice ? Pardon pour toutes ces questions ou remarques. /emoticons/smile@2x.png 2x" width="20" height="20"> Si tu n’as pas le temps c’est pas grave … d’autant que je ne suis pas certains que ces problèmes techniques intéressent beaucoup de monde ici.
  20. J'ai le souvenir qu'à plusieurs reprises lors de Vigilances "vent" le risque de fortes vagues et/ou marée de tempête a déjà été indiqué lorsque cela s'avérait nécessaire ! Y'avait évidement pas de picto sur la carte mais c'était très explicite dans le texte.
  21. Eventuellement pour ceux que ça intéresse et pour préciser un peu sur ces aspects de régionalisation climatique. Il y a plusieurs techniques employées. La première possibilité est l’adaptation statistique. Le principe est de connaître sur un grand nombre d’années comment réagit un modèle de grande échelle par rapport à une station locale. Le but est donc d’arriver à faire des statistiques entre les prévisions météo du modèle pour tel ou tel ensemble de paramètre par rapport à la réalité pour s’adapter. Ca permet d’avoir des infos régionales, et de corriger les biais du modèle. Elle est très employée en météo mais soufre d’un défaut majeur en climato : on n’est pas certain de la stabilité de la statistique du modèle employé face aux évolutions climatiques. L’autre solution est d’avoir une zone zoomée du modèle sur une région donnée. Ca marche assez bien mais la descente d’échelle par ce biais est assez limitée. La troisième et dernière solution qui peut-être couplée à la seconde pour descendre à des échelles encore plus fine, consiste à faire tourner un modèle régional. Par exemple Météo-France fait tourner ALADIN sur un petit domaine. Des études sont aussi faites avec WRF (modèle de méso-échelle très connu en météo car son code est libre). Sur ce genre de modèle la plaine de Limagne (par exemple) peut-être représenté. Il y a plusieurs avantages : la méthode est parfaitement éprouvée car elle est utilisée tous les jours par les services météo en opérationnel. On peut faire plusieurs essais de régionalisation à partir d’une même simulation globale initiale. Si le modèle globale est bon, à priori le modèle régional sera aussi bon (en tout cas l’incertitude ajouté est très inférieur à celle de départ issue du modèle global) car ça marche très bien en météo (c’est le même principe). L’inconvénient, c’est que si le modèle global est dans les choux, le modèle régional le sera tout autant et on peut du temps de calcul pour rien, mais c’est un problème inhérent à toute descente d’échelle …
  22. Ca devait être des conditions de départ pour des simulations numériques idéalisées. mais bon, sans autres infos, je vais avoir du mal à être plus précis ! /emoticons/biggrin@2x.png 2x" width="20" height="20">Sinon, le début du 1er et 3ieme liens sont identiques, mais la fin sont différentes. Lorsqu'on clique dessus ça ouvre bien les 3 volets de l'étude il me semble ?
  23. C'est certainement lié à la topographie, mais il peut y avoir deux réponses différentes. Une réponse purement locale avec l'influence des vallées et massifs locaux. Pour ça, il y a parfois des études qui sont faites avec des modèles numériques à très fine échelle. Ca marche assez bien, mais on est obligé de passé par des simulations numériques car les réponses ne sont pas simples.Enfin, sur un second plan, ça peut jouer à plus grande échelle avec l'influence de toute la chaîne Alpine par rapport à un flux synoptique donné. Là encore les réponses ne sont pas simples et nécessitent des études de cas ou des simulations numériques.
  24. Tous les éclairs n’ont pas le même ampérage (donc puissance). Et justement les orages qui génèrent de nombreux intra donne généralement un grandement sourd et continue mais peu puissant. C’était peut-être ton cas avec des intra très faibles et juste quelques petits km de distance (ça va vite, un intra en haut d'un nuage à la vertical de soi est déjà facilement à 4 ou 5 km d'altitude). De façon imagé et extrême, ton voisin n’entend pas un coup de tonnerre quand tu enlèves un vêtement qui se décharge d’électricité statique … ce qui n’est pourtant rien d’autre qu’un éclair …
  25. Certes, … Mais c’est vraiment des réfections de « puriste extrémiste » /emoticons/biggrin@2x.png 2x" width="20" height="20"> là quand même … L’idée du principe est tout de même bien là … Sinon Damien, pour apporter quelques éléments … La liste que tu donnes n’a rien à voire avec des processus et instabilité qui génère du tourbillon (à l’exception de « couche limite visqueuse au voisinage d’une paroi » et « couche de mélange », c’est « simplement » des distributions de tourbillon qui sont généré pour être rentré dans des simulations numérique de dynamique des fluide. Le principe de « couche de mélange » est celui qui nous intéresse en premier lieu.Pour t’aider à comprendre le lien que tu as donné … dans un message précédent : http://www.lmm.jussieu.fr/~lagree/COURS/ST...elvHelm97.w.pdf On parle de « nappe de vorticité » car on a deux écoulements plans parallèles avec une discontinuité de vitesse. Dans ce type d’écoulement tu n’as de vorticité que là où tu a du gradient de vitesse. La vitesse présentant une discontinuité, tu n’as du gradient qu’au niveau de la discontinuité, et donc du tourbillon qu’en ce point ponctuel (tourbillon infiniment localisé et avec une valeur infinie). Si on considère l’écoulement en 3D on a donc toute une surface de discontinuité, donc de tourbillon, d’où le terme de « nappe de vorticité ». C’est une situation théorique idéale qui permet de résoudre le problème analytiquement avec des solutions théorique exacte. Pour se faire, il faut prendre les équations de Navier-Stocks. On ne trouve des solutions exactes facilement qu’en négligeant la viscosité, on obtient alors ce qu’on appel les équations d’Euler, sur lesquelles on peut travailler. Sans faire cette approximation, on peut résoudre les équations de Navier-Stokes de façon numérique (c’est ce qui est fait dans les modèles météo, par exemple), mais sans trouver de solution analytique exacte. Par ailleurs, on ne travaille que sous l’hypothèse du gaz parfais qui est fait de façon tout à fait commune. En page 10 et 11 du document (5 et 6 du PDF), on a le cas de la photo : un cas l’instabilité de KH se produit dans une direction orthogonale à la gravité (axe des tourbillons et de la gravité parallèle) et bien entendu sans effets de tension de surface (on est dans l’atmosphère, un milieu continue). Ce qui diffère ce cas de la photo c’est que l’écoulement n’est pas aussi pur (il n’y a pas de discontinuité de vitesse, mais une transition), et l’écoulement est plus complexe et des processus parasites peuvent se greffer sur l’instabilité de KH. J’espère que ces éléments t’aident à mieux saisir … Sinon en effet la bible sur les tornades non supercelulaire issues d’instabilité horizontal de vent est bien ici (je donne la série des 3 articles en plus de celui que tu as donné) : http://ams.allenpress.com/perlserv/?reques...NS%3E2.0.CO%3B2 http://ams.allenpress.com/perlserv/?reques...CO%3B2&ct=1 http://ams.allenpress.com/perlserv/?reques...NT%3E2.0.CO%3B2 Pour faire plaisir à Gombervaux /emoticons/tongue@2x.png 2x" width="20" height="20">/emoticons/biggrin@2x.png 2x" width="20" height="20"> ils parlent plutôt, plus généralement, d’instabilité horizontale de cisaillement … tout en évoquant quand même pas mal directement KH dans la partie I.
×
×
  • Créer...