Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Météofun

Membres
  • Compteur de contenus

    932
  • Inscription

  • Dernière visite

Tout ce qui a été posté par Météofun

  1. Merci pour cette remarquable étude !
  2. C’est vraiment pas toujours facile de savoir ce qui a excité des ondes de gravité qu’on observe à un moment donné. Exemple remarquable qui sort un peu du sujet, mais par exemple ici : http://images.meteociel.fr/im/5395/55_fsq7.jpg On observe de superbes ondes de gravité de basse couche entre l’Espagne et le Maroc. En observation surplace on se serait posé beaucoup de questions. Ici pas de doute possible malgré 100 à 200 km de distance, c’est bien la ligne convective qui les a produite (c’est un cas quand même particulièrement remarquable …) : http://images.meteociel.fr/im/8843/57_sxd1.jpg Bref, c’est juste pour montrer que les causes sont parfois lointaines. Ce peut être le relief, mais il n’y a pas que ça … loin s’en faut. Sur ce cas Néozélandais, je sèche, mais apprécie la beauté du phénomène.
  3. Je ne m'étais jamais posé la question sous ce sens mais c'est vrai que ça parait logique. D'ailleurs si on prend un sol qui passe de 0°C à 5°C sous l'effet du vent (valeurs tout à fait raisonnables), le flux énergétique (en assimilant le sol à un corps noir) passe de 314 W/m² à 338 W/m². La différence, bien que faible, existe donc bel et bien et ne doit pas forcément être totalement négligeable.
  4. Alors je me permets d’apporter quelques précisions … Cette formule est issue de développements théoriques assez classiques de la couche limite sur laquelle on a placé un coefficient (Cd) issus d’observations empirique pour coller aux observations (coefficient que l’on peut aussi retrouver avec un résultat similaire par la technique classique des ordres de grandeur). Elle s’applique avec une certaine réussite pour des conditions de stabilité neutre. C’est-à-dire généralement (avec des dépendances en fonction du lieu, de l'ensoleillement, de la situation météo ...) en journée sans un fort ensoleillement et avec un minimum de vent et la nuit en conditions nuageuses et assez venté. Pour les autres conditions ça ne tient pas la route. Mais il existe des alternatives plus complexes à cette équation pour tenir compte des effets de stabilité (elles aussi issues de développement théoriques avec des coefficients ajustés empiriquement). L’autre condition est d’être à une altitude au moins 30 fois supérieur (et 50 fois est mieux) à la longueur de rugosité du sol, et jusqu’à des altitudes de quelques dizaines de mètres (partie basse de la couche limite). Sur cette page il y a un tableau qui récapitule certaines longueurs de rugosité : http://www.windpower.org/fr/stat/unitsw.htm (en milieu de page environ, c’est donc la seconde colonne du tableau qui nous intéresse avec les valeurs données en m). On remarque que pour un anémomètre situé à 10m du sol cette formule est acceptable sur la plupart des terrains en-dehors des villes et des forêts (sous réserve de la très forte limitation de l’atmosphère neutre ou quasi-neutre). En ville (pas trop importante), il faut qu’il soit au dessus des toits (mais ça c’est évident …) pour que ce soit valide. Et évidemment ça ne concerne que le vent moyen et pas du tout les rafales … Et on est aussi d'accord qu'il s'agit d'estimations pour extrapoler le vent à une altitude à partir d'une mesure à une autre altiude, et en aucun cas de mettre je ne sais quel coefficient aux mesures ! Ensuite (comme je l’avais expliqué précédemment), il y a moyen de très nettement améliorer cette formule et de la rendre pertinente en tenant compte de la stratification de l’air (gradient de thêta). La condition de hauteur par rapport à la longueur de rugosité est la même. Mais il faut connaitre le profil thermique de basse couche, ce qui n’est pas une mince affaire … Sinon pour les puristes (je pense à toi Ribi !), je donne les conditions de validité exactes de la formule que tu as donné (c’est un peu technique) sachant que la démonstration part des équations de Navier-Stokes : 1) Décomposition de Reynolds entre champs moyen et écart au champ moyen 2) Approximation de Boussinesq (on néglige les variations verticales de la masse volumique par rapport à la valeur de référence et écarts par rapport à l’état de référence petit devant cet état de référence ==> amène notamment à la divergence 3D du vent nulle, c’est-à-dire à l’incompressibilité). 3) Force de viscosité moléculaire négligeable 4) Stationnarité des paramètres 5) Homogénéité horizontale (sauf pour la pression) 6) Force de Coriolis et de Pression négligeable devant la viscosité turbulente 7) Mouvement unidirectionnel (on choisi l’axe dans le sens de l’écoulement moyen) 8) Profil thermique neutre (hypothèse très forte qui peut être tombée moyennant une formule plus complexes et la connaissance du profil thermique.
  5. Non, du tout, je fais partie de ceux qui, au contraire, aiment les explications un peu fouillées ! Pour la neige qui fond plus rapidement sur la végétation que sur du rocher ou de la terre, je ne sais pas si ça s’appliquais par exemple à une surface herbeuse intégralement recouverte. Si c’est le cas, je n’avais jamais remarqué, mais bon pourquoi pas … Et puis ça ne correspond pas à l’explication de l’absorption IR plus forte (valable uniquement si la surface végétal est exposée au rayonnement). En revanche si ça concerne plutôt les buissons et les arbres, il y a (en plus de l’explication du rayonnement IR qui a ici toute ça place) une explication qui est liée à la circulation de l’air. En cas de redoux, l’air plus doux circule des deux côtés des feuilles et des branches, ce qui favorise d’autant plus la fonte (et a fortiori si on pense que végétation isolée est plus soumise au vent que le sol pas trop exposé). De plus, la nuit ou en journée à l’ombre, il n’y a pas non plus d’inversion de température localisée à la couche contrairement aux surfaces planes. C’est un aspect qui doit être significatif par beau temps calme (je parle bien là à l’échelle de la couche -quelques cm ou dizaines de cm- et pas à l’échelle locale plus grande). Et en plus la stabilité est plus faible : à la moindre fonte sur le support la neige peut glisser et diminuer d’autant « visuellement » les quantités (même si ce n’est pas directement de la fonte). C’est juste un avis : il y a sûrement d’autres possibilités. PS : merci pour ce lien synthétique Damien.
  6. Tu peux éventuellement te renseigner au CEMAGREF de Lyon ou au SCHAPI ? Et peut-être aussi au CNRM mais là je ne suis pas certain si tu cherches pour un bassin en particulier … Sinon il y a peut-être (surement) des labos de recherche ? ?
  7. And the winner is … IFS ! Effectivement, depuis sa création le model européen est systématiquement devant tout le monde en terme de score … Et nettement au-dessus de la concurrence. J’ai pas les données récentes mais il y quelques années les modèles Français et Britanniques était derrière (ARPEGE partage la même dynamique qu’IFS). Et GFS un peu plus loin derrière avec les autres modèles. Mais entre temps ça a peut-être changer, il doit bien y avoir moyen de trouver des statistiques globales un peu plus récentes sur Internet en fouillant un peu … Pour les scores de température à 2m et de précipitations je ne sais pas, surtout en ce qui concerne les paramètres finaux (la T2m est un paramètre final dans le sens où le premier niveau de calcul des modèles globaux est bien supérieur). Par contre effectivement dès quelques jours regarder les modèles d’ensembles types GEFS est la meilleure solution (ainsi que de faire du multi-modèles déterministes). Éventuellement en cherchant à affiner (pour la descente d’échelle de la prévision) avec un modèle déterministe si l’un d’entre eux se cale bien sur le scénario retenu.
  8. Ha oui effectivement Cotissois ... C'est que c'est mis à jour assez tard par rapport à la sortie normale et que je n'avais remarquée depuis que je connais le lien (ça fait pas très longtemps ...). Je vais éditer mon précédent message lol
  9. Effectivement Yann … Et tant qu’à faire autant signaler aussi le BOLAM21 qui est aussi initialisé par IFS. http://www.meteoliguria.it/tabbolam21.asp Mais bon pour BOLAM comme pour WRF de LAMMA, c’est plus vraiment les résultats d’IFS … On observe même souvent de grosses différences …
  10. Effectivement ... Merci Houyo pour ces compléments !
  11. Si vous voulez des champs du CEP (IFS) intéressant je vous conseille effectivement la page de leur site : http://www.ecmwf.int/products/forecasts/d/.../deterministic/ Si vous préférez avoir le champ de l’altitude géopotentiel à 500 hPa et de la pression en surface, RDV sur les pages de Météociel ou de Wetterzentrale que vous connaissez bien … Sinon l’IFS déterministe calcule en T799 soit l’équivalent d’environ 25 km, soit environ 0.23° (si je ne me suis pas emmêlé les pinceaux). Après c’est comme avec GFS la dispo des données c’est autre chose (pour info, GFS calcule en T382 soit vers 35km de résolution soit environ 0.32°, ce qui est nettement moins que les sorties en 0.5° que l’on trouve usuellement …). Par ailleurs l’Institut Portugais de météo propose d’autres champs du CEP (dont les précipitations) pour sa sortie du 00Z uniquement malheureusement (EDIT : erreur ... les sorties de 12h existent bien !) …. http://www.meteo.pt/pt/otempo/previsaonumerica/index.jsp Et là pour d’autres champs (TA 500, HU700, T500, T850) mais elles ne sont pas très claires … http://www.meteoam.it/modules.php?name=catopTecnica Sinon pour d’autres produits, il faut aller voire sur la bannière de présentation où il y en a un en démo : ça change tous les jours mais il y a parfois des trucs très intéressants … http://www.ecmwf.int/samples/d/banner/page.html Et là-dessus on a parfois des choses sur les sorties ensemblistes. Il y en a une démo par continent d’un produit ensembliste : la ville change tous les jours … avec un peu de chance ça nous intéresse pour la France. http://www.ecmwf.int/products/forecasts/d/epsmain Sinon il y a cette page du KNMI pour le Pays-Bas : http://www.knmi.nl/exp/pluim/ Voilà l’essentiel je pense, mais je suis preneur s’il existe d’autres champs disponible ailleurs …
  12. La seule chose que je connais en archive de prévi assez fine est celle de BOLAM :BOLAM 21 : http://www.meteoliguria.it/archivio21.asp BOLAM 06 : http://www.meteoliguria.it/archivio06.asp Donc tu verras c’est pas c’est pas tip-top par rapport à la réalité de l’évènement du centre-est. C’est même carrément nul. Mais je te confirme que WRF était bien plus pertinent que ça. Tu as là les données de GFS 0.5° et notamment les précip : http://www.estofex.org/modelmaps/browse_gfs.php Par rapport à la réalité, les quantités sont nettement sous-estimées (et même assez nulles avant le 12Z) mais l’emplacement n’est pas complètement idiot (à partir du 06Z) vue l’échelle du modèle. Le basculement l’axe pluvieux n’est pas trop bien gérée avant le run du 18Z (mais du coup un peu tard).
  13. Ha oui, j’avais zappé ce sujet … Effectivement … Je suis d’accord pour le champ de VV, mais je n’avais pas remarqué de changement depuis l’allongement de l’échéance … Surtout que je ne vois pas du tout ce qu’a à faire le changement d’échéance là-dedans. Sauf si Sylvain en a profité pour effectuer quelques petits changements dans les options de paramétrisation de la physique du modèle ou de la résolution. Comme il est initialisé par GFS qui a des VV non pronostiques je suppose qu’il y a un petit « choc d’adaptation » le temps que les champs s’adaptent à se nouveau degré de liberté qui initialement était contraint par les champs horizontaux. Par contre je ne suis pas certain que cela ai beaucoup d’influence pour les prévisions à très courte échéance il faudrait voire si ce bruit initial qu’on voit sur le niveau 700 hPa n’est pas tout aussi bruité sur la vertical … Là je ne sais pas. De toute les façons pour que les prévisions à courte échéance fonctionnent il faut que le modèles puisse tenir compte de l’influence locale par rapport à l’initialisation GFS, et ça ça demande quelques heures … Donc l’un dans l’autre, il faut bien regarder les prévs inférieurs à 6 voire 12h avec beaucoup de circonspection (comme les autres d’ailleurs !). Après c’est sûr que le champs de TA est très lissé au début puisque c’est plus ou moins celui du GFS … Après il s’adapte à l’évolution locale … Son influence est en revanche indirect sur le champs de VV … Disons qu’il représente la dynamique horizontale du champs de vent 3D et les VV en sont la dynamique verticale mais j’ai pas l’impression que ce soit monstrueux … Du coup, je ne vois pas ce qu’on peut optimiser là-dessus puisque le vent est pronostique dans les 3D. Après c’est juste mon point de vue, tu penses que je suis un peu trop complaisant ?
  14. Merci pour ces précisions Houyo ! :original: C’est donc la prévision d’un fort jet de BC couplé à une certaine instabilité qui à fait basculer vers la vigi. Peut-être que si seule la partie est du jet de BC le plus puissant a été mi en orange c’était un cause d’un meilleur phasage entre l’instabilité et ce jet de BC. C’était certes bien insuffisant pour la vigi mais il y avait dynamiquement un peu moins d’écart que plus à l’ouest. Mais peut-être que ce n’est pas la raison … Et sinon du sais pourquoi la prévi d’AROME n’avait pas été retenu alors que les rafales que tu donnes étaient finalement plutôt bien ajustées … Est-ce que tu sais si la dynamique de la situation avait été bien gérées ou les valeurs que tu donnes ne sont que le fruit d’une prévision décalée de la réalité ?
  15. Ben évidement tu vas pas t’amuser à taper tout ces calculs sur ta calculette ! ! ! /emoticons/tongue@2x.png 2x" width="20" height="20"> Mais en quelques lignes de code dans n’importe quel langage de programmation le tour est joué. Si tu es allergique au code, pas de soucis quelques minutes sur un tableur genre Excel ou celui d’OpenOffice et le tour est joué.
  16. Ben si c'est bien ARPEGE. Il y a une version qui s'occupe de la prévi saisonnière.
  17. Disons que la propriété des gaz c’est bien d’exercer une pression statistiquement uniforme en tout point d’un petit volume unité. Donc la pression s’exerce bien dans toute les directions pour un gaz, ce qui n’est évidemment pas le cas pour un solide par exemple … Effectivement, une colonne de troposphère en moyenne plus chaude qu’une autre aura généralement une tropopause plus élevée qu’une autre. Mais c’est tout autre chose par rapport à ta question initiale. Effectivement, pour une température homogène une dépression se traduit par un creux sur les surfaces isohypses. Mais si la température n’est pas homogène il peut en aller différemment. Et précisément, dans le cas d’une dépression thermique, on a une dépression qui est associé à une colonne chaude. Donc progressivement la différence initiale est comblée par de l’air plus chaud (et donc des épaisseurs plus importantes) jusqu’à dépasser le niveau d’équilibre … Du coup si on n’aurait pas la dépression de surface les isohypses serait encore plus élevée dans l’air chaud. Et il est intéressant de noter que généralement la dépression arrive comme une réponse à l’échauffement de la colonne : l’élévation produit un déséquilibre qui se voit en partie compensé par la création de la dépression de surface.
  18. Outre les données sat24 et Météox http://www.sat24.com/frame.php?html=homepage http://www.meteox.com Je te conseille vivement la page des images en temps réelle d’Eumetsat (réactualisée toute les heures) : http://www.eumetsat.int/home/Main/Image_Ga.../index.htm?l=en Et pour différents produits dérivés (toutes les 3heures) : http://nwcsaf.inm.es/MeteorolProducts.html Et puis toutes les 6h il y a le site du SATREP : http://www.satreponline.org/index.php Et il y a plein de site pour avoir d’autres images satellites. Sans oublier les observations en temps réel avec toutes les observations des stations. Le tout étant à comparer avec les champs issus des modèles de prévision. C’est loin d’être facile … mais tellement passionnant !
  19. Effectivement, l’air chaud est moins dense que l’air froid. Pour avoir la même variation de pression entre le sol (disons 1000 hPa) et 800 hPa, soit une différence de 200 hPa (c’est juste un exemple, c’est tout à fait généralisable). La pression, en condition hydrostatique représente le poids de la colonne d’air sur une surface unité. On va donc associé la différence de pression à une différence de masse. On est obligé d’avoir un volume plus important d’air chaud que d’air froid car l’air chaud est moins dense que l’air froid. Comme on travail sur une surface donnée, notre seul degré de liberté (paramètre de variation) est l’épaisseur de la couche : la couche d’air chaud doit donc être plus épaisse que la couche d’air froid. Dans notre exemple, l’isobare 800 hPa est donc plus élevée au-dessus de la terre (couche plus chaude) qu’au-dessus de la mer (couche plus froide). Les isohypses sont donc plus élevés au-dessus de l’air chaud que de l’air froid … D’ailleurs on remarque qu’il n’y a pas besoin de faire intervenir la dynamique (mouvement de l’air) pour ça : juste en statique ! CQFD … J’espère que j’ai été suffisamment clair …
  20. Si tu en restes simplement à une analyse descriptive basique c’est très simple. Tu peux trouver des données de pression pour des stations de la zone Açores/Gibraltar et Islandaise et tu calcules les variations en les normalisant. La méthode est expliquée à la page 5 de ce document pour les données mensuelles, mais libre à toi si tu veux le faire pour les données journalières.http://www.smf.asso.fr/Ressources/Cassou45.pdf
  21. Merci de ton point de vue Christophe. /emoticons/smile@2x.png 2x" width="20" height="20"> Effectivement, passé 22h/22h30 le doute s’éloignait mais AVANT sa formation initiale il n’y avait (je trouve) rien de clair et de certain (je précise quand même que je n'ai pas pu suivre la situation hier soir ... j'ai donc repris les archives sat et radar et des modèles genre WRF LAMMA ce matin : j'ai donc peut-être une vision biaisée). C’était effectivement vraiment déphasé sur le nord-ouest, mais un peu moins en progressant vers l’est (zone en orange) même si effectivement, c’était pas ça du tout. Je pense (ça n’engage que moi … à confirmer donc) que si MF n’a pas levé sa vigilance avant c’est que une fois qu’elle était mise autant la laisser jusqu’à ce que la ligne arrive, au cas où, même si on ne voyait plus trop comment ça pouvait évoluer … En ce qui concerne l’importance de l’advection chaude c’est assez délicat. C’est sûr que plus il y a de l’air chaud et humide, mieux c’est. Mais en analyse de modèle on ne peut pas vraiment faire de quantitatif (c’est les modèles qui font ça), mais du qualitatif. Par exemple, chacun à en mémoire des fronts froid extrêmement violent qu’on peut avoir en plein hiver avec des thêtaE carrément plus faibles qu’hier la nuit dernière. Quand on analyse un modèle, on fait du qualitatif par rapport à la sortie du modèle, on ne peut pas tout réinventer …Disons que le jet était un peu nord et le forçage un peu sur l’arrière. Mais ça on l’avait déjà vu depuis samedi. Le problème c’était qu’est-ce qui dans la journée et en soirée (le début surtout) pouvait permettre de discriminer que les éléments négatifs allait l’emporter. Une fois la ligne formé oui, mais avant ? C’était un risque, une possibilité, mais encore une fois, je ne vois pas ce qui nous permettait de l’exclure définitivement à ce moment … C'est pourtant ce qui est primordial en prévi ...
  22. Je crois que sur ce forum personne n’est allé dans l’affirmatif concernant l’évolution instable de la frontogenèse. En relisant les posts d’hier soir je constate que les intervenants faisaient plus état d’un risque d’évolution et de l’intérêt de suivre la situation plus que de certitudes. Et sur le fond on l’a dit depuis plusieurs jours déjà que les modèles laissaient la porte ouverte (ou du moins entrebâillée) à une évolution convective. On a d’ailleurs depuis samedi évoqué le risque (les éléments favorables et ceux qui l’était moins). Sans pouvoir trancher d’ailleurs. Et très franchement lorsqu’on voit (sur les images du site SATREP judicieusement donnée en lien par Calou) l’évolution de la tropo vers une foliation, ou du moins une remarquable intrusion : http://images.meteociel.fr/im/7179/Presentation1_cjb2.gif De telles intrusions stratosphériques ne sont pas anodines … Et de surcroit bien placée légèrement en retrait du tourbillon de BC que l’on devienne sur cette coupe de PV (d’ailleurs une intrusion de cette trempe ne peut qu’être bien placé puisqu’elle est elle-même renforcée par la frontogenèse). Et le RADAR montre bien que le risque d’une ligne de grain plus forte à l’avant n’était pas idiot du tout … http://www.meteo60.fr/archives/images_rada...81111-02h55.png Alors oui, il y a eu un réel raté sur l’événement (c’est une évidence, on ne peut le nier), mais très franchement, on peut penser tout ce qu’on veut, mais jusqu’en soirée le risque restait présent. Après il faut aller plus loin, il y avait sûrement possibilité de faire mieux. Je suis persuadé qu’il y a aura un retour sur expérience en interne chez MF. Ce qui serait intéressant de savoir c’est s’il y avait possibilité de percevoir que l’instabilité n’allait pas exploser d’avantage. Là c’est vraiment pas facile … Après concernant la vigilance de MF il y a peut-être lieu de s’interroger sur le comportement d’AROME … Il faut savoir qu’AROME à de sérieuses velléités à sur-réagir sur les MCS et les organisations orageuses. Sachant que le contexte synoptique laissait la possibilité d’une ligne instable à l’avant, comment les ingés de MF ont traités les sorties d’AROME si ces dernières présentaient de l’instabilité (probable) voire quelques chose de plus organisé (possible) ? C’est vrai que l’avis de personnes de MF qui ont été plus plongé dans la situ serait intéressant. En attendant, merci Tony pour cette info qui montre qu’ALADIN voyait un très fort jet de BC …
  23. Effectivement, bienvenue à toi sur le forum ^^ C’est vrai que le jet n’est pas extrême (mais pas non plus ridicule), mais l’anomalie de tropo est particulièrement forte … C’est pas tous les jours qu’on en voit de cette trempe avec de tel gradients. Du coup les advections de TA sont assez remarquables et forçage loin d’être bénin. C’est aussi vrai que l’anomalie chaude n’est mirobolante sans être faiblarde non plus … Mais l’anomalie chaude n’est pas utile en temps que telle pour une instabilité barocline. Elle est utile pour générer un TR initiale de BC, via notamment le forçage par advection chaude et la libération de chaleur latente par les pluies qui force aussi les VV en altitude et donc l’étirement du tourbillon. Or, en l’occurrence, le tourbillon initial de BC est déjà bien présent même si l’anomalie chaude n’est pas monstrueuse, du coup, même si l’advection à l’avant reste modérée c’est pas un souci pour l’amplification du tourbillon. D’autant que les précipitations sont bien au rendez-vous grâce au fort forçage d’altitude (sur une bande frontale étroite comme ça c’est assez significatif pour le coup …). Par contre c’est vrai que tout ceci porte plus à une forte dynamique frontale avec un axe très dynamique (thalweg –axe de TA- avec jet de BC à l’avant) plus qu’à une cyclogenèse en temps que telle (je parle de la France, pas du sud-est de l’Angleterre et de la mer du Nord où là c’est une autre histoire …) Elle devrait avoir bien lieu, mais, comme dit dans mon message précédent, plus au nord car effectivement le max du forçage passe au nord de l’axe de tourbillon principal de BC sur la France. Mais bon, ce n’est que mon point de vue … Et c’est vrai que comme tu l’entends, il n’y a vraisemblablement rien d’exceptionnel de prévu. Un coup de vent de saison quoi !
  24. C’est intéressant … Par contre pourquoi tu dis la « très controversée NAO » ? L’existence de ce mode de variabilité n’est pas remise en cause. Il y a des débats de fond sur ce thème, à savoir essentiellement faut-il plutôt parler de NAO ou d’AO et la façon de discriminer ces modes. Si la première de ces discutions est assez technique et ne change rien à la compréhension globale du processus, la seconde est nettement plus profonde, mais dans tout les cas, ça ne remet pas du tout en cause ce mode de variabilité qui admis depuis un bout de temps déjà …Sinon, juste pour revenir sur la méthode de détermination de l’indice : classiquement c’est des différences de pression entre les zone Açores/Gibraltar et la zone Islandaise. C’est certes la plupart du temps suffisant si on cherche juste une description. Par contre c’est carrément inadapté pour des études dynamique … Dans ce cas on procède à des méthodes statistiques beaucoup plus élaborées qui permettent de mettre en évidences les évolutions mutuelles sous la formes de modes distincts de l’ensemble du champ de pression par exemple et ainsi d’avoir une vue plus large sur la dynamique via des études de corrélations. De même cet article n’a rien à voir avec une utilisation déterministe de l’affaire. On est au contraire en plein dans le probabiliste et c’est pas tout de suite qu’on va pouvoir rentrer ces infos sous une forme exploitable dans les modèles de prévision. C’est par contre utiles pour des études statistiques complémentaires aux modèles probabilistes de circulation générales et tenter de discriminer les scénarios pertinents qui ressortent. L’analyse du prévi à ici toute sa place. C’est à mon sens pas tout à fait exacte … Ca fait déjà pas mal de temps qu’on sait que la météo et le climat c’est physiquement la même chose mais que c’est l’angle sous lequel on le regarde qui est différent, comme le fait remarquer Crack. En gros c’est la même chose dans le sens que c’est une imbrication successive (un peu comme des poupées russes) de phénomènes à différentes échelles spatio-temporelles. Par exemple (ultra simplifié) la turbulence a une influence sur la convection qui elle-même a une influence sur la dynamique synoptique et inversement. En effet, ça marche dans les deux sens (les petites échelles les grandes et vice-versa), d’où la difficulté … D’ailleurs tu dis un peu la même chose dans ton second message.Par contre, cet état de fait ça fait quand même un bail qu’on le sait. Ca date pas du tout d’aujourd’hui … La preuve la plus flagrante c’est que la prévision numérique est basées sur le même principe quelque soit les échelles : se sont les mêmes équations de base dans un modèle synoptique ou dans un modèle climatique par exemple. Par contre, les utilisations de ces équations, les hypothèses d’évolution et de couplage, et les paramétrisations au sein des modèles différents en fonction des échelles de temps. La méthode aussi. Par exemple, pour la très petite échelle, on s’intéresse aux effets non hydrostatiques, pour l’échelle synoptique courte on fait du déterministe, pour les échelles plus longues (quelques jours à la prévi saisonnière) on fait des prévisions probabilistes sur la base de plusieurs membres (en essayant si possible de discriminer un scénario majoritaire avec une certaine probabilité) et pour les scénarios climatiques on fait du probabiliste sur la base d’un seul run mais qu’on moyenne temporellement. (après, on peut faires études de comparaison entre différentes sorties avec différentes conditions initiale ou d’option du modèle -comparaison intra-modele- ou de la comparaison inter-model). Et ce schéma vole de plus de plus en plus en éclat avec la prévision probabiliste qui apparait même pour les courtes échéances (MF dispose pour cela d’une version ensembliste d’ARPEGE (PEARP) qui est en évolution) mais d’ici quelques années la prévi d’ensemble non hysdrostatique pour la prévision immédiate et à très courte échéance devrait se généraliser. On voit déjà qu’on a une rupture avec le schéma initial classique et un mélange des méthodes sur différentes échelles. De même à terme lorsque la puissance de calcul sera suffisante on pourra vraisemblablement faire de la prévi d’ensemble pour les scénarios climatique (au sein d’un même modèle et non plus seulement en comprends différents modèles ou options d’un même modèle entre eux). En gros, si initialement on a découpé les prévisions en « plusieurs branche », c’est essentiellement pour deux raisons : 1) La puissance de calcule insuffisante qui nous permettait pas d’appliquer les mêmes schémas pour toutes les échelles de prévision en gardant des approximations pertinentes à toutes ces échelles 2) La compréhension des phénomènes et des imbrications d’échelles qui était incomplète (et reste un vaste champ de recherche). Ce découpage vole de plus en plus en plus éclat dans les faits, comme j’en ai donné quelques exemples, mais aussi dans la recherche on va de plus en plus vers le concept de « seamless predict » (prévision sans raccord -vous pouvez chercher sur le net, y'a pas mal d'info là-dessus-) qui est l’unification des méthodes de prévision au sein d’un même système pour toutes les échelles de temps. Le but est justement de s’affranchir des discriminations arbitraires des échelles spatio-temporelles qui sont faites en prévision. C’est pas cet article qui va changer la donne à ce niveau, déjà bien amorcé, mais en revanche il s’inscrit bien dans ce schéma …
  25. Houlà … j’ai pas la science infuse moi … Faut pas exagérer … C’est vrai que généralement une anomalie basse de tropopause plongée dans une zone barocline amène une ascendance à l’avant (plutôt une divergence d’altitude) et une subsidence à l’arrière via une convergence d’altitude. (voir le post « Courant jet et divergence » juste un peu en dessous). Et effectivement, à l’avant, l’ascendance d’altitude étire le tourbillon de basse couche (convergence horizontale dans les basses couches) : c’est « l’effet patineur » (accélération de la rotation lorsque les patineurs ramènent leur bras le long du corps). Si le tourbillon de BC était déjà sensible et qu’il est bien étiré, une cyclogenèse se crée effectivement.
×
×
  • Créer...