js13120 Posté(e) 22 septembre 2006 Partager Posté(e) 22 septembre 2006 Tiens je met la suite ici parce que là ça devenait HS, avant tout voici le contexte : Moi Lol ukmo indispensable à J+2 faudrait tout de même pas exagérer... Quand je dis exploitable, je parle de possibilité de vérifier le comportement du modèle or ça passe généralement par les champs dynamiques dont nos cher NOGAPS et UKMO sont dépourvu. Quoi que les officier previ US doivent très certainement avoir une foule de données sup sur NOGAPS. Autrement c'est très difficilement exploitable de faire de la previ avec ça...il ne s'agit pas véritablement de finesse mais de champs dispo. Oozap Loool, décidément, tu me sembles assez mal renseigné sur ces modèles : Nogaps a une foultitudes de données complémentaires disponibles en ligne à qui veut bien les consulter (à peu près autant que GFS), et ukmo est largement suffisant en données complémentaires jusqu'à J+5 pour faire une prévision très correcte, tout autant que Bolam dont tu parles par exemple en bien. De plus, il n'est absolument pas nécessaire de refaire le travail des modèles : certes cela peut avoir un côté pédago intéressant et un autre côté un peu barbant de redécomposer les cartes les plus techniques, mais l'intérêt d'un modèle, c'est justement de nous éviter ce travail fastidieux et de le faire à notre place. Ce n'est pas parce qu'on décompose des cartes complémentaires que l'on ne va pas se faire abuser par le modèle en question. Forcément, tout le temps que l'on passe à décomposer les cartes techniques, on ne le passe pas à comparer les modèles disponibles... Si un modèle ne voit pas de pluie dans ses précipitations, c'est qu'il ne doit pas pleuvoir quelle que soit la carte complémentaire, sinon, c'est qu'il y a un souci dans la modélisation. Certes, il y a une limite à cette logique toute simple : certains modèles sont plus "sensibles" que d'autres, ce qui est le cas pour GFS, mais parfois trop, comme justement GFS qui a tendance à nous mettre des pluies facilement : l'habitude de consulter et de lire ces modèles permet de caler l'interprétation au plus près. Maintenant prenons l'exemple concret de l'épisode qui se prépare ce week-end sur le sud-est : GFS nous met de la pluie par ici en Savoie dans le Sud-est dès la nuit prochaine et jusqu'à lundi sans discontinuer : Or, Nogaps et Ukmo, montrent à l'inverse que la perturabation aurait du mal à nous atteindre, et stationnerait davantage en vallée du Rhône, à l'Ouest de la vallée surtout. Avec des débordements plus notable par ici sans doute dimanche et la pluie lundi, peut-être une averse samedi en fin d'après-midi. Bolam (d'hier il faut le souligner) de son côté ne met aucune précipitation notable sur tout RA avant dimanche, tout juste quelques mm dans le Lyonais et le stéphanois demain après-midi. Bref, on voit que ces 4 modèles délivrent un message intéressant si on fait la synthèse : pluies plus ou moins marquées en vallée du Rhône et possibles débordements surtout dimanche, pluie lundi par ici. Si on se limitait à GFS, on pourrait penser qu'il pleuvrait tout le week-end par ici, ce qui m'étonnerait largement car on a de bonnes chances d'être foehnés, et ce qui montre bien que se limiter à GFS serait une erreur "de débutant". Volà, vérifier la prévision, ce n'est pas forcément regarder diverses cartes d'un même modèle pour voir si elles se contredisent entre elles, c'est plutôt vérifier a posteriori si la prévision initiale s'est confirmée dans les faits... Je lance ce sujet car ça me paraît tout à fait fondamental au vu de la réponse... Et pour ce faire j'ai préféré discuter au point par point : Loool, décidément, tu me sembles assez mal renseigné sur ces modèles : Nogaps a une foultitudes de données complémentaires disponibles en ligne à qui veut bien les consulter (à peu près autant que GFS), et ukmo est largement suffisant en données complémentaires jusqu'à J+5 pour faire une prévision très correcte, tout autant que Bolam dont tu parles par exemple en bien. Je te rassures j'ai fais un ptit tour sur les données dispo avant de jugé et en voici la liste : SLP, Precip12h, Wind10m H500, T500, RVort500 H500, T500, Wind500 H300, Wind300 HU 700 et 850 Thêta E Mais où se trouve la 1.5PVU qui pour une previ fine est quasi indispensable pour baliser les zones de forçages, où sont les advections de TA (le TA tout court même, le TR est pas tjs super intéressant surtout dans certaines conditions de l'atmosphère), les advections thermiques que l'on met ensuite en relation avec les VV. Mettre en relation les VV et la 1.5PVU c'est tout à fait essentiel pour surveiller les mises en phases. Si tu veux bien me montrer où trouver cette "multitude de données" Et pour UKMO je préfère même pas en parler De plus, il n'est absolument pas nécessaire de refaire le travail des modèles : certes cela peut avoir un côté pédago intéressant et un autre côté un peu barbant de redécomposer les cartes les plus techniques, mais l'intérêt d'un modèle, c'est justement de nous éviter ce travail fastidieux et de le faire à notre place. Ce n'est pas parce qu'on décompose des cartes complémentaires que l'on ne va pas se faire abuser par le modèle en question. C'est là que tout nous divise oozap... parce que je crois que tu as pas franchement saisi les enjeux de la previ telle qu'elle se fait en 2006. Les previ de MF, canadiens, de la NOOA, allemands, italiens sont ils à ce point idiots pour refaire le "travail des modèles"? Ou alors ils préfèrent le faire par simple goût de pédagogie tout seul devant leur modèle Je suis dsl, mais ce genre de raisonnement montre que l'on sait pas réellement comment fonctionne un modèle et c'est là que le bas blesse. Je suis encore dsl de reprendre ce ton suffisant mais je me met simplement au niveau de ton dernier post : croire que des paramètres finaux sont aussi fiable en prévision que des paramètres directement liés à la dynamique ça mérite une première place dans le topic : Aneries et météorologie... Ce travail fastidieux est tout à fait nécessaire, il ne s'agit pas réellement d'une décomposition puisque au contraire il s'agit plutôt de mettre en lien certain paramètre comme les advection de t'w ou TPE et les jet de BC par exemple, les Anom de tropo, le jet et les VV... d'ailleurs les coupes sont un super moyen pour vérifier le phasage entre ALT/BC. Et permet moi de revenir sur cette sublime phrase : "Ce n'est pas parce qu'on décompose des cartes complémentaires que l'on ne va pas se faire abuser par le modèle en question." Parce que, justement c'est bien là qu'il faut creuser... si GFS me met des precip à tel endroit je regarde pourquoi... comme souvent dans le cadre de la convection c'est les VV qui pèchent à cause de la maille du modèle (imagine alors pour NOGAPS lol). Dans ce cas le modèle s'emballe et crée des noyaux de precip pas possibles à cause des répercussions sur les champs de P, V, TA. Si GFS ne crée pas de creusement à tel endroit alors que tout s'y prête (1.5PVU, jet +interaction avec des pseudo fronts par exemple c'est un cas assez fréquent) là aussi prudence. Le seul pb c'est que ça demande des connaissances aïgues et bcp d'expérience ce qui n'est pas à la portée de tous (pour ma part je ne sais gérer que les cas les plus fréquents, les autres demandant un retour sur les erreurs de simulations du modèle après épisodes ce qui prend bcp de temps) Forcément, tout le temps que l'on passe à décomposer les cartes techniques, on ne le passe pas à comparer les modèles disponibles... En tout cas cette investigation critique du modèle c'est loin d'être du temps perdu... passer son temps à faire de la comparaison de 36000 modèles différents à -48h de l'épisode à mon sens c'est bien en perdre. Si un modèle est bien calé (pour cela on compare la réalité au modèle avec les images de vap d'eau pour la 1.5PVU, les images radars ect...) rien n'empêche de ne tenir compte que du scénar d'un modèle. Fort heureusement c'est souvent son cas sur les champs dynamiques biensur sans un minimum de connaissance on peut croire à des erreurs à cause du maillage... Si un modèle ne voit pas de pluie dans ses précipitations, c'est qu'il ne doit pas pleuvoir quelle que soit la carte complémentaire, sinon, c'est qu'il y a un souci dans la modélisation. Certes, il y a une limite à cette logique toute simple : certains modèles sont plus "sensibles" que d'autres, ce qui est le cas pour GFS, mais parfois trop, comme justement GFS qui a tendance à nous mettre des pluies facilement : l'habitude de consulter et de lire ces modèles permet de caler l'interprétation au plus près. Oui y a un pb sur une carte complémentaire (le mot est marrant, ce serait plutôt les precip qui devraient être nommées carte complémentaire). Mais justement en isolant quelques paramètres on voit là où est l'erreur et on rectifie le tir. Le truc c'est que les conclusions sur lesquelles tu es pervenu en analysant doivent primer sur celles du modèle... autrement on fait comme tu sais si bien le faire : du littéraire et on décrit le pb. Mais pour ça on peut très bien crée un programme informatique qui suit les cartes de precip et on fait la previ comme ça... mais après va pas te plaindre des résultats. GFS nous met de la pluie par ici en Savoie dans le Sud-est dès la nuit prochaine et jusqu'à lundi sans discontinuer : Or, Nogaps et Ukmo, montrent à l'inverse que la perturabation aurait du mal à nous atteindre, et stationnerait davantage en vallée du Rhône, à l'Ouest de la vallée surtout. Avec des débordements plus notable par ici sans doute dimanche et la pluie lundi, peut-être une averse samedi en fin d'après-midi. Bolam (d'hier il faut le souligner) de son côté ne met aucune précipitation notable sur tout RA avant dimanche, tout juste quelques mm dans le Lyonais et le stéphanois demain après-midi. Bref, on voit que ces 4 modèles délivrent un message intéressant si on fait la synthèse : pluies plus ou moins marquées en vallée du Rhône et possibles débordements surtout dimanche, pluie lundi par ici. Très belle analyses littéraires du modèle, BRAVO ! Sauf que si tu connais les pb de GFS un "simple" réajustement suffit Tiens je viens de voir que y a eu quelques interventions intéressantes dans la rubrique Previ SE, je les remet ici aussi : Météofun : On ne parle de refaire le travail des modèles. Un modèle, ce n’est rien d’autre qu’une succession de calcul brut de bout en bout. On peut représenter ces calculs par des cartes, des graphiques, … Le soucis, c’est que du coup, un modèle est « borné ». On peut prendre un exemple tout simple : il voit passer une anomalie de tropo un peu trop au nord et ne se met pas en phase avec une anomalie de basse couche pourtant bien présente. On sera tout à fait en droit de se poser des questions sur cette mise en phase potentielle et les conséquences qui peuvent en découler. C’est un exemple, mais il en existe une infinité …Sinon, autant utiliser les pictos de sortie brut … Mais c’est vrai qu’on n’annule pas du tout les risques de se faire « abuser » par le modèle en question : ça ne fait qu’en diminuer un peu la probabilité, mais c’est déjà pas mal non ? Pour résumer, on peut tout à fait prévoir des précipitations à partir d’un modèle qui n’en prévoit pas sans qu’il y ai un problème dans la modélisation. C’est vrai qu’une part d’habitude du comportement du modèle et de la réponse pour une région donnée est une aide capitale. Vincounet : Exact, et de plus cela voudrai dire que MF applique à la régle les prévisions indiquées par Arpege? Non, cela n'a aucun sens... L'être humain doit compléter les prévisons apportées par les ordinateurs : les précipitations annoncées par GFS sont la conclusion finale de plusieurs paramètres observés, ce qui renforce très vite le pourcentage d'erreur des prévisions... Le prévisionniste est justement là pour affiner tout ça. Un phénomène météo pouvant être explosif n'est pas forcément vue par les modèles, alors que les paramètres, toujours soumis à la marge d'erreur, montrent finalement qu'il ne faut pas grand chose pour que la situation soit différente de celle annoncée... Pour le comprendre, il faut évidemment avoir les connaissances requises et l'expérience! Un ordinateur donne les indications. C'est aux prévisionnistes de les interpréter et d'en déduire les prévisions finales! Lien à poster Partager sur d’autres sites More sharing options...
Previ83D Posté(e) 22 septembre 2006 Partager Posté(e) 22 septembre 2006 Pour décrire la situation atmosphérique à une échéance donnée, la sortie du modèle est suffisante. Si on se contentait de dire: à telle heure, ce sera comme celà et 3h plus tard ce sera comme celà; alors c'est pas compliqué. Ce qu'on cherche c'est une cohérence; et savoir pourquoi la situation à telle heure conduit à la nouvelle situation à h+3. Ca nécessite de connaitre les mouvements de l'atmosphère d'où toute l'analyse de la situation. Lien à poster Partager sur d’autres sites More sharing options...
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant