Orage 33 Posté(e) 3 janvier 2009 Partager Posté(e) 3 janvier 2009 Bonjour, J'aurai voulu avoir quelques explications sur différents paramètres du modèle GFS. Est-ce que ce modèle prend en paramètre le relief pour établir les données comme la température 2m ou les vecteurs vitesse et directions du vent à 10m ? Si oui à partir de combien de mètres ? /emoticons/wink@2x.png 2x" width="20" height="20"> On sait qu'il est possible de prévoir la température à 2m avec la température à 850hPa serait-il possible de prévoir la température au sol à partir de cette altitude en prenant en compte le relief ? Logiquement la température à 2m serait plus juste néanmoins, je pense, que le modèle GFS utilise déjà ce procédé. À ce moment-là on pourrait revoir les températures à 2m par exemple si à partir des températures à 850hPa on remet les températures au niveau 0 (je sais pas si ça se dit) c'est-à-dire au niveau de la mer et ensuite on ajoute des °C en fonction du relief est-ce que sa serai possible ? Aussi pour les nuages de basse couche (niveau sol jusqu'à +/- 2000m) le modèle prends t'il en compte le relief c'est-à-dire par exemple pour les montagnes, si une montagne est > 3000m est-ce que le modèle affichera les nuages sur cette montagne ou fera le contour du sommet malgré la résolution de celui-ci ? Enfin c'est un peu farfelu ce que je dis, mais je suis en train de travailler les données brutes du modèle GFS (0.5°x0.5°) pour un projet qui verra peut-être le jour. J'espère ne pas trop avoir dit trop de bêtise ou autres /emoticons/happy@2x.png 2x" width="20" height="20"> A bientôt Lien à poster Partager sur d’autres sites More sharing options...
Météofun Posté(e) 3 janvier 2009 Partager Posté(e) 3 janvier 2009 Les données de température à 2m que donne GFS sont infiniment plus précises que toutes les extrapolations que l’on pourrait faire à partir des valeurs à 850 hPa et sont bien les données 2 mettre au-dessus du sol du modèle. En fait le plus fiable est le traitement statistique à partir des données à 2m pour s’adapter aux spécificités locales, mais c’est très loin d’être triviale et il y a plusieurs méthodes pour procéder. C’est le même principe pour le vent à 10m. Par ailleurs, il est bon de savoir que sur les modèles globaux comme GFS le premier niveau de calcul est bien plus haut que 2m, ces valeurs à 2m sont donc des interpolations assez complexes qui prennent en compte les flux de chaleur par exemple. C'est le même principe avec le vent à 10m. Évidement, ces données prennent en compte le relief, pas le vrai relief, mais celui qui est représenté par le modèle, c’est-à-dire très grossier, mais là tu dois bien t’en rendre compte. Pour les valeurs par niveau de pression, elles sont interpolées pour passer « sous le relief » lorsque le relief est trop haut et n’ont donc aucune réalité physique. Pour les enlever il faut mettre un masque de relief. Exemple, pour une carte à 925 hPa, mettre aucune valeur partout où la pression au sol est inférieur à 925 hPa. Sinon pour les nuages je ne sais pas exactement (à confirmer), mais je pense que c’est comme l’iso 0°C, ça n’a pas l’air de prendre en compte le relief, c’est visiblement par rapport au niveau de la mer. Lien à poster Partager sur d’autres sites More sharing options...
TreizeVents Posté(e) 3 janvier 2009 Dax (40) Partager Posté(e) 3 janvier 2009 Le problème avec les T2M de GFS, c'est qu'elles sont systématiquement biaisées vers le froid, et ce quelle que soit l'échéance. Si je prends l'exemple des T2M modélisées pour ce soir à 19 heures par GFS 12z, et que j'y superpose les T° observées sur un certain nombre de stations, voici le résultat : Mis à part à Lille où la T° observée est inférieure à celle prévue (-5.5° pour -5° prévus), c'est partout que le modèle a tendance à modéliser des températures largement en deça de la réalité. On notera les -0.9° relevés à Vichy pour -6° de modélisé, les -2.7° de Bâle/Mulhouse au milieu de modélisations à -7/-9, le -0.1° de Lyon ou le +0.4° de Chambéry où le modèle prévoyait du -5/-6, la série de 0 de Rennes au Mans où il était modélisé du -3° généralisé, etc. Et c'est de la prévision H+6. Lien à poster Partager sur d’autres sites More sharing options...
Orage 33 Posté(e) 3 janvier 2009 Auteur Partager Posté(e) 3 janvier 2009 Oui j'ai lu ton étude sur ce cas dans les sujets précédent intéressant d'ailleurs, justement je compte faire une étude similaire sur 1 ans ou plus pour voir. Le tout sera automatisé en gros je comparerai les données METAR/SYNOP avec celles de GFS. Je sais pas si sa sera efficace mais si j'obtiens toujours la même différence je pourrai amélioré mes prévisions. Dommage que le modèle n'est pas une maille plus fine. /emoticons/tongue@2x.png 2x" width="20" height="20"> Lien à poster Partager sur d’autres sites More sharing options...
ribi Posté(e) 4 janvier 2009 Limoges Partager Posté(e) 4 janvier 2009 En ce qui concerne ce qu'écrivait Treizevents : Le problème avec les T2M de GFS, c'est qu'elles sont systématiquement biaisées vers le froid, et ce quelle que soit l'échéance. [......] Mis à part à Lille où la T° observée est inférieure à celle prévue (-5.5° pour -5° prévus), c'est partout que le modèle a tendance à modéliser des températures largement en deça de la réalité. On notera les -0.9° relevés à Vichy pour -6° de modélisé, les -2.7° de Bâle/Mulhouse au milieu de modélisations à -7/-9, le -0.1° de Lyon ou le +0.4° de Chambéry où le modèle prévoyait du -5/-6, la série de 0 de Rennes au Mans où il était modélisé du -3° généralisé, etc. Et c'est de la prévision H+6. Je ne pense pas que l'écart soit toujours dans le même sens, mais tu peux bien sûr penser le contraire. Je me suis livré à la même comparaison (carte infoclimat 6hUTC-6h30UTC et GFS 6h) et en moyenne les températures me semblent les mêmes. GFS ne tient évidemment pas compte des microclimats et il y aura toujours des différences. En plaine, j'ai l'impression qu'en moyenne GFS donne des résultats convenables (à +-2°C près le plus souvent, hier soir c'était effectivement -3°C sur beaucoup de points) Par contre des villes près de reliefs importants ne peuvent pas être modélisées correctement. Voir par exemple la carte du relief pour GFS : http://meteo.free-h.net/carte.htm Il est bien évident que la prévision GFS au niveau de Chambéry ne correspond pas à l'altitude de Chambéry... Quoi qu'il en soit, seule une étude statistique peut nous départager. Lien à poster Partager sur d’autres sites More sharing options...
Cotissois 31 Posté(e) 4 janvier 2009 Brest Partager Posté(e) 4 janvier 2009 Si Christian Pagé passe par là... d'après ce qu'il m'avait dit, les prévisions de température à 2m sont beaucoup basées sur...des statistiques, fonction des données synoptiques passées. En clair, s'il y a un biais (moyenne d'erreur non nulle) comme l'observe Treize-Vents, peut-être faut-il aller chercher dans ce domaine climatologique... Lien à poster Partager sur d’autres sites More sharing options...
Orage 33 Posté(e) 5 janvier 2009 Auteur Partager Posté(e) 5 janvier 2009 Si Christian Pagé passe par là... d'après ce qu'il m'avait dit, les prévisions de température à 2m sont beaucoup basées sur...des statistiques, fonction des données synoptiques passées. En clair, s'il y a un biais (moyenne d'erreur non nulle) comme l'observe Treize-Vents, peut-être faut-il aller chercher dans ce domaine climatologique... Oui dans tout les cas je commencerai l'étude quand mon site sera mise en place et l'étude sera en continu comme ça ou pourra voir les valeurs d'erreur changer en temps réel et celà en toute saison. Je prendrai en compte les stations METAR et les stations SYNOP (reso40). Sur ceux je m'en vais au lit, je viens de finir mes scripts héhé /emoticons/happy@2x.png 2x" width="20" height="20"> Bonne nuit et bonne neige ( /emoticons/wink@2x.png 2x" width="20" height="20"> ) Lien à poster Partager sur d’autres sites More sharing options...
Météofun Posté(e) 12 janvier 2009 Partager Posté(e) 12 janvier 2009 Oui j'ai lu ton étude sur ce cas dans les sujets précédent intéressant d'ailleurs, justement je compte faire une étude similaire sur 1 ans ou plus pour voir. Le tout sera automatisé en gros je comparerai les données METAR/SYNOP avec celles de GFS. Je sais pas si sa sera efficace mais si j'obtiens toujours la même différence je pourrai amélioré mes prévisions. Dommage que le modèle n'est pas une maille plus fine. /emoticons/tongue@2x.png 2x" width="20" height="20"> Par contre, je ne sais pas comment tu compte t’y prendre, mais c’est vraiment difficile de faire un programme d’adaptation qui tient à peut près la route. Il faut tenir compte de la situation météo : tu ne peux pas dire : « j’enlève systématiquement 2°C aux mini parce que c’est la moyenne ». Il y a des cas (genre tous ceux qui sont bien ventés par exemple) où la Tn (par exemple) ne sera pas idiote et où tu risque de la rendre fausse.Je ne sais pas quelle est la structure des programmes d’adaptation statistique de MF qui, je crois, se basent sur l’approche MOS. Mais si quelqu’un de MF passe par là, je serais curieux d’en savoir plus … En tout cas, l’idée est de tenir compte de la situation météo du jour pour ton adaptation en retenant des champs GFS (d’un point de vu physique mais aussi statistique). C’est à tout de choisir ceux qui sont pertinents (vitesse de vent à 10m, température, différence entre T et Td, nébulosité, humidité de basse couche ou plus haut, …). Bref, à toi de voire ce qui pourrait avoir une influence pour la variabilité de ce que tu veux adapter statistiquement. Pour ce faire, c’est typiquement le genre de chose où l’approche par réseaux neuronaux. Mais je ne connais absolument rien de cette méthode. Il y a peut-être des algorithmes de base pour t’aider qui doivent traîner sur le net, mais je pense que c’est assez lourd à programmer (je ne connais pas ton niveau sur le sujet). Par contre, une fois l’apprentissage du modèle effectué (et tu peux le faire en continue au gré des runs et des résultats), c’est très rapide d’exécution. Sinon, j’ai éventuellement une alternative beaucoup plus simple à programmer mais que je sorts comme ça de mon chapeau, et dont je ne sais pas si elle sera pertinente ou efficace. De plus elle est probablement lourde en temps de calcul. Mais l’idée est de référencer tout un panel de cas (plusieurs dizaines à quelques centaines) sur les paramètres choisis. Puis tu traites un certain jour pour trouver les profiles rentrés initialement qui assez proches et dont tu connais déjà la correction à faire pour tomber sur la valeur observé. Et par là il faut sélectionner les plus ressemblants et leur appliquer la correction pondéré en fonction de la similitude avec le profil étudié. Pour trouver les profils semblables, tu peux aussi mettre des poids différent en fonction des paramètres si tu juge qu’un paramètre à plus d’importance qu’un autre. Pour que ça marche, tu as intérêt à ne sélectionner que quelques paramètres : ceux dont tu auras remarqué qu’ils ont le plus d’influence pour le paramètre que tu souhaite adapter statistiquement. D’une part ça permettra de réduire le temps de calcul, et d’autre part, trop de paramètres différents c’est avoir de très grosses difficultés à tomber sur un profil proche, à moins d’avoir une base de données initiale très grande. C’est à tester, je ne garantie rien en jouant de cette façon. Sinon, c’est regarder comment sont les modèles d’adaptation statistiques des organismes météo ou le réseau de neurones. Bon courage ! /emoticons/smile@2x.png 2x" width="20" height="20"> Lien à poster Partager sur d’autres sites More sharing options...
Orage 33 Posté(e) 13 janvier 2009 Auteur Partager Posté(e) 13 janvier 2009 Je vais essayer de prendre tous les paramètres disponibles, mais je sais pas trop encore comment m'y prendre ensuite. Sachant que j'utilise les données brutes de GFS j'ai pas mal de choix, faut que je réfléchisse aussi aux phénomènes locaux...etc. D'ailleurs, se serai intéressant de savoir quels paramètres influencent sur tels ou tels paramètres suivants l'endroit observé. Enfin encore beaucoup de recherche à faire /emoticons/smile@2x.png 2x" width="20" height="20"> Lien à poster Partager sur d’autres sites More sharing options...
Crazyboy Posté(e) 28 mars 2009 Puzeaux (80) Partager Posté(e) 28 mars 2009 Moi j'ai deux questions, qui pourrait m'expliquer la carte des 1,5PVU parce que c'est vraiment une des cartes que je ne comprends pas et la deuxième c'est celle si : http://www.meteociel.fr/modeles/gfs/vents-...x-700hpa/3h.htm Merci de vos réponses. Julien Lien à poster Partager sur d’autres sites More sharing options...
Christophe30 Posté(e) 29 mars 2009 Saint-Quentin-la-Poterie (30) Partager Posté(e) 29 mars 2009 Tout d'abord ce que je peux te dire c'est que , généralement , ces deux cartes se couplent ou marchent en paire comme tu veux . Je vais commencer par la carte 1.5 PVU: Pour commencer il faut savoir que la PVU c'est la "Potential Vorticity Unit" , soit l’unité du tourbillon potentiel. La tropopause est la surface correspondant à une valeur du tourbillon potentiel 1.5 PVU.. On utilise cette carte tout d'abord parcequ'elle est essentielle en prévision , on regarde alors l'état de cette tropopause et on en tire des conclusions , sympatique pour les anomalies , et donc comme je te l'ai dit plus haut , couplée aux VV ça peut donner de beaux orages . C'est tout ce que je peux te dire sur cette carte, d'autres pourront te l'espliquer plus amplement. La carte des VV ou vitesses verticales : Tout d'abord la vitesse verticale c'est la variation de pression subie dans la couche atmosphérique . Lorseque sa valeur est négative on parle d'ascendance , inversement on parle de subsidence . On utilise principalement cette carte pour l'aspect orageux une nouvelle fois et donc dans la cyclogenèse et dans la frontogénèse . Une ascendance apporte de l'air humide dans les couches alors qu'une subsidence assèche la masse d'air . On peut donc regarder l'aspect des nuages . Cette carte sert aussi à regarder l'organisation ou la désorganisation d'un front à partir de ces fameuses vitesses verticales 700Hpa .. Je sais pas si j'ai étais très clair ... /emoticons/smile@2x.png 2x" width="20" height="20"> En espérant que d'autres viendront t'espliquer ! Christophe. Lien à poster Partager sur d’autres sites More sharing options...
Thomas_35 Posté(e) 29 mars 2009 Partager Posté(e) 29 mars 2009 Je complète l'explication de meteogardoise en vert. Surtout, n'hésitez pas à me reprendre. Tout d'abord ce que je peux te dire c'est que , généralement , ces deux cartes se couplent ou marchent en paire comme tu veux . Je vais commencer par la carte 1.5 PVU: Pour commencer il faut savoir que la PVU c'est la "Potential Vorticity Unit" , soit l'unité du tourbillon potentiel. La tropopause est la surface correspondant à une valeur du tourbillon potentiel 1.5 PVU.. On utilise cette carte tout d'abord parcequ'elle est essentielle en prévision , on regarde alors l'état de cette tropopause et on en tire des conclusions , sympatique pour les anomalies , et donc comme je te l'ai dit plus haut , couplée aux VV ça peut donner de beaux orages . C'est tout ce que je peux te dire sur cette carte, d'autres pourront te l'espliquer plus amplement. On signalera au passage que cette carte doit être observée à plus haute altitude (GFS Europe) quand on fait de l'analyse générale (exemple: analyse à long terme ou bien, tout simplement pour regarder le contexte globale des anomalies) mais il est vrai que si on fait de la prévision d'orages ça peut être intéressant de "zoomer" en regardant le 0.5°. En fait, cette carte est essentielle dans une prévision ! La carte des VV ou vitesses verticales : Tout d'abord la vitesse verticale c'est la variation de pression subie dans la couche atmosphérique . Lorseque sa valeur est négative on parle d'ascendance , inversement on parle de subsidence . On utilise principalement cette carte pour l'aspect orageux une nouvelle fois et donc dans la cyclogenèse et dans la frontogénèse . Une ascendance apporte de l'air humide dans les couches alors qu'une subsidence assèche la masse d'air . On peut donc regarder l'aspect des nuages . Cette carte sert aussi à regarder l'organisation ou la désorganisation d'un front à partir de ces fameuses vitesses verticales 700Hpa .. Je sais pas si j'ai étais très clair ... /emoticons/smile@2x.png 2x" width="20" height="20">/emoticons/smile@2x.png 2x" width="20" height="20"> En espérant que d'autres viendront t'espliquer ! Christophe. A nouveau, je préfère regarder cette carte plus globalement à plus haute altitude pour cerner le contexte global en premier lieu (paramètres initiaux) et éventuellement zoomer en cas de prévisions d'orages, de vents forts, de pluies importantes ... Cette carte, est, il est vrai très pratique pour prévoir les orages (pour ceux qui ont la chance d'en avoir /emoticons/happy@2x.png 2x" width="20" height="20"> ). Sinon il y a un dossier sur meteociel qui est bien plus clair ! Lien à poster Partager sur d’autres sites More sharing options...
Crazyboy Posté(e) 29 mars 2009 Puzeaux (80) Partager Posté(e) 29 mars 2009 Je complète l'explication de meteogardoise en vert. Surtout, n'hésitez pas à me reprendre. Sinon il y a un dossier sur meteociel qui est bien plus clair ! Merci météogardoise et Thomas 35 pour vos explications qui sont très claires , j'y vois plus clair maintenant c'est le cas de le dire. En faite la 1PVU si j'ai bien compris va nous aider à cerner les conditions synoptiques et l'autre l'activité d'un front ect... Lien à poster Partager sur d’autres sites More sharing options...
Météofun Posté(e) 29 mars 2009 Partager Posté(e) 29 mars 2009 Sinon dans les archives de cette partie du forum il y a pas mal de discussion sur le sujet. Je remet par exemple ce sujet pour les cartes 1.5 PVU où Damien avait fait une petite compilation : /index.php?showtopic=38796&st=0&p=885119'>http://forums.infoclimat.fr/index.php?show...mp;#entry885119 Je suppose qu'il y en a d'autres et aussi des explications sur les cartes de vitesse verticales. :original: Lien à poster Partager sur d’autres sites More sharing options...
Christophe30 Posté(e) 29 mars 2009 Saint-Quentin-la-Poterie (30) Partager Posté(e) 29 mars 2009 Sinon dans les archives de cette partie du forum il y a pas mal de discussion sur le sujet. Je remet par exemple ce sujet pour les cartes 1.5 PVU où Damien avait fait une petite compilation : /index.php?showtopic=38796&st=0&p=885119'>http://forums.infoclimat.fr/index.php?show...mp;#entry885119 Je suppose qu'il y en a d'autres et aussi des explications sur les cartes de vitesse verticales. :original: Merci pour le lien Oui doit avoir pas mal d'esplication sur les VV , tout dépend du contexte /emoticons/smile@2x.png 2x" width="20" height="20"> Lien à poster Partager sur d’autres sites More sharing options...
Thomas_35 Posté(e) 29 mars 2009 Partager Posté(e) 29 mars 2009 Merci météogardoise et Thomas 35 pour vos explications qui sont très claires , j'y vois plus clair maintenant c'est le cas de le dire. En faite la 1PVU si j'ai bien compris va nous aider à cerner les conditions synoptiques et l'autre l'activité d'un front ect... Oui voilà, je sais que de nombreux analystes du long terme utilise sans modération ce paramètre et généralement ça fonctionne bien. Par contre si tu veux plus d'explications sur ce sujet, c'est pas à moi qui faut demander^^. Pour l'activité d'un front on regardera surtout la ThetaE, plus on a une différence importante de ThetaE sur une courte distance, plus les précipitations seront fortes sous le front. Lien à poster Partager sur d’autres sites More sharing options...
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant