Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Messages recommandés

Invité Guest

a bon?lesquels exactement?ecm n est pas sorti, nogaps n annonce pas de redoux,et gfs est le plus chaud de tout les scenarios.non vraiment il faut etre objectif mais on est pas des machines stupides.on sait tres bien que les modeles gerent tres mal les gouttes froides et autres anticyclones.

dites moi si le scenario de 06 heure est a l envers, quelles conclusions en tiriez vous ( c est a dire que la ligne bleue serait tres en bas par rapport a la ligne blanche) ou alors s il etait la ligne jaune du diagramme que nous a mis mike

je suis désolé avant on utilisait pas 36000 modeles, qui sont d ailleurs tres mauvais comme jma et gem.ou tres moyen comme ukmo.seule gfs nogaps et ecmwf valent le coup.sauf quant ils petent des plombs comme aujourd hui.

je pensais qu etre objectif c est de decrire la realité.la réalité c est que gfs est le plus chaud et que les diagrammes sont tres dispersés.

Lien à poster
Partager sur d’autres sites

Comme si la prévision météorologique se résumait à gfs. Supprimer les autres modéles car ils ne servent strictement à rien.

Il n'y a plus d'analyse objective ici et les quelques internautes comme Jean michel ne sont pas là alors on se paie ici des exités du froid qui s'emballent sur un run de gfs. default_flowers.gif

Lien à poster
Partager sur d’autres sites

Invité Guest

c est un miracle mike.pour la premiere fois de son histoire, gfs va voir juste lorsqu il est a l opposé de tout les scenarios.lorsqu il est au plus chaud!

les autres modles ne peuvent pas changer, car ils arrivent a prendre en compte les gouttes froides et leur emplacement.en un mois, quels progrès! (on a changé d année c est peut etre pour ca)

bien sur dans le cas inverse,comme hier pour le diagramme de paris, ce scenario sera completement farfelue.bref les jeux sont faits

Lien à poster
Partager sur d’autres sites

NOGAPS a sans doute autant de données mais moins sont publiques. Et il sort bien 4x par jour (voir signature de Oozap pour le consulter). Virgile s'entête d'ailleurs souvent à le rappeler...

Je vois que tu es très bien informé.

Lien à poster
Partager sur d’autres sites

Une petite précision donc à propos de la façon dont sont fabriquées les prévisions d'ensemble. Les différents membres de l'ensemble sont construits en modifiant légèrement les conditions initiales "au début" de la prévision.

Pourquoi faire cela? Et bien parceque l'on sait que les conditions initiales sont forcément entachées d'erreurs (erreur de mesure par exemple) et donc on tente, grace à l'ensemble, d'echantillonner cette "erreur initiale" (dont on sait qu'elle va s'amplifier). On cherche donc au final à avoir au départ, un ensemble "equiprobable" et il est par conséquent faux de dire que le run deterministe est, après X jours de prévisions forcément plus réaliste parceque ses données ne sont pas perturbées. En réalité on ne peut dire, à prioris et si l'ensemble est bien construit, que tel ou tel prévi est plus réaliste qu'une autre. L'ensemble des scénarios doit être utilisé comme tel, il faut considérer moyenne, écart-type et autres dérivées probabiliste pour intérpreter le résultat.

Lien à poster
Partager sur d’autres sites

Pour ma part, je dirais que à J+1 J+2 je me sers quasi exclusivement de GFS car c'est le seul avec lequel on peut envisager une prévi sérieuse et complète autrement on ne fait que décrire bêtement les étapes d'un modèle puisque ce dernier est heureusement cohérent avec lui même, mais on est pas capable de le remettre en cause (il y a aussi bolam qui propose le couplage t'w et TP, mais pour ce qui est de la moitié nord il sous estime souvent les precip sauf quand le front est bien cerné). Je complète avec les RS de NMM qui dérive lui aussi de GFS il me semble... Je trouve que si on sait l'utiliser correctement en connaissant les défauts et les limites c'est ce qui se fait de mieux sur le net. A J+3 je complète avec ECMWF et l'ensemble des runs de GFS, parfois un furtif coup d'oeil sur UKMO.

Je pense pas que ça serve à grand chose de comparer des dizaines de modèles, en choisir 2 est suffisant quand on sait déceler les pb du modèle par exemple une facheuse tendance à la sous estimation d'un creusement à cause d'un précurseur d'altitude pas bien définit sur le modèle...

Lien à poster
Partager sur d’autres sites

Dans "l'erreur de prévision" il y a en gros 2 sources : l'erreur modèle que tu décris js et une autre que l'on peut nommer "erreur de l'état initiale". Si tu connais ton modèle sur le bout des doigts alors tu peux effectivement corriger de toi même les erreurs modèles (les tendances à sous-estimer ou sur-estimer un paramètre dans telle ou telle configuration) mais le problème reste entier à cause de "l'erreur initiale". Cette source d'erreur contenu dans l'état initiale de la prévi s'amplifie et va rapidement dégrader la qualité de la prévi. Par exemple tu sais que lorsque le precurseur d'altitude est mal définit ou mal positionné la modèle va sous-estimer la cyclogénèse mais le gros problème est : comment savoir si mon precurseur d'altitude est réellement mal positionné ou mal définit.

Au départ même de la prévision ton état contient d'infimes erreurs et tu ne peux savoir exactement lesquelles, donc il parait difficile de pouvoir les corriger (même impossible) lorsqu'elles auront évoluées. L'utilisation d'un ensemble peut permettre d'echantillonner ces erreurs, d'avoir peut-être un échantillon représentatif "des états du réel possibles" et donc espérer un échantillon des "futurs possibles".

Sur la forme je suis d'accord avec toi, pour ce qui est des 48-72 premières heures, un bon modèle déterministe bien utilisé peut suffire (cela dépend toutefois de la situation synoptique, il arrive que dés 24h ou moins la croissance des erreurs soit trop forte) ensuite l'utilisation d'un seul run de modèle me semble impossible ou au moins très risqué.

Lien à poster
Partager sur d’autres sites

Je pense pas que ça serve à grand chose de comparer des dizaines de modèles, en choisir 2 est suffisant quand on sait déceler les pb du modèle par exemple une facheuse tendance à la sous estimation d'un creusement à cause d'un précurseur d'altitude pas bien définit sur le modèle...

Je ne serais jamais d'accord avec cela. Pk ne regarder que 2 modéles déterministes quand on peut en disposer pratiquement d'une dizaine ( GFS, nogaps, gem, gme, kma, ecwmf, ukmo et jma)? Après c'est au prévisionniste de faire son choix de scénario par rapport à l'ensemble des modéles sorties. La multiplication des modéles permet d'affirmer ou d'infirmer son choix. Maintenant, on ne peut pas nier que chaque prévisionniste a son voir ses chouchous mais se limiter qu'à 2 souces amplifient le risque d'erreur, c'est logique.Ceci est vrai surtout pour l'échéance après 60 heures
Lien à poster
Partager sur d’autres sites

se limiter qu'à 2 souces amplifient le risque d'erreur, c'est logique.

Ceci est vrai surtout pour l'échéance après 60 heures

Je ne le pense pas : Si tu prends en compte tous les modèles, et que par exemple, ils sont tous divergeants, alors tu vas faire évoluer ta prévi vers une situation moyenne.

Or , bien souvent, le temps est tout, sauf moyen.

Lien à poster
Partager sur d’autres sites

Dans "l'erreur de prévision" il y a en gros 2 sources : l'erreur modèle que tu décris js et une autre que l'on peut nommer "erreur de l'état initiale". Si tu connais ton modèle sur le bout des doigts alors tu peux effectivement corriger de toi même les erreurs modèles (les tendances à sous-estimer ou sur-estimer un paramètre dans telle ou telle configuration) mais le problème reste entier à cause de "l'erreur initiale". Cette source d'erreur contenu dans l'état initiale de la prévi s'amplifie et va rapidement dégrader la qualité de la prévi. Par exemple tu sais que lorsque le precurseur d'altitude est mal définit ou mal positionné la modèle va sous-estimer la cyclogénèse mais le gros problème est : comment savoir si mon precurseur d'altitude est réellement mal positionné ou mal définit.

Au départ même de la prévision ton état contient d'infimes erreurs et tu ne peux savoir exactement lesquelles, donc il parait difficile de pouvoir les corriger (même impossible) lorsqu'elles auront évoluées. L'utilisation d'un ensemble peut permettre d'echantillonner ces erreurs, d'avoir peut-être un échantillon représentatif "des états du réel possibles" et donc espérer un échantillon des "futurs possibles".

Sur la forme je suis d'accord avec toi, pour ce qui est des 48-72 premières heures, un bon modèle déterministe bien utilisé peut suffire (cela dépend toutefois de la situation synoptique, il arrive que dés 24h ou moins la croissance des erreurs soit trop forte) ensuite l'utilisation d'un seul run de modèle me semble impossible ou au moins très risqué.

"comment savoir si mon precurseur d'altitude est réellement mal positionné ou mal définit."

L'imagerie satellitaire est l'une des réponses de ta question, il me semble qu'à MF les ingé, utilisent pour tracer les anasyg ou presyg (qui permet la correction humaine à partir des données du modèles) le spectre de vapeur d'eau car l'humidité est reliée au champ du mouvement relié lui même à la dynamique. Si tu veux quand tu superpose des champs tels que le géopotentiel à la tropo dynamique et du jet sur l'imagerie satellite réglée sur le spectre vapeur d'eau tu as un moyen de contrôler le comportement du modèle...

Il arrive parfois que les anomalies de tropo latente (peu prononcées) ne soient pas repérées sur un modèle ce qui peut conduire à l'erreur si cette dernière rencontre des élements propice à son creusement.

C'est un moyen assez efficace de s'apperçevoir de "l'erreur initiale", mais ça prend du temps car fait de la main du prévi. C'est pour cela qu'il est important de connaître ces méthodes qui permettent de remettre en cause le modèle.

Je rajoute que pour moi l'ensemble des runs signifie ENS plus recoupement de plusieurs sorties déterministes du modèle allant de 00z à 18z. Ensuite à affiner avec un autre modèle performant.

Laurent Violet procède un peu de la même manière à ce qu'il m'a expliqué et je doute que sa méthode soit mauvaise...

Tout le problème consiste à donner toi même un vision déterministe.

Quoiqu'il en soit c'est un débat très interessant !

Lien à poster
Partager sur d’autres sites

Je ne le pense pas : Si tu prends en compte tous les modèles, et que par exemple, ils sont tous divergeants, alors tu vas faire évoluer ta prévi vers une situation moyenne.

Or , bien souvent, le temps est tout, sauf moyen.

Oui mais si tous les modèles divergent alors le prévisibilité est faible. Statistiquement, et à moins d'avoir un gros coup de chance et de choisir "le bon modèle" , la moyenne fournira une prévision lissée mais moins fausse qu'un run d'un modèle isolé
Lien à poster
Partager sur d’autres sites

"comment savoir si mon precurseur d'altitude est réellement mal positionné ou mal définit."

L'imagerie satellitaire est l'une des réponses de ta question, il me semble qu'à MF les ingé, utilisent pour tracer les anasyg ou presyg (qui permet la correction humaine à partir des données du modèles) le spectre de vapeur d'eau car l'humidité est reliée au champ du mouvement relié lui même à la dynamique. Si tu veux quand tu superpose des champs tels que le géopotentiel à la tropo dynamique et du jet sur l'imagerie satellite réglée sur le spectre vapeur d'eau tu as un moyen de contrôler le comportement du modèle...

Il arrive parfois que les anomalies de tropo latente (peu prononcées) ne soient pas repérées sur un modèle ce qui peut conduire à l'erreur si cette dernière rencontre des élements propice à son creusement.

C'est un moyen assez efficace de s'apperçevoir de "l'erreur initiale", mais ça prend du temps car fait de la main du prévi. C'est pour cela qu'il est important de connaître ces méthodes qui permettent de remettre en cause le modèle.

Je rajoute que pour moi l'ensemble des runs signifie ENS plus recoupement de plusieurs sorties déterministes du modèle allant de 00z à 18z. Ensuite à affiner avec un autre modèle performant.

Laurent Violet procède un peu de la même manière à ce qu'il m'a expliqué et je doute que sa méthode soit mauvaise...

Tout le problème consiste à donner toi même un vision déterministe.

Quoiqu'il en soit c'est un débat très interessant !

Pour la première partie de ton message je suis d'accord avec l'intérêt de cette méthode. Il me semble même qu'elle est ou sera un jour "automatisée" (j'ai du lire cela dans "la météorologie"). En effet grace à un algorithme d'inversion du tourbillon potentiel on peut, après correction grace aux images sat "recréer" un état initial plus conforme à la réalité. Cela conduit bien sur à améliorer la qualité de la prévision sur le court terme. C'est bien sur un énorme progrès mais au final cela ne fait que repousser "l'inévitable" car la correction n'est pas parfaite (du fait par exemple des imperfections de l'inversion du PV) et de toute façon ne peut se faire que sur des éléments "ciblés". C'est donc un excellent outil par exemple lorsqu'il s'agit d'une prévi courte échéance d'une cyclogénèse intense mais passé trois ou quatre jours la prévi déterministe est statistiquement inefficace par rapport à une prévision d'ensemble.

Pour ce qui est de la fin de ton message (que j'ai peut-être mal compris) je pense au contraire qu'il ne faut pas chercher à donner une vision detreministe des prévisions probabilistes. C'est hélas ce qui se fait chaque dimanche à la TV et conduit à mon sens à des choses grotesques du style une carte avec : un nuage, un bout de soleil, quelques gouttes à gauche et un flocon à droite ...de 2 choses l'une ou on utilise la moyenne de l'ensemble (à mon avis c'est une sous-utilisation) et on présente cela comme une carte à j+3 ou j+2 (et la dispertion sert ensuite "d'indice de confiance") soit on assume l'utilisation de prévision probabiliste et on doit alors fournir des probabilités d'occurence de divers paramètres (c'est à mon sens la plus honnête des prévisions possible).

Je comprends parfaitement la difficulté de présenter cela sous cette forme de façon concise et en 5 secondes à la télé.....

Je voudrais également souligner la sagesse de nos amis belges qui, lorsque la prévisibilité est trop faible pour le Xème jour, le disent et ne donnent alors pas de prévision (j'imagine le scandale en France...).

Lien à poster
Partager sur d’autres sites

Oui mais si tous les modèles divergent alors le prévisibilité est faible. Statistiquement, et à moins d'avoir un gros coup de chance et de choisir "le bon modèle" , la moyenne fournira une prévision lissée mais moins fausse qu'un run d'un modèle isolé

C'est effectivement une façon rationelle de voir les choses. (sauf sur la prévisibilité)OK aussi sur la façon d'analyser les précurseurs d'altitude, on voit d'ailleurs GFS et Bloam (CEP) souvent en accord sur l'analyse car ils ont été validés par la sat V E.

Mais la divergence va se faire essentiellement sur les conditions en basse couche. J'ai l'impression, que même avec un réseau de mesure le plus dense qui soit, d'autres problèmes sont loin d'être résolus, en particulier la rugosité du sol.

pour exemple : la rugosité sur la mer est variable en fonction de la différence des températures de l'air et de l'eau, et les modèles ne connaissent qu'une seule température de l'eau : celle du moment initial! On va donc se retrouver , suivant les conditions et les échéances, avec des différences inverses des réelles, et donc des conditions de rugosité inverses.

(y'a d'autres exemples)

Lien à poster
Partager sur d’autres sites

Pour la première partie de ton message je suis d'accord avec l'intérêt de cette méthode. Il me semble même qu'elle est ou sera un jour "automatisée" (j'ai du lire cela dans "la météorologie"). En effet grace à un algorithme d'inversion du tourbillon potentiel on peut, après correction grace aux images sat "recréer" un état initial plus conforme à la réalité. Cela conduit bien sur à améliorer la qualité de la prévision sur le court terme. C'est bien sur un énorme progrès mais au final cela ne fait que repousser "l'inévitable" car la correction n'est pas parfaite (du fait par exemple des imperfections de l'inversion du PV) et de toute façon ne peut se faire que sur des éléments "ciblés". C'est donc un excellent outil par exemple lorsqu'il s'agit d'une prévi courte échéance d'une cyclogénèse intense mais passé trois ou quatre jours la prévi déterministe est statistiquement inefficace par rapport à une prévision d'ensemble.

Pour ce qui est de la fin de ton message (que j'ai peut-être mal compris) je pense au contraire qu'il ne faut pas chercher à donner une vision detreministe des prévisions probabilistes. C'est hélas ce qui se fait chaque dimanche à la TV et conduit à mon sens à des choses grotesques du style une carte avec : un nuage, un bout de soleil, quelques gouttes à gauche et un flocon à droite ...de 2 choses l'une ou on utilise la moyenne de l'ensemble (à mon avis c'est une sous-utilisation) et on présente cela comme une carte à j+3 ou j+2 (et la dispertion sert ensuite "d'indice de confiance") soit on assume l'utilisation de prévision probabiliste et on doit alors fournir des probabilités d'occurence de divers paramètres (c'est à mon sens la plus honnête des prévisions possible).

Je comprends parfaitement la difficulté de présenter cela sous cette forme de façon concise et en 5 secondes à la télé.....

Je voudrais également souligner la sagesse de nos amis belges qui, lorsque la prévisibilité est trop faible pour le Xème jour, le disent et ne donnent alors pas de prévision (j'imagine le scandale en France...).

Si on anticipe mieux le comportement du précurseur on sera plus à même d'anticiper son action sur le temps qu'il fait, en ce moment par exemple on se rend bien compte de l'importance des remontées des dorsales au delà du 60ème parallèle, pourtant ces dernières sont aussi conditionnées par la répercussion du précurseur d'altitude sur la cyclogénèse sur l'atlantique à l'arrière de la remontée chaude. Bref tout est relié ce qui fait que c'est extrêmement complexe mais je suis plus que d'accord on ne fait que reculer le pb...

Pour le moment c'est ce qu'on a de mieux en rayon.

Pour la deuxième partie de ton message je suis là encore de ton avis mais les gens se foutent hélas d'avoir des probabilités, et hélas la météo doit s'adapter à ces derniers.

"y'a d'autres exemples" oui et c'est bien ça le pb, à l'échelle très locale, ne serait-ce que pour les milieux urbains qui regroupent pourtant un nbr très important de personne et qui présentent de très nombreuses modification en basse couche (comme nous l'avons vu par exemple avec la couche limite). Bref y a une infinité de variables...

Lien à poster
Partager sur d’autres sites

Posté(e)
Foussais-Payré (85) / La Bruffière (85)

Je profite de ce sujet pour donner des précisions notamment sur GFS et pour répondre à d'autres questions récurentes sur le forum.

On trouve une vraie mine d'informations sur GFS à partir de ce lien:

(il faut savoir lire l'anglais...)

http://wwwt.emc.ncep.noaa.gov/

(Voir partie en bas de page, Global Forecast System)

Ici, vous avez une description complète du fonctionnement de GFS et de tout ce qu'il prend en compte!

http://wwwt.emc.ncep.noaa.gov/gmb/moorthi/gam.html

Il prend en compte (entre autres):

- La nature du sol (végétation...)

- L'humidité du sol

- L'accumulation et la fonte de neige au sol

- La température de l'eau de mer

- La présence de banquise

- L'albédo du sol (notamment quand il y a de la neige) et des océans

- Les effets des gaz à effet de serre

- L'ensoleillement

- Le relief

- etc...

Les données sur l'épaisseur de neige au sol sont actualisées 1 fois par jour (quel run ?) et donc pour les 3 autres runs, on se base sur des estimations.

Ici, vous avez une liste des dernières modifs apportées à GFS:

http://www.emc.ncep.noaa.gov/gmb/STATS/htm...el_changes.html

Pour les questions de fiabilité, voir ici:

http://www.emc.ncep.noaa.gov/gmb/STATS/STATS.html

Sur ce graphe, on voit la fiabilité des différents modèles pour la prévision à 120h sur les 30 derniers jours:

acz5.gif

Légende:

Noir = GFS run de 0z

Rouge = ECMWF

vert = modèle canadien (GEM ?)

bleu = FNOC (=NOGAPS ?)

orange = UKMO

(Quelqu'un peut me confirmer tout ça ?)

Les écarts ne sont pas énormes mais ECMWF semble être le meilleur et NOGAPS le pire!

Ici, vous avez la fiabilité des modèles en fonction du jour de prévision sur une période d'un an:

Géopotentiel à 500hPa

http://www.emc.ncep.noaa.gov/gmb/STATS/htm...e16.5.year.html

Géopotentiel à 500hPa

http://www.emc.ncep.noaa.gov/gmb/STATS/htm...e16.1.year.html

Conclusion: ces graphiques confirment l'impression citée plus haut. Au hit-parade des modèles, on trouve par ordre de fiabilité pour l'année 2004:

1 - ECMWF

2 - GFS

3 - UKMO

4 - GEM

5 - NOGAPS

(JMA et d'autres modèles ne sont pas pris en compte)

Pour la fiabilité des modèles en fonction des runs, voir ici:

http://www.emc.ncep.noaa.gov/gmb/STATS/STATS4x.html

Fiabilité de GFS en fonction de l'échéance et du run pour le géopotentiel à 1000hPa (année 2004...jusqu'à la prochaine mise à jour pour 2005):

http://www.emc.ncep.noaa.gov/gmb/STATS/htm...e16.1.year.html

Conclusion: la différence est infime entre les 4 runs de GFS. Le run 0z ressort légèrement du lot de 1%...

Ca ne sert donc à rien de dire "le run 0z est plus fiable que le run de 6z parce qu'il prend en compte plus de données", pour 6 jours d'échéance, la fiabilité est de 66% pour 6z, 12z et 18z, contre 67% pour 0z. Des broutilles, quoi...A voir quand même si ces résultats ont bougé en 2005.

Sur le site de ECMWF, on peut trouver des infos sur ce modèle, notamment ici:

http://www.ecmwf.int/research/ifsdocs/CY28r1/index.html

Cyrille

Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...