Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Messages recommandés

Je viens de visiter les pages "pédagogie" et en particulier celles consacrées aux modèles et à leur lecture.

Vraiment super ! default_ph34r.png/emoticons/ph34r@2x.png 2x" width="20" height="20">default_tongue.png/emoticons/tongue@2x.png 2x" width="20" height="20">default_tongue.png/emoticons/tongue@2x.png 2x" width="20" height="20"> ça manquait ce genre de pages didactiques sur un sujet aussi complexe. Bon, je ne m'atttends pas à jouer moi-même les prévisionnistes default_online2long.gif ! Mais au moins déjà essayer de mieux comprendre ce qui se dit...

Il faudra que je prenne le temps d'explorer tout ça... Ya du boulot !

Elles ont été mises depuis quand ces pages ? C'est curieux, je ne les avait pas remarquées, alors qu'il y a eu des discussions récemment sur ce thème de la pédagogie météo.

Pas mal aussi le lexique interactif !

Lien à poster
Partager sur d’autres sites

Mais cela m'a l'air excellent !

Je n'avais effectivement pas remarqué ces pages !

Je n'ai pas le tps de tt lire ce soir, mais je m'y attacherai dès que possible.

Bravo aux auteurs.

Lien à poster
Partager sur d’autres sites

Invité Guest

Salut, effectivement ces pages m'ont l'air très complètes et mais assez "costaud" à comprendre...

je suis novice mais j'ai très envie d'assimiler toutes ces bases.

je me suis tout imprimer pour lire ça au calme. à mon avis je reviendrai avec quelques questions d'ici peu default_w00t.gif

le lexique demanderai à être compléter, mais cela se fera au fur et à mesure.

Chapeau messieurs !

Lien à poster
Partager sur d’autres sites

Invité Guest

Très bonne initiative en effet! default_w00t.gif

Je fais qq remarques:

pour la maille de GFS, étant donné que c'est un modèle global, il a une même maille partout.

Ukmo tourne 4 fois par jour mais wetterzentrale n'en donne que 2

Bracknell n'est pas un modèle mais une carte de "préisos" ce qui est tout à fait différent, comme Usaf et DWD. Ces cartes ne sont plus faites à la main maintenant, et on ne parle de run que pour un modèle brut sortant d'ordinateur.

Nogaps tourne aussi 4 fois par jour

Les niveaux sont: 1000, 925, 850, 700, 600, 500, 300, 250, 200 hpa

Pour les flux au sol et en altitude il faut préciser qu'au sol le déplacement de l'air ne suit pas exactement et parallèlement les isobares en raison du frottement. Par contre en altitude, le flux est bien parallèle aux isohypses (vent géostrophique). Donc dans le cas d'isobares et isohypses parfaitement parallèles, on aura un cisaillement de vent entre les 2 niveaux.

Dans l'exemple de la dépression centrée au sud de la Norvège sur la carte de T850, elle n'est pas centrée à 1500m, mais à 850 hPa. On a svt tendance à dire 1500m pour ce niveau comme 5000m pour le 500 hPa. Mais en étant précis, la dépression a son centre à 1280m ici.

On peut préciser qu'on utilise la T850 pour prévoir la Tsol car à on considère qu'à partir de 850 hPa l'influence du sol n'est plus présente et que la T°C ne subit pas de variation entre le jour et la nuit.

La carte d'épaisseur 1000/500 hPa est qd meme relativement importante puisqu'elle donne la T° moyenne de la couche comprise entre 1000 et 500 hpa.

Ukmo donne aussi des cartes de prévi de RR (sur wyoming)

Pour les modèles d'ensemble, on peut préciser que les différents scénarios sont établis en modifiant les conditions initiales entrées dans le modèle, une moyenne en est faite (courbe blanche), la courbe bleu gras étant la version déterministe c a d classique, sans modification des conditions initiales.

Lien à poster
Partager sur d’autres sites

pour la maille de GFS, étant donné que c'est un modèle global, il a une même maille partout

Tu es sur de ca? Il me semblait aussi que la maille était plus fine pour L'Amérique du nord...
Lien à poster
Partager sur d’autres sites

Invité Guest

J'ai deja entendu parle d'une version régionale donc plus fine sur l'amé du nord, et d'une version globale.

qq détails sur la globale

Currently, the GFS is run four times per day (00 UTC, 06 UTC, 12 UTC, and 18 UTC) out to 384 hours. The initial forecast resolution was changed on October 29, 2002 to T254 (equivalent to about about 55-km grid-point resolution) with 64 levels out to 3.5 days (84 hours). At later forecast times, the GFS has a resolution of T170 (equivalent to about 80-km resolution) with 42 levels from 3.5 to 7.5 days (180 hours), and finally T126 (equivalent to about 110-km resolution) with 28 levels beyond to day 16 (384 hours). The reduction in GFS model resolution at 84 hours is consistent with studies showing that the GFS benefits from higher resolution only out to about day 3-4. All GFS runs get their initial conditions from the Spectral Statistical Interpolation (SSI) global data assimilation system (GDAS), which is updated continuously throughout the day.

Au passage on comprend pourquoi la fiabilité diminue avec des échéances plus lointaines...

Lien à poster
Partager sur d’autres sites

Bonjour,

Au passage on comprend pourquoi la fiabilité diminue avec des échéances plus lointaines...

Je ne savais pas que la résolution baissait dans le temps, mais après réflexion, on pouvait imaginer le temps de calcul phénoménal si celle-ci restait la même default_happy.png/emoticons/happy@2x.png 2x" width="20" height="20"> ! Par contre, je vois que la résolution globale est de 55 km jusqu'à une échéance de 84h. Je pensais qu'elle était de 100 km sur l'Europe default_happy.png/emoticons/happy@2x.png 2x" width="20" height="20"> .

A part ça, je crois que GFS est le seul modèle du monde qui fournit des prévis à 16j, non ?!? Ca c'est bien un modèle Américain, tsssss default_tongue.png/emoticons/tongue@2x.png 2x" width="20" height="20"> !

Lien à poster
Partager sur d’autres sites

Au passage on comprend pourquoi la fiabilité diminue avec des échéances plus lointaines...

Le fait d'utiliser une maille de plus en plus grande pour des échèances de plus en plus "lointaines" ne fait pas baisser la fiabilité des prévisions du modèle, au contraire.En fait, on sait, entre autres grace à Lorenz, que plus l'écheance de la prévision est lointaine, plus l'échelle des phénomènes prévisibles devient grande ( "on perd en précision"). Le fait d'agrandir la maille du modèle pour les grandes échèances vise donc à améliorer la fiabilité du résultat. Les structures prévues seront moins "détaillées" qu'à courte échèance mais une prévision à longue échèance avec une résolution aussi fine qu'à courte échèance serait beaucoup moins fiable voire illusoire. Cette réduction de maille est donc une stratégie volontairement choisie pour améliorer la fiabilité de la prévi lointaine.
Lien à poster
Partager sur d’autres sites

pourquoi si l'on conserve une maille fine l'on aurait une fiabilité moindre???

Le principe d'un code bien construit est justement d'etre plus réaliste orsque l'on augmente la résolution spatale...

Lien à poster
Partager sur d’autres sites

AAAAh ! Merci pour cette explication très pertinente Ids.

C'est pour ça que les modèles à maille réduite comme BOLAM, NMM, MESO-ETA, THEYR ne prévoient pas à plus de 72h ?!

Pourtant, le modèle CEP prévoit jusqu'à 10j, (et même au-delà à titre expérimental 2 fois par mois je crois), et il reste le meilleur modèle pour la prévi de 3 à 7j (selon l'OMM), et il a un point de calcul tous les 40 km default_happy.png/emoticons/happy@2x.png 2x" width="20" height="20"> .

De plus, le modèle qui sera en service vers 2008, AROME de MF, sera encore plus précis que Arpège... N'y a-t-il donc pas là un risque pour MF de perdre en précision au-delà d'une certaine échéance ? A moins que MF décide de faire comme GFS, et abaisser la résolution avec le temps default_happy.png/emoticons/happy@2x.png 2x" width="20" height="20"> .

Lien à poster
Partager sur d’autres sites

Pour chris86

Effectivement plus la maille du modèle est fine plus il est réaliste en ce qu'il représente mieux des structures de plus petites echelles. Le problème c'est que ces structures de plus petites echelles sont de moins en moins prévisibles au fur et à mesure que l'échèance de la prévi augmente.

En fait au départ d'une prévi il y a toujours un état initial, l'analyse, que l'on donne "à manger" au modèle pour qu'il puisse faire la prévision. cette analyse n'est jamais parfaite et les erreurs qu'elle contient vont inéluctablement s'amplifier au cours de la prévision. c'est à cause de cela que l'on perd en précision au fur et à mesure de l'échèance. L'erreur faite sur des structures de grande echelle comme un vaste thalweg ou une grande cellule anticyclonique ne sera en général pas encore trop grande mais si l'on veut par exemple prévoir une petite dépression qui se forme au sein du thalweg alors la sa localisation deviendra de plus en plus impossible à prévoir de façon fiable.

Bien sur, si je garde une maille fine j'aurais plus de détails et donc "plus de réalisme" mais ces détails et ce réalisme vont devenir de plus en plus faux et feront baisser la fiabilité de la prévi au cours du temps et c'est pour cela que gfs a une maille plus large à longue échèance.

Pour nanau

Je ne sais pas si cep garde la meme maille jusqu'à 7 jours mais ce que je sais c'est que la prévi d'ensemble du cep qui se concentre sur les échèances j+4,j+5, j+6, j+7 utilise le modèle avec une maille plus large.

Pour Arome je pense (je ne suis pas sur) qu'il ne sera utilisé que pour la courte échèance (jusqu'à j+3) et qu'au dela MF utilisera les prévis d'ensemble du CEP. Mais bien sur un des pbs des modèles à maille trés fine est certe de prévoir de façon détaillée mais de prévoir bien de façon détaillée.

L'amélioration de la qualité des analyses reste un des meilleurs moyen d'améliorer celle des prévisions.

Lien à poster
Partager sur d’autres sites

je comprends ce que tu expliques mais cela veut dire aussi que le code est mal construit si les resultats sont dependants de la finesse de la maille!

mal construit ou faux! d'ailleurs!

As tu des info a ce sujet?

Lien à poster
Partager sur d’autres sites

je comprends ce que tu expliques mais cela veut dire aussi que le code est mal construit si les resultats sont dependants de la finesse de la maille!

mal construit ou faux! d'ailleurs!

C'est quoi le "code" ?
Lien à poster
Partager sur d’autres sites

le code est l'objet dans lequel tu specifies les equations a resoudre pour ton modèle!

Une fois ecrit, on le fait tourner pour obtenir les resultats que l'on peut consulter. default_happy.png/emoticons/happy@2x.png 2x" width="20" height="20">

Lien à poster
Partager sur d’autres sites

Invité Guest

En fait au départ d'une prévi il y a toujours un état initial, l'analyse, que l'on donne "à manger" au modèle pour qu'il puisse faire la prévision

En plus il peut arriver que des données de l'analyse automatique soient rejetées par un modèle lors de situations exceptionnelles, ce qui est arrivé en 1999 lorsque Arpège a refusé des données. A partir de là la prévision en prend un coup...
Lien à poster
Partager sur d’autres sites

le code est l'objet dans lequel tu specifies les equations a resoudre pour ton modèle!

Donc c'est l'ordinateur en fait ( le supercalculateur quoi !).

(c'est un cerveau-lent qui pose la question default_happy.png/emoticons/happy@2x.png 2x" width="20" height="20"> )

En plus il peut arriver que des données de l'analyse automatique soient rejetées par un modèle lors de situations exceptionnelles, ce qui est arrivé en 1999 lorsque Arpège a refusé des données. A partir de là la prévision en prend un coup...

-heureusement que les modèles retirent les données aberrantes, sinon, c'est très vite des fausses prévis qui sont faites ! Je crois que le CEP utilise bcp cette méthode, et vue ça fiabilité, ça marche !
Lien à poster
Partager sur d’autres sites

En plus il peut arriver que des données de l'analyse automatique soient rejetées par un modèle lors de situations exceptionnelles, ce qui est arrivé en 1999 lorsque Arpège a refusé des données. A partir de là la prévision en prend un coup...

Il me semble avoir vu ça quelque part effectivement à propos des tempêtes de 99 : des données concernant la vitesse du courant-jet ou quelque chose comme ça, qui auraient été rejetées parce qu'inhabituelles par rapport à ce qui se passe d'habitude ...C'est inquiètant ça je trouve ! default_happy.png/emoticons/happy@2x.png 2x" width="20" height="20">

Les prévisionnistes humains sont quand même là pour analyser et interpréter les données des modèles. A mon humble avis, on devrait plutôt garder ces données, même si elles semblent aberrantes, quitte ensuite pour les humains à débusquer et supprimer les inévitables bugs.

Lien à poster
Partager sur d’autres sites

Non chris, le code (c'est à dire la transcription d'équations mathématiques en language informatique) est bon et bien écrit.

Bien sur les résultats obtenus sont globalement les mêmes mais avec une maille plus fine, c'est à dire un découpage de l'atmosphère en cubes plus petits, on a un résultat plus détaillé. De façon global les deux résultats ont une structure d'ensemble identique ce qui change c'est les détails que possède l'un et pas l'autre. Et c'est la "fiabilité" de ces "détails" qui se déteriore au cours du temps.

Le façon dont sont codées les équations ne change pas.

Pour reprendre la remarque trés juste de mathieu le code de la prévi ne refuse pas une ci. En fait ce travail de validation des obs est fait en amont pour construire l'analyse initiale (qui représente les ci). cette analyse est construite au cours d'une phase nommée assimilation (des observations) et qui vise à construire une analyse la plus proche possible de la réalité à un instant t. On intégre donc des observations mais avant cela on controle lsi elles sont physiquement acceptable. Par exemple si une bouée atlantique donne un vent de 350 km/h il y a des chances qu'elle soit rejetée. Le problème c'est que ces critères de rejet ont des limites hautes ou basses qui ne tiennent pas compte (et c'est normal) des phénomènes exceptonnels. Et justement en 1999 on a eu des relevés incroyables qui n'avaient jamais été mesuré. A partir de la on a rejeté certaines obs dans l'analyse et cela à été préjudiciable pour la prévi.

Lien à poster
Partager sur d’autres sites

Encore un mot pour répondre à Nicolas.

Le pb est que lors d'un phénomène exceptionnel tu ne peux pas éviter de prendre un gros risque.

Je m'explique : imagine que tu reçois une obs "bizarre" avec un jet à 500 km/h jamais mesuré avant. Tu as 2 solutions soit tu accepte en te disant que c'est peut être la tempête du siècle ou tu refuses en disant que le ballon sonde doit d******r. Dans les deux cas ta prise de risque est la même et est trés grande. En effet si tu acceptes et que l'obs est fausse tu risque de prévoir une mega tempête inexistante au final, et si tu refuses et qu'elle est bonne tu ne prevois pas cette mega tempête. Dans les deux cas il y a, de part le caractère exceptionnel du phénomène de grosses conséquences et donc un risque d'erreur grand et inévitable. Tu peux mettre 100000 personnes au boulot ca ne changera rien....

Lien à poster
Partager sur d’autres sites

A partir de là, c'est vrai, le débat dépasse largement la seule question technique des modèles. Dans un cas comme dans l'autre, les pertes sont énormes (même si quand même dans l'un des cas ces pertes peuvent être humaines !). Et les critères de choix de l'une ou de l'autre solution nous font en effet rentrer dans des considérations d'ordre plutôt éthique ou politico-économiques, dont on a d'ailleurs largement débattu ici-même.

Pour revenir dans des considérations plus "techniques" (autant que mes maigres connaissances me le permettent ! default_happy.png/emoticons/happy@2x.png 2x" width="20" height="20"> ), n'y aurait-il pas moyen justement au niveau technique de décider de la fiabilité d'une donnée exceptionnelle (par recoupement avec d'autres données, analyse par rapport à des précédents dans le passé, voire par rapport à la probabilité de changements climatiques éventuels dans le futur...) ?

Il ya eu les tempêtes de 99. Je me souviens aussi il n'ya pas si longtemps de ce "cyclone" exceptionnel apparu au large du Brésil je crois, dans une zone qui normalement ne figurerait pas dans les zones "à cyclones" (??). Je ne sais pas comment les services de prévision locaux ont géré la chose...

Lien à poster
Partager sur d’autres sites

heuh!je ne vois pas alors en quoi le code est plus fiable lorsque l'on relache le maillage!

?? default_mellow.png

Tu dois plutot faire allusion au temps de calcul non?

Lien à poster
Partager sur d’autres sites

Je vais tacher d'être plus clair chris

Le code, en tant que transcription informatique des équations ne change pas et sa qualité ne change pas en fonction du maillage.

Le résultat de la prévision, lui, est plus ou moins riche en détails suivant que le maillage est plus ou moins large. Cette richesse de "détails" peut, à longue échèance, rendre la prévi moins fiable. En effet plus l'échèance avance plus prévoir correctement ces détails devient difficile notamment du fait de la croissance d'erreurs initiales. Il y a en quelquesorte un compromis à faire entre une prévi plus détaillée mais dont les structures fines peuvent être mal prevues et une prévi peu détaillée mais plus fiable parceque les erreurs sont moins "importantes" sur des structures de grande taille.

Encore une fois ce n'est pas le code qui est plus fiable, sa qualité reste la même, c'est le résultat de la prévi qui sera plus ou moins fiable.

Lien à poster
Partager sur d’autres sites

non tu es clair je te remercie seulement il ne faut pas confondre finesse de resultats et fiabilité..

ensuite si ton resultat depend de la finesse de ton maillage, il n'est pas "robuste"!

default_mellow.png

Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...