Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Messages recommandés

Pour poursuivre le sujet sur les modèles qui n'avait pas vraiment sa place en prévision à long terme.

Donc météor disait:

si je résume :

sur les cartes présentées par GFS, via Wetterzentrale, il s'agit du scénario déterministe HR avec conditions initiales inchangées.

Sur les diagrammes ce sont d'autres scenarii HR avec des perturbations sur les conditions initiales.

La courbe bleue en gras c'est le scénario déterministe basse résolution mais avec conditions initiales inchangées.

Ce scénario présente tout de même l'intérêt d'ignorer certains phénomènes (virtuels) de petite échelle, qui pourraient fausser le reste du calcul.Il aurait donc une certaine fiabilité qui ne serait pas à négliger donc.

Quant à la courbe blanche c'est la moyenne de tous les scenarii HR et qui est représentée sur ENS.

Oui c'est exactement ca. Excepté le fait que Météofun ne soit pas d'accord sur l'intéret que je trouve au run de controle ayant une maille plus large par rapports aux phénomènes de petite echelle.

Météofun disait:

Je ne suis pas parfaitement d’accord avec Stalbuck en ce qui concerne l’intérêt du lissage des phénomènes sur le long terme … Nombre de phénomènes de petite échelle ont une influence considérable sur le long-terme, je pense notamment aux cyclogenèses, advections chaudes issus des perturbations tropicales, interactions avec entre les différents niveaux, … Autant de choses qui ne peuvent être correctement modélisé qu’avec une précision suffisamment importante et qui peuvent avoir une importance considérable à grande échelle.

Par contre, pour sortir une probabilité cohérente de ce chaos, il faut un grand nombre de scénarios de départ.

Pour moi c'est justement le problème. L'apparition par exemple d'une goutte froide à tel endroit pour une échéance à 200,250, ou 300 h n'a quasiement aucune chance d'etre correcte une fois l'écheance arrivée, étant donné le manque de précision des conditions initiales. Et pourtant cette meme goutte froide peut engendrer des modifications assez profondes pour la suite des évenements. C'est pour cela que sur une maille plus large, il n'est pas forcément plus mal que ce genre de petits phénomènes passent au travers du filet, étant donné le peu de chance qu'ils ont de vraiment exister au final pour des échéances aussi longues.

J'avais lu un article très intéressant sur la modélisation à mailles, ou il était mentionné que pour le long terme, les résultats étaient souvent meilleurs avec un maillage large laissant passer ce genre de phénomènes de petite échelle. Il faudrait que je le retrouve.

Il me semble que Lds avait aussi déja mentionné quelque chose à propos de cela (qu'il se manifeste s'il s'en souvient).

Il faudrait savoir aussi comment évolue la précision des conditions initiales, qui est l'un des gros points sur lequel les modélisateurs essayent de faire avancer les choses, il me semble.

Par contre je suis tout à fait d'accord sur l'intéret de comprarer le run déterministe avec sa version de controle, pour voir à partir de quand les divergences commencent et les raisons de ces divergences.

Lien à poster
Partager sur d’autres sites

Je suis d'accord avec stalbuck. En effet à moyen et long terme, une prévision faite à maille "large" sera le plus souvent "moins fausse" que celle réalisée à maille "fine".

La raison tient au fameux "chaos" météorologique. Pour faire clair, si l'on souhaite limiter l'erreur de la prévision (à moyenne échéance), il ne faut pas être trop ambitieux dans la précision des phénomène.

Imaginons par exemple que l'on ne cherche qu'à savoir dans quel type de temps on se situera dans 7 jours (flux d'ouest, blocage, etc...) sans plus de détails et bien la prévision sera moins probablement moins "mauvaise" que si l'on cherche à savoir combien il y aura de dépressions et où elles se situeront.

Plus le modèle est "fin" plus le "chaos" météo aura un fort impact.

Il a été montré par exemple que la moyenne d'un ensemble devient meilleure que le run déterministe à partir de 4-5 jours de prévision.

Alors oui bien sur, cela peut paraître souvent un "lissage" important et excessif mais il faut admettre qu'au-delà d'une certaine échéance on ne peut plus avoir de détails sur l'état de l'atmosphère.

Pour ce qui est de l'utilisation de l'ensemble il ne doit être utilisé que comme un outil probabiliste: à savoir une indication de la prévisibilité et la probabilité d'occurence d'un événement donné. Il ne faut surtout pas, à mon sens, interpréter les différents runs comme on le fait avec un run déterministe.

A ma connaissance le run "haute résolution" ne figure pas dans les courbes (c'est dommage je trouve).

Lien à poster
Partager sur d’autres sites

Je comprends tout à fait ce que vous voulez dire … Et j’avoue que j’ai des grosses lacunes dans le domaine de la prévision d’ensemble et à plus long terme. default_ermm.gif

Cependant, dans ce cas, je ne vois pas pourquoi les centres météo cherchent sans cesse à améliorer la résolution spatiale (en 3D) et temporelle des modèles.

Dans mon message, j’insistais sur la nécessité d’un grand nombre de scénarios pour s’affranchir le plus possible de ce chaos et de sortir une probabilité cohérente. Bien sûr, cela n’est valable que pour des échéances pas trop lointaines.

Si on part dans la démarche de simplification, j’aurai tendance à penser qu’il faut, dans ce cas, peut-être plutôt s’orienter vers des modèles qui traitent un peu différemment l’information. Mais dans ce cas, il a des changements dans la structure du modèle : c’est pas simplement exactement le même calcul pour le scénario déterministe.

Par contre, je ne sais pas ce qui se fait exactement dans les centres météo … Je vais essayer de me renseigner sur Internet …

Lien à poster
Partager sur d’autres sites

Posté(e)
La-Chapelle-Saint-Florent - 49 (proche 44, bord Loire)

Mon avis est que cela dépend aussi de savoir quelle performance ont actuellement les modeles. Dans la logique des choses, les mailles sont de plus en plus fines, les calculateurs de plus en plus gros, les données initiales de plus en plus élaborés et les équations de la dynamique de l'atmosphère de plus en plus étudiés et correllés. Bref, ceci évolue.

Votre raisonnement est donc selon moi exacte à partir d'un certain seuil d'évolutions technologiques. Le bruit chaotique existera toujours mais sera de plus en plus étayé.

Au jour d'aujourd'hui, j+7 semble être la limite et on est d'accord pour dire que spatialement cette limite n'est pas la même partout. Par exemple dans un flux zonal comme actuellement, j'aurais tendance à dire que le domaine de fiabilité s'arétera sur la france à J+5, mais sur le nord de l'afrique, où une situation de blocage anticyclonique existe, cette fiabilité peut très bien dépassé le J+10. (les chiffres ne sont là que pour illustrer, je dis n'importe quoi bien sûr).

Ce seuil de fiabilité est donc si je vous suis élaboré par le nombre de scénario possible. Quel intéret dans ce cas de lisser. Je serais donc plutôt pour tout ça de l'avis de Météofun.

Mais je suis de l'avis que c'est à l'homme après de fixer ce seuil de fiabilité. C'est l'avis subjectif du prévisonniste avec son interprétation, de fixer la limite de son modele et non au modele lui-même de donner une donnée lissée (pré-maché j'ai failli dire ^^).

Après là moi en l'occurence, je vous fais simplement l'écho de ma pensée et qui ne vaut pas grand chose n'étant pas à votre niveau dans ce domaine. D'ailleurs je dis peut être des c*******s HS par rapport à votre débat. D'avance pardonnez-moi, j'ai un peu honte de poster là d'ailleurs en fait default_ermm.gif

Lien à poster
Partager sur d’autres sites

Pour compléter et clarifier un peu mon message d'hier:

Ce que je voulais expliquer hier c'est qu'à moyenne échéance la chaos météorologique empêche une prévi déterministe d'être bonne.

Et cela est d'autant plus vraie que l'on va chercher à prévoir des échelles fines. Si l'on en reste à la grande échelle (type de temps par exemple) on se trompera moins (mais en contre partie l'info est "limitée").

En ce qui concerne les prévis d'ensemble tous les centres font tourner ces ensembles avec une résolution plus basse.

La principale raison est à mon sens que si l'on cherche à faire tourner un ensemble à haute résolution alors le nombre de membres nécessaire pour bien prendre en compte l'incertitude de la prévi augmente nécessairement. Il faut donc un ensemble plus grand et même très très grand. Or il est impossible actuellement de faire tourner des ensembles trop grands. Le cout numérique et le temps de calcul rendent cela impossible (ne pas oublier que si on lance l'ensemble à 00h il faut que les infos soient disponibles vers 4-5h du mat pour les prévis).

La question qui se pose est donc celle d'un compromis entre ce qu'en théorie on aimerait faire et ce qu'il est raisonnable de faire en pratique.

En théorie il faudrait des ensembles de plusieurs centaines de membres à haute résolution, en pratique on utilise des ensembles de plusieurs dizaines de membres à basse résolution.

Encore une fois un ensemble ne se regarde pas run par run mais donne 2 infos essentielles: la moyenne de l'ensemble (qui donne une idée de la circulation grande échelle en filtrant les échelles plus hautes) et surtout la dispersion de l'ensemble qui renseigne sur la "plus ou moins bonne" prévisibilité (plus la dispersion est grande plus la prévisibilité est faible). Autre infos intéressantes, des probas de dépassement de seuils de vent, de T ou de précips. Mais cela doit rester probabiliste.

Je me souviens qu'en Belgique les prévisions n'étaient plus données à la télé quand la dispersion devenait trop grande, voila une chose bien sage.

Comme le dit meteofun actuellement on cherche a construire des modèles avec une résolution de plus en plus fine, mais c'est pour de la prévision courte échéance.

Pour Damien : ce n'est pas la machine qui "fixe" le seuil de prévisibilité mais elle renseigne simplement sur les limites de ce qu'elle peut faire. Dans un type de temps stable (comme la semaine dernière) les ensembles sont naturellement moins éclatés bien sur et il est d'ailleurs intéressant de voir comme les trénsitions entre type de temps entrainent une disperssion plus grande.

Bien sur le prévi décide au final mais il ne doit jamais ignorer les limites du système qu'il utilise. Aussi précis soient-ils les modèles ne seront jamais qu'une vue imparfaite de l'atmosphère et prendre en compte la limite de ce que l'on peut faire en prévi reste à mon sens indispensable. L'ensemble est finalement l'outil qui montre les limites de ce que l'on peut dire "du temps qu'il fera dans X jours".

Lien à poster
Partager sur d’autres sites

Merci beaucoup pour ces précisions lds … Excellent petit exposé qui clarifie bien l’affaire je trouve. default_wink.png/emoticons/wink@2x.png 2x" width="20" height="20">

Finalement, je pense qu’on pensait un peu la même choses dans l’ensemble, mais qu’on parlait surtout de choses différentes entre la théorie (« utopique » à l’heure actuelle) et qu'on cherche à tendre au grés de l’évolution informatique d’une part et la pratique avec ce qui ce fait réellement d’autre part.

Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...