Aller au contenu
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Le climat Européen et El Niño


Ljerome87
 Partager

Messages recommandés

@ Meteofun et JS13120

Je ne vous reproche pas votre absence d'intervention en conditions météorologiques "molles". Surtout avec mes 163 messages en 16 mois default_pinch.gif . Autant intervenir pour le "fun" par exemple default_dry.png .

Je constatais simplement que la prévision dynamique sans dynamisme c'est un peu comme une voiture sans essence!

Quand les basses couches sont plus ou moins livrées à elles mêmes on se rend bien compte des déficiences des modèles en cours. Ce qui me fait penser que la place de l'humain est plus en basse couche à proximité de ses "clients" qu'en altitude là où le modèle semble imbattable. Mais vous avez raison, la compréhension des phénomènes reste un élément capital.

@ Gombervaux et lds

Je ne suis ni un dinosaure, ni un nostalgique ni un intégriste de l'une ou l'autre méthode. En tant que "maillon intermédiaire" je me permets simplement de partager mes impressions. A savoir:

Certains dinosaures, ceux qui savaient justement faire autre chose que du "petit train", avaient sur certains points, une meilleure approche des basses couches que les modèles actuels et, de plus, savaient détecter intuitivement les symtômes au sol de la circulation dynamique.

Mais (je vais peut-être en faire ma signature):

L'expérience humaine a un gros inconvénient, il faut repartir à 0 tous les 40 ans. Tandis que les modèles progressent forcément et toujours.

On est quand même vachement hors sujet la. default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20">

Lien à poster
Partager sur d’autres sites

  • Réponses 76
  • Créé
  • Dernière réponse

Les plus actifs

Mais (je vais peut-être en faire ma signature):

L'expérience humaine a un gros inconvénient, il faut repartir à 0 tous les 40 ans. Tandis que les modèles progressent forcément et toujours.

Y a-t-il une limite selon toi à cette progression des modèles ? En réflexion théorique, c'est-à-dire sans considérer l'échelle de temps de la vie humaine. Limites extrinsèques (genre puissance de calcul des ordis) ou limites intrinsèques (genre physique de la chose).
Lien à poster
Partager sur d’autres sites

Moi pas savoir....moi être "chaînon manquant" default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20">

Je me pose justement la question de savoir si la limite actuelle n'est pas la bonne connaissance de la situation initiale plutôt que la puissance de calcul?

Si je donne, en situation d'entrée à un modèle, la photo d'Adriana ou de Melissa en 8 pixels sur 8, il pourra tourner comme une bête pendant plusieurs jours sans jamais reconstituer l'original. default_cool.png

Si arome tourne avec une résolution de 2,5 km, quelle est est la résolution d'entrée du modèle. Je parle de la résolution mesurée pas de la calculée.

Je laisse les spécialistes répondre.

Lien à poster
Partager sur d’autres sites

Moi pas savoir....moi être "chaînon manquant" default_laugh.png

Je me pose justement la question de savoir si la limite actuelle n'est pas la bonne connaissance de la situation initiale plutôt que la puissance de calcul?

Si je donne, en situation d'entrée à un modèle, la photo d'Adriana ou de Melissa en 8 pixels sur 8, il pourra tourner comme une bête pendant plusieurs jours sans jamais reconstituer l'original. default_dry.png

Si arome tourne avec une résolution de 2,5 km, quelle est est la résolution d'entrée du modèle. Je parle de la résolution mesurée pas de la calculée.

Je laisse les spécialistes répondre.

Pardon pour le HS...

Moi aussi j'ai connu des "dinosaures" capables de faire une prévi en quelques minutes et en regardant simplement deux ou trois cartes (style Z500 ou T850). L'expérience acquise, les "trucs" sont souvent utilisés par les prévis. Cependant il faut garder à l'eprit que même ceux là utilisaient des sorties de modèles (une analyse est construite par le modèle et pour remonter à "l'avant modèle" il faut au moins revenir aux années 60).

Je me souviens aussi des critques envers les modèles...il est normal de voir souvent d'un mauvais oeil un nouvel outil qui "remet plus ou moins en cause" notre façon de travailler. Au final je pense qu'il ne faut pas oublier qu'un modèle est construit par des météos pour des météos et qu'il est un outil, une aide, et ne remplace jamais le travail et le diagnostic du prévis. Le mythe de la machine qui remplace le bon vieux flair de l'homme a encore trop souvent la vie dure.

Un exemple d'aujourd'hui sur la difficulté à "changer ses habitudes" est celui de l'utilisation de la prévision d'ensemble. Combien de prévis d'aujourd'hui l'utilise vraiment, combien acceptent de ne plus faire de déterminisme pur et dur? Bien souvent on entend dire qu'on ne peut pas faire une prévi basée sur des probabilités ou des scénarios...et pourtant la prévi d'ensemble est probablement et objectivement la seule façon "honnête" de faire de la prévision.

Pouquoi? Parceque justement elle prend en compte (elle essaye au moins) l'incertitude de toute prévision météo. Le 100% ne peut exister en matière de prévision météo...

Pour ce qui est de l'avenir de la prévision numérique il semble que des modèles de plus en plus fins soient prévus. La puissance numérique ne sera pas je pense une limite (a titre d'exemple l'ordi météo le plus puissant au monde (japonais) pourrait permettre de faire tourner un modèle comme arome mais sur le globe (alors qu'arome sera à aire limité)). Cette puissance augmentera encore et on ira vers des mailles de plus en plus fines. Côté paramètrages physiques, là encore des progrès sont et seront faits et plus la maille sera fine moins ces paramètrages seront grossiers (certains deviendront même inutiles). On aura probablement des modèles océan-atmosphère-sol de grande qualité.

Il reste un problème de taille, avoir de bonnes conditions initiales (C'est l'assimilation des obs qui permet de déterminer cet état initial ). Car quand bien même on aurait des millions de millions d'obs et des modèles à maille ultra fine on aura toujours de l'incertitude.

Une raison (entre autres) que j'avancerais (et qui n'engage que moi) c'est l'inévitable erreur qui entache toute mesure d'un paramètre physique quelconque. Une mesure n'est jamais parfaite. Si infime soit cette erreur elle rend l'état initial lui aussi imparfait et donc la prévision qui suit.

Même un "super-arome" ne peut rien faire contre cela. Il faut accepter ces incertitudes et en tenir compte.

J'ajoute pour Charles que cela a beaucoup moins d'impact pour un modèle de climat qui, lui, aux échelles de temps qui importe, a oublié les conditions initiales. Il dépend bien plus de la qualité de la physique et de la dynamique du modèle (et pourquoi pas bientôt tenir compte de l'impact du développement de l'homme (au sens changements de l'écosystème, croissance des villes etc...)). Mais un modèle climat-société n'est probablement pas pour demain...

Lien à poster
Partager sur d’autres sites

Je me souviens aussi des critiques envers les modèles...il est normal de voir souvent d'un mauvais oeil un nouvel outil qui "remet plus ou moins en cause" notre façon de travailler. Au final je pense qu'il ne faut pas oublier qu'un modèle est construit par des météos pour des météos et qu'il est un outil, une aide, et ne remplace jamais le travail et le diagnostic du prévis. Le mythe de la machine qui remplace le bon vieux flair de l'homme a encore trop souvent la vie dure.

Tout à fait.Mais je crois que je me suis mal exprimé sur le "cassage". Casser le modèle ce n'est pas, pour moi, s'en affranchir mais le corriger (c'est moins ambitieux default_kiss.gif ). C'est à dire apporter des modifications majeures sur ses résultats en matière de temps sensible jusqu'à 5 ou 6 jours par exemple. Et c'est encore possible.

Pour ce qui est de l'avenir de la prévision numérique il semble que des modèles de plus en plus fins soient prévus. La puissance numérique ne sera pas je pense une limite (a titre d'exemple l'ordi météo le plus puissant au monde (japonais) pourrait permettre de faire tourner un modèle comme arome mais sur le globe (alors qu'arome sera à aire limité)). Cette puissance augmentera encore et on ira vers des mailles de plus en plus fines. Côté paramètrages physiques, là encore des progrès sont et seront faits et plus la maille sera fine moins ces paramètrages seront grossiers (certains deviendront même inutiles). On aura probablement des modèles océan-atmosphère-sol de grande qualité.

Il reste un problème de taille, avoir de bonnes conditions initiales (C'est l'assimilation des obs qui permet de déterminer cet état initial ). Car quand bien même on aurait des millions de millions d'obs et des modèles à maille ultra fine on aura toujours de l'incertitude.

Une raison (entre autres) que j'avancerais (et qui n'engage que moi) c'est l'inévitable erreur qui entache toute mesure d'un paramètre physique quelconque. Une mesure n'est jamais parfaite. Si infime soit cette erreur elle rend l'état initial lui aussi imparfait et donc la prévision qui suit.

Même un "super-arome" ne peut rien faire contre cela. Il faut accepter ces incertitudes et en tenir compte.

Merci pour ces infos default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20">

Et donc, si j'ai bien compris, la situation initiale va rester pour longtemps le point faible de la prévision numérique?

Lien à poster
Partager sur d’autres sites

Et donc, si j'ai bien compris, la situation initiale va rester pour longtemps le point faible de la prévision numérique?

Je ne pense pas que ce soit le point faible. Pour moi il est dans la troncature, donc directement déduit du manque de puissance de calcul. Le bruit engendré au delà de 72h est tel, qu'effectivement, les spécialistes abandonnent la prévision déterministe au delà de cette échéance.Pour en revenir à ta question sur la résolution à l'initialisation, la méthode 4DVAR (Arpège et CEP) permet de s'affranchir du même nombre de points que les échéances prévues.

C'est pas réellement du calcul puisque c'est une mesure réelle déplacée, par calcul, en amont, à l'endroit où la parcelle d'air était à l'heure de l'init.

C'est ce qui a toujours été fait pour les RS, le ballon explosant à plusieurs dizaines de km du point de lancement.

C'est pourquoi je pense qu'en intégrant les données minutes on devrait être nettement en dessous de la résolution des échéances.

Quand à ta réfléxion sur les dinos et les basses couches, j'en ai croisé un l'an passé dans le sud de la France, grand maître de la théorie norvégienne, auteur de plusieurs ouvrages, à qui je demandais ce qu'il pensait des nouveaux concepts; il m'a dit que dès les années 70 il avait conçu ses propres règles concernant les jets d'altitude, après avoir remarqué que les A étaient toujours à droite et les D, toujours à gauche; et qu'il pensait bien à un petit train entre la tropo et les BC.

Lien à poster
Partager sur d’autres sites

Tout à fait.

Mais je crois que je me suis mal exprimé sur le "cassage". Casser le modèle ce n'est pas, pour moi, s'en affranchir mais le corriger (c'est moins ambitieux default_sad.png/emoticons/sad@2x.png 2x" width="20" height="20"> ). C'est à dire apporter des modifications majeures sur ses résultats en matière de temps sensible jusqu'à 5 ou 6 jours par exemple. Et c'est encore possible.

Merci pour ces infos default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20">

Et donc, si j'ai bien compris, la situation initiale va rester pour longtemps le point faible de la prévision numérique?

Disons un des soucis principaux surtout si on envisage "le déterminisme absolu". Si l'on accepte l'idée qu'une prévi numérique doit comprendre comme info l'incertitude qu'elle comporte alors ce n'est pas un point faible, c'est une contrainte naturelle de la prévision de l'état de l'atmosphère.

Contrairement à Gombervaux je pense que cela ne dépend pas de la maille. Même avec une maille très très réduite il y aura toujours une imprécision sur l'état initial . Les obs assimilées ne seront jamais parfaitement exactes (je m'avance un peu mais la meca quantique semble assez claire là-dessus), à partir de là aucun système d'assimilation (4D-var compris) ne peut fournir une analyse reflet parfait de la réalité.

Bien sur cette 'non-perfection' tendra à se réduire mais il restera, à mon avis, un niveau d'erreur inévitable. Il suffit de le savoir et d'en tenir compte.

Lien à poster
Partager sur d’autres sites

J'ajoute pour Charles que cela a beaucoup moins d'impact pour un modèle de climat qui, lui, aux échelles de temps qui importe, a oublié les conditions initiales. Il dépend bien plus de la qualité de la physique et de la dynamique du modèle ...

Bonjour,Désolé lds de ne pas être d'accord. Il n'y a qu'à voir par exemple la discussion sur Climate Science ici (Further Comments Demonstrating that Climate Prediction Is An Initial Value Problem).

D'un point de vue de la simple logique, décréter qu'un modèle climatique, contrairement aux modèles météos serait moins chaotique ou moins dépendant des conditions initiales est une "démonstration" a contrario qui ne me convient pas du tout. Si ça l'était comme on entend affirmer souvent mais plus de précision, ce serait parce qu'on a des preuves, des observations qui le démontrent, pas uniquement parce qu'on oppose climat à météo.

Et les observations montrent qu'il n'y a rien de prévisible. Il suffit qu'il y ait un el-nino puissant ou une forte éruption volcanique, tous des événements totalement imprévisibles pour le moment pour que les conditions initiales deviennent fausses.

Lien à poster
Partager sur d’autres sites

Merci à vous deux.

Au risque d'abuser default_online2long.gif

On peut donc espérer une bonne résolution au sol à l'initialisation avec plusieurs centaines de stations en France pouvant apporter 1440 valeurs-minutes/jour/paramètre/station.

Par contre, en altitude (au-dessus de 100 m du sol par exemple) on ne peut compter que sur 12 ou 14 valeurs/jour/paramètre/niveau d'altitude sur l'ensemble du Pays avec les 6 ou 7 radiosondages.

Les satellites permettent-ils d'augmenter cette résolution de mesure en altitude? Si oui, d'une manière permanente ou seulement dans certaines conditions (ciel clair par exemple)?

Lien à poster
Partager sur d’autres sites

Bonjour,

Désolé lds de ne pas être d'accord. Il n'y a qu'à voir par exemple la discussion sur Climate Science ici (Further Comments Demonstrating that Climate Prediction Is An Initial Value Problem).

D'un point de vue de la simple logique, décréter qu'un modèle climatique, contrairement aux modèles météos serait moins chaotique ou moins dépendant des conditions initiales est une "démonstration" a contrario qui ne me convient pas du tout. Si ça l'était comme on entend affirmer souvent mais plus de précision, ce serait parce qu'on a des preuves, des observations qui le démontrent, pas uniquement parce qu'on oppose climat à météo.

Et les observations montrent qu'il n'y a rien de prévisible. Il suffit qu'il y ait un el-nino puissant ou une forte éruption volcanique, tous des événements totalement imprévisibles pour le moment pour que les conditions initiales deviennent fausses.

Sur le pb conditions initiales / conditions limites, voir aussi les travaux de Collins 2002 ou Collins et Allen 2002 sur cette page :

http://www.climateprediction.net/science/s...ific_papers.php

En revanche, je n'avais pas trouvé Giorgi 2005 dont parle Pielke. C'est dommage, j'aurais bien voulu voir en figure 2 ce que donnent vraiment les simulations d'un même AOGCM pour un même forçage quand on a simplement changé les conditions initiales.

Lien à poster
Partager sur d’autres sites

Merci à vous deux.

Au risque d'abuser default_clover.gif

On peut donc espérer une bonne résolution au sol à l'initialisation avec plusieurs centaines de stations en France pouvant apporter 1440 valeurs-minutes/jour/paramètre/station.

Par contre, en altitude (au-dessus de 100 m du sol par exemple) on ne peut compter que sur 12 ou 14 valeurs/jour/paramètre/niveau d'altitude sur l'ensemble du Pays avec les 6 ou 7 radiosondages.

Les satellites permettent-ils d'augmenter cette résolution de mesure en altitude? Si oui, d'une manière permanente ou seulement dans certaines conditions (ciel clair par exemple)?

lds ou Gombervaux, que je remercie pour leurs interventions, corrigeront surement si besoin, mais la quantité d'information va dépendre de la maille, ce qui est beaucoup moins le cas de la qualité. Exemple fréquent en montagne. On a des relevés qui donne des données dans des vallées qui ne sont pas modélisées par le modèle : tragique. De même, une région est soumis à un effet de foehn à cause d'un relief a peine esquissé par le modèle : problème. C'est bien d'avoir le maximum d'information, encore faut-il quelle soit correctement exploitable.C'est vrai qu'il y a beaucoup d'espoir dans les satelittes. D'ailleurs, il me semble que les nouveaux sat embarquent des instruments pour obtenir toutes sortes de profil et de coupes dont on est encore très très loins de tirer toutes informations à rentrer dans les modéles. Par contre à court et moyen terme, on espère pouvoir les utiliser de mieux en mieux. Aprés, en fonctions du type d'instrument, pas forcément besoin d'un ciel claire il me semble.
Lien à poster
Partager sur d’autres sites

Par contre, en altitude (au-dessus de 100 m du sol par exemple) on ne peut compter que sur 12 ou 14 valeurs/jour/paramètre/niveau d'altitude sur l'ensemble du Pays avec les 6 ou 7 radiosondages.

Non, un contrat liant certaines compagnies aériennes avec MF, fournit des données lors de centaines de décollages quotidiens jusquà 4000m environ.
Lien à poster
Partager sur d’autres sites

Bonjour,

Désolé lds de ne pas être d'accord. Il n'y a qu'à voir par exemple la discussion sur Climate Science ici (Further Comments Demonstrating that Climate Prediction Is An Initial Value Problem).

D'un point de vue de la simple logique, décréter qu'un modèle climatique, contrairement aux modèles météos serait moins chaotique ou moins dépendant des conditions initiales est une "démonstration" a contrario qui ne me convient pas du tout. Si ça l'était comme on entend affirmer souvent mais plus de précision, ce serait parce qu'on a des preuves, des observations qui le démontrent, pas uniquement parce qu'on oppose climat à météo.

Et les observations montrent qu'il n'y a rien de prévisible. Il suffit qu'il y ait un el-nino puissant ou une forte éruption volcanique, tous des événements totalement imprévisibles pour le moment pour que les conditions initiales deviennent fausses.

Pour faire pas trop long ne pas entrer dans une inutile polémique quelques précisions:

Dans l'exemple que tu donnes l'auteur parles surtout de la partie océan-bio. L'énorme différence avec un modèle atmo est lié aux échelles de temps de réponses qui, on le sait sont beaucoup plus grandes pour un modèle océano.

Bref, en ce qui concerne l'atmosphère (dont on ne parle pas dans l'extrait que tu cites) je pense vraiment (et ne décrete rien rassure toi...) les problèmes entre une prévi météo (au sens synoptique) et climato sont différents.

Encore une fois si tu fais une prévisions à très longue échéance avec un modèle (je parle ici des pbs avec la partie atmosphère) le fait d'avoir un état initial parfait (du point du vue synoptique, attention au joyeux mélange des échelles) est beaucoup moins crucial que si tu fais une prévi à 5 jours.

En fait le modèle va rapidement oublié les conditions initiales pour tendre vers SA climatologie (son attracteur en fait). L'essentiel du pb réside donc en faire tendre le SA vers un "LA VRAIE"....et j'imagine que ce n'est pas simple....

En disant cela je n'oppose en rien météo et climato ni ne suggère que faire une prévi climato "c'est plus facile". Absolument pas, d'ailleurs l'article cité dans ta référence met en avant les pbs liés aux couplages océan-atmo-bio et le fait que si ce que je viens de dire s'applique à l'atmosphère, ça se complique beaucoup lorsque l'on a un modèle océan-atmo du fait des différences de temps de réponses. C'est d'ailleurs en grande partie sur cela que semble s'appuyer l'auteur: si pour la partie atmo les conditions inits sont "vites oubliés", le temps de réponse plus lent de la partie océano fait que cela n'est pas forcément valide pour les conditions inits de cette partie océano (il faudrait lire l'article complet et d'autres pour voir si l'on peut penser que cela se fait "plus tard" ou jamais (mais j'en doute)). Ensuite il faut voir les implications (très complexes surement) que cela a sur le système global.

Lien à poster
Partager sur d’autres sites

En fait le modèle va rapidement oublié les conditions initiales pour tendre vers SA climatologie (son attracteur en fait).

Bonjour,Mais absolument pas. Les modèles climatiques prévoient des hausses de température beaucoup plus fortes qu'avec un simple forçage par les GES en comptant sur la rétroaction positive de la vapeur. On aurait dû avoir une sensibilité d'au plus 1/3 °C/W/m2, au lieu de ça, les valeurs avancées sont 3x plus grande (dans les années 90, c'était carrément 1 °C/W/m2).

Et ça, c'est pour l'atmosphère. Il faudrait m'expliquer comment, avec une rétroaction, les modèles peuvent "oublier" les conditions initiales ? default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20">

Lien à poster
Partager sur d’autres sites

Pour faire pas trop long ne pas entrer dans une inutile polémique quelques précisions:

D'ailleurs, ça serai vraiment cocasse si lorsqu'on fait une simulation, on obtient +6°C de réchauffement en 100 ans et que 5 jours plus tard, sont prétexte qu'il y a une une goutte froide sur le Açores, on obtient +2°C de réchauffement ...Bonjours la crédibilité des modèles climato dans ces conditions ... déjà qu'il y a beaucoup de critiques !

C'est effectivement pas du tout la même problématique et le même traitement de l'information initiale . default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20">

Lien à poster
Partager sur d’autres sites

D'ailleurs, ça serai vraiment cocasse si lorsqu'on fait une simulation, on obtient +6°C de réchauffement en 100 ans et que 5 jours plus tard, sont prétexte qu'il y a une une goutte froide sur le Açores, on obtient +2°C de réchauffement ...

Bonjours la crédibilité des modèles climato dans ces conditions ... déjà qu'il y a beaucoup de critiques !

C'est effectivement pas du tout la même problématique et le même traitement de l'information initiale . default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20">

On ne cesse d'essayer d'expliquer que la météo est un pb de conditions initiales et le climat un pb de conditions aux limites. lds a bien expliqué ce qu'il en était. Je pense interpréter correctement ton post si je dis que tu es d'accord avec cela.
Lien à poster
Partager sur d’autres sites

Bonjours la crédibilité des modèles climato dans ces conditions ... déjà qu'il y a beaucoup de critiques !

Les critiques, c'est normal, c'est un domaine de recherche. Ce qui n'est pas normal, c'est d'entendre dire, même de la part de climatologues que les modèles climatologiques sont fiables ou que les résultats sont utilisables (cf par ex. Ian Rutherford) car c'est trompeur voire mensonger.Ceux qui veulent convaincre que les modèles ne dépendent pas des conditions initiales, qu'ils le montrent avec des références concrètes. Mais pas uniquement avec des affirmations sans preuves ou juste en comparant à la prévision météo pour faire une démo a contrario.

A titre d'exemple, il suffit de voir la différence dans les résultats de la prévision saisonnière d'el Nino entre les différents modèles pour comprendre que la convergence, c'est pas automatique.

SST_table.gif

Lien à poster
Partager sur d’autres sites

Les critiques, c'est normal, c'est un domaine de recherche. Ce qui n'est pas normal, c'est d'entendre dire, même de la part de climatologues que les modèles climatologiques sont fiables ou que les résultats sont utilisables (cf par ex. Ian Rutherford) car c'est trompeur voire mensonger.

Ceux qui veulent convaincre que les modèles ne dépendent pas des conditions initiales, qu'ils le montrent avec des références concrètes. Mais pas uniquement avec des affirmations sans preuves ou juste en comparant à la prévision météo pour faire une démo a contrario.

A titre d'exemple, il suffit de voir la différence dans les résultats de la prévision saisonnière d'el Nino entre les différents modèles pour comprendre que la convergence, c'est pas automatique.

SST_table.gif

ces modèles différent tous de part leur représentation des phénomènes physiques et dynamiques et que c'est cela qui fait que ces prévisions divergent (incertitude ou erreur "modèle")
Lien à poster
Partager sur d’autres sites

Les critiques, c'est normal, c'est un domaine de recherche. Ce qui n'est pas normal, c'est d'entendre dire, même de la part de climatologues que les modèles climatologiques sont fiables ou que les résultats sont utilisables (cf par ex. Ian Rutherford) car c'est trompeur voire mensonger.

Ceux qui veulent convaincre que les modèles ne dépendent pas des conditions initiales, qu'ils le montrent avec des références concrètes. Mais pas uniquement avec des affirmations sans preuves ou juste en comparant à la prévision météo pour faire une démo a contrario.

A titre d'exemple, il suffit de voir la différence dans les résultats de la prévision saisonnière d'el Nino entre les différents modèles pour comprendre que la convergence, c'est pas automatique.

SST_table.gif

Encore une fois, El Nino fait partie de la variabilité interannuelle du système. La réponse d'un système à une contrainte est une affaire différente: il est clair que c'est le système entier (donc couplages inclus ) qui y répond. Cela intègre donc la variabilité interannuelle et la difficulité de prévision d'El Nino n'est toiut simplement pas pertinente.
Lien à poster
Partager sur d’autres sites

Cela intègre donc la variabilité interannuelle et la difficulité de prévision d'El Nino n'est tout simplement pas pertinente.

Les cycles d'el Nino sont des cycles pluriannuelles et les alternances el-nino fort - la nina forte sont pluridécennales (de l'ordre de 30 ans). Si le climat intègre soi-disant la variabilité sur ces échelles de temps, alors tout ce qui a été dit sur le "climat de la décennie", "la décennie la plus chaude" ... ne rime à rien. Il faudrait attendre 20, 30 ans pour se prononcer.Au passage, tu disais que les modèles climato sont un problème de conditions aux limites et non de conditions initiales. Tu peux peut-être alors nous expliquer comment dans un modèle avec rétroaction (avec la vapeur d'eau par exemple), on peut s'affranchir des conditions initiales ?
Lien à poster
Partager sur d’autres sites

Encore une fois, El Nino fait partie de la variabilité interannuelle du système. La réponse d'un système à une contrainte est une affaire différente: il est clair que c'est le système entier (donc couplages inclus ) qui y répond. Cela intègre donc la variabilité interannuelle et la difficulité de prévision d'El Nino n'est toiut simplement pas pertinente.

Exactement.Il y a conditions initiales et conditions initiales, comme il y a modèle et modèle.

De manière générale, la modélisation climatique se fait essentiellement en prenant pour base de départ les conditions structurelles initiales, éventuellement établies en prenant en compte la moyenne sur plusieurs années. Contrairement à la modélisation météo, ses prévisions (dépendant aussi des hypothèses concernant l'évolution des variables) ne dépendent donc en aucune manière de conditions initiales découlant de la variabilité annuelle ou interannuelle. Celle-ci doit par contre être prise en compte dans la marge d'incertitude des conclusions de tout modèle climatique, en particulier pour son application à des prévisions concernant une année donnée.

Alain

Lien à poster
Partager sur d’autres sites

Contrairement à la modélisation météo, ses prévisions (dépendant aussi des hypothèses concernant l'évolution des variables) ne dépendent donc en aucune manière de conditions initiales découlant de la variabilité annuelle ou interannuelle.

Ce n'est pourtant pas ce que la Met Office en utilisant les conditions initiales de 2007 (notamment un El-Nino modéré) pour prévoir une année 2007 exceptionnellement chaude.Si l'échelle de temps des prévisions climatologiques "intègrent" la variabilité d'El nino, on ne verrait certainement PAS les fluctuations annuelles dans le courbes qu'on nous présente (par exemple celle de Hansen). Or ce n'est pas le cas.

global_temperature.gif

Lien à poster
Partager sur d’autres sites

Ce n'est pourtant pas ce que la Met Office en utilisant les conditions initiales de 2007 (notamment un El-Nino modéré) pour prévoir une année 2007 exceptionnellement chaude.

Si l'échelle de temps des prévisions climatologiques "intègrent" la variabilité d'El nino, on ne verrait certainement PAS les fluctuations annuelles dans le courbes qu'on nous présente (par exemple celle de Hansen). Or ce n'est pas le cas.

global_temperature.gif

Alain t'a répondu correctement

Il a pra l'occasion répondu à ta question sur la rétroaction vapeur d'eau;

Lien à poster
Partager sur d’autres sites

Exactement.

Il y a conditions initiales et conditions initiales, comme il y a modèle et modèle.

De manière générale, la modélisation climatique se fait essentiellement en prenant pour base de départ les conditions structurelles initiales, éventuellement établies en prenant en compte la moyenne sur plusieurs années.

Oui les conditions initiales permettent de déterminer l'évolution climatique dans les années, décennies et siècles qui suivent le début du run.

Mais, il est assez évident que plus on avance dans le temps et plus le modèle, comme le dit lds, oublie ces conditions initiales et ne travaille qu'avec les lois physiques en tenant compte ou non d'évènements simulés.

Lien à poster
Partager sur d’autres sites

Mais, il est assez évident que plus on avance dans le temps et plus le modèle, comme le dit lds, oublie ces conditions initiales et ne travaille qu'avec les lois physiques en tenant compte ou non d'évènements simulés.

Bien sûr que c'est évident. Mais ça ne montre en aucun cas que les modèles ne dépendent pas des conditions initiales. Les modèles fonctionnent par itération, tu ne trouveras aucun modèle qui déroge à cette règle. Qu'on soit au début ou au milieu de run, les calculs à l'instant t dépondront toujours des résultats à l'instant t-1 et donc récursivement des résultats en t=0 (ie conditions initiales).Pour avoir fait de la modélisation pendant des années, je sais parfaitement qu'aucun modèle avec une foule d'équa diff ne converge. En plus, si on y met des rétroactions, plus le couplage de modules développés par des équipes indépendantes, ça devient hautement instable. La seule fois où une simulation a été faite devant le public sans que les modélisateurs puissent retoucher en douce le paramétrage, c'était la simulation climatique lancée en grande fanfare par la BBC avec son projet de calcul collaboratif impliquant plus de 200.000 PC personnels. Et la simulation s'est plantée quand les itérations atteignirent 2012: température trop chaude disent ils ! Plusieurs mois de calculs à la poubelle.
Lien à poster
Partager sur d’autres sites

Invité
Ce sujet ne peut plus recevoir de nouvelles réponses.
 Partager

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...