Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

lds

Membres
  • Compteur de contenus

    621
  • Inscription

  • Dernière visite

Tout ce qui a été posté par lds

  1. lds

    Eté 2006

    Le fait que la prévi saisonnière des grands centres n'ait rien donné est peut-être justement causé par une très mauvaise pris en compte des rétroactions de l'océan sur l'atmosphère. D'ailleurs certains modèles utilisés pour le prévi saisonnière ne sont pas couplés océan-atmosphère mais uniquement atmosphère et c'est peut-être là que le bas blesse. Imaginer que le système atmosphèrique peut se comprendre (et son évolution se prévoir) isolé du système 'océan' et de ses rétroactions a depuis longtemps été abandonné. Mais sans doute tous ces chercheurs européens ou américains n'ont-ils rien compris au système terre-océan. Cela n'a absolument aucun rapport avec la formation des cyclones il s'agit ici d'autres échelles de temps et spatiales et de rétroaction (ou téleconnections) à bien plus long terme. A propos de causes et de conséquences, ce n'est pas parceque la manche ou même l'océan atlantique sont plus chauds ou plus froids que l'impact sur l'évolution de l'atmosphère se fera dans le même sens, ce serait trop simple... . En l'occurence le réchauffement actuel est une action atmosphère sur océan. Les rétroactions océan-atmosphère sont elles très mal connues mais certains liens entre l'évolution de la SST sur des régions tropicales et une tendance de l'évolution à long terme de l'atmosphère en Europe ont été mis en évidence. Dans un numéro assez récent de 'la météorologie' un article de chercheurs du CERFACS (Toulouse) expliquait ces choses de façon vraiment intéressante.
  2. lds

    Eté 2006

    Pas d'accord, la SST est justement LE forçage principal de l'atmosphère à très longue échéance. C'est bien la rétroaction de l'océan sur l'atmosphère et sa bonne prise en compte qui peut aider à mieux comprendre et prévoir l'évolution des conditions à très long terme. Ce que veut dire simplement G.Plaut, à mon sens, c'est que comme 'outil pédagogique' dans ce type de situation (canicule), la Pmer montrée au public n'est absolument pas parlante. Il est certain qu'une bonne carte T850 est beaucoup plus parlante en ce qui concerne les situations caniculaire. En ce qui concerne les cartes montrées par les grands organismes le choix des paramètres montrés ne reflête pas ce qu'utilisent les prévisionnistes mais bien des paramètres jugés plus 'parlant' pour le grand public. Chaque soir à la télé c'est bien la Pmer qui nous est montrée et le public s'y est habitué voila sans doute pourquoi c'est ce paramètre qu'on nous sert à chaque fois même s'il n'est pas toujours pertinent. En ce qui concerne le post de logos je suis entièrement d'accord avec lui pour dire que ce 'cuisant ' (pardon pour le jeu de mots) echec des prévisions saisonnières officielles comme officieuses laisse songeur. Je me demande si la prévi mensuel (un échelon de moins que la prévi saisonnière) du CEPMMT était, elle aussi calamiteuse... Pour ce qui est des prévisions basées sur des modèles il est clair qu'il faut se poser des questions sur leur incapacité à prévoir un tel écart à la normal. Manque de qualité des modèles océaniques ? Les limites de prévisibilité que logos évoque sont surtout valables aux échelles synoptiques. Normalement, plus on va chercher à prévoir des choses à grande ou très grande échelle plus cette limite doit être grande, mais jusqu'à quel point...il y a encore beaucoup à faire c'est sur... Pour ce qui est des prévisions basées sur les analogues, outre le manque de données il est clair que l'évolution du climat nuit forcément aux résultats obtenus. Si on suppose que ces dernières années le climat évolue de façon très (trop?) rapide vers un réchauffement (naturel ou non) alors il faudra en tenir compte (et c'est pas de la tarte c'est peut-être même impossible) dans ce type de méthode. Si les grands types de situations à grande échelle, leur évolution et leur récurrence changent alors les 'vieux' analogues deviendraient plus 'trompeurs' qu'autre chose. A voir...
  3. Ce post à propos des infos diffusées hier sur plusieurs médias. Comme beaucoup j'ai entendu dire que MF prévoyait un retour de la canicule pour 10 ou 20 jours et je m'interroge, d'où vient cette info? A regarder les modèles ce matin, il semble probable que la chaleur soit de retour en début de semaine prochaine mais ensuite.... Dans ce type de situation 'extrême' les prévisions des modèles ne valent plus grand choses au-delà d'une dizaine de jours pour la simple raison que le modèle retourne vers la climatologie ou en tout cas vers moins d'excès. C'est pour cette raison que même les diagrammes de GFS ou autres sont à prendre avec des pincettes car passé une dizaine de jours ils vont forcément tempérer les excès. Alors MF tire t-elle ses infos des prévis mensuelles ou saisonnières ? Si oui je m'étonne car il avait bien été précisé qu'aucun signal valable n'existait cette année? Nouveau run de prévi saisonnière non encore rendu public? Peut-être mais au vu des calamiteux résultats des prévis saisonnières en général pour cet épisode, quel crédit accordé à celle-ci? Bref si quelqu'un de MF passe par ici et a une réponse à ma question, merci beaucoup.... Pour ma part, je me demande s'il n'y a pas derrière cette annonce des médias une volonté 'politique' de nos dirigeants de se prévenir d'un éventuel 2003 bis. Une annonce du style 'attention la canicule va durer 20 jours' pour que tout le monde soit bien en alerte même si aucune prévision sérieuse ne justifie cela. Si tel est le cas et que dans 20 jours on se retoruve avec un début août normal ou frais alors le médiatique aura encore pris le pas sur l'honnéteté scientifique. Mais qui s'en soucis...
  4. Je n'était pas à Rouen ce jour là mais ce genre de phénomène au sein d'une tempête a plusieurs fois été observé ou évoqué.Il semble qu'au sein des fortes cyclogénèse, les petites bombes qui arrivent parfois sur nos côtes, des tourbillons de petite échelle se forment et provoquent les plus gros dégats. Ce phénomène a été évoqué entre autres au moment de la première tempête de 1999 (c'est ce à quoi on rattache souvent les 'mini-tornades' évoquées par les témoins) qui, chose curieuse, a des similitudes en matière de mécanismes de formation et d'évolution avec la tempête que tu évoques. Je ne sais pas si ces phénomènes ont été étudiés et/ou documentés, leur faible durée de vie complique sans doutes une éventuelle étude.
  5. lds

    réchauffement global

    Je suis entièrement d'accord avec meteor pour dire que beaucoup a déjà été dit et écrit sur ce forum à propos du personnage et de ses théories. Les messages archivés devraient répondre aux questions des uns et des autres. Juste un mot tout de même pour dire que sur la forme (pour le fond les archives de ce forum sont pleines de réponses des deux parties) je trouve assez gonflé de faire passer M Leroux pour le pauvre chercheur égaré dans un monde cruel. Il est le premier dans n'importe lequel de ses écrits à dénigrer voir carrément insulter (l'expression 'ignorance crasse' étant sa préférée pour tous ceux qui osent douter de ses théories) ses contradicteurs. Alors que la science avance grace 'aux contradicteurs' oui bien sur mais encore faudrait-il que ces contradicteurs acceptent en retour ne serait-ce que le début du commencement de la moindre critique de leurs travaux. Mais j'imagine que :' Le complot des 'méchants' savants établis' va nous être resservit...
  6. lds

    Eté 2006

    Je crois qu'on s'est pas bien compris dudule, il n'ont noyé personne puisque justement ils ont dit sur leur site qu'il n'y avait pas de signal, donc qu'on ne peut pas dire si l'été sera plus chaud, plus frais ou normal. Je l'ai également lu ou entendu dans plusieurs médias. Par contre oozap semblait en déduire que cela signifie, je cite 'une incompétence non formulée' ce qui est un peu vache et inexacte...
  7. lds

    Eté 2006

    Un mot pour clarifier un peu le fait que MF parle 'd'abscence de signal'. Contrairement à ce que semble penser beaucoup ici, et semble t-il oozap, la prévisibilité a des limites. Que ce soit en ce qui concerne la prévision à moyenne échéance ou la prévision saisonnière c'est la même chose. Dire que l'on ne peut prévoir le temps qu'il fera ce n'est pas une preuve: 'd'incompétence' pour reprendre le terme d'oozap mais une preuve d'honnéteté scientifique. Il faut arrêter de croire que la prévisibilité de l'évolution du fluide atmosphérique est toujours possible. Alors certes on peut toujours faire une prévision, qui ne représentera rien et pour laquelle on aura pas plus de confiance que dans un pile ou face, mais c'est alors de mon point de vue une escroquerie scientifique. En ce qui concerne les prévision saisonnière basée sur des modèles (comme celles de MF du Metoffice ou du CEPMMT) un des 'paramêtres' cruciaux est l'écart de la température de surface de l'océan à sa moyenne climatologique. Plus cet écart est faible, c'est-à-dire plus on se trouve 'dans les normes' moins les prévisions auront de réelle signification. Dire qu'il n'y a pas de signal ne veut pas dire non plus que l'été sera dans les normes, cela, je pense, veut juste dire: qu'on ne peut prévoir de façon significative si l'été sera au-dessus, au-dessous ou dans les normes. J'insiste encore une fois pour dire que cette impossibilité de prévoir honnétement la tendance de cet été n'a pour moi rien de choquant, pas plus que dire parfois que l'on ne peut rien dire sur l'évolution du temps à 7,8 ou 10 jours. Les méthodes basées sur d'autres techniques, comme celle des analogues utilisée par Florent, peuvent si l'on y regarde de près elles aussi ne pas donner de signal très significatif. Lorsque Florent donne 'la confiance' sous forme d'écart-type qu'il accorde à sa prévision, celui-ci est parfois très grand signe d'un relatif 'manque de prévisibilité'' même avec sa méthode. Je ne sais pas si cela se fait encore mais il y a quelques années, les prévisions météo télé en Belgique avaient le courage de ne carrément pas donner de prévisions au-delà de 1 ou 2 jours en expliquant clairement que la prévisibilité n'était pas bonne. Je n'ose imaginer le scandale que provoquerait sur se site ou ailleurs une Catherine Laborde nous expliquant le dimanche soir qu'elle ne donne les prévisions que pour 2 ou 3 jours en raison d'une faible prévisibilité.
  8. Un petit bout de réponse sur les données en libre accés sur le net. Cela fait souvent débat ici. Comme je l'indique dans un autre post le mode de fonctionnement américain est 'particulier' et peut-être paradoxalement le seul où la météo est encore un domaine vraiment public. L'odée de base est l'existence de grands organismes 100% financés par l'état (NOAA, NCEP et d'autres) dont le seul but est de maintenir et de fournir des données (collecter des obs, construire des modèles météo performants, dispatcher les sorties modèle) gratuitement à l'ensemble de la communauté météo qui regroupe essentiellement les boites privées et les universités. Voila pourquoi les données du GFS sont, par exemple, dispo et gratuites sur le net. Cela fonctionne moyennement au goût de certains scientifiques et chercheurs américains (voir mon autre post ou certains article dans BAMS). Pour ce qui est de l'Europe il n'y a, à ma conaissance pas d'équivalent. dans les faits les organismes chargés de la météo sont souvent 'en partie' fiancés par l'état et en partie par la vente de produits météo . C'est cela qui explique que leurs données sont plus rares sur le net. Le Metoffice dépend encore, je pense, du minidtère de la défense; MF de celui des transports. Si dans les 2 cas ces organismes doivent trouver des clients. Internet et ses données libres souligne cette différence qui choque souvent les internautes amateurs de météo mais comment un organisme qui doit en partie s'auto-finacer peut-il livrer gratuitement toutes ses données ? Peu à peu la part de l'état se reduit et, forcément, les données gratuites également. D'autre part Internet permet l'éclosion de petites boites privées utilisant les fameuses données gratuites. Alors pour un organisme comme MF ou le Metoffice donner directement toutes les sorties modèles serait se tirer une balle dans le pied. Enfin le marché de la météo en France est-il suffisant pour que beaucoup de boites puissent en vivre, j'ai quelques doutes...
  9. Comme d'habitude il fleurit sur Infoclimat des idées pas toujours très justes du ou des statuts des organismes météo de par le monde. Très souvent on peut lire que l'exemple américain est le meilleur tout en fustigeant ce qui se passe en France. Pour commencer la NOAA est un vrai organisme public et 100% public, c'est-à-dire dont la mission n'est pas de chercher un autofinancement. Non sa mission est au contraire de fournir et de maintenir un ensemble de produits météo utilisables par l'ensemble des université et sociétés privées. A l'opposé MF ne peut plus, à mon sens, être considéré comme un établissement public, au mieux il l'est à 50% avec une part de l'état qui se réduit de plus en plus. Alors comparer ses 2 oragnismes en fustigeant le manque de 'livraison de données' de MF me semble totalement absurde. Cela peut paraître un paradoxe mais c'est aux USA que se trouve l'organisme public et non en France. Sil'on veut regarder ailleurs il est aussi bon de signaler que le MetOffice britannique est , à mon sens, lui aussi bien plus 'public' que MF dans la mesure où il dépend encore du ministère de la défense (et non celui des transports) ce qui implique, comme pour toutes choses qui touche à l'armée, une implication plus grande de l'état. Le système américain est-il viable en France? Un oragnisme public et des organismes privés. Personellement je ne le pense pas car 'le marché' est loin d'être aussi vaste qu'au USA et la difficulté des boites prinvées en France le prouve bien. Enfin, pour ceux qui pensent qu'aux USA tout va pour le mieux en matière de météo je raporte un article récent du Bulletin de l'Association Météorologique Américaine (BAMS in english in the texte ) où l'auteur se lamente du système américain qu'il juge 'balkanisé'. Selon lui la multiplication des organimes, des labo de recherches dans les universités n'a pas conduit à une saine émulation et à une progression mais bien plutôt à un individualisme forcené. Il en résulte une multiplication des modèles (en gros chacun à le sien) dont le niveau moyen est bien en deça de ce qu'il devrait être si 'les forces ' étaient plus regroupées. Selon ce monsieur, la NOAA et le NCEP eux même ont pris un retard considérable par manque de volonté et d'idée directrice aux plus haut niveau et il souligne les actuelles bisbilles entre les boites privées, qui utilisent les produits du NCEP, et ce même organisme. Bref selon lui, le CEP a pris une avance sérieuse sur les USA parcequ'actuellement les forces sont trop disperssées. J'avoue que la lecture de cet article m'a laissé pantois devant le bilan sans concession qui est fait. Le reméde passe selon ce monsieur par une vraie collaboration entre les organismes publics, privés et université pour que la pieuvre enquilosée se mue en vaisseau amiral de la météorologie mondiale. Un premier pas est en train de se faire puisqu'une collaboration se met en place entre USA et CANADA au niveau des prévis d'ensemble.
  10. "Ils étaient loin d'être d'excellents mathématiciens sauf Newton ( et encore ) et Bernouilli ." Alors voila une nouvelle: Descartes et Frenel n'étaient pas d'excellents mathématiciens ?! Je dois dire que c'est pas mal /emoticons/biggrin@2x.png 2x" width="20" height="20"> "Regardes à MF qui fait pratiquement du tout modele ." Pas mal non plus, je te signale que tous les grands centres de prévision de monde font ce que tu appelles du 'tout modèle'. La prévision synoptique du temps, sans modèle, ne se fait plus de puis un petit bout de temps. D'ailleurs c'est quoi le "pas tout modèle" ? Je signale que l'utilisation des observations (si c'est à cela que tu fais référence) est bien évidemment toujours de mise dans ces mêmes grands centres via entre autres leur assimilation pour corriger les méchants modèles. Quand à parler d'une branche de la physique où l'expérimentation serait bannie, je n'en vois pas. Un exemple proche de la météo, la dynamique des fluides: qu'il s'agisse par exemple de la veine hydraulique de MF ou d'autres structures l'expérimentation existe bien. Théorie et expérimentation vont bien sur de paire, mais, et je conçois que cela puisse être rébarbatif, avant d'expérimenter 'une théorie' il faut tout de même un minimum comprendre ce que l'on fait et porquoi on le fait. Pour ce qui est des étudiants en physique et de la fac, je pense connaître vaguement le sujet ....et sur le fait de réussir à faire de la météo en france je suis entiérement d'accord pour dire que c'est extrémement difficile mais il est complétement illusoire, je puis te l'assurer, de croire que c'est plus facile chez nos voisins.
  11. Voila un texte, au demeurant plein d'aigreur, dont j'aimerais juste sortir une ou deux petites choses... Une des plus énormes sottise: affirmer que pour les concours MF : "Il faut être un chaud en Maths, avoir une excellente culture générale, avoir un minimum en anglais et en Physique ." je pense que ceux qui ont eu ce concours pourront confirmer que math et physique ont pratiquement le même coeff, qui plus est la culture générale a aussi un gros coeff Le passage sur "la physique qui n'est pas de la physique" est assez énorme aussi: j'aimerais bien que quelqu'un ici (cyrill ou un autre) m'explique comment on peut faire de la physique sans aucune loi, aucune théorie ....quant aux grandes écoles que tu cites je pense que les personnes qui y font de la physique sont "plutôt douées" en math... Au risque de te décevoir tous les grands physiciens étaient d'excellents mathématiciens et je pense qu'on ne peut faire de la science (physique ou autre) sans un minimum de bagages en math, du moins si l'on veut y comprendre quelque chose. C'est un outil, un langage qui peut parfois paraître rébarbatif mais dont on ne peut vraiment se passer. Quant à faire de la météo sans rien comprendre à ce que l'on fait, je pense que meteofun ou sebaas ont répondu aux "meilleurs prévis" qui fleurissent dans ce forum.
  12. Pas franchement d'accord avec toi, la question à la base de ce topic n'a rien 'd'inutile ou bête' comme ton analogie avec les nuages blancs et le ciel bleu peuvent le faire croire. Les réponses de lmk ou météofun montrent bien, au contraire, que, au moins concernant les phénomènes convectifs, cette affirmation vient simplement d'une bonne observation et que des explications peuvent y être apportées. Le titre ne fait que résumer la question qu'il faut peut-être lire avant de la dénigrer. Il n'y a pas que le tourbillon potentiel et B. Hoskins dans la vie
  13. En ce qui concerne des pluies 'convectives' (pas uniquement sous les gros Cb mais sous les bons cumulus) il arrive souvent que le cumulus soit précedé de bonne rafales de vent qui résultent souvent d'un courant de densité situé à l'avant du nuage et qui se fait sentir au sol avant le début des précipitations. Pour les Cb d'orage cela donne lieu aux fameux fronts de rafale. En ce qui concerne les pluies stratiformes, sous une bonne perturbation d'ouest il n'est pas toujours évident que l'arrivée de la pluie fasse césser le vent mais cela arrive aussi parfois. Là aussi une tentative d'explication physique peut être émise: les différence de masse d'air et donc de densité entre l'avant d'un front et la zone frontale elle même engendre les vents forts (c'est le gradient de pression). Le plus fort gradient ne coincide pas toujours avec la trace au sol du front (les pluies) qui sont plus souvent situées derrière (d'où l'impression que le vent est plus faible sous la pluie). Mais tout ceci n'a évidemment aucun caractère de généralité
  14. question peut-être stupide: je n'arrive pas à revoir la vidéo à cause d'un pb de protocole, y-a-t il un archivage qui est fait ensuite sous un format 'lisible'?
  15. Près de 15mm cette nuit encore sur le sud de la région Nord- Pas-de-calais, je n'ai pas encore fait le total du mois mais le record de 1981 doit être pulvérisé...
  16. Pour un peu cela me ferait presque rire....cela peut paraître dingue mais la météorologie est une science (si si je vous assure) avec des lois physique et mathématique (qui sait, c'est peut-être bien pour cela qu'ils recrutent des matheux à MF, au Metoffice, au NCEP, .....) . Alors ce genre de propos limite démago sur 'la connaissance du terrain' (ben voyons ya que les gens d'IC qui connaissent le terrain, les mecs des CDM ne connaissent rien de leur département) ou le trop plein de matheux....au fait quelqu'un vous a t-il dit que tous les modèles que chacun ici est bien content d'utiliser sont l'oeuvre des méchants mathématiciens de MF du NCEP ou d'ailleurs? Mais bien sur je pense que vous êtes capables de faire de la prévision juste avec une patte de lapin, un calendrier des postes (pour les dictons) ou un pendule...
  17. Non damien on est pas d'accord.....en fait cette représentation à H0 est issue à la fois des observations MAIS AUSSI d'une prévision. Comme gombervaux l'a expliqué l'utilisation des obs seules pose plusieurs problèmes. Le premier est le fait est une répartition inégale qui, comme le dit gombervaux, pourrait créer des trous. Un autre est qu'il faut créer un état initial utilisable par le modèle et donc respectant les 'grands équilibres' implémentés dans ce dernier. Même une interpolation en chaque point de grille des données observées ne peut suffire (c'est peut-être à cette solution que tu avais pensé) car, entre autres, il y a des points de grilles où les données observées sont trop lointaines et l'interpolation trop mauvaise. C'est, en gros, depuis les années 60-70 que les chercheurs ont mis au point des techniques pour combiner de la meilleure des façons données simulées par le modèle et obs. En gros l'apport des obs dans la prévision est vue comme un apport d'informations pour corriger (aux endroits où il y a des obs) la prévision. Dans la pratique le système d'assimilation des observations est cyclique (il ne s'arrête jamais). De façon très schématique imaginons qu'à un instant t (ex aujourd'hui à 00h) on possède une analyse (c'est le nom que l'on donne à l'état initial) issue du cycle précédent. On fait une petite prévision (6h le plus souvent) à partir de cette analyse ce qui donne 'une ébauche' à t+6h. Ensuite on combine à cette ébauche les informations des obs à t+6h (aujourd'hui 06h). C'est cette combinaison qui donne la nouvelle analyse à t+6h. On recommence ainsi de suite sans arrêt. Chaque analyse construite sera ce que tu appelles un état initial H0 pour la prévision. Pour les spécialistes bien sur mon exemple est schématique et représente une assimilation séquentielle. Aujourd'hui avec le 4D-Var la dimension temporelle a été ajoutée à la technique et permet de ne plus considérer 'faussement' que les obs sont faites à 00h, 06h etc...
  18. Bien sur on peut imaginer que dans un siècle ou deux les progrès de la science feront qu'on sera capable d'avoir des modèles 'de microechelle' et que , grâce à la prévi numérique, on sera capable de prévoir le temps même dans le jardin de Charles ....mais de quel sujet les forumeurs de l'an 2200 pourront-ils parler (si les forums existent encore)? .....du fait que les sceptiques des années 2000 avaient raison ...ou tort... /emoticons/wink@2x.png 2x" width="20" height="20">
  19. Pardon d'avance pour le HS J'ai envie de dire et alors ??? Jamais une technique d'assimilation variationelle ou autre (les bonnes vieilles IO ou la toute nouvelle assim. ensembliste) n'empécheront de contourner comme tu le dis l'imperfection de l'état initial. Même le fameux 4D-var ne donnera jamais un état initial parfait. Oui bien sur l'assimilation variationelle a constituée un énorme progrès en matière de qualité d'analyse, et surtout le 4D-Var (au passage c'est moins vrai pour le 3D-var qui en théorie est équivalent aux anciens schémas d'IO). mais l'imperfection de l'analyse est et restera inévitable. Et c'est pourquoi une prévision purement déterministe est inévitablement fausse plus ou moins rapidement... et qu'il faut donc estimer cette incertitude
  20. Une tentative de début de petite réponse: Tout d'abord, et comme vous êtes souvent sur le forum climato, un mot pour bien préciser que modèle de climat et modèle de prévision météo sont, à mon avis, 2 choses différentes. Bien sûr qu'ils ont des choses en commen mais, les échelles spatiales et temporelles des processus impliquées mais aussi la façon de les 'valider' nont rien à voir. Ce post traitant d'Arome parlons donc de modèles de prévision. Les limites des modèles sont nomreuses: bien sur la précision du maillage. Mais cette précision du maillage va de paire avec une bonne (ou mauvaise) représentation des phénomènes physiques de l'atmosphère. Globalement il est à ce jour inconcevable de représenter correctement numériquement les lois de l'écoulement et il est donc indispensable d'avoir recours à des approximations dans la représentation. Outre les phénomènes convectifs et la représentation des nuages en général on peut aussi citer les interactions entre échelles (puisque les plus petites ne sont pas résolues). On peut penser que l'ensemble de ces problèmes seront petits à petits améliorés, arome par exemple devrait sur ces points faire mieux que gfs ou autres. Mais on oublie trop souvent qu'un autre problème est d'avoir une bonne connaissance de l'état initial de la prévision. N'importe qu'elle modèle a besoin d'un état initial et si ce dernier n'est pas bon alors, quel que soit la qualité du modèle (arome comme les autres), la prévision sera mauvaise. Et, jamais nous n'aurons une connaissance parfaite de l'atmosphère à un instant donné. Conclusion, plutôt que de faire une prévision, il faut faire un ensemble de prévisions pour essayer de rendre compte de l'incertitude existante.
  21. Puis on découvre dans l'étude : 2.3 Natural variation in pH of the oceans Surface oceans have an average pH globally of about 8.2 units. However, pH can vary by ±0.3 units due to local, regional and seasonal factors. (p. 6) Donc, une (très hypothétique) hausse du pH de 0,5 pour 2100 est présentée comme une catastrophe sans précédent, mais les actuelles variations naturelles de +/- 0,3 ne semblent pas désastreuses. Sans entrer dans le débat juste un mot sur cet argument un peu rapide... Si on imagine un PH MOYEN (j'insiste sur le terme moyen) avec une variabilité de +/- 0.3 , en imaginant une distribution de la vraiable proche de la gaussianité avec donc un sigma de 1.5 cela équivaut à dire que 95% des valeurs de PH observées sont comprises entre 7.9 et 8.5 (ce que disent les auteurs) et même que la probabilité pour que le PH a un endroit soit supérieur à 8.5 n'est que de 2.5% Maintenant si on imagine une hausse de la MOYENNE de 0.5 et que l'on garde la même variabilité alors on aura une probabilité de PH supérieur à 8.4 dans 97.5% des cas.... Encore une fois, sans entrer dans le débat de fond je ne pense pas que l'on puisse dire que ce changement est anodin.
  22. Sans être spécialiste de la question je pense que tu n'as pas rêvé. Il y a bien 2 corps d'ingé à MF, les IPC qui sont recruté à l'école des ponts ou à Polytechnique ou même parfois à l'ENS et il y a le corps des ITM auquel tu postule. Si je ne m'abuse les IPC font de la recherche ou 'de l'administratif' (chef d'un truc en gros) mais pas de prévi, les ITM font de la prévi ou de la clim ou de l'info voire de la recherche etc...
  23. Moi aussi je dois apporter quelques précisions. Dans mon esprit c'est bien sur les conditions initiales d'échelle synoptique ARPEGE que l'on pourrait tester les méthodes existantes de PE. De la même façon que l'outil d'inversion-modification du PV travaille avec ARPEGE et donne une nouvelle condition initiale modifiée, les méthodes de PE (où au moins certaines d'entre elles) pourraient permettre de faire les modifs de PV (pour le moment on est à échelle synoptique) suivant des critères objectifs (parceque tenant compte de toute la période précédente d'assimilation des obs et donc de construction de l'erreur initiale ou de la dynamique future) et non pas subjectifs. Cela donnerait ensuite un ensemble de conditions initiales aux limites à utiliser avec Meso-NH.
  24. Très intéressant cet article en effet et puis une publication dès la première année de thèse chapeau! Cet article m'amène à plusieurs questions orientées sur "la façon de modifier la tropo". Je m'explique : dans l'article il est bien précisé que le choix de réduire ou augmenter le TP à tel ou tel endroit est plus ou moins subjectif. Certes l'image sat permet de voir si l'intrusion sèche est bien 'vue' par le modèle et éventuellement de recaler celui-ci si cela n'est pas le cas. Dans le cas que tu as étudié la localisation semblait assez bonne et le modif du PV est, et vous le dites, assez subjective. Bref on sent bien et on sait bien qu'une ou des modifs de l'anomalie de tropo peuvent améliorer (ou déteriorer parfois) la prévi mais la façon de modifier cette anomalie et surtout les critères de ces modifs sont souvent trop 'subjectifs'. Je précise que cela devient encore plus vrai lorsque l'on veut faire plusieurs prévis (une sorte de prévi d'ensemble comme tu l'évoques en conclusions) car alors l'image sat ne peut à elle seule donner les indications objectives d'un ensemble de modifs. Pourquoi alors ne pas voir si les méthodes déjà existantes utilisées pour la prévision d'ensemble à échelle synoptique permettent de donner des indications sur les zones et la façon de modifier le PV et essyer ensuite un ensemble de prevs à petite échelle en suivant ces choix objectifs. Chaque jour le centre européen, le NCEP et même MF utilisent un ensemble d'états initiaux construits suivant des méthodes spécifiques et qui sont censées représenter l'incertitude sur l'état initial de la prévi. Est-ce qu'une de ces méthodes, utilisées sur cet épisode met en lumière une 'zone snsible' (sensible dans le sens ou l'erreur sur l'état initial y est importante) dans la même région que celle où tu as modifié le PV? Enfin ce que ton travail montre aussi clairement c'est que les modèles locaux à maille fine, si perfectionnés soient-ils, n'améliorent que peu la prévi si l'état à la limite (qui vient d'un modèle à échelle synoptique moins élaboré) n'est pas bon. Bref, construire des modèles à domaine limité hyper-réaliste c'est génial mais si on est pas capable de leur donner un état à la limite qui soit bon alors on va au devant de grosses déceptions. On attendra forcément beaucoup de ces modèles complexes et la déception n'en serait que plus importante.
  25. exact le passage à l'EPIC c'est la prochaine étape, de toute façon cela ne change pas le fait que MF doit s'autofinancer (et donc vendre quelquechose) pour une bonne partie.
×
×
  • Créer...