Jump to content
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

boubou07

prévisions météo à plus de 48h

Recommended Posts

Posted

Location : Aubenas en Ardèche méridionale

je ne sais si c'est le bon endroit pour ça mais je ne savais pas trop où le mettre...

 

Je viens de terminer un livre de James Gleick "La théorie du chaos", très interéssant (même si parfois un peu compliqué)

au début, y sont décris les travaux d'Edward Lorenz, un des père fondateur de la théorie du chaos dans les années 60, qui avait réalisé 

une thèse très étayée et très poussé selon laquelle il serait toujours totalement impossible d'obtenir une prévision météo fiable à plus de 48h d'échéance et ce,  quelque soit le niveau technologique (puissance des ordinateurs, qualité des modèle, nombre des satellites météo, etc...)

il expliquai que même avec une station météo par km2, une foule de satellites high-tech et tout ceci relié en temps réel à un supercalculateur capable d'analyser des millions de données chaque seconde, la prévisions à + de 48h ne serait pas fiable car le moindre changement atmosphérique dans un endroit situé entre 2 stations  suffisait à modifier le système tout entier. 

 

il affirmait donc (ce fut là sa contribution à la naissance de la théorie du chaos) que dans l'immense complexité de la machine climatique terrestre, une cause infime peut très rapidement engendrer des conséquences énormes, modifiant le système dans son ensemble.  

de plus selon lui, aucune situation météo ne se répétait jamais 2 fois (exactement le même temps dans chaque point de l'espace) et à partir de là, logiquement, le temps était par définition imprévisible puisqu'il était impossible de construire des modèles réellement fiables dans ces conditions.

il concluait donc que la prévisions à + de 48h resterai à tout jamais une chimère, dans la mesure où les données évoluant perpétuellement, la prévisions serait condamné à évoluer elle-même sans arrêt et de ce fait, les prévisions faites 48h avant échéance serait systématiquement erronée.

évidemment il s'était brouillé avec des météorologues qui à l'époque, voyait dans l'arrivée des ordinateurs et des satellites, la promesse de prédictions à long terme fiables. certains pensaient même que l'on entrait dans une nouvelle ère où l'on pourrait tout prévoir, tout maitriser. 

 

en tous cas quand je vois comment aujourd'hui la météo change tout le temps je dis chapeau Mr Lorenz !

j'utilise la météo pour faire mon planning de travail et force est de constater que très souvent en effet à + de 48h s'est plus ou moins faux (sauf dans le cas de longue stabilité avec un temps qui ne bouge pas pendant une semaine ou plus). 

je trouve donc que la théorie d'E. Lorenz est juste car effectivement, au fur et à mesure que l'on avance dans le temps, la météo prévue à J+2 change.

parfait exemple pour cette semaine où le froid était annoncé mardi, puis en avançant dans le temps il a été annoncé mercredi et maintenant on nous l'annonce pour jeudi...

d'où l'intéret de se concentrer sur la météo à 24h et d'avoir l'humilité de reconnaitre qu'au delà de 48h on est dans le flou, la tendance pour ne pas dire l'inconnu.

si l'on garde la mémoire de ce qui était prévu 3 jours avant, on voit bien que la plupart du temps, on est dans une grande imprécision.

 

Share this post


Link to post
Share on other sites
Posted

Location : Saint-Nabor (67) - 312 m au pied du mont Ste-Odile

J'aurais plutôt vu ce topic dans "Questions - réponses sur la météo"

Share this post


Link to post
Share on other sites
Posted (edited)

Location : Sur les hauteurs de Céüse (Hautes Alpes) à 1300m d'altitude

Il doit y avoir des statistiques de fiabilité des modèles mais la situation jusqu'à J+5 est quand même bien prévue pas les modèles aujourd'hui.

C'est aussi la raison pour laquelle on ne se content pas des modèles déterministes.

Edited by Obiou

Share this post


Link to post
Share on other sites
Posted

Location : Aubagne (Les Passons, à l'est) (13400)

C'est surtout à mon avis une question  de demande.

Je vais profiter de ton post pour détailler certains points. :) Je vais largement déborder tout en gardant en fil rouge ton questionnement. J'espère que tu ne m'en voudras pas.

 

Notamment, quelles précisions demandent l'usager ?

- Précisions sur les données : froid, frais, doux, chaud ? Nuageux, couvert, ensoleillé ? Pluies, orages ?

- Précisions spatiales : en PACA, dans les Bouches du Rhône, à Marseille ?

- Précisions temporelles : ces prochains jours, aujourd'hui ?

- Toutes : quelle sera la température minimale à 0.1°C près et quand à 10 mn près puis quelle quantité de pluies tombera entre 9h et 14h, au mm près, sur ma parcelle cadastrée n° X ?  C'est important pour mon activité.

Les prévisions sont fausses par rapport à ma demande. Elle seraient vraies pour une autre demande.

 

Mais pas seulement.

 

Les biais d'interprétations.

Il y a toujours une dose de subjectivité de la part de la personne qui réalise la prévision et de la part de la personne qui reçoit la prévision.

Sur le topic Media et exagérations, il y eut récemment une brève discussion sur l’interprétation de « un temps hivernal ».

Les modèles numériques de prévisions n'emploient pas de mots, ce sont les humains. C'est évident ce que j'écris mais la tendance est très très grande de faire parler les modèles : on le constate très souvent sur les forums d'IC (et ailleurs) :

GFS est froid, avec ce flux de NE, on aurait  de bonnes gelées le matin et il ne ferait pas chaud l'après-midi.

Naturellement, GFS n'est ni froid, ni chaud. C'est l'humain qui le dit ; encore pourrait-il donner sur quelle référence il se base : son ressenti ? son appréciation ? les normales et dans ce cas, lesquelles et par rapport aux Tn, aux Tx, aux Tm ?...

Le flux de NE ... sur toute la troposphère ? Qu'en basses couches ? De direction NE en arrivant sur la France alors qu'il a parcouru la mer du Nord avant ?...

Bonnes gelées ? gelée normalement c'est que la température est <= 0°C mais pour certains forumers, 1 ou 2°C est suffisamment pour mériter cette appellation. Quant à « bonnes », qu'est ce que ça veut dire ?

Il ne fera pas chaud l'après-midi ? L'imprécision est grande, je ne détaille pas  ;)

La personne qui prévoit : 1- analyse à sa façon; 2- interprète à sa façon; 3- retranscrit avec ses mots son interprétation. L'usager perçoit le message à sa façon et l'interprète avec ses mots et son mode de pensée.

J'insiste sur cette longue chaîne de relativités car c'est une interrogation / remarque courante et que souvent, cette cascade est oubliée et la conclusion est : les modèles ne sont pas fiables.

Donc : qu'est ce que chacun demande aux modèles et comment chacun interprète la réponse donnée.

 

Une fiabilité est toujours relative à une référence.

Une voiture est testée sur un impact frontal selon une grille précise et référencée. Elle protège les passagers jusqu'à la vitesse V (en ne considérant aucun autre facteur). Elle est fiable tant que la vitesse est inférieure à V. Au-delà, elle n'est plus fiable. On ne peut pas dire qu'elle est fiable ou non fiable sans ajouter un contexte.

 

Pour les modèles, le contexte est multiple :

- contexte intrinsèque : en gros leur conception, leur calibration, leur configuration : des choix et des priorités sont toujours effectués

- contexte d'initialisation : la qualité des données qu'ils incorporent au départ : les qualités sont variables dans le temps et dans l'espace sans évoquer les données manquantes

- contexte d'implémentation : le code informatique écrit par les développeurs : parfois le code est une approximation car on ne sait pas (encore) coder tel ou tel schéma ; de plus, le code lui-même est une interprétation humain vers machine (je passe sous silence les chaînes de compilations avec toutes les approximations qu'elles contiennent).

- contexte de biais : tous les modèles en ont intrinsèquement : trop froid dans certaines conditions, creusement excessif dans telles autres conditions, etc.

- contexte de sortie : des sorties natives (celles que les modèles calculent directement) et les sorties post-traitées : par exemple les T2m ne sont jamais des données natives, le vent à 10m l'est rarement (chez IFS oui). Les données natives (ex la T, P, HR au niveau 1) passent dans des moulinettes d'interpolation, extrapolations et algorithmes divers pour obtenir en post-traitement la T2m, la pression au niveau de la mer, etc. Chaque post-traitement accroît l'incertitude.

- contexte de grille : pour une meilleure lisibilité, les données sont fournies généralement en une grille longitude - latitude régulière. Mais ça, c'est du gros post-traitement avec de nombreuses approximations pour y arriver. Nativement, un modèle calcule le plus souvent sur des grilles sphériques qui adoptent une autre régularité. FV3 chez GFS, maille octohédral chez IFS, Icosahedral chez ICON, etc. De plus, je ne connais pas de modèles qui calculent directement en terme de pression (à 850, 500, ... hPa) mais en terme de niveaux verticaux définis mathématiquement (137 chez IFS, 90 chez ICON par exemple). Et c'est encore un post-traitement qui fait les conversions niveaux verticaux -> niveaux de pression.

- contexte technique : même les super calculateurs dernière génération ultra haute giga performances ont leurs limites ! C'est d'ailleurs un gros travail chez ECMWF et NCEP d'accorder au mieux les conceptions des modèles aux contraintes techniques matérielles ... Il y a des équipes pluridisciplinaires qui travaillent des années sur ce sujet en amont de l'implémentation d'une future version d'un modèle.

Et j'en passe. On a donc dès le départ, une somme d'incertitudes liées en partie aux contextes. Plus l'usager demande de la précision, plus l'importance que prend cette somme augmente.

À tout cela, s'ajoutent aussi les incertitudes physiques : la physique actuelle ne décrit pas tout ou nous n'avons pas les moyens d'appliquer exactement ce que nous dit la physique. Et le chaos n'y est pas étranger ! :)

 

Pour pouvoir mesurer leur fiabilité, comme pour une voiture, il faut une grille d'évaluation. À partir de ces références, les modèles progressent. Des vérifications ponctuelles et des liens apparaissent régulièrement sur les forums.

 

Il arrive que la modélisation d'un modèle change d'une sortie à une autre, c'est exact. Il arrive souvent que l'interprétation change d'une sortie à une autre ...

 

H48, parfois H24, parfois H120 et parfois H240 ! Ça dépend de ce qu'on demande, des situations rencontrées et des limites du modèle.

L'humilité que tu cites, est là à mon avis : savoir ce qu'on demande.

Tu l'écris toi-même : des fois, quand les conditions sont stables, la fiabilité augmente.

C'est un début, adapter sa demande aux limites des modèles et, bien sûr, à ses besoins.

Suivant les besoins, les modèles peuvent ne être pas suffisants. C'est là qu'il est nécessaire d'avoir une expertise humaine : sa propre expertise, celle de MF, d'une autre entreprise, etc. Et c'est là qu'il faut en avoir conscience.

Sans doute surestime-t-on les capacités des modèles, voire leur attribue-t-on des compétences alors qu'ils n'ont que des capacités.

Au-delà de H48, on n'est pas forcément dans le flou si on s'adapte à leurs capacités. Ensuite, ne pas oublier que la météo est devenue non plus qu'un domaine stratégique mais aussi un domaine ultra concurrentiel et que si tu communiques en disant : mon modèle ne vaut plus tripette au bout de 48 à 72h, tu vas pas rester longtemps ! En étant sur ce forum, on apprend déjà à relativiser. C'est pas si mal si on arrive à détricoter la comm' des réelles possibilités. ;)

 

Ton message est empli d'interprétations, ce qui est rassurant puisque c'est un comportement humain ! :):D

 

Il y a 9 heures, boubou07 a dit :

d'où l'intéret de se concentrer sur la météo à 24h

 

C'est le « nowcasting », parfois même jusqu'à H12 voire H6, qui se développe avec plus ou moins de réussites et qui est, surtout, encore plus concurrentiel que le reste : ça se monnaye à prix d'or. J'en parle succinctement ici et sur le post suivant.

 

Bon, j'arrête là ! :D

  • Merci 2

Share this post


Link to post
Share on other sites
Posted

Location : Aubenas en Ardèche méridionale

ça c'est ce que j'appelle une réponse ! 😲

j'avais oublié de préciser que j'admire et respecte le travail des prévisionnistes, mais la question n'est pas là... 

tu pose donc comme question : quelle est la nature de la demande et de l'attente de l'usager de la prévision. évidemment, ça dépend de l'usager.

effectivement dans certain cas on demande juste de savoir s'il va faire beau ou non. pas dans mon cas.

pour moi il s'agit de savoir quelle T° et quel ciel pour demain, après-demain, cette semaine...

 

exemple concret : le week-end dernier je regarde mes abeilles et je vois que beaucoup ont besoin de place. donc je doit augmenter le volume des ruches par ajout d'étages. 

MAIS si la température les jours suivant est trop basse, elles vont avoir du mal à réchauffer l'espace supplémentaire et donc elles vont sur-consommer du miel. pas bon... 

alors je regarde MF sur internet et je me dis ok, ça passe, pas Tn négative et surtout pas de Tx<13°C. et puis dès lundi, les choses changent. lundi soir on m'annonce 12°C pour mardi et en fait il a fait 8°C (alors que samedi ils donnaient 14°C pour mardi...) mais trop tard, j'ai posé les étages en plus 😨

 

voilà pour illustrer le problème qui est récurrent et qui m'a déjà joué des tours plus d'une fois !

et donc je lit ce bouquin et je tombe sur ce chapitre à propos de la météo et je me dit ; et si ce n'était pas une question de modèle et/ou de prévisionniste; mais si s'était bel et bien la nature même du fonctionnement de l'atmosphère qui empêche la précision et la fiabilité à moyen terme ?

d'une certaine manière, est-ce que la nature elle-même sait ce que ça donnera dans 72h ?

Lorenz partait du principe que les mouvements de l'atmosphère étant non-linéaires, un même évènement est susceptible de provoquer des conséquences différentes, de sorte qu'en traduisant cela par des courbes, celle-ci ne passent jamais 2 fois au même endroit, d'où l'imprédictibilité intrinsèque du système.   

il disait aussi, pour pouvoir résoudre ces équations non-linéaires, il faut en simplifier les termes mais du même coup, on s'éloigne du réel et on perd en fiabilité... 

 

bref, sera-t-il un jour possible d'avoir précision ET fiabilité à échéance de plusieurs jours, ou est-ce un rève ? (pour des gens qui comme moi ont besoin d'un degré de précision relativement élevé...)

Share this post


Link to post
Share on other sites
Posted

Location : Aubagne (Les Passons, à l'est) (13400)

Cela reste une question de demandes et de contextes.

 

Les prévisions sur le site MF ne sont plus expertisées humainement après je ne suis plus combien 36, 48, 72h ? Et même en deçà, il n'y a pas une analyse humaine pour chaque commune française telle qu'on peut y accéder sur le site. Algorithmes => incertitudes supplémentaires.

Si tu veux une précision accrue pour tes ruches, tu dois passer par la case « humain » car tu es susceptible d'atteindre les limites des modèles dans certaines conditions météorologiques. C'est fonction de ta demande.

Pour répondre à ta demande, MF te demande de payer un certain prix (tu as différents niveaux de services payants) sachant qu'il reste le contexte que le prévisionniste doit considérer en plus de son analyse et de son interprétation. Le sur-mesure a un coût (pas que financier) et le résultat ne sera pas acquis à 100%.

 

il y a une heure, boubou07 a dit :

Lorenz partait du principe que les mouvements de l'atmosphère étant non-linéaires, un même évènement est susceptible de provoquer des conséquences différentes, de sorte qu'en traduisant cela par des courbes, celle-ci ne passent jamais 2 fois au même endroit, d'où l'imprédictibilité intrinsèque du système. 

 

Grossièrement, la physique quantique déclare qu'une particule peut être ou peut ne pas être à une position donnée (=> fonction d'onde, ton livre en parle peut-être). Elle peut traduire la particule en une série de probabilités non-linéaires. Le principe d'incertitude de Heisenberg, pilier démontré de la physique quantique, énonce qu'une limite élémentaire existe sur la précision des données concernant une particule, telles sa position et sa vitesse. Et cela n'a rien à voir avec une technologie ou une méthodologie inadaptée, c'est une limite purement physique, infranchissable.

Nous sommes un assemblage de particules en interactions constantes. Pourtant, notre position et notre vitesse est parfaitement définies. Parfaitement ? Tout est question d'échelles et d'observateurs. On considère qu'à notre échelle, les effets quantiques sont négligeables face aux demandes (quelle est ma position, quelle est ma vitesse dans le référentiel terrestre) et aux contextes (assemblages de milliards de milliards de particules, effets électromagnétiques et gravitationnels, ...).

 

La composante chaotique de l'atmosphère peut se comparer aux composantes quantiques. Le chaos (le concept physique de chaos) est intégrant à la météorologie et Lorenz fut l'un des premiers à le mettre en évidence (si ce n'est le premier). La précision finie, exacte, n'est pas possible en météorologie. C'est physique. Le système est imprédictible. Quoi qu'on fasse.

Tu as la réponse à la première partie de ta question.

 

Alors, comme en physique quantique, on joue sur les échelles et les contextes. On simplifie, on approximise, on interpole, on extrapole, en entrée, en sortie etc pour tenter de rendre négligeable l'indétermination du système résultant par rapport à la réalité (en fait, aux réalités).

Le négligeable est éminemment subjectif bien que les équipes dans ce domaine bâtissent toutes sortes de grilles et de canevas définis pour les guider. C'est là qu'entre en jeu la demande de l'Usager. Le degré de négligeabilité (sic) est variable suivant la demande.

 

Le ratio entre demande et négligeabilité te donnera in fine la fiabilité. Donc une subjectivité.

Tu as la réponse à la seconde partie de ta question. ;)

 

Pour répondre à la globalité de ta question, la réponse est théoriquement oui : on devrait parvenir à une prévision fiable pour ta demande. En pratique, non.

En effet, différemment de la physique quantique, le chaos existe car le système considéré (l'atmosphère par exemple) possède une sensibilité aux conditions initiales. Or, nous ne pouvons connaître simultanément et en tous les points horizontaux et verticaux l'état de l'atmosphère (contexte d'initialisation, dans mon message précédent). Dès le départ, le système sera indéterminé. S'ajoutent les autres contextes ...

C'est ce qui est expliqué dans ton livre. :)

 

L'intérêt devient (pour moi) évident de consulter plusieurs modèles déterministes et ensemblistes.

Chacun a des processus d'assimilation différents, des choix de sets de données différents, etc.

Chacun a une conception, une configuration, ... différentes

Une implémentation différente, des biais différents, des posts traitements différents, et ainsi de suite.

Tout ça ne rend pas l'atmosphère prédictive mais permet au cerveau humain un degré d'analyse et d'abstraction, avec plus ou moins de réussite ! => l'expertise humaine nécessaire.

  • J'aime 1
  • Merci 1

Share this post


Link to post
Share on other sites
Posted

Location : Aubenas en Ardèche méridionale

je n'aurais pas pensé à mettre en ça en relation avec la physique quantique, mon livre n'en parle pas, mais je passe mes longues soirées d'hiver

à regarder des conférences d'Etienne Klein (entre autres) 😀 donc je comprend ce que tu veux dire...

du coup, ce qui est sidérant avec le chaos (physiquement parlant) c'est de voir que des règles physiques puissent s'appliquer de façon universelle, du cosmos aux organismes vivants, en passant par les fluides, l'atmosphère, les flocons de neige.........................

  • J'aime 2

Share this post


Link to post
Share on other sites
Posted

Location : Aubagne (Les Passons, à l'est) (13400)

Étienne Klein ! :)

Il y a 3 heures, boubou07 a dit :

du coup, ce qui est sidérant avec le chaos (physiquement parlant) c'est de voir que des règles physiques puissent s'appliquer de façon universelle, du cosmos aux organismes vivants, en passant par les fluides, l'atmosphère, les flocons de neige.........................

:)

C'est le principe même de la physique ! Comme 4 interactions fondamentales décrivent toutes les interactions possibles à toutes les échelles et dans toutes les configurations (si on excepte les singularités  pour lesquelles la physique est inconnue).

Ça fait travailler l'imagination !!!

  • J'aime 2

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...