Jump to content
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Sign in to follow this  
nico parapente

OpenMeteoData - données météo libres et gratuites pour tous

Recommended Posts

Les analyses du Centre Européen ont une résolution de 0.25 degrés (même si ils fournissent depuis peu des analyses à 0.125, mais je pense que ce sont des interpolations). Il y a effectivement un gain par rapport à des analyses avec une résolution moins bonne (on a montré que l'augmentation de la résolution correspondait toujours à un gain en prévision), d'autant plus que le modèle du Centre Européen donne de meilleurs résultats que les autres modèles globaux. Cependant, mêmes les analyses du Centre Européen ont un certain degré d'erreur, qu'il faut corriger par les observations. Si on ne le fait pas, ça revient juste à faire du domaine imbriqué à partir des analyses du Centre Européen ou du NCEP. Autrement dit, il y a peu de gain par rapport aux analyses utilisées pour l'initialisation du modèle, juste un peu plus de détail.

Le minimum pour faire ses propres prévisions opérationnelles, c'est de faire du 3DVar pour assimiler les observations conventionnelles et satellites.

Share this post


Link to post
Share on other sites
Posted

Location : Montreuil (93) ou Ciran (37)

Et concrètement, en considérant que les données du réseau StatIC soient le plus fiabilisées possibles (on a encore du travail à mener en terme de détection de pannes et d'incohérence flagrante, même si ça a bien progressé), quels seraient la démarche et les outils nécessaires pour assimiler les observations desdites stations dans un WRF "maison"?

Share this post


Link to post
Share on other sites

quels seraient la démarche et les outils nécessaires pour assimiler les observations desdites stations dans un WRF "maison"?

Nous on peut mettre du calcul à disposition pour des tests.

Share this post


Link to post
Share on other sites

Pour les observations conventionnelles (donc stations), il faut les écrire en format LITTLE_R pour que le préprocesseur de WRF puisse les lire. Il y a des routines qui le font (ici). Les observations satellites elles sont téléchargeables sur le site de l'UCAR. Il faut donc compiler le 3DVar ou 4DVar du "package" assimilation de WRF (WRFDA disponible sur leur site) et assimiler ces observations.

Une chose que j'aurais du mentionner dans mon message précédent au sujet des analyses du Centre Européen, c'est que ce sont des données disponibles sur des niveaux modèles (contrairement aux données NCEP GFS), donc ça demande un travail supplémentaire pour l'initialisation. Il faut utiliser des routines qui font la conversion niveaux modèles - niveaux pression.

Share this post


Link to post
Share on other sites

Et concrètement, en considérant que les données du réseau StatIC soient le plus fiabilisées possibles (on a encore du travail à mener en terme de détection de pannes et d'incohérence flagrante, même si ça a bien progressé), quels seraient la démarche et les outils nécessaires pour assimiler les observations desdites stations dans un WRF "maison"?

Il faut traduire les données dans un format compatible avec les entrées de WRF et puis c'est a peu près tout (si j'ose dire).

Les "vraies données" d'observations sont un + génial !

Il faut écrire tous les scriptes d'importation et de traitements; mais c'est loin d’être infaisable.

Pour que les données d'un réseau d'observation soient fiables, il faut que l'horodatage soit juste aussi et qu'elles sortent au même rythme.. il n'y a pas que les données elles-mêmes a vérifier. Les PC de mesures doivent donc avoir l'heure unifiée et correcte.

Share this post


Link to post
Share on other sites

Il faut écrire tous les scriptes d'importation et de traitements; mais c'est loin d'être infaisable.

Les scripts existent déjà.

Pour que les données d'un réseau d'observation soient fiables, il faut que l'horodatage soit juste aussi et qu'elles sortent au même rythme..

Ca veut dire quoi concrètement "qu'elles sortent au même rythme" ?

Share this post


Link to post
Share on other sites

Ben, tu choisi de faire du traitement sans moyennes a 15min, soit a 1/2 heure soit a 1h ou plus.

Comme il est plus sage de faire des moyennes entre station pour niveler les erreurs plutôt que de faire des moyennes par station; si tu as du 15 min sur un groupe ou du 1h sur un autre, c'est pas la même chose. C'est plus simple quand elles sortent toutes du 15 min ou du 1h...

Après, c'est sur que dans ton modèle tu peux lui rentrer aussi bien des 15 min que de 1h.. voir même de temps en temps des sondages ou des relevés radars (MesoNH). Mais les aberrations de mesures seront plus difficiles a détecter, et tes runs peuvent s'en trouver biaisés.

Mélanger les données c'est bien, quand tu ne met pas en doute la fiabilité des dites données, ce qui n'est pas le cas avec un réseau amateur.

Share this post


Link to post
Share on other sites

Il n'y a pas vraiment besoin de se poser la question quand on assimile les données. En pratique on n'assimile pas une observation dés qu'elle est disponible mais on se définit une fenêtre d'assimilation (6h par exemple). Moyenner des observations qui sont distantes de plusieurs centaines de km pour réduire les erreurs ça n'a pas beaucoup de sens. Pour exclure les observations erronnées, on peut penser que le moyen le moins couteux serait de calculer la différence entre l'observation à un point donné et l'ébauche et d'exclure l'observation si cette valeur dépasse un seuil qu'on se fixe. Pour le bruit blanc associé aux appareils de mesures, l'assimilation s'en charge en principe.

Share this post


Link to post
Share on other sites

Après on doit pouvoir voir si une station présente constamment un décalage avec les prévis du modèle.

Le tout est de savoir s'il s'agit d'un microclimat ou d'un problème de mesure.

Share this post


Link to post
Share on other sites

Moyenner des observations qui sont distantes de plusieurs centaines de km pour réduire les erreurs ça n'a pas beaucoup de sens.

Ah, oui, c'est vrais que vous travaillez avec des maille très larges... Je suis plus habitué aux campagnes de mesures plus réduites géographiquement. Et vous ne faites pas de la turbulence ou autres donc les capteurs a 5 min, 15 minutes.. effectivement ça ne le fait pas.

Share this post


Link to post
Share on other sites
Posted

Location : Montreuil (93) ou Ciran (37)

En l’occurrence, sur les quelques 200 StatIC, on récupère et traite les données toutes les 10 min pour un grand nombre d'entre elles (celles en WeatherLinkIP et celles qui uploadent directement sur notre serveur via un ftp dédié). Pour les autres, toutes les demi-heure - à voir ce que l'on peut faire... mais c'est tentant default_smile.png/emoticons/smile@2x.png 2x" width="20" height="20">

Share this post


Link to post
Share on other sites

Je veux bien participer dans la mesure de mes compétences (scriptes en Perl, administration Linux), un peu plus de mon CV en MP.

Share this post


Link to post
Share on other sites

Une partie des discussions de ce fil doit être prolongé. Ils sont une des bases de la pérennité d'OpenMeteoData: s'assurer qu'on ne reste pas complètement tributaire des données américaines pour l'initialisation du modèle. Cela implique d'avoir d'autres sources de données et les procédures qui permettent de les exploiter dans WRF: Météo-France, divers réseaux de balise...

Cela serait donc super qu'en parallèle de la version opérationnelle qui se met en place, il y ait des volontaires pour tout préparer pour l'injection progressive de nouvelles données dans le modèle.

Share this post


Link to post
Share on other sites

Nous proposons de former un "conseil scientifique" au sein de l'association.

Celui-ci aura pour mission :

  • d'assurer la cohérence scientifique du projet
  • de discuter d'une manière ouverte sur les points techniques du projet (réglages du modèle, assimilation, transformation des données...)
  • d'émettre des critiques ou des recommandations
  • de publier sur la mise à disposition ou les nouveaux usages des données

Il ne s'agit pas la de créer une grosse organisation ingérable, mais simplement de fédérer les personnes qualifiés voulant s'impliquer dans le projet.Aussi, avec un "conseil scientifique", nous serons beaucoup plus crédible auprès du public et de nos interlocuteurs. Cela permettra de nouer plus facilement des relations avec des entreprises ou des universités.

Je pense que ça sera un levier non négligeable dans le développement du projet, et que ça pourra émuler d'autres scientifiques à se joindre au projet.

Et pour finir, après les thématiques de l'open-source et de l'open-data, cela fera une formidable expérience d'open-science : la science collaborative et ouverte, non contrainte par une institution.

Cela ne veut pas forcément dire y passer beaucoup de temps.

Si pour des raisons diverses vous ne pouvez pas associer publiquement votre nom à un tel projet, ça n'est pas un problème. Vous pourrez figurer dans le conseil sous un pseudonyme, accompagné de vos qualifications.

Encore une fois, je suis totalement à votre disposition pour en discuter.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...