Aller au contenu
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Keraunos


Pyram
 Partager

Messages recommandés

Posté(e)
PERPIGNAN (66 - PYRÉNÉES-ORIENTALES)

Bonjour,

Comme prévu tout fonctionne à nouveau naturellement depuis hier chez moi sans effectuer la moindre opération (redémarrage divers, vider le cache,...) juste un peu de patience ;-)

Bonne journée

Lien à poster
Partager sur d’autres sites

  • Réponses 53
  • Créé
  • Dernière réponse

Les plus actifs

Posté(e)
Biache-Saint-Vaast (62) à mi-chemin d'Arras et Douai

Bonjour ,

tout le site est de nouveau disponible avec toutes ses données ( données METAR etc .... ) .

Bruno

Lien à poster
Partager sur d’autres sites

Posté(e)
Biache-Saint-Vaast (62) à mi-chemin d'Arras et Douai

Bonjour,

Page blanche ce matin !

Bonjour joselito ,

depuis hier tout fonctionne correctement sous Firefox 27 default_wink.png/emoticons/wink@2x.png 2x" width="20" height="20"> .

Bruno

Lien à poster
Partager sur d’autres sites

Posté(e)
Guyancourt (78) - 165m

J'en profite qu'il y ait un sujet sur Keraunos pour poser une question : avant, il y avait des dossiers de tornades datant d'avant 2008, mais qui ne sont plus visibles maitenant. Vont-ils être remis en ligne ?

Merci d'avance pour vos réponses.

Lien à poster
Partager sur d’autres sites

  • 5 months later...
Posté(e)
Saint Martin de Londres (34) / Agropolis Montpellier-Nord

Je sais pas si vous êtes au Courant mais Keraunos vient de développer un modèle WFR d'une résolution de 1km.

C'est limite une révolution dans le domaine de la météorologie

Attention, ce n'est pas Kéraunos qu'il l'a développé. Un modèle est développé par un ou plusieurs ensemble d'unité de recherche. Par exemple, Infoclimat n'a pas développé son propre modèle, mais il a réutilisé le code du WRF pour faire ses propres cartes.

L'ultra-HD est tout nouveau, même s'il y a encore des trucs à régler pour les effets locaux. C'est une belle avancée !

Lien à poster
Partager sur d’autres sites

C'est beau la haute résolution !! mais comment ils font pour les conditions initiales et aux limites avec une telle précision?

@+

cyle

Lien à poster
Partager sur d’autres sites

Posté(e)
Saint Martin de Londres (34) / Agropolis Montpellier-Nord

C'est beau la haute résolution !! mais comment ils font pour les conditions initiales et aux limites avec une telle précision?

@+

cyle

C'est pas facile de répondre à cette question. J'imagine que le modèle sait interpoler intelligemment entre deux stations en prenant en compte le relief, la nature du terrain etc.

Après, il est vrai qu'on peut se poser des questions : y-a-t-il assez de stations en données d'entrée du modèle pour se permettre une telle résolution ? Quelle est la fiabilité de l'interpolation avec les nombres de données d'entrées actuelles ? Il faut toujours prendre les modèles avec des pincettes.

Lien à poster
Partager sur d’autres sites

Il y a beaucoup de discussion dans le milieu scientifique concernant les ce type de modèles à de telles échelles, notamment pour WRF en-dessous de 4km environ. OK, WRf-ultraHD ça fait bien, une maille de 1km ça en jette, mais j'imagine que ça reste un sujet d'expérimentation.

Pour les conditions initiales j'imagine cependant que ça reste du basique : du GFS aux limites... Et ensuite, comme il s'agit de sous-domaines, les conditions aux limites sont récupérées des grilles parents (ce n'est qu'une supposition).

Après, c'est sûr que ça serait mieux si des données supplémentaires pouvaient être assimilées. Comme on projette de le faire sur le WRF-IC avec les données des StatIC par exemple;

Ça me fait un peu penser à la course au mégapixel des appareils photos numériques fut un temps.

Lien à poster
Partager sur d’autres sites

Posté(e)
La-Chapelle-Saint-Florent - 49 (proche 44, bord Loire)

Plus le modèle est fin, plus il donne une information précise, plus l'erreur devient importante.

Se tromper de 50km quand ta maille fait 50km n'a pas la même incidence que de se tromper de 50km quand la maille fait 1km. Or les données initiales restent les mêmes que ce soit sur le GFS de 50km où le WRF de 1km, donc si GFS se trompe de 50km (tu verras presque pas de différence), le WRF de 1km se trompera aussi de 50km (tu verras une énorme différence).

Cela a son utilité, mais à utiliser avec précaution et avec expertise, pas de façon brute.

EDIT : doublé par Fred wink.png

Lien à poster
Partager sur d’autres sites

Je pense que cela peut être intéressant à très court terme et voir si les conditions locales (principalement les convergences de basses couches) peuvent être modélisées. Si tel est le cas, ce serait en effet un pas en avant. Sinon, je suis perplexe quand aux données d'altitude entrées dans les modèles, celles-ci restent bien trop limitées (certains radiosondages n'émettent plus qu'une fois par jour). Il ne serait pas surprenant que celles-ci pourraient expliquer certaines situations dont la dynamique d'altitude modélisée était au final différente de la réalité. Si les informations de surface sont de plus en plus nombreuses, celles d'altitude ne le sont pas ce qui à mon avis limite et limitera toujours la pertinence des modèles. On peut toujours espérer que ces radiosondages, si indispensables, ne soient pas progressivement délaissés ce qui serait une catastrophe...

Lien à poster
Partager sur d’autres sites

au delà de l'initialisation qui doit se faire par interpolation

1 km² en ville et très différent 1 km² en campagne ou un lac ...comment peuvent ils acquérir toutes ces infos (humidité du sol, couleur (pour absorption, l'emission..)..) ca doit jouer sur les résultats

Comme le dit Damien une erreur de 50km / 1km ca pique

Lien à poster
Partager sur d’autres sites

Cela a son utilité, mais à utiliser avec précaution et avec expertise, pas de façon brute.

Oui j'ai envie de dire, il faut passer un bon temps à jauger la performance du modèle dans sa configuration définitive, ça peut être une bonne année.

Une fois qu'on connaît le "profil de performance" du modèle, on peut commencer à l'utiliser.

Je pense que c'est très intéressant d'observer un modèle à 1km de résolution (et bien configuré pour cette échelle), ça donne une idée de ce qui se passe à cette échelle (l'intensité des contrastes, le rôle des courants de densité, etc.). Mais pour les orages, on doit toujours garder une marge d'erreur au moins de 50 km et de 2-3 h. Surtout si c'est initialisé par un modèle comme GFS, on ne peut pas espérer une meilleure précision.

Lien à poster
Partager sur d’autres sites

Juste une question a propos des modèles WRF, je sais qu'Infoclimat en a fait un et que d'autre site on en fait, mais normalement ne faut-il pas avoir accès a un supercalculateur pour pouvoir créer ce genre de modèle?

Lien à poster
Partager sur d’autres sites

Juste une question a propos des modèles WRF, je sais qu'Infoclimat en a fait un et que d'autre site on en fait, mais normalement ne faut-il pas avoir accès a un supercalculateur pour pouvoir créer ce genre de modèle?

Les modèles de type WRF se content d'exploiter les données de modèles globaux (GFS, ECMWF) - ou parfois d'autres modèles à maille limitée, sur une maille limitée. Il n'est donc pas nécessaire de faire tourner ces modèles sur ces calculateurs spécialisés, puisque les calculs et assimilations les plus gourmands sont faits par les services nationaux (NOAA dans le cas de GFS) ou des groupements de pays (ECMWF), qui ont les moyens pour ce genre de choses. Ça peut donc très bien tourner sur des serveurs "classiques", mais le temps de calcul sera forcément moins bon.

Par exemple le WRF 4km du NSSL tourne sur un cluster à 256 processeurs : http://www.nssl.noaa.gov/wrf/

Lien à poster
Partager sur d’autres sites

Posté(e)
Saint Martin de Londres (34) / Agropolis Montpellier-Nord

Juste une question a propos des modèles WRF, je sais qu'Infoclimat en a fait un et que d'autre site on en fait, mais normalement ne faut-il pas avoir accès a un supercalculateur pour pouvoir créer ce genre de modèle?

Infoclimat, Météociel ou Keraunos n'ont pas "créé" ce genre de modèle. C'est les centres de recherche climatique qui "créent" ce genre de modèle. Nous on ne fait simplement que l'utiliser default_smile.png/emoticons/smile@2x.png 2x" width="20" height="20">
Lien à poster
Partager sur d’autres sites

Posté(e)
Montpellier (34), Montreuil (93) ou Ciran (37)

Sinon, je suis perplexe quand aux données d'altitude entrées dans les modèles, celles-ci restent bien trop limitées (certains radiosondages n'émettent plus qu'une fois par jour). Il ne serait pas surprenant que celles-ci pourraient expliquer certaines situations dont la dynamique d'altitude modélisée était au final différente de la réalité. Si les informations de surface sont de plus en plus nombreuses, celles d'altitude ne le sont pas ce qui à mon avis limite et limitera toujours la pertinence des modèles. On peut toujours espérer que ces radiosondages, si indispensables, ne soient pas progressivement délaissés ce qui serait une catastrophe...

Les RS demeurent biensûr très utiles dans l'analyse et la définition des conditions initiales de la modélisation, mais il faut quand même bien intégrer aujourd'hui le fait que l'essentiel des données assimilées sont issues des satellites dont les technologies de télédétection passives (analyse des images dans toutes les longueurs d'onde possibles) et actives (tir LIDAR, et même signal des constellations GPS) permettent aujourd'hui de réaliser en tous points du globe des relevés sur toute l'altitude à la fois en T°C et un humidité. Au sol, la dopplerisation des radars de précipitation permet également d'initier les champs de vent jusqu'à plusieurs km d'altitude (AROME les intègre depuis peu). Bref, la batterie de mesures rendues possibles par les satellites mais aussi les avions de ligne rend de moins en moins gravissime la diminution des RS "à l'ancienne". Ces derniers sont même de plus en plus souvent automatisés: ce sera bientôt le cas dans l'essentiel des territoires français d'outre-mer, où ils sont particulièrement utiles vu la faible densité d'autre type de mesure (sol en particulier). L'automatisation permet en plus de passer de l'hélium (plus cher) à l'hydrogène (beaucoup moins cher mais plus dangereux, il vaut mieux éviter de laisser un technicien dans le coin).

1 km² en ville et très différent 1 km² en campagne ou un lac ...comment peuvent ils acquérir toutes ces infos (humidité du sol, couleur (pour absorption, l'emission..)..)

C'est justement ça l'intérêt d'une résolution au km: ça intègre un modèle de terrain qui permet d'étudier les influences de toutes petites échelles. Dans le WRF, on peut activer (ou pas) le paramètre prenant en compte l'urbanisation. Et ça se voit, regarde l'IDF! Mais aussi sur le lac Léman (un peu beaucoup à mon goût d'ailleurs...)

[align=center] [/align]

[align=center]temperature.png?run=run18model[/align]

Par contre, une telle résolution est vraiment à interpréter avec la plus grande précaution, la descente d'échelle faite par Météociel de son WRF de 8 à 4 km n'avait d'ailleurs pas été très concluante (doux euphémisme). Les erreurs initiales d'analyse se propagent à l'exponentiel si cette descente n'est pas faite proprement! Voir par exemple les travaux menés par MF et beaucoup d'autres organismes pour décliner régionalement les modèles de climat: http://www.drias-climat.fr/accompagnement/section/51

Comme cela a été dit précédemment, le vrai enjeux pour les modèles c'est aujourd'hui l'assimilation des données. Leur collecte, leur transmission et leur sélection faite à l'entrée par un modèle est pratiquement devenue plus déterminante que la capacité du modèle à simuler l'évolution de l'état de l'atmosphère sur la base des équations de Navier-Stokes et de leurs primitives. Si bien que les travaux menés aujourd'hui s'orientent vers l'approche probabiliste, même à court terme, afin de quantifier l'erreur et la fiabilité d'un scénario. Du coup, ce qu'il faudrait faire maintenant avec les WRF, et plutôt que de leur donner des mailles d'une pertinence relative pour la prévision (elle ne l'est vraiment que pour l'expérimentation), ce serait d'améliorer d'une part l'assimilation en le gavant de données d'échelle de même ordre (cf nos travaux sur le WRF-IC sur la base du réseau StatIC) et d'autre part de se doter de la puissance de calcul nécessaire pour en sortir 10, 20, 30 ou 40 perturbations.

Mais ce n'est pas pour tout de suite, sauf à truster une bonne partie d'un datacenter OVH...

Lien à poster
Partager sur d’autres sites

C'est justement ça l'intérêt d'une résolution au km: ça intègre un modèle de terrain qui permet d'étudier les influences de toutes petites échelles. Dans le WRF, on peut activer (ou pas) le paramètre prenant en compte l'urbanisation. Et ça se voit, regarde l'IDF! Mais aussi sur le lac Léman (un peu beaucoup à mon goût d'ailleurs...)

[align=center] [/align]

[align=center]temperature.png?run=run18model[/align]

Merci de ta réponse.

Mais 1 km2 urbain à Marseille n'est pas le même qu'à Strasbourg ou Lille. Les villes ne changent pas trop dans le temps.

De même 1km2 de terre à betteraves de l'Aisne ne correspond pas à un 1km2 de terre à blé Beauceronne. Les forêts aussi jouent un grand rôle "local". C'est surface évoluent au cours de l'année et dépendent de la sécheresse ou non

Ca doit être plus dur à prendre en compte

cyle

Lien à poster
Partager sur d’autres sites

Merci de ta réponse.

Mais 1 km2 urbain à Marseille n'est pas le même qu'à Strasbourg ou Lille. Les villes ne changent pas trop dans le temps.

De même 1km2 de terre à betteraves de l'Aisne ne correspond pas à un 1km2 de terre à blé Beauceronne. Les forêts aussi jouent un grand rôle "local". C'est surface évoluent au cours de l'année et dépendent de la sécheresse ou non

Ca doit être plus dur à prendre en compte

cyle

Les modèles prennent en compte ce type d'effets, et disposent de grilles permettant de déterminer sur quel type de terrain on est, et donc l'impact local. Mais c'est sûr, c'est amené à évoluer en fonction du temps, et ce n'est pas forcément d'une fiabilité à toute épreuve (données consolidées par satellite).
Lien à poster
Partager sur d’autres sites

Nous ne pouvons que saluer l'avancée de précision dans le domaine des modèles météo. Quand je vois la précision des HRRR ou RAP américain, ça laisse rêveur... et gratuit default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20"> !

Mais pour tous les passionnés d'orage et de prévision à très courte durée, ce qu'il manque en France, c'est un "College of DuPage" pour le satellite visible et que MF met à disposition gratuitement les données atmo heure par heure avec CAPE / CIN / Points de rosée / T°C / Vitesse et direction des vents en basse couche... C'est là où nous avons un gros manque !

Lien à poster
Partager sur d’autres sites

Comme cela a été dit précédemment, le vrai enjeux pour les modèles c'est aujourd'hui l'assimilation des données. Leur collecte, leur transmission et leur sélection faite à l'entrée par un modèle est pratiquement devenue plus déterminante que la capacité du modèle à simuler l'évolution de l'état de l'atmosphère sur la base des équations de Navier-Stokes et de leurs primitives. Si bien que les travaux menés aujourd'hui s'orientent vers l'approche probabiliste, même à court terme, afin de quantifier l'erreur et la fiabilité d'un scénario. Du coup, ce qu'il faudrait faire maintenant avec les WRF, et plutôt que de leur donner des mailles d'une pertinence relative pour la prévision (elle ne l'est vraiment que pour l'expérimentation), ce serait d'améliorer d'une part l'assimilation en le gavant de données d'échelle de même ordre (cf nos travaux sur le WRF-IC sur la base du réseau StatIC) et d'autre part de se doter de la puissance de calcul nécessaire pour en sortir 10, 20, 30 ou 40 perturbations.

Mais ce n'est pas pour tout de suite, sauf à truster une bonne partie d'un datacenter OVH...

Bonsoir,

J'ai une petite question : comment expliquer les différences entre les WRF de météociel et d'IC, dans l'hypothèse où les données assimilées sont les mêmes ? A moins que cette hypothèse soit fausse, la seule explication viable à mon avis est que les schémas de convection par exemple ou les schémas des phénomènes de méso-échelle plus généralement, ne sont pas les mêmes. Du coup, il pourrait être utile également de les améliorer à moins que ce changement n'améliore que de façon négligeable la prévision comparativement à une assimilation de données plus importante ?

Malheureusement, faire le choix du probabilisme à défaut du déterminisme, c'est admettre de se concentrer davantage sur l'assimilation de données que sur l'exploitation via la modélisation. A mon sens, c'est frustrant mais néanmoins probablement nécessaire si des travaux le montrent wink.png .

Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
 Partager

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...