Aller au contenu
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Mises à jour des modèles de prévisions


_sb

Messages recommandés

Posté(e)
Aubagne (13400)

Dans un autre registre, la prévention et la prévision des catastrophes naturelles, notamment des inondations.

 

Les inondations provoquent des morts et des dégâts parfois considérables. Plusieurs projets existent : l'Europe avait financé le projet CENTAUR [1]. Les réseaux d'égouts et d'évacuations pluviales sont pilotés par une intelligence artificielle pour contenir et rediriger en temps réels les flux d'eau vers des secteurs moins impactés, le but étant de soulager les zones les plus touchées ou les plus vulnérables [2]. Je reste perplexe sur la capacité d'un tel réseau à assimiler suffisamment d'eau en un temps minimal pour le rejeter « plus loin ». Sur une crue-éclair, c'est le temps qui est un acteur-clé. Sur une montée lente, le temps est encore clé, le système devant être capable de maintenir le niveau sur une longue durée. Quant au débit, il dépend du temps lui aussi. Je ne sais pas trop où cela en est aujourd'hui concrètement, si quelqu'un a des infos ...

 

Outre-atlantique, des projets de surveillance et d'aide à la prise de décisions face aux inondations et aux autres catastrophes naturelles existent [3], peut-être moins de contrôler que de prévenir et de prévoir les sites les plus vulnérables afin de prioriser les actions menées.

Des modélisations avec simulations via le Deep Learning existent pour mieux cibler les zones inondables.

 

[1] : https://cordis.europa.eu/article/id/241013-adaptable-scalable-and-cost-effective-local-solution-to-urban-flooding-prevention/fr
[2] : https://www.sheffield.ac.uk/centaur/home/outputs
[3] : exemples plus ou moins aboutis :
      https://news.mst.edu/2019/04/researchers-use-artificial-intelligence-to-design-flood-evacuation-plans/
      https://www.nytimes.com/2019/05/12/climate/artificial-intelligence-climate-change.html
      https://mila.quebec/ia-dans-la-societe/visualiser-le-changement-climatique/

 

Lien à poster
Partager sur d’autres sites

  • Réponses 615
  • Créé
  • Dernière réponse

Les plus actifs

Les plus actifs

Messages populaires

Quelques généralités sur les scores des principaux modèles (IFS, GFS, UKMO, GEM et ICON). J'aurais aussi pu prendre ARPEGE ou d'autres paramètres, mais cela aurait alourdi les graphes, cependant, le l

Une nouveauté que je n'avais pas vu sur le site d'ECMWF : les meteograms « Précipitations » Deux accès possibles depuis la nouvelle interface : https://apps.ecmwf.int/webapps/opencharts  

Ce n'est pas contre toi Ludo, je trouve ça simplement hallucinant. Ce n'est pas propre à MF, la météo transalpine subit les mêmes pratiques. Peut-être même en pire. À l'inverse, outre-Rhin, j'envoie u

Images postées

Posté(e)
Aubagne (13400)

La WMO, en association avec ECMWF, DWD, NCEP et JMA [1][2], propose désormais une interface sur la disponibilité et la qualité des données d'observation de surface (étendue à l'avenir à d'autres données). L'objectif est d'identifier les dysfonctionnements des mesures et autres problématiques autour des ces données de façon unifiée et normalisée pour un suivi en presque temps réel. D'une part, les fournisseurs de données seront avertis plus rapidement, d'autre part, les centres météos pourront réagir plus finement lors des processus d'assimilation, et donc accroître la qualité des sorties des modèles. Indirectement, cela améliorera la définition des erreurs (observations erronées vs modélisations erronées).

 

https://wdqms.wmo.int/

 

Exemple avec la station MF de Saint-Mandrier / Cap Cepet (83) sur la composante zonale (U) du vent à 10m :

 

wigos.thumb.jpg.93084489fc548d710ba878a3a7f0f392.jpg

 

wdqms.thumb.jpg.06a8e0dc51257aef003cd033cb438d5f.jpg

 

et donnant accès directement à la base de données OSCAR de la station : https://oscar.wmo.int/surface/index.html#/search/station/stationReportDetails/0-20000-0-07661

 

En bonus, petite série de questions / réponses sur l'assimilation de données par les modèles [3].

 

[1] : https://wdqms.wmo.int/about

[2] : https://www.ecmwf.int/en/about/media-centre/news/2020/wmo-and-ecmwf-launch-new-web-tool-monitor-quality-observations

[3] : https://www.ecmwf.int/en/about/media-centre/news/2020/fact-sheet-earth-system-data-assimilation

Modifié par _sb
  • J'aime 1
Lien à poster
Partager sur d’autres sites

Posté(e)
Saint-Etienne (Montaud) : alt 500m.

Vers une moins bonne fiabilité des modèles d'ici quelques jours ? C'est en tous cas ce que résume cet article :

https://www.ecmwf.int/en/about/media-centre/news/2020/drop-aircraft-observations-could-have-impact-weather-forecasts

 

Je ne m'attendais pas à ce qu'une épidémie mondiale puisse avoir une incidence sur les prévisions météorologiques... 🤔

  • J'aime 2
Lien à poster
Partager sur d’autres sites

Posté(e)
Aubagne (13400)

Le sujet a été rapidement évoqué sur le topic LT : ce post et les 3 suivants.

Les modèles sont ultra sensibles (comme l'est la météorologie) aux conditions initiales.  Par conséquent, si la qualité / quantité de ces dernières diminue, la qualité des calculs s'en ressent.

  • J'aime 2
Lien à poster
Partager sur d’autres sites

Vers une moins bonne fiabilité des modèles d'ici quelques jours ?

 

Mon avis :

 

Il faudrait que la perte de prévisibilité dure 1 an ou plus et être dans le contexte de statistiques internationales (business international par exemple) pour se dire qu'on perd de l'argent à cause de çà.

 

Intéressant pour le goût de la technique et des statistiques, mais je ne vois vraiment rien d'autre.

 

Lien à poster
Partager sur d’autres sites

Posté(e)
Aubagne (13400)

IFS opérationnel passera à son cycle suivant, le 47r1, le 30 juin 2020.

 

Les tests publics seront disponibles fin mai alors que les premiers résultats des tests précédents devraient être bientôt rendu publics.

Comme d'habitude, des sessions de visioconférence avec un des responsables des équipes d'ECMWF sont prévues. Les deux premières sont déjà planifiées les 21 et 22 avril. Leur accès est ouvert à tous et ses sessions permettent à la fois une présentation du travail et des mises à jour et de répondre aux questions (jeu des questions-réponses).

 

implementation_timeline_47r1.png.e4242fee3e6b55ac6d4fc09860c0c3f2.png

 

Un résumé des principales informations (telles que les évolutions embarquées majeures) du futur IFS opérationnel :

https://confluence.ecmwf.int/pages/viewpage.action?pageId=177485370

(l'infographie ci-dessus vient de cette page)

  • Merci 1
Lien à poster
Partager sur d’autres sites

Posté(e)
Aubagne (13400)

Quelques news du Met'Off :)

 

EURO4, modéle régional sur un domaine couvrant l'Europe sous un maillage semi-fin (4.4 km), sera bien arrêté en 2021. Le modèle UKV opérationnel est évalué suffisamment mûr par le Met'Off pour prendre sa place. Il y aura donc l'UKV à 1.5 km tel qu'il existe aujourd'hui, centré sur le Royaume-Uni et une deuxième sortie avec une grille à ~2.2 km sur un domaine sensiblement plus grand (même domaine qu'EURO4 ?) [1].

 

euxglqixkam2ltc.jpeg

 

Une mise à jour des modèles devrait intervenir avant l'été.

 

La dernière mise à jour (PS43) de l'Unified Model (usuellement nommé « UKMO »), le modèle global du Met'Off, a eu lieu en décembre 2019.

De façon générale, ces améliorations portent sur :
- un nouveau schéma d'intégrations des conditions initiales ;
- les processus de la couche limite ;
- la modélisation des nuages et du rayonnement entrant ;
- la microphysique de la convection profonde et des pluies associées ;
- l'intégration d'une intelligence artificielle.

 

Pour les modèles régionaux (UKV) :
- le traitement de la neige ;
- la turbulence sous-maille ;
- la modélisation des nuages de glace en phase mixte (liquide / solide).

 

ps43.jpg

 

Je n'entrerai pas dans le détail concernant les domaines régionaux puisque cela ne concerne qu'UKV et son ensemble dont l'accès n'est pas public. EURO4 n'est plus mis à jour.
Pour le domaine global (UKMO), accessible sur plusieurs sites gratuits ou non :

 

- Jusqu'à présent, l'assimilation des données utilisait le traditionnel filtre de Kalman. Le nouveau schéma d'intégration des conditions initiales (« En-4DEnVar ») fournit un panel (ensemble) de conditions initiales auto générées par les cycles d'assimilations [1][2]. Chaque membre de ce panel est produit par son propre cycle d'assimilation de données. De plus, les précédents cycles d'assimilation sont incorporés dans le cycle présent pour contrôler l'écart entre les membres du panel afin que celui-ci soit raisonnable (ni trop petit, ni trop grand). Cette première intégration est une première étape, les prochaines mises à jour étofferont ce nouveau système d'assimilation.
Cela accroît le réalisme et la stabilité des prévisions de l'ensemble (prévisions probabilistes) et des influences dues aux imperfections / incertitudes du modèle. Les observations satellitaires sont mieux gérées. Une nette amélioration est notée en sortie. Le résultat de l'initialisation de l'ensemble est également inséré dans les conditions initiales du déterministe suivant ce qui augmente positivement ses résultats en sortie.

 

- Au niveau des données assimilées, un effort important et parfois nouveau est reconnu par le Met'Off sur l'humidité de basses couches, l'humidité du sol et du ruissellement et aussi l'humidité des hautes couches de l'atmosphère. Les données vents en basses couches sont également revues.

 

- La physique, basée sur le noyau version 7.2 (Global Atmosphère), connaît son plus gros changement depuis la version PS34 de 2013, déclare le Met'Off [3]. On retrouve ici les changements sur les processus de la couche limite (principalement autour du rapport de mélange de l'eau), la modélisation des nuages et du rayonnement entrant, la convection profonde et les pluies associées.

 

- Il n'y a pas de changement sur les résolutions horizontales et verticales ni sur la géométrie.

 

Les améliorations en sortie sont plus importantes pour l'ensemble que pour le déterministe. Cependant, pour le déterministe, les améliorations se focalisent essentiellement sur :
- la T850 ;
- la gestion de la convection profonde ;
- la prévision des couvertures nuageuses ;
- la trajectoire des cyclones tropicaux ;
- des flux dans la bande tropicale.


À l'inverse, une faible augmentation des erreurs est rapportée pour le Z500, essentiellement lorsqu'une erreur s'est introduite à une échéance précédente : la stabilité supérieure du système semble avoir du mal à compenser. Le Met'Off juge cette augmentation « no significant detriments ».

 

ps432.jpg

 

 

L'IA porte sur les températures en surface (T2m) en post-traitement. L'objectif est de diminuer les biais en sortie brute. Je n'ai pas trouvé davantage d'infos. Sur le seconde image, OS42 est la version opérationnelle du modèle lors de l'expérimentation, ps43 est la version en test (aujourd'hui elle est l'opérationnelle) et ps43+ML est la version 43 avec l'IA.

 

ml0.jpg

ml1.jpg

 

La précédente mise à jour concernait très majoritairement les modèles régionaux (mars 2019).

Pour celle d'avant, en septembre 2018, les améliorations concernaient :
- physique de la neige ;
- analyse de l'humidité du sol ;
- banquise de la Baltique ;
- données satellitaires.
Pour les résultats suivants :
- améliorations de la MSLP, du Z500 et des T2m.

 

Sur un tout autre point, le Met'Off a reçu l'aval pour l'acquisition d'une nouvelle infrastructure matérielle en 2022 [4].

Enfin, le Met'Off effectue des expériences et évaluations en Asie du sud-est, avec les centres partenaires qui utilisent UKMO (UM) :

 

ase.jpg

 

[1] : MOGREPS est l'acronyme des ensembles produits par le Met'Office.
[2] : http://www.meteo.fr/cic/meetings/2014/CNA/presentations/2_1_Lorenc.pdf (2014)
[3] : https://www.wmo.int/pages/prog/arep/wwrp/new/documents/DAOS_Bowler_2016.pdf (2016)
[4] : http://cms.ncas.ac.uk/documents/training/April2019/UM_Introduction_Presentations.pdf
[5] : https://www.metoffice.gov.uk/about-us/what/technology/supercomputer

 

  • Merci 4
Lien à poster
Partager sur d’autres sites

Posté(e)
Touraine (37) et Plateau des Bornes (74) 950m

L’ECMWF organise une série de webinars sur l’amélioration de la prévision numérique par l’IA

https://www.meteorologicaltechnologyinternational.com/news/climate-measurement/weather-prediction-online-seminars-announced.html

  • Merci 1
Lien à poster
Partager sur d’autres sites

Les fameuses méthodes IA !

Perso, je fais toujours ma prévision perso quand j'ai une activité météo-sensible, donc ma donnée de base ce sera toujours le modèle.

De plus, j'imagine mal que l'IA s'intègre à des procédures de sécurité (vigilance orange/rouge) ou de high cost (Rolland Garros...).

Lien à poster
Partager sur d’autres sites

Posté(e)
Aubagne (13400)

Ce n'est pas forcément le même créneau. De plus, un besoin supplémentaire peut facilement être créé pour ouvrir un marché florissant.

ECMWF, le Met'Off, Google et d'autres s'y intéressant activement n'est pas un hasard.

Je suis d'accord avec toi que la distance entre prototype expérimental et opérationnel peut se révéler longue et semée d'embûche, le fait est que l'intérêt est présent.

Je remet un lien vers un post de la page précédente à ce sujet.

Lien à poster
Partager sur d’autres sites

Je ne pense pas que ce soit une histoire de calibration/perfectionnement, c'est une histoire de nature. Tous les outils dits "boîte noire" posent des problèmes par nature dans les situations "à ne pas se louper".

Pour tous les créneaux de routine, rien à dire.  Quitte à enlever les prévisionnistes, autant avoir la méthode qui marche le mieux et la donnée modèle brute c'est de toute façon moyen.

  • J'aime 1
Lien à poster
Partager sur d’autres sites

Posté(e)
Touraine (37) et Plateau des Bornes (74) 950m
Le 12/04/2020 à 19:07, Cotissois 31 a dit :

Perso, je fais toujours ma prévision perso quand j'ai une activité météo-sensible, donc ma donnée de base ce sera toujours le modèle.

 

Je comprends cela de la part de professionnels de la météo, dont je ne fais pas partie, mais il faut savoir que bon nombre de personnes se fient à des applications automatiques sur leur smartphone pour la prévision du temps. On sait que la plupart d’entre elles sont basées sur GFS, donc sur les sorties brutes de ce modèle à grosse maille avec seulement un lissage entre les points de grille. Même si les bulletins météo du journal télévisé ou de la radio, élaborés par des prévisionnistes, sont très suivis, il n’empêche qu’ils présentent forcément des données assez globales (température entre x et y degrés, vents max sur une région…) et donc la tentation est grande de consulter ces applications pour avoir une information météo locale. 

L’intelligence artificielle ne peut-elle pas être le moyen d’apporter des améliorations au niveau des modèles, des applications, du nowcasting…? Cela me semble aller dans le sens du développement d’outils plus performants. 

Lien à poster
Partager sur d’autres sites

Je pense qu'on s'est mal compris, car ton dernier passage revient exactement à mon dernier passage.

 

Mon premier passage parle bien à ce forum. On est (très) nombreux sur ce forum à savoir faire de la prévision par nous-même donc ne pas être dépendant de l'automatique. Quand on fait sa propre prévision, on peut adapter comme on veut le curseur sur le risque de fausse alarme, alors que les méthodes automatiques vont nous l'imposer. Une raison parmi bien d'autres.

Modifié par Cotissois 31
Lien à poster
Partager sur d’autres sites

Posté(e)
Aubagne (13400)
Le 14/04/2020 à 14:17, Idéfix37 a dit :

L’intelligence artificielle ne peut-elle pas être le moyen d’apporter des améliorations au niveau des modèles, des applications, du nowcasting…? Cela me semble aller dans le sens du développement d’outils plus performants. 

 

L'IA telle qu'évoquée ici n'est pas conçue pour « améliorer les modèles ». Elle n'entre pas dans le processus.

Les entreprises privées qui s'y lancent (Google, IBM, ..., cf un post précédent) n'ont aucune spécificité météorologique : elles créent (ou créeront) un besoin pour vendre un service. Probablement une version « Premium » avec deux trois améliorations et une version « gratuite » dont le prix sera les données innombrables supplémentaires que l'utilisateur « donnera » à son insu. L'objectif est de définir le temps à partir des observations des heures précédentes dans une continuité où n'intervient aucune dynamique atmosphérique. L'IA est entraînée sur le schéma classique : telle série d'obs génère telle prévision à delta t suivant un %. Puis ça mouline. Il se trouve que le matériel (le hardware) peut encaisser le calcul sans broncher mais il n'y a aucune innovation derrière (autre que marketing).

 

Pour les situations critiques ou lorsqu'une dynamique atmosphérique est à l'œuvre (creusement explosif, convections, ...), l'IA devient incapable de gérer pour la simple raison qu'elle n'intègre rien des processus atmosphériques.

Le nowcasting des centres météorologiques porte sur des situations critiques où l'expertise humaine reste déterminante. L'IA, quant à elle, intègre(*) très probablement le processus d'assimilation des données, notamment lors de sa première phase : le calibrage et l'exclusion des données d'observation.

 

(*) : elle l'intègre déjà et son importance dans cette partie du process s'amplifiera certainement via de nouvelles voies.

  • Merci 1
Lien à poster
Partager sur d’autres sites

Posté(e)
Touraine (37) et Plateau des Bornes (74) 950m
Le 14/04/2020 à 14:17, Idéfix37 a dit :

le moyen d’apporter des améliorations au niveau des modèles


Certes l’IA ne sera pas intégrée au programme de calcul du modèle lui-même, j’ai fait un raccourci sans doute un peu rapide. Si l’ECMWF organise ce cycle de séminaires en ligne, c’est qu’il y voit un intérêt. Et si l’IA peut intervenir au niveau de l’assimilation des données, elle apportera de cette façon une amélioration des performances du modèle?

Lien à poster
Partager sur d’autres sites

Posté(e)
Aubagne (13400)

Aucune idée, ces séminaires seront peut-être l'occasion de mieux comprendre ce que sous-tend ECMWF.

 

Pour l'heure, et de façon schématique, une des premières phases du processus d'assimilation est de « trier » les données.

On le voit sur IC, parfois pour des raisons X ou Y, les données ou certaines données, d'une StatIC s'écartent : exemple : une rafale à 360 km/h, une T de -10°C à 13h alors qu'elle était de +15°C à 12h30, etc. Des petits mains d'IC les corrigent. :)

Pour les modèles, c'est un peu la même chose. Dans le flot de données, des dizaines (centaines) de Go à chaque cycle, il est nécessaire de faire le tri. Ce ne sont pas des humains qui le font (seuls les rares cas « non tranchés » sont remontés à un humain), une série d'algo se base à la fois sur les meta données de chaque source, les meta données d'erreurs internes à la source, l'évolution temporelle des données transmises par la source, l'évolution spatiale des données de la source en rapport avec les données des autres sources, etc. Le degré de cohérence de tout ça affuble la donnée d'un coefficient de pertinence : la donnée pourra alors être recalibrée par exemple ou elle pourra être exclue de l'assimilation, etc. C'est le plus gros travail de « calculs » des modèles (+ des 3/4 du temps de calcul total est pour l'assimilation).

Histoire de simplifier ce travail de titan exécuté pour l'heure par chaque centre indépendamment, une mutualisation sur les sources de données se construit. Voir en cela un de mes messages précédents sur ce topic.

Plus le temps de calcul se raccourcit, plus la sortie du modèle sera tôt et donc plus proche du temps réel. Actuellement, les modèles globaux mettent 6 à 10h à être disponibles après leur initialisation, ce qui fait qu'ils ont 6 à 10h de retard. Les modèles régionaux sont encore plus tard puisqu'ils doivent attendre la sortie d'un modèle global pour leur initialisation avant de calculer leurs propres sorties.

On voit donc l'intérêt de disposer d'une source commune sur la validité des données à assimiler. Ce sera autant de temps gagné et de ressources matérielles utilisables pour d'autres choses.

 

Une mutualisation du processus complet d'assimilation n'est pas possible puisque la conception de l'assimilation dépend de la conception du modèle lui-même.

 

Ensuite, il y a une tendance lourde à assimiler le plus de données possibles : de la pertinence (qualitative et quantitative) des données dépend en grande partie la pertinence de la sortie d'un modèle.

Une des pistes est d'accroître le nombre potentiel de sources. Mais dans tous les cas, il sera toujours nécessaire de « trier » les données.

Les moyens matériels actuels et, plus encore futurs, accroissent les possibilités techniques. On a ainsi deux voies de recherches ;

1- avec les moyens actuels, l'IA permet déjà une introspection profonde du magma de données et d'apprendre au fur et à mesure. On n'est pas encore sur de l'opérationnel.

2- d'autres équipes pluridisciplinaires au sein des centres météos travaillent sur le « qu'est que ce sera le hardware de demain et comment pourra-t-il s'intégrer dans une infrastructure efficace ? » pour ensuite concevoir, éventuellement prototyper voire prétester, des IA plus efficaces.

 

Cependant, l'IA se heurte à un aspect de la météorologie : son aspect chaotique très difficilement interprétable pour une IA, en tout cas dans le spectre des évolutions envisagées des 10 ou 20 ans qui viennent. C'est pour cela que les efforts sur l'IA sont portées sur l'assimilation et c'est pour cela que le nowcasting via une IA comme le propose Google ou IBM n'a pas d'intérêt pour un météorologue.

 

Peut-être qu'ECMWF a d'autres projets en tête, ces sessions en ligne en dévoileront peut-être.

Modifié par _sb
  • J'aime 1
Lien à poster
Partager sur d’autres sites

Il y a 20 heures, _sb a dit :

 

L'IA telle qu'évoquée ici n'est pas conçue pour « améliorer les modèles ». Elle n'entre pas dans le processus.

Les entreprises privées qui s'y lancent (Google, IBM, ..., cf un post précédent) n'ont aucune spécificité météorologique : elles créent (ou créeront) un besoin pour vendre un service. Probablement une version « Premium » avec deux trois améliorations et une version « gratuite » dont le prix sera les données innombrables supplémentaires que l'utilisateur « donnera » à son insu. L'objectif est de définir le temps à partir des observations des heures précédentes dans une continuité où n'intervient aucune dynamique atmosphérique. L'IA est entraînée sur le schéma classique : telle série d'obs génère telle prévision à delta t suivant un %. Puis ça mouline. Il se trouve que le matériel (le hardware) peut encaisser le calcul sans broncher mais il n'y a aucune innovation derrière (autre que marketing).

 

Pour les situations critiques ou lorsqu'une dynamique atmosphérique est à l'œuvre (creusement explosif, convections, ...), l'IA devient incapable de gérer pour la simple raison qu'elle n'intègre rien des processus atmosphériques.

Le nowcasting des centres météorologiques porte sur des situations critiques où l'expertise humaine reste déterminante. L'IA, quant à elle, intègre(*) très probablement le processus d'assimilation des données, notamment lors de sa première phase : le calibrage et l'exclusion des données d'observation.

 

(*) : elle l'intègre déjà et son importance dans cette partie du process s'amplifiera certainement via de nouvelles voies.

 

Je pense que ton vocabulaire est par moment imprécis.

 

Une méthode statistique ne "lit" pas les équations de la physique, mais est calibrée sur la réalité. La réalité étant  liée aux équations de la physique (raisonnement de physicien), la méthode statistique a donc des résultats cohérents avec les équations de la physique. S'il y a cohérence, c'est qu'il y a prise en compte implicite.

Les méthodes IA sont des méthodes statistiques particulières, qui se calibrent tout seul, mais la phrase au-dessus reste valable. Il y a prise en compte implicite des équations de la physique.

Par contre, il n'y a pas intégration (sommation) des équations locales qui est ici un langage de mathématiques appliquées.

 

Pour moi, la faiblesse clé des méthodes statistiques (IA incluses) est qu'elles ne sont pas adaptées à la cartographie.

Pour une certaine demande, les méthodes statistiques et notamment méthodes IA sont bienvenues, oui, pour une certaine demande : les gens qui ne font jamais de cartes.

Modifié par Cotissois 31
Lien à poster
Partager sur d’autres sites

Posté(e)
Aubagne (13400)
Il y a 4 heures, Cotissois 31 a dit :

Je pense que ton vocabulaire est par moment imprécis.

 

C'est fort possible.

 

Il y a 4 heures, Cotissois 31 a dit :

Une méthode statistique ne "lit" pas les équations de la physique, mais est calibrée sur la réalité

 

C'est ce que j'ai écrit me semble-t-il.

 

Il y a 4 heures, Cotissois 31 a dit :

Les méthodes IA sont des méthodes statistiques particulières, qui se calibrent tout seul, mais la phrase au-dessus reste valable. Il y a prise en compte implicite des équations de la physique.

 

Peut-être.

Google décrit lui-même le process en expliquant que son IA scanne, par exemple, les données radar sur plusieurs années afin de tirer l'évolution d'un paquet pluvieux (quelle que soit sa taille) isolé ou en grappe / cluster ou autre pour les prochaines heures. L'algo prend simplement les images radar chronologiquement et apprend par le changement qui s'est effectué à l'image suivante. Google explique que son algo reste viable sur environ 6h en atmosphère stable et espère parvenir à terme à 12h.

Naturellement, ce sont des processus physiques sous-tendus par des équations physiques que traduisent ces images. Je n'irai pas à dire qu'il y a pour autant prise en compte des équations physiques pour ce type d'IA.

Pour l'assimilation, on reste fondamentalement bien que ce soit amélioré, sur de la statistique de comparaisons (je n'ai jamais été statisticien et mon vocabulaire est probablement inadapté).

Lien à poster
Partager sur d’autres sites

Posté(e)
Aubagne (13400)

Le 21 avril, le DWD intégrera une mise à jour mineure à ICON, estampillée 2.6.0.

 

Intégration de nouvelles sources satellitaires à l'assimilation avec impact positif en sortie, essentiellement en Europe où ce nouveau flux de données sera le plus abondant.

Corrections sur les calculs de l'humidité des sols sous des surfaces enneigées ; l'impact est faiblement positif pour nos régions européennes au niveau de RH2m, plus important en zones polaires.

Correction sur le calcul de la CAPE et de la CIN qui étaient modélisées légèrement inférieures à la réalité observée.

Avec ICON-EU (det), un nouveau champs sera ajouté aux grib : CEILING. La plus basse hauteur (plafond) d'une couche nuageuse occupant au moins 50% du ciel. (par rapport au niveau de la mer).

 

Mise à jour encore plus mineure pour COSMO D2

 

  • Merci 1
Lien à poster
Partager sur d’autres sites

Posté(e)
Aubagne (13400)

Tout à fait puisqu'elle compare l'image t à l'image t-1 pour apprendre l'image t+1.

On pourrait prendre des tableaux de peinture où chaque artiste filmerait chaque pose de peinture. L'IA analyse chaque image chronologiquement pour apprendre ce que fait un artiste. L'IA sera certainement capable de créer un tableau original ou d'imaginer la suite d'un tableau réel mais peut-on dire qu'elle suit une démarche artistique ?

Ici, peut-on dire que l'IA intègre les processus atmosphériques pour déterminer l'évolution future d'un système ? C'est une question de point de vue. Si je te comprends correctement, les images analysées par l'IA sont issues de processus physiques. Pour ces images sources, je suis d'accord avec toi. Pas pour l'IA car pour moi elle ne considère aucun processus physique dans son apprentissage ou dans sa façon de déterminer l'évolution du système. La physique intervient (pour moi j'entends) trop indirectement via un intermédiaire (l'image) qui coupe le lien. Il me semble que c'est dans cette coupure que nous divergeons.

  • J'aime 1
Lien à poster
Partager sur d’autres sites

Posté(e)
Aubagne (13400)

Pas pu assister à la session de ce matin sur IFS 47r1 ! L'un de vous y a-t-il assisté ?

Jusqu'à présent ces meetings étaient enregistrés et on pouvait y assister en différé, en perdant l'interactivité bien sûr.

Là, ce n'est apparemment plus possible depuis la nouvelle interface (*), je viens de poser la question s'ils ont prévu une solution.

Demain à 14h30 (UTC, soit 16h30), seconde session : https://bluejeans.com/581084348 (accès ouvert sans enregistrement particulier)

Deux autres sessions suivront fin mai mais qui porteront toujours sur IFS 47r1 mais sur d'autres aspects.

 

(*) : ECMWF utilise dorénavant la plate forme bluejeans, gratuite mais non libre. :(

Lien à poster
Partager sur d’autres sites

Le 16/04/2020 à 19:22, _sb a dit :

On pourrait prendre des tableaux de peinture où chaque artiste filmerait chaque pose de peinture. L'IA analyse chaque image chronologiquement pour apprendre ce que fait un artiste. L'IA sera certainement capable de créer un tableau original ou d'imaginer la suite d'un tableau réel mais peut-on dire qu'elle suit une démarche artistique ?

 

Je comprends ce que tu veux dire.

 

Je retiens surtout que les modèles déterministes ont des activations on/off de processus physique.  C'est en ce sens que je vois le "inclure"/"intègre".

Les méthodes statistiques n'ont pas ce problème.

 

Sinon tu vois où le programme de ces sessions ? Une session sur IFS 47r1, vu comme çà, ça ressemble à un truc expert, non ?

Modifié par Cotissois 31
Lien à poster
Partager sur d’autres sites

Posté(e)
Aubagne (13400)
il y a 51 minutes, Cotissois 31 a dit :

Sinon tu vois où le programme de ces sessions ? Une session sur IFS 47r1, vu comme çà, ça ressemble à un truc expert, non ?

 

Par mail, mais je suppose que ce doit être quelque part sur le site.

Tu as la page d'entrée du cycle 47r1 : https://confluence.ecmwf.int/display/FCST/Implementation+of+IFS+Cycle+47r1

 

Non, ces sessions ne sont pas pour expert bien qu'il y ait beaucoup d'experts présents et qu'il vaut mieux avoir quelques connaissances globales sur le sujet. Bon celle-là je ne la connais pas du coup mais habituellement ces sessions durent environ 45 mn puis suivent 15 à 20mn de questions réponses. Ce sont des présentations générales :

- présentation des changements apportées ;

- présentation des résultats sur les vérifications engagées.

C'est évidemment en anglais. C'est habituellement Andy Brown qui s'y colle.

 

Il existe des sessions plus poussées où il vaut mieux être expert en effet ; celles-ci sont généralement payantes ou alors faut pouvoir aller à Reading (et parfois payer également). Elles demandent un haut niveau, sont ciblées sur un sujet précis et le public présent appartient le plus souvent aux centres nationaux, instituts / universités ou entreprises spécialisées.

ECMWF publie certaines sessions en différé, naturellement sans interactivité ni matériel pédagogique, uniquement les slides et/ou les enregistrements vidéos de l'intervenant :

Depuis le temps que je suis présent sur le site d'ECMWF, je découvre régulièrement du contenu. Auparavant, je pensais que c'était volontaire pour de la rétention d'informations (obfuscation), je penche désormais pour un défaut d'organisation (site gigantesque et tentaculaire). Quand on échange avec eux, ils sont toujours « heureux » d'avoir des interlocuteurs externes « au sérail ». ;)

Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...