
joan
Membres-
Compteur de contenus
22 -
Inscription
-
Dernière visite
Type de contenu
Profils
Forums
Calendrier
Tout ce qui a été posté par joan
-
Un beau halo 22° était visible aujourd'hui à Mérignac aux alentours de 14h15. L'ensemble du cercle était visible.
-
Aaaah, foudre ou pluie... Je n'avais pas pensé à ça, ça expliquerai l'orientation. Du coup j'ai investigué un peu plus et j'ai découvert que la photo du dessus présente en fait un radôme, c'est l'abri et la parabole est à l'intérieur . (Utile pour protéger du vent lorsqu'elle tourne par exemple) Super merci
-
Exactement ! Je comprends pas très bien pourquoi elle est orientée de cette façon... (atmosphère, ballons sondes ce serait plus vertical) Ni pourquoi elle tourne...
-
Bonjour, Peu avant d'arriver sur l'aéroport de Bordeaux-Mérignac, en sortant de la rocade, il y a un bâtiment MétéoFrance supportant sur son toit une antenne parabolique d'assez grande dimension ( je dirai au moins 3m de diamètre) jaune. Deux choses m'interpellent à propos de cette parabole: .Elle est horizontale (oreille orientée vers l'horizon) .Elle est en rotation constante. (Il se trouve qu'aujourd'hui elle ne tournait pas, mais généralement je dirai qu'elle fait les 360° en 1min30 à 2min). Sachant cela, à quoi peut-elle bien servir ? /emoticons/biggrin@2x.png 2x" width="20" height="20">
-
Merci beaucoup pour toutes ces précisions ! /emoticons/tongue@2x.png 2x" width="20" height="20">
-
Bonjour, Des efforts sont ils fait pour obtenir des prévisions sous maille ? L'état de l'atmosphère à l'intérieur d'un bloc de calcul à un moment donné, est supposé homogène en première approximation. Nous savons que ce n'est pas le cas même si cette approximation permet de faire de bonnes prévisions. (à ce propos, quelle est la résolution maximale utilisée en pratique, dans les runs les plus précis des modèles les plus fins ?) Lorsque le modèle fait une prévision donnée, pourrait-on le coupler avec un autre modèle plus local, peut-être basé sur des équations différentes, qui pourrait tenter de prévoir le temps au dessus d'un seul quartier par exemple ? Est-ce que ce genre d'exercice est pratiqué ? Si oui quelles en sont les limites (par exemple la diminution obligatoire du pas de temps) ? La puissance des ordinateurs devrait permettre des prévisions à plus long terme, est-il envisagé conjointement d'augmenter la résolution ou cette dernière est-elle fortement limitée par le nombre des stations météo existantes ? merci !
-
J'ai trouvé que c'était un bon reportage, en particulier le dernier chapitre, ou l'on s'interroge sur le coût humain du principe de précaution... Les points exposés ( on ne peut pas vraiment dire débattus puisque c'était principalement de la contre argumentation) sont nombreux et cruciaux. On perd un peu le bénéfice d'une bibliographie pour qui voudrait vérifier certains chiffres. Peut-être un jour aurons nous un reportage alternant les points de vues sur les diverses polémiques...
-
Je ne sais pas trop si peut comparer un risque géopolitique avec un risque de changement climatique global. En effet si nous nous envoyons des bombes dessus, c'est notre problème. La Terre survivra à l'espèce humaine. Du point de vue des sociétés, il y a peut-être effectivement des dangers plus urgents que le RC. Cependant, nous ne sommes pas les seuls à habiter là. Nous sommes en coloc avec un grand nombre d'espèces animales et végétales... Si jamais le RC est bien anthropique, alors nous modifirions également leurs chances de survie globale. C'est sûr que les espèces vont et viennent à l'échelle des temps géologiques. De tous temps des espèces de poissons et d'oiseaux ont disparus sans que l'homme y soit pour quelque chose (peut-être pas dans le même laps de temps ?). Et on peut même penser que si la Terre se réchauffe ou se refroidit de 10°, la vie trouvera toujours un moyen de s'en sortir sous une forme ou une autre. On peut penser que l'espèce humaine doit passer avant tout, qu'elles qu'en soient les conséquences, ou bien que même si nous valons plus qu'un bète insecte, nous nous devons de faire de notre mieux pour ne pas interférer avec des niches écologiques qui ne sont pas les notres... C'est peut-être porter le débat un peu trop du côté philosophique...
-
Je pense que ce que ne transcris pas très bien l'analogie, c'est que les décisions de "précaution" que nous allons prendre, vont surtout se faire au détriment à court terme de populations moins favorisées... 2 milliards de chinois et d'indiens veulent de l'énergie et une voiture, nous nous en avons tous déjà une, mais comme nous venons de nous rendre compte qu'il y a un risque que ce soit très mal, nous devons prendre la décision de les empécher d'accéder à ce luxe... C'est très difficile et culoté de notre part. C'est un peu comme si nous avions des passagers à l'arrière qui vont louper le film si nous ralentissons trop. Nous leur disons, hé, tu préfère être sûr d'arriver en vie éventuellement en retard, ou prendre le risque de ne pas arriver du tout ? Et eux de rétorquer, Facile pour vous vous l'avez déjà vu le film... Et malgré tout je pense que ce serait une bonne chose de diminuer drastiquement nos emissions de carbone. De toute façon l'ensemble de l'économie est basée sur la perception d'une nature illimitée, et il ne peut être que bénéfique que tout le monde se rende compte à quel point c'est érroné.
-
Eclipse totale de Lune
joan a répondu à un sujet de TreizeVents dans Météo, environnement et société
Aaaaaargh... /emoticons/biggrin@2x.png 2x" width="20" height="20"> Entre la comète McNaught invisible et l'eclipse, on est vraiment pas gatés... Par ailleurs, sur le site meteoblue, il y a un essai d'estimation de la visibilité astronomique en fonction des villes... Sur une échelle de 1 à 5, il y aurait peut-être un petit mieux sur le coup de 8 heures UTC...(Sauf qu'on peut pas cliquer pile sur Bordeaux... /emoticons/biggrin@2x.png 2x" width="20" height="20"> ) -
Eclipse totale de Lune
joan a répondu à un sujet de TreizeVents dans Météo, environnement et société
Ca tombe bien AstroJB excelle dans ce domaine /emoticons/biggrin@2x.png 2x" width="20" height="20"> Quel suspense insoutenable, pourvu que GFS soit dans le vrai ! -
Pour ce que j'en sais, les réseaux de neurones fonctionnent sur un concept un peu différent, bien que très intéressant. En s'imbibant profondémment des données pour en extirper des relations de cause à effet. Le système résultant peut finalement être comparé à un super statisticien qui pourrait deviner l'avenir en se basant sur toutes ces statistiques passées et les données actuelles. Des sortes d'educated guess très avisés. ils sont plus "intelligents" que les automates cellulaires, car ils fonctionnent un peu comme nous dans notre façon d'apprendre par l'expérience. L'automate cellulaire est lui au contraire très bète mais il a l'avantage d'être directement disponible, sans phase d'apprentissage. Par contre ils fonctionnent aussi sur le principe d'emmergence: c'est en codant des opérations très simples au niveau de chaque connexion entre les neurones, que le comportement complexe global apparait. Ils sont très utilisés dans les systèmes d'apprentissages, reconaissance de caractères, fluctuations boursières etc... Des cas où l'on a pas besoin de forcément comprendre la mécanique sous jacente pour tirer des conclusions sur les tendances globales... On notera l'usage du terme prediction au lieu de prevision, je ne sais pas si c'est vraiment significatif, mais c'est curieux. J'ai trouvé une thèse complète en accès libre sur la prédiction de l'intensité des cyclones via les neural networks : http://grad.uprm.edu/tesis/veneroscastro.pdf j'avoue que je n'ai pas encore tout lu /emoticons/smile@2x.png 2x" width="20" height="20"> (j'ai déjà mon Techniguide de la Meteo à apprendre par coeur pour combler mes lacunes /emoticons/biggrin@2x.png 2x" width="20" height="20"> )
-
Bonjour, l'étude de la prévisibilité c'est encore un autre problème je pense. On peut vouloir étudier un système statistiquement, en partant de diverses conditions initiales fictives et en étudiant les évolutions possibles, ou on peut espérer que notre modèle soit suffisament précis pour que si l'on utilise des conditions initiales réelles, on obtienne des résultats plus ou moins proche de la réalité. La météo étudiant un système chaotique, il est clair que . D'une part les différences infinitésimales entre les conditions initiales réelles et celles utilisées dans le modèle peuvent amener à des différences énormes après un certain temps. . L'imperfection d'un modèle par rapport aux lois régissant le système provoque aussi une divergeance, qui s'accumule avec la précédente. (En étudiant les divergences entre la prévision et le réel, difficile de dire si elles proviennent de l'imperfection du modèle ou de l'imprécision des conditions initiales.) . Etant en face d'un système réel et non un objet mathématique, on ne peut l'étudier qu'à travers ses modélisations... (En terme de chaos, on ne peut pas calculer le temps de Lyapounov de l'atmosphère, mais seulement de ses modèles. En effet on ne peut pas tester en grandeur nature ce qu'aurais donné l'atmosphère avec des conditions initiales légèrement différentes dans une situation donnée... ) Quand il écrit : je suis assez d'accord. Pour mettre en perspective avec le concept d'emergence, on se trouvera alors dans une situation où on essaiera de comprendre un phénomène macroscopique à partir de lois générales sur des composantes deux niveaux d'emergence en dessous... Maintenant savoir si le climat est chaotique de la même façon que la météo ( à une différence d'échelle spatio-temporelle près) c'est un autre débat... qui a déjà de nombreux sujets ouverts dans le forum /emoticons/sad@2x.png 2x" width="20" height="20"> En ce qui concerne la simulation par automates cellulaires de phénomènes météorologiques, elle souffrerait bien sûr des même limites intrinsèques que la modélisation classique, puisque son objet d'étude est un système chaotique.
-
Quelle coïncidence ! Le magazine "La Recherche" fait justement sa 'une' de février sur l'emergence. (avec en couverture la simulation d'une avalanche) Le concept de l'emergence est absolument au coeur du fonctionnement et du succès des automates cellulaires. Ce concept est connu au moins depuis les années 70 et Conway, mais il aura fallu qu'un Prix Nobel de Physique s'y interresse pour qu'il passe un peu plus au devant de la scène... Je vous invite donc à lire le dossier, qui permettra bien mieux que moi d'expliquer comment et pourquoi une modélisation par automates cellulaires est fondamentalement différente d'une modélisation classique, et pourquoi le sujet intéresse de plus en plus de monde. En fait Robert Laughlin, sur les travaux duquel le dossier est basé, va même plus loin. Il postule dans un premier temps que toutes les lois macroscopiques sont en fait des emergences de lois sous-jacentes. (elles emergent de l'interaction des composants sous jacents). Cette approche est tout à fait compréhensible et je pense même déjà étudiée en biologie ( cellules individualistes -> organismes -> troupeaux -> écosystèmes ) et en sociologie (individus -> sociétés -> groupements de pays, etc...) Par contre là où il va plus loin, c'est avec le concept de l'imbrication infinie. Il n'y aurait pas selon lui de niveau ultime, sur lequel serait basé toutes les emergences... Pour en revenir au sujet, si les lois macroscopiques sont des emergences, cela signifie qu'elles peuvent être émulées par des automates cellulaires, et ce probablement plus facilement qu'en essayant de craquer leur code par en haut... voilà. désolé de m'enthousiasmer, j'espère que vous lirez le dossier .
-
à propos de l'étude sur la surmortalité due à la canicule en 2006, tiré du document : euh... Une étude comparative qui compare des valeurs absolues ? Sans tenir compte du tout de la variation de l'effectif ? Sachant qu'on a plus de 500 000 décès par an en france, et un solde migratoire de 100 000 individus, il paraît indispensable d'en tenir compte avant d'annoncer un surplus au mort près. (Insee) D'autre part, retirer une année particulièrement haute pour ne pas fausser les calculs ne me paraît pas très rigoureux, de même que faire des estimations de variation avec seulement 4 valeurs de référence. (Pourquoi ne pas simplement faire la moyenne 2001-2006 (inclu) et indiquer les variations ?) Notez bien que je ne cherche aucunement à réduire l'impact de la canicule de 2006. Il se pourrait tout à fait que le bilan soit plus grave qu'annoncé. ( Ce que semblent grossièrement indiquer les chiffres de la mortalité globale) Mais je suis circonspect sur les méthodes statistiques utilisées...
-
Bonjour, Concernant les nuages, les papiers que j'avais trouvé sont issus de l'informatique ludique. (Moteurs graphiques pour les jeux etc...) L'ensemble de ces recherches semblent se baser sur les travaux de Dobashi, mais impossible de mettre la main sur une version gratuite de son article fondateur. (le premier lien dans cette recherche sur scholar) J'ai été au départ très impressioné par les images de cet article, malgré le peu de détails dans le texte. Cependant l'illustration qu'ils présentent comme "rendered using our system" est en fait une vraie photo sur laquelle je suis tombé plus tard... ça la fout mal (Peut-être ce n'est qu'un brouillon qui aura filtré...) La plupart des articles sur les nuages sont très orientés sur le rendu graphique réaliste et utilisent des méthodes complémentaires, parfois un mix d'automates cellulaires et de méthodes traditionelles. exemple : Fast Rendering of Dynamic Clouds Concernant la simulation météo en général, je suis en train d'essayer de regrouper un panel de références pour voir ce qui à été fait à toutes les échelles, de la turbulence au climat. Un article qui devrait déjà bien aider : Discrete-element method simulations: from micro to macro scales Sur le plan spécifique de la Couche Limite Atmosphérique, et en particulier de la zone en contact avec le relief, je suis assez optimiste sur les méthodes Lattice-Boltzmann (toutes réserves gardées vu mon peu de recul). En effet un des avantages avancés est la facilité d'intégration des obstacles au fluide dans le modèle. Il suffit de spécifier des zones dont les règles de collision sont différentes (règles spécifiques de 'bordures') et le tour est joué. La difficulté de tenir compte d'un relief arbitraire dans la simulation classique est beacoup plus importante. (Cette aspect pratique vaut aussi pour une interface entre deux fluides, je n'ai pas encore du tout approfondit ce domaine...)
-
Il y a deux possibilités, soit les cellules sont mobiles et se déplacent dans un environnement qui ne fait pas partie du système modélisé ( un système multi-agents mobiles par ex.), soit les cellules sont fixes et remplissent l'ensemble du système modélisé. Dans le cas de la modélisation des fluides par les méthodes Lattice-Boltzmann on est dans le second cas. L'article de wikipédia n'est pas très clair là dessus, mais dans ce cas précis l'automate cellulaire ne régit pas le comportement des particules individuelles en elles-même, mais de la surface sous-jacente. On a entièrement divisé l'espace en petites zones qui vont avoir un "état" exprimé sous la forme d'une probabilité de vitesse/orientation et de pression. (mais les zones en elles-même ne bougent pas, elles expriment le mouvement qu'on devra appliquer si une particule passe par là) L'état va être calculé en fonction de règles qui sont entièrement locales. La valeur d'une cellule à l'étape suivante va uniquement dépendre des valeurs entrantes et sortantes de ses voisines, en fonctions de lois de conservation de mouvement, d'énergie, etc... On a un champ de vecteurs qui est mis à jour au niveau microscopique (règles locales de collision et de propagation), ce qui a des effets au niveau macroscopique (trajectoire des particules). En ce qui concerne les nuages, j'ai effectivement trouvé plusieurs références sur la dynamique de formation/évolution basés sur des automates cellulaires plus classiques. (avec des états binaires et non pas continus) Le problème de la couche limite atmosphérique est très intéressant, je ne manquerais pas d'approfondir mon investigation dans cette branche
-
Ah ? Dans ce cas j'ai fait une confusion... Je pensais que le calcul était réalisé en une passe avec l'ensemble des données d'entrée. En fait ce que je voulais dire par grande échelle, c'est tout ce qui est plus global que le niveau d'une cellule. Un modèle régional va aussi modéliser des comportements de grande échelle pour moi. C'est justement sur l'assertion "la réalité ne veut pas se laisser se découper en morceaux indépendants" que je m'intérroge... Dans le calcul l'état d'un morceau ne pourrait-il pas n'être régit que par les interactions avec l'environnement proche ( et pas par une équation de niveau supérieur et de portée plus générale) Je ne suis plus trop sûr pour la météo ou le climat /emoticons/smile@2x.png 2x" width="20" height="20"> , (votre scepticisme à tous me gagne...) mais dans le cadre d'un phénomène précis, je pense que cela pourrait être envisageable. La formation des nuages par exemple, ou le déplacement d'un grélon dans un cumulonimbus... Je vais chercher de ce côté là. (En ce qui concerne le perceptron et les réseaux de neurones en général, leur fonctionnement prédictif est surtout statistique si mes souvenirs sont bons...(ils apprennent à reconnaitre les situations) Ce n'est donc pas le même concept.)
-
Ok, merci de me corriger si besoin, La modélisation classique décrit le système par un ensemble de variables et un ensemble d'équations qui établissent des relations entre ces variables. (Pour nous les variables vont être la t°, la pression, les coordonnées etc...) (Certaines variables sont des variables d'entrée, d'autres de sortie, d'autres sont aléatoires, etc...) Nous résolvons le système à l'aide des valeurs réelles des cellules. C'est à dire que chaque cellule va devenir une contribution à un ensemble géant d'équations, dans lequel il ne restera plus que les variables de sorties qui seront inconnues. En résolvant ce système géant, c'est à dire en estimant les données de sortie, nous faisons passer l'atmosphère d'un état à un autre. Les principales différences tiennent au fait que dans cette modélisation classique, . Les données sont toutes mutualisées avant la résolution. . Le système est construit pour modéliser des comportements dynamiques de grande échelle. D'autre part, j'ai fini par trouver un exemple en dynamique des fluides: Les méthodes Lattice-Boltzmann. Au lieu de résoudre les équations représentant les propriétés à grande échelle du système, elles se concentrent sur les interactions individuelles de particules fictives. A noter que je n'ai aucun avis à priori sur l'efficacité d'une méthode par rapport à l'autre, je ne fais que me poser des questions... En particulier, je pense que cela pourrait être intéressant pour exprimer l'évolution statistique du système, mais difficile pour établir des prévisions du monde réel... merci
-
Merci pour vos réponses, Un peu comme pour mes propres recherches, il y a très peu d'articles traitant à la fois des réseaux de neurones et de la prévision en météorologie... (Mis à part sur la croissance de végétation ou sur des situations relevant plus de sciences des écosystèmes) Je vais tenter de mieux préciser ce qui me parait fondamentalement différent. Dans les techniques actuelles, nous avons un ensemble d'équations représentant le comportement de l'atmosphère vue comme une entité. Celle-ci étant un système extrèmement complexe, on se retrouve avec une description formelle d'une complexité incroyable. Selon la formule de Vilhelm Bjerknes trouvée au hasard d'un pdf: on doit connaître avec une précision suffisante les lois selon lesquelles un état de l'atmosphère se développe à partir de l'état précédent. J'en conclu que le modèle est très détaillé et qu'il fonctionne sur la globalité de l'atmosphère, resolvant cet énorme système une fois à chaque étape temporelle. C'est donc une conception Top-down, on fait un calcul global qui nous donne des résultats locaux. Dans une modélisation par Automates Cellulaires, il n'y a pas de représentation de l'atmosphère en tant que telle. On se concentre seulement sur les interactions locales. Cela simplifie énormément les calculs, mais on doit les faire pour chaque cellule. On se retrouve avec une résolution Bottom-up, les interactions locales font emmerger des tendances globales, tendances qui n'avaient pas été codées explicitement dans le système. L'avantage principal est que les interactions locales sont mieux connues et plus faciles à implémenter que les lois régissant le système entier puisqu'elles en sont un sous ensemble. L'autre avantage est conceptuel, la modélisation est moins ad-hoc dans sa représentation du système complet. Je suis aussi à peu près sûr qu'il y aurait un avantage du point de vue de la complexité générale du calcul... Oui ! je les ai vus après avoir posté mon message initial. C'est excellent, une vraie mine d'informations Merci
-
Bonjour, D'après ce que j'ai compris du débat : Tout le monde est à peu près d'accord sur le fait que les températures augmentent. Tout le monde est aussi à peu près d'accord sur le fait que l'émission de gaz à effet de serre augmente la température dans une certaine mesure. Le problème est de savoir : . L'impact réél sur le climat de l'émission par l'homme de gaz à effet de serre. -> L'impact est-il négligeable par rapport aux fluctuations naturelles ou au contraire est-ce qu'il peut induire lui-même une variation sensible ? . La fiabilité des modèles de climatologie. -> Ces modèles sont-ils sujet à des fluctuations chaotiques comme les modèles météorologique ? (à une différence d'echelle près) Si non, ont-ils d'autres limitations ? Toujours d'après ce que j'ai compris, un modèle climato va fournir gloablement le même résultat quelles que soient les conditions initales météorologiques. Il existe cependant peut-être d'autres variables spécifiques à la climatologie qui rendent le modèle sensible à leurs valeurs initiales... Pour cela il y a déjà un topic sur les limites des modèles qui est très intéressant. Les modèles indiquent que l'émission des gaz à effet de serre à un réel impact. Le tout est maintenant de savoir dans quelle mesure ces modèles reproduisent fidèlement la réalité, et dans quelle mesure leurs prévisions à long terme sont fiables...
-
Bonjour, Je préfère poser ma question ici plutôt que dans le forum Question-Réponses, si c'est innaproprié n'hésitez pas à le déplacer... Comme c'est mon premier message, mini présentation : je suis informaticien de formation et je me suis découvert une passion récente pour la météorologie/climatologie. J'ai exploré un certain nombre de documents en ligne et d'ouvrages de vulgarisation, mais mes recherches se font un peu à tatons... Je souhaiterais savoir si il a été envisagé d'utiliser les Automates Cellulaires pour la modélisation des phénomènes locaux, de la météo, ou du climat. L'étude des Automates Cellulaires en informatique à permis de montrer qu'un ensemble d'éléments indépendants et autonomes, animés par des règles de comportement simples et identiques pour tous, pouvait faire surgir des comportements globaux au système. ( L'exemple le plus connu est le Game of Life de Conway, des règles ultra simples et des comportements emmergeants) Plus récemment il a été question d'utiliser les Automates Cellulaires pour simuler des systèmes complexes, dans des domaines aussi variés que la conscience artificielle, les feux de forêts, ou la propagation des virus. Serait-il possible de les utiliser pour la météorologie ? J'ai cru comprendre que l'on resolvait l'ensemble des équations du modèle pour une coordonée x,y,z au temps t, en fonction des conditions initiales du temps t-1. ( Sans parler pour l'instant de paramétrisations ou de forçages) Ma question porte principalement sur l'implémentation de cette résolution. Dans une conception Automates Cellulaires, l'état d'une cellule ( donc ici, d'un cube de la maille ) au step n, dépend de l'état, au step n-1, des cellules environnantes. (On peut y inclure la cellule elle-même ou pas, inclure seulement les 6 cellules adjacentes ou tout le voisinnage de 26 cellules, ou encore une zone plus large en pondérant les effets avec la distance) Chaque cellule est indépendante et réagit de façon déterministe aux conditions de son entourage. Les phénomènes sous maille pourraient être ainsi intégrés au cas par cas de façon interne et autonome. (j'avoue ne pas avoir encore compris comment ils étaient intégrés dans les implémentations actuelles) Il est possible d'injecter automatiquement une certaine spécialisation géométrique aux cellules, de façon à ce que leur programme soit au plus près de la réalité. (Par exemple une cellule 20 niveaux sous l'océan ne répondrait pas de la même façon à une augmentation de température qu'une cellule à 20 niveaux au dessus de la surface.) Je ne sais pas si cela représenterait une simple différence d'implémentation ou de conception, si ce serait envisageable ou non, c'est là le but de mon message. Je recherche donc des informations sur les méthodes utilisées concrètement dans la résolution des modèles en météo/climato, éventuellement un logiciel open-source permettant de faire des simulations à petite échelle... ou toute information sur le sujet. Merci d'avance