Sebaas Posté(e) 31 mai 2007 Montpellier (34), Montreuil (93) ou Ciran (37) Partager Posté(e) 31 mai 2007 Par François CASTERAN (AFP) - jeudi 31 mai 2007, 17h58 TOULOUSE - Les météorologues de Météo-France pourront désormais prévoir un phénomène orageux très localisé dans une vallée de montagne et suivre son évolution, grâce à un nouveau supercalculateur, qui a été inauguré jeudi à Toulouse et servira bientôt à mener des recherches sur le réchauffement climatique. A l'aide d'un nouveau logiciel baptisé Arome, ce supercalculateur japonais NEC SX8R, capable de traiter 35,2 milliards d'opérations informatiques par seconde, permettra d'affiner les prévisions sur des "mailles" (zones) de 2,5 km de côté contre 10 km actuellement, a déclaré jeudi à Toulouse le Pdg de Météo-France, Pierre-Etienne Bisch. "Nous repoussons les limites de l'art", a-t-il dit en présentant à la presse la nouvelle machine, qui occupe une surface totale de 110 m2 et figure parmi les 25 supercalculateurs les plus puissants d'Europe. Le nouveau supercalculateur est 5 fois plus performant que les machines de la génération précédente comme le Fujitsu VPP5000. Et sera même 21 fois plus performant avec l'arrivée de sa nouvelle version, prévue en 2009. Avec ce supercalculateur, Météo-France sera en mesure de prévoir des phénomènes dangereux, comme des orages et des brouillards, sur des territoires restreints. Pour M. Bisch, qui a inauguré le NEC SX8R aux côtés du vice-président de NEC Corporation, Toshiyuki Furui, ce type d'information peut être extrêmement important, notamment pour des responsables de la gestion du trafic aéroportuaire. En outre, la précision des prévisions sur des zones limitées (à l'échelle d'une ville ou d'un aéroport) permettra une meilleur gestion des alertes météo à l'échelle locale. Météo-France, qui s'est doté du nouvel appareil pour accroître sa capacité de calcul conformément à son contrat d'objectifs signé avec l'Etat pour 2005-2008, paiera un loyer annuel de près de 4 millions d'euros à NEC pendant une période minimum de cinq ans. Le logiciel de modélisation Arome, fruit d'une coopération entre chercheurs et 17 services météorologiques européens, sera, dans un premier temps, exploité sur un territoire comprenant la France et son domaine maritime. Il sera ensuite "couplé" aux modèles Arpège et Aladin qui effectuent des prévisions à plus grande échelle. Arome bénéficiera notamment des améliorations du système Arpège qui utilise désormais les nouveaux satellites MetOp. Selon Météo-France, Arome "n'est qu'une composante d'une stratégie d'amélioration du système complet de prévision". Mais le supercalculateur SX8R ne sera pas exclusivement dédié à Arome. Sa puissance de traitement permettra de nouvelles recherches sur le changement climatique pour mieux prendre en compte les effets des reliefs, des côtes et de la profondeur des mers sur la dynamique de l'atmosphère et des océans. Météo-France se servira également du supercalculateur pour effectuer vers 2010 de nombreuses simulations qui alimenteront le 5ème rapport du Groupe intergouvernemental d'experts sur l'évolution du climat (Giec) dont la publication est prévue en 2012. La société japonaise NEC, l'un des principaux fournisseurs mondiaux de réseaux à bande large et de logiciels d'entreprise, a déjà fourni son SX8R à deux autres instituts en Europe: l'Institut météorologiques autrichien (ZAMG) et le Centre de recherche aéronautique et spatiale néerlandais (LLR). Lien à poster Partager sur d’autres sites More sharing options...
Seiichi Posté(e) 31 mai 2007 Le Haut Breda (Le Pleynet -38580) 1450m / Bain-de-Bretagne Partager Posté(e) 31 mai 2007 :!: Impréssionnant !Merci de l'info :!: Lien à poster Partager sur d’autres sites More sharing options...
lolo44 Posté(e) 31 mai 2007 Partager Posté(e) 31 mai 2007 Les météorologues de Météo-France pourront désormais prévoir un phénomène orageux très localisé dans une vallée de montagne et suivre son évolution, grâce à un nouveau supercalculateur, qui a été inauguré jeudi à Toulouse et servira bientôt à mener des recherches sur le réchauffement climatique. A l'aide d'un nouveau logiciel baptisé Arome, ce supercalculateur japonais NEC SX8R, capable de traiter 35,2 milliards d'opérations informatiques par seconde, permettra d'affiner les prévisions sur des "mailles" (zones) de 2,5 km de côté contre 10 km actuellement, a déclaré jeudi à Toulouse le Pdg de Météo-France, Pierre-Etienne Bisch. Eh ben voila , il n'y aura plus de polémique dans le forum prévisions : ceux qui veulent savoir en hiver s'il va neiger dans leur ville auront la réponse ! /emoticons/biggrin@2x.png 2x" width="20" height="20">/emoticons/smile@2x.png 2x" width="20" height="20"> Lien à poster Partager sur d’autres sites More sharing options...
Aymeric33 Posté(e) 31 mai 2007 Bordeaux Partager Posté(e) 31 mai 2007 Très bonne nouvelle pour les stations de ski. Les sorties en montagne restent nombreuses en été et les orages y sont toujours très dangereux car souvent imprévisibles. Bonne nouvelle également pour nos bergers qui travailleront dans de meilleurs conditions. Lien à poster Partager sur d’autres sites More sharing options...
lds Posté(e) 1 juin 2007 Partager Posté(e) 1 juin 2007 Je serai curieux de savoir comment "cette bête" de course se place exactement par rapport aux machines de l'ECMWF, du metoffice ou des autres organismes météo. En France, le CEA reste toujours en tête, non? Pour ce qui est d'Arome et sans jouer les rabat-joie attention à ne pas se leurrer. Arome est un modèle à aire-limité donc entièrement dépendant du modèle global qui donnera les conditions aux limites. Si le modèle global est dans les choux, Arome le sera aussi forcément et ce malgrès sa maille et sa physique plus performante. Dans les situations délicates que les modèles globaux ont du mal à gérer il n'est pas évident qu'Arome apporte un plus... Lien à poster Partager sur d’autres sites More sharing options...
chris68 Posté(e) 1 juin 2007 Sainte-Croix-aux-Mines (68) - 340 m Partager Posté(e) 1 juin 2007 Peut-on imaginer, pour nous amateurs, des cartes modèles issues de cet Arôme dispo sur le Net ou ça sera niet? Lien à poster Partager sur d’autres sites More sharing options...
Météofun Posté(e) 1 juin 2007 Partager Posté(e) 1 juin 2007 Peut-on imaginer, pour nous amateurs, des cartes modèles issues de cet Arôme dispo sur le Net ou ça sera niet? T'as fumé là ou quoi ? /emoticons/wink@2x.png 2x" width="20" height="20">Sinon, pour préciser par rapport à ce que vient de dire lds et ceux qui voudrait faire la comparaison avec le NMM disponible sur Météociel. AROME disposera de son propre cycle d'assimilation de donnée, donc même si l'état initial du modèle global est mauvais, l’assimilation fine d’AROME à moyen, éventuellement, de rattraper le tire. Ce n’est pas le cas sur Météociel. Pour AROME, plus la situation est dynamique (plus les petites anomalies se déplacent rapidement), plus l’influence du modèle père est important. Pour comparer l'influence des conditions initiales, je vous conseille cette page. http://www.lamma.rete.toscana.it/wrf-web/index.html GFS et IFS (CEPMMT) initialise le modèle et les conditions aux limites, il ne dispose donc pas de cycle d'assimilation propre (donc similaire à Météociel). On voit bien l'influence de l'état initial dans ces conditions avec les différences que l'on observe entre les deux cas. Mais bon, c'est pas le sujet ... Lien à poster Partager sur d’autres sites More sharing options...
lds Posté(e) 1 juin 2007 Partager Posté(e) 1 juin 2007 T'as fumé là ou quoi ? /emoticons/biggrin@2x.png 2x" width="20" height="20"> Sinon, pour préciser par rapport à ce que vient de dire lds et ceux qui voudrait faire la comparaison avec le NMM disponible sur Météociel. AROME disposera de son propre cycle d'assimilation de donnée, donc même si l'état initial du modèle global est mauvais, l’assimilation fine d’AROME à moyen, éventuellement, de rattraper le tire. Ce n’est pas le cas sur Météociel. Pour AROME, plus la situation est dynamique (plus les petites anomalies se déplacent rapidement), plus l’influence du modèle père est important. Pour comparer l'influence des conditions initiales, je vous conseille cette page. http://www.lamma.rete.toscana.it/wrf-web/index.html GFS et IFS (CEPMMT) initialise le modèle et les conditions aux limites, il ne dispose donc pas de cycle d'assimilation propre (donc similaire à Météociel). On voit bien l'influence de l'état initial dans ces conditions avec les différences que l'on observe entre les deux cas. Mais bon, c'est pas le sujet ... Pardon d'avance pour le HS mais juste pour préciser à météofun que même l'assimilation d'Arome a ses limites. Dans une assimilation, l'état initial (ou ébauche) est "pondéré" par les obs. Si l'ébauche est dans les choux, il y a peu de chance que l'état analysé soit correct, malgré les obs.. Il est clair que c'est un réel "plus" d'avoir un système d'assim mais là encore, il ne faut pas se bercer d'illusions, la dépendance à la qualité de l'état grande échelle restera assez importante (même si elle est bien moindre qu'en l'absence d'assimilation) fin du HS (désolé les modos) Lien à poster Partager sur d’autres sites More sharing options...
Météo-Nature Posté(e) 1 juin 2007 Partager Posté(e) 1 juin 2007 Information également disponible ce matin dans le Télégramme! Un plus pour MF! Lien à poster Partager sur d’autres sites More sharing options...
JeromeR28 Posté(e) 1 juin 2007 Partager Posté(e) 1 juin 2007 Je trouve ça sympa un supercalculateur pareil. Mais n'oublie-t-on pas un paramètre essentiel pour le faire fonctionner au mieux de ses performances ? Un modèle a besoin de deux choses vitales pour fonctionner et fournir un résultat : 1/ un programme (contenant toutes les équations, etc) 2/ des... des... des... des.. qu'on effectue chaque jour au sol et en altitude. (non, on n'est pas à "Questions pour un champion" lol) Si le point 2 est toujours aussi pauvre en quantité, quel est l'intérêt d'augmenter les performances d'un calculateur ? Je crains que ça ne change pas beaucoup le résultat... à moyen terme du moins. Lien à poster Partager sur d’autres sites More sharing options...
Previ83D Posté(e) 2 juin 2007 Partager Posté(e) 2 juin 2007 Si le point 2 est toujours aussi pauvre en quantité, quel est l'intérêt d'augmenter les performances d'un calculateur ? Je crains que ça ne change pas beaucoup le résultat... à moyen terme du moins. Ca sert à interpoler, en temps et en espace.Si tu veux un point de mesure par maille, y'en faudrait presque 10 000 sur la France à interroger toutes les 20 minutes. Ne connaissant pas les paramètres d'Arome, je suppose qu'il en faudrait environ 16 fois plus avec un pas de temps inférieur à ce qui existe actuellement, c'est à dire acheter un parc de stations (qui n'existent pas encore) de plus de 100 000 stations. C'est les moyens de calcul qui permettent de s'en passer. Lien à poster Partager sur d’autres sites More sharing options...
JeromeR28 Posté(e) 2 juin 2007 Partager Posté(e) 2 juin 2007 Ca sert à interpoler, en temps et en espace. Si tu veux un point de mesure par maille, y'en faudrait presque 10 000 sur la France à interroger toutes les 20 minutes. Ne connaissant pas les paramètres d'Arome, je suppose qu'il en faudrait environ 16 fois plus avec un pas de temps inférieur à ce qui existe actuellement, c'est à dire acheter un parc de stations (qui n'existent pas encore) de plus de 100 000 stations. C'est les moyens de calcul qui permettent de s'en passer. Justement, c'est bien cela qui me chiffone. Je ne mets pas en doute la puissance de ce supercalculateur et du programme qui tourne dedans.Mais si le nombre de mesure n'est pas à la hauteur de la petitesse des mailles, comment l'interpolation pourra améliorer le résultat ? L'interpolation consiste à rajouter (inventer) des valeurs en se servant d'autres valeurs, et elle ne pourra jamais et en aucun cas donner une valeur qui serait celle mesurée. Par exemple, s'il fait 20°C chez moi et 25°C à 100km, ce n'est pas sûr du tout qu'il fasse 22.5°C à 50km. Même en se basant sur plusieurs mesures réelles, l'interpolation ne peut pas donner la véritable valeur de température (ou d'un autre paramètre) à tel ou tel endroit où il n'y a pas de mesure réellement effectuée, même si les valeurs servant à l'interpolation sont très proches au niveau spacial. De même, la température peut varier à 10m près... Comment l'ordinateur pourra faire apparaître des phénomènes très localisés si on interpole les données ? Je crains que l'ordinateur n' "invente" des phénomènes localisés ou qu'il ne voit pas celles qui seront suceptibles de se produire, vue la faible résolution des mesures réelles. Pour donner une image (sans jeu de mot), ce serait comme vouloir repérer une maison avec une image satellite possédant une résolution d'image de 1km*1km. Chose impossible. Seule l'augmentation de la résolution pourra le permettre. Et par conséquent, pour en revenir aux modèles, si des détails nous échappent, cela remet justement en cause la précision de phénomènes locaux car la situation générale est une succession temporelle/spaciale d'une infinité de phénomènes locaux, de la même façon qu'une image est une succession de pixels. Je suis d'accord avec ce que tu dis, notament concernant le nombre de station dont il faudrait disposer. Mais, je pense que d'une certaine manière, on arrive un peu aux limites du possible dans le cadre de la prévision météo, car pour améliorer sensiblement les prévisions, il faudrait absolument utiliser des mesures aussi nombreuses que la précision recherchée, et à l'échelle mondiale, et pas seulement en surface mais aussi en altitude. Enfin, je vois ça comme ça. Attendons voir ce que ça donne avec ce nouvel équipement. /emoticons/biggrin@2x.png 2x" width="20" height="20"> Lien à poster Partager sur d’autres sites More sharing options...
Previ83D Posté(e) 2 juin 2007 Partager Posté(e) 2 juin 2007 Précision : l'interpolation que je cite, c'est qu'un raccourci. En aucun cas, ce n'est l'exemple que tu donnes sur les températures. Ca s'appelle plutôt assimilation variationnelle plus inversion du tourbillon potentiel. Donc des calculs assez compliqués, justifiant ces nouvelles puissances de calcul. Lien à poster Partager sur d’autres sites More sharing options...
val au nez Posté(e) 2 juin 2007 Partager Posté(e) 2 juin 2007 AROME est "initialisé" par des modèles à maille plus large. Ensuite, il assimilera beaucoup plus de données, chose indispensable vu sa résolution. Dans cette assimilation, il n'y a pas que les stations au sol, mais toutes les données que peuvent fournir diférents satellites, des radiosondages, des radars et dont les précisions peuvent atteindre le km, voire moins parfois. Lien à poster Partager sur d’autres sites More sharing options...
Atmosphère Posté(e) 3 juin 2007 Partager Posté(e) 3 juin 2007 Le supercalculateur de meteo France peut-il également nous calculer nos impôts??? /emoticons/biggrin@2x.png 2x" width="20" height="20"> Lien à poster Partager sur d’autres sites More sharing options...
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant