Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Statistiques et anomalies climatiques globales


Sam82

Messages recommandés

Je ne sais pas trop où poster cette nouvelle étude mais Hansen et al. semblent commencer à pouvoir établir des premiers liens entre le changement climatique et la fréquence des phénomènes extrêmes de type canicule en dehors de la simple variabilité climatique:

Vos avis?

Très intéressant.

Depuis 30 ans en gros, on est parti dans une glissade...que dire !

Merci pour cette étude ; les confirmations s'empillent....

Merci aussi à Cotissois default_flowers.gif

Lien à poster
Partager sur d’autres sites

  • Réponses 5,1k
  • Créé
  • Dernière réponse

Les plus actifs

Les plus actifs

Messages populaires

Je reviens sur ce sujet mal placé dans le national car c'est global. "Le réchauffement climatique en pause : records de chaleur mondiaux, c'est fini !" http://www.lameteo.org/index.php/news/2822

Ok, je rajoute donc une couche dans la "censure" de cet énergumène...     Et du coup, Infoclimat va pouvoir me verser une prime supplémentaire.

Beaucoup d'erreurs élémentaires et incroyables pour des pro dans tout ce que je viens de lire, que ce soit dans l'édito de Fred sur "Où en est le RC", https://www.lameteo.org/index.php/news/3149-ou-en

Images postées

Un simple petit up en ce début d'année des mes modélisations des anomalies globales de températures à partir des indices naturels, et les températures réellement observées (base NOAA) :

testun.png

NB : les valeurs sont lissées sur un an.

Comme attendu du fait de la baisse de l'ENSO (passage en mode Niña depuis un an et demi), ainsi que dans une moindre mesure de l'AMO, nous avons connu une légère baisse de l'anomalie globale en 2011, sans pour autant atteindre les valeurs de 2008.

Cependant, l'affaiblissement en cours de la Niña, ainsi que la reprise plus franche de l'activité solaire depuis 4 mois, a inversé la tendance de l'anomalie projetée qui s'incurve désormais à nouveau vers le haut. L'anomalie globale observée est encore en légère baisse sur les deux / trois derniers mois en tendance annuelle glissante, mais je pense qu'elle devrait également repartir à la hausse dans le courant du premier trimestre 2012 (second semestre au plus tard).

Après on me dira cela n'a pas une grande valeur méthodologique - et opter pour un retour à la hausse de l'anomalie annuelle dans un contexte de reprise solaire et d'affaiblissement de la Niña ne fait qu'enfoncer des portes ouvertes.

Bon, cela ne vaut pas non plus les modélisations de paix qui sont autrement plus poussées, moi j'en suis resté à des stades assez simplistes default_blushing.gif

EDIT : je n'avais pas pensé à la poster, mais en reprenant les prévisions de l'ENSO de CFS2, les estimations de l'AMO également de CFS2, les dernières tendances du cycle solaire 24 de la NASA, et en optant pour une absence d'éruption volcanique sérieuse sur la première moitié de l'année, voici ce à quoi on peut s'attendre sur les 8 prochains mois :

testwe.png

A ne pas prendre bien entendu au pied de la lettre, cela reste basé sur des projections approximatives - et les prévisions à 8 mois de l'ENSO ne sont pas non plus des plus fiables.

Lien à poster
Partager sur d’autres sites

Un simple petit up en ce début d'année des mes modélisations des anomalies globales de températures à partir des indices naturels, et les températures réellement observées (base NOAA) :

Hello, juste un détail, sur les abscisses il y a une sorte de "paté" noir et je n'arrive pas à lire l'échelle de temps de la courbe.
Lien à poster
Partager sur d’autres sites

Vos avis?

C'est intéressant, mais il me semble que le principal enseignement est déjà connu. C'est-à-dire que si l'écart-type vaut environ 0,55 K au départ (figure 2) et si les terres se sont réchauffées d'environ 2 écarts-type entre 1950 et 2010, la nouvelle distribution des événements sera décalée vers la droite, avec des étés très frais plus rares et des étés très chauds plus fréquents. (Enfin, je suis nul en statistique, mais cela me semble intuitif de dire cela, merci aux experts de corriger si cela n'a rien à voir).

Dans le même ordre d'idée, pour toute canicule comme pour tout été en général, il y a déjà une part forcée, aussi je ne comprends pas toujours très bien la distinction "événement météo dû aux variations naturelles" et "événement climato dû aux variations forcées".

Comme une canicule se définit par un certain seuil de température maintenu pendant 3-5 jours et que le réchauffement forcé se traduit par une hausse des températures, cela me semble finalement une lapalissade de dire le réchauffement forcé contribue aux canicules observées.

Lien à poster
Partager sur d’autres sites

Hello, juste un détail, sur les abscisses il y a une sorte de "paté" noir et je n'arrive pas à lire l'échelle de temps de la courbe.

En effet je n'avais pas fait attention à la présentation des abscisses, c'est rectifié le pâté a été étalé sur la tartine default_tongue.png/emoticons/tongue@2x.png 2x" width="20" height="20">

C'est intéressant, mais il me semble que le principal enseignement est déjà connu. C'est-à-dire que si l'écart-type vaut environ 0,55 K au départ (figure 2) et si les terres se sont réchauffées d'environ 2 écarts-type entre 1950 et 2010, la nouvelle distribution des événements sera décalée vers la droite, avec des étés très frais plus rares et des étés très chauds plus fréquents. (Enfin, je suis nul en statistique, mais cela me semble intuitif de dire cela, merci aux experts de corriger si cela n'a rien à voir).

Là, tu portes un jugement un peu rapide sur les résultats de cette étude.

En effet, un réchauffement va avoir pour effet de décaler vers la droite la distribution des évènements (tout comme un refroidissement l'aurait décalée vers la gauche), mais ce qui est intéressant ici c'est qu'il ne s'agit pas d'une simple translation puisque la courbe de distribution a également été déformée. Reprenons le schéma en question :

rpartition.png

On voit bien ici que l'on n'a pas eu qu'une simple translation de la répartition : elle s'est aplatie, avec un étirement vers la droite plus important pour les évènements chauds que les évènements froids (j'ai fait des matérialisations à la main sur le graphique de cette déformation).

Je n'ai pas lu l'intégralité de l'étude, mais cette évolution me paraît être l'élément le plus intéressant du dossier, car il montre justement que les choses ne sont pas aussi simples que tu ne l'estimes. Je n'en porterais pas davantage de jugement tant que je n'aurais pas tout digéré.

Lien à poster
Partager sur d’autres sites

Comme une canicule se définit par un certain seuil de température maintenu pendant 3-5 jours et que le réchauffement forcé se traduit par une hausse des températures, cela me semble finalement une lapalissade de dire le réchauffement forcé contribue aux canicules observées.

Dans l'usage, on utilise "réchauffement (climatique) (anthropique)" pour désigner le "changement de bilan énergétique" au sens global. Ainsi le "réchauffement" (vision globale) peut favoriser des canicules (vision locale).
Lien à poster
Partager sur d’autres sites

En effet je n'avais pas fait attention à la présentation des abscisses, c'est rectifié le pâté a été étalé sur la tartine default_tongue.png/emoticons/tongue@2x.png 2x" width="20" height="20">

Merci. Je n'ai pas compris quand tu dis plus haut : " mes modélisations des anomalies globales de températures à partir des indices naturels". Dans ton modèle, il n'y a que des variations naturelles ??

Là, tu portes un jugement un peu rapide sur les résultats de cette étude.

Oui, sûrement default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20"> Je trouve la présentation de Hansen claire (comme toujours chez lui) et l'idée de travailler sur les évolutions par rapport à l'écart-type par grille de 250 km intéressante, car cela change des simples cartes de température moyenne. Ensuite, je n'ai bien saisi les subtilités statistiques comme celle que tu mentionnes. Tel que je le comprends, l'aplatissement des courbes signifie qu'il y a plus de variabilité (moins d'événements dans la distribution centrale à ±1 sigma) et l'écart plus important vers la droite signifie que cette variabilité a plutôt été accentuée du côté des événements extrêmement chauds.

Je suis assez d'accord avec Hansen quand il dit que le déplacement de la distribution de probabilité des événements très chauds revient à dire que le réchauffement climatique en est très certainement la cause. Soit dit en passant, on devrait trouver un résultat un peu similaire sur la diminution de fréquence des hivers très froids en DJF et il serait intéressant de voir ce que donne ce genre de carte sur les précipitations.

Lien à poster
Partager sur d’autres sites

Je suis assez d'accord avec Hansen quand il dit que le déplacement de la distribution de probabilité des événements très chauds revient à dire que le réchauffement climatique en est très certainement la cause. Soit dit en passant, on devrait trouver un résultat un peu similaire sur la diminution de fréquence des hivers très froids en DJF et il serait intéressant de voir ce que donne ce genre de carte sur les précipitations.

13vents l'a déjà illustré, on peut très bien avoir un réchauffement sur une région donnée, simplement en élargissant la courbe vers la droite, sans toucher à la gauche. Sur les figures de Hansen, on écarte plus à droite qu'à gauche. Ce serait la preuve que le climat régional réagit de façon non-linéaire avec le réchauffement global, donc que la dynamique atmosphérique (responsable de la variabilité) évolue.

A l'échelle du problème climatique, l'hypothèse linéaire n'est pas totalement à côté de la plaque, donc il ne faut pas s'attendre à ce que les extrêmes froids restent inchangés. Ils diminuent, mais il est très possible que les extrêmes chauds augmentent plus notablement.

Mathématiquement, si la distribution reste gaussienne ou à peu près, ça veut aussi dire que les situations "moyennes" diminuent.

Dans un cas fortement non-linéaire, qui serait un changement très marqué des climats et de la dynamique atmosphérique, on pourrait imaginer que la nature même de la distribution change, à savoir que les situations "moyennes" ne seraient pas forcément les plus fréquentes.

Lien à poster
Partager sur d’autres sites

  • 2 weeks later...

Tiens, j'allais oublier. Je ne sais plus où, je disais que le Novembre de l'UAH allait terminer à 0.22°C. Résultat des courses, +0.12°C, soit une différence de 0.09°C (à cause des arrondis, moi je suis exactement à 0.2166666...°C et l'UAH à 0.123°C, ce qui fait une diff' de 0.0936°C et des brouettes). Pour Décembre, j'annonce 0.18 +/- 0.1°C. Après Décembre, je vais regarder sur mes résidus et je vous dis quoi parce que je trouve que je diverge quand même pas mal.

0.13°C soit 0.05°C d'écart. Pour Janvier, cela dit 0.19 +/- 0.1°C. Comme on commence une nouvelle année, pour 2012 civil cela devrait tourner à 0.22°C si pas d'éruptions volcaniques majeur, si le Soleil suit un peu près les prévisions et que l'ENSO revient lentement à la neutralité. Je n'ai pas l'intervalle de confiance pour ce chiffre, je penserais à vous le calculer en même temps que je va' tester mes résidus. On notera quand même, que les +/- 0.1°C sont à 1 sigma, i.e. 34% de probabilité de ne pas être dedans.
Lien à poster
Partager sur d’autres sites

L'organisation météorologique mondiale a sorti un bilan relativement complet de l'année 2011 et des principaux phénomènes météorologiques et climatiques qui l'ont caractérisée : c'est ici.

Cela étant, une question me vient par rapport à ce paragraphe :

Le climat mondial a été fortement influencé en 2011 par la puissante Niña qui est apparue dans le Pacifique tropical durant le second semestre de 2010 et a persisté jusqu'en mai 2011. Cet épisode, à maints égards le plus intense des 60 dernières années au moins, était étroitement lié avec bon nombre des phénomènes climatiques régionaux [...]

La Niña la plus intense de ces 60 dernières années ? Sur quels critères ? default_confused1.gif

L'épisode qui a couru de mi-1998 à début 2001 semble quand même avoir été sacrément plus costaud, non ?

Lien à poster
Partager sur d’autres sites

Sur la base du MEI. De prime abord, sur la base de l'indice ONI, ou de toute autre indice océanique, la Nina n'a pas été très marquante en 2011. Mais le problème des indices océaniques, c'est que c'est une anomalie rapport à une moyenne (pour l'ONI, 71-00), et donc que dans un contexte se réchauffant, cela biaise le truc. Fait à l'arrache en 5 min (données NCEP NCAR), cela ne vaut pas ce que fait Tamino default_laugh.png , mais pour donner une idée :

onirn.jpg

Pour ce que cela vaut, la moyenne 81-10 est plus chaude de 0.1°C que 71-00 et on note une tendance au réchauffement (même si le caractère significatif n'est assurément pas assuré default_thumbup.gif ).

L'avantage du MEI, c'est de se baser sur des EOFs. On a un peu l'impression que c'est le Saint Graal de la climato, les EOFs, mais cela a quand même des défauts. Dans ce cas, je préfère me fier au MEI qu'à l'ONI malgré tout. On retrouve un peu le même problème qu'avec l'AMO (dans l'idée plus que dans les faits, puisque l'AMO est tout de même détrendé). Qu'est-ce qui est la cause de quoi dans ce bazar ? Ce n'est pas en calculant simplement l'anomalie qu'on résoudra le schmilblick à mon humble avis. On notera aussi que d'après la MEI, el chiquito de 2010 n'avait rien de très marquant, avec un démarage laborieux. Il n'y a que sur l'Hiver qu'il s'est ratrappé très temporairement. Ce qui me fait dire que le jour où l'on va se taper un nouvel épisode costaud, pas forcément comme 1998 mais au moins un truc qui tient la route comme en 1992, on va le sentir passer...

12504987.gif

Lien à poster
Partager sur d’autres sites

Merci paix pour ta réponse, mais il y a quand même des choses que je n'ai pas compris :

Mais le problème des indices océaniques, c'est que c'est une anomalie rapport à une moyenne (pour l'ONI, 71-00), et donc que dans un contexte se réchauffant, cela biaise le truc.

Si je comprends bien, le raisonnement c'est "dans l'absolu les températures de surface et les indices qui en découlent n'ont pas atteint des minimums absolus depuis au moins 60 ans, mais la tendance au réchauffement biaise le constat et lorsque l'on détrende les données le résultat est bien différent".

Ai-je bien compris ?

Mais auquel cas, étant donné que la tendance linéaire des SST en zone Niño est stable voire même en baisse sur le dernier trentenaire, je ne suis pas convaincu qu'on puisse évoquer un biais lié à la tendance au réchauffement. A moins que cette tendance au réchauffement soit tellement masquée par la variation naturelle qu'elle en devienne invisible et que je me retrouve à ne même pas parvenir à l'imaginer ?

D'ailleurs sur le graphique du MEI que tu as posté, on ne distingue aucune véritable tendance de fond à la hausse (cela descend même bien si l'on part de la fin des années 70'), et les valeurs absolues de 2010 par rapport aux épisodes des années 1974 et 1976 n'ont rien qui frappe véritablement.

Cela étant, en recherchant un peu, j'ai trouvé : en fait, ce sont les anomalies de circulation atmosphérique et les vents de surface qui ont été considérables, avec des valeurs exceptionnellement élevées et perdurant sur des mois et des mois. Donc même si cela ne s'est pas concrétisé sur les anomalies de SST, on aurait du "normalement", au vu de la puissance des alizés, atteindre des records absolus de SST négatives sur la zone concernée. Cela n'a pas été le cas, ce qui en effet pourrait accréditer la thèse d'un réchauffement de fond qui a été plus que masqué sur les trois / quatre dernières décennies, mais qui fait néanmoins son œuvre.

A l'inverse, je me rends compte aujourd'hui que l'épisode de Niño de 2010 qui a vu des SST tout de même bien sympathiques, n'a été associé qu'à une anomalie bien timide de la circulation atmosphérique de surface.

Auquel cas en effet, et je ne m'en était pas forcément rendu compte à ce point, si on venait à se prendre un de ces jours un nouvel épisode qui envoie du lourd en anomalies de circulation mode "Niño", au niveau des températures globales le fameux pic de 1998 pourrait nous paraître subitement bien pâle. default_mellow.png

Lien à poster
Partager sur d’autres sites

Merci paix pour ta réponse, mais il y a quand même des choses que je n'ai pas compris :

Si je comprends bien, le raisonnement c'est "dans l'absolu les températures de surface et les indices qui en découlent n'ont pas atteint des minimums absolus depuis au moins 60 ans, mais la tendance au réchauffement biaise le constat et lorsque l'on détrende les données le résultat est bien différent".

Ai-je bien compris ?

Mais auquel cas, étant donné que la tendance linéaire des SST en zone Niño est stable voire même en baisse sur le dernier trentenaire, je ne suis pas convaincu qu'on puisse évoquer un biais lié à la tendance au réchauffement. A moins que cette tendance au réchauffement soit tellement masquée par la variation naturelle qu'elle en devienne invisible et que je me retrouve à ne même pas parvenir à l'imaginer ?

D'ailleurs sur le graphique du MEI que tu as posté, on ne distingue aucune véritable tendance de fond à la hausse (cela descend même bien si l'on part de la fin des années 70'), et les valeurs absolues de 2010 par rapport aux épisodes des années 1974 et 1976 n'ont rien qui frappe véritablement.

Dans le Pacifique, nous devons aussi tenir compte d'autres modes de variabilités. En effet, la tendance au réchauffement est à peine détectable car les tropiques se réchauffent le moins vite. D'autre part, la variabilité naturelle du Pacifique est forte. La PDO notament peut induire une tendance au refroidisement du Pacifique qui peut tirer vers l'équilibre la tendance linéaire sans que cela ne modifie la conclusion puisque le PDO et l'ENSO sont liés et que le refroidissement induit par le PDO sera autant qui ne sera pas apporté par l'ENSO.

Cela étant, en recherchant un peu, j'ai trouvé : en fait, ce sont les anomalies de circulation atmosphérique et les vents de surface qui ont été considérables, avec des valeurs exceptionnellement élevées et perdurant sur des mois et des mois. Donc même si cela ne s'est pas concrétisé sur les anomalies de SST, on aurait du "normalement", au vu de la puissance des alizés, atteindre des records absolus de SST négatives sur la zone concernée. Cela n'a pas été le cas, ce qui en effet pourrait accréditer la thèse d'un réchauffement de fond qui a été plus que masqué sur les trois / quatre dernières décennies, mais qui fait néanmoins son œuvre.

A l'inverse, je me rends compte aujourd'hui que l'épisode de Niño de 2010 qui a vu des SST tout de même bien sympathiques, n'a été associé qu'à une anomalie bien timide de la circulation atmosphérique de surface.

Auquel cas en effet, et je ne m'en était pas forcément rendu compte à ce point, si on venait à se prendre un de ces jours un nouvel épisode qui envoie du lourd en anomalies de circulation mode "Niño", au niveau des températures globales le fameux pic de 1998 pourrait nous paraître subitement bien pâle. default_mellow.png

Oui, c'est tout à fait cela. Le MEI est calculé par un algorithme matriciel, l'EOF, ce qui fait que la tendance linéaire du MEI n'a pas vraiment de sens. Il permet d'une part de mieux rendre compte du phénomène ENSO dans sa globalité, et notament au niveau du forçage de la circulation ; et d'autre part de s'extraire du problème de la tendance au réchauffement.

Au fond, on s'en fout un peu de la température du Pacifique, ce qui importe vraiment est toute la mécanique climatique derrière. Et effectivement, en 2010, le couplage SST/atmosphère a bien failli foiré (j'avais même parié un verre de pisco qu'El Nino allait avorter durant l'Automne 2009 default_thumbup.gif ). Sans doute parce que dans un contexte de réchauffement, le Pacifique n'était pas si chaud. Il n'y a vraiment que sur Février/Mars où on a récupéré un truc un peu plus propre, mais cela c'est tout de suite affaibli.

Lien à poster
Partager sur d’autres sites

L'avantage du MEI, c'est de se baser sur des EOFs. On a un peu l'impression que c'est le Saint Graal de la climato, les EOFs, mais cela a quand même des défauts. Dans ce cas, je préfère me fier au MEI qu'à l'ONI malgré tout. On retrouve un peu le même problème qu'avec l'AMO (dans l'idée plus que dans les faits, puisque l'AMO est tout de même détrendé). Qu'est-ce qui est la cause de quoi dans ce bazar ? Ce n'est pas en calculant simplement l'anomalie qu'on résoudra le schmilblick à mon humble avis. On notera aussi que d'après la MEI, el chiquito de 2010 n'avait rien de très marquant, avec un démarage laborieux. Il n'y a que sur l'Hiver qu'il s'est ratrappé très temporairement. Ce qui me fait dire que le jour où l'on va se taper un nouvel épisode costaud, pas forcément comme 1998 mais au moins un truc qui tient la route comme en 1992, on va le sentir passer...

12504987.gif

Je n'ai pas bien compris les échanges ci-dessus. D'après ce schéma (MEI), la Nina de 2011 n'a pas été non plus exceptionnelle par rapport à d'autres épisodes du même ordre dans les années 1950-1980.

Treizvents écrit :

Cela étant, en recherchant un peu, j'ai trouvé : en fait, ce sont les anomalies de circulation atmosphérique et les vents de surface qui ont été considérables, avec des valeurs exceptionnellement élevées et perdurant sur des mois et des mois. Donc même si cela ne s'est pas concrétisé sur les anomalies de SST, on aurait du "normalement", au vu de la puissance des alizés, atteindre des records absolus de SST négatives sur la zone concernée.

Les éléments auxquels tu fais référence (circulation, vent) sont calculés dans l'indice MEI (avec les SST)? Ou ce sont d'autres mesures indépendantes?
Lien à poster
Partager sur d’autres sites

Oui, elle n'a pas non plus été exceptionnel et reste du même niveau que les trois autres gros événements de références que sont 55, 74 et 75. Dans l'absolu cependant, le MEI a touché un plus bas depuis une soixantaine d'année, depuis 1955 exactement (ce qui ne fait pas tout à fait 60 ans, certes). Histoire de se poiler un coup quand même, en 75 on avait atteint -2 et en 2011 -2.037. Je n'ai pas vérifié, mais il y a toutes les chances pour que cela ne soit pas significatif. default_happy.png/emoticons/happy@2x.png 2x" width="20" height="20">

Le MEI est construit avec six champs différents :

La pression de surface

Le vent zonal

Le vent méridional

La température de surface des océans

La température de surface de l'air

La nébulosité

Chaque champ est normalisé, et après quelques bidouillage algorithmiques (essentiellement de l'analyse en composante principale), on combine ces six champs en un indice unique, le MEI.

Lien à poster
Partager sur d’autres sites

Les éléments auxquels tu fais référence (circulation, vent) sont calculés dans l'indice MEI (avec les SST)? Ou ce sont d'autres mesures indépendantes?

En fait j'ai regardé des anomalies de géopotentiels par rapport à d'autres grands épisodes de Niña dans les réanalyses du NCEP, ce qui était déjà assez significatif, jusqu'à ce que je me rappelle qu'il existe également un indice des anomalies de pression dans le Pacifique, à savoir le SOI. L'avantage étant justement qu'il n'est donc pas soumis à la hausse des températures et qu'il n'est donc pas biaisé par le RC. Or, voici ce que donne l'analyse du SOI depuis les années 1860 :

soi3.gif

Un SOI positif se traduit par des épisodes de Niña, et inversement ; on voit ici que sur cet indice le pic positif de 2010 est rien de moins que le plus puissant depuis 1916, alors que le pic négatif du dernier Niño a été très modeste, même pas la moitié de l'ampleur de celui de 1998.

Bon, cela reste quand même un indice avec toutes les incertitudes et approximations que cela suppose, mais c'est quand même assez éloquent.

Cela m'a donné une idée, de quelque chose à regarder les prochains jours... default_tongue.png/emoticons/tongue@2x.png 2x" width="20" height="20">

Lien à poster
Partager sur d’autres sites

Un SOI positif se traduit par des épisodes de Niña, et inversement ; on voit ici que sur cet indice le pic positif de 2010 est rien de moins que le plus puissant depuis 1916, alors que le pic négatif du dernier Niño a été très modeste, même pas la moitié de l'ampleur de celui de 1998.

Bon, cela reste quand même un indice avec toutes les incertitudes et approximations que cela suppose, mais c'est quand même assez éloquent.

Cela m'a donné une idée, de quelque chose à regarder les prochains jours... default_tongue.png/emoticons/tongue@2x.png 2x" width="20" height="20">

On ne compare pas l'intensité de l'oscillation ENSO avec le SOI.

Ce dernier est un indice atmosphérique, fortement bruité, bien qu'il soit évidemment corrélé à l'indice couramment utilisé par la NOAA, l'ONI, qui est l'anomalie des SST de la zone nino3-4.

Lorsqu'on compare des épisodes proches on peut facilement négliger le RC, et, pour comparer des épisodes plus distants, il suffit de détrender.

Enfin, je dis çà, tu fais ce que tu veux...

Lien à poster
Partager sur d’autres sites

On ne compare pas l'intensité de l'oscillation ENSO avec le SOI. [...] Enfin, je dis çà, tu fais ce que tu veux...

La question n'est pas que de faire ce que je veux au risque de faire justement des choses fausses, mais j'essaye réellement de comprendre certains aspects qui restent confus pour moi default_blushing.gif

Je vais essayer d'exprimer tout cela clairement.

Paix a écrit :

Mais le problème des indices océaniques, c'est que c'est une anomalie rapport à une moyenne (pour l'ONI, 71-00), et donc que dans un contexte se réchauffant, cela biaise le truc.

Si j'ai bien saisi le fond, cela se résume à dire que les indices qui reposent sur des SST brutes sont biaisés, sur le long terme, par le réchauffement (c'est sûr que cela ne se verra pas si on compare la Niña 2007 à la Niña 2010, mais si on compare 2010 à une Niña 19XX cela va être une autre histoire). Jusque la, j'ai parfaitement compris, et j'irais même jusqu'à dire que cela me paraît logique - même si des fois, les choses qui paraissent les plus logiques ne sont pas forcément les meilleures default_tongue.png

Par conséquent, mon raisonnement va être celui-ci : si l'on veut faire une comparaison à longue échéance - en l’occurrence ici, il s'agissait de vérifier l'assertion selon laquelle l'épisode de Niña de 2010 était "le plus intense depuis soixante ans au moins" - il ne faut pas considérer d'indice qui serait basé sur les températures brutes, car le réchauffement va impacter le résultat, et il faut par conséquent chercher un élément qui ne soit pas altéré. On peut aussi certes tout simplement détrender, mais on va y revenir un peu plus bas.

Donc la, première interrogation suite à la seconde réponse de Paix :

Le MEI est construit avec six champs différents :

La pression de surface

Le vent zonal

Le vent méridional

La température de surface des océans

La température de surface de l'air

La nébulosité

Si le MEI intègre justement dans son calcul des températures de surface, en quoi ne va t-il pas lui non plus être biaisé par le réchauffement ? Bon, on me dira, dès lors que d'autres facteurs sont pris en considération, cela va être dilué dans le résultat final. A moins aussi, qu'encore une fois, les températures soit prises en compte après avoir été détrendées. Mais a vrai dire, le fond de mon problème n'est pas la.

J'ai donc téléchargé les données brutes des SST en zone Niño 3.4 (donc non détrendées), les données du SOI, et les données du MEI ; j'ai normalisé les valeurs, fait une petite moyenne mobile sur 5 mois afin de lisser un peu visuellement les choses, et le résultat vous pouvez le consulter dans le tableau qui se trouve en bas de ce post.

Donc ma question de fond, la voici : si je pars donc du principe que le réchauffement biaise les indices basés sur les températures de surface, et que je considère à l'inverse qu'un indice comme le MEI ou le SOI est plus adapté car moins ou pas soumis à ce biais, théoriquement si je regarde les tendances simples (régression linéaire) je vais trouver une tendance à la hausse marquée sur les données issues températures brutes (impact du RC), contrairement aux autres indices où la tendance devrait être proche de zéro.

Réponse en faisant le calcul depuis 1950 :

Tendance annuelle des SST brutes : +0.007

Tendance annuelle du SOI inversé : +0.005

Tendance annuelle du MEI : +0.010

La tendance des SST brutes est plus faible que celle du MEI, même si l'écart est très faible, et c'est le SOI qui est le plus stable.

Donc moi je veux bien qu'on me dise qu'il ne faut pas prendre les données brutes de températures car elles sont biaisées par le réchauffement et qu'un indice comme le MEI est bien plus adapté, mais j'ai du mal à comprendre cette assertion dans la mesure où les données brutes sont justement plus stables sur 1950-2011 que le MEI.

Et à ce niveau là, ce n'est même pas le fait que l'écart entre les deux soit si faible qu'on en ait du mal justifier que l'un est biaisé et pas l'autre qui me gène profondément, mais le fait que celui qui est considéré comme biaisé à la hausse s'avère même être moins orienté à la hausse que celui qui est considéré comme une référence non impactée par le réchauffement !

A ce sujet, je reviens donc aussi sur la question de la nécessité de détrender les données brutes de températures pour faire des comparaisons longues (cf post de Météor) : qu'est-ce que je vais détrender avec un trend d'origine qui est déjà quasiment nul ?

N'y voyez pas une volonté de pinailler ou seulement de contredire, peut-être que mes raisonnements sont entachés d'erreurs méthodologiques, mais je bloque vraiment sur ce point default_blushing.gif

post-2200-0-82221300-1326990945_thumb.png

ENSO.PNG.25a050573b66a1bbb0f634c4315937a

Lien à poster
Partager sur d’autres sites

L'ENSO peut être vu comme une variabilité haute fréquence de l'Océan qui se superpose à des variabilités basses fréquences (PDO) et un trend (RC). Donc en première approximation, avec un simple centrage comme l'ONI, cela passe. Mais rigoureusement, on ne peut pas sortir le bruit HF aussi facilement. Je ne dis pas spécialement qu'il faut détrender ou non (même si c'est vrai que j'ai commencé maladroitement ainsi, mea culpa default_blushing.gif ), mais qu'en toute rigueur c'est un peu plus subtil, quand bien même le trend est nul ou quasiment nul. Il faudrait essayer de travailler en spectral (Fourier et tout le tremblement) pour voir où cela nous mène.

L'ENSO peut aussi être vu à travers son couplage avec l'atmosphère. Mais là aussi, la SOI est un signal HF sur une série de la pression qui évolue et sa variabilité. Notament avec le RC, on a une tendance à la baisse de la pression de surface.

Et pour la nébulosité, elle est influencée par le signal "THF" de la MJO et "TTHF" des paquets convectifs, et par le trend du RC...

Bref, idem pour tous les champs en fait, l'ENSO n'est qu'un signal parmi d'autre avec un trend à chaque fois, ce qui est la difficulté. Trend + variabilités de différentes fréquences, cela peut poser des problèmes.

De plus, l'ENSO ne peut pas se contraindre à un seul indice. C'est un phénomène complexe, qui implique de nombreux paramètres et couplages. L'indice de l'ENSO modoki peut très bien avoir autant de valeur que l'ONI ou le MEI si l'on sait où l'on met les pattes et comment marche le schmilblick.

La tendance de la MEI existe, mais pour autant que réprésente-elle ? Pas grand'chose à mon humble avis, physiquement parlant, à la différence de la tendance de l'ONI. De plus, la MEI est basé sur une analyse en composante principale. Si, comme c'est le cas pour l'ENSO, le trend n'est pas énorme, l'ACP va avoir tendance à aller au délà. Si je ne me trompes pas (j'espère ne pas dire une énorme connerie default_laugh.png ), la première ACP est plutôt biaisé vers le nombre d'onde 1. Dans notre cas, c'est plutôt positif. C'est en partie pour cela que j'aime bien la MEI default_laugh.png

Mais après on pourrait très bien chargé encore plus la MEI en incluant le contenu en chaleur de l'Océan, ou la hauteur de l'océan par exemple.

Et puis, comme je le disais, la différence entre la MEI de 75 et la MEI de 2011 est tellement pouillémesque que discuter pendant des heures sur savoir si le Pacifique nous a gratifié de La Nina la plus puissante depuis 60 n'a pas grand sens.

Lien à poster
Partager sur d’autres sites

Je crois qu'il faut voir que tous ces indices d'oscillation sont comme des grandeurs physiques non-standards. A savoir qu'ils mesurent quelque chose de très précis, qui a du sens physique (le comportement oscillatoire plus ou moins régulier de certains phénomènes), mais ça ne s'insère dans aucune équation rigoureusement écrite.

Peut-être que dans l'avenir on commencera à écrire des équations temporelles reliant ces indices, basées sur toutes les corrélations qu'on observe. Si ça n'existe déjà...

Lien à poster
Partager sur d’autres sites

Treizevents

(réponse précédente modifiée)

L'indice ONI c'est la moyenne des anomalies sur 3 mois consécutifs des SST de la zone nino34 non détrendées.

Concernant les autres indices ils sont de toute façon très proches puisqu'on a couplage.

De plus, je ne suis pas certain que le SOI n'est pas biaisé également par le RC pour cette raison de couplage justement.

Mais si tu veux faire une comparaison de la Nina 2010 avec celle de 19XX il faudrait, de toute façon, que tu évacues le bruit lié à la circulation atmosphérique indépendante de l'ENSO.

Il me semble d'ailleurs que ce bruit est très important pour 2010 (voir le graphe que tu as joint).

La façon la plus simple que je vois pour comparer les évènements, c'est bien d'utiliser l'ONI (enfin c'est ce que fait la NOAA et c'est peut-être une référence) ou les SST brutes et de normaliser par rapport aux 10 années encadrant l'évènement.

voilà ce que çà donne (à partir de 2007 il n'y a plus 10 années donc j'ai considéré la moyenne constante à partir de cette date):

nino-evol2.jpg

Avec cette méthode le trend linéaire est faible (-0.0008K/an), bien sûr, mais çà permet de voir que la nina de 2010/2011 n'est pas exceptionnelle quoique costaude tout de même.

Par contre on voit bien que le trend est franchement négatif depuis 2002/2003 ce qui n'est pas sans conséquence sur l'évolution de la température actuelle.

PS: j'ajoute que ce qui me semble important aussi, c'est l'intégrale de la température (somme de Tdt) si je puis dire.

Sur les 60 années de la courbe, sans avoir fait le calcul, il me semble que la nina de 1999-2000 tient la corde et 2010-2011 devrait être bien classée aussi quand elle sera terminée.

Lien à poster
Partager sur d’autres sites

mais çà permet de voir que la nina de 2010/2011 n'est pas exceptionnelle

J'aime volontiers ton analyse mais la conclusion je ne comprends pas. Tu poses un vocabulaire qui contredit la phrase de 13vents, alors que ton analyse est un complément, sachant qu'on ne peut pas résumer ENSO par un seul indice.Quand les gens lisent des contradictions, en général ils ne croient plus personne, bien que ce soit des faux désaccords, juste l'utilisation de données différentes.
Lien à poster
Partager sur d’autres sites

bon moi je vais arrêter là car çà commence à m'exciter un peu cette histoire.

L'index qui fait consensus pour définir l'ENSO est pour la énième fois, l'anomalie sur 3 mois consécutifs des SST de la zone pacifique équatorial 34

comme dit ici

"The index is defined as a three-month average of sea surface temperature departures from normal for a critical region of the equatorial Pacific (Niño 3.4 region; 120W-170W, 5N-5S). This region of the tropical Pacific contains what scientists call the "equatorial cold tongue," a band of cool water that extends along the equator from the coast of South America to the central Pacific Ocean. Departures from average sea surface temperatures in this region are critically important in determining major shifts in the pattern of tropical rainfall, which influence the jet streams and patterns of temperature and precipitation around the world.

North America's operational definitions for El Niño and La Niña, based on the index, are:

El Niño: A phenomenon in the equatorial Pacific Ocean characterized by a positive sea surface temperature departure from normal (for the 1971-2000 base period) in the Niño 3.4 region greater than or equal in magnitude to 0.5 degrees C (0.9 degrees Fahrenheit), averaged over three consecutive months.

La Niña: A phenomenon in the equatorial Pacific Ocean characterized by a negative sea surface temperature departure from normal (for the 1971-2000 base period) in the Niño 3.4 region greater than or equal in magnitude to 0.5 degrees C (0.9 degrees Fahrenheit), averaged over three consecutive months."

bon maintenant, vous prenez l'indice que vous voulez pour définir ce que vous voulez, après tout c'est votre problème.

Lien à poster
Partager sur d’autres sites

A ce sujet, je reviens donc aussi sur la question de la nécessité de détrender les données brutes de températures pour faire des comparaisons longues (cf post de Météor) : qu'est-ce que je vais détrender avec un trend d'origine qui est déjà quasiment nul ?

Je ne comprends pas très bien cette histoire de "détrender". Si l'on trouve un trend à long terme, le supprimer sous prétexte qu'il provient du réchauffement forcé fait disparaître l'intérêt de l'analyse à long terme, qui est généralement de vérifier si la variabilité naturelle oscille autour d'une tendance nulle ou d'une tendance non-nulle. Partir du principe que l'on doit détrender reviendrait à poser a priori qu'il ne peut pas y avoir des hausses / baisses pluridécennales ou séculaires (par exemple, une sur-représentation des Nino par rapport au Nina sur une période de 30 ou 60 ans, pour des raisons indépendantes des forçages). Il paraît probable qu'il n'y a pas de telle tendance à long terme, mais pour en être sûr, il faudrait une théorie physique complète de l'ENSO, comme des autres modes de variabilité.
Lien à poster
Partager sur d’autres sites

Je ne comprends pas très bien cette histoire de "détrender". Si l'on trouve un trend à long terme, le supprimer sous prétexte qu'il provient du réchauffement forcé fait disparaître l'intérêt de l'analyse à long terme, qui est généralement de vérifier si la variabilité naturelle oscille autour d'une tendance nulle ou d'une tendance non-nulle. Partir du principe que l'on doit détrender reviendrait à poser a priori qu'il ne peut pas y avoir des hausses / baisses pluridécennales ou séculaires (par exemple, une sur-représentation des Nino par rapport au Nina sur une période de 30 ou 60 ans, pour des raisons indépendantes des forçages). Il paraît probable qu'il n'y a pas de telle tendance à long terme, mais pour en être sûr, il faudrait une théorie physique complète de l'ENSO, comme des autres modes de variabilité.

Oui default_wink.png/emoticons/wink@2x.png 2x" width="20" height="20"> Le problème est plus complexe qu'un simple detrend, puisqu'on a d'une part le RC et d'autre part de la variabilité de différentes fréquences, ce qui fait un joli sac de noeuds à la fin.
Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...