Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Statistiques et anomalies climatiques globales


Sam82

Messages recommandés

Le mois d'août à 0,51°C d'anomalie je crois .... donc 0,1°C de moins que août 1998.

Grecale parlait de l'anomalie que j'ai projeté en simulant un épisode d'ENSO similaire à celui de 1998 en 2015, pas du mois d'août 2010 default_wink.png/emoticons/wink@2x.png 2x" width="20" height="20">

En effet, août 2010 est à +0.51° pour les relevés UAH, soit non pas 0.1° mais 0.01° de moins qu'août 1998 (+0.52°). Tu as tous les relevés UAH sur cette page.

Lien à poster
Partager sur d’autres sites

  • Réponses 5,1k
  • Créé
  • Dernière réponse

Les plus actifs

Les plus actifs

Messages populaires

Je reviens sur ce sujet mal placé dans le national car c'est global. "Le réchauffement climatique en pause : records de chaleur mondiaux, c'est fini !" http://www.lameteo.org/index.php/news/2822

Ok, je rajoute donc une couche dans la "censure" de cet énergumène...     Et du coup, Infoclimat va pouvoir me verser une prime supplémentaire.

Beaucoup d'erreurs élémentaires et incroyables pour des pro dans tout ce que je viens de lire, que ce soit dans l'édito de Fred sur "Où en est le RC", https://www.lameteo.org/index.php/news/3149-ou-en

Images postées

Grecale parlait de l'anomalie que j'ai projeté en simulant un épisode d'ENSO similaire à celui de 1998 en 2015, pas du mois d'août 2010 default_wink.png/emoticons/wink@2x.png 2x" width="20" height="20">

En effet, août 2010 est à +0.51° pour les relevés UAH, soit non pas 0.1° mais 0.01° de moins qu'août 1998 (+0.52°). Tu as tous les relevés UAH sur cette page.

Oui 0,01°C et je parlais bien de UAH pour l'anomalie. default_wink.png/emoticons/wink@2x.png 2x" width="20" height="20">

Barth,

default_flowers.gifdefault_clover.gif

Lien à poster
Partager sur d’autres sites

Hansen vient de sortir la carte des anomalies de températures pour aout 2010. On voit bien les zones super chaudes en Russie, aux USA Est... Et en Arctique, plus de 5 degrés au dessus de la normale pendant les 12 derniers mois...

RecentT.gif

Lien à poster
Partager sur d’autres sites

Hansen vient de sortir la carte des anomalies de températures pour aout 2010. On voit bien les zones super chaudes en Russie, aux USA Est... Et en Arctique, plus de 5 degrés au dessus de la normale pendant les 12 derniers mois...

par curiosité : bien que les différents indicateurs soient plus ou moins d'accord entre eux, il reste une variance notable de l'un à l'autre, et les différentes mesures ne concordent pas complétement. Il me semble assez naturel de prendre la dispersion entre les différentes sources comme un estimateur de l'incertitude (normal, parce qu'en gros c'est ce qu'on dit à des étudiants de TP de première année quoi ...). Evidemment se baser sur UN indicateur possible (moyenne glissante sur 12 mois) d'UNE source (GISS) ne donne pas complétement la valeur centrale et l'incertitude, il y a le danger omniprésent du "cherry picking" (sélectionner après coup l'indicateur qui nous arrange ). Donc : que disent les autres sources de la valeur actuelle de la moyenne glissante sur 12 mois, et peut-on en tirer une estimation de la tendance sur les dix dernières années avec son incertitude ?
Lien à poster
Partager sur d’autres sites

par curiosité : bien que les différents indicateurs soient plus ou moins d'accord entre eux, il reste une variance notable de l'un à l'autre, et les différentes mesures ne concordent pas complétement. Il me semble assez naturel de prendre la dispersion entre les différentes sources comme un estimateur de l'incertitude (normal, parce qu'en gros c'est ce qu'on dit à des étudiants de TP de première année quoi ...). Evidemment se baser sur UN indicateur possible (moyenne glissante sur 12 mois) d'UNE source (GISS) ne donne pas complétement la valeur centrale et l'incertitude, il y a le danger omniprésent du "cherry picking" (sélectionner après coup l'indicateur qui nous arrange ). Donc : que disent les autres sources de la valeur actuelle de la moyenne glissante sur 12 mois, et peut-on en tirer une estimation de la tendance sur les dix dernières années avec son incertitude ?

il me semble que plusieurs autres sources ont été données en lien sur ce même forum, et qui montrent globalement la même chose. il suffit de lire les messages précédents.
Lien à poster
Partager sur d’autres sites

par curiosité : [...] que disent les autres sources de la valeur actuelle de la moyenne glissante sur 12 mois, et peut-on en tirer une estimation de la tendance sur les dix dernières années avec son incertitude ?

Comme le dit Grecale, il te suffit de remonter une poignée de posts plus haut pour avoir la réponse à ta question : j'ai posté le graphique des moyennes annuelles glissantes des cinq différentes bases mondiales en harmonisant les périodes de référence pour faciliter les comparaisons. Le résultat le voici :

tendances1.png

Pour les relevés terrestres (NOAA, NASA, Hadley), les derniers douze mois se situent clairement au niveau des records, un peu au dessus pour la NASA, un peu en dessous pour Hadley. Niveau satellites, on s'est envolé vers des valeurs qui n'avaient pas été atteintes depuis le "super" El-Niño de 1998, d'ailleurs en ce qui concerne les relevés UAH en prenant la valeur d'Août 2010 (le graphique est arrêté sur le mois de juillet), nous ne sommes plus qu'à deux centièmes de degrés du record de 1998, j'attends encore la valeur RSS mais la moyenne annuelle glissante devrait continuer de monter également sur cette base.

La comparaison est assez intéressante tout de même car elle montre bien la concordance entre les relevés satellites et les relevés terrestres ; la seule véritable différence résidant dans le fait que les relevés satellites sont bien plus sensibles à l'ENSO, du fait des différences de relevés. On voit bien que sur 2009/2010, comme en 1998, ils se sont élevés largement au dessus des relevés terrestres, l'inverse étant vrai lors des Niña de 1999 ou de 2008 par exemple.

Lien à poster
Partager sur d’autres sites

OK, donc sur 5 courbes,il y en 4 qui donne la température moyenne en 2010 légèrement inférieure à celle de 1998, et une légèrement supérieure, les différences entre les deux années, étant dans chaque cas, assez nettement plus petites que l'incertitude sur la valeur d'une année donnée, suivant les différents instituts/instruments. On est d'accord pour dire ça ?

on est aussi d'accord que face à ça, on dirait à n'importe quel étudiant en physique que les températures sont voisines aux incertitudes près?

Lien à poster
Partager sur d’autres sites

OK, donc sur 5 courbes,il y en 4 qui donne la température moyenne en 2010 légèrement inférieure à celle de 1998, et une légèrement supérieure, les différences entre les deux années, étant dans chaque cas, assez nettement plus petites que l'incertitude sur la valeur d'une année donnée, suivant les différents instituts/instruments. On est d'accord pour dire ça ?

Pour la NOAA on n'est pas en dessous de la valeur de 1998 mais à égalité. La NASA est bien au dessus, mais elle l'est d'autant que Hadley est en dessous (0.07°). Les relevés satellites sont en dessous, mais d'un écart très faible (0.02° pour UAH, 0.04° pour RSS en prenant les résultats partiels de 2010).

on est aussi d'accord que face à ça, on dirait à n'importe quel étudiant en physique que les températures sont voisines aux incertitudes près?

Oui, la on est d'accord. Tout comme je suis d'accord avec ceci :

ça commence à devenir complexe la chasse aux records . Les climatologues le disent eux mêmes : les records sont fait pour etre battus, même avec une distribution en moyenne constante (plus on attend, plus il est probable d'avoir des évènements improbables....). C'est justement pour ça qu'on a inventé les tendances linéaires, pour ne PAS se baser sur les records.

On va à nouveau le rappeller, pour éviter d'entretenir une confusion implicite default_happy.png/emoticons/happy@2x.png 2x" width="20" height="20">

D'autre part, on ne sait pas encore si nous avons atteint ou non le pic de la période chaude actuelle : il n'y a que pour la NASA que le pic est derrière, pour les autres organismes même si la température globale commence à baisser du fait de la Niña la moyenne annuelle glissante continue de progresser. Par exemple pour UAH, on a encore pris 0.02° entre juillet et août sur la moyenne des 12 derniers mois, et on devrait probablement en prendre autant chez RSS.

Il n'est pas évident de dire quand le sommet sera atteint. Mathématiquement, il suffit pour que la moyenne annuelle monte que la valeur du mois qui "entre" soit supérieure à celle du mois qui "sort" : si Septembre 2010 est plus chaud que Septembre 2009, la moyenne montera encore le mois prochain. Or niveau basse tropo (relevés satellites), les valeurs de Septembre et de Novembre 2009 étaient relativement élevées, alors qu'Octobre et Décembre avaient été un peu plus frais : on peut donc estimer qu'il y a plus de chances pour que le pic soit atteint ce mois-ci, en octobre ou en décembre. Niveau températures au sol (NOAA et Hadley), il est plus difficile d'estimer la date du pic, vu que les températures étaient plus homogènes en fin d'année dernière. Je ne parle pas de la NASA puisque pour cet organisme le pic est déjà passé.

Dans tous les cas, le décrochage de la Niña n'est toujours pas opéré au niveau de la basse tropo : sur les 9 premiers jours du mois, nous avons battu à 7 reprises le record quotidien mensuel, ce qui fait que cette première décade de septembre devrait se classer sans difficulté comme la plus chaude depuis le début des relevés satellites, et très loin devant .. 1998.

Lien à poster
Partager sur d’autres sites

Attention, la tendance linéaire ne remplace pas l'observation des records.

Un changement climatique c'est aussi bien une tendance de fond (plus ou moins linéaire) qu'un changement de variabilité.

Il va sans dire que le changement de variabilité serait l'élément le (conditionnel) plus critique

"Les records sont faits pour être battus", ça veut dire que la probabilité de battre un record n'est jamais nulle.

MAIS quand on a un changement climatique, les probabilités évoluent.

Et avec un réchauffement climatique rapide, il ne faut pas s'attendre à ce que les records de froid soient faits pour être battus...

Lien à poster
Partager sur d’autres sites

quand on a un changement climatique, les probabilités évoluent.

Et avec un réchauffement climatique rapide, il ne faut pas s'attendre à ce que les records de froid soient faits pour être battus...

Hum, ça se discute, et d'ailleurs......cela a été récemment discuté sur IC

/topic/50989-records-de-froid-et-rechauffement-climatique/'>http://forums.infoclimat.fr/topic/50989-records-de-froid-et-rechauffement-climatique/

Lien à poster
Partager sur d’autres sites

Hum, ça se discute, et d'ailleurs......cela a été récemment discuté sur IC

/topic/50989-records-de-froid-et-rechauffement-climatique/'>http://forums.infocl...ent-climatique/

Oui bien sûr on peut imaginer. Mais tant que la dynamique atmosphérique garde une variabilité normale, ça devient de plus en plus improbable

Et je ne suis pas sûr qu'il faille préférer sortir de la variabilité normale...sauf si on est un fou de météo default_wink.png/emoticons/wink@2x.png 2x" width="20" height="20">

Lien à poster
Partager sur d’autres sites

RSS est sorti et donne une anomalie de +0.58° pour Août 2010 ; la moyenne glissante sur un an progresse donc à nouveau comme prévu de deux centièmes de degrés pour atteindre +0.51°.

Ce qui est un peu plus intéressant c'est la valeur NOAA : avec +0.60° pour Août 2010, la moyenne des douze derniers mois passe de +0.64° à +0.63°, ce qui semble indiquer que le sommet de cette période chaude a été atteint en moyennes annuelles pour cet organisme (sauf rebond les mois prochains, ce qui me semble inenvisageable vu la puissance de l'épisode de Niña désormais pleinement installé).

Lien à poster
Partager sur d’autres sites

  • 2 weeks later...

Au 25 septembre, l'anomalie moyenne de septembre 2010 se situait à 0.17° au dessus de celle des 25 premiers jours de septembre 2009 selon les relevés satellitaires journaliers de la base UAH.

En envisageant un maintien de cet écart sur les derniers jours du mois, sachant que l'anomalie de Septembre 2009 s'est fixée à +0.50°, cela nous donnerait une anomalie de +0.67° pour septembre 2010. Non seulement on "exploserait" littéralement le record du mois de septembre le plus chaud depuis le début des relevés satellites (ce record étant détenu par septembre 2009 justement avec son +0.50°), mais l'anomalie glissante sur douze mois s'élèverait alors à +0.44°, égalant le record absolu de 1998.

Sous réserve d'une révision à la baisse des valeurs quotidiennes affichées sur le site UAH, cela ne serait que la quatrième fois cette année...

A noter que si l'autre grande base de mesures satellites, RSS, venait à afficher une valeur similaire (+0.67°), le record absolu pour un mois de septembre serait la aussi largement battu (+0.49° en septembre 1998) et l'anomalie glissante sur un an ne serait alors plus qu'à trois centièmes de degrés du record annuel de 1998.

Même si la Niña est désormais franchement installée, la basse troposphère qui y est d'habitude très réactive ne semble toujours pas résolue à faire baisser la fièvre. En 2007 à la même date avec des valeurs de Niña assez proches, on était déjà dans des valeurs à +/- 0.25°. Si octobre ne montre pas de signes de chute, alors le record annuel glissant de 1998 aura vraiment chaud aux fesses, d'autant que les valeurs d'octobre 2009 avaient été assez faibles et qu'octobre 2010 n'aura par conséquent pas besoin d'être excessivement chaud pour faire encore monter la moyenne annuelle glissante.

J'ajouterais d'ailleurs que, même si c'est purement symbolique et n'a pas d'intérêt majeur, qu'avec une anomalie à +0.67° en septembre 2010, l'anomalie moyenne glissante sur 13 mois atteindrait alors +0.50°, battant le pic à +0.48° de 1998. D'ailleurs, il suffira d'une anomalie à +0.46° en septembre 2010 pour battre le record de 1998. Si c'est symbolique, c'est seulement parce que sur le site de Roy Spencer (référence UAH), les anomalies sont traditionnellement présentées avec la moyenne mobile calculée sur 13 mois.

UAH_LT_1979_thru_Aug_101.gif

Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Voici 2 graphes assez parlants.

En tenant compte de la durée moyenne de certaines oscillations, de la longueur de série disponible et de la T/30 ans :

loessoscilanot.png

Tous sur 30 ans :

loessoscilanot30.png

L'échelle de T ne concerne que la courbe noire d'anomalie de T.

Les autres courbes ont été déplacées arithmétiquement pour démarrer au même niveau que la T en 1880.

L'importance des différentes oscillations ne donne pas une indication du poids sur la T et des unes par rapport aux autres. Certains paramètres ont été réduits ou augmentés pour une meilleure lisibilité.

L'index PDO est divisé par 2

L'ENSO est multiplié par 2

Log2 CO2 est multiplié par 2

Les autres sont uniquement décalés.

Pour la TSI, il faut bien voir qu' il n'y a que 0.66W/m2 de différence entre le maxi et le mini de la courbe jaune/30 ans (0.64W/m2 /33 ans). Si j'avais recalé la TSI de l'impact réel estimé par les spécialistes, on obtiendrait une ligne bien plus droite sans toutes les variations infimes rendues très visibles sur mon graphe (à l'inverse de ce graphe : http://www.skepticalscience.com/images/compare_pdo_temp_co2_solar.png)

Pour ceux qui souhaitent s'amuser :

Pour ajouter la fonction Loess à Excel : http://peltiertech.com/WordPress/loess-smoothing-in-excel/

Loess : http://en.wikipedia.org/wiki/Local_regression

Les données que j'ai utilisées :

PDO : ftp://eclipse.ncdc.noaa.gov/pub/ersstv3b/pdo/pdo.1854.latest.situ.v3b.ts

AMO : http://www.esrl.noaa.gov/psd/data/correlation/amon.us.long.data

ENSO : http://jisao.washington.edu/data_sets/globalsstenso/#digital_values

TSI : http://lasp.colorado.edu/lisird/tss/historical_tsi.csv?&time=%3E1610-06-29&time%3C=2010-10-01

CO2 : http://www.earth-policy.org/datacenter/xls/indicator7_2010_7.xls

ftp://ftp.cmdl.noaa.gov/ccg/co2/trends/co2_mm_mlo.txt

Ano T : http://www.ncdc.noaa.gov/cmb-faq/anomalies.html

Lien à poster
Partager sur d’autres sites

RSS confirme les valeurs préliminaires d'UAH : avec une anomalie de +0.523°, Septembre 2010 est le mois de septembre le plus chaud depuis le début des relevés satellites.

EDIT : +0.60° pour UAH, ce qui fait également de Septembre 2010 le mois de septembre le plus chaud depuis le début de la base (1979). Dans la foulée, la moyenne des douze derniers mois (Oct 2009 - Sep 2010) égalise le record précédent, qui avait été atteint sur la période Jan-Dec 1998.

Lien à poster
Partager sur d’autres sites

"Voici 2 graphes assez parlants."

Je ne partage pas cet avis (simple point de vue),ne voyant pas vraiment l'intérêt de passer la T°C à la machine Loess; difficile à lire ce graphique, pour un niveau comme le mien, les valeurs obtenues ne me parlent pas. Mais l'idée de montrer les acteurs principaux sur un même graphique est intéressante.

sebb

Lien à poster
Partager sur d’autres sites

e ne partage pas cet avis (simple point de vue),ne voyant pas vraiment l'intérêt de passer la T°C à la machine Loess;

peut être parce qu'elle réussit l'exploit de faire apparaitre une croissance de 0.25 °C entre 1998 et 2010 ? default_smile.png/emoticons/smile@2x.png 2x" width="20" height="20">je me demande bien d'ailleurs comme elle fait ...

à part ça, mon commentaire serait que les oscillations identifiées ont de toutes façons des périodes inférieures au siècle, pour la très bonne raison que celle de période supérieure sont pratiquement impossible à détecter vu le manque de données disponibles dans les siècles précédents. Leur moyenne sur le siècle est donc nécessairement à peu près nulle, et elles ne pourront jamais mathématiquement reproduire une croissance séculaire.

Mais le fait qu'on n'ait pas de bonnes mesures ne veut bien sûr pas dire que les oscillations multiséculaires n'existent pas - et j'ai l'impression que la suite des épisodes optimum romain, refroidissement au Haut moyen Age, réchauffement médieval, petit Age glaciaire , réchauffement depuis le XIXe, semble tracer une oscillation à environ 1000 ans, quelle que soit son origine (cycle solaire ? cycle océanique?). Evidemment elle ne peut pas etre reportée sur le graphique - ça ne veut pas dire qu'elle n'existe pas, et si elle est à longue période, elle mimerait exactement l'influence anthropique au XXe siecle.

Lien à poster
Partager sur d’autres sites

peut être parce qu'elle réussit l'exploit de faire apparaitre une croissance de 0.25 °C entre 1998 et 2010 ? default_smile.png/emoticons/smile@2x.png 2x" width="20" height="20"> je me demande bien d'ailleurs comme elle fait ...

Oui, entre les +0.42° de 2008 et les +0.62° de 2009 (on peut estimer +0.63 en 2010), ca fait une hausse de 0.25°... Bon, la je pinaille, mais ce qui risque alors de ne vraiment pas te plaire, c'est que si tu prends les moyennes globales sur 30 ans, le climat s'est effectivement réchauffé de 0.19° entre 1998 et 2010.

tendances1.png

Mais au moins, je suis d'accord avec Sebb sur un point : je ne saisi pas forcément l'intérêt de présenter l'évolution de la températures globales vs les différentes oscillations avec des gros lissages comme celui-ci. Bon, cela peut être une méthode comme une autre, c'est vrai que j'ai tendance à préferer les reconstructions sur des périodes très courtes comme une année (cf les reconstructions que j'avais postées précédemments).

Ce qui me chagrine le plus avec ce genre de projections comme celle que tu utilises Christian, c'est qu'elles ont tendance à s'évaser sur la toute fin de période. C'est notamment le cas de la PDO, qui montre une véritable chute libre qui en semble presque surnaturelle.

Je vais faire un exemple simple, en prenant les relevés de la NOAA moyennés sur un an, voici ce que donne la régression polynomiale d'ordre 3 :

tendances1.png

On a selon cette régression un réchauffement qui a connu une phase d'accélération continue de 1970 à 2000 (environ), et qui serait en train de ralentir depuis une dizaine d'années. Or, si notre discussion avait eu lieu en 1996, voici la courbe que j'aurais tracée :

tendances2.png

Avec la même régression mais stoppée en 1996, on trouve un basculement du réchauffement à partir de 1991 avec une tendance qui à tendance à nettement s'infléchir de 1991 à 1996 - d'ailleurs en arrivant sur 1997 le réchauffement est quasiment à l'arrêt avec une tendance nulle. Alors que pourtant, avec exactement la même régression sur les données allant jusqu'en 2010, c'est la période où le réchauffement est le plus rapide !

Lien à poster
Partager sur d’autres sites

Oui, entre les +0.42° de 2008 et les +0.62° de 2009 (on peut estimer +0.63 en 2010), ca fait une hausse de 0.25°... Bon, la je pinaille, mais ce qui risque alors de ne vraiment pas te plaire, c'est que si tu prends les moyennes globales sur 30 ans, le climat s'est effectivement réchauffé de 0.19° entre 1998 et 2010.

je vais te rassurer : je n'ai pas de rapport affectif particulier avec une courbe mathématique. Je me demande juste comment on fait un lissage sur 30 ans dans les 15 dernières années? en reportant la période lissée sur [T-30; T]?dans ce cas, je suis probablement encore en train de grandir à 48 ans sur ma moyenne lissée sur 30 ans - ce qui me fait très plaisir default_smile.png/emoticons/smile@2x.png 2x" width="20" height="20">.
Lien à poster
Partager sur d’autres sites

De toute façon, la règle c'est que quand on fitte un signal pour dégager des tendances précises, il faut savoir comment le signal se prolonge hors de l'intervalle d'étude.

Si on ne le sait pas, alors on peut inventer plein de variantes et faussement conclure sur les tendances extrêmes.

L'étude la plus objective, en supposant que le signal soit bien calibré, homogénéisé, etc. c'est la moyenne glissante. Et elle ne nous dit pas (encore) ce qu'il en est entre 1998 et 2010.

Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

En postant ma réponse sur le sujet suivant de ce message, sur la possibilité ou non des records de froids pendant un fort réchauffement, que je préparais depuis pas mal de temps, je viens de voir que mes courbes lissées font causer. Je répondrai plus en détail dans quelques temps selon disponibilités.

En attendant pour vous faire réfléchir sur les courbes lissées, voici quelques courbes lissées avec Loess (méthode robuste particulièrement appréciée des statisticiens pour justement éviter les pièges des courbes polynomiales, trigonométriques et autres, si du moins on lisse de façon cohérente avec les calculs de significativité statistique (que j'ai déjà abordée largement dans des messages précédents) ainsi qu'avec le niveau de bruit à supprimer pour l'échelle donnée, du moins si on ne se sert pas du lissage (ou d'autres techniques plus optimale dans ce cas) pour interpoler des données, ce qui nécessitera à l'inverse de mon cas, d'ajuster une courbe au plus près de chaque donnée. Mais bon là à ce niveau de finesse, on s'éloigne bien trop de l'échelle climatique)

La T annuelle avec un 2 ème lissage sur 16 ans et la tendance/30 ans avec les données annuelles non lissées.

anotanloess3016trd30.png

Si vous avez suivi les posts sur la significativité, vous aurez compris pourquoi sur 16 ans et pas sur 10 ans au autres. Garder toujours en tête l'éventail de pentes possibles autour de chaque segment,(surtout pour le dernier, dont on ne connaîtra la vraie pente, qu'avec les futures données) et donc l'IC de la tendance, d'autant plus important que la durée est courte. Ca devrait vous montrer l'inutilité d'afficher cette variation de courte durée quand on veut connaître le mouvement global sur 30 ans et non les variations dans les 30 ans (mais bon là avec 16 ans, comme la tendance est significative, on est au moins certain que la pente n'est pas une baisse, même si la pente peut-être presque nulle ou bien plus forte que celle sur 30 ans)

La T mensuelle avec en prime exceptionnellement un lissage sur 10 ans (ça me crève le cœur de la tracer default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20">),

http://meteo.besse83...3060_082010.png

C'est la mieux ajustée aux données, mais inutile (du moins pour ceux qui ont besoin de sortir du bruit) vu que de la très grande majorité des petites variations supplémentaires sur cette courbe et surtout la dernière, ne sont pas statistiquement significatives.

L'évolution générale du climat est donnée par la courbe sur 60 ans (la moins bien ajustée aux données).

L'index annuel PDO (normal, non divisé)

pdoloess3016trd30.png

Il est plus bruité que la T, donc il faut plus d'années de données pour obtenir une tendance statistiquement significative.

J'ai regardé vite fait la répartition et les corrélogrammes des résidus des courbes lissées de la PDO, je ne vois rien d'anormal (vu l 'écart entre le dernier mini le prochain en cours, j'aurais même dû lisser la PDO sur 40 ans plutôt que sur 30 ans)

Pour 30 ans, le coeff du Loess est à 0.23 (23% des données), je ne lisse pas vraiment fort (lissage typique du Loess se situe de 0.25 à 0.5)

Pour l'impression sur le graphe général, j'ai mis à jour le graphe en divisant la PDO par 3 au lieu de 2 sur la version de mon message précédent en ajoutant les tendances sur 30 ans :

loessoscilanotpdo3.png

Bon j'en arrive enfin au sujet pour lequel je suis passé ici.

"Les records sont faits pour être battus", ça veut dire que la probabilité de battre un record n'est jamais nulle.

MAIS quand on a un changement climatique, les probabilités évoluent.

Et avec un réchauffement climatique rapide, il ne faut pas s'attendre à ce que les records de froid soient faits pour être battus...

Je ne suis pas d'accord. C'est justement ces fausses idées trop répandues, qui font que certains pensent à des refroidissements/réchauffements à la moindre série de gros records de froid/chaleur (Je ne parle pas des records de moyennes ou de records du nb de jours au-dessus de certains seuils)

Des records de froids peuvent toujours être largement et facilement battus au cours d'un fort réchauffement climatique (même si la fréquence des valeurs froides (10% des plus froides) diminue), car les séries disponibles avec des données journalières d'extrêmes fiables, même pour les plus longues, sont bien trop courtes pour qu'on dispose des records de froid/chaleur significatifs d'une T globale plus froide qu'actuellement (Il faudrait des milliers d'années de données).

De nombreux records de froid ne sont pas significatifs d'une durée suffisante, de plus pour ceux qui pourraient l'être, même d'après des calculs sérieux, ils ne le sont pas autant, comme on pourra le voir avec l'application sur les données du Luc.

Ca dépend aussi beaucoup du niveau de la valeur d'un mois donné dans une station donnée (ex : au Luc, le record de Tnn de novembre est à -9,0°, mais en décembre il est à peine plus froid avec -9.3°, qui a donc une sacrée lacune aussi comparé à mars avec -10°, janvier n'est guère mieux loti, avec -12° par rapport aux -17° de février, mois plus chaud. La moyenne climatique pourrait se réchauffer de 4° au Luc, que ça ne changerait pas le fait que les records de Tnn des mois où ils sont faiblards, pourront tomber relativement facilement)

C'est certain que le record absolu de froid au Luc, -17° le 12 février 56, est mathématiquement phénoménal pour ce coin, même pour l'époque passée plus froide. Il sera même difficile à améliorer avec un bon refroidissement climatique, vu que c'est une valeur qui n'était mathématiquement pas sensée être atteinte au Luc si février 1956 n'avait pas existé (et c'est bien là le problème on estime les records possible qu'avec ce qui a existé sur trop peu de temps).

Si on exclut les 5 valeurs les plus froides des Tn de février 56 (6 des 9 valeurs <= -10° au Luc, figurent dans ce mois. Depuis 1946 , il n'y a que 3 années avec au moins une valeur <= -10°) et donc de toutes les Tn sur 1946-2009, le calcul de la durée de retour renvoie comme impossible une valeur de -17° au Luc (sans ces 5 valeurs de février 56, même pour une durée de retour absurde de 1 Méga d'années, on obtient seulement une Tnn de -13.3°, et dans ce cas une Tnn de -12.8° aurait une durée de retour aussi inutile de 10 000 ans, IC 95% [-11.3°; -14.3°].

-17° au Luc, c'est aussi énorme que de relever une Txx de 50° au Luc (du moins avant de connaître un jour futur au Luc, l'équivalent en chaleur de l'anomalie froide de fév 56, vu que l'été 2003 au Luc, c'est vraiment de la gnognotte par rapport à ce que peut produire la météo et aux anomalies chaudes qu'on a déjà observées ailleurs)

Donc comme ce qui est considéré comme mathématiquement quasi-impossible (à cause des séries disponibles très insuffisantes) s'est déjà produit, il n'y a aucune raison objective que le réchauffement actuel et celui d'au moins les 50 prochaines années, ne puissent générer facilement de gros records de froid malgré une diminution de leur fréquence, surtout dans des mois qui possèdent des cas beaucoup moins extrêmes que février 56 au Luc.

Un réchauffement/refroidissement n'est pas sensé limiter la variabilité habituellement énorme des valeurs les plus extrêmes qui ne répondent pas aux mêmes lois que les moyennes, on entend plutôt souvent le contraire. Cette variabilité énorme et habituelle des extrêmes peut déjà créer des valeurs mathématiquement surnaturelles (à priori, faute de milliers d'années de données) dans un sens ou dans l'autre.

Le réchauffement qui a pourtant bien augmenté la moyenne climatique au Luc, n'a même pas encore réussi à élever le déjà vieux record absolu de Txx au Luc (42.7° en 1982) alors qu'il est autrement plus accessible qu'un -17° dans ce secteur dans un mois de février qui n'est pas le plus froid.

Etant donné l'incertitude importante sur les calculs des durées de retour et la grande variabilité d'un extrême, un record seul même inimaginable mathématiquement, ne prouvera jamais rien du tout sur l'évolution du climat, on l'a vu pour ce -17° au Luc. Ce type de record c'est de la météo pure comme l'est une rafale de vent sur 3 s, ce n'est pas le climat.

Pour illustrer le problème des records, à l'aide de R et des packages qui vont avec le package "Extreme", j'ai calculé quelques durées de retour pour les Tnn et Txx du Luc à partir de toutes les valeurs journalières qui dépassent les seuils de -5° pour les Tn et de 35° pour les Tx (c'est la meilleure qualité ( très relative) de l'ajustement qui a commandé le choix de la valeur de ces seuils qui sont par pur hasard, tombés sur ces valeurs habituelles), afin d'obtenir un plus grand nombre d'échantillons (pas loin de 400) et légèrement moins d'incertitudes, du moins à priori faute de données suffisantes (et en théorie avec la loi GPD : Distribution Pareto Généralisée), que lorsqu'on calcule les durées de retour avec la série des seuls maxi/mini annuels avec la Loi GEV : Loi Généralisée des Evènements Extrêmes.

Durées de retour basées sur la distribution des valeurs journalières après les seuils (loi GPD ) :

duretourgpdll.png

A comparer avec les durées de retour et les IC basés sur la loi GEV (donc dans ce cas uniquement avec les Txx / Tnn annuelles) :

duretourgevll.png

Les résultats graphiques dans R.

Pour les Txx (GPD) :

txllpareto.png

Pour les Tnn (GPD), lire les T comme étant négatives (on voit l'énormité du -17° pour le Luc) :

tnllpareto.png

A comparer avec le calcul basé sur les valeurs annuelles (GEV) et des IC bien plus larges et donc avec des valeurs absurdes faute d'un nombre d'années suffisant :

txllgev.png

Lire les T comme étant négatives :

tnllgev.png

Enfin même avec la loi GPD, le maxi du Luc, 42.7°, aurait une durée de retour de 150 ans, mais en réalité vu l'intervalle de confiance, la durée de retour se situe quelque part entre [ 50 ans; 2000 ans] ! En fait cette incertitude large, n'est rien comparée à l'incertitude réelle encore bien plus importante, vu qu'on n'a pas encore observé au Luc, les valeurs de l'équivalent dans le chaud, de février 56 (ou l'équivalent d'autres anomalies de chaleur ailleurs). Ca signifie très probablement que la durée de retour réelle est bien plus incertaine que dans ces calculs.

Pour le moment, le niveau des records absolus enregistrés pour chaque période de temps (jour, mois, année), a bien plus de rapports avec le fait que nous ne disposons pas de milliers d'années de données, que du fait que les moyennes se réchauffent/refroidissent ou non. Il suffit de voir le niveau de certains records de Tnn du mois de mars 2005 dans le SE, pour comprendre que les gros records de froid sont plus que toujours probables en plein réchauffement :

Dans une des années les plus chaudes de la planète en mars 2005, par exemple, -13.9° à St Cannat (13) et -12.5° à Aix Les Milles (13), -10.6° ici à Besse à 26 km de la mer (83). On imagine facilement l'effet sur les Tn de la même masse d'air fin décembre/début janvier avec une bonne couche de neige au sol et un ciel aussi clair avec un rayonnement solaire bien plus faible et moins d'heures d'insolation (environ 300W/m2 de rayonnement global en moins à midi solaire fin décembre que début mars).

Idem pour exactement la même configuration que février 56, mais décalé fin décembre/début janvier, on n'obtiendrait probablement pas les mêmes records malgré le réchauffement.

Faute de durées de séries suffisantes et de données journalières assez bien homogénéisées, pour suivre l' évolution du climat, il est bien plus judicieux de s'en tenir aux moyennes/30 ans et aux tendances significatives des anomalies sur des périodes suffisantes () que de spéculer avec ces records extrêmes ponctuels qui sont de toutes façons plus que probables même dans un fort refroidissement/réchauffement.

(Et non sur 15 ans seulement, durée pendant laquelle, il a été plus que courant que la tendance ne soit pas significative, même au moment du plus fort réchauffement. J'avais vu par exemple, dans un sujet avec les données Hadcrut, qu'il y a 8 tendances/15 ans non significatives depuis 1965, en voici certaines, http://www.skeptical...alden_1995b.gif , (dont certaines avec chevauchement de données, 39 fois une tendance/15 ans n'a pas été significative depuis 1900) .

Certains oublient que la tendance n'a jamais cessé à de nombreux moments, de sembler s'arrêter /15 ans (illusion due au bruit) pendant que le climat et la tendance sous-jacente continuait à chauffer. Ils sont toujours en train de trouver des stagnations et des refroidissements, à ces variations habituelles de tendance même au cours d'un réchauffement.

Enfin se baser sur ces records avec si peu d'années de données journalières fiables, pour se prononcer sur l'évolution du climat, c'est bien pire que de se noyer dans le bruit de 15 années d'anomalies globales sans tendance statistiquement significative !

Je rappelle pour ceux qui n'ont pas lu mes précédents pavés sur la significativité, qu'une tendance dite non statistiquement significative sur 15 ans, par exemple, ça ne veut pas dire qu'il n'y a pas de tendance, mais simplement qu'avec ces seuls 15 ans de données, on ne peut pas dire dans quel sens, elle évolue avec une assez grande confiance mathématique (avec ces 15 ans de données, on ne peut pas dire objectivement qu'elle est à la hausse, ni qu'elle stagne, ni qu'elle est à la baisse, mais ça n'empêche pas certains, de continuer de parler de stagnation du réchauffement à chaque fois qu'on parle d'une tendance non significative/x années, alors que la moyenne climatique augmente chaque mois dans pratiquement 99% des cas ces 15 dernières années. Avec les anomalies NOAA, le dernier mois qui est passé sous la dernière moyenne climatique/30 ans calculée chaque mois, est janvier 2008, la précédente était en novembre 2000, celle d'avant en février 1994, toutes les autres anomalies mensuelles depuis 1994 ont réchauffé le climat. 99% des anomalies mensuelles depuis 15 ans ont réchauffé le climat, et après certains veulent vous faire croire que le climat ne se réchauffent plus depuis 15 ans (même des pointures en maths avec des CV de folie) parce que la tendance n'est pas significative/15 ans !

Pour trouver la tendance la plus probable, mathématiquement, il suffit simplement d'élargir le nombre d'années pour le calcul et dans notre cas à partir de 16 ans, on a un réchauffement statistiquement significatif (attention significatif, ce n'est pas du 100 % certain, c'est le plus probable avec une confiance à 95%. Il faut voir que tout changement de tendance a commencé par des anomalies mensuelles stagnant ou descendant sur et sous de la dernière moyenne climatique, mais bon avec la variabilité/bruit de la T, quelqu'un avec l'esprit un peu scientifique, ne va pas s'emballer 95 fois/100 pour rien, il sait que dans 95% des cas ce ne sera pas un changement de tendance, il faut donc attendre confirmation avec un certain nombre d'années pour constater que ce n'était pas dû au bruit, mais tant que les anomalies mensuelles ne sont pas assez souvent inférieures ou égales à la dernière moyenne climatique/30 ans calculée chaque mois, c'est très simple de voir même pour un collégien, que ce n'est pas encore le cas actuellement.

Starman, le contexte physique de l'évolution de la T n'a pas grand chose à voir avec l'évolution de la taille. Enfin il y a certains de tes copains en sortant du contexte, qui pensent même que la T évolue comme une marche aléatoire. Heureusement que des personnes compétentes nous informent sur ce type d'erreur de façon amusante :

http://ourchangingcl...t-gain-problem/

Lien à poster
Partager sur d’autres sites

...Dans une des années les plus chaudes de la planète en mars 2005, par exemple, -13.9° à St Cannat (13) et -12.5° à Aix Les Milles (13), -10.6° ici à Besse à 16 km

de la mer (83)...

Salut Christian default_wink.png/emoticons/wink@2x.png 2x" width="20" height="20">Excellent résumé et surtout je comprends mieux les causes du réchauffement climatique dans notre département ces dernières décennies: le centre-Var se rapproche du littoral . Besse n'est plus pointée qu'à 16 kms à vol d'oiseau du bord de mer: quelle montée spectaculaire des eaux méditerranéennes, Toulon est engloutie. Je te laisse le soin de rectifier l'erreur de frappe que tu as commise et de rajouter la dizaine de kms manquantes... 26 kms, je te l'accorde default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20"> .
Lien à poster
Partager sur d’autres sites

  • 2 weeks later...
Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Merci Noël, je voulais juste me réchauffer en m'approchant de la mer !

Pour expliquer comment choisir une courbe de données lissées, il y avait ce sujet bien fait, qui n'est plus en ligne pour le moment sur le site du mathématicien Tamino ( lien que je vous avais communiqué il y a des mois : http://tamino.wordpr...ngerous-curves/ , j'ai demandé sa réactivation). En attendant, pour gagner du temps, je vais me servir de certains de ses graphes/commentaires.

Le lissage des données a pour objectif de supprimer les bruits supposés, de hautes fréquences (On supprime les fluctuations rapides avec un filtre passe-bas, comme le sont une moyenne mobile, un Loess et beaucoup d'autres) tout en cherchant à limiter l'impact sur les basses fréquences (fluctuations lentes) afin que la courbe ne s'éloigne pas trop du signal physique global le plus probable (surtout vers la fin de la courbe dont on cherche souvent à visualiser l'évolution la plus probable). Le signal final, on ne le connaîtra pas vraiment sans les futures données et on n'aura pas de certitude à 100%, même en supprimant du bruit de façon correcte (avec une confiance à 95%).

La courbe lissée isole donc les variations lentes, elle est supposée représenter le plus souvent le signal sous-jacent. On cherche à obtenir une assez bonne approximation du signal global. La difficulté se situe le plus souvent à proximité du début et de la fin de la courbe, c'est un problème récurrent dans les courbes lissées.

Je reprends l'exemple basé sur la série des anomalies annuelles de Central England jusqu'en 2008 à l'époque du post de Tamino.

ceanot.png

Dans ce fouillis provoqué par la variabilité habituellement importante de la T annuelle (surtout pour une seule station terrestre où l'écart-type est bien plus important que pour la T globale), sans lissage il est difficile de distinguer assez objectivement un signal, car selon la vision de chacun, à l'oeil ou en traçant des courbes plus ou moins au pifomètre (même avec de bons coeff de corrélation, mais sans d'indispensables calculs d'intervalles de confiances), les mouvements principaux ne seront pas les mêmes pour tout le monde, notre vision sera plus ou moins influencée de façon différente et surtout de façon très subjective, par les variations rapides.

A l'oeil, ou selon le lissage choisi, si on n'a aucune notion de la variabilité de la T , on peut se demander si le signal s'aplatit réellement ou non, vers la fin de la série des anomalies annuelles.

On peut aussi trouver ce nivellement avec une bonne filtration Loess, mais en lissant sur une durée trop courte de 15 ans, pas souvent significative et non conforme avec l'échelle caractéristique pour ce paramètre (30 ans pour la T). Les petits mouvements saccadés, suggèrent déjà sans calculs, qu'il reste trop de bruit.

celoess15.png

Avec le nombre d'années suffisant, aucune trace de l'aplatissement :

celoess30.png

Pas de dérive vers la fin dans les résidus, ils semblent toujours répartis de façon assez aléatoire.

ceresiduloess30.png

En zoomant sur les dernières années (données jusqu'en 2008) pour suivre au plus près la forme vers la fin, en plus de la classique tendance linéaire, on pourrait par exemple, tracer cette courbe très bien corrélée (choix absurde sans calculs, pour ceux qui connaissent):

cepoly3.png

Un polynôme du 3 ème degrés bien différent avec des courbures prononcées en début et fin de courbe. Ces inflexions sont-elles réelles et représentatives du signal ? Sur le graphe global, on a les données avant 1975, on sait donc que la courbure initiale dans ce zoom n'est pas correcte. Pour l'inflexion de la fin de la courbe, la question reste ouverte vu qu'on ne dispose pas encore des données futures et en prime on n'a pas encore effectué de calculs statistiques d'IC qui permettent de savoir objectivement si ce changement brutal est probable ou improbable sur ces années.

Enfin tout ça pour dire, que nous ne devrions jamais sélectionner une courbe ou baser une analyse sur une courbe sans avoir calculé des intervalles de confiance. Sinon c'est la meilleure façon de se tromper et donc de tromper les autres quand on publie des courbes.

Une des méthodes les plus simples consiste à utiliser la régression linéaire pour calculer des tendances, afin de vérifier si la tendance a statistiquement changé en calculant les IC ( comme je l'ai déjà expliqué il y a des mois dans ce forum).

Pour le cas présent, Tamino l'a fait en calculant les tendances et les IC tous les 5 ans :

ceic.png

C'est clair maintenant avec les calculs. Il n'y a aucune preuve statistique d'un aplatissement ou d'un autre changement récent dans les données. La tendance est significativement à la hausse depuis 75 et elle n'a pas significativement changé d'après les plus courtes tendances suivantes (la dernière plus courte durée qui a une tendance significative est de 23 ans). Le manque de données sur la fin, comme le plus souvent, renvoie une incertitude énorme sur la dernière tendance calculée, étant donné le bruit important présent dans les données de T annuelles.

On ne doit donc pas choisir une courbe qui montre une changement sur la fin, étant donné qu'il n'y a pas de preuves statistiques d'un changement.

Même s'il n'y a jamais 100% de certitude, avec ces calculs, nous pouvons dire qu'il est beaucoup plus probable que la hausse continue, plutôt que d'indiquer que la T se stabilise ou chute. On doit choisir un lissage qui montre la réalité la plus probable jusqu'à preuve statistique que la tendance est devenue nulle (ou à la baisse).

Et lorsque il y a stabilité sur 20/30 ans et plus, ça se voit aussi dans les calculs d'IC par exemple ici, pour un lissage Loess/30 ans GISS (jusqu'en juillet 2010) avec les changements significatifs de tendance :

gissloess30trd4.png

Calculs statistiques d'IC :

gissic4trd.png

La tendance est nulle pour les périodes 1 et 3.

Je précise pour ceux qui ne savent pas lire ce type de graphe, que la période 3 n'indique pas une tendance négative, mais une tendance nulle (un refroidissement significatif aurait l'intervalle de confiance supérieur du point 3, qui serait situé sous le niveau de la ligne de 0°/an) et que la tendance de la période 4 n'est pas statistiquement différente de celle de la période 2 (pour qu'elle le soit, il faudrait que l'IC inférieur de la période 4 se situe au-dessus de l'IC supérieur de la période 2), on ne peut donc pas dire que la période 4 se réchauffe significativement plus rapidement que la 2.

Nous ne devrions pas faire des affirmations sur les changements de tendances (que ce soit par écrit ou simplement sans le dire vraiment en publiant des courbes lissées avec des durées insuffisantes), sauf si nous avons appliqué une analyse statistique (calcul des IC).

Tirer des conclusions uniquement sur des courbes lissées est très risqué. Les caractéristiques du filtre peuvent modifier considérablement l'apparence, et donc l'analyse. C'est une des raisons pour lesquelles le filtre Loess est si populaire chez les statisticiens, car il est conçu pour être robuste contre de tels pièges. Mais il y a toujours des choix à faire même avec un Loess, comme par exemple le choix de l'échelle de temps caractéristique du paramètre concerné (exemple, 30 ans pour la T dans l'étude du climat).

Choisir 10 ans, c'est une échelle pour la T qui ne donne pas souvent des tendances statistiquement significatives, elle n'a donc pas de sens hors analyse du bruit lui même (la tendance peut baisser ou monter/10 ans, sans qu'on puisse dire comment le signal sous-jacent évolue si on élargit pas son zoom).

Les scientifiques sont déjà descendus à contre-coeur pour les rapports du GIEC, en calculant des tendances sur 20 ans. Ca reste encore correct, en T globale, beaucoup de tendances/20 ans sont statistiquement significatives au niveau global et en lissage Loess on peut voir ici que le lissage sur 20 ans reste dans l'intervalle de confiance des pentes du lissage sur 30 ans :

rloess301IC20giss.png

Ici on a l'intervalle de confiance des pentes du lissage Loess/10 ans

rloess10ICgiss.png

On voit par exemple sur la fin, que le dernier segment pourrait être aussi bien fortement à la hausse ou à la baisse, ça n'a pas de sens de regarder ce type de pente si on ne garde pas à l'esprit le lissage sur 20/30 ans (Pas plus de sens que ce type de pente des tendances fixes par périodes de 10 ans) :

rtrd10loess301.png

On devrait plutôt tracer ce type de graphe :

rtrd20loess301giss.png

(attention la dernière tendance n'a pas encore le même sens que les autres périodes/20 ans, l'incertitude de sa pente est bien plus importante, car elle ne comporte pas 20 ans de données, mais seulement 10 ans et 9 mois. Pour le moment elle est significativement identique à la pente du lissage/30ans et à la pente/20 ans précédente, donc pas de changement)

Les lissages Loess réalisés ici, sont basés sur des régressions du 1er degré.

Pour coller plus aux données, par exemple, on pourrait configurer le Loess pour qu'il utilise des polynômes du 2 ème degré, mais ce n'est pas bon pour notre cas, car il fait ressortir des mouvements non significatifs, c'est du bruit qu'on cherche justement à gommer.

J'attire votre attention sur certaines distorsions entre un lissage Loess (et d'autres) et certaines tendances linéaires, qu'il faut avoir à l'esprit et qui peuvent surprendre quand on lisse avec les oscillations/cycles, selon la durée choisie par rapport à la période de ces oscillations/cycles.

Ce cas nous apprendra à bien faire la distinction entre une tendance de fond relativement correcte mais très mal ajustée aux données, et la tendance d'une partie de l'oscillation/cycle, bien plus ajustée aux données mais pas souvent représentative de la tendance de fond ou d'une période complète.

Voici un exemple avec la PDO.

On se rappelle du graphe d'un message précédent où on constate que la pente de la tendance/30 ans est assez semblable à celle du lissage Loess/30 ans :

pdoloess3016trd30.png

Maintenant on lisse sur 40 ans et on calcule la tendance/40 ans

pdoloess4016trd40.png

On constate que la tendance/40 ans ne suit plus du tout la pente du lissage/40 ans.

Il faudrait un lissage bizarre et inutile de 60 ans, pour que le lissage retrouve une pente assez proche sur la fin :

pdoloess6016trd40.png

Ceci à cause du principe des variations de tendance selon le nombre d'années de données dans le calcul, par rapport à la période du cycle/oscillation concerné.

Prenons une série temporelle avec un cycle d'environ 12 ans, une amplitude de 0.3° et une tendance de fond de 0.2°/décennie.

On remarque bien les différences de pente considérables, quand la tendance est tracée sur moins d'un cycle, surtout vers un demi-cycle :

linear_fit_animation.gif

On peut même observer des très fortes baisses alors que la tendance de fond est toujours à la hausse avec le même taux.

Quand on calcule la tendance/30 ans de la PDO sur la dernière période, on voit qu'elle ne démarre pas au mini précédent, donc la tendance ne survole pas au moins une période complète (d'un mini à un mini ou d'un maxi à un maxi), comme sur le graphe animé dans la partie où les tendances partent dans tous les sens, elle n'est pas significative de la tendance de la dernière période complète de la PDO, et bien entendu ni de la tendance de fond générale. Sur 40 ans pour la PDO, on s'en approche beaucoup plus, la pente est donc moins forte, le lissage Loess avec ses régressions locales, suit bien plus les données et montre une pente encore prononcée.

Ici on a le graphe de la tendance des cycles/12 ans, calculée selon la longueur de la tendance calculée par rapport au nombre de cyles.

trend_noise.png

Au centre, on a la tendance de fond de 0.2°/décennie (tirets bleus +-10% d'écart, tirets verts +- 50%, tirets rouges +- 100%).

On remarque qu'en dessous d'un cycle, l'incertitude sur la tendance est grande. La tendance varie considérablement, il faut donc au moins un cycle pour obtenir la tendance de la dernière période et plus de 2 cycles pour approcher au mieux la tendance de fond.

Donc quand un lissage n'est pas suffisant par rapport aux périodes des oscillations, il faut garder à l'esprit qu'il ne représente pas souvent la tendance de fond.

On lisse la T sur 5 et 11 ans pour supprimer le bruit dû à l'oscillation de l'ENSO et au cycle solaire, ce n'est pas suffisant pour voir l'évolution du climat, on supprime juste le bruit dû à ces oscillations. Si on veut s'affranchir du bruit de la PDO et de l'AMO, il faut lisser la T sur plus de 30 ans.

Si on veut vérifier par exemple, que la PDO et l'AMO jouent sur la tendance de fond de la T, il faut voir leur tendance de fond, sinon on ne fait que regarder le bruit qu'elles provoquent sur la T, classique chez beaucoup de passionnés avec un zoom bloqué à fond sur le bruit (Avec la ligne noire en pointillés de la tendance générale sur le graphe de la PDO/ 40 ans, il est clair que la PDO n'a pas une tendance de fond à la hausse depuis 1880. Elle est visuellement à la baisse, mais attention n'oubliez pas les calculs indispensables quand on analyse une courbe, car ils indiquent qu'elle est stable, car cette baisse n'est pas statistiquement significative)

Lien à poster
Partager sur d’autres sites

Posté(e)
Le Voide (49-Maine et Loire), à 35 km au sud d'Angers et à 135 mètres d'altitude.

Merci à ChristianP pour ton travail et de le faire partager avec nous! default_thumbup1.gif

C'est toujours un plaisir de lire ce genre de travail rigoureux!

Je t'envois tous mes encouragements! default_flowers.gif

Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...