Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Statistiques et anomalies climatiques globales


Sam82

Messages recommandés

Tout est dans la phrase

RSS c'est moins fiable ?

.. nous dit celui qui ne savait citer que UAH lorsque cette base donnait des valeurs largement inférieures à toutes les autres.

Mais bon, tu as au moins raison sur une chose : les données NASA-GISS marquent un "coup de chaud" depuis quelques mois qui n'est pas partagé par les deux autres bases terrestres (NOAA et Hadley), ce qui doit inciter à la prudence. Je pense qu'il doit y avoir soit un léger biais chaud sur cette base, à moins que tout simplement cette différence provient des méthodes de calcul employés (après tout je ne suis pas derrière pour en juger, je constate seulement). La NOAA et Hadley ont ainsi observé des anomalies globalement en retrait de 5/6 centièmes de degrés (c'est à la fois peu et beaucoup) par rapport à NASA-GISS sur les 15/20 derniers mois.

Après, pour la valeur de novembre plus particulièrement, sachant que la NOAA donne également une valeur très élevée (+0.69°, second mois de novembre le plus chaud depuis le début des relevés), je ne pense pas qu'il y ait non plus un décalage déraisonnable de NASA-GISS.

Pour ta question de savoir si RSS est moins fiable, je dirais qu'on ne peut pas trop poser la question : c'est tout simplement différent. RSS et UAH ne mesurent pas exactement la même chose, et ils le font avec des méthodes très différentes ; on peut les comparer sur le long terme mais sur un mois particulier cela n'a pas vraiment d'intérêt. On sait surtout que les résultats de ces deux bases sont extrêmement sensibles à l'ENSO, ce qui a pour conséquence qu'elles ont crevé les plafonds entre fin 2009 et début 2010 (Niño), qu'elles sont en chute libre désormais (Niña), et qu'elles devraient crever les planchers d'ici quelques mois comme elles l'ont fait en 2008/2009.

Ce qui est intéressant, c'est que sur les cinq bases, quatre s'accordent sur le fait que les 16 derniers mois ont été particulièrement chauds, au point qu'en année glissante le record de l'année la plus chaude a été approché de quelques dixièmes voire centièmes de degrés.. NASA-GISS s'écartant un peu par le haut en donnant un record bien battu, conséquence logique de ce qui a été dit plus haut, tandis que Hadley s'écarte par le bas avec un pic 2009/2010 inférieur à celui de 1998.

Lien à poster
Partager sur d’autres sites

  • Réponses 5,1k
  • Créé
  • Dernière réponse

Les plus actifs

Les plus actifs

Messages populaires

Je reviens sur ce sujet mal placé dans le national car c'est global. "Le réchauffement climatique en pause : records de chaleur mondiaux, c'est fini !" http://www.lameteo.org/index.php/news/2822

Ok, je rajoute donc une couche dans la "censure" de cet énergumène...     Et du coup, Infoclimat va pouvoir me verser une prime supplémentaire.

Beaucoup d'erreurs élémentaires et incroyables pour des pro dans tout ce que je viens de lire, que ce soit dans l'édito de Fred sur "Où en est le RC", https://www.lameteo.org/index.php/news/3149-ou-en

Images postées

Posté(e)
Nord du Gard - Saint-Ambroix - Alt: 151 m

En fait Treizevents, ma phrase est ironique, je pense simplement que la NASA-GISS fait son maximum pour que 2010 sorte comme l'année la plus chaude jamais enregistrée, afin de faire un coup médiatique en faveur du RCA début janvier 2011.

Si je le pense c'est que l'ai lu et que je ne suis pas le seul à être au courant.

Lien à poster
Partager sur d’autres sites

En fait Treizevents, ma phrase est ironique, je pense simplement que la NASA-GISS fait son maximum pour que 2010 sorte comme l'année la plus chaude jamais enregistrée, afin de faire un coup médiatique en faveur du RCA début janvier 2011.

Si je le pense c'est que je l'ai lu et que je ne suis pas le seul à être au courant.

Je savais que ta phrase était ironique, mais au moins cela permettait d'évoquer ces différences entre les bases pour ceux qui ne connaissent pas forcément.

Après, pour tes lectures, on lit beaucoup de choses, moi j'avais lu que UAH (qui pour ceux qui ne connaissent pas est gérée par un sceptique assez célèbre) faisait tout au contraire pour empêcher d'avoir une année 2010 la plus chaude depuis le début des relevés, d'où certains ajustements successifs sur la première moitié de l'année comme le changement de version qui a fait passer - quand même - Janvier de +0.72 à +0.63 et février de +0.74 à +0.61. Officiellement, pour corriger un biais qui avait été détecté au niveau du traitement des mesures.

N'ayant pas les compétences pour en juger, je préfère rester à ma place et parler des résultats donnés. Toutes les bases connaissent des pics à certaines périodes qui ne sont pas forcément suivis : Hadley et RSS ont été très chauds en 1998 et étaient accusés lorsque j'ai commencé à m'interesser au sujet de grossir les chiffres. Cela a été davantage la NOAA dans les années 2000, depuis 2/3 ans c'est la NASA qu'on accuse - et assez bizarrement par contre il n'y a pas trop de remarques à UAH qui malgré plusieurs ajustements vers le bas reste bien plus chaud que son compatriote RSS. Je n'ai pas de doute que la roulette va continuer et que dans 2/3 ans ca sera encore un autre qui sera mis au banc des accusés.

Lien à poster
Partager sur d’autres sites

une remarque : il suffirait de rapporter les écarts d'une année sur l'autre aux incertitudes (ne seraient ce qu'en évaluant l'écart type entre les différentes estimations ramenées à la même baseline), pour que tout ceci n'ait plus aucun interêt : tout le monde concluera qu'il n'y a pas de différence significative entre 1998 et 2010 . Le fait qu'on s'étripe pour savoir si la 2e decimale va etre supérieure ou inférieure est juste la preuve du peu de scientificité du discours médiatique actuel sur le climat.

Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Voici une classification des dernières anomalies mensuelles pour les 5 séries principales par rapport à celles des 360 mois précédents, recalées sur la même période de référence de 30 ans (11/1981 - 10/2010). On ne peut donc utiliser une plus récente référence climatique que celle-ci, pour classer le dernier mois.

Les seuils de l'échelle sont basés sur les centiles, car les distributions ne sont pas gaussiennes.

echeldistri5anoglob.png

distri5anoglobrecal.png

En attendant la 5 ème anomalie, pour le moment le mois de novembre est classé "chaud" (moyenne des 4 anomalies), pour RSS il est "doux", pour UAH il est "chaud", pendant que pour NOAA et GISS il est "très chaud".

C'est "bizarre" que lorsque l'écart est en sens inverse, on ne trouve pas de sceptiques qui crient au scandale sur la validité de la série d'un organisme et aucun qui interprète de travers des phrases sur les données GISS ( par ex quand en juillet 2010 l'anomalie comparable avec une même référence, est de 0.16° , pendant que RSS est à 0.50°, soit un écart plus important qu'au cours de ce mois de novembre, GISS à 0.39° contre 0.20° pour RSS. Il faut donc vraiment être particulièrement complétement formatés par Watts et compagnie, ou posséder une mauvaise fois sans limites pour dire que la NASA fait tout pour réchauffer 2010 vu le passif de juillet et d'autres mois de 2010 !)

Aucune remarque de ces mêmes personnes sur la validité des données des organismes pour le mois de juillet "normal" de la NOAA (0.10°) pendant que pour UAH il était "très chaud" ( 0.51°)...

A noter aussi, le dernier mois "froid" remonte à février 1994 (-0.31° , moy des 5 séries avec même référence). Dans ce cas l'anomalie GISS est classée "très froide" avec -0.41° pendant que les sat la donnaient "fraîche" -0.18° pour RSS et -0.23° pour UAH.

Le dernier mois "très froid" remonte à novembre 1992 avec -0.34° et là aussi les sat ont été moins froids, classés "frais" (-0.26° et -0.24°) pendant que la NOAA a vu un mois "exceptionnellement froid" (-0.38°), avec GISS il a été "très froid".

Le dernier mois "exceptionnellement froid" remonte à juillet 1985 (-0.41°) et cette fois pour RSS aussi avec -0.47°, "très froid" pour UAH (-0.47°) et pour GISS (-0.43°)

Enfin tous ces exemples parlants n'empêcheront pas les mêmes personnes de nous ressortir dans quelques mois, les mêmes arguments de bidochons, sur la validité des séries terrestres , vu que la logique des analyses objectives des données, n'a jamais eu aucune prise sur des croyants qui ne se réfèrent surtout pas à la science revue par les pairs.

Bien entendu, qu'on utilise ou non une période de référence différente comme avec les anomalies que l'on consulte habituellement, ça ne change en rien leur classification respective, vu que les distributions ne changent pas.

distri5anoglobnonrecal.png

(Sans une même référence, on peut toujours comparer objectivement les classifications, mais pas les valeurs absolues des anomalies)

S'ils se donnaient au moins la peine de tenir à jour ces genres de tableaux (de niveau 3ème/seconde), ils ne raconteraient pas n'importe quoi sur les différences entre les séries et la classification objective des anomalies.

A noter sur le même sujet, une analyse particulièrement intéressante de Tamino,

http://tamino.wordpress.com/2010/12/16/comparing-temperature-data-sets/

Une autre plus simple, qui confirme une fois de plus l'incompétence notoire de certains dans l'analyse de données :

http://tamino.wordpress.com/2010/12/13/odd-man-out/

Même chez les sceptiques, http://rankexploits.com/musings/2010/how-unusual-was-gistemp-in-november/ , on trouve une analyse objective et certains commentaires honnêtes sur ce sujet (en particulier ceux de Lucia qui est loin d'être une "réchauffiste" et qui concernent particulièrement Ardèche, où elle parle de l'impossibilité de trafiquer volontairement les données GISS sans qu'on s'en aperçoive, vu qu'on a toutes les infos dispo pour détecter ce genre de manip et que depuis quelques temps certains regardent les codes de près, http://clearclimatecode.org/ )

Sinon je n'ai pas vu d'analyses sérieuses qui démontrent qu'une série est meilleure qu'une autre, en attendant le plus efficace c'est d'utiliser les 5, car on ne peut pas affirmer qu'une série est meilleure qu'une autre.

Mon avis perso, je doute bien plus des données satellites que des données terrestres pour la simple et bonne raison que l'on ne peut pas les vérifier aussi rigoureusement que sur terre. On n'envoie pas assez souvent un nouveau satellite avec des "capteurs" étalonnés pour vérifier les autres, alors que sur terre le contrôle est très fréquent, bien plus efficace et plus simple ( c'est pourtant déjà compliqué de mesurer objectivement une T de l'air sur terre) et on peut déterminer assez précisément les biais, où ils se trouvent dans la chaîne de mesure, alors que pour les satellites, on n'est déjà pas absolument certain que le capteur étalonné n'a pas déjà dérivé en arrivant sur site dans l'espace, suite aux contraintes autrement plus importantes pour y parvenir.

De plus de l'espace on ne mesure pas la T de l'air à une hauteur assez précise de 1.5 m/ 2 m et vu les biais qu'on introduit déjà sur terre si on mesure pas une hauteur assez standard, on peut difficilement concevoir qu'un satellite actuel fasse au moins aussi bien que des stations à la bonne hauteur, même avec les meilleurs calculs statistiques pour affiner.

C'est déjà difficile de mesurer objectivement sur terre avec du matériel à gogo pour vérifier, alors dans l'espace, il y a beaucoup plus de problèmes impossibles à résoudre assez précisément.

Après pour ce qui est de l'année civile la plus chaude, là aussi, il faut attendre et regarder la moyenne des 5 séries et les intervalles de confiance (à vue d'oeil, sans calculs, ça m'étonnerait que 2010 soit statistiquement plus chaude que 98/2005, elle sera probablement considérée comme "identique", enfin on vérifiera tout ça objectivement en temps voulu)

Lien à poster
Partager sur d’autres sites

Un merci tout particulier à ChristianP flowers.gif et à 13vents flowers.gif pour la hauteur scientifique de leur analyse, et surtout pour leur probité.

Sincèrement, je me régale à lire leurs analyses.

Certains, et il y en a plusieurs qui interviennent sur IC, passent leur temps à essayer de prouver (sans le moindre recours statistique) que le RC est de la fumisterie.

De balayer d'un coup et d'un seul ce que dit toute la communauté scientifque digne de ce nom n'est pas vraiment acceptable ici.

On n'a pas à défendre un point de vue; on a par contre à observer le comportement du climat de la planète, à une époque où il est mis sous tension...

Lien à poster
Partager sur d’autres sites

Après pour ce qui est de l'année civile la plus chaude, là aussi, il faut attendre et regarder la moyenne des 5 séries et les intervalles de confiance (à vue d'oeil, sans calculs, ça m'étonnerait que 2010 soit statistiquement plus chaude que 98/2005, elle sera probablement considérée comme "identique", enfin on vérifiera tout ça objectivement en temps voulu)

tout à fait ! disserter sur des écarts inférieurs aux dispersions entre les différentes mesures, ça n'a de toutes façons aucune signification, et c'est certain qu'on est dans ce cas, y a pas besoin d'attendre pour le vérifier, c'est d'ores et déjà évident d'après les données que tu présentes. Je te félicite donc aussi pour la hauteur scientifique de tes analyse, et surtout pour leur probité !
Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Oui c'est certain qu'il y aura "égalité" entre 1998 et 2010 (pas de différence statistiquement significative), de plus 2005 est hors circuit avec la moy des 5 séries.

Là avec les moyennes annuelles des 5 séries, c'est clair :

anoglobmoy52010prov11.png

echeldistri5anoglob.png

(Avec les mêmes seuils sauf que je n'ai pas utilisé les centiles pour les déterminer, car avec seulement 30 données ils ne sont pas efficaces, de plus la distribution au pas annuel est assez proche de la normalité. Donc avec la loi normale, j'ai calculé les seuils qui donnent les mêmes pourcentages)

Je n'ai pas trouvé et je ne connais pas les barres d'erreurs des mesures satellites au pas annuel, si quelqu'un les as, merci !

Mise à jour avec Hadley qui relève un mois de novembre "doux", ce qui donne un mois de novembre "chaud" pour la moyenne des 5 séries :

anoglob5moy112010.png

112010ano5glob.png

Lien à poster
Partager sur d’autres sites

Une des grosses différences entre les données du GISS et Hadley par exemple, c'est que les très hautes latitudes sont représentées dans les données GISS et absentes au Hadley. Avec les ondulations actuelles du vortex polaire, ils n'est pas étonnant que les données du GISS apparaissent plus orientées vers le chaud, non?

et encore bravo pour ce travail et pour ta rigueur

Lien à poster
Partager sur d’autres sites

Une des grosses différences entre les données du GISS et Hadley par exemple, c'est que les très hautes latitudes sont représentées dans les données GISS et absentes au Hadley. Avec les ondulations actuelles du vortex polaire, ils n'est pas étonnant que les données du GISS apparaissent plus orientées vers le chaud, non?

Tout à fait, d'ailleurs lorsque l'on prend les relevés GISS et NOAA sans prise en compte de ces hautes latitudes, leurs résultats sont très proches de ceux de Hadley. Or, dans la mesure où ce sont clairement les régions arctiques qui ont tiré les bilans vers le haut depuis quelques années, cela explique en bonne partie le fait que Hadley ait enregistré une décennie un peu moins chaude que GISS et la NOAA.

D'ailleurs, il a été plusieurs fois avancé par certains que le fait que la NOAA et GISS donnent une année 2005 plus chaude que 1998, alors que Hadley donne l'inverse, était une preuve que ces deux premiers organismes "grossissaient" volontairement leurs chiffres. Alors qu'en réalité, les trois bases donnent des résultats finalement bien proches, puisque si l'on "sort" les hautes latitudes de GISS et de la NOAA afin d'avoir le même périmètre que Hadley, c'est bien 1998 qui ressort également chez ces deux bases.

Lien à poster
Partager sur d’autres sites

Tout à fait, d'ailleurs lorsque l'on prend les relevés GISS et NOAA sans prise en compte de ces hautes latitudes, leurs résultats sont très proches de ceux de Hadley. Or, dans la mesure où ce sont clairement les régions arctiques qui ont tiré les bilans vers le haut depuis quelques années, cela explique en bonne partie le fait que Hadley ait enregistré une décennie un peu moins chaude que GISS et la NOAA.

D'ailleurs, il a été plusieurs fois avancé par certains que le fait que la NOAA et GISS donnent une année 2005 plus chaude que 1998, alors que Hadley donne l'inverse, était une preuve que ces deux premiers organismes "grossissaient" volontairement leurs chiffres. Alors qu'en réalité, les trois bases donnent des résultats finalement bien proches, puisque si l'on "sort" les hautes latitudes de GISS et de la NOAA afin d'avoir le même périmètre que Hadley, c'est bien 1998 qui ressort également chez ces deux bases.

oui, voici d'ailleurs ce que donne GISS sur la zone HadCRUT (voir carrés verts GISS dans graphique de droite).

comp-giss-hadcrut2.jpg

ceci illustre le fait qu'il ne faut pas, à mon sens, mélanger les choux et les carottes en comparant des bases de données les unes aux autres sans savoir ce qu'il y a dedans.

quand on examine les températures de surface on ne peut donc pas dire qu'on ne sait pas quelle est la "meilleure base" si ces bases ne considèrent pas les mêmes latitudes (dans le cas de GISS il y a extrapolation)

Sinon, je veux bien qu'on mette RSS et UAH, mais dans ce cas on ne parle pas de température de surface mais de température de la basse troposphère qui est un milieu différent de la surface.

Dans la comparaison d'une année par rapport à une autre l'influence de l'ENSO est considérable sur la troposphère.

Donc faut savoir que ce sont des indicateurs complètement différents et ils ne doivent pas être confondus surtout en interannuel.

Un petit détail: il me semble que la base NOAA est sur 1901-2000 et pas sur 1961-1990.

Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Oui Météor, j'ai corrigé. Je n'avais pas vu qu'il avait changé la source données dans son script sans changer la période de référence, car à l'époque où j'avais récupéré et décortiqué son script, il utilisait une autre série de données NOAA avec des anomalies différentes calculées sur 61-90, ça m'avait d'ailleurs étonné.

Oui ça me gêne aussi de tout mélanger, surtout les mesures satellites que je pense plus biaisées que celles des stations (sans preuves), et qu'en prime personnellement je n'utiliserais que les séries qui calculent la T pour toute la planète, y compris avec interpolation, mais comme dans les faits on n'a aucune idée de la série qui donne la meilleure estimation de la T globale (beaucoup pensent que la vraie valeur se situe quelque part entre GISS et Hadley et pour d'autres ce sont celles des satellites) au moins une valeur moyenne est neutre pour tout le monde pour le moment, en attendant que les spécialistes tranchent.

Enfin la vérité pourrait-être très bien plus chaude que GISS, car j'ai lu que selon les méthodes de pondération utilisées dans certaines reconstructions globales indépendantes, GISS renvoyait une tendance moins forte que des reconstructions réalisées par des sceptiques encore assez rigoureux et honnêtes pour publier des résultats qui aillent à l'encontre de ce qu'ils pensaient

http://rankexploits.com/musings/2010/comparing-global-landocean-reconstructions/

http://rankexploits.com/musings/2010/replication/

http://rankexploits.com/musings/2010/comparing-global-land-temperature-reconstructions/

http://rankexploits.com/musings/2010/the-great-gistemp-mystery/

De plus NOAA a aussi une valeur élevée ce mois, alors que si j'ai bien compris, cette série aussi n'extrapole pas comme GISS pour les mailles sans stations, donc difficile de discuter de ces écarts sans rentrer dans les petits détails.

Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

J'ai regardé si la moy des 5 séries changeait beaucoup l'incertitude de la tendance selon le nombre d'années entrant dans le calcul de la tendance depuis le début du réchauffement moderne (1975, à jour fin novembre 2010).

A noter qu'il y a un peu plus d'auto-corrélation dans les anomalies mensuelles moy des 5 séries, que dans les séries mensuelles NOAA et GISS que j'avais analysées individuellement pour les mêmes types de graphes présents dans les messages précédents de ce forum.

Donc pour détecter un signal significatif au milieu du bruit, avec la moy des 5 séries, il faudra obligatoirement un peu plus de données que pour certaines séries individuelles (du moins si le signal n'est pas assez fort, vu qu'on a un exemple rare vers la fin de la courbe, où la tendance est significativement à la hausse sur une très courte durée de 3 ans, pendant quelques mois !)

trdsign1975112010.png

Donc là avec le graphe, on voit qu'il faut environ 16.5 ans de données pour affirmer avec une confiance à 95%, que ça se réchauffe (avec moins, 16 ans par ex, on dit qu'il n'y a pas de tendance significative visible/ 16 ans, ni de réchauffement significatif, ce qui ne veut pas dire que ça ne se réchauffe plus, mais simplement qu'on ne peut pas distinguer le signal sous-jacent à cause du bruit, sur cette trop courte durée de 16 ans pour le signal donné, signal qu'on pourra détecter sur une plus longue période, mais qui ne garantit pas à 100% qu'il se poursuivra ainsi quand on aura la durée suffisante pour le visualiser sur les 16 années concernées (on a quand même une confiance à 95% que ce sera le cas)

Je martèle souvent qu'on ne peut parler des tendances courtes, surtout parce que certains en discutent sans traiter le bruit ou sans calculer la significativité et parce qu'elles le sont très rarement.

Dans le graphe, on a un exemple rare et amusant qui permet d'affirmer avec une confiance suffisante que sur les 3 dernières années (déc 2007 à nov 2010 et pendant quelques mois autour, là où l'intervalle de confiance inférieur de la période reste > 0), le signal est visible au-dessus du niveau de bruit, au point que la tendance est statistiquement significative malgré l'énorme incertitude de la tendance calculée avec si peu de données (sur déc 2007- nov 2010, [+1.7°; +26.6°]/siècle pour une tendance centrale de 14.2°/siècle, une véritable tendance comique !).

Bien entendu, il est important de prendre cette tendance/ 3 ans comme une simple indication de vitesse instantanée très incertaine, comme celle lue sur votre compteur de vitesse de voiture mais avec une grosse marge d'erreur (mais qui permet de dire que la voiture avance positivement), pendant que la tendance de fond depuis 1975 représente un compteur de vitesse moyenne, donc à plus long terme, échelle nécessaire pour parler un peu plus de tendance climatique (en fait il faudrait 60 ans de données pour voir la véritable tendance climatique, pour détecter un changement de tendance entre 2 périodes de 30 ans, sans chevauchement de données), alors que la tendance lue sur ces 3 ans, même si elle est significative, ne donne qu'une tendance de variation instantanée interne.

On ne peut pas dire que le climat se réchauffe sur cette seule indication de tendance/3 ans même si elle était encore plus significative en indiquant une accélération, sans avoir analysé les tendances sur de bien plus longues durées.

Donc vous vous imaginez bien que ceux qui parlaient de refroidissement ou de stagnation sur de courtes périodes, sans que les calculs montrent un quelconque changement significatif, ne sont pas crédibles, vu qu'aucune tendance depuis 75 n'a jamais été significativement à la baisse, et n'a montré un changement significatif indiquant une stagnation, alors que là malgré la significativité de cette tendance/ 3 ans, il ne seraitpas juste de dire que le climat se réchauffe, sur cette seule tendance de 3 ans.

On peut voir ici aussi sur des périodes cibles

difrtic75112010.png

que les IC montrent qu'il n'y a absolument aucun de changement de la tendance au réchauffement (pas de refroidissement, pas de stagnation, pas d'accélération du réchauffement).

Les tendances qui ont l'IC inférieur > 0 sont significatives d'un réchauffement, celle depuis 75, celle sur 30 ans depuis oct 1981, celle depuis juin 94 qui est la dernière tendance significative à la limite de la significativité et la tendance instantanée sur 3 ans, anecdotique.

Les autres tendances sont positives mais n'ont aucune signification (car l'IC inf < 0 et l'IC sup n'est pas passé sous la ligne en pointillés bleus pour pouvoir indiquer une stagnation ou sous 0 pour indiquer un refroidissement), la durée est trop courte pour le signal donné pour détecter la vraie tendance.

La dernière tendance/ 3 ans, qui semble impressionnante, mais avec une incertitude énorme, n'a pas son IC inférieur situé au-dessus de la ligne en pointillés rouges, représentant l'IC sup de la tendance jan75-nov2010 ( malgré ces +14.2°/siècle en valeur centrale, elle ne montre absolument aucune accélération même instantanée). C'est avec ce genre d'exemple qu'on voit l'importance de garder en tête une assez bonne idée des IC autour d'une valeur, au risque de raconter vraiment n'importe quoi à cause de ce genre de valeur centrale qui semble indiscutablement fortement positive si on oublie les IC. J'imagine déjà le délire collectif sur les blogs, le jour où on observera une telle tendance/ 3 ans dans le négatif, déjà que lorsqu'on relève la même vitesse positive /3 ans, certains névrosés arrivent à "voir" un refroidissement, alors pour eux ce serait la fin du monde !

En ce qui concerne les records d'anomalies annuelles, j'avais noté une indication intéressante. Les spécialistes avaient calculé à partir des modèles très imparfaits pour ce genre d'exercice, la probabilité en fonction du temps pour que le record global annuel soit battu indiscutablement (de plus 0.1°)

95% des records annuels de T globale, donnés par les modèles sur la période qui nous concerne, sont sensés être battus en 18 ans (donc on est sensé voir le record de 98 tomber de plus de 0.1°, d'ici 2016)

Lien à poster
Partager sur d’autres sites

Dans le graphe, on a un exemple rare et amusant qui permet d'affirmer avec une confiance suffisante que sur les 3 dernières années (déc 2007 à nov 2010 et pendant quelques mois autour, là où l'intervalle de confiance inférieur de la période reste > 0), le signal est visible au-dessus du niveau de bruit, au point que la tendance est statistiquement significative malgré l'énorme incertitude de la tendance calculée avec si peu de données (sur déc 2007- nov 2010, [+1.7°; +26.6°]/siècle pour une tendance centrale de 14.2°/siècle, une véritable tendance comique !).

il faut quand même remarquer qu'il n'y a pas de rapport entre la significativité d'une tendance et le fait qu'on puisse l'extrapoler ensuite ! le réchauffement que tu mesures avec un thermomètre sur 6 heures entre 7h du matin et 13 h est absolument significatif et correspond à plusieurs degrés par heure , soit des millions de degrés par siècle ! c'est simplement que c'est en fait une composante périodique qui n'a aucun sens à etre extrapolée.Donc même une tendance significative sur T années n'assure nullement que ça corresponde à une tendance plus longue.
Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

J'ai pourtant bien précisé que c'était une tendance instantanée et que c'était comparable à une vitesse instantanée. Donc vu que tu comprends très bien la valeur donnée par le compteur de vitesse instantanée de ta voiture, tu sais très bien qu'on n'extrapole pas. C'est très étonnant de ta part de que tu trouves bizarre la façon d'exprimer une tendance instantanée sur une période donnée plus courte que la durée donnée comme on le fait pour bon nombre d'autres mesures instantanées.

Dans le cas présent, je l'ai surtout exprimée en °/ siècle au lieu de °/décennie ou autres, pour bien faire ressortir l'inutilité des chiffres et l'incertitude monstrueuse d'une tendance si courte, même si elle est significative.

J'utilise les même expressions que celles présentes dans les études où les tendances, courtes ou non, sont en °/mois, °/an, °/déc ou en °/siècle, sans posséder toujours les relevés d'une bonne partie du siècle entier concerné. Le jour où ils exprimeront d'une seule façon, les tendances plus courtes que la période couverte par les relevés, je l'utiliserai.

Quand on dit que MF a relevé une rafale de 200 km/h, on l'exprime sur une heure alors que dans la réalité la vitesse n'a été déterminée et tenue que sur 0.5 s (en France), ça ne pose de problèmes à personne qu'on ne dise pas que MF a relevé une rafale violente de 0.0277 km/0,5 s pour soit disant éviter d'extrapoler à 200 km/h. Tu devrais écrire à l'OMM, à MF et aux chaines de TV, pour leur proposer la bonne appellation, car ce n'est pas ici qu'on pourra changer ça :-)

Pour le moment, c'est une des façons d'exprimer une vitessse instantanée admise par tous, tout comme les °C/ déc ou °C/siècle pour des tendances plus courtes que ces durées.

Lien à poster
Partager sur d’autres sites

Quand on dit que MF a relevé une rafale de 200 km/h, on l'exprime sur une heure alors que dans la réalité la vitesse n'a été déterminée et tenue que sur 0.5 s (en France), ça ne pose de problèmes à personne qu'on ne dise pas que MF a relevé une rafale violente de 0.0277 km/0,5 s pour soit disant éviter d'extrapoler à 200 km/h. Tu devrais écrire à l'OMM, à MF et aux chaines de TV, pour leur proposer la bonne appellation, car ce n'est pas ici qu'on pourra changer ça :-)

Pour le moment, c'est une des façons d'exprimer une vitessse instantanée admise par tous, tout comme les °C/ déc ou °C/siècle pour des tendances plus courtes que ces durées.

j'ai mal du me faire comprendre, je sais très bien ce que c'est qu'une dérivée et qu'on peut l'exprimer en n'importe quelle unité dimensionnellement correcte de y/x - on a tout à fait le droit de dire que le réchauffement en une matinée est d'un million de °C /siècle. j'ai juste dit que la valeur sur un temps T donné ne signifiait rien d'autre que cette valeur sur le temps T. Il y a un implicite dans toutes les études de "tendances linéaires", c'est qu'au delà d'un certain temps, les composantes périodiques deviennent négligeables et ce qu'on mesure est réellement un tendance linéaire extrapolable. Ce temps caractéristique est semble-t-il fixé à 30 ans par les climatologues. Il est donc tout à fait possible effectivement de mesurer sur des temps plus court des pentes nettement supérieures ou inférieures (qui peuvent etre tout à fait significatives et en dehors des barres d'erreurs), je suis bien d'accord.

La seule question qui me turlupine , c'est pourquoi cette limite est fixée à 30 ans, et pourquoi la pente sur 30 ans ne pourrait-elle pas AUSSI contenir des composantes périodiques la rendant significativement supérieure à la tendance sur 100 ans par exemple? j'ai pas encore bien saisi la raison profonde ...

Lien à poster
Partager sur d’autres sites

Posté(e)
Le Voide (49-Maine et Loire), à 35 km au sud d'Angers et à 135 mètres d'altitude.

Merci ChristianP pour ta contribution, mais il va falloir que tu m'aides un peu pour que je puisse un peu mieux suivre tes travaux statistiques! default_whistling.gif

J'imagine que tu utilises des méthodes statistiques, cependant mes études ne m'ont pas permis d'approfondir ce domaine, et du coup je ne maîtrise pas entièrement le dernier graphique que tu postes mais qui me semble important de comprendre pour ce sujet.

trdsign1975112010.png

J'ai compris que lorsque que les indices "IC inf" et "IC sup" n'indiquent pas les même tendances, on ne peut pas parler de tendance significative.

Mais que signifie "IC inf autocorrélation compensée" et "IC sup autocorrélation compensée" et comment s'appelle la méthode statistique qui te permet d'obtenir ces courbes.

La tendance significative apparaissant sur la période (déc 2007- nov 2010), résulterait t'elle d'une situation exceptionnelle sur cette période étudiée?

Enfin pourquoi le centre de Hadley a t-il fait le choix de ne pas utiliser les données des stations terrestres des hautes latitudes contrairement aux organismes GISS et NOAA pour déterminer la température globale?

Merci pour tes précisions pour que je puisse bien appréhender ce sujet qui m'intérresse! default_flowers.gif

Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Aldébaran, j'ai déjà communiqué les explications très détaillées sur les incertitudes des tendances en montrant les résultats avec ou sans traitement de l'auto-corrélation des résidus (et pourquoi on a de l'auto-corrélation dans les données et comment la compenser), ainsi que les liens sur les méthodes utilisées dans des messages précédents déjà bien longs. Je te remercie de bien vouloir les rechercher dans les forums (pour les explications sur les stats, consulte tous mes messages depuis août 2009; il est possible que certains figurent dans d'autres forums climato d'IC)

Tu peux éviter d'avoir à traiter l'auto-corrélation en utilisant les anomalies globales au pas annuel, car non seulement ces moyennes annuelles sont moins bruitées (il est lissé par la moy) et surtout elles sont beaucoup moins contaminées par l'auto-corrélation, ce qui permet d'obtenir une assez bonne estimation de la significativité de la tendance avec les tests statistiques traditionnels, basés sur les moindres carrés ordinaires (MCO) qui nécessitent des conditions minimales d'indépendance des échantillons (il y a de l'auto-corrélation mais elle est statistiquement négligeable sur cette période pour pouvoir utiliser ces tests)

Je viens de regarder pour les moy annuelles globales des 5 séries, on trouve une tendance statistiquement significative à la hausse avec une durée d'au moins 16 ans de données (tests de Spearman et de Kendall, utilisés par MF, mais qui ne conviennent pas au pas mensuel à cause de l'auto-corrélation)

Avec moins d'informations fines qu'au pas mensuel, ça donne quand même une estimation assez correcte (16 ans contre 16.5 ans pour l'estimation au pas mensuel, qui est elle-même aussi basée sur une estimation de l'auto-corrélation, ce qui veut dire incertitude; il sera donc difficile de prouver mathématiquement que 16.5 ans est plus juste que 16 ans, ou inversement, à ce niveau on ne va pas chipoter. Je te laisse calculer l'IC des tendances avec Student ou la loi normale au pas mensuel, sans prendre en compte l'auto-corrélation, tu verras une très nette différence, tu trouveras qu'elle est significative avec une bien plus courte durée, ce qui est faux)

j'ai lu que des spécialistes du climat indiquent qu'on a une tendance véritablement significative du signal forcé, avec plus de 15 ans de données, ceci pour la moyenne globale de la planète.

J'ai compris que lorsque que les indices "IC inf" et "IC sup" n'indiquent pas les mêmes tendances, on ne peut pas parler de tendance significative.

Non.La tendance n'est pas significative d'un réchauffement (ou d'un refroidissement), simplement quand les IC inf et sup ne sont pas tous les deux (donc l'IC entier) du même côté par rapport à l'axe du 0 indiquant une tendance nulle (par exemple pour dire qu'une tendance au réchauffement est significative, il faut que l'IC inf de la tendance, la courbe bleue, soit au dessus de l'axe du 0. Comme on le voit, l'IC inf bleu passe sous 0 vers 16.5 ans, c'est pour cette raison qu'avec moins de 16.5 ans, la tendance n'est plus significativement à la hausse vu que l'incertitude indiquera qu'il est possible qu'elle soit, soit à la baisse, soit à la hausse (et oui, un morceau de l'IC est < 0 et un autre morceau est > 0), la confiance devient inférieure à 95% ( Pour dire qu'il y a une tendance au refroidissement statistiquement significatif, il faut que l'IC sup de la tendance soit sous l'axe du 0, ça signifie de fait que l'IC inf est aussi sous l'axe du 0, donc que l'IC entier et la tendance centrale sont sous l'axe du 0)

Hadley n'extrapole pas la T d'une maille sans aucune station, à partir de la valeur des stations les plus proches (mais trop éloignées) présentes dans d'autres mailles, car rien ne prouve objectivement que ce choix est moins bon ou meilleur que celui de GISS, donc en attendant, chaque organisme peut choisir ce qu'il pense être la meilleure méthode, et donc nous aussi.

(Personnellement, je pense que la tendance est légèrement plus importante que celle donnée par les données GISS (ça reste à prouver devant les pairs), parce-que l'homogénéisation des données globalement < 1950, est encore insuffisante. On n'a probablement pas encore assez corrigé à la baisse les T des années antérieures à l'installation de l'abri Stevenson, simplement parce les comparaisons de matériels anciens ou non, sont réalisées dans des sites trop parfaits, de type classe 1, qu'on ne rencontre pas souvent dans la réalité des sites des stations d'avant 1950 et que le même matériel moins bien placé, retourne de plus grosses surchauffes. De plus à chaque évolution des techniques de mesure de T, on met un coup de froid aux données récentes, donc un coup de chaud relativement aux anciennes données (car plus on s'approche de la mesure de la T vraie de l'air seul, plus on élimine des biais radiatifs. Un abri météo induira toujours un biais, mais on a bien progressé depuis l'abri de 1896 où depuis les T à l'ombre sans abris. Il suffit de voir la mesure de T par anémo sonique dans la dernière ongue comparaison d'abris par l'OMM en Algérie, pour voir que les prochaines mesures modernes, prendront encore un bon coup de frais, par rapport au mesures déjà plus froides dans les abris à ventilation mécanique plus froids que les abris MF modernes à ventilation naturelle. Ces abris ventilés sont utilisés dans le meilleur réseau au monde, le CRN des US, avec des stations haut de gamme avec triple mesure de la T + anémo à 2 m pour corriger les erreurs résiduelles en fonction de la vitesse du vent)

Je ne dis pas ça au pifomètre, j'ai eu certains échos de spécialistes qui le suggèrent, en plus des publications sur les comparaisons de matériel et des sites de mesure. Ceux qui ne circulent jamais dans le forum instrumentation, ne le savent peut-être pas, ma passion bien avant l'analyse de base de l'évolution de la T globale, c'est la mesure objective des paramètres par une station météo et en particulier celle de la T de l'air, que je décortique toujours en travaux pratiques sur le terrain, pour bien appréhender la représentativité des mesures et les écarts créés selon les diverses modifications autour d'un point de mesure, ainsi que l'influence du non respect des normes d'installation.

Ce n'est pas courant que je me déplace sans une installation de T normalisée "dans la poche" et il y a toujours des comparaisons en cours sur mon site : http://meteo.besse83.free.fr/imfix/etalonhomotopoclimatus2.jpg

http://meteo.besse83.free.fr/imfix/etalonhomotopoclimatus.jpg

http://meteo.besse83.free.fr/vtgmobil.jpg

http://meteo.besse83.free.fr/imfix/toit2besse.jpg

http://meteo.besse83.free.fr/imfix/toit1besse.jpg

http://meteo.besse83.free.fr/imfix/comparaison%20abri/rlvbesse.jpg

http://meteo.besse83.free.fr/imfix/comparaison%20abri/rlvbesse2.jpg )

Pour répondre précisément à ta question sur la tendance significative sur 3 ans, il faudrait que je regarde vraiment toutes les tendances /3 ans + IC depuis 75 et les comparer aux les différentes variables qui ont pu agir le plus sur les tendances/3 ans.

A vue d'oeil ce serait dû au passage rapide dans la T globale, de l'influence de la Niña à celle du Niño, cumulée à la tendance de fond au réchauffement (à vérifier par calcul )

Lien à poster
Partager sur d’autres sites

Posté(e)
Le Voide (49-Maine et Loire), à 35 km au sud d'Angers et à 135 mètres d'altitude.

Aldébaran, j'ai déjà communiqué les explications très détaillées sur les incertitudes des tendances en montrant les résultats avec ou sans traitement de l'auto-corrélation des résidus (et pourquoi on a de l'auto-corrélation dans les données et comment la compenser), ainsi que les liens sur les méthodes utilisées dans des messages précédents déjà bien longs.

D'accord, je vais insister dans la compréhension de tes travaux précédents, vu tout ce que tu fais, je peux bien faire cet effort là! Je les ai bien lu, mais je n'ai pas fait le rapprochement lorsque j'ai lu le graphique, j'y retourne de suite! Ce sera surement plus facile à suivre, maintenant que j'ai pus voir et comprendre l'aboutissement des 2 derniers graphiques.

Je te laisse calculer l'IC des tendances avec Student ou la loi normale au pas mensuel, sans prendre en compte l'auto-corrélation, tu verras une très nette différence, tu trouveras qu'elle est significative avec une bien plus courte durée, ce qui est faux

default_bored.gifOn va dire que je te fais confiance! default_whistling.gif

Merci, pour l'explication intéressante des prises des mesures de températures et la méthode utilisée par Hadley.

Pour répondre précisément à ta question sur la tendance significative sur 3 ans, il faudrait que je regarde vraiment toutes les tendances /3 ans + IC depuis 75 et les comparer aux les différentes variables qui ont pu agir le plus sur les tendances/3 ans.

Ton vue d'oeil me conviendra, tu as surement des choses plus intéressantes à faire!

Merci! default_flowers.gif

Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Aldébaran, je viens de voir en surfant, que certains liens importants pour les explications sur le traitement de l'auto-corrélation, extraits du blog de Tamino, que j'avais communiqués, n'étaient plus disponibles.

Certains ont été récupérés ici (il en manque encore) :

http://www.skepticalscience.com/Open_Mind_Archive_Index.html

http://web.archive.org/web/20080427124503/tamino.wordpress.com/2008/03/22/autocorrelation/

http://web.archive.org/web/20080822174717/tamino.wordpress.com/2008/08/04/to-ar1-or-not-to-ar1/

http://web.archive.org/web/20080731190024/tamino.wordpress.com/2008/06/10/hurst/

Les processus AR1, ARMA (1 , 1) et compagnie, qui servent dans le cas présent à modéliser les résidus de la tendance de la température globale depuis 75, font partie de la méthode Box et Jenkins.

A noter qu'à l'époque, Tamino avait démontré que les résidus de la tendance depuis 75 avec les données GISS, suivaient un processus ARMA (1, 1), mais ce n'est plus le cas et ce n'était pas le cas avec toutes les sources de données. La décroissance de l'auto-corrélation est plus lente que pour un processus ARMA (1,1), à l'image d'une décroissance plus lente qu'un processus AR1 ici http://web.archive.org/web/20080822174717/http://tamino.files.wordpress.com/2008/08/gissplus.jpg?w=500&h=391 . Ca signifie que l'auto-corrélation a impact plus important que si tu te contentes d'utiliser le coeff du lag1 de l'AR1 pour la compenser (en calculant Neff ou en déterminant le facteur d'élargissement de l'incertitude).

Avec les liens du blog de Lucia, que j'avais donnés sur une variante de la méthode de Tamino, on estime la compensation qui tient compte de cette décroissance plus lente de l'auto-corrélation.

Si tu utilises la méthode Cochrane Orcutt, ou la méthode de Tamino, tu ne vas corriger "que" l'auto-corrélation de type AR1, sans tenir compte de sa décroissance plus lente pour le cas présent (mais bon l'estimation de l'incertitude de la tendance sera beaucoup plus proche de la réalité en la traitant comme un processus AR1, qu'en utilisant les MCO non compensés de l'auto-corrélation, vu que Tamino s'en contente et ajoute un an à la louche. Mais bon ça me gêne toujours d'utiliser une louche, s'il existe une méthode un peu plus juste pour l'éviter)

Lien à poster
Partager sur d’autres sites

Si tu utilises la méthode Cochrane Orcutt, ou la méthode de Tamino, tu ne vas corriger "que" l'auto-corrélation de type AR1, sans tenir compte de sa décroissance plus lente pour le cas présent (mais bon l'estimation de l'incertitude de la tendance sera beaucoup plus proche de la réalité en la traitant comme un processus AR1, qu'en utilisant les MCO non compensés de l'auto-corrélation, vu que Tamino s'en contente et ajoute un an à la louche. Mais bon ça me gêne toujours d'utiliser une louche, s'il existe une méthode un peu plus juste pour l'éviter)

il faut rappeler , en revanche, qu'il n'existe aucune méthode statistique pour savoir si un trend observé sur une certaine période correspond réellement à une tendance linéaire extrapolable , ou bien une composante physique de basse fréquence dépassant les limites de l'observation. Si on fait l'hypothèse d'un trend , on peut déterminer sa valeur la plus probable, mais l'hypothèse en elle-même n'est pas prouvable statistiquement - il faut l'argumenter par des arguments physiques sur le système qui justifie qu'il ne puisse pas exister de composantes basses fréquences. Ce qui est très très loin d'être démontré pour le climat (à mon sens). Si on fait le traitement statistique fait sur les données post 75 comme Tamino , mais sur les données 1900-1940, il est très probable qu'on trouve pratiquement la même tendance linéaire avec une ARMA machin-truc que vous voulez - n'empeche que l'extrapolation sur les 30 années suivantes ne marche pas du tout à cause du plateau subséquent. On peut l'expliquer par de la physique, des aérosols , la 2e guerre mondiale, ce que vous voulez. Ce que je dis, c'est que la statistique en elle-même n'assure nullement la validité d'une extrapolation.
Lien à poster
Partager sur d’autres sites

Courage ChristianPblush.gif

je ne rappelle que des évidences : Christian peut très bien appliquer son traitement statistique aux données 1900-1940 et voir ensuite ce que donne l'extrapolation de la tendance sur les 30 ans qui suivent , je pense que pour lui c'est de la gnognotte comme boulot. Sinon, bonne année 2011 à tous ! default_flowers.gif
Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Meilleurs voeux pour 2011 ! default_sorcerer.gif

Oui oui Starman, j'avais déjà vérifié le modèle des résidus sur d'autres périodes. J'ai utilisé cette méthode pour effectuer une simple lecture de la significativité des tendances des obs d'anomalie globale pour la période depuis 75, donc sans extrapoler.

C'est clair que sans les démonstrations de la physique validées par les pairs, les stats ne prouvent pas grand chose. Avec les stats, si les méthodes utilisées sont bien adaptées au contexte physique donné (même les meilleurs prof de maths peuvent se tromper dans le choix d'une méthode, donc je ne serai pas le dernier à me planter à ce niveau), on vérifie que les données observées collent au moins à la théorie déjà démontrée par la physique, du moins quand on dispose d'une durée nécessaire pour le cas donné; mais lorsqu'il n'existe pas encore une démonstration par la physique, ça sert quand même aussi à vérifier, si les obs collent ou non à une nouvelle théorie imaginée ( qui reste encore à expliquer et à prouver par la physique ou autre, même si les stats vont dans le bon sens)

Lien à poster
Partager sur d’autres sites

  • 2 weeks later...
Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Voici les 4 anomalies disponibles pour décembre 2010 et la moyenne des 4 séries (valeurs recalées sur la même moyenne/30 ans)

5anoglob122010.png

La classification des derniers mois (A noter que dans le même type de tableau diffusé pour le mois précédent, j'ai introduit une erreur d'écolier de primaire, la moyenne de référence ne contient que 29 ans et non 30 ! )

5moy5anoglob122010clas.png

echeldistri5anoglob.png

Mois de décembre "Normal" par rapport à la dernière moyenne/30 ans au pas mensuel (décembre 1980 à novembre 2010) pour la moyenne des 4 séries (Mois "Doux" pour les satellites)

Les 4 anomalies annuelles disponibles pour 2010 et la moyenne provisoire des 5 séries :

5anoglob2010.png

La classification des valeurs annuelles de la moyenne des 4 séries disponibles + l'anomalie provisoire en novembre de Hadley et la moyenne des 5 séries

moy5anoglob2010clas.png

Décembre 2010 (sans Hadley), a mis une petite claque à la moyenne annuelle, il a rétrogradé 2010 en 2 ème position (mais toujours à égalité statistique avec 98)

Année 2010 finalement classée "Chaude" au lieu de "Très chaude" à cause de décembre ("Très chaude" pour les satellites, classification annuelle basée sur 1980-2009)

Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...