Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

ChristianP

Adhérent Infoclimat
  • Compteur de contenus

    2904
  • Inscription

  • Dernière visite

  • Jours gagnés

    1

Tout ce qui a été posté par ChristianP

  1. Oui prospect en masse d'air, vu ce qu'on relevait sans rayonnement solaire normal à 10h (et entre 9 et 10h), c'est clair que c'est pire, il faut croiser les doigts pour que les watts solaires soient assez présent, mais on voit clairement des baisses du rayonnement là entre 11h et 12h (plus que 185 W/m2 à 12h et la Tx en retard. 583 W/m2 de moy de l'heure contre 873 W/m2 de moy pour l'heure hier) A noter qu'il y a eu des changements récents dans les valeurs journalières de la Vallée de la Mort, 130° au panneau c'est peut-être alimenté par la MMTS auto qui serait toujours en fonction. De mai 99 au 19 septembre 2012 les données officielles venaient du matériel d'une station auto MMTS, maintenant c'est le matériel CRS plus chaud en Tx qui les fournit, il y a un paquet d'études sur ce sujet, mais là il y a une différence d'emplacement qui peut changer la donne selon la direction du vent : http://wattsupwiththat.files.wordpress.com/2013/06/death-valley-mmts-looking-nw.jpg http://wattsupwiththat.files.wordpress.com/2013/06/death-valley-furnace-creek-aerial-view.jpg http://wattsupwiththat.files.wordpress.com/2013/06/deathvalley_parking_lot_view.jpg?w=1920&h=1350 D'après la base de données, depuis le 19 septembre 2012, ils ont réactivé la CRS avec les thermo à mini-maxi qui deviennent officiels à la place des données de la MMTS. On peut trouver l'historique des changements et les divers emplacements au fil du temps ici : http://www.ncdc.noaa.gov/homr/#ncdcstnid=10100093&tab=PHR (MXMN, ce sont les thermo à maxi/mini) Il faudrait trouver les valeurs de l'abri supérieur de la station auto de Badwater (celui plus bas est biaisé par les panneaux solaires qui coupent le vent dans certains secteurs en plus de chauffer bien près des ouvertures) : http://www.john-daly.com/dv-instr.jpg http://www.john-daly.com/stations/bad-map.gif http://wattsupwiththat.files.wordpress.com/2013/06/badwater_station_ge_streetview.jpg http://wattsupwiththat.files.wordpress.com/2013/06/badwater_station_ge_aerial.jpg
  2. A 10h à Stovepipe, 42.7° avec 251 W/m2 de global, alors qu'hier au même moment 43.4° mais avec 715 W/m2, dommage !
  3. Record mensuel de juin à nouveau amélioré à Stovepipe Wells avec 52.0° (là : http://meteo.besse83.free.fr/imfix/dvuscrn.jpg ), où une des Pt 1000 dans un des 3 abris méca a affiché 52.1° à 0.1° du record absolu. A noter le bon vent moyen homogénéisant l'air à ce niveau avec 17 km/h à 1.5 m du sol vers ce relevé et pas loin de 18km/h/1 h (pour fixer les idées, ici pour obtenir cette valeur moyenne sur une heure à 2 m, il me faut un Mistral avec des rafales autour de 70 km/h à 16 m...) On comprend mieux pourquoi la T de surface du sol monte relativement peu à la station. Même les 81° de la vidéo de Vincent plus à l'abri du vent sur du gravier sombre, ce n'est pas cher payé. Il suffit de voir quelques relevés ici aujourd'hui vers 14h45 /15 h malgré que la brise était présente ( http://meteo.besse83.free.fr/imfix/ir01082013/ les 80.x° sont relevés à la limite de l'herbe carbonisée et de la terre pure très fine sortie par les fourmis près du pied du Précis Mécanique. La végétation courte verte bien moins chaude en surface est en classe 4 moins ventilée par la brise que la végétation clairsemée carbo au pied du Stevenson à plus de 70° en pointes, T air autour de 27°, frisquette pour la saison ici, on ne s'en sort pas) mais où le sol a repris sa vitesse de croisière estivale avec un mois de juin typique assez sec (cumul 9.4 mm), le capteur d'humidité du sol à 45 cm de profondeur est sec, vu qu'ici il est bien drainé par du calcaire (au point que l'eau ne stagne même pas quelques heures sur le plateau de la station après le diluvien/24h de juin 2010). Ne pas oublier que le record avait été relevé à 1.1 m du sol. http://journals.ametsoc.org/doi/pdf/10.1175/BAMS-84-12-1725 En attendant, c'est le bon moment là-bas pour se faire l'Everest des amateurs de chaleur : http://www.badwater.com/route/index.html
  4. Avec ces infos on peut vérifier ce qu'on veut sur la station avec les 3 capteurs de T, même la vitesse des ventilo, la T du sol et dans le sol et bien d'autres choses utiles : https://www.ncdc.noaa.gov/crn/sensors.htm?stationId=1105 (A 10 h loc, 0.5° d'avance sur hier à la même heure : https://www.ncdc.noaa.gov/crn/sensors.htm?stationId=1105&date=2013062810&timeZoneID=US%2fPacific ) Heureusement qu'il y a ça pour se consoler des Tx minables à Besse cette année
  5. NCEP c'est plutôt ça et à première vue c'est la 7 ème plus chaude : http://www.esrl.noaa.gov/psd/cgi-bin/data/timeseries/timeseries.pl?ntype=1&var=Air+Temperature&level=2000&lat1=90&lat2=-90&lon1=-180&lon2=180&iseas=1&mon1=4&mon2=4&iarea=1&typeout=2&Submit=Create+Timeseries (En regardant de près 0.28° d'anomalie / 1981-2010) http://www.esrl.noaa.gov/psd/cgi-bin/data/timeseries/timeseries.pl?ntype=1&var=Air+Temperature&level=2000&lat1=90&lat2=-90&lon1=-180&lon2=180&iseas=1&mon1=4&mon2=4&iarea=1&typeout=1&Submit=Create+Timeseries Weatherbell models même avec des données NCEP CFS, il faut voir comment elles sont brassées avec J. Bastardi et J. D'Aleo dans l'équipe... Edit du 30/06 : J'ai modifié dans le message précédent le tableau en ajoutant la série NCEP et en corrigeant un bug mineur. Les classes de l'échelle pour le tableau sont déterminées avec les 360 anomalies mensuelles des 30 dernières années. Dans ce cas ça sert à mettre en évidence un éventuel changement (une stagnation par ex, ça se verrait avec pas mal de valeurs bleues aussi fréquentes et d'intensité aussi marquée que les valeurs de couleur jaune/orange/rose pour compenser et donc pour éviter que l'échantillon de climat en cours continue de se réchauffer comme il le fait actuellement) Si on utilisait toutes les anomalies mensuelles depuis 1880 pour la même échelle, ce serait pour mettre en évidence le RC et ça donne ça :
  6. Ma station préférée dans le monde pour un record mondial de la meilleure qualité possible de nos jours dans un réseau opérationnel au top, l' USCRN, avec plusieurs mesures de T par station dans des abris ventilés méca (T, Tx , Tn déterminées avec des moyennes/5 mn) https://www.ncdc.noaa.gov/crn/station.htm?stationId=1105 https://www.ncdc.noaa.gov/crn/daysummary?station_id=1105&yyyymmdd=20130628 https://www.ncdc.noaa.gov/crn/newmonthsummary?station_id=1105&yyyymm=201306 (Le record de juin de cette station ouverte en 2004 est de 50.0°. 52.2° de maxi absolu le 5 juillet 2007)
  7. Que nous montrent nos calculs de collégiens (qu' Ardèche07 pourtant bien informé, refuse toujours de réaliser, préférant son pifomètre légendaire ) : Et bien rien de nouveau, la moyenne mensuelle des 5 séries de données n'est pas passée sous la dernière moyenne/30 ans, notre échantillon de climat en cours (à jour chaque mois, un mois avant l'anomalie mensuelle concernée, donc autrement plus à jour que sur la base 1981-2010 déjà dépassée, vu qu'elle s'est réchauffée depuis, y compris avec l'anomalie de mai 2013), après janvier 2012 et bien plus rarement depuis janvier 99 qu'entre 75 à fin 1998, ou personne ne parlait de stagnation pour un moindre réchauffement du climat (pas de façon significative, c'est le même): Pour comparer avec la période de 14 ans et 5 mois avec une stabilité réelle du climat après le changement significatif de tendance pour une réelle stabilité de fond en tendance, voilà ce que ça donne : C'est quand même autre chose que ce soit du nb et de l'importance d'anomalies mensuelles sous la courbe rouge, ou en chiffres ! La carte des centiles de la NOAA, n'a rien à voir avec une carte d'anomalies sur une référence comme 1951-1980. C'est le genre de carte que je demande depuis toujours, équivalente aux cartes de nb d'écart-type , en mieux avec les centiles, vu qu'on n'a pas à se préoccuper de la normalité de la distribution, on est certain de mettre en évidence les véritables anormalités chaudes ou froides pour le lieu donné. Ca n'a pas de sens (par rapport à l'anormalité) de coller une même couleur pour -3° d'anomalie en pleine mer au large d'Ouessant et -3° à Strasbourg, vu que c'est bien plus difficile (à cause de la variabilité différente) et donc moins probable d'observer -3° d'anomalie au large d'Ouessant . Edit : Voici la liste et la classification des dernières anomalies. La classification : http://meteo.besse83.free.fr/imfix/echeldistri5anoglob.png
  8. Merci Sébastien , j'allais en parler ici quand j'aurais eu plus de recul et des tests ailleurs que là en classe 4 pour les essais d'abris par forts rayonnements où je n'ai pas regardé grand chose sur l'anémo. Comme sur la nouvelle Davis Vue, l'ILS est remplacé par un composant à effet hall ( http://fr.wikipedia.org/wiki/Effet_Hall ) alimenté en courant et donc qui capte la tension générée à chaque passage de l'aimant, ce qui permet de compter le nb de passages de l'aimant en 2.5 s. On peut voir dans une coupe d'un anémo dans ce document, 2 composants à effet hall près de l'aimant (dans le texte il y a quelques commentaires sur leur composant) : http://scan78.free.fr/Elektor/Elektor%202004%20FR/f045044.pdf
  9. Pour les amateurs de bruit, voici un papier intéressant sur l'efficacité de l'absorption de la chaleur par l'océan et le plateau de T actuel : http://onlinelibrary.wiley.com/doi/10.1002/grl.50541/full A noter pour les amateurs de bruit solaire, un fait sans importance, le 30 mai dernier, Sorce a relevé la plus forte TSI sur 24h depuis sa mise en service en 2003 ( 1362,1916 W/m2). Rcaman, tant que tu n'auras pas fait de progrès en compréhension de texte au point de confondre des analyses de l'observation avec des prévis, ça ne sert à rien de t'expliquer quoique ce soit. On n'a pas que la tendance à partir des données annuelles comme info, pour vérifier si le réchauffement du climat a continué, on a la valeur de notre échantillon de climat en cours. Depuis fin 98 notre échantillon de climat s'est réchauffé de 0.23° (GISS), ce n'est pas une prévis, c'est un fait que n'importe quel collégien peut vérifier en comparant la valeur de la moyenne /30 ans fin 98 à celle calculée fin 2012. Donc sur ces 14 ans, de fait on a une vitesse de réchauffement du climat de 0.23 / 14 *10 = 0.16°/déc. Une tendance de fond nulle aurait affiché une progression nulle ( 0.00° de réchauffement +- l'incertitude) de notre échantillon de climat depuis fin 98, comme on l'a observé dans le passé quand ça été le cas et comme ce sera le cas si ça se reproduit ( par ex si le plateau devait continuer bien plus longtemps et/ou si les valeurs annuelles devenaient plus faibles)
  10. Et oui ça ne m'étonne pas; j'avais vu les détails de la prévision du plus jeune de mes profs préférés de stats : http://www.fichier-pdf.fr/2013/05/11/pan-arctic-outlook-june-report/
  11. On s'éloigne surtout de la science avec ton genre d'intervention. Une vraie girouette ce Rcaman, vu que quand les stats viennent de ses graphes, de la pensée unique ou de Watts, bizarrement c'est de la science, alors que ce sont régulièrement de vraies calamités dans ce domaine ! Tout ce qui a été fabriqué et que tu utilises dans ta vie sans te préoccuper de la validité des stats, a nécessité des analyses statistiques poussées. La moindre expérience de physique, la moindre obs (même les plus élémentaires , le ciel est bleu, le ciel est gris) , génèrent des données, elles demandent donc des traitements et des analyses à l'aide des statistiques mathématiques. Des zones de ton corps dans l' image d'un scanner chez ton radiologue sont déduites à l'aide de traitements statistiques, quand tu regardes une image de radar de pluie, c'est pareil y a des stats à gogo pour élaborer l'image finale du signal. Donc si tu veux laisser tomber les stats, il faudra retourner à l'age des gaulois :" oh mon dieu le ciel va nous tomber sur la tête même si personne n'a présenté d' échantillons de ciel tombé sur une seule tête! " Ca c'est la science préférée des Rcaman et compagnie ! Si tu avais eu la correction de lire un peu ce que j'ai écrit, tu aurais constaté que je n'ai pas du tout fait de prévisions. J'ai simplement voulu montrer (sans stats de haut niveau malgré ce que rapportent les lecteurs, car ces bases à respecter se trouvent dans des cours en première année de fac dans la formation générale en stats pour certaines filières) pour ceux qui voudraient savoir pourquoi et à cause de quel type d'erreur, on peut tomber sur de fausses proba dans les médias, comme les plus de 70% de printemps froids suivis d'été frais (sur la France), donc arrête de raconter n'importe quoi et essaie de trouver plutôt où j'ai pu commettre des erreurs (ce n'est jamais impossible !) ou essaie d'apprendre quelque chose sur ce sujet. Il y a longtemps que les vrais scientifiques de la prévis saisonnière chez MF et ailleurs savent qu'on ne trouve pas dans la T seule de l'air d'une saison sur la France, une indication significative sur la T de la saison suivante sur la France. Mais bon on sait que c'est comme l'astrologie réfutée depuis longtemps, chaque année on verra ces histoires revenir dans les médias pendant des milliers d'années, avec toujours avec les mêmes erreurs. Une remise des prix en prévision saisonnière nécessite de savoir faire un diagnostic statistique non biaisé par des erreurs de base, donc rejeter les stats, c'est rejeter l'évaluation scientifique des résultats (classique chez tes copains les astrologues) Il faut aussi disposer d'assez d'échantillons de prévisions élaborées sur des bases assez scientifiques et donc des prévis reproductibles par d'autres scientifiques qui n'ont pas créée la méthode (s'ils lancent la méthode en entrant les mêmes paramètres, ils doivent trouver le même résultat, du moins dans les IC associés), donc qui laissent peu de place au feeling. C'est bien parce que la science a des lacunes en prévis saisonnière dans notre secteur, que le feeling , l'à peu près, peuvent faire illusion en prévis saisonnière (du moins tant qu'on n'effectue pas d'analyse statistique un peu sérieuse des résultats ce qui est rarement possible, car j'avais cherché à le faire à partir du site de Williams qui tient les scores de différents prévisionnistes, mais il manque beaucoup trop d'infos pour tester et évaluer correctement la qualité des prévis (la façon de définir une classe de prévis influence la validité de la prévis et l'analyse du résultat) et des calculs de scores. Il faudrait surtout que tous les amateurs au moins, utilisent la même série de référence et les mêmes classes pour rendre facilement comparable les performances. là c'est quasiment impossible d'y voir clair. Mais bon quelque soit le cas, c'est clair que si on commence par décréter en choisissant de mauvaises classes par erreur ou non, que près de 66% des anomalies sont classées froides (et donc qu'il ne reste plus que 33.3% à répartir dans les 2 autres classes chaudes et normales) parce qu'on oublie (ou on ne veut pas) de s'occuper de la présence des tendances et des autres conditions à respecter avant d'attaquer l'inférence statistique d'une série chronologique, tout en prévoyant majoritairement du froid, on est certain récolter de bons scores sans qu'il y ait une quelconque performance démontrable.
  12. Je ne vais pas parler des anomalies globales mais de purs problèmes élémentaires de stats. Tout le monde a dû entendre parler de l'histoire des prévis saisonnières et des stats de printemps "froids ou sous la normale" en France qui seraient très souvent suivis d'étés froids/sous la moyenne en France. Je profite donc de ce cas typique pour montrer les classiques grosses erreurs rencontrées même parfois chez des pro, quand on calcule un peu trop vite des proba et des pourcentages pourtant très simples en apparence, en ne respectant pas des règles statistiques de base en présence d'une série chronologique. Pour le cas qui nous concerne, j'ai utilisé les anomalies estivales et printanières sur 1900-2012 (2013 pour certaines stats du printemps) du panel MF de 30 stations homogénéisées que j'ai extrait à partir des pixels de leurs graphes (à part les quelques dernières anomalies récentes), donc il est possible qu'il y ait 0.1° de différence sur certaines anomalies pour des histoires d'arrondis et d'éventuelles dernières corrections de MF depuis 2010 (dernière année des graphes), mais sauf grosses erreurs de clavier et de relecture, ça ne changera pas le sens et le fond des résultats. L'erreur la plus classique et la plus grossière quand on est pressé de sortir vite fait des pourcentages et des classes d'anomalies froides, chaudes et/ou normales, c'est qu'on traite d'entrée le problème par rapport à la période de référence en cours (donc actuellement sur 1981-2010) sans se préoccuper de ce qu'elle représente pour toute la série complète et sans chercher à savoir si la distribution réelle sensée nous renseigner sur les possibilités/proba réelles, correspond à la courbe théorique (de Gauss) sur laquelle on s'appuie de fait sans y penser, en utilisant des seuils du genre +-0.5° , pour définir la zone de saison "normale" quand il y a au moins 3 classes (ou pour 2 classes avec 50% de valeurs négatives et 50% de valeurs positives autour de zéro), sans savoir si cette zone est équiprobable avec celles du "froid" et du "chaud" et si elle a un sens pour l'ensemble de la série. Voici ce que donne la distribution des anomalies estivales depuis 1900 par rapport à la normale 1981-2010, comparée la distribution théorique : Dans ce cas le zéro et/ou la zone "normale" dont on se sert par erreur, concernent la distribution théorique bleue, pas la réalité. La zone épaisse de la courbe bleue correspond aux 33.3% de valeurs "normales" centrées" autour du 0 théorique de la moyenne et de la médiane d'une distribution classique (les zones fines bleues de chaque côté, concernent les 33.3% de données "froides" et 33.3% de données "chaudes") Pas besoin de tests dans ce cas pour constater que la distribution réelle rouge n'est pas gaussienne (on dit aussi pas "normale". C'est pour cette raison qu'on cherche à "normaliser" les données afin de les rendre conforme avec la loi normale, pour obtenir la possibilité de les analyser selon la loi pour cette distribution, alors qu'à l'origine les données ne le sont pas ( la loi ne peut s'y s'appliquer en l'état sans prendre le risque de générer de grosses erreurs dans tous les calculs, même les plus élémentaires, par ex pour le calcul du plus simple pourcentage afin d'extraire une proba) La courbe rouge et sa zone normale (33.3%) des données brutes, ne correspondent vraiment pas à la courbe théorique. La zone "normale" rouge tombe dans la zone "froide" de la théorique, donc pas étonnant que certains puissent trouver des pourcentages de "froid" à gogo avec ce genre d'erreur (c'est plus facile de trouver plus de 70 % d'étés froids avec une classe pipée d'entrée qui ratissent déjà très large avec près de 66% d'anomalies froides juste à cause du non respect des règles mathématiques en statistiques !) Certains pensent qu'en utilisant que 2 classes, 50%/ 50%, pas de problèmes, mais ce n'est pas mieux, car la médiane de la courbe rouge est de -0.93° (qui délimite le vrai 0 entre les 50% de valeurs négatives et positives), loin du 0 de la médiane associée à la moyenne à 0 de la courbe bleue théorique. Donc là si on persiste dans cette erreur, on va classer à tord comme "négatives ou froides" toutes les valeurs entre 0 et -0.93 alors qu'elles sont chaudes et positives en terme de proba (vu qu'elles sont dans les 50% les plus chaudes) et on déduira donc de faux pourcentages et de fausses proba . Là aussi un bon gros coup d'hormones pour atteindre et dépasser les 70%. Donc là on pourrait se dire, c'est simple, on va régler tous les problèmes en calculant la période de référence sur toute la série disponible, donc avec une moyenne sur 1900-2012, surtout que graphiquement la distribution se recentre : Il y a du mieux, les moyennes sont confondues, mais pas la médiane qui est de -0.10° pour la rouge. On voit encore graphiquement que la distribution n'est pas normale, de plus aucun des 4 tests statistiques prévus pour, n'ont trouvé la distribution rouge conforme à la courbe théorique bleue. Le seuil théorique +-0.43 n'est pourtant pas significativement différent de +-0.5° , mais c'est un piège classique de s’arrêter là, car les anomalies brutes sont pipées par autres choses qu'on se doit de vérifier dans toutes séries chronologiques quelque soit le problème à résoudre. La base en stats dans tous les cas avant de se lancer dans les calculs de proba, c'est de vérifier que les dés ne sont pas pipés, en cherchant s'il n'y a pas de tendance de fond significative qui influence le niveau des anomalies. Là avec le RC qu'il soit dû à n'importe quoi (même s'il était dû à 100% à l' ICU ou au soleil, ça ne change rien au raisonnement statistique pour les proba), tout le monde envisage de trouver une tendance positive dans les données actuelles depuis 1900, mais bizarrement, beaucoup zappe ce point, alors qu'on est sensé obligatoirement en chercher avant d'avancer plus dans les calculs. Il faut bien se rendre compte que c'est une règle essentielle à respecter, il faut identifier et traiter les tendances de fond s'il y en a. Là c'est clair que les dès pour établir des proba sont particulièrement pipés par l'évolution de fond : En général une autre erreur classique est commise, on ne cherche et ne traite que la tendance linéaire même si elle ne l'est pas sur toute la période alors qu'il faut chercher toutes formes de tendances et vérifier leur significativité. Là pour l'exemple, je n'ai retiré que la tendance linéaire, on obtient donc des résidus ( nos nouvelles anomalies estivales sans la tendance linéaire). On voit que la tendance linéaire est nulle, mais avec le loess calibré pour montrer où pourrait se trouver des variations significatives et non linéaires, on se doute déjà qu'il peut rester un signal de fond significatif. Avec le loess je cherche donc à nouveau dans les résidus, ce qu'il reste : J'ai testé avec Spearman et Kendall (efficaces quand il n'y a pas d'auto-corrélation) si les tendances résiduelles sont significatives; elles le sont. Donc ces anomalies pourtant sans la tendance linéaire sont encore trop biaisées pour établir des pourcentages/proba. En fait en retirant directement le signal loess/50 ans visible dans le graphe avec la moyenne/30 ans sans passer par le retrait de la tendance linéaire (montrée pour l'exemple), on traite de fait la tendance linéaire et les autres variations significatives : Donc on a nettoyé les données de variations de fond significatives. Il reste le bruit météo et aléatoire utile et capable (ou non) d'impacter le bruit météo et aléatoire (même le bruit en apparence aléatoire qui pourrait être expliqué physiquement, qui n'est pas encore prévisible, mais qui est classé comme aléatoire, car il a une signature statistique aléatoire) de la saison suivante, mais on voit à l'oeil qu'il existe un déséquilibre avec des données plus fortement positives que fortement négatives et donc inversement plus souvent faiblement négative que faiblement positives. C'est dû pour cette saison au rayonnement solaire puissant et à l'accumulation d'énergie. L'hiver c'est l'inverse, avec un faible rayonnement solaire et un stock d'énergie faible, ce sont les fortes anomalies négatives qui deviennent les plus probables (on n'observera jamais une anomalie positive du genre août ou juin 2003 dans un mois d'hiver et une anomalie négative de type février 56 ou déc 1879 en mois d'été sans signal de fond; avec le RC , l'ICU ou autres et des données brutes, on peut tout voir !) J'avais calculé les anomalies sur 1900-2012, uniquement pour montrer le type d'erreur rencontrée, mais en fait ce n'est pas nécessaire, car en retirant le signal de fond ou pouvait rester sur 1981-2010, on récupère exactement les mêmes résultats au final. C'est le signal de fond significatif non nul, qui biaise les anomalies et non la période de référence, qui elle n'influence les résultats de mon premier exemple d'erreur, que parce qu'on gardait le signal de fond qui pipe l'ensemble ! Les graphes avec les anomalies sur 81-2010 le signal de fond L Les nouvelles anomalies sans ce signal (résidus) J'obtiens enfin ma véritable distribution rouge utile pour établir des stats et proba afin de vérifier la présence ou l'absence d'influence de la T du printemps sur celle de l'été : Donc comme là aussi en partie pour des raisons physiques évoquées plus haut, la distribution de cette saison n'est pas gaussienne, y compris avec les tests de normalité : la médiane est de -0.18°, j'ai le choix entre transformer les données pour les rendre conforme à la loi normale afin d'appliquer les seuils selon cette distribution, ou bien d'utiliser les centiles (33.3%, 50%... ou autres seuils pour obtenir des classes équiprobables, au choix de l'utilisateur selon l'objectif) pour contourner les déséquilibres visibles afin de coller aux proba les plus proches de la réalité (il y a des IC bien entendu autour d'une valeur estimée, m^me quand je donne un seuil au centième, d'après mes calculs il faut compter pas loin de +-0.15° d'incertitude statistique à 95%) J'ai choisi les centiles, car après le même long traitement effectué pour le printemps (retrait de la tendance au RC), les données sans RC du printemps sont assez conformes à la loi normale (visuellement ainsi que pour les 4 tests de normalité): On remarquera en bas à droite que le printemps 2013 sans le signal du RC est en fait le plus anormal côté froid (on ne voyait pas sa véritable anormalité à cause de la présence du signal de fond), mais bon il ne faut pas oublier que la fin d'un lissage qui va jusqu'au bout des données est plus incertain qu'un point de la courbe Loess plus à l'intérieur, donc le retrait du signal est moins précis à ce niveau, mais d'un autre côté avec les analyses synoptiques en altitude, on a vu dans dans d'autres forums des anomalies de géopotentiels par exemple, remarquables sur la France, donc c'est assez cohérent avec la performance (je dirais plutôt une arnaque, un hold-up de printemps) de ce printemps 2013.) Les anomalies du printemps sans tendance, sont prêtes pour l'analyse afin d'extraire des pourcentages/proba: Là on constate que les centiles correspondent bien aux seuils de loi normale, dans ce cas la médiane réelle rouge est à 0 tout comme la moyenne, ce qui est logique, la courbe rouge est asez conforme à la loi normale. La courbe bleue est parfaite, car j'ai injecté 1 000 000 d'échantillons , la rouge l'est moins vu qu'on dispose de 114 printemps. Donc on retiendra comme seuils de l'été pour les 3 classes équiprobables : -0.47° + 0.20° ("normal" >= -0.47 et <= 0.20, pour le "froid" <-0.47 et le "chaud" >0.20 ) Pour le seuil estival en 2 classes à 50%, c'est la médiane -0.18° notre 0 de référence (donc positif au-dessus de -0.18°, négatif en dessous, j'ai quand même récupéré 2 valeurs piles sur la médiane ! ) Pour le printemps c'est précisément -0.32 et 0.28 pour les 3 classes à 33.3% (malgré le fait que la loi normale et les centiles indiquent le même seuil +-0.3° arrondis) (0 de seuil pour les 2 classes à 50%, j'ai récupéré une valeur pile sur le seuil à 0) Bon voilà tout le travail de fond avant de commencer les calculs des pourcentages et d'en tirer des proba , idem pour ceux qui voudraient analyser les scores des prévis ! (et on pourrait discuter des jours, mois, années, avec les physiciens afin de déterminer au mieux le signal de fond à retirer : Physiquement quel est le meilleur signal de fond à extraire à l'échelle de la France en fonction des données disponibles et des connaissances actuelles ?) Nous voilà enfin aux résultats pour les 3 classes à 33.3% (un pourcentage représente la fraction pour une classe donnée de printemps. 26.3% par ex à la première ligne, ça signifie que 10 des 38 printemps froids, ont été suivis d'un été froid): Rien de statistiquement significatif (là aussi ça se teste), on est très loin des limites des possibilités du hasard, malgré une série fournissant assez d'échantillons pour les 3 classes de printemps. Il n'y a aucune influence visible de la T du printemps en France sur la T de l'été en France. Pour la classification à 2 classes, c'est pire, c'est vraiment du 50% /50 %, au point que j'ai passé un temps monstre à chercher où j'avais pu commettre une erreur pour obtenir ces scores. Enfin il n'était vraiment pas nécessaire d'effectuer ces comptages de moutons, c'était juste pour illustrer l'exemple. L'absence de corrélation significative entre les anomalies printanières et estivales (anomalies sans signal de fond significatif) suffisait pour ne pas se casser la tête.
  13. Pour ceux qui cherchent des changements significatifs, des durées efficaces, il existe une autre méthode intéressante d'estimation de l'incertitude des tendances de fond de la T globale, qui avait été exposée par un physicien dans un blog quelconque et que j'avais relevée (donc à prendre avec des pincettes, car pas revu par les pairs, mais bon j'ai vu que c'était assez cohérent par rapport à la méthode habituelle et elle est très utile quand on veut tester rapidement les tendances sans se préoccuper des époques hors du modèle linéaire depuis 75, car il n'est pas nécessaire de recalculer un modèle de bruit pour la période donnée) Il avait déterminé l'incertitude des tendances à l'aide de simulations en injectant le spectre de puissance ( http://dl.dropboxusercontent.com/u/4520911/Climate/giss_spec.jpg ) + bruits aléatoires observés sur toute la série de données GISS depuis 1880. L'avantage de cette technique, c'est qu'elle utilise de fait toutes les oscillations, donc des plus longues hors du modèle linéaire depuis 75 et même de minuscules oscillations non significatives. On a donc moins de possibilités de rater du bruit qu'en s'occupant uniquement des données depuis 75 à cause du modèle linéaire qui limite la période de calcul du modèle. Je la trouve plus complète que celles des IC déterminés à partir du modèle de bruit de Tamino ( formules en annexe ici : http://iopscience.iop.org/1748-9326/6/4/044022 , ce modèle est efficace tant que la tendance ne change pas, mais elle est plus limitée, car par exemple elle ne peut pas prendre en compte l'influence d'une éventuelle oscillation de 60 ans ou autres, hors de cette courte période linéaire sans changements significatifs depuis 75 ou depuis 80) Donc d'après le modèle de bruit du physicien, surtout à cause du spectre de puissance depuis 1880, l'estimation de l'incertitude de la tendance séculaire dans les données GISS suit une loi de puissance : ET = 15.6 X f^-1.14 (f = fréquence en années, ET= écart-type de la tendance en °C/siècle) Donc à diviser par 10 pour obtenir l'ET décennal, puis pour récupérer l'incertitude de la tendance décennale à 95%, à multiplier (dans Excel par exemple ) par (loi.student.inverse (proba : 0.05; degrés de liberté : n-1)) n : est la longueur en années de la tendance dont on cherche l'incertitude. Par exemple sur 75-98, la tendance GISS est de 0.184°C/déc. Le modèle de bruit de Tamino mis à jour avec les données de 75-2012 donne un IC 95% = +- 0.081°/déc Le modèle de bruit du physicien renvoie un IC à 95% = +-0.086°/déc A partir de ces données, on voudrait estimer la durée approximative à partir de laquelle une tendance nulle depuis 1999 peut devenir significativement différente et indiquer une véritable stagnation. Il nous faut donc une tendance strictement nulle (pile à 0) qui n'affiche pas un IC à 95% supérieur >= 0.184 - 0.086 = 0.098°/déc En cherchant avec la formule donnée, c'est une tendance de 22 ans qui est la plus proche tout en étant inférieure au niveau de l'IC sup (car IC à 95% = +-0.096° ). Donc il faudrait attendre début 2021 pour qu'une tendance strictement nulle sur 1999-2020 soit capable de sortir des oscillations (du moins celles visibles et détectables depuis 1880, s'il y en a une de 500 ou 1000 ans par ex, c'est clair qu'on la zappera) et du bruit et de montrer un changement significatif vers une véritable stabilité. Mais bon comme dans les faits une tendance est rarement pile à 0, on va chercher le cas opposé extrême. Si la tendance depuis 1999 était "nulle" (négative mais pas significativement), à la limite de le devenir significativement négative (donc pour tendance "nulle" de -0.097°/déc depuis 1999), il faudrait au moins 13 ans de données (Donc si la tendance sur 1999-2012 avait été aussi négative, on aurait déjà vu un vrai changement, mais là elle est de +0.088°C (IC 95% large : +-0.166°) pour GISS, donc très loin d'indiquer un changement vers une stabilité). Si on souhaite calculer la durée de la tendance nécessaire pour obtenir une précision donnée, ça donne donc : f = e(ln(ET/15.6))/-1.14) Exemple, si je veux connaître la durée nécessaire pour obtenir une tendance précise avec un ET qui représente 10% de la tendance de 1.5°/siècle soit à +-0.15° près donc à +-0.3° près en gros à 95% (donc pour 0.15°/déc à +- 0.015° près, à +-0.03° à 95%) , il me faudrait environ 59 ans de données (53 ans de données pour la tendance actuelle de GISS de 0.169°/déc de 75 au mois à jour en 2013) Attention de ne pas utiliser le modèle pour d'autres séries, car il y a quelques différences dans le spectre et le bruit. Celui ci a été calibré sur GISS qui est un peu moins bruitée que d'autres séries (donc avec les autres séries les IC seront plus larges).
  14. http://meteo.besse83.free.fr/imfix/NOAA1880_20126030IC.png
  15. Oui, d'après tous les échantillons de T moy/1 mn.
  16. Oui Ludo c'est clair !
  17. En avril 2011 en plus de l'ordi, il a fait nettement meilleur : DJU (18°) 132.7 (intégration :156.6), soleil 165.6 KW//h de rayonnement global. En 2012 DJU 169.1 (intégration : 180.8), soleil 156.6 KW/h En 2013 DJU 168.4 (intégration : 186.1), soleil 138.9 kW/h C'est la réduction de l'insolation qui a fait surtout la différence en 2013 /2012 (pas de véranda) A noter que sur les 5 premiers mois, j'ai relevé le record bas de Tx >= 25°, 2 jours seulement (ancien record 4 jours en 2008) avec une Txx provisoire fin mai faiblarde à 25.4° (ancien record bas 26° en 2008). Bon ça s'arrange un peu début juin (26, 26.7° et 24.1°aujourd'hui)
  18. Rcaman, tant que tu n'auras pas compris et admis que pour suivre l'évolution du climat, on doit fuir le chaos, les bruits et autres influences de trop courtes échelles qui ne sortent pas des bornes du bruit de fond habituel, tu ne comprendras pas la différence fondamentale entre un graphe de l'évolution de la T au pas annuel (comme le lissage du graphe de La Recherche, de la NOAA ou autres) par rapport à un graphe de l'évolution du réchauffement moderne, comme celui avec mon lissage moyenne mobile/30 ans et Loess/38 ans. Le Loess est justement conçu pour suivre les évolutions non linéaires. C'est bien pour cette raison qu'il montre des variations même au pas climatique (avec une tendance linéaire tu n'aurais eu qu'une seule droite depuis 1880 même quand les données ne respectent plus le modèle linéaire !), mais là où un changement est assez significatif avec un choix de lissage assez correct. Je n'y peux rien si les données autour de la dernière pente respecte encore le même modèle linéaire depuis les environs de 1975. C'est pour cette raison que ça correspond assez bien à la moyenne mobile/ 30 ans (qui affiche aussi une pente linéaire, une moyenne mobile n'est pas linéaire par définition, ce sont aussi tes données chaotiques moyennées avec la tendance de fond qui représentent le climat qui lui donnent cette pente assez linéaire !) et à la tendance linéaire depuis environ 1975, dernier changement significatif de tendance linéaire, qui représente l'évolution moyenne de tous tes chaos et bruits préférés avec la tendance de fond sur cette période. Il est d'ailleurs conseillé dans l'utilisation d'un Loess, de choisir assez de données (25 à 50% des données, donc là plus de 33 ans) pour que le lissage ait un sens, afin d'éviter d'être contaminé par les bruits aléatoires et autres. Mais bon plus que le pourcentage, il faut surtout voir ce qu'on cherche à représenter pour le cas concerné. Comme je l'ai indiqué, si c'est de la variabilité de courte échelle, non climatique, pas de probs, mais pour chercher des corrélations avec le CO2 sur des périodes non climatiques, ca n'a aucun sens, c'est un gag au mieux, comme ça le serait aussi si on cherchait une corrélation entre la pente négative du CO2 dans la partie de l'année (partie du cycle annuel du CO2) par rapport à l'évolution de la T de la partie de l'année concernée ! Pour le choix du Loess/38 ans, il faudrait quand même lire ou relire le message concerné, je l'ai déjà expliqué. De plus j'avais donné une longue explication technique sur les lissages et les erreurs à éviter quelques années auparavant à l'aide d'un post de Tamino ( le prof de stats qui publie sur le climat). Donc je vais radoter à nouveau. J'ai choisi 38 ans, car la dernière tendance significative la plus courte au pas annuel est sur 19 ans ( pour cette série au pas annuel) et comme un lissage Loess/19 ans affichera parfois des variations non significatives vers le milieu des 19 ans (voir le dernier graphe avec ce lissage), donc des variations sur environ 10 ans sans aucun sens pour l'évolution du climat, qui ne correspondent à aucun changement significatif, par expérience du Loess, j'ai doublé la valeur des 19 ans, pour n'afficher que des changements proches de la significativité la plus récente sur 19 ans. Je savais que ça collerait assez avec le lissage par moyenne mobile/30 ans et avec la tendance linéaire depuis 75 (75 car c'est vers cette année qu'on relève le dernier changement significatif de tendance). Mais bon très naturellement, si je n'avais pas recherché la dernière tendance significative pour faire plaisir aux personnes qui passent leur temps à utiliser un microscope pour essayer de regarder l'espace, d'entrée j'aurais lissé plutôt sur au moins 60 ans pour suivre l'évolution du climat et non celle des variations qui ne sont pas d'échelle climatique (que ce soit du vrai bruit ou non, je veux éviter d'afficher tout ce qui ne sort pas encore des bornes de la variabilité habituelle et tout ce qui ne produit toujours pas un changement significatif au niveau climatique.) Avec un Loess/30 ans avec les pentes actuelles ça aide à trouver par itération (afin que les droites linéaires s'articulent bien vers les zones de changements principaux mis en évidence par le Loess) les 4 points de changement significatifs. J'avais communiqué quelque part dans ce forum la méthode de Tamino. Je reposte ses graphes utiles : Là on voit bien les changements significatifs et la période qui précède 1975 avec une véritable tendance nulle (c'est une stabilité, ce n'est pas un refroidissement car l'IC sup n'est pas passé sous 0. On voit aussi que le réchauffement précédent n'est pas significativement plus rapide que l'actuel , les IC se croisent avec les IC de la tendance actuelle) Quand on a un changement significatif, on pourrait aussi chercher à déterminer l'équation de la courbure simple localisée et bien ajustée aux données aux alentours du point de changement et chercher le point le plus précis avec la dérivée seconde. Ici je n'ai pas utilisé un Loess /30 ans vu que la tendance/15 ans n'est plus significative et que je ne cherche pas un point de changement, tant qu'il n'y a pas de changement significatif (Il y a maintenant le calculateur de SKS qui simplifie bien les choses à ce niveau, car il gère l'auto-corrélation dans les données, enfin il faut activer cette fonctionnalité). Il faut bien voir que plus tu affiches des pentes et variations courtes et plus tu auras du mal à distinguer l'évolution du climat (et oui plus tu utilises ton microscope pour observer l'espace et moins tu le vois, on ne peut voir l'ensemble de 2 climats, en zoomant sur de petites échelles !) vu que ta pente a moins de chance de montrer la véritable évolution de fond, car une courte pente/variation est trop incertaine. l'IC du Loess/19 ans est large et sur 60 ans plus petit et ils se croisent (donc très probablement pas de différence dans le fond, ton palier incertain entre dans les bornes habituelles, rien de nouveau sous le soleil) Pour le suivi du réchauffement de fond de la période moderne depuis 75, on n'a pas à afficher le palier, vu que le changement sur le fond est improbable pour le moment avec une confiance à 95%. Après tu peux être irrationnel comme d'autres et ne pas raisonner sur des bases scientifiques et choisir de traverser les yeux fermés une route assez passante où les stats montrent que tu te feras écraser avec une confiance à 95% . (Et oui certains se permettent de remettre en cause la tendance de fond de façon non scientifique et irrationnelle, c'est bien parce qu'ils n'ont aucun risque à le faire assis devant un ordi ! 95% des variations de courbes observées qui restent dans les bornes du bruit de fond, n'indiquent aucun changement significatif. Les 5% correspondent aux survivants ayant traversé la route les yeux fermés sans problèmes et donc aux 5% de cas où les courbes bruitées comme le palier, ont effectivement indiqué un réel changement, alors que ce n'était pas jugé significatif en raisonnant correctement. La science ce n 'est pas compter sur la plus faible proba de gagner au loto. Pour suivre l'évolution du climat, qui est un état moyen, on a besoin de suivre la moyenne sur au moins 30 ans pour la T . Pour les spécialistes, c'est mieux sur 100 ans d'un point de vue physique et statistique. Dans les cours de stats de l'ENM , une série n'est pas considérée longue avec 30 échantillons, comme c'est le cas dans les cours classiques de stats, mais avec une série > 100. Pour le moment, il n'y a que la NOAA qui donne un référence à une normale climatique/100 ans, mais bon ce n'est pas encore très utile pour faire des comparaisons, car on ne dispose malheureusement pas de x séries indépendantes de 100 ans, donc faute de mieux on a des périodes de 30 ans. Est ce pour analyser l'évolution de la T d'un mois donné par rapport aux autres même mois des années précédentes, tu as déjà eu l'idée de fouiller dans les tendances journalières dans un mois en cours ? Pour produire un graphe et nous dire : "Mais regardez ce beau palier au pas journalier, ça ne colle plus par rapport à la puissance solaire, qui elle monte toujours, en sous-entendant, que la corrélation n'est plus valide (car visuellement absente), que ce n'est pas le soleil qui réchauffe la T sur le fond, d'autant plus qu'on va vers l'été. Ca c'est juste un fait que je veux montrer..." Non, personne d'informé sur les échelle en jeu pour chaque paramètre, ne pratique de cette façon, vu que tout le monde sait que ça n'a pas de sens, mais bizarrement dès qu'on passe au pas climatique, allez on plonge à fond, on mélange les échelles temporelles nécessaire pour les paramètres donnés, en confondant le pas annuel avec le pas climatique ( 1 échantillon de climat contient 30 ans au moins, comme 1 échantillon d'un mois compte une trentaine de jours) Au niveau de l'échelle, il faut raisonner de la même façon que lorsque tu regardes un palier dans les T journalières dans un mois. Ca ne te donnera pas l'évolution du mois concerné par rapport au même mois des années précédentes, tu ne pourras pas diagnostiquer avec ton palier trop court, si le réchauffement du mois considéré se poursuit ou non (surtout sans t'intéresser à la moyenne globale du mois en cours et aux autres mois entiers), car ta variation qui affiche le palier est interne à un seul mois et elle est inutile pour analyser l'évolution de la T du mois entier par rapport aux autres mêmes mois des années précédentes. Si tu ne n'admets pas ce raisonnement fondamental, alors pourquoi ne te préoccupes-tu pas de sortir un graphe de la tendance négative (et là ce n'était pas un plat !) des T journalières dans le mois d'août 2003 pour nous faire croire qu'il se refroidit par rapport aux autres mois d'août ? (ou inversement pourquoi ne montres-tu pas une tendance fortement à la hausse dans un mois froid par rapport aux autres mêmes mois les années précédentes, pour nous dire qu'il se réchauffe ?) C'est le météorologue qui a besoin de rentrer dans le détail de l'évolution au pas journalier afin de décortiquer cette variation interne pour chercher à expliquer ce qui a fait varié la T au pas journalier dans le mois, mais il ne va pas chercher à sortir un graphe absurde pour chercher une présence/absence de corrélation (sur de courtes périodes) avec l'évolution de fond dues aux saisons. Idem pour le palier annuel interne, il intéresse les spécialistes vu que c'est fondamental pour prévoir la T annuellement et à l'échelle décennale. Il faut tenter d'identifier le vrai signal climatique sur de plus courte périodes à l'aide de la physique. Il faut scruter le moindre bruit et dans ce cas lisser fin ou pas du tout, mais ils ne vont pas perdre leur temps à chercher des non-corrélations sans aucun sens avec le CO2 et ce genre de nano-palier ou pentes inverses (vu qu'ils injectent le forçage des GES en permanence, c'est qu'ils intègrent de fait son action permanente sur le fond, même quand elle n'est pas visible avec ton genre de graphe absurde, mais bon tu es encore excusable, vu qu'à priori tu es intoxiqué par l'une des nombreuses poubelles de non-science du Net. Pour info les faits scientifiques, ne se trouvent pas ici ou là-bas, mais dans les résultats décantés par les scientifiques qui débattent et font vérifier et valider leurs travaux) Pour résumer, si on veut voir l'influence de fond des GES et autres (AMO, oscillation de 60 ans) qui agissent et qui sont visibles essentiellement à l'échelle climatique, c'est avec des moyennes, des lissages longs qu'on le verra et si on veut voir l'influence des autres bruits naturel ou non, de courtes échelles, malgré les influences de fond au niveau climatique, c'est avec le lissage plus fin ( NOAA, La Recherche, moyennes mobiles courtes, Loess courts...) L'important c'est de ne pas confondre les 2 échelles. On ne peut pas diagnostiquer l'évolution du climat avec de courtes périodes, si la variation ne sort pas des bornes habituelles du bruit de fond, c'est le point essentiel à retenir. Seule les spécialistes de la physique du domaine pourront nous indiquer si une rétroaction ou autre qui ne ressort pas pour le moment du bruit habituel, aura un effet assez permanent pour contre-carrer le signal de fond à l'échelle climatique (et non pas nous les bidochons sur le Net !) Phili2pe, je suis loin d'avoir ton niveau de fond en mathématiques. Si c'est du calcul du Loess dont tu parles, il est impossible à réaliser sans informatique (c'est du calcul intensif qui prendrait bien trop de temps à la main). Il existe sur le Net des addins gratuits pour Excel, on peut le calculer avec R, le logiciel gratuit bien plus puissant (pour le Loess je l'utilise uniquement si j'ai besoin de calculer les IC, c'est bien plus rapide que de rentrer les formules dans Excel), mais d'abord plus rugueux, il est plus paramétrable que le Loess que l'addin d'Excel ici où je ne peux utiliser qu'un Loess de degrés 1, mais bon pour le climat c'est celui-là qu'il faut utiliser (par défaut il est sur 2 dans R il me semble, je le paramètre à 1). R fait vraiment tout, mais si c'est juste pour effectuer certains tests statistiques comme Spearman, Kendall et autres bricoles, il y a le logiciel Tanagra gratuit en français qui s'intègre à Excel.
  19. Le point soulevé dans l'étude par 13Vents ( je n'ai pas trouvé les détails méthodologiques de l'étude, je ne connais pas leur définition du frais, normal, chaud , qui peut introduire un autre biais purement méthodologique) , "la pollution" par le RC pour l'étude, n'a aucun rapport avec la complexité ou non de la climato. C'est un problème méthodologique simple qui concerne toutes les analyses statistiques de ce type sur n'importe quel sujet, aussi hors météo/climat (Williams, j'avais vu il y a un bon moment dans ton site, il y a le même genre de biais méthodologique dans tes stats d'hivers froids/chauds par rapport aux maxi/mini du cycle solaire, en plus compliqué avec 2 séries de T et 2 périodes de références à cause des stations différentes) La base avant de déduire ce genre de proba, c'est de vérifier que les données sont normalisées et les normaliser si nécessaire (donc identifier et retirer les tendances de fond sous n'importe quelle forme (ne pas se contenter du linéaire), vérifier aussi dans les résidus après et vérifier que les données/les résidus sont bien distribués et que la distribution est bien équilibrée. Ce qui n'est pas le cas même sans RC surtout pour certaines saisons, car en France par exemple, on a bien plus de proba d'afficher une anomalie de -2° que +2° l'hiver, et inversement l'été. Ceci pour des raisons physiques, à cause de la différence de rayonnement et d'énergie accumulée, entre l'été et l'hiver (ce n'est pas demain la veille qu'on observera un hiver avec une anomalie positive équivalente à celle négative de 63) Donc avec les stats on ne doit pas perdre de vue la physique, il faut définir une classification (du froid/chaud/ normal) qui tienne compte des véritables possibilités physiques et des véritables proba, sinon ça biaisera la classification du chaud, froid et normal (même après avoir traité le RC) et donc les résultats de l'étude. Le problème principal c'est d'identifier au mieux le signal du RC. Il faut donc une série assez longue (car la T saisonnière est plus variable en France qu'au niveau global), afin de le retirer proprement en ne supprimant surtout pas trop de bruit météo indispensable pour ne pas biaiser l'analyse (là aussi il vaut mieux tester la significativité de ce qu'on retire et ne pas retirer un signal avec des tendances trop courtes ou en lissant trop court, il faut lisser encore moins fin qu'au niveau global avec plus de bruit sur la France. Dans ce cas c'est le bruit qu'on veut absolument garder, on essaie de rejeter au mieux que la tendance au RC) Avec des distributions étalées de façon différente selon les saisons, il vaut mieux utiliser les centiles que choisir des seuils simples symétriques comme +-0.5° ou autres, pour déterminer la limite du normal /froid /chaud, et faire en sorte que les 3 classes choisies soient équiprobables (idem quand vous calculez vos scores de réussite, ils seront biaisés si les seuils ne correspondent pas aux réalités physiques et aux proba réelles de chaque classe pour chaque saison, parfois à votre avantage et parfois à votre désavantage) Donc pour revenir à l'étude, s'ils n'avaient pas retiré du tout ou pas traité assez correctement le signal du RC pour rendre les résidus assez bien distribués, donc sans laisser de tendance du RC (non linéaire depuis 1900), ce serait une erreur de base en statistique, qui permettrait de jeter l'étude directement à la poubs (car c'est justement à partir de ce genre d'erreur de base, que certains accusent les stats de faire dire tout et son contraire aux chiffres, alors que là ce serait clairement le facteur humain qui ne respecterait pas les règles de base d'utilisation des méthodes statistiques). Ils n'ont l'air de disposer des données que depuis 1921, donc en prime peut-être que leur série n'est pas homogénéisée comme l'est l'indicateur MF depuis 1900, ce qui rajouterait une couche de biais méthodologique. Enfin bon, il y a longtemps que les pros ont cherché sur ce point et savent donc que la T d'une saison sur la France, n'a pas d'influence significative sur la T de la saison suivante sur la France. Il vaut mieux chercher à savoir ailleurs, par ex dans la circulation générale, qu'est ce qui fait que ce type de circulation pourrait continuer (ou pas) cet été.
  20. Salut, Ici au village à Besse, certains chauffent encore aujourd'hui en plein dans l'ICU (miniature ), alors qu'ici dans mon petit volume bien isolé en pleine cambrousse, pas un seul coup de chauffe en mai. J'ai chauffé avec le poêle à bois à accumulation 11 fois en avril 2013 (mais vraiment de très petites fournées, environ qu'une heure de flamme ces jours-là), mais même cette année, j'ai déjà dû cuisiner plusieurs fois dehors pour ne pas produire trop de chaleur pour la nuit Pour comparer avec les mois d'avril précédents: En 2012 : 6j En 2011 : 1j mais là j'avais encore l'ordi fixe qui tournait 24h/24h, maintenant la station qui émet 24h/24h est sous IP, l'apport interne due à la consommation d'électricité est maintenant trop faible pour chauffer. D'habitude je suis le plus souvent en short en mai, là je suis avec 2 polaires et 21°, il pleut avec 12.7° dehors, 14.9° de Tx (hier Tn de 3.8° (un record pour une fin de mois) à 4.2° mais 21.3° à 23.7° de Tx selon les emplacements des différentes stations sur mon terrain)
  21. Un avis récent du spécialiste K. Trenberth sur les paliers et autres : http://thinkprogress.org/climate/2013/05/25/2061891/trenberth-global-warming-is-here-to-stay-whichever-way-you-look-at-it/ Attention Crazyfroggy, Williams se débrouille quand même bien en orthographe, vu que le français n'est pas sa langue d'origine. Il vaudrait largement mieux que son message soit juste sur le fond avec plus de fautes d'ortho, que l'inverse (que 0 faute avec un fond faux) Phoenix, ce n'est pas comme ça que j'aborde ce problème. Je n'en sais rien si c'est la variabilité qui crée ou non le palier. Avec les méthodes stats et sans physique, même s'il y a certaines corrélations évidentes, on ne peut pas démontrer dans l'absolu que le palier est créé par la variabilité habituelle. Les calculs stats montrent simplement que ce palier n'a rien d'étonnant et est tout à fait conforme à ce qu'on est en droit d'attendre avec la variabilité habituelle de la T annuelle globale autour d'une tendance de 0.15°C/déc, ceci avec une confiance à 95%. Ca n'a rien à voir avec ce que je pense ou non. Les résultats sont ce qu'ils sont, mathématiquement il n'y a rien qui sort des bornes de la variabilité, même si la cause du palier n'était pas complètement la variabilité habituelle (par exemple si ce surplus de Nina est une rétroaction négative, ce ne serait pas courant, mais l'effet sera indétectable du bruit de fond, tant que ce surplus ne dépasse pas la variabilité habituelle de l'ENSO et du bruit de fond détectables avec les stats) Il n'y a que la physique qui peut réaliser vraiment le tri entre toutes les causes réelles d'un palier ou d'autres variations, même si l'ENSO, les volcans laissent une signature statistique, il y a des incertitudes sur la façon de les traiter et de retirer leur influence le plus proprement possible, mais ça c'est du détail. L'important c'est qu'on peut vérifier objectivement si le palier est compatible ou non avec le bruit de fond global habituel + la tendance donnée (là du RC moderne), même si certains des bruits n'étaient pas identiques dans les détails. La variabilité depuis 75 n'est pas significativement différente de celle observée pendant le RC vers 1916 à 1945 pour une même tendance de 0.15°/déc, pourtant le bruit dû aux aérosols anthropiques, aux volcans ou à l'ENSO par ex, ne sont pas exactement les mêmes, mais le fait est que le mélange de tous ces bruits donne l'apparence du "même" bruit de fond, qui laisse une signature statistique globale identique. Pour notre tendance, il masquera plus ou moins le signal de fond à certaines périodes courtes de cette façon (palier, accélération, baisse, des changements uniquement visuels, mais pas sur le fond tant qu'ils ne sont pas significatifs) L'important à retenir, c'est qu'en analysant les valeurs annuelles avec les méthodes que je rabâche depuis des années, un changement pour une stabilité se détectera mathématiquement dans les données et quand ce sera le cas on pourra courber objectivement le signal de fond au bon endroit. Tu peux le vérifier avec le changement significatif vers 1945 pour une réelle stagnation (J'ai déjà traité ce cas avec des graphes et calculs, qui montrent les différences évidentes avec la période actuelle. Voir certains anciens messages dans ce forum) Les modèles climatiques de prévis dont tu parles ne sont pas statistiques, ils ne sont pas basés sur 130 ans de données, mais sur la physique. Personne ne peut prévoir un accident comme un super-volcan, un gros astéroïde ou autres, qui impacteront l'échelle climatique. Mais bon les proba pour que ça arrive pile dans ces 100 ans, même si elles ne sont pas nulles, sont autrement plus faibles que la valeur centrale des prévis. Si on raisonne sur tout ce qui peut arriver de moins probable, on ne s'en sort pas, même en restant cloîtré chez soi sans bouger, il y a un risque d'accident non nul. Pour une panne des taches solaires, comme un Maunder, ça été simulé. L'influence sur l'évolution de fond de la T globale est pour le moment estimée peu importante par rapport au forçage des GES qui lui augmente au fil du temps, même si localement ce type de panne semble agir beaucoup plus. Là le problème principal, c'est de parvenir à savoir avec quels délais et comment l'océan va relâcher la chaleur accumulée dans les profondeurs (pourquoi il ne la relâcherait plus de la même façon ou aussi "rapidement" qu'avant le RC). Qu'est ce qui ressortira des débats des spécialistes à propos de divers travaux qui trouvent une sensibilité revue à la baisse ? La tendance dont je te parle est celle linéaire du RC moderne. Ce type de tendance n'est valable que pour des périodes relativement courtes tant qu'elle ne change pas. Donc là elle n'est valide que depuis environ 1975 jusqu'au prochain changement significatif, vu que la précédente tendance linéaire avant 75 était réellement "nulle" et que l'évolution depuis 130 ans n'est pas linéaire. La tendance linéaire n'est pas utile pour prévoir l'évolution du climat, mais elle est assez efficace pour détecter un changement significatif quand il existe et si la physique ne l'a pas détecté avant. Quand c'est le cas, un jour où l'autre les données sortent des limites de la variabilité autour de la tendance donnée, puis la moyenne/30 ans finit par atteindre un palier et cette fois c'est bien le climat qui ne se réchauffe plus ( la T/30 ans stagne ou se refroidit).
  22. Comme on bascule souvent vers l'instrumentation, j'ai répondu ici : /topic/82179-anciens-et-nouveaux-capteurs-de-mesure-de-la-di/'>http://forums.infoclimat.fr/topic/82179-anciens-et-nouveaux-capteurs-de-mesure-de-la-di/ Sinon pour les valeurs en fonction des masques et sans tenir compte des masques, on disposait de ces atlas qui sont pour moi le meilleur travail réalisé sur la DI en France, malheureusement basé sur l'ancien capteur. Maintenant qu'on dispose d'un bon capteur, personne ne fait plus ce travail monstre.
  23. Comme on bascule dans l'instrumentation, je poursuis ici le sujet abordé en climatologie (suivi de l'insolation en 2013) sur les mesures de la durée d'insolation avec l'ancien capteur Campbell-Stockes (boule en verre) par rapport à certains capteurs modernes. Avec 230h d'écart dans ces coins, ça signifie très probablement que le gros de cette valeur ne provient pas du tout de l'incertitude de base du capteur CSD-3. Le problème majeur dans ce genre de comparaisons, en plus du fait qu'elles ne pas sont faites à même hauteur et avec les mêmes obstacles dans le même site sous d'assez certaines mêmes conditions d'insolation, c'est qu'on ne sait pas ce que donnent les autres capteurs de DI par rapport à un pyrhéliomètre de référence et il manque d'autres éléments. En GB pour le changement ils ont étudié le problème pour le passage au CSD-1 (2 ou 3 c'est pareil à quelques bricoles et améliorations près dans la fiabilité de l'électronique et le 3 est en verre, les autres en plastique). L'ancien capteur surestime à peu près de 20% l'été et de 7% l'hiver. Ils ont déterminé des corrections plus fines pour chaque mois (Ca nous arrangerait bien que MF diffuse ce genre d'infos précises qu'ils ont déterminées pour chaque station FR) http://onlinelibrary.wiley.com/store/10.1256/wea.99.03/asset/200459403_ftp.pdf?v=1&t=hh5xq9fl&s=fbf5b4c0ffb87cf996ba637f7d8cfaf64ec8e47a Avec de relativement longues comparaisons de ce type, à distance (19 à 27 km), j'ai vu des CSD-3 au Luxembourg qui "sous-estiment" par rapport à la méthode MF. Sur l'année 2003 un des capteurs CSD avait sous-estimé de plus de -320 h alors que ce même capteur n'avait sous-estimé que d'un peu plus de -70h/an en moyenne / 9 ans. Un 2 ème CSD a sous-estimé moins en 2003 (près de -160h) alors qu'il sous-estimait plus en moyenne/9 ans (+ de -170 h/ an !) que le premier CSD. L'ancien capteur CS (à boule de verre) lui a surestimé moins avec plus de soleil en 2003, +140h contre près de +160 h/an sur 11 ans. Enfin pour moi ces chiffres avec des comparaisons douteuses à distance dans des sites différents avec de possibles et réelles différences de DI, ne signifient pas grand chose, à part qu'il y a très probablement bien d'autres causes aux plus gros écarts que l'incertitude des capteurs. Chez MF avec des essais autrement plus rigoureux (au même emplacement sur le toit bien dégagé du centre radiométrique et face à des pyrhéliomètres de référence), j'ai lu des résultats avec le CSD-1. Un des exemplaires testés du CSD sous-estimait en moyenne de 5.5 minutes/jour (un peu plus de -33 h /1 an) alors qu'un un autre surestimait de 9.1 minutes/jour (+55h /1 an). Ca me semble cohérent avec l'incertitude de +- 10% de la DI au pas mensuel, donnée par le constructeur. En fait il faudrait tester un paquet de capteurs pour vérifier la qualité réelle de l'interchangeabilité/étalonnage de base. A noter que selon les pays et les conditions, l'ancien capteur donnait plutôt des seuils qui variaient de 70 à 280 W/m2 (MF et dernier CIMO guide), dans une plus vieille note MF ça descendait même à 60 W. Donc il sera normal de trouver des secteurs/périodes/conditions et pays où il sous-estime, mais en général c'est plutôt la surestimation qui ressort des essais face à des pyrhéliomètres qui sont les instruments de références pour vérifier le rayonnement direct. L'incertitude due à l'observateur qui lit le papier est estimée déjà à +-15%, donc pas étonnant que certains lecteurs puissent avoir compensé ou accentué les erreurs par endroits et qu'il n'y ait pas toujours les mêmes écarts pour de mêmes conditions. Aurais-tu le lien direct vers la page ZAMG qui fournit des DI homogénéisées pour la France, car avec cette langue que je ne connais pas du tout, même avec google translate, je ne trouve pas dans les données gratuites ? Merci ! Je suis tombé sur la photo de l'ancien abri sombre pratiquement contre le mur du bâtiment en 1939, c'est clair que l 'urbanisation jouait plus à cette époque qu'au nouvel emplacement meilleur mais pas très fameux avec des abris modernes !
  24. Je le dis et le répète, l'année qui a la plus forte proba pour sortir du palier pour la tendance au RC donnée (0.15°/déc fin 98) sans changement significatif, prolongée de nos jours, n'est pas avant 2018 (2017 est seulement l'année pile où on était sensé observer une valeur du niveau de celle 98, elle était donc très en avance pour son temps) Ce n'est pas parce qu'on ne sortirait toujours pas du palier annuel au moment le plus probable pour la tendance donnée (2018) que ça signifiera un changement pour une stagnation. Si ça arrive après alors que les valeurs sont dans l'IP et qu'il n'y a pas de changement significatif de tendance et que le climat (T moy /30 ans) se réchauffe toujours, on sera simplement en retard par rapport à la valeur centrale, sans que ça sorte de la variabilité habituelle pour que le fond change pour l'échelle climatique. Après je me doute bien que ça va faire du foin chez ceux qui sont bloqués dans le bruit y compris parmi certains scientifiques, si dans 5 ans on est toujours dans le même palier plat au pas annuel, avec toujours pas de Nino significatif à l'horizon, vu que d'après les modèles en 2001, qui ne sont pas conçus pour prévoir les durées de paliers aussi courts, on devrait être déjà sorti du palier (dans plus de 95% des modèles, le palier au pas annuel n'est pas aussi long), un décalage logique par rapport aux paliers probables d'après les lois statistiques, vu que ces modèles sont faits pour prévoir l'évolution de grandes moyennes climatiques d'au moins 30 ans (si on prévoyait bien les paliers, la prévis décennale assez débutante pour de courtes périodes / 10 à 20 ans n'aurait pas beaucoup de problèmes) La tendance linéaire au RC nous indique que la date la plus probable pour améliorer de 0.1° la valeur de 98 sans changement significatif de tendance (toujours la même petite tendance au RC de 0.015°/an sur 30 ans), c'est pas avant 2024, donc tu es un peu juste avec tes 5 ans à attendre, ils n'ont aucun sens à eux seuls, ça dépendra beaucoup plus du niveau des valeurs que du nb d'années. L'important c'est de vérifier chaque année si les valeurs réchauffent ou non notre dernier échantillon de climat (la moyenne sur 30 ans), si les valeurs annuelles sortent de l'IP inférieur de la tendance donnée, si la tendance change significativement (compare les IC de la tendance "nulle" récente la plus longue possible, aux IC de la tendance au RC précédente qui débute vers 1975 et se terminera là où débute ta nouvelle tendance "nulle" (se termine dans les faits seulement si le changement est significatif, là c'est à tronquer comme Rcaman par ex, pour les tests). Enfin malheureusement pour la qualité du forum, on sait tous que tu t'y refuses et que tu préfères nous sortir tes propres théories mathématiques fausses (La nouvelle théorie des 5 ans maintenant !)
  25. Williams ne mélange pas tout volontairement comme à ton habitude. Le trucage n'est pas dans les données, mais dans la façon mathématiquement fausse de s'en servir. Là l'erreur volontaire du 2 ème graphe de Rcaman, c'est de sélectionner une année de départ d'une tendance non significative qui n'indique aucun changement significatif de tendance. C'est aussi absurde que s'il s'amusait à sortir une courbe du mois de mai actuel avec cette fin de mois polaire, pour nous dire que la courbe de T décroche par rapport à la puissance solaire reçue au sol qui augmente pourtant bien depuis début mai et donc il déduirait tout comme toi, qu'on n'irait pas vers un réchauffement de fond (malgré l'été qui arrive et qui même s'il est très pourri sera plus chaud que ne l'indique la pente de ta courbe de T de mai), car vous nier en permanence l'influence des bruits courants dans les données qui permettent ce genre de décrochage qui n'a aucun sens pour l'évolution de fond sur de trop courtes périodes pour la variabilité donnée. La tendance n'ayant pas changé significativement depuis 75, toutes les autres tendances depuis sont considérées comme mathématiquement identiques (à cause de la variabilité habituelle, on ne peut distinguer les véritables petites variations de fond bien réelles, vu qu'on ne sait pas encore bien quantifier chaque bruit pour le retirer afin de distinguer le vrai signal sur de courtes périodes, donc on utilise le linéaire comme approximation, qui moyenne le signal sur une période suffisante pour s'affranchir de la variabilité habituelle) En attendant le prochain point de changement significatif, Rcaman aurait dû diffuser ce type de graphe qui débute vers 1975 (le point précis du changement significatif varie très légèrement selon le pas de temps et les séries utilisées) : http://www.woodfortr...0.5/offset:0.05
×
×
  • Créer...