ChristianP
Adhérent Infoclimat-
Compteur de contenus
2904 -
Inscription
-
Dernière visite
-
Jours gagnés
1
Type de contenu
Profils
Forums
Calendrier
Tout ce qui a été posté par ChristianP
-
Statistiques et anomalies climatiques globales
ChristianP a répondu à un sujet de Sam82 dans Evolution du climat
Et bien voilà un changement réel dans une tendance, à envisager dès 2011 pour les hivers de l'hémisphère Nord, sur le blog de Tamino : A voir pourquoi avec les explications sur une publication intéressante : http://tamino.wordpress.com/2013/09/11/seasonal-nino/ http://tamino.wordpress.com/2013/09/02/el-nino-and-the-non-spherical-cow/ -
Précision du capteur de température de la Davis VP2
ChristianP a répondu à un sujet de fafou dans Instrumentation
S'ils te répondent n'importe quoi, demande en public sur la page Facebook de Davis, ils ne pourront pas se défiler si tu y postes une image de leur courbe et celle de Sensirion. Pour l'anémo, ils ont déterminé en soufflerie une correction en fonction de la direction du vent qui est intégrée à partir du firmware 1.82. Sans cette correction, l'anémo surestime dans certaines directions et sous-estime dans d'autres. En fouillant ce forum tu trouveras plus d'infos détaillées. L'électronique pour améliorer la courbe du Sensirion pourrait se trouver sur la carte de l'ISS qui a aussi son propre firmware, mais je ne sais pas s'il est assez évolué pour intégrer ce genre de correction. Si Bruno de Météo Shopping passe dans le coin, il pourra mieux nous renseigner. Et oui, c'est le problème, un composant peut donner des T trop basses à certains niveaux de la gamme et trop hautes à d'autres. Sinon quand la sonde donne 10.2° au lieu de 10° à T stabilisée, sans histoire de constante de temps, elle ne donnera pas une autre mesure. Il faut se méfier des différences visibles en "instantané" hors T très stabilisée (même dans mon congélateur ce n'est pas assez stable, c'est très difficile de vérifier ma Vantage Vue tellement elle est lente (vu qu'on ne peut pas séparer le capteur), car la variation de T dans le congélateur est encore trop rapide pour elle, mais pas pour une Pt 1000, ce qui génère des écarts importants sans rapports avec l'étalonnage) Si on veut sa courbe de corrections sans référence, comme il existe des écarts différents rapportés par les utilisateurs du numérique, il faut demander d'entrée un capteur Davis avec un certificat NIST et x points fixes nécessaires pour son secteur (pas la peine de demander du -15° pour une installation à Toulon), où alors demander à son revendeur Davis d'envoyer le capteur dans un labo accrédité pour obtenir ces x points de contrôle. Mais bon sauf gros moyens pour renvoyer régulièrement la sonde dans un labo, il vaut mieux quand même pouvoir vérifier une éventuelle dérive (Pour une bonne référence, voir le sujet sur le datalogger Comet + Pt 1000 ). Par contre il faudra un 3 ème capteur pour vérifier que le capteur de référence ne dérive pas lui-même (malgré le fait que ce soit rare sur des Pt 100 ou 1000, ça arrive), car quand il y a un changement entre la référence et le Davis, il faut bien trancher avec une 3 ème mesure. C'est aussi pour cette raison que dans le réseau US haut de gamme (USCRN), il y a 3 pt 1000 par abri maintenant en permanence ou 3 abris (ventilés méca) avec 3 pt 1000 pour les "anciennes" installations. C'est difficile de comparer des valeurs "instantanées" avec des sondes aux constantes de temps différentes sur le terrain, même sous 6 m/s constant avec les capteurs à quelques mm l'un de l'autre, on relève des écarts dus à la différence de réactivité et non à la différence d'étalonnage, voir le SHT75 face à la Pt 1000 : Moyenne/1 mn des échantillons de 10s : http://sphotos-f.ak.fbcdn.net/hphotos-ak-ash3/1233147_211859495645526_2024621478_o.jpg Moyenne/5 mn des échantillons de 10s : http://sphotos-h.ak.fbcdn.net/hphotos-ak-frc3/1262897_211859492312193_2145473955_o.jpg Le mieux ce sont des T stabilisées à divers points de T avec une ventilation pour équilibrer au mieux les capteurs différents (d'autant plus avec le composant contre le support + filtre Davis) et dissiper d'éventuels biais radiatifs même dans le noir. -
Précision du capteur de température de la Davis VP2
ChristianP a répondu à un sujet de fafou dans Instrumentation
Oui j'avais vu ça aussi pour l'ancien capteur d'avant 2006 d'origine meilleur que les SHT11 sur une bien plus grande partie de la gamme. Davis donnait aussi une meilleure courbe que celle du fabricant. Soit Davis intègre une correction dans le programme de la station comme pour l'anémo, soit Davis bénéficie d'une sélection des meilleurs composants SHT11 par le constructeur, soit Davis améliore la mesure à l'aide d'un montage électronique. Le problème, c'est que dans dans les forums, certains ont comparé des SHT11 face à du matériel pro (y compris en France face à des Pt 100) et on retrouve de gros écarts surtout par températures négatives comme indiqué par Sensirion, mais dans d'autres cas pas d'écarts aussi importants. Comme dans les forums on rapporte plutôt souvent le négatif que le positif, c'est peut-être un biais d'échantillonnage. Nous n'avons pas des milliers de capteurs Davis pour vérifier ce qu'il en est, ce sont peut-être les exceptions qui confirment la règle d'une amélioration réelle par rapport à la doc générale de Sensirion. En fait le plus simple, ce serait de demander à Davis pourquoi ces courbes sont différentes. -
Statistiques et anomalies climatiques nationales
ChristianP a répondu à un sujet de Aldébaran dans Evolution du climat
Barth, je te fais un prix de gros pour les énormités de ta réponse et de tes nouveaux messages dans celui sur l'évolution et stats globales. Un chat, s'appelle un chat. Je ne vais pas le nier pour te faire plaisir, ou parce que tu as du mal à savoir qui tu es, ou parce que tu nies ton propre négativisme (Dans ce dernier cas, pour une fois tu serais cohérent avec toi-même.) “Négativisme : attitude consistant à nier systématiquement l’existence ou la vérité de quelque chose” [ATILF] "Négativiste, adj. et subst.(Celui, celle) qui a tendance à nier de façon systématique." (CNRTL) Je précise pour ceux qui n'auraient pas bien compris le sens que j'utilise pour "négativiste", ou qui sont obnubilés par la seconde guerre mondiale ou même qui veulent imposer leur sens préféré au rédacteur (ça ne m'étonnerait pas plus que ça de la part des négativistes, à l'égo surdimensionné par définition et qui cherchent encore à nier, le droit d'utiliser un des sens donnés...), qu'en utilisant "négativiste" dans le cas concerné ( Ce sont ceux qui pour réfuter quelque chose (ça ne concerne pas que la science climatique...), nient volontairement après avoir eu les informations nécessaires, des notions scolaires ou non, simples, qui ne sont plus à démontrer, refusent les vrais débats scientifiques devant les pairs, fuient le processus de vérification de leur travail, propagent leurs erreurs scolaires élémentaires sans cesse dans les médias (Certains vont même jusqu'à nier où se situe l'Ouest sur une simple carte !) et comme les astrologues qui s'attribuent une capacité qu'ils n'ont pas, comme ceux qui se disent capables de diagnostiquer un cancer en imposant les mains, sans l'ombre d'une démonstration scientifique, mais pire encore, sans même une méthodologie scolaire valide, ils sont les négatifs des véritables scientifiques qui discutent, quand ils trouvent des éléments contraire à présenter, les théories toujours réfutables par définition, de façon scientifique et valide au moins d'un point de vue scolaire, mais là où c'est prévu, face aux pairs) ce n'est en aucun cas dans le sens de "négationniste", inadapté. Pour approfondir la notion de négativisme dans ce domaine et des adorateurs de l'anti-démarche scientifique (Il est clair que certains ne vont pas lire jusqu'au bout ces articles, vu qu'ils ne vont pas supporter de se retrouver longtemps face au miroir ) : http://hal.archives-ouvertes.fr/docs/00/63/14/78/PDF/cahier_de_recherche_2011-20.pdf http://www.les-crises.fr/climat-29-conclusion-1/ Ton histoire d'avis différent ou non sur cette science n'a donc absolument aucun rapport avec ton négativisme chronique, étant donné que je ne t'oppose pas mon avis sur la validité de la science, qui serait par définition aussi invalide que le tien, car non démontré là où il faut, et donc qui n'aurait pas plus de valeur que n'importe quelle notion ésotérique. Est-ce que tu m'as vu classer Skept dans ta catégorie, alors qu'il passait dans IC pour pointer du doigt les incertitudes bien réelles de cette science, mais de façon instructive, car assez justement, sans trop déformer ce que rapporte le GIEC et les publications scientifiques plus récentes ? Non ! Il est pourtant toujours sceptique, mais un vrai sceptique cohérent avec ce que nous dit la science à l'instant t . Il n'a pas besoin de faire du charlatanisme comme toi et ta clique et de nier les bases les plus élémentaires. Lui acceptait une fois pour toutes, des démonstrations simples et justes d'un point de vue scolaire, alors que ce n'est jamais ton cas. Je cite aussi Leif Svalgaard régulièrement dans sa spécialité. C'est pourtant un vrai sceptique qui a un avis scientifique sur le RC, différent de celui du GIEC, mais qui lui respecte les bases élémentaires et le processus scientifique, publie scientifiquement, accepte les réfutations des pairs, rapporte même l'invalidité de certains de ses anciens papiers (auxquels des négativistes s'accrochent encore, alors que l'auteur leur rappelle directement qu'il ne sont plus valides suite aux réfutations et démonstrations/progrès des pairs ! Il sont tellement illuminés, qu' ils vont jusqu'à nier ces faits.) et il passe du temps à démonter les pratiques manipulatoires et les arguments non scientifiques de croyants comme toi, tout en sortant comme référence des éléments de la synthèse du GIEC sans la déformer, car même s'il n'est pas d'accord avec eux, il s'appuie sur cette science admise et valide à l'instant t, jusqu'à preuves scientifiques du contraire qu'il vous demande sans cesse quand votre populace anti-science affirme n'importe quoi sans jamais rien démontrer (Pour LS qui le rappelle régulièrement, il n'y a pas plus naïfs que les faux sceptiques. Il indique qu'ils sont tellement obnubilés par le rejet de la théorie en cours, qu'ils sont près à croire à n'importe quoi d'autres sans preuves scientifiques, ce qui est l'inverse du scepticisme scientifique. Quand on est sceptique sur la théorie actuelle, on se doit de l'être encore plus avec les autres où les éléments de preuves sont encore plus absents et divergent) Donc au sujet de tes "bonnes intentions" dans un de tes message plus haut, je n'y crois plus depuis longtemps ! Quelqu'un qui a une connaissance aussi insuffisante que toi et moi, avec de bonnes intentions, après avoir d'abord lu et tenté d'assimiler toutes les explications scolaires simples données auparavant ici et ailleurs, posera des questions sur les points particuliers qu'il ne comprend pas. Avec de bonnes intentions, comme il ne sait quasiment rien, il va vouloir apprendre et non imposer sans arrêt dans nos forums non prévus pour, son avis sur cette science qu'il sait être sans valeur scientifique d'autant plus que la charte demande l'avis de la science et non le sien sur elle. S'il veut nous informer avec une bonne intention, alors qu'il n'a pas assez de compétences pour vulgariser, pour comprendre un papier aussi simple que celui de Von Storch, il va simplement poster les références du nouvel article scientifique, sans nous sortir systématiquement son interprétation perso ou médiatique qui en changent volontairement profondément le sens (tout le monde peut se tromper et changer le sens d'un papier sans s'en rendre compte, mais vu le nb d'infos que tu as reçues sur les paliers, l'incapacité congénitale connue des modèles à reproduire le bon bruit à l'instant t et sur moins de 30 ans, ce n'est plus involontaire) Tes pratiques dans IC et ailleurs, vont totalement à l'inverse des bonnes intentions, mais elles sont parfaitement conformes à la méthodologie habituelle des négativistes manipulateurs : Refuser une théorie de façon non scientifique par tous les moyens possibles, en niant des faits et des bases scolaires qui ne sont plus à démontrer. Comme d'habitude tes interventions ne sont pas intéressantes et ton hypocrisie sur mon message "intéressant" ne marche pas avec moi, étant donné que tu n'as pas eu la correction de prendre le temps de le lire attentivement, au lieu de t'instruire, tu as cherché à préparer une réponse au plus vite (en demandant l'aide de ta clique) et tu as donc cherché encore à déverser ton négativisme des bases et à déformer volontairement le sens de phrases simples tout comme le sens et la portée du papier de Von Storch. Et oui, on m'a informé la veille de ta réponse, que tu avais eu besoin de l'aide de tes "pairs" ( D'autres égos démesurés et des illuminés qui circulent chez Terre du Futur. Je parle uniquement de ceux qui s'attribuent comme toi, sans en avoir les compétences tout en refusant de les acquérir, le pouvoir surnaturel d'invalider une science, surtout sans l'ombre d'un simple travail scolaire valide sur ce sujet et donc encore moins avec un travail scientifique à présenter aux pairs ...), pour sortir rapidement, un torchon pareil sur le fond, ce qui est assez comique, pour répondre aussi pauvrement à un campagnard de Besse incompétent (à part sur quelques bricoles purement scolaires), conseillé par des chèvres... Même à ce niveau le plus basique, tu montres ton manque d'honnêteté envers les lecteurs, car tu aurais dû préciser que ce n'est pas "ta" réponse, vu que tu as demandé l'aide de "maman" TDF, branchée non-science. Continue comme ça, ne bosse pas les bases dans les bouquins scolaires, de science du domaine et demande aux gourous sur le Net, tu es sur la bonne voix de la libre pensée... C'est clair qu'à ce niveau d'endoctrinement, on ne peut plus rien faire pour toi (Essaie avec des arguments rationnels très simples, d'aider un ami à sortir d'une secte et tu nous en diras des nouvelles !), jusqu'à ce que tu prennes conscience de ce fait et de tes lacunes considérables, non seulement dans la connaissance la plus élémentaire de la science du domaine, mais surtout très globalement à propos de la démarche scientifique, de la logique simple, des stats élémentaires et même dans la compréhension du français basique. Tes lacunes sont énormes, comparées aux scientifiques qui produisent la vraie science et qui synthétisent les résultats, pourtant tu as la prétention de discuter de la validité de la théorie à leur niveau et pas seulement, vu qu'avec tes négations des faits élémentaires, le rejet de leurs conclusions sans démonstrations valides au moins au niveau scolaire, tu montres sans l'ombre d'un doute, que tu te sens largement supérieur ! Tu es pourtant si incompétent, que tu n'as pas su lire un simple tableau de stats descriptives, le tableau S2 du papier de VS, où on voit clairement que des paliers de bien moins de 15 ans des modèles sont dans les choux, comme je l'ai indiqué maintes fois ici bien avant son document (si tu avais été intéressé par ce sujet, tu aurais brassé les modèles antérieurs et tu l'aurais constaté par toi-même il y a longtemps, d'autant plus que j'avais fourni un fichier Excel qui les regroupe.) Il y avait même le palier de 8 ans sans record de moins de 0.1° dont on parlait déjà en 2008, qui ne collait pas dans les modèles par rapport à certaines séries d'obs (le palier de 15 ans avec un record de moins de 0.1° avait le même genre de stats descriptives de l'ordre de 1 à 2%, logique vu que ces records dépendent des tendances données et donc des paliers.) Sans aide, tu dois même être assez incompétent pour ne pas savoir nous dire quelle est la durée la plus courte de palier du tableau S2, où les modèles sont dans les choux (statistiquement parlant) ! Alors tant que tu ne seras pas humble comme le sont la majorité des véritables scientifiques avec bien d'autres compétences que les nôtres, il ne faut pas être étonné que je tranche dans le vif de tes interventions non seulement inutiles, imbuvables et avant tout, volontairement manipulatrices. Von Storch a été obligé de pondre une mise au point sur son papier qui n'est pas encore une publication scientifique (car rejetée par Nature, ce qui ne m'étonne pas pour de simples stats descriptives, incomplètes et avec lesquelles on ne peut pratiquer l'inférence statistique, des tests, parce que les conditions ne sont pas remplies, même si les chiffres sont corrects et cohérents, ce n'est pas du niveau de Nature. C'est un travail pour étudiant en première année de stats et encore...), à cause de négativistes, qui sans cesse déforment le sens et la portée des documents et sont incapables de replacer les documents dans le contexte des faits et de ce qui a été démontré. Il doit répéter des évidences pour ceux qui suivent de près cette science (que ça ne peut falsifier la théorie et les modèles). Voir : http://klimazwiebel.blogspot.fr/2013/08/hans-von-storch-and-eduardo-zorita-on.html Plus haut dans l'autre forum, tu continues à nier les bases sur les tendances avec les T des océans et toi qui nie l'utilisation valide des stats quand on les utilise correctement en respectant les règles de base et la physique du domaine, tu te permets de nous sortir des stats à tour de bras dans tous tes messages, d'utiliser un papier de simples stats descriptives qui ne permettent pas d'extraire des proba, mais aussi tes cueillettes de cerises à gogo, une méthode sélective de phrases ou de données, invalide d'un point de vue scolaire (ce que tu nies de fait sans cesse, en persistant), quand elle n'a aucun sens statistique, ni physique. On ne peut pas revendiquer que les stats sont inutiles pour les autres et s'en servir soi-même à volonté, d'autant plus sans aucun respect des bases ! Si tu étais cohérent avec toi-même, tu ne devrais citer aucun chiffre (ce sont des stats !) et nous montrer que tes propres expériences de physique (et ne surtout pas analyser les données, car ce sont encore des stats !) et ne plus citer un papier qui se base sur des stats. Pour la tendance, c'est évident qu'au fil du temps, plus la dernière tendance plate sera longue et plus la tendance globale, qui résulte dans notre cas de la tendance significative au RC + la tendance plate visible qui n'est pas significative (ou de + x mini tendances différentes et non significatives, si ça t'amuse d'analyser que 2 ou 3 valeurs sorties du contexte pour nous cueillir une tendance de -20°/siècle à partir de 3 données...), va s’aplatir progressivement et donc que ce n'est jamais avec cette tendance globale qu'on va chercher à mettre en évidence un changement dans les tendances internes, en attendant bêtement qu'elle devienne assez plate pour ne plus être significative d'un RC, donc toujours très en retard. C'est encore une méthode pour un pur négativiste des bases ! On te l'a indiqué des centaines de fois, il faut la tronquer où il faut, au niveau de la rupture la plus importante, plus ou moins visible, afin de tester la significativité de cette rupture. Il faut donc comparer 2 tendances différentes à priori, celle significative du RC visible avant la tendance "plate", en cherchant à minimiser les IC, donc en récoltant assez de données (donc toutes celles avant le nouveau changement éventuel à tester et après le précédent changement significatif, pour justement favoriser l’émergence d'un changement significatif au plus tôt ) avec la tendance "nulle" ou différente (+ rapide ou + lente visuellement) qui suit. Là tu essaie encore et encore, de manipuler les lecteurs qui ne connaissent pas ces sujets, en zoomant sur un fait évident qui ne sert pas du tout à détecter un changement. Tu fais aussi semblant d'ignorer qu'un retard dans la détection d'un changement même dans le cas correct de la comparaison de deux tendances, est pris en compte par les méthodes mathématiques qui permettent de tester les changements de tendances. On t'a appris x fois qu'avec les méthodes mathématiques valides (que tu nies encore et encore), on s'attend à rater un changement significatif et donc à le voir trop tard, alors qu'il existe pourtant réellement, que dans 5% des cas, étant donné qu'on règle justement les tests, les calculs d'IC, pour obtenir une confiance à 95%, ce que tu zappes volontairement pour faire croire aux lecteurs que l'important ce sont ces 5% (Mais bon on sait tous ici, que tu es capable avec tes copains, de faire croire que le plus probable, c'est de gagner au loto, plutôt que de perdre !) Les stats sont justement là pour éviter les sélections arbitraires des données et des raisonnements falacieux comme les tiens ( zoomer sur ce qui n'est pas utile, ni significatif, dans ton cas avec le but de tromper, vu que tu es largement informé) et de ceux qui se foutent des règles mathématiques et physiques élémentaires, exactement comme le font les astrologues et autres charlatans. Dans ta réponse dans l'autre partie nationale du forum, tu confirmes bien ton problème de négation des bases scolaires sur les tendances, vu que tu fais semblant à nouveau de ne pas savoir en le demandant, ce que signifie une anomalie qui se retrouverait sous la valeur centrale après 2017, ce qu'on t'a expliqué maintes fois. Ca ne change rien, tant que les valeurs sont assez souvent dans l'IP et tant que la tendance ne change pas significativement. Tu es tellement occupé à nier les bases et à nous refourguer ton avis sans valeur scientifique, ni même scolaire dans ton cas (alors qu'ici dans IC, depuis des années, on t'indique qu'on ne demande pas mon et ton avis de bidochon sur cette science, mais ce que nous dit la science sans trop la déformer, encore un fait non à démontrer, que tu nies), que tu ne risques pas de les assimiler une fois pour toutes : /topic/40167-statistiques-et-anomalies-climatiques-globales/page-42#entry1846695'>http://forums.infoclimat.fr/topic/40167-statistiques-et-anomalies-climatiques-globales/page-42#entry1846695 Il faut donc être gonflé pour s'étonner que je ne traite pas d'autres de tes divagations médiatiques et seulement la tendance qui n'est qu'un exemple (c'est précisé dans ma réponse, mais ton gros problème de compréhension du français de base ressort) scolaire de ce que tu nies, qui est en rapport avec l'histoire des paliers avec les modèles, sujet principal du papier support de l'interview que tu as rapportée. De plus j'ai clairement indiqué (encore ton problème de compréhension d'un français basique) que l'explication n'était pas pour toi, vu que ça ne te servirait à rien (ce que tu as démontré de façon éclatante avec ta réponse et tes autres messages. Enfin la prévis était trop facile avec la méthode et un IC à 100% de Tamino pour débusquer les négativistes, c'est imparable...), mais pour les autres lecteurs, qui à l'inverse de toi, essaient de comprendre et d'apprendre, au lieu d'imposer leur avis perso par tous les moyens. Tu as beau continuer à nier les faits en transformant volontairement le sens des phrases simples comme, "Il y a longtemps que les paliers sont dans les choux dans les modèles par rapport à la réalité et bien avant celui de 15 ans ! " et en particulier ces quelques mots "avant celui de 15 ans" , qui par définition signifie, que ce sont des paliers de moins de 15 ans... , ce n'est pas nouveau que les paliers des modèles ne collaient déjà pas avant ce papier de VS, avec ceux de la réalité et avant d'atteindre 15 ans. Je l'avais signalé maintes fois et je l'ai encore rappelé ici le 25 mai 2013 , bien avant que tu te réveilles, ce que de fait tu nies encore et encore : (A noter pour les spécialistes du forum, que les liens directs sont morts, on doit les reconstituer en manuel pour ne pas tomber sur la première page, la page est zappée dans le lien, on ne récupère que /topic/40167-statistiques-et-anomalies-climatiques-globales/#entry2138973%C2%A0'>http://forums.infoclimat.fr/topic/40167-statistiques-et-anomalies-climatiques-globales/#entry2138973 en cliquant dessus le numéro du message concerné) Tant que tu ne reconnaîtras pas ton incompétence immense au moins aussi énorme que la mienne, http://fr.wikipedia.org/wiki/Effet_Dunning-Kruger , tu ne pourras pas progresser, car tu refuseras d'apprendre les bases, vu que tu t'estimes déjà capable de rejeter les travaux des scientifiques sans même savoir lire correctement le moindre papier scientifique, ni même mes messages, trop occupé à essayer de nier par tous les moyens non scientifiques, avec l'aide de tes sbires. Un document est toujours à replacer dans le contexte général de ce que la science a déjà établi, jusqu'à preuves scientifiques que ce qui est établi est invalide. Les négativistes ne le font jamais. Au contraire, ils ne souhaitent surtout pas replacer ce qu'ils lisent, dans le simple contexte général très réduit d'une publication donnée ( en sortant des phrases du contexte pour en changer complétement le sens !) et surtout dans le contexte des connaissances scolaires de bases sous-jacentes, qu'ils nient de fait d'entrée. Pour les autre lecteurs qui savent lire et donc replacer les publications dans le contexte de ce qu'on sait, il y en a une du même genre que celle de VS, qui à l'inverse a été admise par Nature. Elle n'est pas diffusée gratuitement, mais il y a une explication ici et le détail des méthodes stats dans le supplément dessous : http://www.pacificclimate.org/sites/default/files/publications/pcic_science_brief_FGZ.pdf Ceux qui souhaitent prendre le temps de vulgariser ces calculs, peuvent s'amuser : http://www.nature.com/nclimate/journal/v3/n9/extref/nclimate1972-s1.pdf -
Statistiques et anomalies climatiques globales
ChristianP a répondu à un sujet de Sam82 dans Evolution du climat
Si je comprends bien, tu voudrais que je détermine quelle est la dernière tendance significative d'un réchauffement jusqu'à nos jours, avec un IC à 99%. Pour 3 sigma, je donne donc l'IC à 99.7% à l'aide du calculateur de tendance de SKS (qui intègre la méthode de Tamino) : Pour GISS la tendance est significative à partir de 1993 : 0.151°/déc +-0.145° Pour RSS c'est à partir de 1985 : 0.144°/déc +-0.138° Mais bon ce n'est pas efficace pour détecter un éventuel changement entre 2 tendances internes qui semblent différentes en apparence, vu que la connaissance de la T moy de la planète n'est vraiment pas aussi précise que pour des mesures des expériences de physiques répétées x fois et ça augmente trop le risque de 2 ème espèce de se tromper dans notre cas avec trop peu d'échantillons depuis 98. Pour ta 2 ème question, si ça concerne la T annuelle et non la moyenne/30 ans, en partant de la tendance/30 ans calculée fin 98, de tête comme je me rappelle de l'IP à 95% et de la tendance de 0.015°/an et du fait que la valeur de la tendance centrale en 2017 est au niveau de l'anomalie de 98 (0.62° pour GISS), il faudrait récolter ces années au moins 2 anomalies sous l' IP, donc cette limite à 99.7% est environ 0.375° plus faible que le niveau donné par la tendance centrale pour les années considérées. Pour 2014 = 0.62° -(3 x 0.015°) - 0.375° = 0.2° (0.325° à 95%) En 2015 = 0.62° -(2 x 0.015°) -0.375 = 0.215° (0.34°) En 2016 = 0.62°-0.015°-0.375° = 0.23° (0.355°) En 2017 = 0.62° -0.375° = 0.245° (0.37°) Mais bon là aussi avec un IP si large, on détectera plus tard le changement significatif après 1945 qu'on pouvait envisager rapidement au bout de 3 ans seulement avec l'IP à 95% normalement plus efficace pour notre cas (dans notre situation de changement éventuel depuis 98, c'est comme si on avait relevé 2 valeurs sous l'IP à 95% dans les anomalies de 99 et 2001, ce qui est loin d'être le cas, et toujours rien sous l'IP depuis...) -
Alsavosges pour ton histoire de tolérance, dans ce cas là, sois cohérent avec toi-même et tolère que je ne sois pas d'accord avec toi pour mélanger la micro-échelle (représentative d'un rayon de moins de 100 m) et toutes les autres échelles sur une même carte, simplement pour une histoire de cohérence minimale du réseau. De plus j'indique pourtant bien dans mon message, que je suis aussi pour profiter des mesures des stations représentatives de la micro-échelle, mais pas auprès des synoptiques et radome de MF, seulement dans une carte spécifique, vu qu'il y a de plus en plus de stations de micro-échelle à récupérer, qui vont biaiser d'autant la lisibilité de la carte générale. Je suis très intéressé comme beaucoup de passionnés par les mesures de micro-échelle et donc par les tiennes, d'autant plus que c'est une de mes passions et que ton cas m'intéresse particulièrement vu les écarts anormaux que tu rapportes. C'est à dire des écarts plus faibles qu'entre ici et d'autres stations normales, qui sont dus à bien d'autres causes, que le site et les ombres portées. Le grand minimum à représenter sur une carte avec des synoptiques et des radome de MF et surtout parmi tous ceux qui ont fait des efforts parfois considérables en regard de leur site et de leurs moyens pour gagner en représentativité, c'est l'échelle locale topoclimatologique, qui n'est pas vraiment extrémiste, car pas des plus étendue, représentative d'un rayon de seulement de plus de 100 m, donc encore très loin des nombreux km, cibles des deux principaux réseaux MF. Oui je suis d'accord avec toi pour un TAF d'échelle très réduite de moins de 100 m, c'est la micro-échelle, mais ils ne sont pas tous aussi réduits. La végétation cramée l'été est représentative du SE, ce n'est pas du tout de la micro-échelle. L'échelle réduite ici, serait celui qui installe une station sur un gazon vert arrosé tout l'été, et non l'inverse. Dans le désert, c'est le sable qui est représentatif, et pas l'herbe verte ! Il y a un truc que je ne comprends pas. D'après ta phrase, "Cet écart négligeable laisserait à penser que le soleil atteint quand même l'ISS au moment où se produisent les Tx" , tu n'as donc pas l'air de savoir si le sol et le site de l'abri, sont concernés ou pas par les ombres portées conséquentes vers les horaires des Tx, ce qui est très étonnant, ce qui signifierait qu'on discute pour rien ( si le soleil est assez présent près des horaires des Tx) C'est MF et non moi, qui dans une longue comparaison d'abris (note technique de 1999), a déterminé que les bons abris comme le Socrima, ne bougent pas de plus de 0.1° avec un test spécifique, dit d'ombrage, pour vérifier les capacités d'un abri face au rayonnement direct. (l'abri seul à l'ombre, pas le sol et le site classe 1 de la DSO qui restent ensoleillés. L'ombre est vraiment limitée à l'ensemble de l'abri à l'aide d'une plaque, l'autre abri ensoleillé est très proche sur le même support pour les petits modèles comme le Cimel). Je ne comprends donc pas ton histoire de 2 à 3° maxi quand l'ISS est au soleil ou non, c'est énorme. Dans ce cas l'abri Davis partirait directement à la poubs (donc à voir pour peindre le pluvio et le support en blanc dans vos secteurs froids). Même sur le Cimel ou l'abri marine qui surchauffent, c'est 0.4° d'écart d'après la doc MF, entre l'abri au soleil et celui à l'ombre. 0.1° pour le Socrima, négligeable pour le Stevenson modèle réduit. Pour ton étude, c'est certain qu'il n'y a pas de gros écarts sur les Tx à la vue des extrêmes (même si ta moyenne ne veut rien dire, si tu n'as pas extrait uniquement les journées avec soleil + brise habituelle de beau temps hivernal, sans être trop proche de la saturation (donc assez bas par T très négative à cause de la mesure de la HR par rapport à l'eau), vu que la moyenne sera biaisée par un surplus de Tx sous ciel, nuageux, ventés, saturés, pluvio/neigeux). Tes écarts extrêmes ne sont pas différents de stations aux sites assez normalement ensoleillés ou entre deux sites ombragés. Ils ne correspondent clairement pas aux différences, site ombragé/site au soleil. Sans connaître le site de la station MF, ton étude ne peut pas nous dire grand chose sans connaître les ombres portées vers ces horaires là-bas aussi, sans le vent et l'humidité là-bas, c'est donc difficile de savoir les causes réelles de ces si faibles écarts. La question est de savoir combien il fait au plus près de chez toi avec un site assez identique normalement au soleil. Tant qu'il n'y aura pas un abri dans ces conditions, on ne le saura jamais avec certitude. Quant à dire que j'invente les écarts entre les mesures dans un site à l'ombre et au soleil, tu commences à dériver sérieusement. Quel serait le mobile absurde pour qu'un passionné de points de mesures comme moi, invente des écarts ! La seule chose que tu peux me reprocher c'est d'apprécier une certaine cohérence dans un réseau. Donc évite ce type d'accusation gratuite. Je n'imaginais même pas à avoir à discuter un jour de la différence de mesure de la T en site au soleil/ site à l'ombre, tellement ça me paraissait évident pour tout le monde, et surtout pour des passionnés. Tout le monde a pu constater les différences énormes de T en se gelant dans les coins à l'ombre les belles journées calmes l'hiver et avec les thermo voitures en circulant les portions à l'ombre sont assez longues sans changement significatif d'altitude ! Dans StatIC, il n'y a pas que les Tx qui comptent vu que les T instantanées toutes les heures sont comparées à celles de MF et autres stations assez représentatives et que ces T autour des heures piles, relativement proches de midi solaire peuvent présenter de bien plus gros écarts, absents dans les Tx (comme on peut en voir sur mes graphes)
-
Oui Alsavosges, effectivement j'imaginais plus de 2 m de neige accumulés au fil de l'hiver dans le coin du Socrima ! Je ne parle pas des Tn, vu que les problèmes sont insignifiants en zone naturelle loin des constructions, surtout dans une pente ou l'air coule et surtout comparés à ceux générés par les compromis nécessaires pour d'autres stations. Je discute des gros problèmes de T autour et pendant les horaires des Tx par soleil et temps calme avec un air assez sec l'hiver, par rapport à un site à l'ombre à altitude assez équivalente (et même masse d'air) Les écarts faibles que tu rapportes avec les ombres portées, sont déjà nettement dépassés à cause des ombres ici sur mon terrain entre des abris très proches pendant mes différents essais et ne peuvent être si faibles dans ton cas où ce ne sont pas quelques ombres portées à travers des branches sans feuilles, ou que sur une petite partie du sol comme ici ( pour un plein soleil et une même masse d'air), qu'avec un vent soutenu en provenance des zones ensoleillées et/ou sous une humidité proche de la condensation. Donc soit la station ensoleillée que tu utilises en comparaison, reçoit un air plus froid pour x raisons ( un vent froid, une brise de vallée, de pente ou autres), soit le secteur où se situe le Socrima reçoit de l'air foncièrement moins froid que dans l'autre station au soleil, ou ton site est ventilé avec un vent assez soutenu pendant ces horaires, ou alors l'humidité de l'air l'hiver vers ces horaires (par temps calme et ensoleillé), est toujours assez élevée surtout dans l'autre station. Plus l'air est sec, plus le vent est calme et plus l'écart est grand vers les horaires des Tx l'hiver, entre une station avec un site au soleil et une station avec un site à l'ombre (je précise que c'est bien le site, son sol, ses obstacles au soleil ou à l'ombre qui comptent, et non l'abri tout seul à l'ombre, qui lui est sensé ne pas broncher avec le rayonnement direct, de plus de 0.1° quand il est de qualité, comme vérifié pour le Socrima par la DSO) Je rappelle que classe 5 pour ombres portées ça commence avec une hauteur solaire et donc d'obstacles de 20°, (7° à 20° c'est classe 4, donc déjà autour de 2° d'erreur pour ces faibles hauteurs, ce que je constate ici avec les abris à droite et à gauche pour des ombres réduites au sol. En ombres portées, mon site avait été classé 4 par MF, le matin et le soir l'hiver avec moins de 14° de hauteur d'obstacles, alors que le poste avait été classé 2 en général) c'est donc plus de 5° d'écarts après 20° de hauteur solaire, d'autant plus près de midi solaire, ce que j'ai pu vérifier systématiquement dans les conditions météo nécessaires où que j'aille ici avec mes mesures itinérantes. (Et encore à pied où je peux passer dans des endroits naturels encore plus ombragés sur de grandes étendues, les écarts importants sont sous-estimés, car un abri 7714 ou V1 Davis a une constante de temps trop importante à cette vitesse, qui ne permet pas de capter la vraie T basse ou haute des différente zones, les écarts sont lissés par rapport à la réalité. C'est pour cette raison que je cherchais un abri à ventilation naturelle aussi efficace qu'un abri MF, tout en ayant une constante de temps réduite, d'où mon prototype d'abri Vantage Vue particulièrement réactif et plus léger à promener à pied au-dessus de la tête. ) Les écarts entre ici et mon voisin l'hiver à cause des ombres dans les graphiques du msg précédent, sont moins importants que ce qu'il existe autour avec d'autres massifs forestiers proches portant des ombres bien plus étendues par rapport à des sites plus chauds qu'ici , car plus au soleil que le mien. La neige accentue les écarts de T dans ces cas, car le site à l'ombre garde la neige au sol pendant bien plus longtemps que le site au soleil (même ici avec des T très positives la journée, à l'ombre la différence de tenue est énorme), l'environnement, les obstacles autour de l'abri sont au frigo. Quand la neige est présente au sol dans les deux sites, c'est le rayonnement réfléchi qui est à l’œuvre dans le site illuminé, il chauffe l'abri ,mais aussi les obstacles éventuels ne portant pas d'ombres. C'est pour ces raisons que les ombres portées sont bien plus importantes pour comparer les mesures l'hiver vers les Tx, qu'un cloisonnement artificiel important pour comparer les Tx en été.
-
Ne t'en fais pas Alsavosges , je ne vote pas, car je ne suis pas dans l'équipe d'intégration et je n'imaginais pas que tu installes un très grand mât dans ce beau site. Je t'indiquais le meilleur compromis possible pour ton cas, sans aucune contrainte. Je me doutais que tu allais la laisser en bas, c'est le plus raisonnable, par contre 2 m seulement, je ne sais pas quelle hauteur de neige maxi il y a l'hiver, ça me paraît trop faible. Oui Mike c'est clair que ce n'est pas un drame, mais même s'il ne s'agit pas d'alimenter un modèle, il faut disposer d' un réseau cohérent de stations assez représentatives par rapport aux stations MF et aux autres, pour tracer des isothermes corrects au niveau national et régional et comparer assez souvent les valeurs en temps réel. Là on ne peut plus comparer même à midi solaire et à moins de désactiver sa prise en compte dans le tracé, je ne vois pas comment c'est possible avec une station et un sol toujours à l'ombre l'hiver avec de la neige au sol, vu qu'il y a le potentiel pour qu'une station à même altitude dans ces montagnes sur un terrain ensoleillé, affiche parfois plus de 10° en plus que dans ce site, à cause des ombres portées. Pour profiter pleinement de ce type de site de rêve dans les Vosges avec une installation au sol même à l'ombre, il vaudrait mieux créer un réseau secondaire de StatIC avec des cartes de France réservées aux stations mesurant l'échelle micro-climatique (pour éviter de mélanger des pommes et des cerises sur la carte principale ou ssur la micro-climatique), pour toutes les stations dans des sites compliqués qui ne peuvent pas représenter une échelle raisonnable par rapport aux stations MF et surtout par rapport aux autres proprio qui se sont mis en six pour combler bien moins d'écarts de représentativité, que dans ce cas, qui est le plus extrême qui soit (neige avec ombres portées aux Tx par temps calme et ciel clair + écarts générés par l'utilisation d'abris ouverts dans les sites ensoleillés avec de la neige autour de ce secteur) ou qui se sont fait refuser leur site pour bien moins que dans ce cas. Ca permettrait d'ailleurs d'intégrer dans ce réseau pas mal de celles qui n'ont pas été admises dans StatIC. On serait les seuls à proposer un réseau purement micro-climatique en plus du réseau pour l'échelle classique. Je ne vois pas en quoi la montagne est différente du site de mon voisin, représentatif des collines + arbres portant une ombre comme dans les Vosges, qui n'aurait pas plus sa place dans StatIC, mais tout à fait excellente pour notre passion (plus il y a de mesures et mieux c'est pour nous !) et très utile pour établir une carte de T fine à l'échelle communale ( afin d'éviter de construire à l'ombre par exemple. Certains n'imaginent pas les énormes différences de consommation d'énergie même ici, pour quelques 50 m de distance) Les seules exceptions à mon avis au niveau de l'échelle fine sur la carte nationale, ce sont les sites mythiques et/ou exceptionnels représentatifs du point le plus froid + chaud + venté (ou + d'autres paramètres) d'un département, d'une région ou de France, pour obtenir une image des valeurs les plus extrêmes assez globalement sur la carte principale de France. Ne vous cassez pas trop la tête, ce ne sont que quelques pistes de réflexions.
-
Statistiques et anomalies climatiques globales
ChristianP a répondu à un sujet de Sam82 dans Evolution du climat
Peut-être des progrès dans les prévis climatiques sur de plus courtes échelles temporelles : http://www.geomar.de/en/news/article/klimavorhersagen-ueber-mehrere-jahre-moeglich/ -
Le soleil devient rasant pour un obstacle vertical, même à midi solaire dès que la hauteur du soleil est inférieure à 45° et donc pour tous les autres horaires autour. Ca commence probablement près du 15 septembre dans ton coin et donc bien avant pour d'autres horaires proches de midi solaire. Tu peux le vérifier ici avec cet outil formidable pour étudier ses propres masques (après les relevés de leur hauteur et azimut) et paramètres solaires : http://www.sunearthtools.com/dp/tools/pos_sun.php Pour moi le balcon ou le sol (sauf TAF remarquable à représenter) ne sont pas assez corrects pour un réseau comme StatIC. Mais bon c'est certain que si je n'avais pas la possibilité d'installer une 2 ème station, je laisserai celle du Socrima au sol, même si je ne pouvais pas entrer dans StatIC. Pour la représentativité de la masse d'air plus globale et StatIC, j'ajouterais une 2 ème station sur un grand mât d'anémo, placé vers le Socrima. Le moins pire dans ton coin froid et neigeux, c'est de l'éloigner des constructions sombres avec des cheminées qui chauffent. Ce serait donc une installation très haute sur un très grand mât pour mesurer la T représentative au-dessus de la canopée, au-dessus du sol naturel (Exemples : Dans la zone du Socrima sur un mât, monter assez l'abri pour que les obstacles ne représentent pas plus de 14° de hauteur par rapport au niveau de l'abri - 2 m. Ou placer l'abri à environ 2 m + 2/3 de la hauteur moyenne des grands et larges (> 10° d'azimut) obstacles proches dans un rayon de 250 m, pour récupérer une circulation d'air plus normale et de plus grande échelle au niveau de l'abri) Le noir ne réduit qu'une partie de l'écart dû à la neige + soleil+ vent calme, par rapport à un abri standard, mais il ne le supprime pas assez par rapport à un abri ventilé méca à chambre fermée. (Attention avec la neige par T négatives à midi solaire avec soleil et un abri méca Davis, qui peut rester sur le panneau solaire et donc trop limiter la ventilation méca) Je n'ai pas testé le noir sur une V2 standard avec la neige au sol, mais c'est certain que c'est favorable avec le soleil sans assez de vent, vu qu'à l'origine le noir est prévu pour ces conditions, d'autant plus qu'il y a peu, même chez MF83 on parle de noir dans des abris MF, alors que je n'avais jamais abordé ce sujet avec eux. C'est qu'il y a eu des essais DSO et/ou une lecture approfondie de la littérature par leurs spécialistes de l'instrumentation.
-
Ca dépend, car l''hiver s'il n'y a pas de soleil sur le sol de la station autour des horaires des Tx, les écarts sont monstrueux par rapport à une station au sol ensoleillé. Avec de la neige au sol c'est pire, vu qu'un abri MF surchauffe au soleil sur la neige. Exemple d'écarts ici déjà sans neige, avec une station Davis Vue modifiée placée à l'ombre de la pente et des arbres l'hiver chez le voisin à 80 m en face de ma station, pour 8 m d'altitude de différence (heures TU): http://meteo.besse83.free.fr/imfix/t275m_267m.png http://meteo.besse83.free.fr/imfix/ecart267m_275m.png Le problème majeur pour StatIC, c'est le manque de soleil vers les les horaires les plus chauds au soleil l'hiver (L'été avec les ombres portées, les écarts sont bien plus faibles), bien plus qu'une classe 4 très cloisonnée en plein été. C'est une classe 5 naturelle pour ombres portées avec des biais trop graves pour l'intégrer, à moins que ce soit vraiment un TAF remarquable candidat pour produire les records de Tnn du département concerné, comme ici à l'ombre au pied Nord de la Ste Baume (chez le voisin c'est un creux par rapport à mon plateau, mais pas un TAF, l'air ne stagne pas, l'écart est assez faible en Tn, l'air descend en permanence vers la plaine où il fait 3° de moins en Tn que sur mon plateau par ciel clair et temps calme) Pour le balcon idem, ce n'est pas bon, l'abri est trop bas par rapport au sol du balcon. Avec de la neige et du soleil, il va surchauffer avec les réflexions latérales vu que ce n'est pas l'abri noir de la Vue, c'est cloisonné par la construction, qui doit être trop chaude l'hiver avec le soleil rasant et avec l'abri plus loin de l'étendue de neige. A voir aussi s'il y a toujours de la neige au sol du balcon pendant qu'il est présent sur le sol naturel ensoleillé. Pour moi il faudrait un abri ventilé méca à chambre fermée, pour éviter les plus grosses erreurs sur le balcon et avec la neige. Mais bon je n'ai pas assez d'expérience avec la neige au sol, mais c'est clair que les publications rapportent les plus gros biais de T, dans ces conditions par vent calme, ciel clair et bon rayonnement solaire sur la neige.
-
Bonne nouvelle, j'ai enfin pu entrer un capteur de T/HR numérique très réactif avec mon montage maison, dans l'abri Young ventilé méca à chambre miniature. J'ai installé un composant plus précis de Sensirion (+-1.8% pour la HR entre 10 et 90% , contre +- 3% entre 20 et 80 % pour celui d'origine), et plus facile à bricoler, le SHT75 qui fonctionne très bien sur la Davis V2 numérique. Comparer les courbes de précisions entre le SHT75 http://www.sensirion.com/fileadmin/user_upload/customers/sensirion/Dokumente/Humidity/Sensirion_Humidity_SHT7x_Datasheet_V5.pdf et l'actuel SHT 11 où c'est l'arnaque pour les T vers 5° et moins (+-1.0° déjà à ce niveau et ça se dégrade encore plus bas !) et il n'est pas très bon à plus de 30° où on n'a plus les +-0.5° annoncés : http://www.sensirion.com/fileadmin/user_upload/customers/sensirion/Dokumente/Humidity/Sensirion_Humidity_SHT1x_Datasheet_V5.pdf Je l'ai protégé d'un filtre permanent en téflon dont la base est noyée dans la colle et qui laisse le minimum d'air libre entre le composant et le filtre comme préconisé par Sensirion, puis j'ai superposé une deuxième couche de téflon interchangeable pour le changer régulièrement à cause de la poussière abondante ici dans ce ventilé méca à 6 m/s. http://meteo.besse83.free.fr/imfix/sht75young.jpg La réactivité n'a vraiment plus rien à voir avec l'ancien montage et l'ancien filtre, vu que le composant n'est pas contaminé par un support contre le composant et le filtre fait corps avec le composant et donc bénéficie directement de la ventilation méca. Le câblage des pattes du SHT75 correspondant à Davis sans changer l'ordre des fils dans la prise RJ du capteur d'origine : 1 = Blanc 2 = Jaune 3 = vert 4 = bleu (rouge et noir libres) Il revient à moins de 50 euros, s'il tient 1 ou 2 ans dans cet abri méca destructeur de HR, vu la condensation interne à 6 m/s, ce sera très rentable pour obtenir une meilleure précision et enfin un capteur numérique normalement réactif (ce montage n'est pas conseillé dans le sites qui ne sont pas au moins classe 2 ou bien dégagé sur un toit, le filtre Davis étant bénéfique pour les sites insuffisants). Pour des abris normaux, il n'est pas nécessaire de noyer dans la colle ou du silicone (sans vapeur chimique qui peut endommager le composant de HR !) la base si haut comme je l'ai fait. Vous pouvez l' enquiller sur un support soudé aux fils (donc la colle jusqu'à la base du support), à la place du composant, pour le changer facilement sans soudures (comme pour l'ancien capteur de HR Davis), mais il faudra protéger l'extérieur des connexions avec une graisse au silicone (filtre toujours obligatoire sur ce composant !). http://www.conrad.fr/ce/fr/product/064228/Barrette-tulipe Ne pas installer ce montage maison dans une station sous garantie, vu qu'il n'a pas été validé par Davis. Donc à vos risques et périls pour vos ISS numériques uniquement, anciens ou nouveaux (ici il est sur ma plus vieille carte ISS numérique)
-
Et oui Sébastien , si ça peut-être utile pour IC, mais seulement si le prix devient assez compétitif, car là pour le moment je ne vois vraiment absolument aucun intérêt sur le papier à s'équiper de cette station, plutôt que d'une Davis V2, d'autant plus qu'il n'y a pas de recul et surtout avec l'arrivée du nouvel anémo Davis encore plus robuste et très probablement plus fiable sans ILS, avec un seuil de démarrage phénoménal pour ce type d'anémo à ce prix, qui va au-delà des préconisations MF ( 36 s pour s'arrêter à partir de 3 m/s, d'origine sans lubrification maison ! Rien à voir avec l'ancien et ses moins de 20 s d'origine sans lubrification) L'anémo Davis a été testé en soufflerie, pas d'infos sur la validité réelle de l'anémo de l'Orégon. Le capteur de rayonnement global Davis a été testé par l'OMM, aucune info même maison sur le capteur Orégon. D'après les commentaires sur les forums, l'exploitation des données sur le micro a l'air rudimentaire et pas automatique pour le moment, elle fonctionnera probablement avec les logiciels externes, comme Weather Display, mais la pression n'est même pas enregistrée au dixième dans la base de données, alors qu'elle est affichée avec cette résolution sur la console. La synchro on n'y pense jamais sur la Davis, là à priori il faut la lancer, très pratique quand on est absent ! L'intensité des pluies n'est pas actualisée aussi souvent que sur la Davis. Le composant de T/HR a les mêmes précisions, mais bizarrement la gamme s'arrête à 99%, bon ça passe encore vu que tous les Davis ne montent pas à ce niveau. Ici le radio-pilotage ne fonctionnera pas, vu que ça ne passe pas dans mon coin. Le seul plus de cette station par rapport à Davis, c'est la mémoire au pas de 1 mn, jusqu'à 22 jours sans vidanger (toujours insuffisant à mon goût, vu que ce serait sympa de laisser des stations vraiment en pleine cambrousse inaccessible l'hiver pendant des mois, ou loin de chez soi (afin d' y passer rarement pour vidanger) et loin des réseaux de com) Il faudra au moins attendre une version 2 pour éviter d'essuyer les plâtres à nos frais, un vrai logiciel et surtout un tout autre prix. Enfin c'est assez incroyable qu'ils copient la Davis aussi clairement, surtout aux US où les indemnités à verser après un procès, ne sont pas ridicules.
-
Suivi de l'englacement au pôle nord
ChristianP a répondu à un sujet de sirius dans Evolution du climat
D'après cet outil, http://nsidc.org/arcticseaicenews/charctic-interactive-sea-ice-graph/ où on peut afficher les courbes voulues, l'extent mini de 96 est dans les choux depuis pas mal de temps. Au 19/08/2013, il reste 11 mini plus bas. -
Statistiques et anomalies climatiques nationales
ChristianP a répondu à un sujet de Aldébaran dans Evolution du climat
Le document scientifique à l'origine de l'interview : http://www.academia.edu/4210419/Can_climate_models_explain_the_recent_stagnation_in_global_warming -
Statistiques et anomalies climatiques nationales
ChristianP a répondu à un sujet de Aldébaran dans Evolution du climat
/topic/40167-statistiques-et-anomalies-climatiques-globales/#entry2188611'>http://forums.infoclimat.fr/topic/40167-statistiques-et-anomalies-climatiques-globales/#entry2188611 -
Statistiques et anomalies climatiques nationales
ChristianP a répondu à un sujet de Aldébaran dans Evolution du climat
Barth qui s'est trompé de forum (c'était la partie nationale), est un habitué pourtant bien informé sur les sujets précis de l'interview. Il a eu en main toutes les explications sur les notions scolaires et scientifiques nécessaires pour comprendre l'article. Comme il n'a jamais posé de questions sur ces notions et qu'il a eu le temps, c'est qu'il es a comprises et il est donc sensé être capable de ne pas gober certaines erreurs qu'il contient et surtout de ne pas les propager ici. Il y a déjà assez de poubelles sur le Net pour ça. En prime Barth ose traduire malhonnêtement le texte, où en aucun cas ce simple pourcentage de 2% de paliers > 15 ans, récolté dans les modèles, n'est une proba pour notre palier. Il n'a pas le sens d'une probabilité pour notre cas précis (sauf pour lui et ses gourous qu'il défend avec vigueur, les "Cabrol", Williams and Co de service, qui confondent presque systématiquement de simples pourcentages avec des proba) Donc arrête de faire semblant avec tes fausses questions sur ces sujets, étant donné que tu as obtenu x fois des réponses précises. Tu ne viens pas ici pour comprendre, apprendre, ou dissiper des doutes bien légitimes ou pour nous informer sur les progrès de cette science. Tu es là pour nous imposer encore une fois ta propagande politico-médiatique, pour essayer de discréditer et de faire passer la science du domaine pour plus incertaine qu'elle ne l'est. J'avais diffusé le lien vers un document récent sur l'état du climat en 2012, revu par des centaines de scientifiques de dizaines de pays et tu l'ignores pour t'accrocher aux bla-bla des médias. Tu dis, non merci, pas de journalistes, mais là c'est du journalisme, pas de la science ! C'est un journaliste qui rapporte des propos et non le scientifique. Le journaliste tronque ce qu'il veut où il le veut, au point qu'il est très courant que les scientifiques se plaignent du changement de sens à cause de coupes ou des transformations de quelques mots (ce qui n'est pas obligatoirement le cas dans l'article). Par exemple, les paliers ont été traités en long et en large ici, y compris le fait exact de l'interview et vraiment pas récent et nouveau (Il y a longtemps que les paliers sont dans les choux dans les modèles par rapport à la réalité et bien avant celui de 15 ans ! ), comme Barth voudrait le faire croire, et comme je l'ai signalé plusieurs fois, le palier actuel aurait dû se terminer d'après les modèles, mais pas d'après les stats des vraies obs de la réalité, tout en expliquant pourquoi ce point n'a pas encore d'importance pour la validité des modèles climatiques. J'y reviendrai pour de nouveaux lecteurs, vu que pour le négativisme forcené de Barth, c'est par définition réglé : les notions scolaires de bases sont invalidées de fait et rejetées systématiquement par lui, ainsi que les plus récentes synthèses des scientifiques, vu qu'il n'en tient absolument jamais compte et reviendra sans cesse sur ces mêmes points à l'aide d'aucun travail perso, juste avec de la non-science. Les modèles climatiques sont conçus pour prévoir l'évolution du climat et donc de grandes moyennes (/ 30 ans et plus). Ils ne sont pas faits pour prévoir le bruit interne précisément et ce type de palier relativement long, mais trop court (car internes), pour être bien cerné par les modèles climatiques (sinon on serait déjà au top en prévis décennales internes, alors que les scientifiques expérimentent et tâtonnent encore à cette échelle). De plus les modèles ne sont pas lancés assez souvent pour générer assez d'échantillons représentants notre tendance fin 98 et donc pour estimer les proba d'observer un palier de x années d'après notre véritable tendance initiale de 0.15°/déc/30 ans fin 98 (et pas pour une autre tendance bien différente comme les nombreuses autres très fortes dans les modèles), avec un record exceptionnel hors intervalle de prédiction (IP) en 98 (et pas pour une autre valeur plus probable, nombreuses aussi dans les modèles), valeur de 98 qui avait la plus forte proba d'être observée qu'en 2017 pour la tendance donnée/ 30 ans fin 98; c'est pour dire l'avance dont bénéficiait cette valeur par rapport à son époque et à la tendance ! Il faut bien garder à l'esprit que l'évolution réelle de la T et donc du vrai bruit et du vrai signal, qu'on observe dans notre monde réel, ne se trouve pas dans les modèles climatiques qui eux donnent des approximations par rapport à la réalité (même s'ils étaient assez bons sur le fond) et surtout d'autant plus que la période est courte par rapport à l'échelle temporelle minimale, cible des modèles. Même si on ne sait pas toujours départager assez précisément le bruit et le signal dans nos obs de T, on peut appliquer des méthodes stats qui nous donneront une bien meilleure estimation de la proba d'un tel palier, que les modèles , afin d'obtenir une réponse à la question précise pour notre cas : Quelle est la proba d'observer un palier d'une telle durée avec cette tendance initiale de 0.15°/déc/30 ans fin 98 avec une valeur annuelle à la même faible proba que celle observée en 98 ? Vu que ça été rabâché et traité x fois dans ces forums, je rappelle donc que l'année la probable et la plus normale qui soit pour sortir du palier avec 98 et la tendance /30 afin 98, ce n'est pas avant 2018 (Et oui ! 2017 est bien la valeur centrale de la tendance initiale). Ca signifie que nous ne sommes même pas en retard pour cette tendance au RC de 0.15°/déc/30 ans fin 98, le réchauffement n'a pas changé, mais par contre la T des 12.5 dernières années est en retard par rapport à la prévis centrale de l'AR4 de 0.2°/déc/30 ans (donc pour une hausse de +0.6° pour la moyenne/30 ans) entre le 1 janvier 2001 et fin 2030 (voir les précisions quelques paragraphes plus bas). Tamino beaucoup plus performant sur ces sujets, vu que c'est sont boulot, avec une autre méthode au pas mensuel et sans tenir compte de la valeur remarquable de 98, en calculant l'erreur standard de la tendance, associée à la compensation de l'auto-corrélation du bruit, avait déterminé pour GISS et une tendance plus forte de 0.17°/déc depuis 75 (donc ça réduit automatiquement les proba pour une même grande longueur de palier) qu'au bout de 15 ans, on a 50 % de proba d'en sortir (la tendance devient significative) et 50% de continuer le palier (oui 50% de proba , autant que la tendance reste non significative comme l'actuelle après 15 ans, c'est à dire que le palier continue malgré la présence toujours bien réelle des 0.17°/déc sur le fond !). D'après ses calculs, c'est au bout d'un palier de 24 ans qu'on tombe à 5% de proba pour une tendance de 0.17°/déc et que c'est considéré comme significatif d'un changement, donc pour 2% de proba (et non pour 2% des observations de paliers toutes tendances confondues dans les modèles !), la durée du palier est encore plus longue que 24 ans ! http://tamino.wordpress.com/2012/07/06/how-long/ J'ai mis à jour les calculs avec sa méthode, à juin 2013 pour sa série et d'autres, sans ses larges arrondis : http://meteo.besse83.free.fr/imfix/gissprobapaliers.png Pour les 2% de proba dans notre monde réel, ça correspond à un palier de 26 ans pour GISS, qui est la série la moins bruitée. J'ai comparé avec les autres séries, c'est avec cette GISS qu'on détectera le plus rapidement un palier anormal. Pour RSS de 1979 à juin 2013, logiquement comme la tendance est plus faible et la série plus bruitée, avec plus d'auto-corrélation du bruit qui en rajoute une couche, le palier qui a 5% de proba dépasse les 30 ans, donc pas la peine de parler des 2% de proba hors graphique, Le palier qui est à 50% de proba est déjà de 23 ans ! http://meteo.besse83.free.fr/imfix/rssprobapaliers.png Les négativistes sont tellement occupés par leurs cueillettes permanentes de cerises, qu'ils ne se rendent pas compte qu'en utilisant une série avec une faible tendance et un gros bruit, ils peuvent encore moins annoncer objectivement un changement rapidement à cause d'un palier long, car ils sont bien plus fréquents dans ces cas (et oui par définition, plus on est proche de 0 avec une tendance positive significative et plus on a du mal à distinguer qu'elle est repassée à 0, d'autant plus avec la variabilité plus importante dans cette série). Pour NCEP le palier qui a 50% de proba est de 19 ans et celui à 5% est de 30 ans, tendance assez proche de GISS mais plus bruitée et avec plus d'auto-corrélation. http://meteo.besse83.free.fr/imfix/NCEPprobapaliers.png Pourquoi tant de différences entre l'estimation des proba à l'aide des stats et le simple pourcentage de 2% des modèles ? Il faut bien voir que les 2% des paliers > 15 ans des modèles, c'est le pourcentage d'obs de la longueur de ces paliers pour toutes les tendances confondues dans les modèles, donc y compris avec toutes les plus nombreuses tendances bien plus fortes/ 30 ans (surtout plus tard avec le gros du RC) que la notre fin 98 ou que celle de Tamino. Donc de fait ça réduit nettement en général la durée des paliers dans les modèles malgré la présence de certaines tendances moins fortes, mais qui sont moins fréquentes et plus faiblement inférieures, ce qui nous donne mécaniquement un pourcentage faible de 2 % en général, qui n'a absolument rien à voir avec la proba concernant notre réalité, ni même avec celle qu'on pourrait obtenir à l'aide des modèles d'ailleurs pour notre cas précis. S'il avait fallu évaluer la proba d'un tel palier parfaitement conforme à notre réalité, même avec ces modèles non conçus pour, il aurait fallu les lancer un grand nombre de fois, donc pendant un temps considérable (au regard des temps de calculs), pour récolter au moins 100 échantillons de tendances à 0.15°/déc/30 ans (et non pas n'importe laquelle !) associés à 100 valeurs à la même proba très faible de 98 en 98, au début du palier (et non pas n'importe laquelle), puis regarder les pourcentages et les longueurs des paliers pour ces données précises, afin d'obtenir une idée de la proba vue par les modèles (et donc pas encore la véritable proba pour notre réalité, vu qu'un modèle est rarement assez parfait pour coller au monde réel pour ce genre de détail, d'autant plus pour un modèle non fabriqué pour prévoir sur ces échelles ), mais le chiffre aurait été tout autre que ces 2%, qui n'est qu'un pourcentage de compta. La meilleure méthode personnelle de vérification simpliste et purement arithmétique des modèles climatiques, d'autant plus pour ceux qui ont besoin de vérifier les capacités de nos scientifiques du climat à émettre un diagnostique malgré les incertitudes et donc pour tous ceux qui ne sont pas modélisateurs et physiciens du climat (ce sont les seuls qui sont à même d'évaluer correctement avec la physique et au plus tôt les modèles), c'est de vérifier si le changement de climat (donc le changement de la moyenne/30 ans prévue et non la T annuelle bruitée qui ne représente pas le climat !) prévu par l'AR4, s'est réalisé ou non assez correctement. Pour l'AR4, la moy / 30 ans est sensée prendre entre janvier 2001 et fin 2030, 0.6° de plus (0.2° de moyenne/déc et non pas exactement 0.2°/déc pour chaque période intermédiaire de 10 ans, qui est la spécialité des cueilleurs de cerises pour masquer le signal de fond !) +- les incertitudes habituelles, les intervalles de confiance (IC) de ces valeurs. A la louche avec les IC, une évolution de la moyenne/ 30 ans qui serait entre 0.5° et 0.7° du 01/2001 à 12/2030, serait une prévis considérée comme absolument parfaite d'un point de vue bêtement chiffré (même si physiquement il y avait des gros problèmes, donc ce serait peut-être juste par hasard, d'où la nécessité d'attendre la synthèse des spécialistes après un éventuel bon chiffre sur nos papiers de collégiens.) Donc il suffit de regarder de combien s'est réchauffé le climat depuis 2001 et chacun peut constater ce qu'il manque comme RC d'ici fin 2030 pour arriver autour des 0.5° à 0.7° prévus. J'ai regardé pour la moyenne des 6 séries à jour fin juin 2013. Elle s'est réchauffée de 0.199° en 12.5 ans, donc nous sommes en retard. A ce rythme fin 2030, on obtiendrait un réchauffement du climat, de la moyenne/30 ans, de 0.479° (pour 0.5° bas de fourchette). Pour obtenir un réchauffement du climat de 0.5°/30 ans, afin d'entrer dans la fourchette parfaite des prévis, on devrait sortir des anomalies à 0.406 de moyenne/ la normale calculée fin mai 2013 , donc proche de 0 fin juin dont le RC est pris en compte (0.0013° dans les 0.199°), pendant ces 17.5 prochaines années. D'après ces calculs ( 12.5/30 * 0.153) + (17.5/30 * X) = 0.5 - 0.199 X = ( (0.5-0.199) -(12.5/30 * 0.153))/ (17.5/30) = 0.406° (0.153 c'est l'anomalie moyenne sur la période de 12.5 ans, 0.199° c'est le réchauffement de la moy/30 ans déjà observé depuis le début de la prévis, 0.5° c'est la limite de la fourchette de la hausse de la moy/30 ans, X c'est la valeur de la moyenne des anomalies /17.5 ans à venir) Pour 0.6° pile de RC en 30 ans (de la T/30 ans et non de la T annuelle), il faudrait des anomalies de 0.578 de moyenne/17.5 ans pour atteindre les 0.6°. La réussite parfaite de la prévis de l'AR4 est donc très loin d'être assurée sans un bon changement de la tendance du bruit actuel, du moins pour les forçages et la sensibilité + réactivité indiqués pour le moment, vu que l'on continue à injecter tout ce qu'il faut pour que ça ne change pas le fond. Pour le fond, on verra le verdict des spécialistes dans l'AR5, s'ils ont revu la sensibilité+réactivité à la baisse et donc les prévis à la baisse. -
Suivi de l'englacement au pôle nord
ChristianP a répondu à un sujet de sirius dans Evolution du climat
J'ai regardé vite fait les stats dans R. Il n'y a pas d'auto-corrélation significative dans les mini d'extent sans la tendance de fond (j'ai regardé pour la linéaire et la quadratique). Ca n'a donc rien à voir avec la variabilité des mini (le fait que les précédents mini soient plus bas ou plus élevés que la tendance, n'est pas significatif pour le niveau du mini en cours), sinon on récolterait une auto-corrélation significative aussi uniquement avec le bruit (après retrait de la tendance de fond), ce qui n'est pas le cas. C'est la tendance lourde qui rend uniquement en apparence les données dépendantes avec les précédentes. Le mini de l'année ne dépend pas des valeurs précédentes, mais de la tendance lourde à long-terme. Le bruit compte encore pour environ 1/3 dans la valeur finale. Sans la tendance lourde, ce serait pas loin de 100% de la valeur qui serait dû au bruit, vous voyez un peu la différence ! Donc la normale on ne la retrouvera jamais avec les bruits positifs d'années précédentes, sans une modification significative de la tendance lourde à long-terme, de même qu'on ne récolte pas une accélération de la fonte avec les bruits négatifs précédents, sans une modification significative de la tendance lourde. Qu'est qui provoque la tendance lourde d'après les plus récentes synthèses de la science revue par les pairs et non d'après les poubelles politico-médiatiques ? J'ai regardé la dernière tendance quadratique fin 2012, pour 2013 ça donne 3.82 [2.79 ; 4.85] intervalle de prédiction à 95% (IP), donc si le mini dépasse les 4.85 M de km2, ça signifiera que la valeur est hors de l'IP de la dernière tendance quadratique et donc qu'elle serait très rare pour cette dernière tendance donnée (dans les 2.5% des cas hors IP, donc ce serait le même genre que la valeur de 98 pour la T globale), ce qui montrerait qu'il ne faut pas toujours affiner une tendance avec les dernières données et qu' il vaut mieux attendre un autre changement significatif après le premier changement significatif entre la linéaire et la première tendance quadratique significativement différente de la linéaire. L'exponentielle fin 2012 peu démarquée de la quadratique était plus incertaine, donnant des IP monstrueux, une tendance pas bien fixée avec un des paramètres pas significatif et probablement bien dans les choux avec la valeur de 2013. -
Statistiques et anomalies climatiques nationales
ChristianP a répondu à un sujet de Aldébaran dans Evolution du climat
Sydrox ça ne concerne pas que ce forum national, mais tous les forums, c'est très fréquent dans les stats globales et dans une moindre mesure en forum climato et autres... Je radote énormément sur le sujet des tendances trop courtes et/ou de moyennes calculées sur des trop courtes durées pour parler changements concernant le climat. Les 60 ans sont disponibles à Nantes et dans de nombreuses stations.(La mise à jour de l'homogénéisation est effectuée tous les 10 ans chez MF, de plus cette fois-ci on récolte bien plus que les seules 70 séries homogénéisées à l'origine en 2000). En attendant avec la correction annuelle donnée dans un document en lien d'Aldébaran, permet de reconstituer la série homogénéisée à Nantes à partir des données brutes, et même en première approximation pas trop mauvaise, de la prolonger après 2000, si aucun déplacement est indiqué dans la climathèque et si les locaux n'ont pas vu un changement d'environnement autour de l'abri depuis 2000, de la prolonger après 2000 (+-0.01° d'écart annuel avec la série brute, pour la fin de la série homogénéisée, ce n'est pas ça qui va modifier l'analyse) Voilà bien ton problème principal et de ceux qui qui ne comprennent pas qu'observer des changements de directions à longueur de virages habituels sur la route qui mène à ton travail habituel, ne change pas la direction globale et l'endroit où tu arrives habituellement, ni même la vitesse globale habituelle sur tout le trajet, alors que tu as pourtant bien des ralentissements et accélérations habituelles dans ces virages. Il n'y a pas eu de vrais changements jusqu'à preuves scientifiques du contraire. Pour éviter ce type d'erreur, il suffit de ne pas se concentrer inutilement sur les aléas de la météo, comme tu ne concentres pas sur les variations de vitesses et de directions habituelles sur une route sinueuse qui mène à ton travail (c'est la mauvaise technique classique de faire zoomer les gens sur des détails habituels pour que tu n'observes plus l'ensemble, chère aux négativistes). A moins que maintenant tu considères les virages habituels rencontrés, comme de vrais changements de direction globale, qui te feront donc rater ton lieu de travail habituel ! C'est incroyable que dès qu'on rentre dans l'échelle climatique, ces notions si simples sont difficiles à enregistrer une fois pour toutes. Les vrais changements, ceux significatifs se démontrent avec la physique et/ou les méthodes stats, ils ne se décrètent pas en regardant une différence de vitesse et de direction sur une trop petite partie du temps et/ou de l'espace. -
Statistiques et anomalies climatiques globales
ChristianP a répondu à un sujet de Sam82 dans Evolution du climat
Un rapport récent : http://www.ncdc.noaa.gov/bams-state-of-the-climate/2012.php -
Statistiques et anomalies climatiques nationales
ChristianP a répondu à un sujet de Aldébaran dans Evolution du climat
Il fait trop beau cet été plus au Nord d'ici, les cueilleurs de cerises et même de myrtilles avec Sydrox, sont de sortie. Ca été répété x fois dans les forums pendant des années, mais certains habitués refusent toujours d'apprendre... Avec une moyenne sur 10 ans dans une station donnée, un petit pays, ce n'est pas très courant de trouver un sens climatique dans une différence de moyenne sans une variation vraiment importante, justement parce que plus l'échelle spatiale est petite, plus elle est dans l'intérieur des terres ( pas trop humides comme par ex dans la forêt vierge), plus elle est située vers les hautes latitudes et plus la variabilité habituelle est importante et donc plus cette durée est inutile pour détecter une variation qui ait un sens autre que météo. Une moyenne sur 10 ans au pas annuel au niveau global, ce n'est déjà pas une référence toujours utile pour voir l'évolution. Elle peut être plus faible que la précédente sans que l'évolution du climat change, alors sur d'autres échelles plus fines (dans l'espace et/ou le temps), sur une station où avec 30 ans ce n'est pas toujours suffisant, c'est le plus souvent du bruit météo. J'ai calculé l'incertitude des moyennes des 2 séries de Williams. Il n'y a aucune différence significative. Regardez où se situent les 2 moyennes de Williams, l'intervalle de confiance à 95% de la 2ème période est pratiquement le même que celui de la première décennie. Le premier IC englobe même totalement le second, c'est vraiment la même moyenne, les différences visibles que sur les valeurs "centrales" très incertaines pour ces échelles, sont classiques avec la météo : La première décennie : > wilcox.test(dec1,conf.int=TRUE)$conf.int [1] -0.55 1.24 La 2 ème : > wilcox.test(dec2,conf.int=TRUE)$conf.int [1] -0.48 1.235 (Williams avait parfaitement le droit de comparer une moyenne des 13 dernières anomalies avec celle des 10 précédentes, s'il vérifie la significativité des différences avec le test qui le permet, même si l'échelle est toujours trop fine et qu'à vue d'oeil, vu les IC sur 10 ans, les 0.37° de différence ne seront pas significatifs. S'il l'avait fait, il n'aurait d'ailleurs pas parlé de ces différences, vu qu'il aurait constaté qu'elles sont insignifiantes et aurait augmenté la durée de ces moyennes pour que ce soit efficace) Avec Sydrox on s'éloigne encore plus des possibilités d'observer l'évolution du climat que dans le cas de Williams, car il sort un zoom encore plus puissant au lieu de prendre plus de recul, vu qu'il affiche des graphes annuels d'anomalies journalières sur Nantes pour chercher à distinguer l' évolution du climat (même si c'était sur 5 jours glissants en série quotidienne de référence. De plus ce sont des données journalières qui ne sont pas correctes comme les Tmm, Txm, Tnm homogénéisées) Avec un microscope on est certain de ne pas la trouver. Si ça continue, on va nous sortir des graphes d'anomalies sur des nano-secondes pour afficher un signal climatique, on est certain de le brouiller ! Donc il faut se procurer environ 60 ans de Tmm homogénéisées correctement pour commencer à chercher quelque chose avec une station (il faut 2 échantillons de climat, donc 2 moyennes sur 30 ans à comparer) , du moins si le changement est assez franc pour la variabilité donnée, sinon on ne verra toujours rien. +0.6° en annuel au niveau global ça représente un RC important de plusieurs sigma, les valeurs ne se comparent pas sans les rapporter à l'écart-type et à celui des autres échelles spatiales et temporelles.Une variation s'analyse en fonction de la variabilité de l'échelle spatio-temporelle. Personne ne va nous dire, qu'une variation de +1° au pas annuel en moyenne de toutes les mers de toute la planète, ça a le même sens que +1° en instantané sur le sol en plein soleil sur la fourmilière près du pied de mon pluvio où j'ai relevé plus de 85° au thermo IR cet été et où l'hiver les températures sont fortement négatives. Pourtant certains dès qu'ils parlent climat, ne sont plus conscients que c'est exactement le même genre de manipulation fausse que l'on voit trop dans les forums, quand certains, même des pro, compare du 0.6° au niveau global sans le rapporter l'écart-type, avec la valeur d'une station, d'un pays ou autres, d'un thermo, sans aussi la rapporter à l'écart-type de l'échelle concernée. Regardez systématiquement les nb de sigma sur les mêmes périodes et sur les mêmes durées pour les anomalies à comparer, ça permet de voir si le changement est réellement important ou non pour l'échelle spatiale concernée pour exactement la même échelle temporelle. Une variation de 1° à Ouessant n'a pas le même sens qu'un +1° à Strasbourg ! La T de l'eau en surface, varie moins que celle de l'air près de la surface de la terre, c'est physique. C'est pareil sur terre, pour des raisons physiques, il existe des coins qui naturellement vont voir la T de l'air varier moins que dans d'autres, pour un même RC global, mais on verra aussi des secteurs où la variabilité sera aussi modifiée, réduite ou amplifiée pour des causes physiques, mais en moyenne globale, donc avec les valeurs de très nombreux capteurs, on le verra peu en valeur absolue, vu que de fait c'est hyper lissé par la moyenne de milliers d'échantillons ou certaines valeurs se compensent. Il faut donc regarder le nb d'ET, quelque soit l'échelle choisie en plus de la valeur absolue moyennée, sans aucun sens toute seule. C'est fou ça, en prévis saisonnière où il faut s'intéresser surtout au bruit météo saisonnier, vu que c'est lui qu'on cherche à prévoir, bons nombres d'amateurs et de pseudo-pro médiatiques, se noient dans le signal climatique en oubliant de le retirer pour mettre en évidence la météo saisonnière afin de prévoir dans un premier temps l'anomalie météo non contaminée par le RC, et là où il faut s'intéresser au signal climatique, ils se noient dans le bruit météo en oubliant de l'estimer et d'en tenir compte pour faire ressortir l'évolution du climat ! C'est dommage que certains passionnés qui ont suivi de près ces forums depuis des années, ne fassent vraiment pas plus d'efforts pour éviter de reproduire indéfiniment ce genre d'erreurs, classiques dans la population qui se fout complètement de ces sujets. On peut se demander à quoi leur sert leur passion, par rapport à la population peu intéressée. Ca ne vous intéresse vraiment pas de progresser un petit peu dans ce qui vous passionne ? -
Les normes existaient et le matériel aussi, mais tout évolue, comme après 1950 et comme ce sera le cas après 2013, il faut homogénéiser. Les anomalies de Tmm anciennes du panel MF de 30 stations données depuis 1900, sont basées sur des données de Tmm homogénéisées assez correctement et qui sont meilleures que les données brutes depuis 1950, qui n'est pas une date de référence pour suivre l'évolution du climat sans homogénéisation, vu que ça n'existe pas les séries brutes homogènes après 1950 (on s'en sert surtout comme référence pour les records nationaux modernes de Txx, mais bon j'aurais des tartines à écrire sur ce sujet et surtout s'il faut comparer les records de Txx/ Tnn dans une même station qui a été déplacée ou qui a trop changé), ni même 2013 d'ailleurs, vu que l'homogénéisation est nécessaire tout le temps avec des changements permanents au fil du temps (et même dans le matériel moderne prochainement, jusqu'à ce qu'on mesure correctement la véritable T de l'air seul ou qu'on s'approche des T de l'USCRN, réseau US qui la mesure le mieux au monde dans un réseau opérationnel au plus proche des préconisations de l'OMM.) Edit: Message tronqué par le système, la suite viendra plus tard. Suite : S'il y a un problème dans le panel MF, ce sera plutôt pour les toutes dernières anomalies, vu qu'on ne pourra jamais intégrer en temps réel des corrections non encore déterminées pour les tous derniers changements. Par exemple ça m'étonnerait qu'on utilise déjà une correction pour le déplacement important à Auxerre en 2013, si elle se trouvait dans le panel (je n'en sais rien), avec un emplacement bien meilleur, qui va refroidir probablement les Tn toute l'année et les Tx des mois du printemps et de l'été d'autant plus qu'il fait beau (j'avais essayé de comparer les données des deux stations, car je m' attendais à ce que MF respecte les préconisations de l'OMM avec les mesures en double dans les 2 stations pendant 2 ans. J'ai été plus que déçu, car les données disponibles à la livraison dans la climathèque, ne correspondent même pas à la très courte période de recouvrement indiquée !) mais bon ça ne représente probablement que quelque pouièmes dans l'anomalie globale de la France, vu que les 30 stations ne changent pas en même temps d'emplacement ou de matériel, mais pour celui qui analysera les Tx et les Tn journalières de juillet 2013 et de juillet 2006 ou autres à Auxerre, les nb de jours à certains seuils en données brutes, c'est un gros problème (mais pas pour plus tard avec les moyennes mensuelles qui seront homogénéisées facilement correctement) Même s'il peut rester des ruptures de 0.2° après homogénéisation dans la Tmm d'une station donnée, j'ai bien moins confiance aux données brutes depuis 1950 qu'aux données homogénéisées depuis 1900 (un thermographe d'après 1950, bien réglé, c'est déjà +-0.8° d'incertitude avant le dépouillement humain à la main, source d'erreur, mais bon après 1950, on a eu dans certaines stations des changements importants dans l'environnement très proche de l'abri et surtout les déplacements. Une série brute homogène après 1950, sans homogénéisation, ça n'existe pas en France.) Ils ont vraiment fait de gros progrès dans l'homogénéisation avec les inter-comparaisons internationales où les spécialistes testent les méthodes des autres pour les améliorer, en injectant des biais et des dérives de toutes sortes sans qu'ils le sachent, pour vérifier si les méthodes les détectent et les corrigent correctement. C'est impressionnant ce qu'ils arrivent à détecter. Quand ils ne peuvent pas homogénéiser assez correctement (rendre la série homogénéisée significativement meilleure que la série brute et non pas pire), ils le savent et attendent de trouver une solution. 1950 n'est vraiment pas la bible comme date, car par exemple avec les données du Luc, ça n'a pas de sens, vu qu'on n'a pas pu les homogénéiser avant 1959, malgré les données dispo depuis 1946 (c'est pour dire le manque d'info dans les métadonnées et le foutoir dans certaines données brutes ! J'ai discuté avec des spécialistes de l'homogénéisation chez MF, j'ai halluciné, car on ne trouve même pas la date de mise en place de l'abri Stevenson au Luc. Ils sont d'ailleurs preneurs de toutes les infos sur les changements anciens dans les stations MF. Je leur ai signalé qu'on ne trouvait pas dans la climathèque certaines dates de changements d'emplacements dans des stations importantes, qui figurent dans leur propre doc de 1979 sur l'évolution de la T en France (qui indique d'ailleurs déjà que les données sont de qualité médiocre pour la climato, sans homogénéisation) L'important c'est l'homogénéisation des séries quelque soit l'époque, vu les évolutions permanentes au fil du temps. Exemple ici au cours de mes essais, de la nécessité d' homogénéiser même avec des mesures modernes pour les deux jours les plus chauds de l'année. http://sphotos-f.ak.fbcdn.net/hphotos-ak-ash4/1005467_201263280038481_1500925116_n.jpg Les mesures aux normes MF, une manuelle avec les thermo MF dans le Stevenson et une avec Pt 1000 (bien étalonnée) dans le Stevenson (valeur "officielle" pour la climato ici, donc homogénéisation nécessaire avec les thermo à mini /maxi de MF pourtant placés dans le même abri, mais bon c'est le cas dans bien d'autres pays), qui correspond le mieux à une Pt 100 de MF, à comparer avec la mesure aux normes US/OMM du meilleur réseau au monde (en vert). Après il y a les différences dues à l'emplacement, classe 2 et classe 4 pour 35 m d'écart ici en zone naturelle (très anormalement humide pour un mois de juillet, le plus pluvieux sur au moins 20 ans en cumul et en nb de jours, qui réduit les écarts ici en forêt surtout avec ce qu'il était tombé les mois précédents) et à la différence de réactivité des sondes et des abris (par exemple on peut penser que le prototype est moins bon que le Socrima MF, mais non il est meilleur, il chauffe moins dans les forts rayonnements, la Tx est plus élevée simplement parce qu'il est plus rapidement en équilibre avec la T de l'air et donc capte des variations réelles que l'autre qui surchauffe sur le fond, ne voit pas. Il nécessite simplement un lissage adapté qui rendra la mesure comparable aux abris MF tout en affichant l'amélioration réelle, ce qu'ont fait les US en lissant sur 5 mn au lieu de 1 mn, car les abris ventilés méca sont capables de montrer des variations de T d'échelle trop fine non utile à la météo et à la climato (on se fout de voir qu'en réalité la T varie de plusieurs degrés dans une seule minute l'AM, l'été par sol sec par beau temps, sans aucun changement significatif de temps, de ciel, de vent..., c'est de la micro-échelle dans et très prés de l'abri, à ne pas représenter)
-
The 1859 Space Weather Event Revisited: Limits of Extreme Activity http://www.leif.org/EOS/swsv130015.pdf
-
Statistiques et anomalies climatiques globales
ChristianP a répondu à un sujet de Sam82 dans Evolution du climat
A noter que pour la série NCEP, c'est le mois de juin le plus chaud : http://www.esrl.noaa.gov/psd/cgi-bin/data/timeseries/timeseries.pl?ntype=1&var=Air+Temperature&level=2000&lat1=90&lat2=-90&lon1=-180&lon2=180&iseas=1&mon1=5&mon2=5&iarea=1&typeout=2&Submit=Create+Timeseries -
Les maxi pour le moment, avec certaines améliorations à jour ce soir : 49 km/h à 17.5 m (pas d'horaire des relevés sur cet anémo autonome) 39 km/h à 16.4 m amélioration depuis ce matin = à 42 km/h (16h45 TU) 43 km/h à 16 m = à 45 km/h (17h52 TU) 34 km/h à 10 m = à 38 km/h (16h49 TU) 35.1 km/h à 3.4 m = à 36 km/h (16h56 TU) 31 km/h à 2 m cls 2 (7h35 TU) 18 km/h à 2 m cls 4 (7h31 TU) Le moment du maxi dans un site turbulent, dépend surtout de l'emplacement précis de l'anémo (même pour les deux anémo Davis très proches à 16 et 16,4 m)
