ChristianP
Adhérent Infoclimat-
Compteur de contenus
2904 -
Inscription
-
Dernière visite
-
Jours gagnés
1
Type de contenu
Profils
Forums
Calendrier
Tout ce qui a été posté par ChristianP
-
Changement de la sonde de température / humidité de la Vantage pro2
ChristianP a répondu à un sujet de Yannick35 dans Instrumentation
Salut ! Tugdur, j'avais oublié, si ton SHT11 est un modèle Davis de plus d'un an avec filtre Davis, il faut envisager qu'il ait bien dérivé surtout dans les hautes humidités. Le filtre Davis est insuffisant d'autant plus dans ton coin avec souvent de la condensation et du sel dans l'air. Les capteurs de HR dérivent nettement et plus rapidement dans les hautes humidités avec ce filtre, par rapport aux capteurs avec à un filtre téflon avec lequel je n'ai pas encore observé de dérive malgré les conditions extrêmes d'eau et de cochonneries dans l'abri Young méca conçu d'origine sans aucun filtre à l'aspiration à l'inverse de l'abri méca Davis (J'avais fait l'expérience d'ajouter un filtre, mais il induit des erreurs de mesures de T et de HR tellement l'eau importante accumulée en grosses gouttes sur tout le filtre met du temps à s'évaporer aux périodes froides et assez humides) Avec ce que dit le site de ton lien, sur la résistance qui chauffe près du SHT11, je comprends mieux pourquoi le capteur a du mal à descendre en Tn d'autant plus que la T est basse. L'énergie en plus est de moins en moins négligeable selon le niveau de la Tn. Pour le moment les deux SHT31 ont un meilleur comportement à basse température, ils ne renvoient pas d'écarts significatifs face à la Pt 1000 pourtant bien plus réactive, même dans l'abri méca avec le ventilo désactivé, où la constante de temps est plus longue. J'avais lu cette doc Michel il y a longtemps avant d'acheter des SHT75, mais j'avais oublié tous ces détails. Pour les anciens capteurs on pouvait les régénérer sous des HR à moins de 25% sans chauffer, je voyais bien qu'après l'été et des HR fréquentes sous cette valeur, l'ancien capteur reprenait vie dans les hautes humidités. Les Sensirions sont vraiment de meilleure qualité et d'une longévité incroyable pour la mesure correcte des hautes humidités avec le filtre en téflon, malgré l'abri méca qui détruisait la précision des mesures des hautes humidités des anciens capteurs Davis rapidement (au point que c'était bien plus rentable de déporter le composant de T dans l'abri méca pour laisser la HR et son support Davis dans un abri à ventilation naturelle, vu que les composants de ce modèle étaient indépendants) A noter un problème rencontrés chez certains (et ici sur une seule carte ISS), parfois surtout à basse température, quelques pics aléatoires de HR brusque en général dans les humidités à plus de 90-95%, de +4 à 5% , par ex de 95 à 100%, puis retour une minute après à 95%. Ca vient de certaines cartes ISS. (Vérifié en déplaçant la carte concernée sur une autre console et avec un capteur qui ne renvoyaient jamais de pics, tout en laissant le capteur générant des pics sur la carte ISS et console qui en affichaient. Les pics apparaissent sur la station et le capteur qui n'en renvoyaient jamais (et aussi avec des SHT11, SHT75 neufs et même avec le nouveau SHT31), avec la carte ISS qui en génère) -
Changement de la sonde de température / humidité de la Vantage pro2
ChristianP a répondu à un sujet de Yannick35 dans Instrumentation
Salut ! Attention ces capteurs de HR nécessitent parfois selon les exemplaires, quelques jours de rodage surtout pour les hautes humidités, dont une partie du rodage avec de la condensation. Cette durée est bien plus courte que pour les capteurs d'avant 2006 (un bon mois de rodage). Une fois le rodage effectué quand c'est nécessaire tout rentre dans l'ordre ici. Je pense que ça doit venir de la période de stockage à une humidité donnée assez stable. J'imagine que le matériau entre les deux plaques, se bride un peu provisoirement, de ne pas travailler assez sur la gamme pendant longtemps, mais bon aucune certitude, mais c'est un fait ici depuis que je mesure la HR électroniquement, qu'il faut souvent un rodage, c'est absolument certain avec les dizaines de capteurs de HR passés ici. Ce matin dans le brouillard tenace, les 2 SHT 31 donnent 98%, le vieux SHT75 de plus de 3 ans 98% et le tout dernier SHT75 neuf dans l'abri Stevenson 97%, pour -5% d'écart le premier jour avec 95% sur les autres capteurs, puis 2%, depuis le troisième jour c'est 1% d'écart et ça ne m'étonnerait pas que d'ici quelques jours, ça se stabilise au niveau des autres capteurs. Enfin là dans le Stevenson, c'est un peu différent aussi, car un même capteur de HR, même à température identique à certains moments renverra régulièrement une HR très légèrement inférieure dans un abri à ventilation naturelle (surtout si grand et lent), coupant le vent déjà faible la nuit par ce temps, car les échanges de la vapeur d'eau/condensation avec le composant sous le filtre, sont moins efficaces (il existe un temps de réponse pour que l'air sous le filtre change, selon le filtre et les saletés dessus et bien entendu la pression de l'air avec le vent directement sur le composant de HR avec une faible ouverture incrustée). J'ai vérifié ça depuis longtemps en inversant des capteurs pour vérifier si ça venait des capteurs donnés ou des abris. -
Suivi du temps dans les régions Méditerranéennes
ChristianP a répondu à un sujet de Serge L dans Le temps en France
Premier jour de gel dans tous les abris à Besse. En classe 2 Référence Young méca USCRN : -0.8° Stevenson -1.4° thermo MF ( Pt 1000 -1.3°, V2 SHT75 -1.3°) Socrima Pt 1000 -1.1° V2 méca SHT31 ventilo coupé : -1.1° (Pt 1000 -1.1°) V2 méca SHT31 avec ventilo standard : -1.1° Classe 5: Toit 7714 Pt 1000 : -1.0° Mât 7714 à 10 m thermistance nue V1: -0.7° Le 13/11 premier jour de gel officiel pour la plus longue série dans le Stevenson (date moyenne de la première gelée le 15/11) et dans certains abris: En classe 2 Référence Young méca USCRN : 0.1° Stevenson -0.6° thermo MF ( Pt 1000 -0.4°, V2 SHT75 -0.5°) Socrima Pt 1000 -0.2° V2 méca SHT31 ventilo coupé : -0.2° V2 méca SHT31 avec ventilo standard : -0.1° Classe 5: Toit 7714 Pt 1000 : -0.2° Mât 7714 à 10 m thermistance nue V1: 0.1° -
Ben voyons tu apprendras ça aux spécialistes qui ont largement démontré par les équations de base (rappelées dans la thèse de Pierre Carrega) et sur le terrain, l'importance prépondérante de la T de surface du sol et donc de fait de son contenu en eau, dans la T de l'air à 2 m (corrélation à plus de 98%). De plus si tu me lisais plus attentivement, je te parle justement d'un sol sec avec herbe clairsemée cramée en été dans le SE, donc avec de la terre visible (c'est un sol qui surchauffe plus que de la terre nue ou que de l'herbe masquant la terre aussi sèche le même jour aussi d'après les mesures de PC) et donc avec une ETR négligeable pour les Tx. La T de surface est déjà une synthèse, une résultante entre la nature du sol naturel et l'eau présente plus ou moins dedans. A l'inverse tu nous sors le sol qui te fait plaisir et pas courant l'été dans le SE, recouvert d'herbe assez humide, car tu indiques une évapotranspiration suffisante de ton herbe, afin que ce soit significatif pour les Tx et donc de fait tu parles d'un sol naturel qui par définition ne pourra pas monter plus haut en température que le goudron sec. Alors garde ton sol pour ma Bretagne natale mais pas en général l'été pour Montpellier. Donc herbe ou pas herbe n'est pas le problème, c'est la T de surface qui compte au final pour la convection qui est fondamentale pour les Tx à 2 m d'autant plus que la puissance transmise à l'air par convection (naturelle sans vent ou forcée avec du vent), se calcule justement avec la différence entre la T de surface et la T de l'air. Plus la T surface est haute pour les Tx avec soleil, plus la différence est grande avec celle de l'air, et plus c'est ta T de surface jouera sur la Tx à 2 m (à autres conditions par ailleurs égales de masse d'air et autres, sans biais d'abri naturel ouvert contaminé par l'albédo) Expérimente avec du matériel vraiment normalisé et étalonné correctement, car hors changements d'état, c'est la convection qui apporte très largement le plus la chaleur de la surface du sol à l'air à 2 m surtout de jour l'été, (voir dans la météorologie nr 12 de 1995 sur la mesure de la température de l'air de Michel Leroy and Co) et non pas de la conduction par contact et autres, comme avec tes pieds qui est le plus mauvais exemple pour ce cas, vu que la conduction est négligeable comme échange de chaleur du sol vers l'air, surtout de jour. Te servir de la sensation des pieds qui est avant tout psycho/physiologique, n'a aucun sens par rapport aux mesures IR, c'est pour cette raison que certains se promènent sans problèmes sur des braises ardentes. Bien après la T de surface et donc l'eau dans le sol, le transfert de la chaleur de la surface au sol vers l'air à 2 m, dépend de la teneur en vapeur d'eau de l'air, puis du vent, qui diminue le gradient entre la T de surface du sol et la T air à 2 m en homogénéisant et en diluant bien mieux l'énergie dans la masse d'air. Ca c'est pour l'ordre d'importance pour un même sol plat dégagé de même surface, avant de commencer à discuter de normes, d'abris, de topo et autres bricoles inégales. Ton goudron ne monte pas fort en température malgré sa couleur noire, car il accumule une bonne partie de l'énergie vers les profondeurs. Il ne peut donc pas autant chauffer les Tx avec cette partie de chaleur qui s'enfonce au lieu d'alimenter la surface et donc augmenter sa T de surface et donc l'air à 2 m (Si tu prends un film goudronneux en laissant une bonne lame d'air dessous, ce sera vraiment tout autre, la surface sera vraiment plus chaude que le sol naturel même archi sec, car la chaleur ne peut pas profiter de la conductivité du goudron pour s'enfoncer dans les profondeurs, il n'y en n'a pas, la T montera en surface.). Le goudron ne peut pas faire plus que ce que lui permet sa T de surface qui alimente la convection, vu que c'est cette partie de chaleur accumulée plus profondément qui ensuite surchauffe sa surface la nuit par rapport au sol naturel. Le goudron surchauffe plus tard les Tn avec la chaleur accumulée dans la profondeur, avec comme par hasard sa T de surface nocturne qui reste logiquement bien plus chaude que le sol naturel concerné qui se refroidit plus à la surface de nuit. Tout est cohérent. Si tu veux surchauffer les Tx avec du noir qui crame autrement mieux les pieds et pas les Tn à l'inverse du goudron, utilise une tôle noire mate toute fine (avec de l'air dessous et non contre des matériaux accumulateurs de chaleur dans les profondeurs.). Pourquoi crois tu qu'un bon abri méca surchauffe en classe 4 cloisonnée avec de l'herbe clairsemée en sol sec du coin l'été, malgré qu'il soit entouré de végétation évapotranspirante de façon significative avec buissons et une forêt qui contiennent encore beaucoup d'eau, alors que l'erreur d'abri lui-même devient négligeable, comparée à l'erreur par rapport à un même abri méca en classe 2 ? Tout simplement parce que le sol y est plus chaud qu'en classe 2 à cause du cloisonnement, car le vent coupé trop souvent par les obstacles refroidissant l'air dans l'absolu, n'arrache pas assez régulièrement et aussi fortement la chaleur en surface du sol en classe 4, pour la diluer et la brasser à une assez grande échelle par ventilation forcée du vent, comme dans l'air en classe 2, et donc la chaleur se retrouve concentrée et juste transportée par convection naturelle directe par ascendance sans assez de mélange avec de l'air synoptique bien moins chaud. Cet air est aspiré par l'abri méca qui ne surchauffe pas significativement, mais qui ne peut que se faire contaminer en captant l'air réellement plus chaud à cause du sol plus chaud et dans le cas présent, malgré des sources de fraicheur non négligeables autour. Bon passons aux choses plus sérieuses que je n'entende plus parler de surchauffe estivale des Tx avec le goudron pendant que le sol naturel autour est assez sec (la T de surface nous le dira indirectement), d'autant plus dans un site dégagé avec du vent soutenu à Montpellier pendant les records mensuels et absolus de Tx en vent de terre. Voici des images que j'avais extraites de la présentation vidéo des spécialistes de l'USCRN qui ont testé l'influence des sources de chaleur avec plusieurs stations très haut de gamme placées à différentes distances, ça c'est du concret au moins : PRTA = PT 1000 dans l'abri ventilé méca de l'USCRN (A = placé près des sources de chaleur et obstacles, D la plus loin des sources de chaleur et des obstacles) MMTS PRTA = PT 1000 dans abri MMTS à coupelles (abri des stations auto du réseau secondaire, bénévole, qui a remplacé les Stevenson et thermo manuels) MMTS A = Station standard auto avec thermistance utilisée dans le réseau US secondaire (capteur qui donne des écarts très largement supérieurs aux différences à cause des positions dans ces essais, d'où l'intérêt de vérifier et vérifier les sondes sérieusement avant de parler de différences dues au goudron !). Belfort A = Nouvel abri de l'USCRN qui contient 2 ventilo et 3 Pt 1000. Un graphe des différentes mesures dans la station A qui surchauffe près des sources de chaleur (on voit l'imprécision du capteur MMTS du réseau par rapport à la Pt 1000) Les écarts moyens selon la distance des sources de chaleur, pour les températures diurnes et nocturnes par rapport à la station la plus éloignée. Là c'est en moyenne des valeurs instantanées, donc logique qu'on remarque une mini surchauffe des T diurnes d'autant plus qu'il y a cloisonnement et qu'il est clairement certain que l'écart moyen ne peut être attribué qu'aux matériaux et goudron au sol à cause de la vitesse du vent qui est clairement réduite par les obstacles (voir plus bas), c'est pour dire le peu d'influence du goudron sur les Tx, car même avec le cloisonnement, on ne voit pas grand chose en surchauffe des Tx ! De plus Il faut bien voir que dans cette moyenne, le sol naturel n'est pas souvent assez sec et chaud comme l'été dans le SE et donc pas le plus souvent plus chaud que le goudron, donc rien à voir avec les énormités en Tx que tu avances alors que la station de Montpellier n'est pas cloisonnée (quelle est sa classe hors ombres portées, pour le goudron dans les 30 m ? ) Ecarts des T instantanées en fonction de la vitesse du vent, donc les Tn bien moins biaisées par les matériaux et les obstacles avec le vent : http://meteo.besse83.free.fr/imfix/Tinstantan%e9eenfonctionduventuscrn.png Exemple avec le vent où on voit la différence de vitesse avec les obstacles Les écarts instantanés avec ce vent : Enfin bon rien de nouveau, car j'ai mesuré de nombreuses fois sur le goudron avec des stations normalisées l'été, autour et près de stations MF de qualité pour vérifier du matériel, des stations douteuses et déterminer des surchauffes sur des stations MF mal placées en sol naturel . Le déplacement d'une des stations par MF dans un bon site, a bien montré l'ordre de grandeur de l'erreur des Tx (2°) dans les conditions concernées, trouvée à partir de mon installation sur le goudron. Tout est rentré dans l'ordre. Vu les photos de la station dégagée de Montpellier F. , elle ne risque pas de surchauffer en Tx estivale avec un sol assez sec et encore moins par vent de terre soutenu pendant ses plus gros records. Plus il y a du vent et plus la surface de goudron ou autre limitée devient négligeable par rapport au reste du sol naturel autour qui influence la T de l'air qui arrive sur l'abri (moins il y a de vent et plus la T représente une petite échelle de sol sous et près de l'abri) Ton écart de 1.5° en trop en Tx, c' est à démontrer , une direction ne suffit pas, car si tu l'as déterminé avec d'autres stations MF et amateurs à distance, par rapport à chez toi, sans essais sur le terrain autour de la station de Montpellier, ça ne suffit pas du tout ! Il est logique que sur certaines stations, même sans sources de chaleur, certaines directions de vent chauffent plus les Tx, c'est courant pour ce genre de station pas loin de la mer et avec des reliefs au loin qui créent des subsidences ici ou là, et autres possibilités sans rapport avec le goudron... Si tu ne trouves que 0.2 à 0.3° d'écart maxi entre un Socrima et ton abri bricolé, c'est que tu as un problème dans ta méthodologie (emplacement pas assez identique, car dans une classe 5 la T peut varier de façon importante dans l'espace, sur 10 cm en milieu urbain. Inverse la position de tes abris aux saisons efficaces et tu verras si c'est le cas...) et/ou avec tes capteurs (pas identiques, pas mêmes réactions, pas étalonnés correctement...)
-
Par définition les écarts peuvent-être justement plus importants en site classe 5 cloisonné et artificiel déjà au sol, selon l'occupation du sol, alors avec une mesure plus haut et en prime si les abris et les sondes sont différents, pas très normalisés, ça peut chiffrer. Parfois certains paramètres dans l'installation compensent des écarts qu'on devrait observer, ce n'est pas simple. Ma classe 4 naturelle à cause de la végétation/forêt trop proche (même classe 5 pour ombres portées avec l'angle de hauteur par rapport aux arbres d'après la dernière classification) est très peu différente en Tn l'hiver de la classe 2 en dehors des moments où le Mistral se lève alors qu'elle est plus à l'abri (Il faut plus de temps pour que le vent brasse et homogénéise la T dans ce coin de mon terrain). Pour les dégagements, le fait que l'abri soit plus à l'WSW ne change pas le bilan dans l'IR par rapport au ciel visible, vu que le site est plus ouvert de l'autre côté ce qui compense la plus grande fermeture dans l'autre direction, que dans la station bien au centre. Ca change pour la ventilation naturelle selon la direction du vent et le stock d'eau de la végétation plus abondante près de l'abri. Un toit c'est classe 5 mais dégagé, idem pour un abri à 3 m du sol en site hyper dégagé alors que ce n'est pas loin d'une classe 1, un abri entre 4 murs en béton et du goudron c'est aussi classe 5, mais elles sont pourtant très différentes pour les Tn, donc il y a classe 5 et classe 5. La classification MF/OMM à elle seule ne suffit pas du tout à définir la qualité des Tn et/ou des Tx, car elle est surtout conçue pour les comparaisons des T en temps réel et alimenter les modèles et non particulièrement pour cibler les valeurs finales des Tn et des Tx. Ex : Ce n'est pas parce qu'on a une ombre portée le matin qui classe 4 une station pour la T en temps réel, donc pour un biais froid, que les Tx seront biaisées côté surchauffe. Le goudron est plutôt un générateur de biais froid pour les Tx dans le SE l'été avec un sol sec et une fournaise pour le biais des Tn (T IR maxi relevée sur toutes les routes du Tour de France depuis que cette mesure est effectuée par une camionnette de l'équipe chargée de fignoler les routes juste avant le passage des coureurs, 63°, avec 2003 compris, ce qui est bien moins qu'un sol naturel sec avec herbe clairsemée cramée ici, comme constaté aussi vers Nice même en septembre dans la thèse de Pierre Carrega, 14° de plus pour le même sol naturel sec, par rapport au goudron.) Chez JC à la Teste, il y a longtemps, en 2003 il me semble, il avait réalisé une comparaison entre une station Davis en classe 4/5 urbaine au sol de son jardinet et une sur son toit. La Tnn particulièrement froide pour le coin pendant les essais (je n'ai plus la valeur en tête), par temps radiatif, son nouveau record absolu à l'époque, avait été relevée sur le toit et non au sol.
-
Ici entre l'abri 7714 à 10 m de haut sur le mât d'anémo (Nom de station Davis : BESSE) et la T dans l'abri Young méca à 2 m (V2AGRO), les Tn hivernales sont loin d'être très biaisées par temps radiatifs. Au contraire c'est souvent par temps qui hésite entre le radiatif et le vent, avec encore un peu de vent à 2 m que j'observe les plus gros écarts et encore, c'est dû en partie au fait que dans ces tableaux plus bas, ce sont des valeurs brutes de l'abri méca, donc sans les normes USCRN pour l'abri méca réactif qui capte la moindre baisse de T instantanée de micro échelle et donc accentue les écarts avec un bruit monstre dans les T selon les conditions. Un mois d'hiver glacial pour ici A 10 m pour la T (vent à 2 m) A 2 m (vent à 16 m) On remarquera que parfois c'est à 10 m qu'il fait plus frais en Tn (Brume, brouillard, nuages, pluie, advection dynamique froide...). C'est malheureusement parce que rien n'est systématique même pour un même type de temps, qu'il est impossible de corriger assez bien un record journalier, même avec différents capteurs de rayonnements et anémo, autres que pour la T, spécialement installés pour pouvoir corriger. Ex de bruit en limite de radiatif et du vent, pour le 15/02/2012 (en réalité aux normes USCRN à 2 m, il a fait -1.2° pour -2.4° en pointe instantanée, Tn -0.3° à 10 m) T à 10 m avec vent à 2 m. T à 2 m avec vent à 16 m Du vrai radiatif avec pas de vent à 2 m et très peu à 16 m pendant le record absolu de la station : T 10 m T 2 m On remarquera que les records absolus de la station -10.6° en instantané sur ces 2 stations par temps radiatif sont les mêmes (-10.4° aux normes USCRN, donc abri même trop froid à 10 m alors que le 7714 est moins froid en Tn par temps radiatif qu'un abri MF . -10.9° au thermo MF et -10.8° au capteur V1 dans le Stevenson). Un SHT11 trop lent aurait probablement surchauffé la valeur dans l'absolu ce jour-là. Un mois d'été à 10 m Un mois d'été à 2 m Donc de mon point de vue, tes Tn (hors problèmes capteurs SHT11, principale cause de surestimation des Tn quand les Tn ne durent pas très très longtemps sans assez de vent, ce qui est bien plus courant que pour les Tx), seront moins biaisées que celles à 10 m ici, vu qu'il est moins haut, que tu as un toit en plus qui améliore moins que le même toit plus proche et que le site est plat alors qu'ici l'air froid sur mon plateau de colline très rapidement pentue, descend et n'occupe pas autant d'épaisseur. Un toit de tuiles, en métal, à même hauteur de mesure, est meilleur que dans mon cas, car il rayonne et produit du froid pour les Tn par rapport à une mesure sans toit où l'air est plus chaud que le toit, nouveau sol virtuel froid plus proche (du moins si la maison est assez bien isolée et que le toit n'est pas en béton massif ou autres accumulateurs directement contre les tuiles.) Les Tx l'été sont trop basses sans toit à 2 m sous l'abri à 10 m à la campagne, c'est pour cette raison que même les toits bouillants l'été, ne font que compenser en partie la différence de température et de ventilation avec la hauteur en plus et ne surchauffent pas les Tx estivales et sont proches d'un bon abri méca placés dans un bon site.
-
Statistiques et anomalies climatiques globales
ChristianP a répondu à un sujet de Sam82 dans Evolution du climat
Je reviens sur ce sujet mal placé dans le national car c'est global. "Le réchauffement climatique en pause : records de chaleur mondiaux, c'est fini !" http://www.lameteo.org/index.php/news/2822 Et bien je vois que ça ne s'arrange vraiment pas d'une année sur l'autre, bien au contraire si un bon prévisionniste passionné et présentateur comme Fred, dérive dans le négativisme primaire en nous sortant une pause du réchauffement climatique à cause des records mensuels de la T globale de l'air en surface qui ne sont plus battus ! A son niveau pro je ne peux imaginer que c'est de l'incompétence en climato et mathématiques élémentaires. J'espère que L. Cabrol and co vont bientôt sortir de son corps. Pas besoin de nier à ce point les bases scolaires pour rester sceptique. Je vous avais annoncé que même si le climat se réchauffait de 4°, ils continueraient à nier que le climat se réchauffe toujours sur le fond en essayant de vous noyer de plus en plus profondément dans le bruit, mais pas si tôt avec le pas mensuel pour cette tendance sur le fond toujours modeste (environ 0.17°/déc ) pour l'instant depuis environ 1970 (année +- les IC associés), avec un réchauffement qui ne change pas sur le fond depuis. Après les records annuels comme 98 sans sens particulier pour le fond, puis maintenant les records mensuels, Ils vont finir par descendre aux records à la journée, à l'heure,... , à la nano seconde, pour essayer de faire croire qu'il y a une pause, un refroidissement dans le RC et donc que les scientifiques qui travaillent sérieusement en faisant valider leur boulot à l'inverse d'eux, se trompent lourdement. Bon voyons un peu l'évolution réelle du climat de près avec les anomalies mensuelles et ensuite ce qui se passe au niveau "nanoclimato" de Fred. Pour la courbe noire, j'ai choisi un Loess calculé à l'aide du package de R, fANCOVA, basé sur l' analyse de variance et critère AICC (j'ai regardé avec le critère GCV, ça donne strictement le même résultat dans la série NOAA mensuelle, pour plus de détails : https://www.r-bloggers.com/automated-parameter-selection-for-loess-regression/ https://cran.r-project.org/web/packages/fANCOVA/fANCOVA.pdf ) , qui permet de sélectionner automatiquement le meilleur lissage qui colle le mieux à l'ensemble des variations avec le bruit de cette série. Cette courbe noire est utile pour ceux qui souhaitent analyser/prévoir les variations internes au climat (et non pas pour suivre et prévoir l'évolution du climat lui même), donc n'allez pas nous dire qu'il y a accélération du réchauffement à la fin de la courbe, pas plus qu'il y a des pauses ou des refroidissements du climat, lorsque c'est le cas avant, quand ils ne sont pas significatifs ( pas déterminé au pifomètre) sur le fond et/ou l'échelle climatique. Et là tout en étant dans le bruit, nous sommes loin de la super cueillette de cerises inutile à l'échelle des records mensuels pour détecter une pause du RC, totalement fantasmée par Fred et autres personnes hors sol, hors démarche scientifique/scolaire la plus élémentaire. Un sceptique honnête, mais traumatisé par ces records logiques avec le Nino + un blob + la tendance de fond au RC qui n'avait jamais ralenti depuis 1970 environ, peut à la rigueur s'amuser à dire qu'il y a une pause dans l'évolution à la hausse de la T sur 12 mois glissants, ou annuelle provisoire depuis quelques mois, mais certainement pas associer la fin des records mensuels à une pause quelconque dans le RC qui est d'une toute autre échelle temporelle. Pour les pauses du RC dans l'évolution de la T pour le climat, il faut regarder au minimum le Loess ajusté à la moyenne/30 ans glissante et centrée (donc ajustée sur la partie où il existe une moyenne/30 ans centrée qui ne va pas aux extrémités) et pour la véritable évolution de fond du climat sans les mini variations non significatives pour le fond, visibles dans la courbe/ 30 ans, le Loess/60 ans (calculé dans R et par un complément Excel "Peltier", qui donnent les mêmes résultats). Pour ceux qui n'ont pas suivi le forum il y a des années, le Loess (de degré 1 dans ces cas), effectue une synthèse entre une moyenne et une tendance linéaire, ce qui limite l'incertitude d'une pente et évite justement l'artefact statistique de la répartition des anomalies dans une tendance linéaire qui joue beaucoup dans sa valeur, qui peut être très significativement différente et totalement opposée en signe pour une strictement même moyenne climatique (ou non) pourtant plus chaude significativement que la précédente. Le problème c'est que certains, même des pro comme Fred manifestement, qui zooment au microscope sur les records mensuels au lieu de prendre du recul pour parler de pause dans le RC, ne souhaitent pas entendre que même en tirant une tendance sur 30 ans, on ne voit pas assez souvent l'évolution du climat et donc pas le RC en pause ou pas, mais l'évolution à l'intérieur du climat, le sens de notre bruit interne, si on ne regarde pas au-delà bien entendu (c'est justement parce qu'on prolonge la tendance au delà de 30 ans et qu'on voit les données coller avec les tests nécessaires, à la tendance sur 30 ans projetée depuis fin 98 par ex, qu'on sait que la tendance se poursuit très probablement de la même façon sans changement significatif). Le lissage/60 ans est choisi pour justement ne pas afficher des variations qui ne sont pas significatives d'un changement sur le fond et de celle du climat à l'échelle minimale de 30 ans, d'éviter d'être contaminé par le cycle de 60 ans revendiqué par certains (on ne tire par une tendance sur 30 ans pour suivre l'évolution du RC quand on pense qu'il y a un cycle de 60 ans, mais sur au moins 60 ans, sinon elle a encore moins de sens) et pour ne pas être sensible à l'ordre des anomalies, comme pour une moyenne. Une pause dans le réchauffement d'échelle non climatique comme celle des records utilisée par Fred, il y en a à gogo à l'échelle météo, ce qui est normal même avec un bien plus fort réchauffement. Des records mensuels ne sont plus systématiquement battus car l'évolution de fond n'est pas assez forte (environ 0.17°/déc). Il faudrait des dizaines de degrés par décennie pour écraser la variabilité classique au pas mensuel et rendre les anomalies systématiquement plus chaudes que les précédentes de façon infinie. Même si le Nino actuel s'était prolongé de façon infinie à ce niveau par rétroaction positive, les records mensuels n'auraient plus été battus rapidement car il ne faut que 12 ans (si on considère que les Nino augmentent en moyenne la T annuelle de 0.2° par rapport à la tendance centrale toutes conditions, donc plus fortement que l'actuel Nino et que celui de 98), pour que la tendance plus forte (mais que visuellement sur la fin de la courbe noire, car pas significative) avec El Nino, termine de s'aligner sur celle moins pentue sur le fond, en rattrapant le niveau des anomalies sous Nino, car la tendance au RC sur le fond est la même que ce soit qu'avec que des Ninos, que des Ninas ou que des conditions neutres (Et inversement si on avait une rétroaction négative qui bloque la situation en Nina éternelle, ça ne changera rien sur le fond, au lieu d'une accélération visible mais non significative avec les Nino, on aurait une pause non significative, plus longue de 12 ans à ajouter à celle à laquelle on s'attend déjà en condition moyenne après un Nino 2016 ou 1998 du fait l'écart d'une telle valeur sous Nino avec la tendance centrale.) L'année 2016 avec une moyenne annuelle finale que j'ai estimée à la louche à 0.94° pour la série NOAA en référence à la normale 1901-2000. On voit que l'année 2016 n'a rien de remarquable par rapport à 98 avec la tendance calculée fin 98, du moins pour cette série. Environ 5% de proba d'observer cette valeur en 2016 comme 98 à son époque (mais avec les données actuelles, car à l'époque sans les x corrections de données NOAA depuis et avec des IP pourtant plus larges avec moins de données pour les calculs, le point de 98 sortait des IP), mais là malgré le blob en plus et un forçage anthropique supplémentaire pas négligeable avec 18 ans en plus, on aurait pu s'attendre à une anomalie sensiblement plus élevée et donc une proba plus faible qu'en 98 avec cette même tendance que fin 98. Donc sauf accident les mois prochains, l'anomalie 2016 est frisquette de mon point de vue limité (quelle est la différence dans le bruit ailleurs, dans l'océan et ailleurs par rapport à 98, qui a produit du frais pour compenser le blob et le surplus de forçage anthropique ?), mais bon c'est logique pour les modèles (projections, je ne parle pas des modèles décennaux trop débutants) qui ne prévoient pas d'accélération significative en général avant autour de 2050, même si quelques runs/modèles en donnent bien avant mais aussi en retard bien après 2050. Dans cette série il n'y a donc absolument pas d'accélération du RC sur le fond, aucun changement significatif, c'est nettement dans les bornes du bruit classique, malgré un Nino puissant. Absolument rien dans les chiffres ne montre que ça va s'accélérer ou se stabiliser sur le fond d'ici peu. Sur le fond on sait ou ça va aller avec la physique, donc toujours plus haut tant qu'on augmente le chauffage et que personne ne démontre qu'il existe une rétroaction négative significative. Donc là aussi, les réchauffistes qui s'emballent, il n'y a rien de spécial pour le fond avec 2015 et 2016, bien plus au dessus de la tendance centrale. C'est une tendance "diesel" pour le moment depuis vers 1970 dernier changement significatif de tendance (après le vrai plateau/hiatus d'avant 70). Le réchauffement au niveau de la T globale du moins, est sur le fond comme jusqu'en 1998, comme après 98, comme avant et avec 2015 et 2016, sans vraie accélération, ni vraie pause/hiatus sur le fond et pour les drogués aux faux plateaux et aux accélérations imaginaires pour le fond, rien n'indique un changement probable sur le fond. Il faudra encore attendre un bon moment pour atteindre les +2° de réchauffement en moyenne sur 20 ans, car le climat n'est pas défini sur 1 an et encore moins avec des records mensuels battus ou non. Notre dernier échantillon de climat recalé aux normes de lissage des modèles de prévis GIEC (donc sur 20 ans) est à ce jour à 0.62° (NOAA / 1901-2000) et non pas au niveau de la valeur mensuelle maxi d'un mois, ni même de cette année la plus chaude vers 0.94°. Donc si comme prévu par les modèles, le réchauffement de l'air ne s'accélèrera probablement pas avant les alentours de 2050, on peut estimer à la louche qu'avec environ +0.2° effectifs par décennie, notre climat GIEC (série NOAA) "ne serait qu'aux" alentours de 1.2-1.3° en moyenne sur 20 ans vers 2050 (ajouter 0.2° pour comparer à la moyenne/20 ans fin 1899 pour s'approcher celle préindustrielle.) On ne s'attend pas non plus particulièrement à battre de moins de 0.1° la valeur de 2016 avant 2025 année la plus probable pour l'égalisation avec la tendance donnée (s'il n'y avait eu que des conditions neutres, ce n'est qu'en 2025 qu'on aurait dû observer la valeur de 2016 et c'est bien pour cette raison qu'on s'attend à un plateau, car en avance) mais ça ne changera rien sur le fond que ça se produise avant ou après, alors que les valeurs restent dans les bornes des IP plus resserrés que calculés fin 98 avec plus de données depuis, tant que les tendances n'affichent pas de changement significatif. Les IP plus resserrés permettent de détecter plus rapidement les éventuelles sorties de route vers une stabilité, un refroidissement ou un réchauffement plus rapide, en attendant que les modèles en prévision décennale donc interne à un échantillon de climat et la prévis des différents bruits, soient plus efficaces avec des IC moins larges. Bon voyons au pas mensuel avec les anomalies NOAA, ce qui s'est passé en septembre 2016, soit disant marquant une pause dans le réchauffement climatique : La vitesse effective est calculée à partir de la différence entre la moyenne/30 ans et celle / 30 ans calculée à la fin du mois précédent. Effective, car non assise sur le modèle linéaire et son incertitude supplémentaire due à la position des anomalies. C'est donc celle réellement mesurée et observée et non celle "modélisée" (avec bien entendu autour de ces valeurs centrales, les IC habituels associés pour les diverses incertitudes : statistiques, de mesures, détermination de la T comme la couverture NOAA n'étant pas la plus optimale...). Elle est comparée à celle du Nino 98. J'ai regardé de près, pas de différence significative dans la vitesse effective moyenne sur la période, au mois je ne vous en parle même pas, ça n'a pas plus de sens d'autant plus que la moyenne/30 ans était plus facile à améliorer à cette époque, car une partie des données était dans la vraie pause du RC d'avant 69-70. La courbe qui a du sens c'est celle de la vitesse effective sur 30 ans sans chevauchement de données. Donc si on a une pause du réchauffement climatique à cause de septembre 2016 simplement parce qu'on ne bat plus le record mensuel, qu'est ce qu'on observait pour les mois qui n'ont pas permis au climat de se réchauffer autant qu'en septembre, mais bien moins et pendant les mois de 98 moins haut que septembre 2016 ? Une ère glaciaire ? Ce qui est devenu stable visuellement avant 2014, c'est l'évolution du taux effectif de réchauffement du climat. On voit que vers 2007 la pente de la vitesse effective s'est aplatie, simplement parce que ça dépend de l'échantillon de climat 30 ans avant et du plus récent dont la moyenne avec le plateau interne (le faux hiatus) qui a fait que la moyenne toujours croissante sur 30 ans se retrouvait plus proche des anomalies mensuelles et que de plus en plus d'anomalies chaudes d'après 1970, se retrouvent dans l'échantillon de climat précédent, mais c'est le même réchauffement significatif qui était toujours aussi présent au plus haut niveau à cette époque. Une absence d'augmentation non significative de vitesse, ne change rien, car une même vitesse de réchauffement significative, réchauffe sans cesse le climat, elle ne peut le stabiliser. Un mois qui n'améliore plus son record ne peut pas mettre en pause le RC d'autant plus quand il est à des années lumière du zéro relatif (qui est le dernier état moyen, notre échantillon de climat, sensé se stabiliser avec le mois de Fred ) et alors que sa valeur remplace une anomalie mensuelle plus faible (sep 2016 remplace et fait sortir sep 1986 de notre échantillon de climat et dans ce cas sep 2016 est 0.62° plus chaud, c'est donc loin de remplacer le record de sep qui lui, est toujours dans notre échantillon de climat ) Ce n'est quand même pas compliqué à son niveau de comprendre qu'il est impossible de stabiliser le climat sans que de nombreuses anomalies mensuelles passent près et sous la ligne rouge. On voit quand même nettement la différence de positions des anomalies mensuelles quand il y a eu une vraie pause, et lorsque ce n'est que sur un mois isolé et donc sans aucun sens pour le RC dans ce cas. Bon bien entendu, 2016 va devenir la nouvelle année mantra des négativistes alors que mathématiquement pour l'évolution interne non encore assez bien prévisible par les modèles décennaux débutants (je rappelle que le plateau précédent avec le faux hiatus était peu probable avec les modèles pas conçus pour cette échelle interne, alors que ça sautait aux yeux avec les stats, la proba de 98 avec la tendance donnée suffisait à elle seule pour l'envisager fortement, tout comme pour après 2016 pour la tendance donnée) nous montre déjà que le prochain palier en gardant pourtant la même tendance au réchauffement sur le fond depuis 70, sans vraie pause sur le fond, sans accélération et ni volcans significatifs, a la plus forte probabilité de durer au minimum jusqu'à la tendance centrale (et oui c'est la ligne qui nous indique la limite 50/50, donc pourquoi vouloir absolument que la valeur soit améliorée avant sans accélération sur le fond et revendiquer une pause pour ce qu'il y a de si parfaitement normal pile au milieu et de très normal avant ou après pour ce même RC ?) et donc pour améliorer ce score 2016 significativement de 0.1° (sans nouvelles corrections des données du moins prenant mieux en compte la couverture de la planète principale source d'incertitude et aussi d'écarts entres les séries) on s'attend à une durée la plus probable de plateau de 15 ans donnée par la tendance projetée (11 ans s'il s’avérait que la tendance absurde 99-2016 significative mais non significativement différente de la précédente, un peu plus élevée mais que visuellement à cause du bruit chaud du Nino actuellement et du départ en 99, devienne vraiment différente sur le fond, mais rien ne l'indique). Une pause non significative attendue qui n'a absolument rien à voir avec une pause ou pas dans le fond, dans le RC, mais avec la variabilité classique et la rareté des valeurs sous Nino puissant de type 98, 2016 (plateau de record pour différence de proba, on est sensé ne relever que 5 valeurs annuelles autant décalées à ce niveau pour ce réchauffement donné en 100 ans, mais aussi 5 valeurs aussi rares décalées côté froid avec des Ninas aussi remarquables, mais que les négativistes ne s'empêcheront pas de vous les refourguer comme des signes de pause et de refroidissement sur le fond, alors qu'il n'y a rien de plus normal avec le RC donné toujours actif, tant que les Nina existeront ! C'est à 100% garanti avec eux) Fred s'attache pourtant à démonter chaque année certaines prévis saisonnières d'hivers froids extrêmes qui reviennent chaque année avant l'hiver (là ils ont bien plus de chances de tomber juste un jour vu que c'est toujours possible d'observer un hiver extrême en froid), et là sur le climat il fait de même qu'eux, car depuis 25 ans, à chaque fois que les mêmes sources x fois démontées scientifiquement et pire souvent scolairement, avancent des refroidissements du climat, des pauses pour le lendemain, ils les renouvellent et les repoussent sans cesse pour le lendemain malgré que les prévis sont démenties par les données et les comparaisons de ces prévis depuis le temps. -
J'ai tellement de retard de lecture du forum, que je viens seulement (le 8/10) de lire ce sujet car j'ai vu passer une remarque de Sébastien (en parlant des qualités nécessaires de l'éventuelle prochaine V3), qui ne conseillait pas l'abri méca Davis, alors je me suis dit, qu'il y avait probablement une discussion qui à ma grande surprise devait laminer l'abri méca que je recommande plus que jamais malgré la mauvaise alim Davis dans suite aux courtes journée et à la grisaille tenace. Je le recommande d'autant plus dans les régions nordiques enneigées tardivement avec parfois du soleil puissant et même dans un site classe 1. :-) Je déconseille cet abri méca sur un toit, car en limitant le biais froid sur les Tn, il les augmentent trop dans l'absolu et il n'est pas utile pour les Tx sur le toit. La meilleure solution testée sur mon toit, est un abri 7714 avec l'intérieur peint en noir mat (plafond et fond en noir dans ce cas, en plus des persiennes et du dessous des persiennes efficaces à 2 m pour obtenir des Tx vraiment très proche d'un ventilé méca par rapport à un Stevenson, ceci pour générer plus de froid en Tn et donc s'approcher très près des mesures à 2 m en Tn par conditions radiatives.) Il faut bien voir pourquoi on utilise un abri méca. C'est surtout pour améliorer les mesures par rayonnement diurne assez efficace pour surchauffer les T dans un vent trop faible à 2 m. Donc malgré la mauvaise alim de stockage et solaire d'origine qui n'était plus à démontrer (ce n'est pas nouveau, avec les caractéristiques sur le papier ça se voyait déjà en 2002 avec les premières V1, c'est d'ailleurs pour cette raison qu'à l'époque j'avais choisi la version alimentée par transfo Davis qui ventilait à la même vitesse en permanence jour et nuit et qui n'existe malheureusement plus depuis longtemps) dans les régions/saisons/périodes de grisaille, comme le ventilo de la version solaire tourne quand le rayonnement solaire est suffisant pour surchauffer les T, malgré les batteries mortes/vides, la question essentielle, c'est plutôt la qualité des mesures quand le ventilo est bloqué par rayonnement trop faible pour surchauffer les valeurs et quelle est l'influence sur les Tn dans l'absolu et face aux abris MF. Ca fait longtemps que je m'étais penché sur le problème et que je renouvelais au fil du temps des essais selon les nouveaux capteurs Davis qui ont plus d'influence sur la mesure dans un abri méca (ou non) Davis que le ventilo arrêté ou pas aux horaires des Tn (et des T, Tx dans la grisaille) Il faut bien voir que dans les régions froides enneigées/glacées ou sur les sols et/ou près d'obstacles très clairs, assez réfléchissants, cet abri à chambre fermée a un avantage considérable pour la mesure en cas de panne du ventilo, il a des doubles persiennes, il reste très sombre par rapport à un abri naturel et en prime il contient un bloc isolant interne autour de la chambre d'un volume d'air minime à renouveler par circulation naturelle verticale, sans vent , en comparaison d'abris plus gros (La constante de temps d'un petit Stevenson MF à 0 m/s est de l'ordre de 18-19 minutes d'après les essais MF avec leur sonde Pt 100 qui a une constante de temps de 100 s sous 1 m/s). De plus il est équipé pour le moment d'un capteur Davis lissant (trop surtout pour un abri standard) qui écrête les éventuelles erreurs en pointe de Tx. Les US ont mesuré avec des capteurs de rayonnement placé dans les abris selon différents types de sol, l'énergie lumineuse indirecte chauffant le capteur dans des abris "naturels" à chambre ouverte et "méca" à chambre fermée. L'énergie résiduelle est nettement plus faible et négligeable dans les abris à chambre fermée (J'avais communiqué les références de la publication et des graphiques dans ce forum). Je rappelle que les plus grosses erreurs de mesures en T diurnes et Tx (de plus de 10/15° oui, oui !) entre un abri "naturel" et un assez bon "méca" sur un bon site, ne se produisent pas dans la fournaise des déserts sombres sans vent, mais sur la neige/glace avec un assez fort rayonnement et un vent faible. Les erreurs sur Tn sont bien plus modestes hors problème de site urbain/artificiel. Fin 2013, début 2014, justement pour voir l'influence sur les Tn avec le SHT11 et ventilo coupé, j'avais testé un Davis méca ventilo déconnecté face au Young méca (ventilé à 6-10 m/s, vitesse qui varie en fonction des dimensions du capteur dans la chambre). J'ai rajouté dans le fichier les écarts et la colonne du Stevenson suite à ce sujet, je savais déjà que le Davis méca sans ventilo est plus performant en Tx que les abris MF avec ou sans ventilo. Je ne regardais que les écarts dans l'absolu (L'écart avec la mesure la plus proche de la réalité donnée par le Young, le Stevenson MF modèle réduit, est connu pour avoir un biais froid supplémentaire en Tn par rapport à un Socrima, voir plus bas). On peut voir ici les relevés et les écarts avec le SHT11 et ventilo coupé, puis actif. http://meteo.besse83.free.fr/imfix/v2ventilocoupactif.xlsx Dans le tableau de synthèse ventilo coupé, -0.6° (C'est un cas très particulier de timing, une montée rapide de T juste avant 18h TU le 01/01 qui a suivi une baisse, pour la Tn du 02/01 jouée d'entrée à 18h01 TU le 01, ce qui est très rare ici. Le capteur SHT11 et l'abri sans ventilo, trop lents sur ce coup pour afficher la Tn plus douce) et +0.7° d'écarts maxi en Tn du Davis ventilo désactivé / Young (Chute de T puis hausse rapide en fin de nuit avec des faiblesses du Mistral pas bien captée par la lenteur de l'ensemble), proviennent du manque de réactivité dans ces cas où la constante de temps de l'ensemble ne peut permettre d'atteindre la valeur réelle tenue peu de temps avec des variations importantes rapides et ça arrive aussi avec la ventilation active à cause du SHT11 trop lent (voir dans le tableau 0.9° en écart maxi sur Tn le 28/02 avec le ventilo pourtant activé. La chute de T a été plus brève et plus profonde que pour les 0.7° d'écart sans ventilo) J'ai extrait des graphes pour les 2 cas marquants avec 2.0° et 1.9° d'erreur de Tx (au minimum car le Young garde une surchauffe résiduelle par rapport à la vraie Tx d'après des essais aux US avec le modèle de l'USCRN, autour de +0.3° à confirmer dans d'autres essais) pour le Stevenson et respectivement 1.4° et 0.4° d'erreur pour le Davis ventilo coupé ces jours-là, par vent faible même à 16 m (heures TU sur les graphes) , ce qui n'est pas courant ici avec du soleil vers midi solaire même l'hiver, pour le 15/01/2014 et le 01/02/2014. Les plus grosses erreurs se produisent aux mauvaises saisons ici, car le sol n'est pas assez chaud et donc sans convection très importante (la principale cause du réchauffement de l'air qui entre dans un abri c'est la convection, pas le rayonnement, ni la conduction. Del'énergie est arrachée au sol avec du vent, c'est d'ailleurs quand il y a un vent qui démarre que la convection est la plus efficace etque la T monte en temps réel dans un ventilé méca correct avec une sonde réactive, alors que la T monte dans un abri MF quand le vent tombe, ce qui indique un réchauffement par rayonnement, celui de l'abri qui biaise les mesures) pour que des bouffées d'air surchauffées soient aspirées par un abri méca ce qui compense en partie les différences de surchauffe des abris seuls et ici le vent n'est pas faible aux horaires les plus chauds de l'été, car soit c'est la brise de mer efficace qui souffle, soit c'est le Mistral/vent d'Ouest/vent d'Est synoptiques (des essais plus dans les terres par ex dans le 84, où les Tx sont plus tardives (ou même sur un bon site près de Paris ou autres pendant des étés secs et chauds souvent de type 2003), montreraient de plus belles surchauffes estivales des abris MF qu'ici) Le 15/01/2014 On voit la faiblesse des rafales à 16 m (donc quasi nul à 2 m) dans la période avant l'horaire de la Tx (capteur, composant nu V1 réactif d'avant 2006 dans le Stevenson le plus proche du thermo manuel MF qui est un peu plus chaud en Tx qu'une Pt 1000, comme en général dans tous les réseaux manuels du monde. ex +0.3° en Tx pour le thermo manuel US) Le 01/02/2014, le couple Davis méca ventilo coupé + SHT11 lent est encore meilleur par rapport au Stevenson (1.5° de moins en Tx dans le Davis sans ventilo !) : On voit la réduction du vent pendant un moment entre 12 et 13h TU, puis l'arrivée des nuages qui n'a pas permis à l'air (et non à l'abri MF qui lui s'échauffe avec le rayonnement solaire plus vite que l'air et qui est trop lumineux) de se réchauffer) Pour bien comprendre le problème des abris sans ventilation active pour estimer les Tn dans l'absolu et donc ne pas vouloir coller aux Tn biaisée des abris naturels, trop froides par conditions radiatives (biaisées dans le chaud par vent fort surtout avec des variations rapides de T à cause des coupures brèves du vent même sans SHT11), voir ce que dit MF dans le rapport d'essais sur ce Stevenson dit "modèle réduit" : Dans le cas du Davis ventilo coupé, la surchauffe apparente des Tn est très relative (Et oui le Young même s'il est bon ne l'est pas assez, car il est encore légèrement un peu trop froid ( 1 à 2 dixièmes) dans l'absolu par conditions radiatives par rapport à la vraie Tn d'après des essais d'abris méca aux US dont celui de l'USCRN) et elle vient du manque de réactivité de la sonde SHT11 accentuée par l'absence de ventilation. Cet été le 15 juin, j'avais installé un abri méca Davis avec un ventilo sous 13V (Noctua NF-R8) en plus de l'abri méca Davis solaire standard (24h/24h) face au Young, avec 3 sondes SHT75 pour extraire uniquement les différences d'abris sans problèmes de différences de réactivité des sondes différentes. Je voulais effectuer aussi des essais des nouvelles sondes SHT31 et de différents ventilo. (Il faut vraiment s'intéresser à la courbe de pression/débit et à la pression statique du ventilo et pas uniquement au débit même donné x fois supérieur à un ventilo d'origine, pour changer en toute tranquillité pour un autre modèle, d'autant plus dans un abri qui génère des frottements et avec des étranglements, des minis chambres et des évacuations réduites par rapport au diamètre du ventilo et des coupelles trop proches en sortie... , car un débit constructeur est donné pour de l'air aspiré et évacué sans aucune contrainte. Quelques échantillons d'essais de ventilo avec des montages pour des mesures de vitesses/débits à l'anémo à fil chaud. C'est vraiment un casse tête bien plus compliqué que de mesurer la T de l'air, de tenter de mesurer un débit absolu sur ces petites puissances de ventilation alors que la mesure normalisée d'un débit introduit elle-même de grosses modifications de la ventilation. En fait le mieux c'est de mesurer des vitesses directement sans modifs pour éviter de faire forcer les ventilo trop faibles. http://meteo.besse83.free.fr/imfix/testsventilo2016/ Je n'ai plus le temps d'intervenir aussi souvent dans le forum, mais je continue les essais sur le terrain :-) ) Avec le jour le plus chaud de l'année 2016 en septembre ! Le ventilo Noctua aspire environ à une vitesse 2 à 3 fois plus rapide dans le Davis par rapport au ventilo Davis d'origine (mesures avec un anémo à fil chaud Testo près de l'aspiration) Le 8/10 après avoir lu vos messages sur le sujet, j'ai réactivé le 2 ème abri Davis méca en laissant le ventilo débranché mais en installant deux SHT31 pour voir s'il y a un gain sur les écarts en Tn par rapport au SHT11. Le hasard des pannes nous a donné un test le pire jour de l'année pour le rayonnement solaire, un 21 juin (2016) avec une coupure d'alim pour le ventilo du Young et du Noctua : On voit comme le Young qui n'a pas de doubles persiennes, ni d'isolant interne autour de la chambre principale et un capteur SHT75 bien réactif qui nécessite justement le lissage sur 7 mn, s'est envolé par rapport au Davis ventilo coupé dont la T est montée par rapport au Davis ventilo actif, mais sans que la T soit mauvaise par rapport au Stevenson. (7 mn de lissage c'est déterminé par les spécialistes de l'USCRN pour un abri méca en fonction de la vitesse ventilation, avec une sonde avec une constante de temps préconisée par l'OMM de 20 s sous 1 m/s. Vérifié ici pour mes SHT75. Le lissage USCRN est suffisant sur 5 mn pour leurs/mes Pt 1000 avec une constant de temps de 60 s. Il faut bien voir que pour obtenir ce niveau de ventilation dans un abri MF, il faudrait un ouragan en permanence qui souffle à 60 -100 m/s à 2 m du sol (25 m/s à 2 m pour obtenir l'équivalent du ventilo Davis d'origine, un abri MF récolte à l'intérieur que 10% de la vitesse du vent à 2 m). La sonde Davis lisse trop matériellement et on ne peut pas faire correspondre les courbes des autres capteurs en les lissant plus, comme avec un capteur plus réactif qui correspond bien en lissant, à la courbe d'une courbe lissée sur 5 mn de la Pt 1000 USCRN (Le capteur Davis est trop différent avec un filtre et un tel support. Un SHT75 et une couche de téflon et uniquement le filtre Davis sans support Davis permet d'obtenir un constante de 60 s sous 1 m/s comme la Pt 1000) En fait les normes OMM pour le lissage pour déterminer les Tx, Tn, T instantanées sont des moyennes sur 1 à 10 mn des échantillons relevés dans l'intervalle considéré et il y a peu de réseaux qui les choisissent correctement en fonction de la constante de temps du capteur dans l'abri considéré, comme l'USCRN, ce qui rend encore plus difficile de comparer les extrêmes de Tx dans le temps même avec un même matériel et exactement de mêmes conditions, à cause de la dispersion des valeurs pour d'autres raisons que la météo. Aux Pays Bas les extrêmes de T en climato sont déterminés en moy/10 mn, le pas de 1 mn est utilisé que pour les relevés synoptiques. Ils corrigent comme en Espagne les Tx, Tn, pour la climato, afin deles recaler sur 10 mn pour éviter les écarts de micro échelle (interne à l'abri, d'effet de micro site, du sol sous et très proche de l'abri, même sur un terrain très bien dégagé. Battre un record de Tx de 1° c'est le minimum syndical pour dire qu'il est battu en classe 1 avec le même matériel et si le site n'a pas changé, alors qu'on ne sait pas s'il y a eu du vent fort à ces moments) qui créent des écarts qui n'ont rien de météo/climato, c'est du bruit à éliminer et c'est ce bruit sans aucun sens climato, qu'il faut encore plus lisser dans un abri méca en fonction de la ventilation et de la constante de temps du capteur (le SHT11 et 31 Davis n'ont pas besoin de lissage, ces capteurs lissent trop), voilà le bruit de Tx/ 1 mn dans les méca, il arrive régulièrement que ce soit le plus fortement ventilé qui affiche la Tx/10 s la plus forte et plus forte même parfois qu'un abri Stevenson, ce qui est un grave biais de représentativité : Exemple pour cette valeur record corrigée assez correctement : https://translate.googleusercontent.com/translate_c?depth=2&hl=fr&ie=UTF8&prev=_t&rurl=translate.google.com&sl=auto&tl=fr&u=http://www.kmi.be/meteo/view/nl/20257907-Het%2Bmeten%2Bvan%2Bde%2Bextreme%2Btemperaturen%2Bte%2BUkkel.html&usg=ALkJrhgHp0wDaW5Mdklxt1zFj_S7y7GWPg Dans l'absolu le Davis avec ventilo coupé est plus juste en Tn que le Stevenson. Pour les Tx il est un peu meilleur en général et bien plus pour les écarts extrêmes du Stevenson/Young, donc comme dans les cas des Tx avec rayonnement suffisant pour générer une surchauffe, le ventilo tourne, il n'y a vraiment aucune raison de ne pas le conseiller surtout qu'avec les SHT31, il est semble que le décalage des Tn soit un peu moins prononcé qu'avec le SHT11. De plus ce n'est pas compliqué et peu cher d'ajouter une alim solaire digne de ce nom ou un transfo, dans les régions au ciel souvent gris pour mesurer plus correctement les Tn, T, Tx par ciel gris, (et un ventilo plus puissant que celui d'origine pour gagner 1 ou 2 dixième de degrés et se rapprocher de la vraie T) C'est bien moins cher qu'un abri de l'USCRN à 1500 euros HT et que probablement le nouveau Belfort qui va remplacer 3 abris à la fois dans chaque station, car il est équipé de 2 ventilo (pour éviter l'impact des pannes) et de 3 Pt 1000. Le nouveau Belfort en version 3.5 m/s pour l'USCRN (même précision que le Metone actuel, à l'inverse du prototype de rêve avec une précision au 100 ème en vue https://www.wmo.int/pages/prog/www/IMOP/publications/IOM-116_TECO-2014/Session 1/P1_33_Miegel_ReductionofAirTempErrors.pdf ,la mesure du Belfort reste sensible à la condensation) : http://belfortinstrument.com/wp-content/uploads/2015/11/BFsmarsdataSht110415.pdf http://belfortinstrument.com/products/smart-motorized-aspirated-radiation-shield/ A noter l'extraordinaire répétitivité des mesures de HR et l'absence de dérive significative de mon vieux SHT75 (face aux deux autres SHT75 neufs), dans l'abri Young soumis depuis plus de 3 ans aux pires mouillages dans un tel abri où il pleut sur le capteur tellement ça dégouline avec le volume d'air saturé qui brassé et en prime qui a subi la période la plus pluvieuse des années dans le Var ici pendant une année en forêt humide qui génère tant de saletés. Le filtre téflon est d'une efficacité sans commune mesure par rapport au filtre Davis qui est à bannir dans un tel abri méca: Je n'ai détecté aucun changement significatif dans la HR des SHT31 par rapport à aux SHT75 dans la condensation malgré une précision donnée de +-2% entre 90 et 100 % au lieu de +- 4%. (MM91, l'ILS en bloc protégé (non soudé et nu comme sur les Davis) est très fiable, il est donné pour 1 milliard et non 100 millions de contacts comme dans certaines notices de composants bas de gamme, il équipe les anémo récents de l'USCRN, et à l'inverse de chez MF aucune panne d'anémo dans tout le réseau USCRN en 10 ans même dans les sites avec des conditions plus extrêmes. L'ILS est changé préventivement au bout de 5 ans, les ventilos au bout de 3 ans (par rotation, un neuf par an dans chaque station avec 3 abris). Les pannes pas courantes dans ce réseau haut de gamme, sont dues aux batteries et principalement aux ventilo)
-
Suivi du temps dans les régions Méditerranéennes
ChristianP a répondu à un sujet de Serge L dans Le temps en France
35.2° hier le 04/09, record absolu pour un mois de septembre au thermo MF dans le Stevenson en classe 2 (ancien record 34.8° en sep 2004), 35.1° pour le Davis V1 rapide du Stevenson, 34.9° à la Pt 1000 plus lente. A noter que pour le thermo MF et le capteur Davis V1 de cet abri, c'est la plus forte valeur de l'année relevée donc en automne météo (maxi 35.1° le 27 juillet et 35.0° pour la Pt 1000 le 11 juillet) ce qui n'est jamais arrivé depuis le début des mesures, surtout avec un été bien chaud régulièrement, mais qui n'a pas produit de très fortes pointes à Besse. La Tx de l'année devrait rester probablement particulièrement faible cette année. 34.7° à la Pt 1000 du Socrima en cls2 (max de l'année 34.9°) 36.3° pour celle du Socrima en cls 4 (max de l'année 37.5°) 37.6° dans le Cimel en cls 4 (max de l'année 38.8°) Pour les abris mécaniques plus performants que ceux du réseau de MF, relevés aux normes USCRN avec capteurs SHT 75 : Young méca : 34.2° (idem ancien maxi de 2016 ! 34.2°) Davis méca et ventilo 12V plus puissant que celui d'origine : 34.3° (34.1° de maxi avant ce jour) Davis méca standard : 34.5° (ancien 34.4° avec un capteur lissant SHT31 au lieu du SHT75 actuel normes USCRN pour tenir compte des différences de constantes de temps) Le record aurait pu être bien plus fort sans l'arrivée précoce (vers 13h30) de nuages élevés épais au pire moment. Un mini front qui a fait en prime basculer le bon vent de terre au vent de mer. Le double effet kiss cool. Aujourd'hui un record absolu bien plus remarquable est en train de tomber significativement. Celui de la Tnx (en 18h-18h TU ) TOUS MOIS CONFONDUS et donc il pulvérise de plus de 4° celui d'un mois de septembre ici ! Un mini de 24.0° au thermo MF, 24.1°au Davis V1, 24.2° à la Pt 1000 dans le Stevenson en cls 2. (Ancien record MF 19.7° en sep 2014, ancien record tous mois confondus 22.5° en juillet 2014. En août 2003 trop frisquet, la plus haute Tn avait été ici que de 22.0°) 24.2° dans le Socrima en cls2 Dans les ventilés méca aux normes USCRN en cls2 avec SHT75 : 24.2° dans le Young méca 24.1° dans le Davis méca avec ventilo 12v plus puissant 24.2° dans le Davis méca standard Valeurs très proches avec le vent fort qui limite assez bien les biais radiatifs nocturnes. Les Tx d'aujourd'hui sont restées proches du record hier pour les abris "naturels" car le vent puissant jusqu'à 69 km/h a pu limiter la surchauffe de ces abris. 35.0° thermo MF, 34.9 V1, 34.6° Pt 1000 /Stevenson 34.5° /Socrima cls2 35.5° /Socrima cls4 36.3°/ Cimel cls 4 Surchauffe cls4 limitée aussi avec ce vent et un sol qui n'a pas pu chauffer et accumuler du tout le matin (pas de soleil avec des nuages jusqu'à 12h30 et nuages près d'une heure entre 13h et 14h. Un record dans les abris méca en cls2 aussi franchement pas aidé aujourd'hui !) Les ventilés méca normes USCRN : 34.4° /Young (34.2° hier) valeurs les plus justes, la ventilation et la conception est la plus performante. Cet abri est un étalon relatif dans certaines comparaisons d'abris chez les pro. 34.7°/ Davis méca ventilo 12V (34.3° hier) 34.8°/Davis méca std (34.5° hier) Et oui un abri MF à ventilation naturelle qui surchauffe sans assez de vent à 2 m, donne faussement le record pour hier et non pour aujourd'hui par rapport aux abris qui sont le plus près de la vraie T de l'air. 36.7° au Luc (Stevenson) aujourd'hui chez MF (35.4° hier), améliorant le score de 36.1° en 2004. -
Statistiques et anomalies climatiques globales
ChristianP a répondu à un sujet de Sam82 dans Evolution du climat
Désolé Météor je ne suis pas très dispo, donc les réponses pourront arriver très très longtemps après une question (là c'est déjà du service rapide exceptionnel pour moi ces temps-ci !) 0.2° d'incertitude de la T globale annuelle en supposant qu'il y a toutes les incertitudes connues combinées, ça ne donne pas +-0.2° / 30 ans, car il faudrait que les erreurs se produisent systématiquement dans les mêmes sens opposés ou non à chaque moment. Des erreurs ne vont pas dans le même sens à chaque instant, donc elles se compensent au fil du temps et des échantillons. L''incertitude doit varier d'une série à l'autre avec la cause principale, le problème de couverture différente d'une série à l'autre, mais aussi dans le temps avec des mesures plus rares et moins propres dans le passé. Sur 30 ans l'incertitude est de l'ordre de +-0.06° à +-0.07° en tenant compte de l'autocorrélation IC à 95% pour GISS que ce soit en calculant par Student (test paramètrique) et Mann et Withney (test non paramétrique). Le GIEC donne une incertitude des moyennes des projections / 20 ans pour un scénario donné de +-0.05° (AR4 que j'avais regardé il n'y a pas longtemps, je n'ai pas le temps de vérifier s'il y a eu un changement dans l'AR5) Sur 10 ans je n'ai pas regardé l'autre jour de mon message, car cette durée courte n'est pas toujours significative avec des IC qui se croiseront plus souvent (mais moins que pour une tendance/10 ans) En présence de plusieurs incertitudes, statistiques, de mesure, de couverture et autres, qui se cumulent, on les combine de façon quadratique (il y a deux façons, en fonction du type d'erreur), justement parce qu'elles se diluent souvent en n'allant pas toutes en permanence dans le même sens (j'avais donné quelque part dans un des forums les calculs, mais je n'ai pas le temps de chercher et je n'ai plus les formules simples en tête, avec un cerveau trop lavé par d'autres occupations et le manque de pratique. ) Cotissois, regarde dans l'AR4 et comme dans l'AR 5, tu trouveras des prévis de valeurs moy/20 ans à une échéance donnée, ce ne sont pas des valeurs centrales d'une moyenne glissante. Par ex le tableau de l'AR4 ch10 p 763, donne une augmentation de la moyenne sur 20 ans 2011-2030 de 0.64° à 0.69° selon les trois principaux scénarios (en référence à la moyenne/ 80-99) et pour la moyenne 2080-2099, une prévis de 1.79° à 3.13°. Ce qui est certain, c'est qu'on ne peut pas plus brouiller les analyses en changeant autant les références d'un bouquin, d'un organisme et d'une année à l'autre ! C'est d'ailleurs assez pénible de voir aussi que l'AR5 au lieu de nous dire de combien se sont réchauffées les moyennes/20 ans qu'elles prévoient pourtant dans l'AR4 et l'AR5, se servent de tendances pour donner le niveau de réchauffement observé (0.85° il me semble de mémoire en 2012, ce qui n'est plus pareil et aussi parce qu'on introduit de l'incertitude supplémentaire due à la position des anomalies dans ces tendances, alors que les 2 moyennes/20 ans à comparer ne seront pas sensible à leur position. J'avais d'ailleurs donné les valeurs moyennes /30 ou 20 ans à l'époque de la sortie du rapport et effectivement le réchauffement est moindre qu'avec les tendances qui ne donnent pas un état moyen aussi clair) -
Salut ! Bizarre ce seuil de démarrage énorme, il a dû se passer quelque chose entre ici et l'installation en soufflerie. Il était clair qu'il démarrait avant 2 anémos à effet Hall Davis et que mes Davis lubrifiés testés moins bons ici, mais qui mettent quand même jusqu'à 32 s pour s'arrêter à partir de 3 m/s (29 s pour le moins bon, les Davis (ILS) d'origine sans lubrification et sans rodage, sont bien moins bons et ne respectent pas les préconisations du seuil MF), soit largement au-delà des préconisations MF pour respecter le seuil de démarrage avec la même méthode pour le tester, vu qu'elle vient de chez eux. A voir s'il n'y a pas un frottement, le moulinet trop enfoncé ou d'autres bricoles depuis que je l'ai démonté. Sinon faire le test MF à la main, lancer assez vigoureusement le moulinet de la WMR installé bien de niveau dans le local, déclencher le chrono quand la console affiche les 3 m/s et l'arrêter quand le moulinet stoppe. S'il met au moins 25 s, ça signifie que le seuil est de d'au plus 0.5 m/s (22 s c'est au plus 0.7 m/s, données MF)
-
Statistiques et anomalies climatiques globales
ChristianP a répondu à un sujet de Sam82 dans Evolution du climat
Attention, même si la période de référence était la moyenne climatique avant 1900 pour toutes les séries, nous ne sommes pas à une augmentation de +1° au niveau climatique, car une projection, c'est une prévis lissée, équivalente à une moyenne sur 20 ans et non pas à une T moyenne globale sur 1 an ou 2 archi bruitée qui n'est pas de la climato (on ne va pas quand même pas faire un hiatus de chaleur sans aucun sens pour le fond ! L'état moyen de la T n'est vraiment pas encore à +1° en moyenne /20 ans GIEC ou /30 ans classique) car une valeur annuelle ou /10 ans ne définit pas un échantillon de climat au moins pour le paramètre de la T globale. Faites la moyenne des 20 dernières années pour voir le niveau actuel du climat, par rapport au niveau de la moyenne/20 ans prévue en 2100 ou autres et/ou à celle d'avant 1900. Il est plus utile d'effectuer la moyenne sur plus de 20 ans avant 1900 pour obtenir une référence plus fiable, afin de compenser l'incertitude de détermination plus grande de la T globale à ces époques, par une moindre incertitude statistique (une moyenne/20 ans étant plus incertaine statistiquement qu'une moyenne /30 et 50 ans pour une même précision de détermination de la T globale) Joyeux Noël ! -
Statistiques et anomalies climatiques globales
ChristianP a répondu à un sujet de Sam82 dans Evolution du climat
Un graphe intéressant chez Gavin Schmidt (Twitter) https://twitter.com/ClimateOfGavin/status/676512281325346816 D'autres dans les commentaires aussi de Zeke Hausfather : https://twitter.com/hausfath/status/676523928118956032 https://twitter.com/hausfath/status/676516954937528320 -
Statistiques et anomalies climatiques globales
ChristianP a répondu à un sujet de Sam82 dans Evolution du climat
Les scientifiques plus crédibles que toi, Gpiton, comprennent un peu mieux la définition du GIEC et ne nous sortent pas ce hiatus avec une date de départ qui varie selon ton bon vouloir pour nier qu'il débutait en 1998 avec ton décalage de 3 ans pour rester bloqué que sur 15 ans : http://www.sciencemag.org/content/348/6242/1469.full Si ça fait des années que je dis que les scientifiques se tiraient une balle dans le pied en ne respectant le vocabulaire le plus élémentaire des manuels scolaires en analyse de données, en reprenant les termes de hiatus, de ralentissement quand un changement n'est vraiment pas significatif (alors que la physique ne peut pas discriminer sans IC plus larges, le signal de fond à cette échelle courte, bien entendu), à cause de la mode lancée par les négativistes sur la toile, ce n'est pas pour rien. Tu en es l'illustration parfaite. L'analyse en aveugle est assez parlante, surtout quand un des experts qui ne sait pas que ce sont les données sur la T globale ne voit pas de hiatus et quand il le sait, il en voit un. Gros problème cognitif au point de ne pas respecter ses propres bases scolaires. Tu es très bon pour faire de la politique, bien moins pour respecter des bases objectives : journals.ametsoc.org/doi/pdf/10.1175/BAMS-D-14-00106.1 http://www.realclimate.org/index.php/archives/2015/11/hiatus-or-bye-atus Un hiatus, une stagnation après une baisse ou après une hausse significative dans notre cas, dans n'importe quel cours de base de stats en première année dans toutes les universités du monde, ça a un sens et il faudrait que tu refondes tous les manuels scolaires pour changer ça (En passant par les pairs des mathématiques bien entendu). Quand un changement de tendance n'est pas significatif dans un exercice, si tu indiques qu'il l'est, c'est zéro pointé. Ce n'est pas moi qui définis ce qui est juste ou faux en analyse de données. La significativité d'un changement c'est la base scientifique pour qu'il soit assez probable qu'il existe. Après tu peux jouer à désinformer en jouant sur les mots. Si tu présentes un graphe de bruit sans le savoir, c'est grave pour toi. J'utilise aussi ce type de graphe, mais comme je l'ai indiqué c'est un graphe de bruit dans les tendances, qui est utile pour suivre l'évolution du bruit, et non pas du fond comme je l'ai indiqué x fois, d'autant plus sans barres d'IC là. C'est utile pour chercher à l'expliquer pour parvenir à le prévoir. Il faut faire ressortir le bruit et non le masquer dans ce cas. La différence fondamentale c'est que tu veux faire systématiquement croire que c'est remarquable, alors que ça ne l'est pas du tout. C'est certain que sans de vraies barres erreurs, tu peux jouer comme ça longtemps, d'autant plus quand la tendance sur 60 ans est de plus en plus haute, car de plus en plus de tendances sur 15 ans seront mécaniquement dessous, vu que lorsque la tendance sur 60 ans sera à 0.17°/déc chez GISS et alors que tu as 50% de proba d'avoir des tendances sur 15 ans et PLUS, plates, en valeur centrale sous une telle tendance, tu ne peux qu'en observer de plus en plus dessous. Donc rien de remarquable, d'anormal comme tu veux le faire croire avec : C'est certain que tu voulais dire que ça monte à la même vitesse que la tendance passe sous les 60 ans depuis 40 ans, alors que pourtant ça n'a aucun sens pour le fond ! et qu'ensuite tu nous dises que : Elle ne s'est pas infléchie vu que ce n'est pas significatif et que l'évolution décennale dans la vraie vie ne s'est pas infléchie. Mais bon on le sait tous ici, tu as voulu dire que ça monte à la même vitesse qu'avant 98, 2001, qu'il n'y a donc pas de hiatus... Si ce n'est pas du pur négativisme, c'est quoi alors ça ? -
Statistiques et anomalies climatiques globales
ChristianP a répondu à un sujet de Sam82 dans Evolution du climat
Leur définition du "hiatus" et cette comparaison de tendances, n'ont pas du tout le sens pour eux d'un test statistique de comparaison de tendances pour déterminer s'il y a ou pas un vrai hiatus, vu que ces tendances ne peuvent pas être facilement différentes sur le fond même en cas de vrai hiatus sur le fond, tout comme celles de ton listing très logiquement qui contrairement à ta conclusion, montrent l'inverse de ce que tu indiques (s'il suffisait qu'une tendance n' affiche pas la même valeur centrale qu'une autre pour que ce ne soit pas un hiatus, et bien tu remarqueras que ça n'arrive vraiment pas souvent sur ton propre graphe qui selon ta conclusion, est donc souvent en hiatus (de froid ou de chaud) . C'est donc incompréhensible que tu cherches à déterminer s'il y a ou pas hiatus avec une méthode qu'ils n'utilisent pas, car ils savent que ça ne fonctionne pas souvent avec que des données communes non indépendantes à comparer) Les IC d'une tendance positive et ceux d'une nulle qui ne se croisent pas en données indépendantes, c'est ce qui permet de conclure que c'est très probablement un hiatus, alors que dans notre cas c'est l'inverse d'un hiatus. Là en données internes communes, un vrai hiatus ne peut être significatif sans un très fort réchauffement antérieur. Utiliser toute une partie de la même population d'anomalies pour tester une différence de tendances linéaires, c'est quelque peu se mettre des battons dans les roues : on le verra trop tard avec ta méthode (et non la leur, ça ne leur vient pas à l'idée de tester des tendances de cette façon) quand ce sera vraiment le cas en tendances indépendantes. Il n'y a pas de vrai hiatus sur le fond en données indépendantes, à l'inverse de la période vers 1945 à 1970 qui était significativement différente de la tendance de la période précédente avec des données indépendantes. En fait ils présentent un bruit interne d'une tendance courte logiquement mal vu par les modèles classiques de projections où ce sont plutôt des états moyens, des moyennes /20 ans qui sont prévues qui permettent d'ailleurs d'extraire des évolutions décennales en °déc (dignes de ce nom comparées à ton graphe dévolution de bruits internes d'un modèle linéaire), donc sans biais dus au modèle linéaire ou autres (Le choix du GIEC des moyennes/20 ans avait été donnée dans l'AR4 : Internal variability in the model response is reduced by averaging over 20-year time periods. This span is shorter than the traditional 30-year climatological period, in recognition of the transient nature of the simulations, and of the larger size of the ensemble. ) Les tendances courtes prévues par les modèles décennaux expérimentaux et débutants initialisés sur les données récentes pour ces échelles plus fines, ne changent rien à ce problème vu que les IC sont très larges (il n'y a pas de différences significatives avec les projections, donc que la T soit dans cette zone ou ailleurs au-dessus, ça ne changera rien au résultat sur ces courtes périodes, soit à cause de l'IC des prévis et/ou soit à cause de l'IC des tendances) sans même qu'ils intègrent les IC physiques de chacune des courbes centrales autrement plus importants que les IC de l'incertitude de mesure et de détermination des anomalies de T globale réelle. La comparaison en valeur centrale tout en négligeant les IC larges de cette tendance courte de 15 ans, 98-2012 par rapport à et dans celle sur 51-2012 (elle est donc interne, c'est un zoom, donc on s'éloigne de l'évolution du fond à l'échelle climatique), est utile pour chercher à l'expliquer, car cette tendance longue est considérée comme affichant un signal de fond moyen du réchauffement assez purement anthropique, vu que le forçage naturel est nul avec des IC des plus faibles (et qu'en prime elle intègre de fait une éventuelle oscillation d'environ 60 ans non significative, sans assez d'échantillons de cette oscillation) La définition de ce hiatus interne négligeable pour le fond, visible au pas annuel à l'époque, mais plus maintenant avec les nouvelles données, d'autant plus que les tendances depuis 98 et 99 sont devenues significatives d'un réchauffement, provient de la mode (absurde tellement c'est courant avec une tendance à ce niveau, 50% de proba qu'un plateau dure au moins 15 ans avec une tendance GISS de 0.17°/déc d'après les calculs de Tamino que j'ai refaits et exposés ici il y a des années ) du plateau présent au pas annuel à l'époque de l'AR5 après le pic de 98, mais surtout du fait que des plateaux de 15 ans ou plus, sont assez rarement récoltés dans les modèles pas faits pour cette échelle, ce qui n'est pas du tout le cas avec les stats qui captent mieux l'ensemble des possibilités du bruit autour de notre réalité, d'un signal moyen de courte durée observé, tant que la physique ne disposera pas des mesures, des bilans nécessaires précis et/ou des ordinateurs plus puissants pour échantillonner assez souvent pour un même modèle (Il faudrait qu'ils puissent lancer des centaines de runs pour chaque modèle et tendances données identiques à la notre au moins pour ceux ayant très bien reproduit (aussi bien qu'une mesure réelle et non pas avec des IC physiques actuels bien plus larges en réalité) en valeurs centrales à postériori, l'évolution de fond depuis 1880, pour qu'on obtienne des périodes de 15 ans et plus, "plates", aussi fréquentes qu'avec les stats, pour la tendance de fond donnée dans notre réalité. ) De plus c'est étonnant que tu ne respectes pas le point de départ de leur définition du hiatus, 98 , une année essentielle, un mantra depuis si longtemps, une année que d'ailleurs toutes les publications sur le sujet reprennent, avec les nouvelles données depuis l'AR5. Il n'y avait déjà pas de vrai hiatus digne de ce nom à l'époque de la sortie de l'AR5 avant les dernières améliorations des données des séries et les 3 ans en plus, et encore moins maintenant en données 2015 provisoires, qui montrent que depuis 98 et 99 aussi, le réchauffement est devenu significatif du moins pour cette série GISS : Si avec ces graphes vous ne voyez pas le problème de vouloir zoomer sur ces nano-tendances internes en prime non différentes significativement et donc si peu utiles pour voir l'évolution sur le fond et tester les modèles incompétents à ces échelles, c'est que vous êtes faits pour analyser que le bruit interne, mais surtout pas pour la climato et tester des projections d'une autre échelle. Si certains revendiquent toujours un hiatus dans GISS avec des anomalies si bien distribuées de part et d'autre de la tendance calculée jusqu'à fin 98, puis projetée, alors pour être cohérent avec eux-mêmes, ils doivent obligatoirement revendiquer avec autant de vigueur et de fréquence, un réchauffement plus fort après 98 qu'avant, dans la série NCEP particulièrement bizarre vue d'ici : Cette dérive m'étonne tellement, que je doute toujours d'avoir commis une grossière erreur, mais je n'en trouve pas, d'autant plus que j'ai vérifié la position des points directement en le sortant aussi à partir des T absolues, donc sans aucun calcul d'anomalies pour éviter de rater une erreur à ce niveau. Enfin, même s'il y a une erreur peu probable dans ma récupération des données absolues de T NCEP, ce graphe servira d'exemple pour le raisonnement. Même dans ce cas il n'y a pas encore un changement pour un réchauffement plus fort sur le fond, malgré que la valeur de 98 est battue significativement de plus de 0.1° dès 2005, soit 25 ans plus tôt que ne le laissait envisager la tendance centrale faiblarde pour cette série fin 98, alors même que toutes les anomalies après 2000 sont au-dessus de la tendance centrale fin 98, mais toujours présentes dans l'IP et malgré des tendances significatives et "plus fortes" après 98 (qu'en apparence en valeur centrale car malgré qu'elles soient significatives, elles ne sont pas significativement différentes. "La plus forte" significative d'un réchauffement est sur 99-2015 : 0.196°/déc, un faux hiatus de chaleur supplémentaire pourtant bien moins proche d'être aussi faux que le hiatus de stagnation depuis 98 l'a toujours été (il n'y a jamais eu tant de valeurs consécutives dessous la ligne centrale projetée depuis 98 et près de sortir de l'IP inf ! ) Avec une bonne confiance à 99% maintenant avec GISS, il n'y a très probablement pas de changement sur le fond depuis fin 98 ( donc ni hiatus de fond, ni de réchauffement de fond plus fort, ni de refroidissement sur le fond, le même réchauffement +- les IC près, qu'avant fin 98, tant qu'on ne sort pas des bornes de la variabilité autour de cette tendance fin 98.) Dans NCEP, on peut voir que c'est probablement ce qui va finir par arriver en regardant les anomalies au pas mensuel qui sortent souvent trop de la moyenne/30 ans à jour chaque mois. Si elles continuent comme ça, il y aura un changement significatif dans NCEP bien avant les autres séries, pas dans le sens du hiatus de stagnation, mais dans le sens d'un réchauffement significativement plus fort. On remarquera que les points 98 2005 ! (j'ai tellement l'habitude du point décalé de 98 que je me suis fait avoir) et 2015 de NCEP ont la même faible proba d'être observés à leur époque respective (3% environ), mais que dans GISS, 2015 est assez banale, car proche de la tendance centrale du fait aussi de la tendance plus forte sur 69-98 , mais malgré des IP plus faibles (la série GISS est moins bruitée et les résidus sont moins autocorrélés). La valeur de 98 de GISS est bien moins rare que pour NCEP. A priori 2015 pour le Nino et la T, c'est plutôt 97, donc à voir selon sa durée, son intensité et avec son effet plus efficace décalé de 6 mois environ, ce que donnera 2016 chez GISS. Si certains ont une idée d'où vient cette distorsion importante entre les données GISS et NCEP, si je n'ai pas fait d'erreurs, merci (le problème c'est qu'il y a aussi un changement de variance dans NCEP. Il y a quelque chose de pas clair, pour que ce soit à ce point et non présent dans les autres séries) Ton décalage de 3 années de données n'a pas de sens pour voir la fin du hiatus débutant par définition vers 98 que ce soit chez le GIEC ou dans le mantra bien connu depuis fin 1999, vu que pour certains, un an, c'est significatif :-) Pour voir si le hiatus depuis fin 98 est terminé, on ne risque pas de changer cette date essentielle, à moins justement qu'il soit terminé et que bien entendu comme tout le monde ici s'y attendait ici, les amateurs de plateaux insignifiants pour le fond, sautent sur le prermier plateau suivant, vu qu'il y aura toujours des plateaux à un moment ou à un autre (malgré un RC non négligeable toujours présent 50% de proba de plateaux >= à 15 ans avec une tendance de 0.17°/déc pour GISS). Tu n'es donc pas prêt de nous dire souvent qu'il n'y a plus de hiatus sur des périodes de 15 ans avec ta méthode et encore plus souvent si la tendance anthropique sur le fond est réellement toujours celle sur 51-2012 plus faible en valeur centrale que celle significative depuis 69/70. Avec ton graphe de tendances décennales, tu ne montres pas l'évolution décennale réelle, mais simplement l'évolution des différences de répartitions des données dans un modèle linéaire dont les conditions mathématiques ne sont pas assez souvent respectées. Si tu veux voir la véritable évolution décennale en t'affranchissant du modèle linéaire, que tu ne sembles pas bien comprendre,il faut calculer les véritables évolutions décennales effectives, réelles et non pas virtuelles. Et oui, la valeur d'une tendance linéaire dépend de la position des anomalies par rapport au centre de gravité de la tendance et de son axe centrale sur la durée. Par ex pour exactement les mêmes 15 anomalies sur 1998-2012, en changeant simplement leur ordre, tu peux passer d'un extrême à l'autre, d'une tendance virtuelle de +0.181° à -0.181°/déc (significative qu'un refroidissement, excusez du peu alors que la moyenne sur 15 ans aura augmenté exactement autant dan snotre réalité qu'avec +0.181°/déc ! Et oui, tant que certains ne comprendront pas ce point essentiel, ils induiront les autres en erreur !) , ou obtenir un plateau quasi parfait, de 0.00°/déc pour un autre ordre alors que la T se sera réchauffée effectivement exactement comme dans notre réalité sur 15 ans, d'une vraie valeur en °/déc ! (C'est cette dernière valeur qui nous intéresse, pas l'évolution théorique donnée par le modèle linéaire en présence des aléas (physiques ou non) du bruit, tout en ne respectant pas les règles mathématiques pour que ce bruit soit I.I.D, ce qui n'est pas le cas quand tu chevauches des changements significatifs) Ce sont pourtant les mêmes anomalies, il n'y aura que l'emplacement du bruit qui aura changé en changeant l'agencement des anomalies, ce qui changera la tendance mais pas la hausse effective de T en 15 , 30 ou 60 ans. Si tu veux réunir les avantages des moyennes et des tendances pour voir de vrais changements sans en avoir les inconvénients, il te faut un Loess sur des périodes qui n 'affichent que des variations (segments linéaires) statistiquement significatives, comme je l'ai expliqué maintes fois. Le Loess au lissage bien choisi, affiche la synthèse entre une tendance linéaire et la moyenne. Continuer à pratiquer de la sorte pour suivre une évolution du climat, un hiatus, une vitesse de réchauffement, c'est faire croire que ces répartitions ont une importance pour le fond et c'est nier les véritables hausses décennales réellement observées et qu'il est simple de suivre avec des calculs de collégiens qui évitent les biais et les IC des tendances linéaires : Une réalité qui t'évitera de contredire cette réalité : (On part des moyennes sur les périodes qui t'intéressent, là donc glissantes sur 15, 30 et 60 ans . On déduit les différences entre les moyennes INDEPENDANTES sur 15, 30 et 60 ans, donc sans recouvrement de données ( Il faut attendre la 30 ème année pour comparer une première moyenne sur 15 ans à une deuxième moyenne sur 15 ). Ensuite il suffit de diviser les différences respectivement par 1.5, par 3 et par 6 pour obtenir la véritable évolution décennale de la température, dans la vraie vie, hors modèle linéaire (ou autres) qui mesure et pèse des écarts entre les anomalies qui agissent sur l'axe de la balançoire et la pente de la tendance sans tenir compte de la hausse réelle de T moyenne. On verra la différence phénoménale avec ton graphe. Un vrai hiatus se verra aussi facilement qu'il s'est vu dans le passé avec cette technique très simple d'évolution décennale. On peut même déduire que si la courbe de 15 ans ne monte pas à 0.2°/déc en moyenne pendant assez longtemps ( hors petits bruits à cause des valeurs entrant et sortant des moyennes et du bruit habituel dans les successions d' anomalies annuelles), celle de 30 ans ne pourra y parvenir. Par contre tant que celle sur 15 ans se maintient à ces niveaux actuels, celles sur 30 et 60 ans monteront vers ce niveau. Celle de 30 ans plafonnera bientôt si celle sur 15 ans ne monte pas plus haut assez longtemps, par contre l'évolution décennale sur 60 ans, n'est vraiment pas prête de s'arrêter de grimper avec celle de 15 ans qui reste à ces niveaux ! La hausse de T dans le monde réel se fout que les données les plus chaudes (à cause de Ninos, ou autres), soient réparties autour du centre de gravité d'une tendance, au début, au milieu ou à la fin de la tendance surtout quand que ce n'est pas significatif pour le fond et quand les modèles que tu utilises ne sont pas respectés (ex, être à cheval sur 2 changements de tendance avec 60 ans de données). Et encore même quand c'est significatif, ce n'est pas toujours suffisant. Pour une strictement même forte hausse de l'état moyen de la T dans un mois par ex, même le plus extrême, août 2003, tu récoltes une tendance fortement négative, alors que c'est l'échantillon de mois le plus chaud jamais relevé. Ton graphe des tendances (surtout sans IC à chaque point pour situer les changement significatifs) ne t'apprendra pas grand chose si tu perds le contexte de fond donné par l'évolution des moyennes. Il faut bien voir que dans une tendance on de l'incertitude supplémentaire à cause de la position et de l'ordre du bruit, dont la moyenne se fout totalement, elle est insensible. C'est pour cette raison que pour tester les projections du GIEC, il faut garder en tête surtout les hausses de moyennes sur 20 / 30 ans non pas en tendances linéaires, mais en hausses décennales effectives calculées sur des moyennes 20/30 ans, qui donnent des vraies valeurs d'évolutions décennales sans biais dûs au modèle linéaire. Avec ta technique même si la moyenne/20 ans en 2030 se retrouve plus chaude de 0.66° environ (une valeur de l'AR4) que la moyenne / 61-90 , alors que ton graphe affiche une tendance plate ou à la baisse à cause des aléas du bruit, tu nous diras que ça stagne ou que ça se refroidit comme le montrera ton graphe qui ne s'occupe pas de la hausse effective réelle de T décennale. Tu rateras l'essentiel comme actuellement. Certains ont passé à la moulinette les données avec des méthodes dont certaines que j'avais utilisées il y a des années, très proches des résultats de la méthode aussi efficace de Tamino. http://link.springer.com/article/10.1007/s10584-015-1495-y/fulltext.html http://iopscience.iop.org/article/10.1088/1748-9326/10/8/084002 Bon comme d'ici 2050 quelque soit l'intensité de la hausse, ce sera toujours pareil, les noyés du bruit n'intègreront jamais qu'il faut attendre de voir de la significativité tant que la physique n'est pas capable de discriminer mieux que les stats pour se prononcer sur le fond et tester les modèles, je repasserai l'année prochaine, vu qu'on en sera au même point qu'actuellement et que les années précédentes, avec les mêmes pro de faux plateaux, de faux refroidissements, de fausses accélérations, de faux hiatus pour le fond. Continuez bien à barboter dans le bruit tant que la physique n'est pas capable de le discriminer assez précisément à postériori, donc encore moins capable de le prévoir. (PS : pour les concepteurs du forum, la modif de quelques caractères dans un seul paragraphe a totalement supprimé la mise en page, les interlignes entre les paragraphes) -
Abris Davis Normalisé 7714 (Surchauffe Nocturne Ciel Clair)
ChristianP a répondu à un sujet de Dammatrix dans Instrumentation
Non, un thermo voiture n'est pas clair pour seulement 1° d'écart surtout selon le modèle, l'emplacement du capteur, la différence de chauffe du véhicule entre le départ et l'arrivée, la vitesse, les différences temporelles, ce n'est pas une référence assez valide comparée à une mesure fixe normalisée. Non, la ventilation naturelle de l'emplacement de l'abri pour de mêmes dégagements, de mêmes conditions radiatives, réchauffe les Tn en limitant les conditions radiatives de l'abri lui-même en plus de celles du site qui se refroidit moins avec le vent. Il n'y a que la vérification du capteur et des normes d'installations de l'abri (bons dégagements, loin des sources artificielles de chaleurs et de la maison, sans obstacles hauts sur l'horizon par rapport aux autres stations) qui te permettront d'y voir clair (Il te faut un thermo de référence bien étalonné, à placer dans l'abri 7714 près de l'autre thermo, avec une constante de temps assez proche, sinon lisser les relevés minutes sur 10 et 30 mn). Si le thermo est bon et que l'abri est bien placé selon les normes, c'est que la T mesurée est correcte sans discussion possible. C'est bien moins compliqué en prenant le problème dans ce sens que de te prendre la tête avec des mesures plus douteuses que celles du 7714 et les nombreux paramètres capables de générer 1° d'écart dans l'espace et le temps d'autant plus en milieu plus ou moins urbanisé (si tu te retrouves dans l'axe de la brise nocturne imperceptible qui passe sur les constructions avant de parvenir sur ton site...). Sur ton site, tu pourras placer ton abri dans d'autres coins de ton terrain et obtenir ce type d'écart, alors comparer avec une station ailleurs pour étalonner ta mesure, ne donne pas assez de certitudes. L'abri Davis bien vérifié sans "habitants" n'est pas du tout en cause, car il est meilleur que ceux de MF. Il a été testé par l'OMM et de nombreuses personnes. Un abri MF Stevenson modèle réduit est un peu trop froid en Tn et si tu prends une station MF à x km équipée de ce modèle en référence, une partie de l'écart est déjà due à la différence d'abri. -
Désolé pour les délais, j'ai malheureusement des problèmes plus importants dont je dois m'occuper et donc pas vraiment le temps et l'esprit pour me plonger à fond dans les données récoltées. Rien de bien nouveau depuis mes dernières interventions. Hors console WMR300 et traitement logiciel Oregon des données (qui peuvent rendre inexploitable le vent moyen/10 mn nécessaire à StatIC, vu que le soft maison ne donne qu'une valeur moyenne bloquée pendant 10 mn et n'enregistre pas la rafale maxi de la minute ou autres pas), la station au niveau des résultats des capteurs en dehors de l'anémo pour le vent maxi et le vent moyen/10mn bizarre, est assez identique à une Davis Vantage Pro2 (V2). Pour les vents maxi, vu que les écarts par vent fort sont bien moins importants par vent de tendance Est, je ne peux pas démontrer que le problème de la sous-estimation importantes des rafales par vent fort, ne vient pas aussi de la différence de position et d'orientation des anémo (comme pour le Davis qui lui intègre une correction dans le firmware), mais aussi en partie ou totalement d'une perturbation de mon mât à cet endroit moins favorable trop prés de la partie triangulaire que plus haut, car je sais qu'un anémo Davis placé dans la même position un peu plus haut dans la partie plus fine il y a des années, renvoyait déjà certaines rafales réduites par Mistral en comparaison du vent d'Est fort. Exemple des problèmes sur le vent moyen/10 mn et les rafales le 30/03/2015. http://meteo.besse83.free.fr/imfix/tempetewmr.png Voir dans Excel les détails des minutes et du vent WMR bloqué 10 mn en prime pas actualisé aux heures rondes : http://meteo.besse83.free.fr/imfix/vent30032015.xlsx On peut voir le jour de la tempête la plus forte ici (100 km/h sur la console WMR, donc valeur invisible dans la base de données qui ne capte que la rafale à l'instant t, pour 117 et 122 km/h de maxi aux Davis), le carnage des 95% des écarts sur le vent moyen/10 mn de la WMR [-13.2 km/h ; 16.8 km/h] en comparaison des écarts pour ce vent moyen/10 mn entre les deux anémo Davis [-1.4 km/h ; 1.0 km/h] dans mon site très turbulent pas vraiment bien fait pour tester un anémo par rapport à une soufflerie qui génère un vent stable en vitesse et en direction. Donc sans un logiciel qui rattrape le coup pour StatIC, le vent moyen sur 10mn, n'est vraiment pas top. On remarquera pour les Davis que malgré un écart moyen de -0.1 km/h pour les vents moyens/1 mn, de l'anémo Davis à 16.4 m, on peut récolter parfois de gros écarts de vent moyen sur 1 mn, jusqu'à 24.1 km/h, à cause d'une synchronisation imparfaite des consoles et de délais de la console V2 quand l'interface IP travaille. Je la vois figée pendant que l'autre console affiche toujours les données. Je pense qu'il est possible qu'en plus d'un problème de synchro de la minute à +- 30 s près, il existe peut-être des traitements internes qui se font plus tard selon les tâches à accomplir. En rafales maxi c'est pire vu que la synchro du pas de 2.5 s pour compter le nombre de tours est impossible et que celle de la minute pile ne reste pas parfaite, donc l'IC à 95% des rafales entre les 2 Davis n'est pas négligeable [-19.5 km/h ; 17.8 km/h] malgré une différence infime de moyenne des rafales maxi des minutes du jour de 0.5 km/h entre les deux anémo. Jusqu'à 43.5 km/h de différence entre deux maxi dans une même minute pour 2 anémo si proches, donc inutile de vous dire que chercher vérifier ses rafales Davis par rapport à un anémo MF en 0.5 s à x km (Un pas de 0.5 s générera encore plus de différences de rafales maxi entre ces deux anémo identiques ici), ce n'est pas gagné surtout lorsque c'est un grain, un orage bref qui passent, car dans ces cas les différences entre les anémo sur sites n'ont pas le temps d'être comblées par d'autres échantillons de vent. Pour la pluie, le pluvio réglé d'origine en 0.254 mm a moins dérivé dans le temps (sans modification du réglage d'origine) que mes pluvio Davis en 0.2 mm neufs à l'époque qui dérivaient bien plus nettement et rapidement, ce qui est assez logique pour ces augets plus proches de l'équilibre d'origine que les Davis, mais aussi avec le réglage en 0.254 mm qui est plus favorable que du 0.2 mm (ce réglage était aussi plus stable sur les Davis, avec une meilleure pente des augets pour évacuer la goutte au bout des augets, mais aussi avec moins de basculements, donc moins de pertes). Cette année c'est le Précis Mécanique qui a dérivé sévèrement comme jamais ça n'était arrivé sans que j'en trouve la cause, même en démontant et en nettoyant à fond la platine, ça n'a rien n'a changé, je ne vois aucune usure à l'oeil, de plus les augets sur ce modèle sont en inox. Depuis toujours je n'avais besoin que de le régler d'un quart de tour en plus ou en moins selon la saison hivernale ou estivale, là j'ai dû dévisser de pratiquement 1.5 tours ! Pour le WMR identique au V2, ce ne sera aussi qu'une affaire de réglage des vis à affiner selon la dérive, il était bien réglé d'usine (et augets à équilibrer si neufs ils ne le sont pas, là de peu sur cet exemplaire) Pour la HR, pas de changements par rapport à ce que j'indiquais. C'est un SHT11 comme sur les anciennes V2, donc tout dépend de l'abri comme pour la T quand l'exemplaire du Sensirion est correct (conforme à la courbe du constructeur). Je vais détailler les résultats pour la T avec ce composant à l'incertitude plus variable sur gamme de T, selon le constructeur et des écarts fréquents rencontrés chez les utilisateurs dans les Tn froides, pour surtout montrer comme la mesure de ce paramètre est compliquée avec des sondes et des abris aux réactivités bien différentes et que ce n'est pas pour rien que les US lissent sur 5 mn et 7 mn pour déterminer les T, Tx, Tn pour harmoniser les constantes de temps dans les abris méca du meilleur réseau au monde (USCRN) au lieu de lisser sur 1 mn comme l'OMM/MF pour les abris standards plus lents que les abris Davis V2 et WMR. Sur la période des essais du 5 janvier 2015 au 2 août 2015, j'ai relevé une Tx maxi de 36.9° avec le SHT 11 WMR300 pour 37.1° à la Pt 1000 dans cet abri, 36.7° pour la Pt 1000 dans le Socrima MF à coupelles, 37.1° pour celle dans le Stevenson alors que la valeur de référence la plus proche de la vraie Tx de l'air dans l'abri Young méca en normes USCRN a été de 35.5° (SHT75 sur V2 vérifiée sur la Pt 1000 de référence qui sert de référence aussi aux autres Pt 1000) En Tn mini, -3.1° pour la SHT11 WMR 300, pour -3.7° sur la Pt 1000 dans cet abri, -3.7° dans le Socrima, -3.9° dans le Stevenson MF (modèle réduit) qui est connu chez MF pour être encore plus/trop froid en Tn. La Tnn de référence dans le Young méca est de -3.4°, donc même sans la correction moyenne de l'écart base pour ce SHT11, la Tnn est aussi très proche de la "vraie" Tn de l'air sur cet exemplaire de SHT11 affichant le plus gros écart de base de tous les exemplaires SHT11 (Davis)qui sont passés ici, sans que je puisse déterminer si c'est de la malchance ou une règle pour les composants SHT11 chez Oregon, sans une centaine de capteurs SHT11 à tester dans chaque marque. On retrouve l'écart positif progressivement plus important sur la SHT11 de la WMR/ Pt 1000 dans cet abri quand on descend en T. +0.8° avec un palier à -19.4° au SHT11 pour le palier à -20.2° à la Pt 1000 ensemble sans abris dans le congélateur, http://meteo.besse83.free.fr/imfix/congelateursht11wmr300.png Pour mémoire pour l'essais d'un autre capteur SHT11 Davis, où j'avais synchronisé l'installation des sondes pour déterminer des temps de réponses en plus de vérifier l'écart de base vers -20°, les écarts instantanés monstrueux à cause des différences de temps de réponse étaient assez parlants même au bout de 10 mn à -20° (-7.6 ° contre -17.5°) et il n'est donc pas étonnant de ne pas toujours pouvoir afficher de mêmes Tn même avec un SHT11 bien calibré par hasard dans les basses T, quand les vraies Tn (plus souvent sans vent dans l'abri comparées aux Tx) ne tiennent pas asssez longtemps pour la circulation d'air faible donnée et la constante de temps du capteur concerné + abri. Il faut bien voir que si vous avez un air qui perd d'un coup 10° pour x raisons sauf vent significatif au niveau de l'abri, au bout de 10 mn sans vent dans l'abri (Un abri MF ne laisse passer que 10% de la vitesse mesurée hors de l'abri à 2 m, donc même un vent faible mesuré à 10 m hors abri n'agit pas toujours dans l'abri plus bas) la SHT11 avec n'affichera qu'une variation d'environ 7.3° contre 9.4° pour la Pt 1000 (une SHT11 +filtre et support Davis affiche au bout de 10 mn sans aucun vent, environ 73% d'une différence de T (comme une variation instantanée de T tenue au niveau différent donné pendant au moins ces 10 mn) et si par hasard le temps change qu'un peu à nouveau à ce moment pour faire remonter la T même de peu définitivement, il y aura environ 2° d'écart de Tn uniquement à cause du temps de réponse sans vent dans l'abri. Si on rajoute les +-1.7° de la courbe du constructeur du Sensirion entre 2 exemplaires malchanceux de SHT11 aux extrêmes de ces bornes à -20° (donc une différence de base 3.4° entre les 2 SHT 11 à -20° ! Peut-être plus en réalité possible, car on ne sait pas si la précision de la courbe est donnée pour 95% , 100 % ou autres, des exemplaires) si en prime une des SHT11 est nue sans support WMR ou V2, mais juste avec un filtre WMR ou V2 qui donne une constante de temps assez proche de la Pt 1000, elles pourront afficher bien plus en différence instantanée (donc pour l'exemple 5.4° d'écart et bien plus encore pour une sonde nue juste avec du téflon sans support ni filtre Davis ou Oregon) et donc potentiellement de Tn, sans qu'on puisse dire quoique ce soit, car ce sera conforme aux courbes constructeurs et aux constantes de temps données ! En fait il n'est pas impossible que l'écart dans le congélateur soit légèrement plus faible que celui que j'ai déterminé sur mon exemplaire à -20°, car pour le SHT11 WMR lent avec le support + filtre comme sur les SHT11 V2, il faudrait générer un palier vraiment stable à la température donnée pendant 1 h (sans circulation d'air pour le cas présent) sur la Pt 1000 pour être certain que l'écart n'est pas plus faible que ces 0.8° (il n'est pas plus grand, car c'est une valeur positive et le SHT11 est en retard de peu dans ces cas où il n'est pas loin de 100% de l'équilibre avec la T affichée par la Pt 1000 plus réactive.) Les différents écarts sur les Tn et Tx journalières dans les différents abris et avec la Pt 1000 dans la WMR. http://meteo.besse83.free.fr/imfix/wmr300txtnjourresultats.png Les écarts sur les relevés minutes entre la SHT11 et la Pt 1000 dans la WMR et entre ces deux sondes + abri WMR et la Pt 1000 + l'abri Socrima MF en classe 2. http://meteo.besse83.free.fr/imfix/wmrinst.png Exemples de différences avec des causes de certains gros écarts où le lissage du SHT11 est clair, mais utile pour éviter la surchauffe de l'abri WMR plus réactif comme un abri V2 le matin, mise en évidence par la Pt 1000 principalement en début de matinée quand le soleil devient assez puissant avec un vent nul à faible à ces horaires avec aussi des différences de mouillage interne des abris après dépôt de la condensation (l'intérieur d'un abri V2 ou WMR sèche plus vite qu'un abri MF) : http://meteo.besse83.free.fr/imfix/grphwmr30021022015_24.png http://meteo.besse83.free.fr/imfix/grphwmr020062015_31.png Ce graphe a montré pourquoi il ne faut surtout pas installer une sonde plus rapide dans un abri WMR ou V2 (les SHT75 15, 11 "maisons" sans fitre ni support Davis ou WMR, sont 4 fois plus rapides que la Pt 1000, les écarts seront plus grands que sur la Pt 1000), d'autant plus dans un site insuffisant, plus dans l'intérieur qu'ici, loin de la brise de mer l'AM dans les canicules. http://meteo.besse83.free.fr/imfix/grphwmr12032015_18.png En valeurs corrigées des étalonnages moyens des sondes, il faut regarder les IC à 95% des Tn et des Tx SHT11 + abri WMR par rapport à la cible du réseau Radome (MF cherche à ce que 95% des valeurs soient comprises dans [-0.5°;+0.5°] ) et nous par rapport au Socrima pour StatIC. Par exemple par rapport aux "vraies" Tn du Young méca, 95% des Tn WMR dans [-0.1° ; 0.6°] . Elles sont aussi correctes par rapport aux Tn cibles de StatIC, celles du Socrima MF avec Pt 1000 [0.0° ; 0.5°], malgré que la correction soit moyenne pour la SHT11, alors que l'idéal serait d'appliquer une correction en fonction de différents points de la gamme sur cette sonde. Pour l'abri WMR, on voit avec la comparaison entre sa Pt 1000 et la Pt 1000 + le Socrima, que les Tn sont comprises dans un IC à 95% meilleur que dans les comparaisons MF de deux abris Stevenson grands modèles MF + 2 Pt 100 identiques pour analyser la répétivité des mesures dans un site classe 1 herbeux verdoyant plat pourtant parfait à Trappes ([-0.1°; 0.2°] pour l'abri WMR face au Socrima, contre [-0.2°; 0.2°] entre 2 mêmes gros Stevenson dans les essais MF. Un Socrima face au grand Stevenson chez MF renvoie 95% des écarts des Tn dans [-0.4°; 0.1°], logique vu que le Socrima est plus rapide que le gros abri et donc il capte des baisses de T de plus petites échelles, le grand Stevenson est connu pour être trop lent. On voit donc que les différences générées sur le terrain avec les variations rapides du temps peuvent-être largement supérieures à l'écart de base du capteur donné quand il n'est pas trop mauvais, même par T négatives à cause des différences de constantes des abris et des sondes. Les écarts potentiels sur des Tx et des Tn sur une bien plus longue période sont à déduire des écarts sur les valeurs instantanées bien plus nombreuses et plus significatives de très nombreuses années de comparaisons de Tx et Tn. S'il y a une différence d'importance d'écart des Tx/Tn avec les écarts sur les valeurs minutes, c'est parce qu'il n'y a pas assez des milliers de Tn et de Tx permettant de tomber sur des échantillons rares de changement de temps qui fixeront une Tn ou une Tx provisoire dans mes échantillons juste après un de ces gros écarts instantanés, ce qui sera bien plus possible en montagne, dans des TAF ou dans d'autres régions que dans mon coin assez "diesel" pour le beau temps plus stable, surtout la nuit par rapport à ce qu'on observe dans le topic sur les TAF. (Certains écarts sont grands et d'autres n'ont l'air de rien, mais même avec du matériel pro, la moindre différence de matériel chez MF, peut jouer comme ici hier pour le jour de la première gelée qui peut être largement faussée (vu qu'ici il n'est pas fréquent qu'il gèle vers la mi octobre, c'est proche du record de précocité) pour une différence minime. Stevenson avec Pt 1000, Tn de 0.0°, thermo MF : 0.0°, sonde Davis d'avant 2006 : 0.2° Le Socrima connu pour être meilleur en Tn (moins de biais radiatifs) : 0.3° Mesure dans l'abri 7714 à 10 m sur le mât d'anémo sonde Davis d'avant 2006 : 0.2° Davis 7714 + pt 1000 sur le toit : 0.3° Davis V2 méca 24h/24h sur le toit : 0.6° (logique que le biais radiatif soit moindre dans ces conditions calmes de ciel clair et sans rosée récoltée) Mesure de référence de la SHT75 + Young méca normes USCRN : 0.5° ) En Tx on voit que le lissage du SHT11 nécessaire pour cet abri plus réactif (trop blanc, trop lumineux et brillant à l'intérieur par rapport à un V2 et qu'à un Socrima, bleu mat à l'intérieur; le WMR sera meilleur quand l'intérieur et le dessous des persiennes seront bien poussiéreux, car de rares Tx l'AM surchauffent sur la Pt 1000 de la WMR (invisible sur la SHT11) par rapport au Socrima (max 0.9°) avec un vent calme (très rare ici en Tx à cause de la brise de mer) alors que la V2 ne le faisait pas y compris en classe 4 où les vents faibles sont fréquents artificiellement coupés par la forêt et une haie ) qu'un Socrima, est trop puissant, car il fait plus que limiter la surchauffe de l'abri WMR, 95% des Tx SHT11 WMR [-0.9°; 0.0°] (Même en valeurs brutes [-0.6° ; 0.3°]) , trop froides par rapport au Socrima + Pt1000 contre [-0.3°; 0.7°] en utilisant une Pt 1000 dans la WMR. C'est pareil à quelques miettes près dans un abri V2 identique au WMR (en dehors de sa brillance et de sa blancheur intérieure), le SHT 11 va réduire des Tx, mais c'est utile dans de nombreux sites amateurs pas assez dégagés avec ce type d'abri réduit, ça rapproche de la valeur de référence des abris méca Davis 24h/24h+ sonde Davis avec filtre ou USCRN. Les écarts en fonction de divers paramètres, http://meteo.besse83.free.fr/imfix/wmrrgvt.png montrent que bien que l'écart médian plus important à cause de l'écart de base de la sonde SHT11 se situe dans les basses T, les faibles rayonnements, les plus gros écarts (non médians) se produisent par vent faible avec un certain rayonnement par soleil pas très haut (effet soleil rasant chauffe plus rapide d'un petit abri le matin) et à des T plutôt entre 11 et 26°. L'écart de base de la SHT11 en fonction de la température est aussi un peu en partie sur le terrain en fonction du vent (il est un peu plus masqué par le vent qui homogénéise) Les colonnes les plus importantes sont celles qui donnent les 95% des valeurs en valeurs corrigées de l'étalonnage des sondes et les différences d'écarts max et min entre l'abri WMR avec SHT11 / Socrima et l'abri WMR avec Pt 1000/ Socrima. On remarquera que le vent faible ce n'est pas top pour les abris à ventilation naturelle. La colonne en valeurs corrigées "95% Pt 1000 WMR - Pt Socri" en fonction du vent montre comme chez MF, que la différence de T devient négligeable (95% des valeurs entre +-0.2°) pour le vent moyen > 5m/s dans un assez bon abri, dans la dernière classe de vent, le plus fort, +-0.1°, alors qu'à moins de 4.8 km/h la borne monte à + 1°. Les différences avec et "sans" soleil (nuits comprises) : http://meteo.besse83.free.fr/imfix/wmrrg150.png En fait à mon avis cette station conviendrait à StatIC pour tous les paramètres sauf pour le vent du moins avec le logiciel maison testé (je n'ai aucune idée des capacités des autres logiciels à extraire un meilleur vent moyen/10 mn), ce n'est que mon avis, donc sous réserve de l'analyse des résultats et de la décision de l'équipe d'IC.
-
Suivi de l'épisode pluvio-orageux en Méditerranée : 01 au 04/10/15
ChristianP a répondu à un sujet de Vincent_L dans Le temps en France
Les "dégâts" des intensités monstres + grêle dans la mesure des RR sans correction auto en fonction de l'intensité : Les cumuls du jour la veille des orages violents d'hier donnent dans les pluvio: SPIEA : 50 mm Précis Mécanique : 46 mm (12.8 mm/h max) Davis Vantage Pro 2 : 53.6 mm (13.8 mm/h max) Moins de 24h après sans rien toucher : SPIEA : 31.3 mm à la fin de l'orage le plus puissant avec de la grêle de 2 à 3 cm (cumul des orages 55 mm) PM : 18.2 mm seulement ! (360 mm/h max / 2 mn, 3.2 mm de max/ 1mn 13.6 mm/ 6 mn) (cumul des orages 32.6 mm) V2 : 22.4 mm (720 mm/h max /1 mn, 6.4 mm de max/1 mn, 19.6 mm/6 mn) (cumul des orages 40 mm) En fait en corrigeant les données en fonction de l'intensité comme chez MF, les cumuls et les intensités sur 1 mn et 6 mn doivent être nettement plus élevés. Ex avec la correction d'après l'écart / au SPIEA, autour de 27.4 mm/ 6mn pour le V2 et 23.4 mm / 6 mn pour le PM. Les différences de timing des consoles, l'ajutage très limité du PM par rapport au V2, le trou du PM pour la surface donnée ( fait que l'eau s'accumule dans le cône du PM à des intensités modestes comparées au V2 qui lui débite largement assez sans accumulation à des intensités bien plus énormes. Le PM nécessite une correction supplémentaire non pas que pour le cumul / SPIEA (vu qu'au final la quantité captée finit par passer, mais plus lentement que dans un Davis), mais pour la mesure de l'intensité et donc pour cumul du PM dans des pas de temps aussi courts que 1 et 6 mn quand les intensités énormes durent), jouant pas mal à ces niveaux d'intensités. -
Suivi du temps dans les régions Méditerranéennes
ChristianP a répondu à un sujet de MP84120 dans Le temps en France
Au final l'orage a déversé 58.1 mm dans le SPIEA (56 mm dans le Vantage2 et 51 mm dans le Précis Mécanique). 206 mm/h maxi, rafale maxi 59 km/h, grêle fréquente d'au plus 1 cm. La Tn a eu lieu pratiquement à midi solaire avec une pointe instantanée brève à 13.2° dans le Young méca en classe 2 ainsi que dans le Cimel en classe 4, petit abri très réactif (14.8° dans le Socrima en classe 4 !) La Tn officielle de plus haute qualité qui tient compte des constantes de temps différentes est de 13.8°. Sur le toit le 7714 avec une Pt 1000 normalement réactive a affiché 13.6° alors que la Vantage 2 méca 24h/24h a renvoyé 14.6° avec le capteur Davis lent. Au sol dans les abris MF en classe 2 je relève 14.1° dans le Socrima et 14.6° dans le Stevenson gros abri plus lent à réagir (aux Pt 1000, la sonde hyper réactive thermistance Davis d'avant 2006 a relevé 14° dans le Stevenson) A 10 m de haut la Tn est de 14.3°, donc peu différente des abris à 1.5 m du sol dessous. Ensuite j'ai été quelques temps réfugié climatique à Toulon avec un bon soleil et la mer, car ce n'est pas humain une Tn pareille en plein été à midi solaire ici ! https://www.facebook.com/photo.php?fbid=504471946384278&set=pcb.504472679717538&type=1 https://www.facebook.com/photo.php?fbid=504472463050893&set=pcb.504472679717538&type=1 -
Les records de la vague de chaleur de 2015
ChristianP a répondu à un sujet de TreizeVents dans Climatologie
Psncf, la note technique MF de la DSO sur les tests de cet abri ouvert pendant un an malgré un été 97 pas fameux pour le pousser correctement pour ressortir les écarts dans ces cas de canicules, à Trappes sur un terrain idéal pour ne pas surchauffer, verdoyant avec une végétation courte réellement normalisée sur une grande étendue, classe 1, inimaginable dans le SE l'été, dit que l'abri présente un échauffement très important ( 50 % des valeurs avec des écarts de plus de 2° sous un vent de moins de 1 m/s et un RG de 800W/m2 et 50% avec plus de 0.9° avec 5 m/s, ce qui n'est pas un vent courant normalement à 2 m du sol là-bas et encore moins dans une canicule ...) On peut rajouter quelques degrés d'erreur pour les Tx dans cet abri en classe 3 , 4 et 5 cloisonnées et/ou avec des obstacles et/ou sol clairs/réfléchissants. La valeur de 40.4° à Paris Montsouris a été relevée dans cet abri, ensuite il faut comparer les valeurs de Paris par site, d'autant plus que la verdure de Montsouris avec le modernisme, est arrosée automatiquement et les Tx sont connues pour y être réduites en période sèche naturellement, c'est ce qui n'a pas permis de battre ce record aux hormones en 2003. En réalité à normes comparables, il a fait très probablement bien plus chaud en 2003 que pendant les 40.4° dans un abri d'un autre temps. Thib91 ce sont les valeurs mensuelles qui sont homogénéisées, par les valeurs journalières, et encore moins les records encore plus difficiles à corriger. Personne au monde ne sait encore les corriger, les espagnols essaient avec des Tx mais lissées sur 10 mn dans ces abris. Le problème c'est que les Tx du passé sont encore plus instantanées que les actuelles des stations auto, sur 1 mn (plus le pas est court et plus il y a des pics de Tx, d'autant plus dans l'ancien abri ouvert, qui fait que la constante de temps est plus courte) C'est déjà assez compliqué avec du matériel moderne bien connu, en ayant tous les paramètres météo avec les photos des sites. Par ex pour Belin-Bélier StatIC pourtant ventilée méca, 41.3° contre 38.1° chez MF en classe 1 de rêve, https://donneespubliques.meteofrance.fr/metadonnees_publiques/fiches/fiche_33042005.pdf En fait si l'abri Davis ventilé méca est réellement fonctionnel avec un ventilo correct (qui faiblit l'air de rien au fil du temps surtout en forêt avec les saletés abondantes), l'abri non bouché par des insectes ou autres, le capteur vérifié, un modèle non rapide, d'origine Davis, ça signifie de fait que d'après mes essais de ces abris dans ce genre de cloisonnement et ceux de MF/OMM, qu'il a fait probablement autour de 42.5-43 ° avec une sonde MF plus réactive dans un Socrima MF à cet emplacement (un peu plus dans un modèle réduit) ce qui est très anormal même pour la différence de site, de sol et de cloisonnement. Même la station de Solliès-ville avec une topo et un site autrement plus favorable à la surchauffe des Tx par Mistral, est incapable de produire de tels écarts avec une station bien placée bien ventée par Tx à ce niveau. Il y a probablement un autre problème quelconque sur cette station non visible d'après les photos et les paramètres météo. Un abri méca à chambre fermée n'est pas sensible au rayonnement réfléchi par le sable comme un abri de qualité ouvert latéralement. -
Suivi du temps dans les régions Méditerranéennes
ChristianP a répondu à un sujet de Infoclimat dans Le temps en France
Le pluvio de la WMR300 testé sous les orages remarquables de cette nuit : 92 mm au SPIEA dont 76 mm/1h, 44 mm/30 mn, 32 mm/15 mn.91 mm au Davis V2 à 230 mm/h maxi.68 mm au Précis-mécanique, énorme sous-estimation pour ce pluvio pro de MF, intensité maxi relevée non validée de 1440 mm/h avec un relevé minute manquant juste avant !77.3 mm à la WMR 300 à 253 mm/h maxi. Quand je vois les résultats des Davis souvent bons sous ces très fortes intensités, je suspecte fortement que la console Vantage2 intègre une équation de correction en fonction de l'intensité. -
Le pluvio de la WMR300 testé sous les orages remarquables de cette nuit : 92 mm au SPIEA dont 76 mm/1h, 44 mm/30 mn, 32 mm/15 mn.91 mm au Davis V2 à 230 mm/h maxi.68 mm au Précis-mécanique, énorme sous-estimation pour ce pluvio pro de MF, intensité maxi relevée non validée de 1440 mm/h avec un relevé minute manquant juste avant !77.3 mm à la WMR 300 à 253 mm/h maxi. Quand je vois les résultats des Davis souvent bons sous ces très fortes intensités, je suspecte fortement que la console Vantage2 intègre une équation de correction en fonction de l'intensité.
-
Pas de filtre téflon Sébastien , je la teste d'origine sans modifications pour ne pas biaiser la comparaison. Sinon oui si c'était ma station, ce serait filtre en téflon et surtout intérieur peint en noir mat, car la Pt 1000 met en évidence certains jours une surchauffe en Tx par vent faible (pas assez courant ici avec la brise de mer) de l'abri trop blanc particulièrement brillant et lumineux, ce qui ne sera plus le cas au fil des ans sans nettoyage intérieur. Elle ne surchauffe pas avec le filtre d'origine qui comme le Davis lisse trop par rapport à une Pt 100 de MF et Pt 1000 aux US et ici. Dans l'absolu la Tx WMR 300 mesurée et corrigée par étalonnage, est plus proche de celle dans un abri ventilé méca. Le problème pour le moment c'est le vent maxi de la WMR et l'impossibilité de récupérer des archives de vent max du jour et dans une minute (juste le vent max à l'instant du relevé minute, une valeur totalement inutile), dans la base de données du datalogger intégré et du logiciel d'origine, de même que le vent moyen/10mn qui ne change pas pendant 10 mn systématiquement dans la base de données) Les -0.4° ce serait logiquement un problème d'échantillon de SHT11, peut-être un vrai SHT11 moins bon que les Davis, car je n'ai jamais observé ce genre d'écart, mais comme je n'ai pas assez de sondes Davis pour que ce soit statistiquement significatif, je ne peux pas dire que les SHT11 Davis soient réellement meilleures. Quelques valeurs avec les fortes chaleurs de ces derniers jours que je poste parfois sur la page FB de ma station, pour les jours les plus chauds au fil du temps : (Le 7 juin ) Tx et Tn du nouveau jour. Site classe 2 : Mesure de référence, capteur SHT75/V2 dans Young ventilé méca, normes USCRN : 16.0°, 30.9° (Meilleure qualité, n'existe dans un réseau qu'aux US) WMR300 corrigée par étalonnage (-0.4° / SHT11 d'origine) 16.3°, 31.2° (Pt 1000 : 16.2°, 31.9°) Socrima (Pt 1000) : 16.1°, 31.7° (Valeur comparable réseau MF de qualité ) Stevenson (Pt 1000) : 16.0°, 32.0° (Valeur comparable au réseau MF de qualité) Classe 4 : Socrima (Pt 1000) : 16.0°, 34.3° (Valeur comparable à certaines stations MF mal placées) Cimel (Pt 1000) : 15.9°, 35.7° (Valeur comparable à certaines stations du réseau Cirame bas de gamme chez MF) (Le 6 juin ) Tx et Tn du nouveau jour le plus chaud de l'année. Site classe 2 : Mesure de référence, capteur SHT75/V2 dans Young ventilé méca, normes USCRN : 14.5°, 33.1° (Meilleure qualité, n'existe dans un réseau qu'aux US) WMR300 corrigée par étalonnage (-0.4° / SHT11 d'origine) 14.5°, 33.8° (Pt 1000 : 14.4°, 34.4°) Socrima (Pt 1000) : 14.5°, 34.1° (Valeur comparable réseau MF de qualité ) Stevenson (Pt 1000) : 14.0°, 34.4° (Valeur comparable au réseau MF de qualité) Classe 4 : Socrima (Pt 1000) : 14.2°, 34.9° (Valeur comparable à certaines stations MF mal placées) Cimel (Pt 1000) : 13.9°, 36.8° ! (Valeur comparable à certaines stations du réseau Cirame bas de gamme chez MF) (Le 5 juin ) Un peu plus chaud aujourd'hui. Tx et Tn du jour le plus chaud de l'année. Site classe 2 : Mesure de référence, capteur SHT75/V2 dans Young ventilé méca, normes USCRN : 12.8°, 31.7° (Meilleure qualité, n'existe dans un réseau qu'aux US) WMR300 corrigée par étalonnage (-0.4° / SHT11 d'origine) 12.8°, 31.9° (Pt 1000 : 12.7°, 32.6°) Socrima (Pt 1000) : 12.7°, 32.5° (Valeur comparable réseau MF de qualité ) Stevenson (Pt 1000) : 12.6°, 32.6° (Valeur comparable au réseau MF de qualité) Classe 4 : Socrima (Pt 1000) : 12.6°, 34.6° (Valeur comparable à certaines stations MF mal placées) Cimel (Pt 1000) : 12.5°, 35.9° (Valeur comparable à certaines stations du réseau Cirame bas de gamme chez MF) (Le 4 juin) Tx et Tn du jour le plus chaud de l'année. Premier jour de forte chaleur (>= 30°), pile sur la date moyenne le 4 juin, en site classe 2, alors que je relève 12 jours dans le Cimel en classe 4 et 7 jours dans le Socrima en classe 4. Site classe 2 : Mesure de référence, capteur SHT75/V2 dans Young ventilé méca, normes USCRN : 13.7°, 31.0° (Meilleure qualité, n'existe dans un réseau qu'aux US) WMR300 corrigée par étalonnage (-0.4° / SHT11 d'origine) 13.8°, 31.2° (Pt 1000 : 13.7°, 31.8°) Socrima (Pt 1000) : 13.7°, 31.5° (Valeur comparable réseau MF de qualité ) Stevenson (Pt 1000) : 13.5°, 31.7° (Valeur comparable au réseau MF de qualité) Classe 4 : Socrima (Pt 1000) : 13.5°, 33.2° (Valeur comparable à certaines stations MF mal placées) Cimel (Pt 1000) : 13.4°, 34.6° (Valeur comparable à certaines stations du réseau Cirame bas de gamme chez MF) (Le 6 mai) Jour le plus chaud de l'année, premier jour >= 30° en site classe 4 : Tx et Tn du jour Site classe 2 : Mesure de référence, capteur SHT75/V2 dans Young ventilé méca, normes USCRN : 12.3°, 27.7° (Meilleure qualité, n'existe dans un réseau qu'aux US) WMR300 corrigée par étalonnage (-0.4° / SHT11 d'origine) 12.4°, 28.0° (Pt 1000 : 12.2°, 28.2°) Socrima (Pt 1000) : 12.3°, 28.3° (Valeur comparable réseau MF de qualité ) Stevenson (Pt 1000) : 12.2°, 28.5° (Valeur comparable au réseau MF de qualité) Classe 4 : Socrima (Pt 1000) : 12.3°, 30.0° (Valeur comparable à certaines stations MF mal placées) Cimel (Pt 1000) : 12.2°, 31.5° (Valeur comparable à certaines stations du réseau Cirame bas de gamme chez MF)
-
Statistiques et anomalies climatiques nationales
ChristianP a répondu à un sujet de Aldébaran dans Evolution du climat
J'avais vu passer une étude il y a des années qui trouvait une diminution du vent de 10%, mais bon il n'y a pas les dernières années : http://www.enviro2b.com/2010/10/19/climat-les-vents-en-perte-de-vitesse/ Enfin localement ici, hors climato, le vent est le plus souvent réduit à 2 m du sol au fil du temps, car les arbres et les constructions poussent pas mal, même près des aéro comme Cuers ou Le Luc, plus dégagés auparavant. Ce n'est pas gagné de faire le tri entre climat et évolution de la rugosité et des obstacles, car la mesure du vent moyen mesuré à 10 m est beaucoup plus modifié par les obstacles et la rugosité que la T. Il est bien plus facile de trouver un site classe 1 et 2 en T qu'en vent ! -
Rien de nouveau par rapport à ce que j'ai indiqué auparavant, relire dans les msg précédents pour le vent. Vent d'WNW à NW encore très fort en fin de nuit, assez turbulent : 107 km/h à 17.5 m (Maximum Inc - NRG-41) 97 km/h à 16.4 m (Davis V1) 90 km/h à 16 m (Davis V2) 76 km/h à 15.5 m (WMR300) 78 km/h à 10 m (Ultimeter 800) 72 km/h à 3.4 m (Ultimeter 100) 64 km/h à 2 m (Monitor 2)
