Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

ChristianP

Adhérent Infoclimat
  • Compteur de contenus

    2904
  • Inscription

  • Dernière visite

  • Jours gagnés

    1

Tout ce qui a été posté par ChristianP

  1. CP3, surpris sur le Net dans certains blogs/forums, mais pas vraiment si tu relis le message de Cotissois plus haut avec la discrétion des médias. Pas de surprise depuis longtemps si tu regardes le modèle de Tamino ou même le simple modèle linéaire avec les IP même sans discriminer le bruit, car on a depuis assez longtemps une estimation de l'influence de l'ENSO selon les indices et autres, qui est donnée dans de nombreuses publications. Son modèle statistique "simple" et donc comme bien d'autres modèles qui estiment assez bien l'influence de l'ENSO, tous s'attendaient à voir la valeur autour de l'IP Sup avec un tel niveau de l'ENSO pour le RC donné. Personne ne pouvait penser voir 2016 inférieure à 2015 (sans un Nino plus vite faiblard ou sans une vraie Nina rapidement à l'oeuvre en 2016), ou pire inférieure à la valeur de la tendance centrale avec un Nino aussi puissant qu'en 98 avec du forçage en moins. On a un graphe sympa pour se balader sur les courbes et obtenir les différences quand on enlève le bruit estimé pour le modèle de Tamino et celui de la NASA. En supprimant ces bruits, on a un écart de 0.17°et 0.16° pour 2016 contre 0.22° et 0.21° en 98 et c'est bien une des raisons pour lesquelles on pouvait s'attendre à mieux pour la valeur de 2016 et à encore bien plus pour être logiquement surpris par 2016. https://www.carbonbrief.org/interactive-much-el-nino-affect-global-temperature En 98 avec les données de l'époque et la tendance donnée /30 ans (69-98), la valeur de 98 était quand même hors de l'IP, donc à ce moment là on s'attendait déjà qu'au prochain Nino aussi fort avec la même tendance plus faible en valeur centrale à l'époque, on se retrouverait près ou hors IP , plus au-dessus qu'en 98 avec le forçage anthropique en surplus, d'autant plus que les modèles de l'époque prévoyaient un RC plus important que l'AR4 et l'AR5 pour cette période. Le problème de la surprise pour certains, c'est que personne ne peut savoir quand un aussi bon Nino allait se produire après 98 et se reproduira après 2016 et que certains soient surpris que ça arrive dans 2 ans ou 20 ans, alors qu'on ne sait pas le prévoir, c'est ça qui est pour le moins surprenant. Une fois qu'il est là, on connait assez son influence sur la T, donc aucune surprise une fois l'intensité et la durée probable à venir avec le RC donné et les obs du passé. Je suis convaincu que certains seront plus anormalement surpris un jour si l'ENSO nous sort une Nina puissante tout aussi efficace pour placer la valeur sur /près de l'IP inférieur. Pourtant ce sera tout aussi normal, car cet IP inférieur tient aussi compte du RC sur le fond. On peut déjà prévoir l'agitation dans les médias bien plus importante que pour la valeur de 2016 à ce moment là. Pour moi si les projections à long terme sont optimales en valeur centrale, il ne sera pas surprenant avant l'accélération prévue autour de 2050 en valeur centrale des projections, qu'un rattrapage se produise bien avant, simplement pour recoller à la valeur centrale des projections plutôt qu'à la prévis décennale qui a revu la prévis à la baisse. Là aussi on ne pourra pas dire que les modèles à long terme ont sous-estimé, car on reviendrait simplement pile au centre en bruit neutre (à l'inverse d'actuellement en Nino costaud), mais simplement que la prévis décennale a des progrés à faire. Mais bon il ne sera pas surprenant non plus que les projections gardent un biais chaud ou finissent par en avoir un froid par rapport à la réalité, vu la complexité et le manque de mesures de paramètres pour alimenter au mieux les modèles.
  2. Désolé Yoann44 mais je n'ai pas pensé un seul instant que ça pouvait être insultant de ne pas savoir, vu que je ne sais pas grand chose sur bien des sujets et sur celui-ci aussi par rapport à bien des personnes scientifiques ou non. On n'a simplement pas la même perception. Je ne suis pas une pointure en français, ni en maths, je disais ça pour qu'en général les gens y compris les scientifiques pour leur communication déplorable, se préoccupent de la significativité des chiffres qu'ils comparent et non spécialement pour toi. Il y a bien des scientifiques pointus qui font ce genre d'erreurs, donc je ne vois pas comment j'aurais pu deviner que ça allait être une insulte pour toi.
  3. Et oui Yoann44, mais c'est très utile de respecter au moins les bases mathématiques élémentaires loin du niveau des matheux (calculer une simple moyenne climatique avec au moins 20 à 30 ans de données, c'est quand même accessible à la grande majorité des collégiens) et de chercher à connaître en lisant au moins ce qui se dit sur les chiffres que l'on cherche à analyser (là ce n'est pas des maths, mais du français/anglais), pour éviter de comparer ce qui n'est pas comparable et donc pour ne pas écrire et ni gober ce genre de trucs énormes par exemple : "Après 134 ans nous avions atteint 0,85°C et moins de deux ans après nous en sommes à 1,2°C. À ce rythme, on pourrait atteindre 1,5°C, une des limites fixées à la COP21 voici un an, en seulement 4 ou 5 ans." Un mois, une année à 1.2° ou autres, ne donne pas le niveau du réchauffement climatique qui est d'une autre échelle temporelle. Les 1.5° / 2°, s'entendent chez le GIEC pour des comparaisons d'une moyenne/20 ans au moins et non annuelle ou mensuelle. Par exemple, l'objectif à ne pas dépasser pour la moyenne 2081-2100 par rapport à la moyenne préindustrielle 1850-1900 de Hadley. On a par exemple la dernière bonne façon de comparer dans l'AR5 à partir de la série Hadley avec la prévis à court terme revue à la baisse par rapport aux projections de l'AR5, testable sur 2016-2035 : Pour les autres séries au départ plus tardif, c'est sur 1886-1905. Oui bizarrement, c'est la période indiquée dans un tableau dans les annexes en fin du rapport de l'AR5 pour GISS (et autre): "1986–2005 minus 1886–1905 +0.66°C " (0.61° pour Hadley/1850-1900) Avec les dernières données corrigées de GISS, le réchauffement entre ces deux moyennes est de +0.68°. Voilà on commence un peu à parler de réchauffement d'échelle climatique minimale (30 ans c'est mieux de l'avis de la majorité des spécialistes, car on sait qu'un plateau de 20 ans sans être significatif sur le fond est toujours assez probable pour la tendance donnée (deux moyennes/10 ans sans réchauffement significatif). Le signal sur le fond du réchauffement n'est pas encore assez puissant pour ressortir dans plus de 95% des cas du bruit habituel à cette échelle temporelle. 20 ans dans le GIEC ça doit-être une idée des physiciens qui l'a emportée à cause de leurs modèles pourtant inaptes à voir la fréquence aussi courante dans la réalité des paliers de 15 ans et plus pour la même tendance donnée. D'où le délire sur le faux hiatus sur le fond avec la faible proba de paliers de 15 ans et plus dans les modèles, mais pourtant pas dans la réalité.) Donc si on souhaite trouver l'évolution du climat depuis l'AR5 par ex, on doit comparer la moyenne au moins sur 1997-2016, notre dernier échantillon de climat aux normes GIEC à celle sur 1850-1900 pour cette série ou au moins sur 1880-1899 au minimum pour les autres ( Ce serait mieux sur 1880-1909 à cause de l'incertitude supplémentaire d'une moyenne sur 20 ans à cette époque avec peu de relevés et alors qu'ils sont moins précis) Mais bon là selon les normes GIEC avec les dernières données GISS on a un réchauffement climatique fin 2016 de 0.881° (1997-2016 / 1886-1905 ) donc encore bien loin du zoom bloqué de certains sur 1.2° ou 1.5° en valeur annuelle avec une méthode qui n'a pas la faveur des climatologues et du GIEC. Fin 2012 au moment du rapport , GISS affichait un réchauffement de 0.787° (1993-2012 / 1886-1905), donc le climat d'échelle climatique la plus minime qui soit pour faire vraiment plaisir à certains physiciens qui adorent se noyer dans le bruit, s'est réchauffé de 0.094° en 4 ans sur 2013-2016, et non de 0.35° en 2 ans (N'allez pas nous déduire une vitesse de réchauffement avec cette valeur sur 4 ans, car les IC sont monstrueux et donc la vitesse centrale trouvée ne veut rien dire pour l'avenir.) Si on part de la fin 2005, fin de la période de référence du GIEC pour une moyenne/20 ans dans l'AR5 qui est sur 1986-2005, la moyenne 2006-2016 (non climatique !), donc sur 11 ans s'est réchauffée de 0.263° (GISS), (pas comparable à une moyenne/20 ans, même avec les tests statistiques non paramètriques pour les petits échantillons différents, ce n'est pas recommandé avec moins de 20 échantillons). Donc en 9 ans pour obtenir les 0.2° effectifs par décennie donnés par l'AR4 pour cette période environ : Avec la tendance de fond actuelle de 0.181°/déc linéaire sur 70-2016 de GISS (vitaminée par 2016 et 2015), maintenue encore 9 ans, qui a pourtant une bonne proba d'être réduite un peu en valeur centrale car sans RC supplémentaire efficace pour le moment..... (Il est présent en théorie ce réchauffement supplémentaire avec le forçage supplémentaire depuis 98, mais il n'est pas encore pleinement efficace pour la T de l'air pour ne pas parvenir à faire mieux que 2016, car quand on enlève l'influence des bruits à court terme comme Tamino, on voit très clairement malgré ce record rare, que 2016 n'est pas hors catégorie pour la vitesse donnée, tout comme sans enlever les bruits, car cette valeur est conforme aussi avec les IP pour la tendance donnée en valeurs non "débruitées" de l'ENSO et autres. De plus comme tente de le cacher GS dans Real Climate avec une méthode de cueillette de cerises digne des négativistes, en se mettant à calculer du jour au lendemain la tendance à comparer que jusqu'à fin 97 au lieu de fin 98 correctement comme Tamino et tous les bons spécialistes, avec les corrections de données malheureusement pour lui, la tendance 70-98 est un peu plus forte que la tendance sur 70-2017 (0.184°/déc contre 0.181°/déc et ensuite il ose dire qu'on n'est pas loin de la significativité du changement de tendance en utilisant celle sur 70-97 , 0.171°/déc +-0.061° qui n'est clairement pas significativement différente de la suivante (98-2017 0.173°+-0.107°) ! ). 2016 avec un bon Nino comme en 98, appelle physiquement et statistiquement, 98 comme fin de la tendance à comparer à celle finissant fin 2016. La plus récente bonne tendance la plus probable sur le fond est celle sur 98-2016 avec un bon Nino pour débuter et finir cette tendance. J'ai choisi 0.181° /déc sur 70-2016 par excès et pour la précision de la tendance pour évaluer si on était en avance ou en retard sur les prévis. 2016 est simplement une valeur rare pour ce réchauffement donné et certaines valeurs suivantes avec Nina, un minimum solaire, devraient se retrouver sous la ligne centrale et donc la rapprocher des 0.173° tant que le réchauffement ne devient pas plus efficace sur le fond que sur 1998-2016) .....ça nous donnerait donc 0.187°/déc effectifs de réchauffement sur 2006-2025, toujours en dessous de la valeur centrale de 0.2° prévue. La prévis sera considérée comme bonne avec les IC des chiffres à comparer qui se croisent comme depuis longtemps, mais en aucun cas on ne peut dire à ce jour que les modèles ont sous-estimé et qu'il y a un emballement, un indice de réchauffement plus fort de la T de l'air sur le fond. Pour le moment les modèles sont encore au-dessus, mais il est clair que ça peut basculer n'importe quand, avant 2050 comme après (c'est le problème des modèles de ne pas être assez bon pour le timing, comme pour voir l'ENSO aux bons moments, aussi bien en fréquence qu'en intensité. On sait qu'il devrait y avoir une accélération, mais quand précisément ? Le plus probable en l'état actuel des modèles, c'est vers 2050 avec un IC assez large) On peut commencer à tester des prévis sur 2011-2030 de l'AR4 qui prévoyait plus que l'AR5 sur 2016-2035 [ 0.3° ; 0.7 °]/1986-2005 pour les prévisions à court terme revue à la baise par rapport aux projections de l'AR 5 Valeurs centrales du réchauffement prévu de la moyenne/20 ans 2016-2035 / 1986-2005 : RCP 6.0 : 0.455° et RCP 8.5 : 0.515° (dont 0.36° et 0.37° de la moyenne 2016-2025, mais pas d'une échelle testable à cause du bruit, vu que 20 ans c'est déja plus que limite) Celle de l'AR4 sur 2011-2030 est en partie testable: Donc il faut encore recaler pour rendre comparable les chiffres, car ils aiment compliquer en changeant sans cesse les périodes de référence. Pour la prévis de 0.69°/1980-1999, ça fait +1.40°/ 1886-1905 moyenne préindustrielle de GISS (Bon on peut très bien rajouter probablement quelques centièmes par rapport à la prévis faite pour Hadley, mais pas certain) Sur 2011-2016 (Attention moyenne d'échelle non climatique, donc pas indicatif du RC !) on a +0.996°/1886-1905. Donc si la tendance de fond est toujours de 0.181°/déc, ça nous donnerait une hausse de la moyenne 2011-2030/1886-1905 de 1.31° pour 1.40° prévus. Prévision correcte, mais toujours en dessous de la valeur centrale. Il faudra attendre pour tester l'AR5, car les prévis débutent pour la moyenne 2016-2035. Mais bon à vu d'oeil comme elles ont été revues à la baisse sur la période, ça part dans les clous au moins pour cette année (la première année en Nino est logiquement dans le haut de la fourchette des prévisions à court-terme, mais ne se retrouve qu'au centre des projections pour la même période, des projections probablement plus robustes sur l'évolution du climat que ces prévisions décennales débutantes) Donc les modèles ne sous-estiment pas du tout pour le moment, il n'y a rien d'anormal avec 2016. J'ai l'impression de relire les mêmes raisonnements que pour le faux hiatus. Que les modèles planent pour voir venir un plateau interne ou cette accélération interne sans que ça change quoi que ce soit au RC, c'est certain et c'est bien pour cette raison qu'il faut s'en tenir aux grandes moyennes et encore plus aux grandes tendances plus incertaines à cause du modèle linéaire. Donc revenons sérieusement à ce que savent assez bien faire les physiciens quand ils sortent la tête du bruit de leur modèle, prévoir le changement sur cette échelle efficace pour le moment : Dans l'AR4 : Donc avec une année 2016 si influencée par l'ENSO, on ne fait pas grand chose, c'est le fond qui fait tout au final pour une moyenne climatique et donc l'ensemble des anomalies sur une période assez grande pipées par le RC de fond. Les 0.85° de réchauffement climatique donné dans l'AR5 : C'est celui moins fiable que par les moyennes sur 20 ans (car il y a l'incertitude supplémentaire du modèle linéaire qui est trop dépendant de l'ordre des anomalies) à partir de la tendance linéaire générale aussi différente de l'échelle de la T. Il vient d'un réchauffement en tendance linéaire sur 1880-2012 pour Hadley, donc pour savoir de combien s'est réchauffé le climat depuis 2012, il faut calculer la tendance sur 1880-2016 et celle de 1880-2012 si la série concernée est différente et pour les corrections depuis. Pour GISS, c'est 0.89° de réchauffement sur 1880-2012 et c'est 0.98° de réchauffement en tendance linéaire sur 1880-2016, une façon de gratter 0.1° avec le modèle linéaire (0.881° c'est le niveau du réchauffement effectif avec les moyennes/20 ans aux normes GIEC correspondant aux 1.5°/2° à ne pas dépasser). Les scientifiques ne sont donc pas stupéfaits par 2016 en dehors de ceux qui restent la tête dans le bruit et en dehors de ceux réchauffistes qui tordent les stats pour faire croire que ça se réchauffe anormalement/plus vite avec 2016, comme les négativistes le font pour masquer le réchauffement de fond bien réel et sans faille en moyenne depuis 1970.
  4. Non il n'y a as pas eu de nouveau palier, de gros coups de réchauffement étonnant en 98 pas plus qu'actuellement probablement vu que 2016 est cohérente comme 98 avec l'ENSO et non pas avec un surplus de vitesse de RC sur le fond. Le seul nouveau palier de réchauffement débute en 70 et chaque année il progresse en moyenne comme indiqué par la tendance centrale de plus en plus connue au fil des échantillons (années) et de la meilleure connaissance/précision de la T globale. C'est un simple pic de bruit de l'ENSO plus puissant, autour de la tendance de fond au réchauffement inchangée en moyenne, qui a joué essentiellement, ( https://tamino.wordpress.com/2016/12/05/how-much-from-el-nino/ , c'est même assez diabolique que 2014 se retrouve pratiquement pile sur la tendance centrale calculée fin 98 avec l'influence déterminée quasi nulle de 0.01° de l'ENSO. On ne peut guère faire mieux comme signe qu'il n'y a très probablement pas de changement sur le fond du RC) et c'est la résultante, le signal du bruit changeant surtout avec l'ENSO + réchauffement de fond progressant à la même vitesse en moyenne, donc ce qui est visuel qui a changé, qui ne correspondait tout simplement plus au fond, comme on le voit avec le plateau interne du Loess auto qui suit le signal ( bruit+ réchauffement) de mes graphes et qui passe sous la tendance centrale avant de remonter fortement jusqu'à la valeur de 2016 et qui devient différent visuellement du fond pour la même raison. Il faut bien voir que la pente ascendante finale du Loess auto est la même qu'en 98 quand on le calcule sans utiliser les anomalies après 98 comme actuellement pour 2016, on ne connaît pas celles des années suivantes. L'IC est plus large au bout d'un tel lissage du fait qu'on n'a pas les obs suivantes qui finaliseront la courbe comme ce fut le cas en 98 où il ne reste plus grand chose de la forte hausse pourtant identique en 98 (et oui c'est la trace du bruit donné à l'instant t, c'est dans cette trace ponctuelle qu'il faut éviter de se perdre, comme se sont perdus ceux dans le faux hiatus précédent). L'oeil de tout le monde possède plus ou moins un biais pour ne remarquer que les pics ponctuels et les lire de façon opposée. Ton oeil est biaisé côté chaud, comme d'autres côté froid. En 2008, fin du RC ou refroidissement climatique pour certains, même quelques scientifiques se sont aussi noyés par le bruit, mais surtout par leurs idées reçues en refusant les résultats ou d'utiliser les outils dont ils disposent, pour le vérifier objectivement. Ton problème visuel est résumé par ces graphes et liens. Chaque oeil biaisé verra un pic de façon différente d'une personne à l'autre s'il n'utilise pas les méthodes valides pour lire les données et replacer les creux et les pics dans le contexte du fond : https://tamino.wordpress.com/2016/12/07/climate-deniers-top-3-tactics/ http://villemin.gerard.free.fr/Humour/Illusion.htm (A l'oeil les chiffres et les courbes, les droites ne sont pas toujours suffisantes et on n'a pas la même vision selon les personnes) On verra par la suite que sans un vrai changement (sans des valeurs annuelles chaudes incohérentes avec le bruit classique (ex : se retrouver près et hors de l'IP sup alors qu'on a une situation de bruit négatif ou même neutre type 2014), mais collant mieux avec le surplus de forçage anthropique et donc avec les projections de l' évolution des moyennes sur 20 ans, les seules d'une échelle scientifiquement crédibles et un minimum réellement testable pour le suivi du réchauffement du climat pour la T de l'air), les valeurs seront conformes à la tendance centrale + bruit, ce qui n'est pas optimal, vu qu'il y a toujours du retard en valeur centrale moyenne/20 ans par rapport aux projections. Ce n'est pas optimal qu'avec ce Nino + blob + forçage en plus, on se retrouve qu'au milieu des projections On devrait être dans la partie haute des projections comme on le voit en 98. Il a donc fallu des conditions de bruits favorables pour simplement sortir de la fourchette basse dans laquelle on était, Ce n'est donc qu'un rattrapage ponctuel et insuffisant par rapport à la prédiction centrale d'une moyenne sur 20 ans, pour le moment. Mais bon on colle à la fourchette haute des prévis expérimentales à plus court terme à partir des obs, qui avaient été revues à la baisse, ) Une année record même hors IP comme 98 à l'époque, ne suffit pas à bouger assez la tendance pour indiquer que c'est un palier de réchauffement sur le fond en surplus de la tendance au réchauffement déjà présente. Il n'y a pas de réchauffement par paliers comme on le voit bien avec la courbe Loess auto qui s'ajuste le mieux aux variations du bruit en analysant les variances. Le lissage déterminé automatiquement est de 7 ans, c'est à dire qu'en fait le Loess est la résultante des différences de moyennes sur 3.5 ans en plus de tendances linéaires sur 7 ans faites donc de 2 sous-suites de 3.5 ans, une durée qui comme par hasard correspond assez bien aux 3.7 ans de moyenne de l'ENSO http://www.cnrs.fr/cw/dossiers/dosclim1/rechfran/4theme/variaclima/evenemenso.html , ce qui colle aussi avec le fait que l'ENSO est le pilote essentiel du signal principal du bruit interne à court-terme autour du signal de fond du réchauffement, malgré les autres bricoles qui agissent aussi dans le bruit à court-terme dans une bien moindre mesure hors volcans monstrueux et autres catastrophes (A voir qu'est ce qui physiquement pilote le plus l'ENSO et à le prévoir) Comme 98 en 98, 2016 est simplement une valeur en avance pour son temps pour la tendance donnée au RC, ceci à cause de l'ENSO et qui pour la même tendance linéaire sur le fond (ce ne serait pas normal physiquement qu'elle le reste indéfiniment même en moyenne, vu que les modèles indiquent une accélération en général pour autour de 2050) avait le plus de proba d'être observée en 2027 (là en 2016, 2.6% de proba environ, donc 2.6 fois en moyenne en 100 ans d'être si près de l'IP avec toujours le même réchauffement sur le fond) l'IP autour de la tendance centrale est de l'ordre de l'influence des plus forts indices de l'ENSO, donc c'est parfaitement conforme et ça n'indique aucun bon particulier par étapes du réchauffement. C'est ce qui génère visuellement un palier de record prévisible et non un palier de réchauffement plus intense, plus rapide ou à un niveau supérieur au delà de ce que nous indique la tendance. Le palier supérieur du réchauffement est présent chaque année et donné par la tendance centrale de 0.181°à +-0.028° près et encore, sans tenir compte de bruits de plus longues périodes que depuis 70. On sait que l'évolution du réchauffement n'est pas linéaire à chaque instant, mais en moyenne elle l'est sur une période donnée et c'est justement quand elle ne l'est plus par rapport à l'actuelle d'après les outils statistiques nécessaires, qu'on peut détecter qu'il y a probablement ou pas un nouveau palier de réchauffement supérieur, tant que la physique ne permet pas de prévoir assez bien à l'avance, les bruits internes, les diverses rétroactions, les forçages, les "pollutions" humaines, pour prévoir plus précisément à l'avance le nouveau palier de réchauffement supérieur. On a un nouveau palier de record, car il est rare à cause de l'ENSO donné avec la même tendance au RC. La durée la plus probable du prochain palier est donnée par la projection de la valeur sur la tendance centrale. Pour moins de 0.1° rien de plus normal de devoir attendre après 2027 et après 2032 pour l'améliorer de plus de 0.1°. En cas de Nino puissant avant, rien de plus normal qu'il soit battu bien avant sans que ça change sur le fond. Comme avant ce sera l'ensemble des anomalies qui finira par nous dire qu'il y a un changement ou pas probable, mais là il n'y a vraiment aucun indice qui rend un changement probable, un niveau supérieur de réchauffement autre que celui donné par la tendance de fond (le plus probable c'est autour de 2050, mais ça peut-être bien avant comme après, comme dans certains runs/ modèles)
  5. C'est le problème de faire ces comparaisons de moyennes au niveau du collège. Il n'y a même pas de différence significative entre tes moyennes sur 5 ans. Pour la 2 ème moyenne R est obligé de descendre au niveau de significativité à 90% pour sortir un IC de la moyenne avec le test de Wilcox/Mann-Whitney pourtant plus fait pour des échantillons trop petits pour un test de Student. Là avec des moyennes de 5 échantillons, c'est chercher à se noyer dans le bruit. Toutes déductions à partir de tes chiffres n'ont donc aucun sens autre que pour analyser le bruit et non pour y voir une accélération particulière, un nouveau palier. Ce n'est qu'un palier de record annuel, donc par définition, c'est du bruit. Les comparaisons de tendances que tout le monde peut aussi réaliser correctement dans le calculateur SKS en tenant compte de l'auto-corrélation au pas mensuel, ne montrent aucun changement significatif entre les tendances et même avant qu'elles en soient capables, il n' y a pas l'once d'un signe d'accélération significative même d'échelle non climatique, sans des valeurs hors IP d'autant plus qu'ils sont de moins en moins larges au fil du temps avec plus de données dans la tendance que depuis 98. Je trouve que c'est même plutôt signe qu'il manque quelque chose pour que malgré un blob et un forçage anthropique supplémentaire non négligeable de 18 ans, en plus d'un Nino aussi puissant, la valeur ne sorte pas nettement de l'IP. Ces dernières années ne sont qu'un rattrapage du palier interne précédent, du faux hiatus. L'accélération est aussi insignifiante et donc aussi fausse pour le fond que le hiatus visible à l'oeil qui ne peut estimer le fond de façon assez probable. En 2014 le point de 2014 était confondu avec la tendance tirée depuis 98, donc rien de plus conforme en 2014, 2015 aussi, 2016 est à la limite. Il fallait bien que la variabilité naturelle compense un jour ou l'autre des points sous la tendance de fond depuis fin 98, comme 2008, 2011, 2012, 2013. On voit bien aussi qu'en retirant les principaux responsables des bruits à court terme, ce n'est qu'un rattrapage du retard, mais pas d'envolée particulière. On remarquera que les séries qui interpolent le plus la T aux pôles (c'est Berkeley qui les traite le plus) montent le plus en 2016 à l'inverse de la NOAA et Hadley : "As for the variability in warming rates (whether statistically meaningful or not), do we really need to invoke multi-decadal variability to explain it? We can take each data set and remove an estimate of variability caused by much more short-term factors, namely el Niño, volcanic eruptions, and solar variations (using a method like that from Foster & Rahmstorf). The data corrected for short-term fluctuation factors look like this : Là aussi c'est conforme avec les forçages, bien au centre : http://globalwarmingindex.org/ http://globalwarmingindex.org/AWI/info_page.html
  6. Tn la plus froide de la période et depuis le 13 février 2012 (-8.3° ce jour-là dans le Stevenson). En classe 2 : Abri Stevenson, MF -6.8°, SHT75 -6.8°, Pt 1000 -6.7° Abri Socrima Pt 1000 : -6.4° Abri Vue 10c Pt 1000 dans le champ à 215 m et 20 m plus bas : -8.7° Abri méca Davis SHT31 : -6.2° Abri méca Davis ventilo coupé SHT31 : -6.4° Mesure de référence Young méca SHT75 normes USCRN : -6.1° En classe 5 : Abri 7714 pt 1000 sur le toit : -6.2° Abri 7714 thermistance nue V1 à 10 m sur le mât d'anémo : -5.3° A noter que les Tx sont repassées hier au-dessus des normales pour janvier ici et au Luc. Aucun jour de vague de froid pour le moment car il manque encore deux jours sous les seuils concernés pour parler de VDF en centre-Var. Pour le moment on doit se rabattre sur les indices de "jour et/ou nuit anormalement/relativement froids" avec des seuils différents. Pour le Luc (MF) en janvier pour le moment, on ne relève aucune Tx " Jour anormalement/relativement froid" et 4 Tn "nuits anormalement et relativement froides".
  7. Salut ! Pour afficher cette valeur à 427 m d'altitude à Rocbaron ces jours-ci dans ton coin pentu, il faudrait que ton terrain soit plat sur certaine étendue avec des haies assez hautes qui bloquent l'air, ou dans un creux relatif et/ou situé au Nord d'obstacles, reliefs qui portent des ombres permanentes sur tout le sol la journée et que le site ne soit pas venté dans cette situation. Le -8° de ton voisin est cohérent d'autant plus s'il habite en bas sur une partie plane dans la plaine froide au pied de tes massifs producteurs de froid, mais sans détails précis sur le matériel, l'installation, le site, on ne peut pas savoir, car c'est facile de capter d'entrée -5° d'erreur en Tn avec un thermo boîtier hermétique ou massif en plein air avec des Td si bas. La T du ciel dans l'IR est bien plus froide (30 à 40° plus froide que la T de l'air contre 20° avec de l'air normalement humide) et permet aux matières et au sol de rayonner bien plus et donc à leur T de baisser sans assez de rapport avec la T de l'air, car ils tendent vers l'équilibre par rapport à la T équivalente du ciel. On veut mesurer la Tn de l'air seul hors rayonnements parasites. Ici tu peux voir l'écart avec un air normalement humide entre la sonde externe Hobo dans l'abri 7714 et la sonde interne du boitier Hobo blanc, hermétique en plein air : Si tu n'as pas d'abri et un thermo trop hermétique ou massif, même pour les Tn d'autant plus dans ces Td, il vaut mieux un abri à coupelles en plastique de dessous de pot de fleur (Explications détaillées à chercher dans le forum instrumentation). J'ai regardé sur la carte IGN de géoportail, je ne vois pas où ta station pourrait se situer à cette altitude pour chiffrer, car je ne vois pas de stagnation de l'air dans ces pentes sans les détails des obstacles d'échelle plus fine bloquant l'air. Il faudrait que tu nous pointes la position exacte de ta station sur la carte IGN ( https://www.geoportail.gouv.fr/carte ) afin qu'on regarde de près divers profils altimétriques autour de ton point. Quelle station, abri et thermo utilises-tu ? Si tu as des photos du site et de l'installation. Merci. Je vois bien le secteur, j'y faisais du VTT quand j'habitais à Cuers. C'est un secteur abrité de l'air maritime, bien froid pour les Tx l'hiver sur et près de certains versants avec pas mal d'ombres portées le jour. Pour les Tn ça dépendra vraiment du terrain concerné et des obstacles sur ces pentes. La plaine au pied de tes massifs est plus froide en T nocturne radiative que celle de Besse (Hier proche de -7° dans les points plus bas et plus abrités que le champ à 220 m, où j'ai fait des essais normalisés par le passé), j'y suis passé plusieurs fois avec une station mobile normalisée. -3.3° dans le Stevenson et -2.9° dans le Socrima (erreur supplémentaire du Stevenson qui rayonne plus que le Socrima qui lui même génère une erreur radiative par rapport à la vraie Tn de l'air seul) à Besse à l'arrache avec une coupure du vent et la fin de passages nuageux, car il n'a pas gelé pendant une bonne partie de la nuit avec des nuages et/ou du vent.
  8. Il est très courant avec le froid dynamique, que je récolte du Mistral résiduel pendant que les stations autour qui se retrouvent au calme (même au Castellet sur le haut plateau dégagé et plus à l'W , Entrecasteaux sur un sommet de colline !), plongent. Donc c'est classique et ça n’empêche pas les vagues de froid objectives pour ma station. Ce qui n'était pas normal cette nuit, c'est la direction du vent, comme la vraie brise de mer d'été soutenue l'AM. En 2012 j'ai relevé des Tn plus froides avec du vent plus fort pendant que des stations étaient plus au calme, de plus les Tx n'ont pas ce problème de calme/vent et indiquent la même chose pour mon point. Je ne suis pas dans une vague de froid même si j'utilisais le critère international élaboré sur les Tn pour définir les jours de vague de froid, pour les Tx. Le Luc ou Draguignan n'y sont pas plus pour le moment sans 6 jours consécutifs à des seuils journaliers. Ce sont des "nuits froides" pour l'instant, probablement pas de "jour froid " (Tx) . Il faudrait d'ailleurs que les météo/climatologues nationaux et donc les médias, les amateurs de bonnes données, harmonisent leurs définitions pour coller au langage international déjà défini et donné par exemple ici. Nombre de jours de vague de froid : Tn inférieure de 5 °C pendant au moins 6 jours (plus de 5 jours) à la moyenne quotidienne calculée sur une fenêtre glissante de 5 jours sur la période de 30 ans de référence. Exposé par exemple ici : http://documents.irevues.inist.fr/bitstream/handle/2042/20099/meteo_2006_54_33.pdf?sequence=1 et là http://www.drias-climat.fr/accompagnement/section/181 Ce n'est pas encore gagné même au Luc de récolter au moins 6 jours consécutifs de Tn à moins d'environ -3° pour cette station (le seuil varie chaque jour. Par ex aujourd'hui le seuil est à -2.9 et demain à -3.1), pour commencer à parler d'une vague de froid. Sans 6 jours consécutifs, il faudra ensuite se rabattre sur "les jours/ nuits froids" (seuil plus haut, avec par ex au plus -4.3°pour aujourd'hui pour les Tn et en dessous de 7.6° en Tx au Luc, il a dû faire plus chaud qu'ici avec 8.2° donc c'est probablement plié pour la Tx) qui ne sont pas des jours de vague de froid. Une vague de froid dure au moins 6 jours dans une station donnée, sinon ce n'est pas une vague de froid pour les climatologues internationaux. (C'est toujours pareil, il y a des scientifiques qui bossent à l'échelle internationale pour harmoniser les indices afin de parler le même langage dans le monde entier et d'autres seuls dans leur petit pays qui les ignorent et sont toujours là pour pondre des trucs incomparables et pas plus efficaces. Enfin même dans un pays donné on a déjà vu il y a très longtemps, un météorologue de MF pondre dans son coin son propre seuil dans une étude sur les jours de soleils avec un jour ensoleillé le seuil à 20% pour le comparer à notre région et montrer que son coin était aussi ensoleillé, et oui il était en Bretagne ! De plus il ne faut pas confondre l'indice national global de MF avec l'indice pour une station donnée. Ce n'est pas parce qu'il y a une vague de froid à une échelle donnée qu'elle existe pour l'endroit donné à l'intérieur de cette échelle. Il vaut mieux le calculer objectivement pour chaque station.)
  9. Tn pas très froide à Besse sur mon plateau pour la masse d'air donnée, à cause d'un vent de SW à W soutenu. En classe 2 : Abri Stevenson, MF -3.8°, SHT75 -3.8°, Pt 1000 -3.6° Abri Socrima Pt 1000 -3.4° Abri Vue Pt 1000 dans le champ à 215 m et 20 m plus bas : -5.4° Abri méca Davis SHT31 : -3.3° Abri méca Davis ventilo coupé SHT31 : -3.1° (C'est dans ce cas de vent que l'abri méca capte des Tn un peu plus basses, par manque de réactivité de l'abri sans ventilo) Mesure de référence Young méca SHT75 normes USCRN : -3.0° (-3.7° en pointe instantanée sur 10 s non représentative pour la météo et climato avec cette sonde rapide dans cet abri) En classe 5 : Abri 7714 Pt 1000 sur le toit : -3.1° Abri 7714 thermistance nue V1 à 10 m sur le mât d'anémo : -2.1° Une vague de froid assez comique ici qui ne parvient même pas à produire encore une seule Tn inférieure à -5° à la station alors qu'il y a des années cette valeur était si souvent observée même sans vague de froid. Selon les normes et définition de l'OMM ce n'est pas du tout une vague de froid pour ici (pourtant adaptées aux normales de la station donnée). A titre de comparaison, en février 2012 on avait relevé à la station, -10.9° avec 10 Tn consécutives inférieures à -5° dont certaines avec du vent et 16 valeurs sont plus basses que la plus froide de cette période fraîche. Mdr. Même en Tx plus parlantes car sans inversions, pour le moment 7.8° hier le mini de Tx de cette non vague de froid pour ma station (8.2° aujourd'hui) pour l'abri Stevenson à la plus longue série homogène, est plus élevé que 12 Tx de la vague de froid de février 2012.
  10. Même si tu utilisais un modèle parfait et homologué avec le bon papier, ce n'est plus qu'un objet de déco depuis que l'électronique est passée par là. Il est inutile pour la mesure de la DI surtout journalière ! Depuis très longtemps on sait que cette boule est connue pour ne pas mesurer la DI assez correctement et même pas du tout selon les cas comme sur ta feuille avec des passages nuageux. C'était noté dans la bible de l'instrumentation de l'OMM, le Cimo guide de 1983 : " Il ne mesure pas la durée d'insolation" (Source MF, note technique sur la détermination de la DI à partir d'un pyrano). On ne peut pas faire plus clair ! Immédiatement après l'installation en 1881 en France, les critiques apparaissent. Dans les annuaires de la SMF de 1889, 1904, 1910, de très grandes incertitudes sont rapportées, un appareil qui reste un peu grossier par rapport aux instruments habituels de la météo (MF). C'est pour dire à l'époque, alors maintenant, n'en parlons pas ! Donc ça se voyait déjà à l'oeil sans électronique, tellement les erreurs journalières peuvent être énormes justement quand il y a des passages nuageux, des voiles, de l'humidité, de la brume/brouillard,du trouble, différents, qui laissent quand même brûler le papier normalisé alors que le direct est insuffisant. De 62 à 82 il a été l'instrument de référence OMM faute de mieux, car c'est une mesure très difficile (MF), mais bien moins depuis l'arrivée de l'électronique. Même plus besoin d'un héliographe électronique Cimel très cher qui tombe bien plus souvent en panne qu'un pyrano et beaucoup plus cher qu'un pyrano haut de gamme (lui même plus cher qu'une station Davis complète avec pyrano) ni d'un pyrhéliomètre coûteux. On détermine la DI à partir des données d'un pyrano sur 1 mn (et donc du Davis ou d'autres stations moins chères équipées d'un pyrano assez correct) et du travail remarquable de MF à Carpentras qui a élaboré la méthode maintenant validée par l'OMM.
  11. Correction de RSS V4 : https://twitter.com/hausfath/status/817098622101635072 https://twitter.com/hausfath/status/817176148324909056
  12. Salut Sébastien Oui ici ça arrivait parfois l'été de galérer jusqu'à ce que je comprenne qu'il faut éviter le rayonnement solaire direct ou indirect trop puissant qui perturbe la transmission optique ( avec le rayonnement sur la neige, ça doit jouer) Augmente fortement l'ombrage porté sur le datalogger et surtout sur le côté connecteur optique (à nettoyer). Un mauvais alignement peut jouer. Si rien ne change, essaie de vidanger sur Dropbox par l'application gratuite COMET pour smartphone (il faut un adaptateur pour le connecteur USB /optique d'origine) Mettre à jour ou réinstaller le driver (C'est arrivé sur un ordi à cause de lui). Sinon change le cordon d'origine. Maintenant plus de galère hors très très rare problème d'alignement (trop en biais, pas assez enfoncé par manque d'attention), réglé en une fois.
  13. Et oui, il ne faut pas se fier aux apparences avec une telle série NCEP anormale, surnaturelle par rapport aux autres. Il n'y a pas de différence significative entre la tendance faiblarde sur 69-98 (Réchauffement significatif de 0.111°/déc) visuellement moins pentue que dans les autres séries et celle visuellement plus forte sur 98-2016 (Réchauffement significatif d'un bon Nino à un autre bon Nino, de 0.231°/déc, mais il aurait fallu plus de 0.238°/déc de différence entre les tendances centrales et donc une pente d'au moins 0.349°/déc sur 98-2016 pour NCEP pour y voir un réchauffement probablement plus fort sur le fond). Il est probable qu'il y ait un problème ou une rupture d'homogénéité quelque part pour que NCEP se comporte de façon si différente entre avant 98 et après par rapport aux autres séries. Si certains ont vu passer des explications sur ces différences de comportement, merci ! On peut voir que 2016 se retrouve comme une valeur aberrante très loin hors de l'IP de la tendance 69-98 projetée fin 98, mais plus du tout anormale sur l'IP de la tendance sur 69-2016 sensiblement identique aux autres séries et donc aussi de l'IP sur 69-98 des autres séries. Voir par exemple le graphe pour la série NOAA d'un message précédent : où la tendance sur 69-2016 est presque confondue avec celle sur 69-98 (équivalente à celle sur 69-2016 de NCEP), à l'inverse de NCEP et donc la valeur de 2016 de NCEP est si loin de l'IP de la pente anormalement faible sur 69-98 dans NCEP. Cette série NCEP contient plus de bruit et plus d’auto-corrélation que GISS (coeff de 3.73 contre 3.13 sur 69-2016 calculé à la mode Tamino/Grant Foster and co), la moins bruitée et la plus propre de mon point de vue statistique. L'IP pour une valeur annuelle NCEP est +- 0.1° plus large que pour une valeur de GISS ! C'est à dire que sans tenir compte de l'ENSO, et autres, juste des stats, l'anomalie sera prévue avec une incertitude de +-0.28° contre +-0.17° dans GISS. En tenant compte de l'ENSO, des volcans et du soleil, Tamino avec son modèle statistique, ramène l'incertitude de la prédiction d'une anomalie annuelle à +-0.07° sur GISS. Il vaut mieux effectuer des prévis d'anomalies à partir de la série GISS que NCEP qui complique largement le boulot (Hadley bien plus cohérente que la série NCEP est plus bruitée (avec plus d'incertitude pour la couverture de la planète) et plus auto-corrélée que GISS ) !
  14. Même avis, première photo et pas d'abri ventilé méca avec cet environnement sombre. Non Adri, ne pas confondre avec la classification pour le vent, ou avec les hauteurs pour la T qui ne sont là que pour les ombres portées sources de refroidissement et pour les distances des matériaux verticaux sources de chaleur par leur nature s'ils ne portent pas d'ombres, mais pas pour leur rapport avec la ventilation naturelle qu'ils réduisent. Malheureusement MF ne tient pas compte de la réduction de la ventilation naturelle et du cloisonnement pour la T sur un site dès que c'est de la végétation (naturelle ou non) ou une pente, trop proches. C'est une des failles majeures de leur classification, assez incroyable vu que Michel Leroy parlait très bien de la réduction de la ventilation naturelle par les obstacles et la rugosité d'une végétation courte (> 25 cm) trop haute, qu'il jugeait comme étant une des principales sources d'erreur. Tu ne trouveras pasdans la base de données, une classe 4 au motif de surchauffe à cause de végétation, haies végétales artificielles ou naturelles trop hautes, trop proches, mais uniquement pour ombres portées (qui refroidissent les T diurnes avec du soleil et sont une des plus grosses sources d'erreur de Tx quand elles concernent ces horaires l'hiver, bien plus qu'un cloisonnement pour celles surchauffant l'été) 4 fois la hauteur c'est donné depuis longtemps dans bien des pays et même par l'agence de l'environnement US, c'est aussi dans la notice des abris MF, comme le Stevenson par exemple : https://www.campbellsci.com/weather-station-siting Il y avait aussi la norme de 2 fois la hauteur pour la T, une norme minimale pour les postes climato de base. J'avais diffusé ces différentes normes il y a très longtemps dans un des forums. J'avais d'ailleurs effectué des essais par rapport à ces normes. Ce qu'il en ressort en synthèse selon aussi les essais des pro, c'est que sans un minimum de distance de dégagement dans l'absolu (donc en distance pure et pas que sur 3° ou x fois la hauteur) pas de végétation > 25 cm sur une surface ou largeur d'angle trop importante dans le rayon de 20-30 m, le rapport de distance et hauteur même de 3° de l'OMM pour les ombres portées n'est pas suffisant (d'autant plus que MF ne tient pas compte dans les faits pour viser du pied de l'abri, mais de l'abri lui-même. L'important n'est pas l'ombre sur l'abri, mais celle significative sur le sol sous et autour de l'abri). Un champ avec des végétaux de 1.5 m de haut laisse tout l'horizon visible, alors qu'il surchauffe nettement les Tx estivales par beau temps d'un parc d'un rayon de 10 m insuffisant. Le sol + végétation dans le rayon concerné pour éviter les erreurs, ne se retrouve pas à 1.25 m sous le niveau de l'abri mais bien plus haut. Créer des cuvettes artificielles avec un sol abrité donc anormalement surchauffé et une T de surface de végétation plus haute que l'air l'été à niveau d'abri et réduisant la ventilation naturelle, ce n'est vraiment pas top. En Hollande, le KNMI préconise de tondre 28 fois la végétation courte pendant la saison de croissance moins productive qu'ici, c'est un autre monde que chez MF dont bien des sites classe 1, 2 sont de classe 4 dans les faits à cause du manque d'entretien de la végétation courte dans les rayons réellement associés à la classe pour surchauffe sans ce problème ! Les spécialistes devraient relire attentivement les comparaisons de très haut niveau effectuées à De Bilt qui montrent comme des dégagements qui font rêver les amateurs et classe 1 chez MF qui ne s'occupe que des ombres portées et sources artificielles de chaleur, sont insuffisants avec une végétation courte trop haute et trop proche. Pas étonnant de voir des chez MF comme une station comme Montclus classée 2 avec le carnage si proche autour de l'abri dans certaines directions et Le Luc rétrogradée classe 4 à cause de la minuscule ombre portée sans influence du pilier de l'ancienne mesure de DI.
  15. Meilleurs voeux à tous ! Oui Cédric, avec le Cimel c'est mieux (Le noir pour les Tx, ne pas peindre le plafond (et le fond interne pour d'autres abris) en noir ça accentue un peu le biais froid des Tn radiatives, mais utile dans un 7714 par ex pour compenser en partie les Tn trop chaudes des installations de l'abri sur un toit ou trop haut par rapport aux normes). L'important c'est surtout que tu utilises le même matériel identique dans l'IR et la circulation d'air pour comparer tes écarts en Tn d'un point à l'autre malgré l'écart éventuel avec une station MF mais que tu sauras être identique après comparaisons comme à Montclus. Des troncs et des feuillages variables, sont trop compliqués pour savoir s'ils renvoient les mêmes biais par rapport à une station MF et donc entre tes différents points de mesures. Oui des doubles coupelles de 40 cm en haut et en bas dessous c'est utile pour porter une ombre sur tout l'abri et éviter des effets de sol, mais qu'à certaines saisons avec le soleil assez haut au moment des Tx, pas évident dans certains coins où elles se jouent très tardivement. Il faut calculer son diamètre utile selon les angles de hauteur du soleil autour des horaires des Tx. Dans mon secteur, impossible de laisser la journée une mesure même abri miniature Vue la journée hors d'un terrain clos privé, il y a bien trop de passages avec les chasseurs, promeneurs, randonneurs, VTT, moto, quad, 4x4, tailleurs de vignes et autres même très loin des habitations. C'est déjà délicat en ce moment avec les Tn qui se jouent vers 8h30 dans mon coin, il vaut mieux être là juste avant 8h si des vignes sont proches.
  16. Cédric, pour les Tn sans abri, il vaudrait mieux que tu plantes dans le sol du fer à béton de 1.2 cm de diam ou autres, identiques pour tes points de mesures, pour fixer les capteurs identiques au bout (si c'est un Voltcraft où on voit la thermistance par une ouverture, , testé à 1 m en fév 2013 pour les T nocturnes (ne pas regarder les écarts diurnes sans aucun sens) car des thermo en plein air se retrouvaient à 1 m de la neige chez les chasseurs de taf à l'époque. ) car un thermo boîtier de datalogger trop fermé peut se refroidir plus considérablement par rayonnement en plein air (Une comparaison entre la T interne d'un Hobo étanche blanc à 1.5 m et la sonde extérieure inox dans un 7714, il y a des années ) et il vaut mieux une petite plaque de polystyrène extrudée identique pour faire pendre dessous des capteurs trop fermés. ), pour que ton capteur soit vraiment en plein air de la même façon dans tous les sites, car au Nord d'un tronc large, c'est un obstacle pas obligatoirement assez identique qu'un plus fin avec le feuillage du kermès. Dans l'IR ça peut jouer selon la fraction de ciel et de sol visibles plus ou moins différente, puis selon l'humidité du tronc et des feuilles, la chaleur ou le froid stocké par un gros tronc/ petit tronc... Une simple barre de fer meulée au bout s'enfonce assez facilement à la massette dans tous les sols (même entre des plaques de roche calcaire sur mon plateau), c'est un support comparable pour tes points de mesure. Pour les Tx à l'air libre, les écarts varient selon les saisons et le type d'ombrage donc si tu ne veux pas t'en passer pour rendre comparables les ombres et leur production sur tes capteurs, autant faire pendre aussi les dataloggers sous un même petit panneau de polystyrène extrudé, bien enquillé/fixé sur la barre de de fer . (Ici une sonde Davis à l'ombre bien exposée à tous les vents sous le fond du Stevenson a surchauffé aujourd'hui en Tx que de 0.8° par rapport à celle dans le Stevenson, alors que l'été elle peut surchauffer à l'ombre souvent de plus de 3 à 4° ) Pour des mesures mobiles ponctuelles avec abri, je plante la ferraille à béton dans le sol et j'enquille par dessus un tube de 35 mm de diam et de 1.5 m. Installation et désinstallation hyper rapide sur site, l'abri restant toujours sur son tube.
  17. Nuit la plus froide de cette saison à Besse et depuis le 3 décembre 2013 : En classe 2 Référence USCRN abri Young méca SHT75 V2 : -3.6° Stevenson : -4.5° thermo MF, Pt 1000 -4.4°, V2 SHT75 -4.5° Socrima Pt 1000 : -4.0° V2 méca SHT31 ventilo coupé : -4.1° V2 méca SHT31 avec ventilo standard : -3.9° Classe 5 Toit 7714 Pt 1000 : -3.9° Mât 7714 à 10 m thermistance V1: -2.9° (-7.2° à 10 cm du sol)
  18. ChristianP

    abri davis 7714

    C'est le filtre Davis d'origine. Ca permet de montrer son influence par rapport à une Pt 1000 avec une constante de temps de 60 s placée dans le même abri et ça démontre qu'il faut lisser la T dans un abri méca si on ne dispose pas d'une sonde lissant assez le bruit dans la T sinon on perd le bénéfice d'un abri méca en captant du bruit de micro échelle que l'on ne capte pas avec des abris normaux. Dans la photo 2 c'est dans les abris au fond que ça se passe, tu as la Pt 1000 V2 noire (non méca) et la Pt 1000 dans le 7714 noir. En réalité les écarts sont même un peu plus grands entre ces deux abris, car la V2 est dans la position plus favorable (plus loin de la haie) dans ce micro site en classe 4 où la T varie sur de courtes distances. (En inversant les abris V2 et 7714, l'écart est un peu plus important entre les deux abris, car l'abri V2 se retrouve plus près de la haie) Pt 1000 / 10 s c'est la 2 ème sonde dans le Young méca pour montrer la différence avec le lissage aux normes USCRN pour harmoniser les constantes de temps. En ne lissant pas correctement selon les constantes de temps, on affichera parfois des Tx plus fortes qu'un Stevenson lui même un peu plus chaud qu'un Socrima ici. La sonde d'humidité de MF et la Pt 100 sont trop grandes pour le 7714 et on ne change pas les abris déjà payés de tout un réseau sans de plus grandes différences.
  19. ChristianP

    abri davis 7714

    Pour ceux qui ont un compte FB, fouillez dans les photos de page FB de ma station https://www.facebook.com/meteobesse.stationmeteo . Pour moi le 7714 d'origine déjà meilleur dans les essais de l'OMM, d'autant plus avec l'intérieur peint en noir est le meilleur surtout en Tx, de tous les abris à ventilation naturelle que j'ai testé ici même en classe 4 cloisonnée. Voir par exemple : https://www.facebook.com/photo.php?fbid=163093287188814&set=pb.100004644305349.-2207520000.1482665866.&type=3&theater https://www.facebook.com/photo.php?fbid=162754227222720&set=pb.100004644305349.-2207520000.1482665866.&type=3&theater https://www.facebook.com/photo.php?fbid=163093280522148&set=pb.100004644305349.-2207520000.1482665866.&type=3&theater https://www.facebook.com/photo.php?fbid=159727120858764&set=pb.100004644305349.-2207520000.1482665866.&type=3&theater https://www.facebook.com/photo.php?fbid=170006709830805&set=pb.100004644305349.-2207520000.1482665866.&type=3&theater https://www.facebook.com/photo.php?fbid=170006706497472&set=pb.100004644305349.-2207520000.1482665866.&type=3&theater https://www.facebook.com/photo.php?fbid=159727104192099&set=pb.100004644305349.-2207520000.1482665866.&type=3&theater
  20. Nuit la plus froide de cette saison à Besse et à égalité avec la nuit précédente aussi froide, le 3 février 2015 : En classe 2 Référence USCRN abri Young méca SHT75 V2 : -3.1° V2 méca SHT31 ventilo coupé : -3.4° V2 méca SHT31 avec ventilo standard : -3.4° Stevenson : -3.9° thermo MF, Pt 1000 -3.8°, V2 SHT75 -3.8° Socrima Pt 1000 : -3.4° 2° ce moins comme d'habitude dans ces conditions dans l'abri Davis Vue à 10 coupelles + Pt 1000 en classe 2 dans les vignes à 213 m et 20 m plus bas que le Socrima : -5.4° L'abri version longue (10 coupelles) de la Davis Vue ne donne pas plus de 0.1° d'écart en Tn avec le Socrima dans ces conditions. Dans les photos, le profil du relief est celui de la ligne droite entre les deux abris. http://meteo.besse83.free.fr/imfix/tnvignes213m-20m/ Classe 5: Toit 7714 Pt 1000 : -3.4° Mât 7714 à 10 m thermistance V1: -2.6°
  21. C'est faux, il y a juste des décalages quand la T change rapidement à cause d'un manque de réactivité, mais rien de mauvais pour les Tn par temps radiatif assez bien établi, car l'abri méca rayonne trop, donc du froid en trop qui n'est pas réduit par une ventilation nulle, qui est déjà trop insuffisante quand elle fonctionne le matin l'hiver, par rapport à l'abri de référence qui ventile la nuit à 6-10 m/s. Tu n'as pas dû lire l'actualisation du long sujet où j'ai posté une explication de MF sur le biais froid du Stevenson, pour comprendre le principe. Il y a des problèmes de Tn quand la T change rapidement vers le moment de la Tn, avec des nuages qui disparaissent brièvement ou du vent qui stoppe trop peu longtemps, donc des cas pas très courants et peu importants. J'ai 3 abris méca qui tournent actuellement dont un Young méca de référence, un Davis V2 avec ventilation activée et un Davis V2 avec la ventilation volontairement désactivée. Il fait encore trop froid dans l'absolu pour les Tn dans l'abri méca ventilo arrêté (les écarts entre les sondes utilisées ont été vérifiés avec une Pt 1000 de référence, les SHT31 sont bien étalonnées, absolument aucun calibrage à rentrer). Je postais encore ça sur la page FB de ma station et le suivi du temps dans le SE le 2/12/2016. Nuit la plus froide à Besse depuis le 3 février 2015 : En classe 2 Référence Young méca USCRN : -2.8° Stevenson : -3.7° thermo MF ( Pt 1000 -3.6°, V2 SHT75 -3.7°) Socrima Pt 1000 : -3.3° V2 méca SHT31 ventilo coupé : -3.3° V2 méca SHT31 avec ventilo standard : -3.2° Classe 5: Toit 7714 Pt 1000 : -3.2° Mât 7714 à 10 m thermistance V1: -2.6° Auparavant (aucun des abris méca Davis, n'a vu le véritable bon premier jour de gel, trop froids tous les deux) : Premier jour de gel le 16/11 dans tous les abris. En classe 2 Référence Young méca USCRN : -0.8° Stevenson -1.4° thermo MF ( Pt 1000 -1.3°, V2 SHT75 -1.3°) Socrima Pt 1000 -1.1° V2 méca SHT31 ventilo coupé : -1.1° (Pt 1000 -1.1°) V2 méca SHT31 avec ventilo standard : -1.1° Classe 5: Toit 7714 Pt 1000 : -1.0° Mât 7714 à 10 m thermistance V1: -0.7° Le 13/11 premier jour de gel officiel pour la plus longue série dans le Stevenson (date moyenne de la première gelée le 15/11) et dans certains abris : En classe 2 Référence Young méca USCRN : 0.1° Stevenson -0.6° thermo MF ( Pt 1000 -0.4°, V2 SHT75 -0.5°) Socrima Pt 1000 -0.2° V2 méca SHT31 ventilo coupé : -0.2° V2 méca SHT31 avec ventilo standard : -0.1° Classe 5: Toit 7714 Pt 1000 : -0.2° Mât 7714 à 10 m thermistance V1: 0.1°
  22. A chaque fois qu'on est proche d'un mini, ou d'un maxi solaire un peu faiblard, c'est pareil, la mode du soleil ressort... Une des dernières reconstructions dans le commentaire d'un des bons spécialistes physiciens du domaine (Leif Svalgaard (LS) qui est un sceptique, donc pas franchement configuré pour minimiser l'importance du soleil ) : https://wattsupwiththat.com/2016/11/24/the-bray-hallstatt-cycle/#comment-2352657 LS: Actually, it makes VERY little difference what the exact, absolute value of TSI is [1367 or 1362 or whatever]. What matters is the variation about that value, and that is of the order of 1 in a thousand, resulting in a temperature response of 1 in 4000 or 0.07 C which is below the noise level and thus cannot even be measured. (A noter que TCTE mesure la TSI de façon un peu plus élevée (+ 0.5W/m2) que Sorce ) Les graphes de LS sont assez clairs sur l'efficacité d'un soleil encore plus faiblard qu'actuellement pour permettre à la T d'être plus élevée qu'à d'autres périodes où il est plus puissant, même sans GES en surplus: https://wattsupwiththat.com/2016/08/09/solar-physicist-sees-global-cooling-ahead/#comment-2275785 https://wattsupwiththat.com/2016/08/09/solar-physicist-sees-global-cooling-ahead/#comment-2276057 https://wattsupwiththat.com/2016/08/09/solar-physicist-sees-global-cooling-ahead/#comment-2276287 Quelques commentaires utiles de LS avec les premières idées sur des bases physiques pour le cycle 25, qui est pour le moment prévu pour être un peu plus élevé que le 24, mais il faudra attendre pour obtenir une prévision plus précise (à +- 10% près quand ce sera le bon moment ) : "you do not know what the sun is going to do going forward." LS : That is right. And neither do you or Javier or anybody else. Only when we have measured the solar polar fields can we estimate the next cycle. The current polar fields suggest that Cycle 25 will be a bit stronger than Cycle 24. And we have no idea what 26 or 27 will be. Statistically weak cycles occur in bunches as do strong cycles, but that is like saying that a given old man will be farsighted, just because many old men are. But that is not actionable intelligence. "Hardly predict the amplitude of one Schwabe cycle in advance." LS : But we can. Once the polar fields stabilize some 3 to 4 years before the minimum, we can predict the next cycle with fair precision. Right now the south polar field has stabilized and in a year or so, the north polar field will follow suit and we can have a good prediction of cycle 25. We can also already see the next cycle develop. e.g. here http://hmi.stanford.edu/hminuggets/?p=1657 The Sun doesn’t have detailed memory of past cycles. We can only reliably predict a cycle some eight years before its maximum, by observing the polar fields that have accumulated during the past cycle by almost random movement of magnetic flux from lower latitudes to the poles. Right now, the polar fields have stabilized to the point where we can begin to predict the maximum of SC25 [some 8 years away] . "you cannot even predict one cycle ahead of the next one, i.e cycle 26?" LS : Nobody can, or rather everybody can, but with no reasons to be right. "I must also say that I cannot reason out why you cannot figure out [estimate] the strengths of SC 25 and 26" LS : Sounds like you admit failure in understanding reality. Nobody can estimate the strength of SC26 at this moment. For SC25 we are beginning to see the polar fields evolve to the point where an estimate can be given [slightly stronger than SC24]. LS: As Kobashi says: “The Greenland temperatures over the past 4000 yr reconstructed from trapped air within the GISP2 ice core (Kobashi et al., 2011) provided an extraordinary opportunity to investigate the late Holocene climate changes because of several advantages: (1) the resolving of precise multidecadal to millennial temperature variation; (2) the recording of “mean” annual temperatures (many palaeotemperatures are spring to summer proxies); (3) the tight age control; (4) the understanding of regional climate (Kobashi et al., 2013); and (5) the plentiful palaeoclimate information that is available from the GISP2 ice core. With the reconstructed climate forcings (orbital, volcanic, solar, greenhouse gases, and aerosols) over the past 4000 yr, we calculated northern high-latitude and NH average temperatures with 1-D EBM. Then, modelled Greenland temperature was derived considering negative Greenland temperature responses to changes in solar output.” I.e. that lower solar output increases Greenland temperatures. So, you fooled yourself into believing that the model is the real thing. This is a typical example of willful self-deception. The original 2011 graph [based on measurements] is thus still the valid one to compare with. Not the model-based one that uses solar activity as input, thus forming a circular argument. Note that Kobashi found just the opposite of what you claim: high (low) solar activity results in cooling (warming). So, you have deceived yourself. Such confirmation bias is quite common, and you are no exception. "Solar driven, thanks to John Eddy’s 1970’s documentary evidence that what he called the “Maunder Minimum” of solar-magnetic activity was real, together with his survey of quite a bit of evidence that such variations in solar activity seem to be correlated with global temperature." LS : At the time it was believed that the variation of solar TSI was in the 1% to 2% range, which would, indeed, give us the Little Ice Age. when we later discovered that the variation was an order of magnitude smaller, Jack Eddy abandoned the idea that the Sun was directly responsible for the observed climate change [Dinner talk at SORCE Science Meeting, Sonoma, Ca, 2003]. Based on what he knew back in 1974, he got it right. Based on what we know after the first measurements from space in 1978, he realized that, indeed, he got it wrong. "Most published solar curves show a clear peak in solar activity during the second half of the 20th century, and generally low TSI during the Little Ice Age, this is what counts." LS : Solar activity records has recently been critically review and several flaws corrected. You can get more information here: http://www.leif.org/research/EUV-F107-and-TSI-CDR-HAO.pdf or from the ‘official’ world sunspot center [presented at a recent meeting of the International Astronomical Union: http://www.leif.org/research/Revisiting-the-Sunspot-Number.pdf http://www.iau.org/news/pressreleases/detail/iau1508/ “The apparent upward trend of solar activity between the 18th century and the late 20th century has now been identified as a major calibration error in the Group Sunspot Number. Now that this error has been corrected, solar activity appears to have remained relatively stable since the 1700s “ Pour les cyclomaniaques du soleil : "This last prediction is based on the cyclic behavior of solar activity…" LS : Cycles presume that the Sun has a memory of past cycles or that the process that drives the cycles ‘knows’ that it has to repeat. Our present knowledge of the Sun does not identify a memory or the driving process inducing cycles. In fact there is a great deal of randomness in the creation of the polar fields from the debris of the current cycle. The flux in the polar field is only of the order of a few active regions [out of the 3000 that occurs during the sunspot cycle], so we are dealing with ‘small number statistics. It is quite possible to get four heads in a row from five flips of the coin, but not to get 400 heads in 500 flips. So you are postulating that unknown processes are driving the system. It is usually a bad idea to ascribe something to some unknowns. So your ‘science’ is at the level of the Egyptians and the Sumerians. Modern solar physicists know a bit more about the Sun, about its interior and how it works. We are quite sure that the sun will not suddenly start to spit out great balls of green cheese. Similarly, the solar interior [because it is so hot and convective] cannot sustain long-term cycles that require spatial and temporal long-term memory. We know a lot about what the Sun cannot do. Your cyclomania is not science. Even if a ‘prediction’ comes true, it could be correct this time for the wrong reason and may not hold in the future.
  23. Nuit la plus froide à Besse depuis le 3 février 2015 : En classe 2 Référence Young méca USCRN : -2.8° Stevenson : -3.7° thermo MF ( Pt 1000 -3.6°, V2 SHT75 -3.7°) Socrima Pt 1000 : -3.3° V2 méca SHT31 ventilo coupé : -3.3° V2 méca SHT31 avec ventilo standard : -3.2° Classe 5: Toit 7714 Pt 1000 : -3.2° Mât 7714 à 10 m thermistance V1: -2.6°
  24. Donner une précision en mm pour un pluvio et non en pourcentage, ça n'a pas assez de sens en dehors du début de la gamme. Pour le Davis on devrait la donner en mm que sous les 12 mm, car la résolution est de 12 mm/h sur 1 mn à cause de la résolution de 0.2 mm et aussi parce que Davis préconise logiquement de régler le pluvio avec des cumuls d'au moins 12 mm pour que ce soit utile pour les +- 4% indiqués par Davis jusqu'à 100 mm/h (j'avais vu passer ça aussi dans un document de l'OMM, des mm pour la précision des RR sous 6 mm pour une résolution de 0.1 mm et des % au-dessus). Dans le document MF, performance maintenue pour les précipitations : Classe A ± 0.1 mm pour quantités < 5 mm. ± 2% au dessus. L’OMM indique une incertitude possible en exploitation de 5% (ou 0.1 mm) et fonction de l’aérodynamisme du pluviomètre. Classe B (actuellement dans le réseau MF) Capteur spécifié pour ± 5%. Erreur en fonction de l’intensité connue. Etalonnage semestriel. Maintenance 1er degré Météo-France appliquée Classe A : Spécifications recommandées par l’OMM. Ces spécifications ne sont pas toujours atteignables et ne constituent donc pas toujours l’objectif recherché par Météo- France. L’OMM signale aussi les performances actuellement atteignables. Elles sont indiquées lorsqu’elles sont différentes de ce qui est requis. Les recommandations de l’OMM sont tirées du guide CIMO (WMO n°8). Classe B : Spécifications type Radome et fréquence et méthodes d’étalonnage, de contrôle et de maintenance appliqués par Météo-France pour son réseau Radome. Ou spécifications plus lâches que celles de l’OMM, si les spécifications Radome sont celles de l’OMM. Dans le CIMO guide, l'OMM donne comme objectif idéal de précision à atteindre, une résolution de 0.1 mm, une précision de +- 0.1 mm pour les RR inférieures à 5 mm et +-2% au dessus, mais c'est +-5% (IC 95%) au final en pratique pour l'OMM : Meteorological and hydrological requirements Annex 1.B in Chapter 1 in this Part gives a broad statement of the requirements for accuracy, range and resolution for precipitation measurements, and gives 5per cent as the achievable accuracy (at the 95 per cent confidence level). Attention l'incertitude est élargie en météo/climato et elle est toujours donnée pour "deux fois" (calcul par t de Student pour de petits échantillons donc quand le t ne donne pas 2) l' écart-type et non pas qu'un seul que ce soit à l'OMM, chez MF et dans bien des comparaisons, c'est aussi dans les normes AFNOR de l'incertitude des mesures dont j'ai l'extrait dans une doc MF. Si on veut vraiment rester en mm utiles, on détermine la précision pour un niveau de cumul donné ou au moins pour des classes de cumul adaptées, car un cumul est très variable sur une trop longue période de 24h, mois, année, la précision est différente par rapport aux petits cumuls. Des mm d'écart-type qui peuvent représenter des dizaines/centaines de % à 1 mm et pas grand chose à 100 mm (par ex ) dont on ne dispose pas assez d'échantillons journaliers. Des écarts sur petits cumuls, qui en prime n'ont pas toujours de sens pour le cumul final. Il faut vérifier que la correction journalière linéaire ne biaise pas plus le cumul mensuel et annuel, car la courbe n'est pas linéaire (pas assez d'échantillons de pluies importantes et fortes dans certaines régions sans des dizaines d'années de données, ça se voit aussi dans les petits cumuls trop mal corrigés alors que l'on dégrade le cumul total des gros trop rares voir dans le fichier modifié de Bernard plus bas.) "Tipping bucket gauges generally suffer from systematic non-linear and significant measuring errors, strongly dependent on rainfall rate. Especially with higher intensities these errors can amount to 20% for some types of tipping bucket gauges." L'OMM dans les essais des différentes pluvio donne comme correction pour le Davis V2, 1.16x^0.92 (R2= 0.73) et pour un Précis Mécanique 1.12x^0.95 (R2=0.77). Dans les miens, la correction à un seul coeff détériore même le cumul général sur un des pluvio. La correction ne devrait s'appliquer que si elle donne un gain significatif et si elle est correcte par rapport à la valeur vraie estimée (Un SPIEA sous-estime la réalité même dans un site parfait sans vent, donc une correction qui réduit la quantité en dessous de la valeur SPIEA pas éclaboussé par des obstacles, n'est pas une bonne correction dans l'absolu.) Il faut bien voir que 0.2 mm de résolution des augets, ça représente +-20% à 1 mm et encore +-1% à 20 mm, alors que l'autre jour je relève -0.45% d'erreur (-0.5 mm) avec un Davis pour 112.1 mm au SPIEA. Même un pluvio avec +-0.5 mm d'écart-type, ça laisserait entendre que ce n'est pas grand chose, mais ça ne veut rien dire selon le cumul d'autant plus que vous n'avez pas 30 cumuls journaliers à chaque niveau, à 100 mm ou autres classes. (J'ai relevé une erreur de +9.18 % (+10.3 mm) pour ce même cumul de 112.1 mm avec un autre pluvio Davis pourtant réglé de la même façon le même jour) J'ai repris le fichier de Bernard comme exemple à modifier. La précision n'est pas du tout celle indiquée par le fichier d'origine, il y a une sous-estimation avec l'élargissement mais aussi à cause du décalage du Davis surtout dans les petits cumuls. Il faut utiliser l'écart-type par rapport à la moyenne des erreurs du pluvio concerné. L'écart-type n'a pas assez de sens à lui seul, il ne donne que la dispersion des erreurs autour de la mesure erronée (ou non) d'un côté ou non d'un pluvio. Le coeff de Bernard n'est pas de 1 pile car je voyais la courbe rouge. Excel permet de calculer précisément le coeff a pour y=ax sans ajustement manuel de la ligne. 1,008575... pour l'ajustement optimal, enfin, il y a une incertitude aussi et qça ne corrige vraiment pas assez là où on ramasse le plus d'erreurs pour le cumul général. (voir formule derrière dans Excel, toujours aussi nul en version 2016 car en utilisant des paramètres pour que le tableau soit dynamique sans avoir à modifier les références dans les formules au fil des nouvelles lignes dans le calcul de la régression, le calcul devient faux et la droite n'est plus ajustée !) Les chiffres surtout en erreur relative, vont évoluer nettement et favorablement avec un peu plus d'échantillons, la loi de Student prévu pour ces petits échantillons, tend vers la loi normale et la rejoint ensuite quand il y en a assez, donc vers 2 fois l'écart-type (IC à 95%) (au lieu de bien plus de 2 fois l'écart-type avec si peu d'échantillons) A noter que dans le calcul de la précision en mm sur les petits cumuls, les +-0.2 mm sont intégrés (à l'inverse du calcul pour l'erreur relative des gros cumuls) Bon là c'est un brouillon vite fait, je vous laisse vérifier les cumuls au pas mensuel, car une correction journalière qui renverrait des cumuls pas significativement différents, ni meilleurs dans l'absolu, pire moins bons, autant laisser le brut. http://meteo.besse83.free.fr/imfix/etalonnage_pluviometre_bernardt.xls http://meteo.besse83.free.fr/imfix/EtalonnageV2mec.xls http://meteo.besse83.free.fr/imfix/EtalonnageV2yng.xls http://meteo.besse83.free.fr/imfix/EtalonnagePM.xls
  25. 133.4 mm au SPIEA sur l'épisode en cours (135.4 mm au Précis Mécanique, 145.8 mm au V2-1, 131.4 mm au V2-2), l'eau est un peu revenu dans l'Issole, je verrai plus tard pour l'ex lac de Besse depuis des mois. Intensité maxi à 189 mm/h .
×
×
  • Créer...