Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

ChristianP

Adhérent Infoclimat
  • Compteur de contenus

    2904
  • Inscription

  • Dernière visite

  • Jours gagnés

    1

Tout ce qui a été posté par ChristianP

  1. Jour le plus chaud de l'année avec un vent autour de l'Est jusqu'à 15h avec un air relativement plus sec qu'hier (14% de HR pour le capteur le plus précis SHT75 et le plus neuf dans le Young méca, 15% pour le SHT11 de la V2 méca, 16% pour le vieux capteur d'avant 2006, remarquable pour ce croulant !), puis brise habituelle (SSW/SW). Tx en classe 2 par vent d'Est, par brise en classe 4 presque aveugle pour la voir. Pendant le vent d'Est, vers 13h57, les Tx provisoires étaient encore identiques dans les deux Socrima (33.9° pour les deux classes), mais aussi la même que celle du Davis ventilé méca (33.7°) qui a surchauffé un peu par rapport au Young méca ...(33.4°. Il faut voir que même lorsque les valeurs sont égales au Young méca, dans l'absolu, il y a surchauffe de l'abri Davis méca, car le capteur Davis plus lent, lisse plus que la norme USCRN étudiée pour la ventilation méca et une Pt 1000 avec une constante de temps de 60s. Donc à capacité identique, l'abri Davis méca devrait afficher presque systématiquement dans les conditions de ces jours-ci, une Tx un peu inférieure à celle relevée dans le Young méca) ...pour 35.4° dans le Cimel pour cette période. Tn et Tx finales du jour : En classe 4: Cimel (Pt 1000) : 13.0°, 37.2° (36.6° dans le Cimel aux Arcs) Socrima (Pt 1000) : 13.0°, 36.4° En classe 2 : Abri Young méca et normes USCRN (capteur SHT75) : 13.4°, 33.9° - Ecart Tx Cimel + 3.3° Davis V2 méca 24h/24h (SHT11 d'origine) : 13.4°, 34.0° Socrima (Pt 1000) : 13.4°, 34.2° - Ecart Tx Cimel + 3.0° Stevenson (Pt 1000) : 13.1°, 34.3° Dans le Stevenson, 34.7° au thermo MF, 34.6° à la thermistance rapide Davis V1, comme hier pour lui. 0.3° de plus qu'hier pour le MF. C'est l'imprécision du Davis V1 qui a probablement fait la différence. On ne peut pas invoquer l'échantillonnage insuffisant par rapport au thermo MF, car la Pt 1000 environ 3 fois plus lente que le Davis V1, échantillonne autant, a vu qu'il a fait plus chaud dans cet abri. Le V1 aurait même dû afficher un écart plus important que la Pt 1000. La Pt 1000 est la plus précise ici. La fiche d'étalonnage du labo pour 2 sondes a un an environ, de plus j'ai vérifié les écarts entre mes Pt 1000, il y a un mois environ (ça se joue aux centièmes et j'en tiens compte quand il faut arrondir) Tous les capteurs/abris ont relevé un peu plus qu'hier, même le capteur Davis V1 sur le mât à 10 m du sol dans un 7714 (+0.2°), une Tx vraiment synoptique, sauf le V1 dans le Stevenson. Tous ces écarts variables sur les Tx ces jours/ci ou au fil des heures, pour des conditions météo très proches, montrent pourquoi, l'homogénéisation des données journalières et surtout du record d'un jour, d'un mois..., n'est pas près d'être assez efficace pour comparer des records dans des conditions matérielles et de sites, bien différentes au fil du temps. Si un record de Tx l'été n'est pas battu d'au moins 1° (sans vent violent) même en classe 1 ou 2, oubliez le ! Oui possible Janek, mais on ne pourra pas obligatoirement savoir pourquoi. Par ex, si c'est dû à un seul petit cumulus mal placé qui se régénère sur place, comme ça arrive régulièrement ici.
  2. Tx provisoires vers 10h31 : Cimel cls4 : 31.3° Socrima cls 4 : 29.8° Socrima cls 2 : 28.9° Davis V2 méca 24h/24h cls 2 : 27.9° ( Tx de référence) Tx provisoires vers 10h57 avec un vent de tendance Est qui s'est levé, secteur assez dégagé aussi pour la classe 4 : Cimel cls4 : 32.0° Socrima cls 4 : 30.4° Socrima cls 2 : 30.3° On remarque l'efficacité du bon dégagement dans ce secteur de vent, "même" (= à +-0.2° près) valeur en classe 4 qu'en classe 2. Davis V2 méca 24h/24h cls 2 : 29.4 ° (Tx de référence) Donc pas assez de vent pour supprimer le biais classique d'un abri à ventilation naturelle, d'où l'utilité d'un bon abri méca à chambre fermée, même dans un site assez bon.
  3. Le Cimel pour le temps réel, c'est du n'importe quoi, surtout le matin avec les obstacles de la classe 4 bien ensoleillés et malgré un vent calme en classe 2. Tx provisoires près de 9h15 : Cimel cls4 : 28.9° Socrima cls 4 : 26.8° Socrima cls 2 : 24.6° Davis V2 méca 24h/24h cls 2 : 23.6° ( Tx de référence) Tx provisoires vers 10 h : Cimel cls4 : 30.5° Socrima cls 4 : 28.6° Socrima cls 2 : 27.3° Davis V2 méca 24h/24h cls 2 : 26.5 ° (Tx de référence)
  4. Oui Adri c'est le petit, mais ce n'est pas le problème, car le gros surchauffera moins pour des directions où le petit est plus proche des obstacles que lui et inversement. Le gros est peut-être mieux protégé du bâtiment blanc qui est une source importante de surchauffe par vent calme. Il faudrait remettre le site dans l'état dans lequel il était à l'époque de l'ouverture, ce qui est tout à fait possible vu que bien des obstacles sont chez MF. Jour le plus chaud de l'année à Besse avec un vent partant dans tous les sens, plus soutenu qu'hier. Tx en classe 2 au moment d'une très courte bascule en petit vent de terre. En classe 4: Cimel (Pt 1000) : 9.7°, 36.6° (Tx Relevée bien avant celle en classe 2 par vent de terre) Socrima (Pt 1000) : 9.8°, 35.6° (34.9° pour la période jusqu'aux 36.6° du Cimel) Les biais radiatifs les plus importants pour le Cimel, ne concernent pas obligatoirement le moment de la vraie Tx de l'air avec plus de vent, surtout ici (à cause des obstacles qui coupent la brise, qui se retrouvent à l'ombre très tôt et des ombres au sol qui gagnent du terrain). En classe 2 : Abri Young méca et normes USCRN (capteur SHT75) : 11.8°, 33.2° - Ecart Tx Cimel + 3.4° Davis V2 méca 24h/24h (SHT11 d'origine) : 11.8°, 33.2° Socrima (Pt 1000) : 11.6°, 34.0° - Ecart Tx Cimel + 2.3° Stevenson (Pt 1000) : 11.4°, 34.1° (34.4° au thermo MF, 34.6° au capteur rapide V1) Tx plus tardive de 36.4° dans le Cimel aux Arcs (Hier 32.7° dans le Cimel ici, 33.1° aux Arcs), dans un secteur où il devrait faire moins chaud qu'au Luc (Aux Arcs, la classe 4 a des obstacles de l'autre côté, à l'Est, avec une brise fréquente soufflant de ce secteur. A l'inverse d'ici, ils reçoivent le soleil pendant le moment où l'air est réellement le plus chaud, alors qu' ici je suis contaminé par les ombres portées qui progressent sur le sol du site au fil des heures. Au fil des années aussi avec la pousse de la forêt, on voit la dérive des écarts. Ma classe 4 surchauffe moins. Avant je relevais souvent des écarts autour de 3° avec le Socrima en classe 4 par rapport à la classe 2, malgré la petite surchauffe du Stevenson . Maintenant c'est plus rare. L'été prochain on testera le Cimel à Brignoles dans un site qui bénéficie d'une brise venant du bon secteur, pour positionner l'abri près de la végétation ensoleillée sans ombres au sol en classe 4, au moment réellement le plus chaud (Enfin il y a bien pire pour le Cimel l'été. Un site cloisonné dans une direction par une maison aux murs blancs dans le bon secteur de la brise, avec du sable clair ou autre sol clair, sur une très grande étendue)
  5. Heureusement qu'ils font bien leur travail pour cette fois, probablement avec l'aide de MF média, vu que Carpentras MF, n'a rien à voir avec des stations assez bien dégagées et avec une végétation courte bien entretenue sur certains aérodromes. On verra Lundi à Carpentras Latapy, car Carpentras MF est surtout un site rugueux (même dans le parc, c'est classe 4 avec la végétation courte trop haute) et trop cloisonné dans bien des directions, qui a l'air à l'abandon, vraiment pas sérieux pour une station dite synoptique, comme en septembre dernier quand j'y suis passé (En plus de la végétation pas maintenue, le portail du parc n'était pas fermé et battait au vent) : http://meteo.besse83.free.fr/imfix/carpentrasMF11092013/ Les meilleures Tx représentatives de l'air (et non des biais radiatifs) à Carpentras, sont à Latapy du Cirame avec un Stevenson en bois, à 1420 m du site de MF : http://meteo.besse83.free.fr/imfix/carpentraslatapy11092013/ Ecarts l'année dernière pendant une petite vague de chaleur : http://meteo.besse83.free.fr/imfix/carpentraslatapy11092013/situationecarts.jpg Si le site était bon à MF, logiquement vu l'altitude plus faible à Latapy et l'exposition, ce devrait être Latapy qui relève les Tx les plus chaudes (Du moins quand le vent ne vient pas de la ville aux belles saison, dans le cas d'un sol pas encore assez sec) En attendant ici à Besse pendant les essais en cours, une fois de plus aujourd'hui, je constate que l'abri Cimel est vraiment une calamité pour le SE. 36.6° de Tx (Pt 1000) pour le moment dans le Cimel en classe 4 contre 34.9° (Pt 1000) dans le Socrima en classe 4, pour 33.0° (Pt 1000) dans le Socrima en classe 2 à 35 m de là, pour 32.5° (SHT 11 d'origine) dans la Davis V2 ventilée méca 24h/24h (à chambre fermée) dans cette même classe 2. On verra ce soir la valeur finale la plus proche de la vraie Tx de l'air dans le Young méca à 6 m/s avec les meilleures normes (USCRN) qui nécessitent un lissage pour tenir compte de la constante de temps phénoménale avec un SHT75 "nu" sous 6 m/s pour s'approcher au mieux des préconisations de l'OMM (vu que l'acquisition Davis ne le permet pas)
  6. Il y a longtemps qu'il est connu que cette station surchauffe nettement en Tx (classe 4), d'autant plus là avec seulement 10 km/h/10 mn au niveau de l'anémo plus haut. Le foehn ne suffit pas, il n'existe pas que dans cette station ce jour-là, par contre la maison claire et la colline à forte pente trop proches, oui. Dans ce type d'emplacement, il faudrait un abri ventilé méca Davis 24h/24h à chambre fermée (pas le diurne) pour limiter la surchauffe autour de 1° (On ne peut pas supprimer la surchauffe anormale de l'air dans un site insuffisant, mais on limite celle due à l'abri)
  7. http://fr.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_de_Borsuk-Ulam
  8. Ben voyons, il aurait fallu que Laurent Cabrol (ou que tu) arrive à démontrer de façon correcte, que la probabilité d'un été frais, était réellement supérieure. Ca ne suffit pas de l'affirmer comme lui, en se basant sur des pourcentages... (qui n'avaient rien à voir avec des proba, vu qu'il ne comprend pas la différence entre une vraie proba et un pourcentage en présence d'un signal de fond, comme beaucoup de prévis saisonniers amateurs ou même pro médiatiques mais non scientifiques, qui ne se rendent même pas compte qu'ils ne font pas de la prévis saisonnière de façon propre, sans d'abord retirer au préalable le signal de fond avant de choisir et de brasser leurs paramètres préférés, vu que c'est la prévis du bruit (la météo saisonnière c'est du bruit) qui est l'objet de leur prévis et non celle du fond. Un signal de fond qu'il suffit de réintégrer après avoir prévu le bruit saisonnier pour récolter l'anomalie à jour du RC et après avoir analysé les bruits saisonniers et les paramètres du passé sans le signal de fond. L'anomalie, c'est le bruit saisonnier à prévoir + fond non à prévoir, vu que l'évolution de fond est très lente à l'échelle d'une saison, mais malheureusement pas à l'échelle des séries de paramètres utiles du passé dont les prévis saisonniers se servent),... Il faut le prouver et donner assez d'infos et de données pour permettre aux autres de le vérifier. C'est comme dans ton site, il n'y a vraiment pas assez d'éléments et de données, pour analyser mathématiquement ton travail, pas plus que tes scores qui n'ont absolument aucun sens à eux seuls. Mais bon je ne pense pas que tu souhaites faire mieux dans la démarche scientifique que tous les astrologues, quand on voit ça dans le lien vers de ton site, que tu viens de communiquer : Ca ne m'étonne donc pas du tout que tu oses venir défendre l'indéfendable dans Infoclimat, comme le manque de rigueur scientifique chronique de ton copain médiatique. Qui ici admettrait qu'un prof de collège/lycée vienne promouvoir en classe, l'astrologie comme méthode de prévis scientifique à nos enfants !? C'est bien parce que la science a des lacunes en prévis saisonnière sous nos latitudes, que ce type de personnage arrive encore à faire illusion.
  9. Ce raisonnement ne donnera un bon résultat que par hasard. Si les +1.2° d'écart sur la moyenne passée, renvoyaient par hasard à 25°, la même proba que pour les 23.8° de la moyenne précédente. C'est improbable vu qu'il existe une tendance de fond significative dans la hausse de la dernière moyenne dans bien des stations et la distribution de notre dernière moyenne (qui n'est pas encore au niveau donné par la tendance de fond), n'est pas encore à l'équilibre pour le réchauffement donné. Le nb à 25° actuel ne correspond donc pas encore à ce qu'il serait au niveau donné par la tendance de fond dans la nouvelle moyenne. Il faut imaginer/calculer la moyenne et la distribution qu'on obtiendrait, si la tendance à la hausse des Tx s'arrêtait, devenait "nulle" à partir de janvier 2014 (significativement différente de celle à la hausse) pour laisser la distribution et la moyenne se stabiliser à ce niveau. Il faut produire une autre tendance nulle comme la précédente pour déterminer une estimation du bon seuil. Exemple avec Le Luc en faisant abstraction des problèmes d'homogénéisation des Tx journalières. Au Luc ça n'a pas de sens d'isoler que la période de 6 mois, vu qu'il y a le potentiel pour relever un 25° dans la très grande majorité des mois de l'année et l'évolution des Tx toute l'année dans ce genre de station qui pourra récolter un record à 25° en janvier, a de l'importance pour le seuil à 25°. Je divise les données en deux périodes pour réduire un peu les incertitudes (une moy/30 ans sur un point donné est trop bruitée, là je n'ai guère plus, donc ça fait peu de différence, mais ça simplifie en deux séries pratiquement de même longueur) Sur 1947-1980 (34 ans), on avait en moyenne 116.7 j >=25° contre 133 j sur 1981-2013 (33 ans). Avec ta méthode, je récolte 126.5 j pour un réchauffement de 0.88° de la moyenne des Tx. Donc là aussi on aurait un surplus, mais qu'en apparence, à cause du fait qu'on ne tient pas compte de la forme de la distribution et surtout qu'il y a une tendance de fond significative dans la moyenne récente. Sur 1947-1980, en fait la tendance des Tx est de -0.35°/34 ans, non significative, "nulle" , alors qu'elle l'est avec +1.68°/33 ans sur 1981-2013. Si la tendance se stabilisait et devenait "nulle" à partir de 2014, notre moyenne finirait quand même par atteindre ces +1.68° (en valeur centrale, + ou - avec les IC) et nous donner enfin une distribution représentative de cette hausse. Si je tiens compte que de la forme de la distribution logiquement plus étalée d'un côté, la proba au seuil à 25° de la précédente moyenne où la tendance est nulle, est de 31.6%. En retirant la tendance de fond de 1.68° dans les données de la dernière moyenne, tout en faisant monter la nouvelle moyenne de 1.68°, comme si elle avait atteint l'équilibre bien après la fin virtuelle (fin 2013) de la tendance à la hausse, pour la même proba (31.6%), donc aussi sans tendance de fond dans les données récentes (on ne pouvait pas obtenir la bonne estimation de proba en laissant la tendance de fond), avec ce changement de la moyenne, ça fait un seuil qui bouge en fait de 1.86° (alors que la moyenne incomplète en cours montait de 0.88°, le seuil changeait de 1° en tenant compte de la forme de la distribution) Donc la valeur au seuil à comparer dans l'ancienne moyenne est de 25° -1.86° = 23.14°, ce qui donne un potentiel sans plus aucune tendance de fond (tendance nulle) à partir de janvier 2014, d'environ 140 j théoriques à 25°, pour 133 j pour le moment (contre 117 j pour la moyenne précédente) Même si le RC des Tx s'arrêtait avec une tendance nulle à partir de 2014 (significativement différente de celle à la hausse), le nb de jours à 25° devrait augmenter, ceci donc en niant de fait ce qu'il reste dans le pipeline au niveau physique. En fait uniquement par déséquilibre de la distribution, de sa forme et de la moyenne, nous sommes en retard dans le nb de jours à 25° par rapport à la tendance déjà observée dans la dernière moyenne, sans même parler du déséquilibre physique. C'est pour dire qu'on n'a pas fini de voir monter ces valeurs aux seuils et qu'il y a toujours un temps non négligeable, entre ce qu'on injecte dans le système et le résultat visible dans les valeurs moyennes et aux seuils. Après c'est clair qu'il est plus facile de multiplier d'un facteur 2 ou 3, le nb de jours à 25° au bord de la mer du Nord, qu'au Luc (surtout pour 3 où c'est impossible au Luc, sinon il faudra agrandir l'année) A noter qu'il manque environ 3° de réchauffement des Tx en plus que celui récolté, pour finir par observer en moyenne la moitié des Tx annuelles à 25° au Luc, ce qui avec la tendance actuelle de 1.68° sur 1981-2013, est à envisager dans 59 ans environ (même si à ce moment là, la tendance devenait et restait nulle éternellement, sans tendance au refroidissement sur le fond, on finira par profiter de 6 mois de chaleur en moyenne au Luc, même si on stoppait la tendance actuelle dans 59 ans) Pour les Tx chaudes, la distribution "normale" ne fonctionnera pas assez bien, car les distributions sont déséquilibrées, plus étalées à droite, il vaut mieux utiliser les centiles, que les sigma.
  10. Tu aimes bien plaisanter Cotissois , car j'ai même expliqué en détail le modèle de bruit de Tamino il y a 4 ans (explication que tu as lue), en raisonnant à l'envers, en partant d'un vrai signal de fond que l'on crée, puis en ajoutant un à un les différents bruits statistiques pour ce cas, à l'aide de graphes, pour montrer ce qu'il y a précisément dans son modèle de bruit, à partir des divers paramètres que Tamino a extrait de la série de T. Il faut bien voir que quand je parle de son modèle de bruit là, "modèle" c'est un trop grand mot, surtout pour un physicien qui se roulerait de rire au sol. Ca n'a rien à voir avec des modèles physiques et ça n'a même pas le niveau de détail grossier du modèle statistique de bruits de la publication de Tamino, dans la partie où il a déterminé le poids statistique de certains bruits connus (l'ENSO, les volcans et le soleil) afin de les retirer. Là avec le processus ARMA (1 , 1), Tamino est juste dans le modèle de comportement global du bruit, au niveau de sa signature statistique, dans celui des résidus, pour avoir le droit mathématique d'appliquer les règles statistiques classiques et donc de faire des estimations statistiques des limites du bruit habituel pour la T mensuelle globale sur une période linéaire en moyenne, qui serviront de repères pour vérifier si les obs changent de direction (c'est ce qui se passe quand il y a un changement sur le fond, que le signal change de forme, que ce soit la composante rapide et/ou lente qui fassent sortir les obs des rails, on le verra, même si à ce niveau, on ne savait pas pourquoi physiquement et à cause de quoi et même si c'est une rétroaction négative qui joue assez pour que ça change sur le fond pour notre échelle climatique) Bien entendu avec lest stats, à l'inverse des résultats que donnera une future bonne modélisation physique pour ces échelles, on ne peut pas le voir à l'instant t du changement, vu qu'il faut récolter plusieurs échantillons hors de ces bornes pour le constater. Donc à ce niveau, on cherche uniquement à identifier le comportement statistique des résidus sur un segment donné suffisant, ayant une même tendance linéaire en moyenne. Quand on constate qu'ils ne sont pas blancs, on le modélise pour pouvoir calculer une compensation pour ce comportement statistique qui n'est pas simple (c'est à dire pas conforme aux règles mathématiques, qui nécessitent des conditions fondamentales à respecter pour sortir les estimations des incertitudes des paramètres statistiques simples que tout le monde connaît, comme des moyennes, des écart-types , des IC , des IP... : Il faut que les valeurs soient assez indépendantes, distribuées assez aléatoirement...), afin d'avoir la possibilité d'effectuer nos estimations statistiques des bornes du bruit habituel des obs pour le cas concerné. Donc une fois qu'on a déterminé les paramètres utiles du modèle de comportement statistique des résidus, donc là avec l' ARMA (1 , 1), ....... ( A noter que le paramètre phi très utile dans l'annexe de la publication Tamino, http://meteo.besse83.free.fr/imfix/autocopubtamino.png , qui concerne l'AR(1) de l'ARMA (1 , 1) (AR 1 est le processus auto-régressif d'ordre 1, c'est à dire que la valeur suivante du bruit est corrélée à la précédente, donc dans notre cas, avec un mois de décalage), quantifie la force de la dépendance de la valeur de bruit sur la précédente. Pour l'ARMA (1 , 1) à partir de phi, on calcule la racine carrée de v dans l'annexe, qui nous donne le coeff multiplicateur à utiliser sur les incertitudes calculées très normalement (comme si le bruit était blanc) pour nos estimations statistiques. Pour plus de détails théoriques sur l'ARMA, voir la méthode Box et Jenkins. J'ai regardé les paramètres de ta série préférée CW qui est sensée donner un meilleure estimation dans l'Arctique, c'est la série la plus faiblement bruitée (coeff 3.32 par rapport à un bruit blanc) à cause de l'auto-corrélation (On dirait que réduire l'incertitude de la détermination de la T pour un défaut de couverture, diminue l'auto-corrélation, d'autant plus que GISS qui déduit aussi la T pour ces secteurs est la 2 ème moins bruitées avec 3.42 ), alors que la série d'origine Hadley l'est bien plus (3.85), pour les séries sat plus sensibles à l'ENSO, l'autoco est logiquement plus forte) ..........il faut ensuite raisonner à un niveau élémentaire, au niveau d'un modèle de bruit statistique classique très basique pour bruit blanc aléatoire qui permet d'estimer uniquement que les bornes du bruit global habituel dans la période concernée. Ces limites sont donc issues de la synthèse de l'ensemble de tous les bruits et de leurs comportements statistiques qui masqueront la direction du signal moyen, dont on ne cherche pas à connaître vraiment la forme à chaque instant, ni la cause, mais qu'on peut résumer par une tendance linéaire moyenne sur une période donnée. L'important à ce niveau, c'est uniquement de parvenir à estimer assez bien où se situent les limites du bruit habituel pour savoir si la distribution des obs est toujours conformes à la direction de ces rails, sans savoir comment ça varie vraiment sur le fond au milieu des rails. Si la linéaire en moyenne devient un peu trop courbée, une exponentielle conformément aux prévis, à un moment on verra des obs sortir plus fortement des moyennes et des bornes du bruit statistique qu'on a déterminées autour d'une linéaire de fond en moyenne (même si physiquement, on ne comprend pas tout et/ou on ne mesure pas assez de paramètres, pour le déterminer par modèle physique, bien avant de récolter assez d'échantillons d'obs pour le détecter avec les stats). Si la linéaire à la hausse actuelle change trop pour une autre linéaire plate, on le verra aussi, elle deviendra significativement différente. Dans tous les cas, des valeurs vont passer hors IP, et sous la moyenne utile pour la T (du climat à notre échelle) et les IC des tendances différentes ne vont plus se croiser. Que les explications physiques changent, ce n'est pas important à ce niveau très basique sur des segments "courts", on ne s'intéresse qu'à la signature statistique du bruit à ce niveau. Après reste à savoir si les IC et IP sont surestimés ou sous-estimés par cette méthode. D'après tout ce que j'ai lu sur ce sujet, ils sont légèrement sous-estimés, c'est à dire que les IC et IP sont en réalité légèrement plus larges que ces estimations, donc on aura plutôt tendance à détecter un changement avant qu'il soit vraiment significatif. D'après des simulations mathématiques toutes les estimations des paramètres d'autoco de ce genre de processus AR sans au moins 1000 échantillons, les sous-estiment. De plus, un physicien qui avait déterminé un modèle avec toutes les oscillations, même les plus insignifiantes depuis 1880, trouvent des résultats très proches et des IC légèrement plus larges. J'en avais parlé ici : /topic/40167-statistiques-et-anomalies-climatiques-globales/page-57#entry2148510'>http://forums.infoclimat.fr/topic/40167-statistiques-et-anomalies-climatiques-globales/page-57#entry2148510 Au final, il reste beaucoup à faire, car malgré le retrait statistique de bruits pourtant importants et connus comme l'ENSO, même avec le retrait des deux autres, Tamino n'enlève pas 75% de la variabilité annuelle avec les stats, mais que 25% environ, j'avais déjà expliqué et montré le gain dans ce graphe. On voit que la courbe bleue des résidus de la série Hadley "débruitée" dans cet exemple tiré de sa publication (la série d'origine bruitée, donne la bleue foncée du haut) est loin de rentrer dans l'IC, où il "n'y aurait plus que" le petit bruit de forme aléatoire (même si ce n'est pas le cas physiquement), celui qui n'agit pas significativement sur le bruit du mois suivant, à expliquer physiquement et à retirer. Il est donc loin d'être à 0, car le coeff multiplicateur de l'incertitude à cause du bruit rouge, par rapport au bruit blanc, est passé dans ce cas précis de 3.91 qu'à 2.92 après "débruitage". Il faudrait qu'il descende à 1 dans un premier temps, c'est à dire sans auto-corrélation significative à traiter, parce qu'on aura bien identifié et estimé tous les bruits qui agissent significativement sur le mois suivant, avant de s'occuper que des bruits qui impactent bien moins longtemps T (le bruit blanc) Pour ceux qui comme moi, ont du mal à visualiser ce que donne une formule mathématique abstraite, j'avais gardé en stock une vulgarisation qui parle le plus clairement de la partie MA (moyenne mobile) d'un modèle ARMA :
  11. Cotissois, je sais que tu as d'autres choses plus intéressantes à faire, mais j'ai déjà posté des tartines à propos de ce modèle de bruit de Tamino (Grant Foster) et de plus j'avais donné x fois en référence ici, sa publication sur le sujet (et en particulier avec une réponse spécialement pour toi qui demandait ce qu'il avait publié. La voilà donc à nouveau, voir l'appendice : http://iopscience.iop.org/1748-9326/6/4/044022/fulltext/ ), donc merci de faire un petit effort de mémoire ou de fouille du forum, d'autant plus que dans le lien donné dans mon message précédent pour Sebb, Tamino parle du bruit traité pour ce cas, alors qu'on sait très bien que ce n'est pas linéaire physiquement en permanence sur le fond (c'est qu'une approximation pour la période où il n'y a pas de changement significatif de tendance, donc là depuis 75, pas arbitrairement et pas par hasard) Ce n'est pas pour faire de la prévis, mais juste pour vérifier si les obs sortent ou pas probablement du niveau de bruit habituel pour la tendance linéaire donnée depuis le dernier changement. C'est clair qu'à ce niveau, on ne cherche pas la véritable forme physique du signal du fond et on ne s'intéresse pas à toute la série. Là dans le cas traité, c'est donc son modèle de bruit avec un processus ARMA ( 1 , 1) dans le cadre linéaire depuis 75 sans un changement significatif de tendance (Ce bruit est d'ailleurs "le même" à quelques miettes près, que le modèle de bruit qu'on déterminera sur la période linéaire de réchauffement sur 1910 à 1945) La période n'est pas choisie arbitrairement pour générer le modèle de bruit. Tamino l'a expliqué dans ses "cours" sur son blog. On doit la choisir pour une période assez longue (30 ans au minimum) et on doit partir du début de la nouvelle tendance linéaire concernée et surtout pas à cheval sur 2 tendances différentes (Par ex, ce serait une erreur de déterminer le modèle de bruit avec cette méthode, avec une tendance linéaire sur 1960 -2010, vu qu'il y a eu un changement de tendance en 75) Oui j'avais déjà réfléchi avec l'exponentielle, mais Le problème c'est que même si elle est physiquement plus juste d'après les prévis, vu qu'il n'y a pas d'accélération nette qui la détache vraiment de la linéaire, c' est difficile à traiter au niveau du bruit avec en prime des paliers significatifs visibles, qu'on ne sait pas physiquement et surtout statistiquement classer (est-ce du bruit habituel ou un signal, ou un peu trop des deux ?). La physique n'a pas très franchement tranché pour le palier après 1945 et en stats, il manque de données pour considérer que ce palier significatif, est à prendre comme un bruit habituel de basse fréquence ou autre. Tant que la linéaire n'est pas trop longue sans changement de tendance, pour que la courbure de l'exponentielle devienne plus pertinente, on a plus de chances de mieux estimer le bruit sur de "courtes" (plus de 30 ans) périodes sans changement significatif de pente linéaire, où le bruit lui-même n'a probablement pas trop changé sur le fond, vu que physiquement pour lui, ça n'évolue pas trop vite sur ces courtes périodes, au point que le bruit d'un RC de 1910-1945 est le même que le bruit de notre RC moderne (du moins dans sa signature statistique, même si ça n 'est pas vrai physiquement, vu qu'on n'a pas exactement les mêmes volcans et autres bricoles) Pour les autres, dans ce message je ne parle jamais du palier actuel non significatif (qui n'est pas considéré comme un palier pour le fond climatique à notre échelle humaine, en comparant 2 moyennes/30 ans sans chevauchement de données) mais de ceux du passés qui le sont pour le fond (alors qu'ils pourraient être du bruit de basse fréquence. Le fond ou le bruit sont relatifs, tout dépend de l'échelle concernée. Le bruit peut-être un fond pour une échelle, alors qu'un fond peut-être un bruit pour une autre échelle.) Vu que des spécialistes n'arrivent pas avec les stats à déterminer si le plateau de 1945-74 est un bruit habituel ou non, je ne vois que les modèles qui puissent être capables de trancher un jour. Avec les stats, sans série bien plus longue, on ne peut que se planter à cause de ce genre de palier, en cherchant un modèle de bruit sur toute la série dispo, même en utilisant l'exponentielle plus physiquement correcte pour notre fond. J'avais vu un modèle de bruit chez Hadley à partir de toute la série avec un processus ARIMA (le I en plus, logique pour générer les marches visibles) mais on ne peut rien en faire à moins de sous-entendre que le I est vraiment physiquement pertinent (ce n'est pas parce qu'il y a des marches dans le passé qu'il y doit y en avoir actuellement, d'autant plus que statistiquement ce paramètre ne vaut pas grand chose dans ce cas, vu qu'il est estimé à partir d'un trop faible nombre de paliers)
  12. Bonjour, Comme c'est un abri à simples persiennes, peindre en noir que le dessous des persiennes de la chambre (et pas les autres) mais pas le fond, ni le plafond/toit de de la chambre (que ce soit à l'intérieur ou à l'extérieur, les laisser en blanc pour ne pas un peu plus refroidir les Tn) Il faut assez bien serrer les coupelles si elles sont à simples persiennes et choisir des des coupelles avec des pentes et persiennes assez longues, comme par exemple pour l'abri du KNMI, le meilleur abri à simples persiennes que j'ai vu pour le moment dans tous les essais pro et ici, de ce type d'abris, où tous les autres variantes surchauffent en Tx à la belle saison. Celui du KNMI est légèrement meilleur en Tx que le Socrima à coupelles de MF, un peu moins bon en Tn, mais bon à vérifier dans des coins plus chauds et plus sec que le plat pays, car il n'a pas été testé dans les essais en Algérie de l'OMM.
  13. Désolé Sebb. La façon de calculer les courbes est donnée ici : http://tamino.wordpress.com/2012/07/06/how-long/ Sur mon graphe, à gauche c'est la tendance en °C/an, la projection en pointillés à partir de la tendance GISS sur 1975 - 2013/06 est en °C/an et le modèle de bruit utilisé est celui de Tamino calculé sur 75-2012 (au pas mensuel donc avec auto-corrélation) Les courbes de proba sont calculées et tracées pour divers tendances (50% toute la courbe rouge, 5% pour la bleue (correspond au seuil limite à 95%, il n'y a que 5% des paliers qui durent plus longtemps pour la tendance donnée) et 2% pour la verte, qui n'était là à l'époque, que pour l'histoire de notre palier rarement vu par les modèles (pas prévus pour cette échelle), dans moins de 2% des modèles) La durée du palier en bas en années, en fonction d'une tendance donnée et de la proba donnée (donc là celle de GISS sur 75 - 2013/06, la limite de durée "normale" est donnée par la courbe à 5%, oublie celle à 2% qui n'était là que pour montrer la différence avec ce que voient les modèles) Plus une tendance est faible et plus un palier est sensé pouvoir durer longtemps avant qu'on le trouve anormal pour cette tendance donnée (comme indiquant un probable changement) au seuil à 95% (limite donnée par la courbe de proba à 5%) Comme chaque série de T a plus ou moins de bruit et que les tendances ne sont pas exactement les mêmes, ça change d'une série à l'autre (ou même dans la même série, s'il y a des corrections au fil du temps, comme c'est peut-être le cas avec la série GISS qui a eu des modifications depuis mon graphe de 2013. Il faudra que je vérifie, si ça change beaucoup) J'avais communiqué par exemple le graphe pour NCEP : et pour RSS (donc sur une période moins longue aussi bien pour la tendance que pour le modèle de bruit)
  14. J'ai pu passer sur l'ordi où se trouve les fichiers pour mettre à jour rapidement le test avec les IP (GISS à jour fin mars 2014, donc moyenne 2014 pas représentative avec que 3 mois) : Ca n'a quand même pas du tout la même tête qu'avec les points verts du graphe de l'exemple du changement de 1945 de mon message précédent, avec des années largement avant 1952 (année de la significativité du changement) qui passent sous l'IP inférieur. Là, on est plus proche du rose et donc de la poursuite du réchauffement significatif à partir de 98, que de la stabilité grise.
  15. Non Williams, car je t'ai déjà démontré mathématiquement x fois dans ce forum, que dès 1948 on voyait avec les anomalies mensuelles et avec 2 valeurs annuelles sous l'IP inférieur + une autre proche, qu'on pouvait envisager le changement de 1945, avant la significativité du changement de tendance, qui est arrivée très vite en 1952. En 1948, soit 3 ans après le changement de 1945, on pouvait l'envisager avec les IP et les anomalies mensuelles et le confirmer avec 4 ans de plus avec la significativité. Là même après 15 ans, toujours rien dans les anomalies mensuelles (comment veux tu envisager une stabilité sans d'assez nombreuses anomalies mensuelles qui fassent stagner ou baisser la moy/30 ans ?), et rien sous l'IP inférieur ou pas assez de valeur proches, au pas annuel, (Comment veux-tu qu'une tendance à la hausse change sur le fond, sans valeurs annuelles anormalement basses pour cette tendance ?) et donc logiquement aucune significativité du plateau annuel (c'est un plateau non significatif dans le cas présent), vu qu'on observe une significativité qu'après avoir récolté assez d'anomalies trop basses pour la tendance donnée et le climat donné. Donc comment veux-tu qu'on considère que tu as une approche scientifique, si tu oublies ces faits expliqués x fois, d'autant plus que je viens de diffuser à nouveau les graphes d'anomalies mensuelles après 1945 et après 98, qui montrent une sacrée différence de comportement ? Tu ne vois vraiment pas que les anomalies passent souvent sous la ligne rouge climatique (autrement plus en peu de temps avant la significativité détectable en 52, que pendant toute la période après 98), dans ces graphes plus à jour que ceux de mon message précédent : http://meteo.besse83.free.fr/imfix/ano5mensetatmoy466005.png Par rapport à après 98 : http://meteo.besse83.free.fr/imfix/ano5mensetatmoy052013.png Tu ne donnes aucune raison scientifique et objective de trouver notre palier annuel actuel, comme annonçant avec une plus grande confiance une stagnation plutôt que la poursuite de la tendance au réchauffement actuel, d'autant plus que la tendance/30 ans à fin 98, de 0.15°/déc avait une forte chance (1/2) de durer au moins 16 ans (15 ans pour une tendance de 0.17°, avec la même méthode Tamino dont j'ai déjà parlé ici), et encore pour GISS (pour NCEP plus bruitée par ex c'est 19 ans) Le palier anormal (trop long) pour une tendance donnée sur l'échelle de gauche, sera d'au moins de la durée projetée à partir de la ligne bleue à 5% de proba, et dans ce cas, on le verra auparavant avec les valeurs mensuelles (et annuelles flirtant souvent avec l'IP inférieur), avec de plus en plus d' anomalies mensuelles qui vont passer plus ou moins sous la ligne climatique à jour chaque mois précédent. On peut aussi se servir de ce graphe pour la tendance de fond de 0.12°/déc sur 61 ans de l' AR5 (celle avec des forçages naturels neutres et qui intègre de fait une éventuelle oscillation de 60 ans) en projetant une ligne à ce niveau, on a une 1 chance /2 d'observer un palier d'au moins 18 ans. Dans ce cas où on ratisse plus de variabilité (de plus basse fréquence), ce qui sera comme anormal, c'est une durée de palier, d'au moins 29 ans. Mais bon ce n'est guère efficace d'être fixé comme toi que sur cette durée de palier au pas annuel, vu que la significativité du changement, arrive bien plus souvent avant qu'on atteigne la limite de durée suspecte à 5%. C'est un peu comme si quelqu'un essayait de voir si ça stagne en août dans une station, en regardant juste le nb d'années depuis le dernier record de Txx (Au Luc on ne l'a pas battu depuis 1982, malgré le fait que bien des stations l'ont amélioré en 2003 ou avant, et malgré le fait que ça se réchauffe toujours au Luc. Un palier ne veut rien dire à lui seul, on détecte plus tôt les changements avec les autres méthodes) A noter que si même par rétroaction, le RC bloquait l'ENSO en phase Nina éternelle (plus du tout de phases neutres, plus du tout de phases Nino), pour de mêmes forçages naturels neutres (soleil + volcans), uniquement des Nina plus ou moins variables, mais pas plus puissantes qu'avant en extrême et en moyenne, ça ne ferait que générer un palier du même ordre. Il faudrait 25 ans environ pour absorber les 0.3° de différence de niveau entre ENSO+ et ENSO - et pour que de la T reparte à la hausse de façon bien moins bruitée, car en cas de Nina éternelle pas plus puissante en pointe et en moyenne, l'ENSO ne serait plus assez variable pour générer autant de bruit qu'avant (Juste du bruit ENSO pour les différences de Nina) Il ne faut pas oublier que la tendance à la hausse est la même avec les Nina, qu'avec les Nino. La différence, c'est le niveau de base. Les anomalies sont simplement plus basses avec les Nina. Le plateau pour cette rétroaction, n'existerait que le temps de combler l'écart de niveau. Donc il ne suffit pas simplement que le RC provoque une phase ENSO négative éternelle, mais surtout que les Nina permanentes, soient de plus en plus fortes au fil du temps, pour repousser plus longtemps le RC (Enfin du moins tant qu'il y a assez de froid en stock dans l'Océan, donc de quoi voir venir dans ce cas de Nina de plus en plus forte)
  16. Oui Météor, j'avais d'ailleurs montré dans ce forum, une type de graphe simple, pour détecter plus rapidement un possible changement (avant la significativité statistique) à l'aide des anomalies mensuelles, à comparer avec l'évolution de la moyenne/30 ans à jour le mois précédent l'anomalie mensuelle considérée (et un autre pour montrer la différence entre une réelle stabilité (celle avant le réchauffement moderne) et notre période actuelle avec toujours un réchauffement) http://meteo.besse83.free.fr/imfix/deretatmoyen994series042012.png http://meteo.besse83.free.fr/imfix/deretatmoyen984series042012.png http://meteo.besse83.free.fr/imfix/deretatmoyen453series042012.png (A un moment si le plateau dure trop, c'est certain que les anomalies mensuelles finiront par se retrouver assez bien distribuées autour de courbe rouge, qui elle va finir par stagner) Ca ne règle pas le problème de la détection avec une unique anomalie mensuelle. C'est bien parce qu'on voit aussi les autres anomalies mensuelles, qu'on peut remarquer si un changement en cours est possible ou pas, vu qu'on récoltera par-ci, par-là, une anomalie qui pourra sortir largement du lot (valeur qui sera aussi bien hors de l'intervalle de prédiction autour de la tendance) sans qu'on puisse dire que ça change quelque chose (à partir d'elle seule, sans les autres anomalies). Barth, le problème n'est pas là. Williams ne veut pas du tout entendre que je lui dis qu'il y a un plateau au pas annuel, donc que j'ai bien la même vision que lui de la réalité au pas annuel, mais pas du tout la même conclusion à partir de cette même réalité. Lui sort du contexte annuel pour assimiler quelques années au pas annuel sans que ça représente le climat, pour en déduire que ça indique une stabilité du RC (stabilité du RC pour lui = plateau au pas annuel quelque soit la durée et le niveau de T du palier. Il ne fait aucune différence entre un palier près du record annuel et un palier qui se situerait au niveau du climat calculé fin 98, où là il y aurait bien stabilité), alors que ce n'est pas vrai dans la réalité. Il pourrait pourtant le vérifier par lui même, mais il se tord dans tous les sens pour éviter "l'air de rien" de calculer les moyennes/ 30 ans, qui lui montreront qu'il n'y a pas de plateau dans l'évolution du climat, malgré le plateau bien réel au pas annuel. Il refuse la réalité qui est que la moyenne/30 ans, le climat, se réchauffe toujours actuellement. Il le sait et ne le conteste jamais, mais nous retourne toujours vers le pas annuel pour cacher le climat qui se réchauffe toujours, sous le tapis. Il faut bien voir que par définition, un plateau au pas annuel est visible dès fin 99, vu que la tendance sur 98-99 et suivantes, ne sont pas significatives (donc considérées comme plates) et que 99 n'a pas donné une valeur supérieure. La seule différence c'est que peu de monde, ni Williams, ne s'est pas fixé sur un plateau de 2 ans. Lui place son curseur de façon arbitraire (non scientifique) avec quelques années de plus, vers 2008, mais malheureusement ça ne change rien, ce n'est pas assez même actuellement avec 6 ans de plus, pour indiquer un changement pour le cas concerné pendant qu'actuellement le climat se réchauffe toujours dans les faits. Ce n'est pas nouveau que J. Jouzel voit un plateau au pas annuel, il n'est pas plus aveugle que nous, surtout avec les C Allègre and Co qui l'ont pointé du doigt depuis bien longtemps. La différence fondamentale, c'est qu'il n'en déduit pas que le RC s'est arrêté (tant que ça n'a pas de sens pour le climat)
  17. Williams, je ne te parle pas du futur, ni de prévis. La moyenne/30 ans calculée à la fin du mois d'avril, c'est une donnée observée et enregistrée. Compare là avec toutes celles sur 30 ans du passé et montre nous où est le haut de l'escalier pour le climat actuellement, vu que ce mois vient de faire monter encore le niveau du climat. Tant que tu considéreras que le climat c'est la T mensuelle, annuelle ou d'une autre durée trop courte, tu ne pourras voir que des paliers et des escaliers trop pentus ( +-), qui n'existent pas dans l'évolution du climat, car ils concernent des échelles inférieures qui ne sont pas celles du climat. Si tu ne regardes jamais le climat, tu ne peux voir son évolution. Regardes-tu la T des jours d'août, pour voir l'évolution des T des mois d'août ? Non, tu les oublies très naturellement, pour te consacrer uniquement la T moy des mois d'août. Fais de même pour le climat, oublie les mois et les années internes à un seul climat, compare des climats tant que tu ne parviens pas à éviter de confondre le climat, avec la T annuelle. Météor, oui j'avais bien compris que dans ton cas, tu ne sortais pas un mois du contexte général sur une période suffisante, mais je pensais que d'autres ne le voyaient pas de cette façon. Comme tu l'as remarqué justement sur ton blog (Par ex pour "la contre performance" de février : http://climatevolution.com/2014/03/04/indicateurs-de-fevrier-2014/ ), certains mois, l'anomalie ne semble pas en accord, ce qui est normal avec l'incertitude de la détermination de la T mensuelle globale, aussi, voir plus importante selon les séries, que l'effet de l'ENSO sur un mois (Et pas en moyenne sur d'assez nombreux mois bien entendu. C'est bien pour cette raison qu'on retrouve l'influence nette de l'ENSO, malgré l'incertitude de la T sur un seul mois, à cause du problème de couverture surtout et autres. La très grande majorité des mois n'ayant pas souvent la malchance de relever les plus basses ou les plus hautes anomalies dans des zones mal couvertes pour que l'incertitude annule souvent complètement, ou s'ajoute à l'effet ou non, d'une phase ENSO) Même si l'anomalie mensuelle de ce mois avait affiché bien moins ou bien plus, uniquement à cause de l'incertitude de la T mensuelle, son classement n'aurait voulu rien dire pour l'évolution du RC, pour exactement la même phase de l'ENSO que ce mois. C'est bien parce qu'on l'analyse avec les autres sur une durée suffisante, qu'elle a un sens, mais pas seule. En attendant que les spécialistes soient capables de faire un tri clair entre le signal, le bruit et les incertitudes sur une seule T mensuelle (ce qu'ils estiment déjà assez difficilement précisément sur moins de 30 ans, avec de nombreux mois), il faut bien estimer le sens avec les stats pour éviter de faire dire à cette échelle nano-métrique pour le climat, tout et son contraire. Un mois ne pouvant accélérer, ralentir ou stabiliser, à lui seul la tendance de fond, sans une catastrophe naturelle ou non, modifiant fortement les paramètres physiques. C'est justement parce que je n'oublie pas les limites physiques actuelles de la détermination de la T d'un seul mois, que j'ai indiqué qu'on ne pouvait rien diagnostiquer avec un seul mois (D'autant plus que Troy qui a une estimation de TCR assez proche de la tienne, trouve pour le hiatus, un biais bien supérieur de couverture par rapport à celui produit par l'ENSO, ce qui montre bien que sur une trop courte période (pas courte, comparée à un seul mois), que l'ENSO n'est pas en permanence la principale cause de variation apparente de la T, c'est sur une durée bien plus longue qu'un seul mois)
  18. Williams, c'est logique que pour ceux qui ne sont pas au courant ou qui ne vont pas vérifier la significativité de ce que tu racontes. Ce n'est pas logique, vu que ce type de mois réchauffe encore le climat (qui est un état moyen sur 30 ans au moins), qui monte donc une nouvelle marche, plus haute, même pour un collégien qui se donnera la peine de vérifier que la moyenne/30 ans s'est réchauffée, encore et encore. Ce n'est mathématiquement pas le haut de l'escalier pour le fond aussi avec les méthodes mathématiques valides plus élaborées et appliquées à de plus courtes périodes. Pour le moment, c'est le haut de l'escalier pour le record de la moyenne globale annuelle, à ne pas confondre avec le record pour le niveau du climat (moyenne/30 ans au moins), qui vient d'être à nouveau battu ce mois, ce qui est le comble quand on est soit-disant en haut de l'escalier (qui n'en finit pas de monter dans les faits pour le climat...) Le haut de l'escalier est probablement atteint s'il est démontré que le palier est significativement différent du "non palier significatif" (qui est la tendance significative à la hausse, précédente). Il faut que tes valeurs et/ou ton palier sortent de certaines bornes pour que tu puisses dire que c'est logique, qu'on a atteint très probablement le haut de l'escalier. Pour le moment ce n'est pas le cas. Le palier, la marche visible avec le bruit, n'existent probablement pas sur le fond avec une confiance à 95%. Mais bon, on sait tous Williams and Co, qu'après x années d'explications, tu continueras à nier ces généralités, ceci sans aucune démonstration valide, tout ça pour faire illusion et tromper les nouveaux lecteurs peu informés, qui vont logiquement confondre, le niveau du record annuel, l'apparence du bruit+ fond (qui affiche bien un palier au pas annuel), avec le fond climatique qui ne montre pas ce palier, à l'aide de ton baratin habituel où tu refuses de respecter les bases scolaires simples. Un mois ne peut infirmer, ni confirmer le RC, pas plus que des jours d'août 2003 (le 1er, le 3 ème ou le 10 ème, le 30 ème d'août 2003) ne pouvaient confirmer ou infirmer le réchauffement du mois d'août en France. Si je rappelle des généralités, c'est bien parce que certains démontrent chaque jour ici et ailleurs, qu'ils ont encore des gros problèmes avec elles.
  19. Salut ! Je ne compte pas tester la première version de la WMR 300 (sauf si l'équipe d'IC me le demande pour cause de nombreuses StatIC potentielles avec ce modèle), même si elle doit probablement donner des résultats peu différents de la Davis (vu que c'est pratiquement la même station, à part pour l'anémo) tant qu'elle n'offrira pas un plus par rapport à Davis ou un prix assez inférieur qui favorisera l'arrivée d'un bien plus grand nombre de StatIC que sans la WMR 300. La Davis V2 câblée étant abordable, en dehors de la mémoire plus importante de la WMR 300, je ne vois pas vraiment l’intérêt d'investir dans ce modèle en première version d'une ancienne génération de stations à ce prix-là, d'autant plus qu'une Davis V3 ne devrait pas trop tarder (Ca ne m'étonnerait pas qu'elle arrive au pire vers fin 2015-début 2016) A noter que les toutes dernières versions de Davis V2 Plus, sont équipées de capteurs solaires (UV et global) avec le bouclier noir qui intègre la bulle, légèrement modifié. Sur la bordure tout autour du diffuseur, maintenant on trouve des nano-structures , afin d'améliorer la réponse dans les faibles hauteurs solaires (attention certaines versions n'ont que le capteur UV avec cette modif, alors que le capteur global existe aussi avec) Davis mène des essais importants pour améliorer ses capteurs. Un des techniciens qui s'en occupe, participe aux comparaisons de l'OMM. Ils font des efforts non négligeables pour du matériel météo à "bas" prix, bien plus que certaines entreprises que j'ai contactées et qui fabriquent et vendent du matériel météo pro à prix d'or, sans connaître, ni même s'intéresser même un peu, aux besoins et aux normes de l'OMM ou des services météo mondiaux ! Dans le monde entier, les stations Davis sont considérées comme le bon compromis entre le matériel très grand public et le matériel pro. Au KNMI par ex, des spécialistes ( des "Michel Leroy" NL), ont utilisé les stations Davis amateurs pour étudier l'ICU : http://www.knmi.nl/publications/fulltexts/uhiweeramateurs_copy2.pdf Gacko, le royaume des "intégristes" au niveau matériel, ce serait de te demander de t'équiper de ce matériel, choisi par des scientifiques qui essaient de mesurer le plus correctement et de façon fiable, les paramètres, ce qui n'est pas simple : https://www.ncdc.noaa.gov/crn/ Un seul de ces trois abris méca Met One dans ce type de station (les normes de qualité du réseau USCRN sont les plus performantes dans un réseau opérationnel au monde, il y a des discussions pour qu'elles soient appliquées dans tous les réseaux très haut de gamme du suivi du climat, de référence climatique, de type GCOS, CRN, RCS ) vaut plus qu'une Davis V2 complète avec abri ventilé méca 24h/24h à chambre fermée latéralement (station du commerce qui donne les T les plus proches de ces normes pour un prix défiant toutes concurrences. En T je peux vous garantir qu'elle est supérieure à une station pro, sans ce type d'abri). L'entretien, l'étalonnage, la maintenance, coûtent plus de 4200 dollars/an/station, soit plusieurs Davis complètes par an avec certificat NIST... Merci Joselito pour tes infos. En pluviométrie, quelle est la valeur et le pluvio de référence pour ton site? L'écart que tu rapportes, est-ce la WMR par rapport à la Campbell ou la Davis par rapport à Campbell ? Je ne comprends pas pourquoi tu ne règles pas le pluvio, vu que la règle est que les exemplaires des pluvio "méca" à augets, ne donnent pas les mêmes résultats à la sortie d'usine, y compris pour tous les modèle pro chez MF (J'ai vu les courbes de contrôle des centaines de platines testées en labo chez MF, les IC à 95% sont vraiment importants pour des pluvio qui coûtent bien plus chers qu'une Davis complète et ta valeur fait bien parti de leurs IC, donc dire que le pluvio Davis est moins bon sans réglage, sans savoir quelle est la valeur "vraie" (la plus proche de la réalité) pour ton site, n'a pas vraiment de sens) et qu'il n'existe aucune comparaison pro, avec des pluvio qui ne sont pas d'abord réglés après l'usine. L'intérêt du réglage de tous les pluvio, c'est de pouvoir vérifier sur le terrain, si un pluvio est plus ou moins correct dans le temps. Un pluvio neuf à augets n'est déjà pas stable, il faut attendre un certain rodage et un nouveau réglage dans ces conditions d'usages assez stabilisées, pour voir ce qu'il vaut. 2 km/h d'écart, mais sur quel paramètre de la vitesse du vent (le vent moyen total, du jour, le vent / 10 mn...) ? Que donne l'écart moyen en excluant toutes les vitesses moyennes/1 mn < 8 km/h, où joue le seuil de démarrage plus performant du sonique (sous estimation d'un anémo à moulinet dès que le moulinet s'arrête, vu qu'il lui faut plus de vent pour commencer à tourner) ? Quel est l'écart sur les rafales maxi du jour par vent fort et très fort où se situent généralement les plus grosses différences ? A quelle hauteur sont-ils installés, en étant espacés de 5 m ? Quel est ton réglage du pas de temps pour la mesure des rafales de la Campbell ? Pour les Tx, as-tu l'écart médian et les bornes pour 95% des cas, mais aussi ces indicateurs uniquement pour les Tx relevées uniquement par beau temps, vu que ce n'est pas très fréquent dans ces saisons dans ton coin qui n'a pas l'air très favorable au soleil fréquent. Je décortique, car certains écarts peuvent être masqués par la masse des jours de nuageux ou autres. Ici je m'en suis rendu compte par hasard il y a peu même pour l'abri Stevenson MF, qui n'était sensé renvoyer que des écarts minimes en Tx par rapport au Socrima à coupelles, d'après les essais MF sur un an à Trappes. En fait on a un écart faible à cause d'une valeur lissée par de trop nombreux jours de mauvais temps dans ce coin. Face à un Young ventilé méca à 6 m/s à Trappes, voici les écarts sur les Tx, IC à 95% : Socrima MF à coupelles: [-0.2 ; 0.7°], écart médian : 0.2° Stevenson modéle réduit : [-0.15°; 0.9°], écart médian : 0.25° Donc faible écart en Tx quand on compare le Socrima au Stevenson là-bas sans tenir compte uniquement que des Tx par beau temps. De 93 à 2000 j'utilisais le Socrima à coupelles pour ma climato, vu que le Davis 7714 n'existait pas quand j'ai installé ma station, puis avec l'arrivée du poste officiel MF en 2000, pour des raisons pratiques afin de comparer avec d'autres capteurs dans le même abri en plus des thermo MF, j'ai malheureusement fait confiance à ces faibles écarts sans tester le changement d'abri chez moi et j'ai déplacé le Socrima en classe 4. Pour la comparaison en cours du Cimel ici, j'ai installé un autre Socrima proche du Stevenson et je me suis rendu compte que non seulement les Tn sont bien trop froides (comme pendant les essais MF par temps radiatif), mais surtout les Tx sont bien plus chaudes par beau temps dans le Stevenson par rapport au Socrima, sauf par vent très fort. Le Stevenson est pour le moment ici avant les tests dans le dur de la chaleur et des rayonnements puissants de l'été, un abri dont la qualité des Tx se situe entre le Socrima et le Cimel, ceci sans tenir compte des thermo à maxi MF qui en rajoutait une couche (de surchauffe, ce biais est connu aux US, le passage des thermo en verre aux électroniques, a entrainé une diminution moyenne des Tx de 0.3°). Je suis assez dégoutté, vu que je dois déterminer des corrections qui tiennent la route selon le type de temps pour mes valeurs journalières depuis 2000, jusqu'au début de la comparaison avec le Socrima en classe 2 cette année. De plus comme avant 2000 j'avais un autre capteur Davis plus lent que le SHt11 Davis actuel (le capteur boîtier blanc de la Monitor 2), en réalité même le record absolu de 2003 ici n'est plus valide, je n'aurais pas relevé 40.7° à conditions matérielles égales (que 39.9° en tenant compte des conditions de vent à ce moment là), en fait le record de la station reste celui de 93, 40.4° relevé dans le Socrima avec le capteur Monitor2 lent. Pour ceux qui ne voient pas trop le gros problème de ne pas tenir compte des constantes de temps pour déterminer les valeurs et comparer les mesures, voir l'étude sur les fonctions de transfert pour le KNMI (et là c'est avec le même modèle de sonde, donc même constante de temps au moins pour elle), avec aussi une comparaison du Socrima et d'autres abris (Attention, pour la comparaison d'abris hors fonction de transfert, les T, Tn, Tx sont déterminées avec des moyennes/10 mn des échantillons /15s, ce qui lisse les écarts par rapport à ce qu'on observera avec la moyenne classique de T /1 mn): http://www.knmi.nl/publications/fulltexts/brandsma_vandermeulen.pdf (A noter que ces fonctions de transfert seront à revoir pour des coins plus chauds et moins humides, vu que la réactivité dépend aussi de la région, plus c'est sec, plus il y a de forts rayonnements et de la chaleur et plus la T varie rapidement avec la convection bien supérieure et des effets de micro-échelle supplémentaires) Voir ici aussi pour les sondes différentes dans des abris différents : Donc voilà des exemples de pourquoi, on ne peut pas se permettre de changer le matériel à volonté, sans effectuer des comparaisons en double pendant assez longtemps et surtout aussi sur le site considéré, comme préconisé par l'OMM (2 ans en double), malgré des comparaisons effectuées par la DSO et d'autres organismes sérieux ailleurs. Il faut bien voir que les tests dans des climats, des sites trop différents, peuvent générer des écarts plus ou moins importants. Ici on ne trouvera jamais l'été un sol herbeux comme à Trappes ou au KNMI à De Bilt. Tout le monde n'a pas de la neige ou de la glace au sol à midi solaire en avril/mai par vent faible, pour favoriser l’émergence d'erreurs de plus de 10° en Tx dans un abri à ventilation naturelle et tout le monde n'a pas un sol très sec, bouillant, une végétation clairsemée cramée, avec des périodes fréquentes > 60 jours sans pluie significative et des records de sécheresse près de 100 jours sans pluie > 1 mm l'été, des jours de Tx> 30° à gogo avec du soleil très souvent présent et donc capable de faire ressortir des écarts moyens importants sur les Tx. Regardez aux US, avec une comparaison pendant des années, de 13 stations avec Stevenson US (station type CRS, le même que celui dans la Vallée de la mort) à moins de 500 m de 13 stations USCRN en site haut de gamme, ça fait très mal. Jusqu'à 16° d'erreur en Tx. Les écarts moyens sont mécaniquement très lissés dans une moyenne générale avec les nombreuses valeurs de 13 stations pendant des années et avec y compris tous les jours défavorables aux écarts, ce sera tout autre chose, si on isolait que les Tx avec que les conditions par beau temps sans vent trop fort) : http://meteo.besse83.free.fr/imfix/ecarttx13uscrncoop500m.png Ca fait pas mal de temps que je fais de la mesure météo assez intensivement et j'ai toujours des surprises, j'en apprends tous les jours, tellement le moindre changement dans du matériel pourtant moderne (le site et l'emplacement n'en parlons pas !) peut créer des écarts non négligeables et ne plus rendre les Tn et les Tx comparables. Exemple, ceux qui passeront de la sonde SHT 11 Davis d'origine à un SHT11, SHT15, SHT75 avec un petit montage type Ebay, qui la rend bien plus rapide que la Davis et son filtre, peuvent s'attendre à une bonne rupture dans leurs relevés de Tn et surtout de Tx, s'ils ne lissent pas les relevés pour compenser les différences de constantes de temps (et là il vaudrait mieux disposer d'une acquisition Campbell, sinon il faudra passer par Excel et ne pas tenir compte des valeurs consoles et hi lo du logiciel, vu que la console Davis ne permet pas de sélectionner le lissage nécessaire pour chaque paramètre). Amusez vous à trouver la bonne valeur de Tx dans le jour le plus chaud de l'année à Besse (pour le moment) : Premier jour de chaleur dans tous les abris en classe 2. Tx tardives avec vent de terre et voile nuageux sur mon site. Tn et Tx du jour. En classe 4 : Socrima (Pt 1000) : 10.4°, 27.2° En classe 2 : Abri Young méca et normes USCRN (capteur SHT75) 11.0°, 25.2° (Tx 26.1° sans la norme de constante de temps USCRN) Davis V2 méca 24h/24h (SHT11 d'origine) : 10.9°, 25.2° Cimel (Pt 1000): 10.7°, 26.4° Socrima (Pt 1000) : 11.0°, 25.8° Stevenson (Pt 1000) : 10.7°, 26.0° (26.2° avec sonde Davis rapide, 26.5° au thermo MF soit moins bon que dans le Cimel, un cauchemar pour moi !) La valeur la plus proche de la vraie Tx de l'air représentative d'une échelle suffisante pour la météo et la climato, c'est 25.2° (c'est une valeur assez proche de celle relevée à 10 m de haut (sans toit dessous) dans un 7714 : 24.8°, bien représentative de la masse d'air sans trop d'effet de sol) Je viens de voir ton dernier message Joselito. Les pannes ne sont pas un problème sur une Davis, elles sont le bien moins qu'une panne sur une TV, un ordi, ou que sur une station pro autrement plus chère à réparer. Le problème c'est de croire qu'il n'y a pas de taux de panne sur une station météo, qu'elle soit pro ou non. Il faut donc vérifier à combien ça reviendra de la réparer au cas où on serait concerné, vu qu'il est toujours possible d'en voir dans ce monde commercial imparfait. Pour la WMR, il faut juste vérifier si le SAV fournit bien rapidement toutes les pièces détachées hors renvoi de la station et qu'on peut remplacer les composants de base facilement, pour ne pas avoir à payer la main d'oeuvre et un voyage hors garantie de la station (Est ce que l'ILS de l'anémo peut-être changé sans changer d'anémo ? J'ai vu que ce n'était pas toujours possible sur les modèles grand public. Est ce que le condensateur peut-être changé par nous comme sur la Davis ? Tout les petits détails qui peuvent vite faire monter le prix final d'utilisation. La maintenance possible pour celui qui n'y connait pas grand chose, c'est un gain non négligeable pour l'amateur)
  20. Ca pourra vous aider :
  21. J'ai trouvé dans les résultats d'une comparaison plus poussée à De Bilt, le nouvel emplacement de l'abri de DB depuis 2008 et plus précisément celui depuis 1951. L'ancien emplacement est noté "DB260" , le nouveau depuis 2008 "Test4" . Les flèches, c'est le lieu de la petite modif plus ou moins progressive et de la rénovation, devenue pendant une période plus rugueuse avec des buissons, qui a eu un effet non négligeable sur les T (voir plus bas dans des résultats). Le site 4 est aussi l'emplacement du mât d'anémo de 20 m, pas très efficace pour l'étude sur l'ICU de 2003, seule mesure du vent pour toute l'étude, les auteurs n'ayant bizarrement pas jugé utile d'installer un anémo aussi dans la station rurale (à 1.5/2 m de préférence près l'abri), comme si par définition le vent à 2 m près de l'abri à 7.5 km de là, était le même qu'à 20 m et à 230 m de l'abri à DB...Là dans ce qu'ils racontent et ce qu'ils n'ont pas fait en 2003, on dirait vraiment qu'ils viennent de découvrir l'importance de la moindre variation du vent sur les T nocturnes ! Cette comparaison pas encore assez poussée (pas d'anémo sonique, pas d'abri méca,... , alors que ça fait longtemps qu'on doit les utiliser en plus des abris standards du réseau, pour analyser les causes des écarts), que tous les amateurs et pro de climato devraient décortiquer et assimiler avant de penser à comparer des valeurs brutes, des records, à analyser des écarts entre stations, sans se préoccuper des moindre changements dans les divers sites (lisez bien et ça devrait vous vacciner une fois pour toutes contre l'utilisation de données brutes !) montre à quel point la moindre modification de site compte, comme les buissons peu hauts trop proches de l'abri (à 12 m de l'abri dans sa position à DB260 sur l'image) ont plus d'importance que des arbres hauts plus lointains et pourquoi il faut d'abord se préoccuper des effets de site bien avant de chercher à déterminer à distance, une éventuelle advection d'ICU ou autres causes d'écarts. Là vu les résultats au fil des modifications uniquement pendant les comparaisons, ils n'ont pas fini de s'en voir pour corriger les données journalières sur 100 ans ! Regardez l'impact de l'évolution dans la zone avec flèches sur l'image pour les écarts de Tx Tn Tm, avec les stations voisines : Donc vous voyez ce que quelques bricoles proches de l'abri pourtant dégagé (pour vous situer l'énormité, il est de 8 à 12 fois la hauteur des obstacles, le rêve pour tous les amateurs. Cette étude est un cauchemar pour bien des stations classe 1 de MF, malgré des conditions bien pire qu'à DB, à cause de buissons sur une grande étendue et bien plus proches !) peuvent provoquer, des variations supérieures à l'ICU estimé (qui reste largement à affiner à la vue des écarts de micro site à DB, il faudra prouver que des écarts ne sont pas dû aux différents effets de site de l'étude de 2003) sur près de 110 ans. Le document à lire et à relire : http://www.knmi.nl/publications/fulltexts/wr2011_01.pdf Par contre il faut corriger ce que j'ai dit dans mon message plus haut sur les 0.5° de refroidissement en moyenne depuis le déplacement de 2008, valeur qu'on trouve un peu partout, mais pas dans l'étude elle-même. Avant la rénovation de 2004 du terrain proche avec les buissons, c'était même un réchauffement annuel de 0.15° pour le nouvel emplacement. C'est encore assez nébuleux, car ils s'attachent à des moyennes "vraies" avec des valeurs sur 10 mn chaque heure pour tenter de corriger les valeurs journalières (à ce niveau il n'y a pas de différence journalière de plus de 0.1° en valeur moyenne annuelle)
  22. Le document sur l'ICU de De Bilt que je connaissais, est très intéressant, mais il ne fait que confirmer que l'ICU n'est pas le principal biais dans les données brutes aussi sur cette station, mais en prime que les données homogénéisées par Berkeley collent incroyablement, même par rapport à l' estimation plus récente de l'ICU réalisée par le même auteur à partir d'une autre étude à Utrecht. http://www.knmi.nl/cms/content/92301/warmte-eilandeffect_van_de_stad_utrecht La nouvelle estimation de l'ICU à DB est de 0.14° sur 1901 -2008 pour 1.8° de réchauffement sur cette période (Différence entre deux moyennes /10 ans ) L'ICU qui n'est qu'un biais parmi d'autres plus importants, n'est pas un problème avec l'homogénéisation, car le réchauffement à DB sur la même période avec les données homogénéisées de Berkeley donne 1.66°, donc comme 1.8° - 0.14° d'ICU ! C'est assez diabolique d'arriver pile au même résultat, sans utiliser la même méthode, probablement avec une part de hasard, en plus de la performance globale de la méthode. Berkeley, s'est quand même attachée principalement à réduire l'influence de l'ICU, c'était une priorité bien plus que pour d'autres séries (DB est urbaine pour eux) L'étude de 2003 donnait une advection d'ICU de 0.11°+-0.06°, http://www.knmi.nl/publications/fulltexts/brandsma_konnen_wessels_2003.pdf , je ne sais pas où tu as vu 0.2° annuellement, ni 0.5° tout l'hiver. Un mois ou une seule direction, ce n'est pas tout l'hiver. Il faut bien voir que l'ICU l'hiver n'est pas une règle, comme le montre Brandsma aussi en analysant bien plus de stations sur le plat pays. Il n 'est pas significatif l'hiver, comme relevé dans bien d'autres études : http://journals.ametsoc.org/doi/abs/10.1175/JAMC-D-11-0135.1 , on peut voir plus de détails gratuitement plus bas sur cette étude, après d'autres articles dans ce document intéressant sur ce sujet : http://edepot.wur.nl/171621 Avant 1900 environ, la station dite " De Bilt" pour la série longue, était à Utrecht. L'ICU et son importance, ne concernent vraiment pas que les données récentes, mais certains ont toujours du mal à admettre que bien des stations étaient plus contaminées par l'ICU avant : Et là comme l'abri ou son absence, étaient bien moins efficaces pour réduire divers rayonnements parasites au niveau du capteur, on avait plus de dégâts (de même que les abris actuels à ventilation naturelle sont moins performants près des obstacles, des matériaux, que les abris méca indispensables pour mesurer et étudier la T en milieu plus ou moins urbain. C'est préconisé par l'OMM, c'est ce qu'on trouve dans les campagnes de mesures les plus pointues pour étudier l'ICU. Enfin les différences même dans un site naturel parfait face à un abri Stevenson, ne sont pas négligeables. Amusez vous à comparer des records de Tx dans le temps sans en tenir compte, alors qu'on peut relever des erreurs jusqu'à +16° en Tx, dans une comparaison de 13 stations avec Stevenson pendant des années face à 13 stations USCRN sites haut de gamme avec abri méca: ) Estimer l'impact de l'ICU, c'est très bien, mais l'isoler sans le replacer sans le contexte des autres corrections bien plus importantes à apporter aux données brutes pour x changements, ça n'a pas de sens. Le déplacement de 1950 (Voir les autres aussi avant avec le zoom : https://maps.google.com/maps/ms?ie=UTF8&hl=en&msa=0&msid=108455475154621623933.0000011301001df084755&ll=52.100488,5.177125&spn=0.002755,0.007081&t=h&z=17&om=1&dg=feature . Attention, le plan n'indique pas l'emplacement différent avant et après 2008) a induit à lui seul, une rupture brutale d'environ 1° de la moyenne (valeurs du KNMI et Labrijn), donc un biais environ 7 fois plus important que l'ICU. Le dernier déplacement de 200 m en 2008 a été réalisé pour s'éloigner d'arbres trop proches qui chauffaient les T de 0.5° en moyenne. Donc un coup de froid dans les données brutes toutes récentes bien plus important que tout l'ICU depuis près de 110 ans... Cette valeur suite au déplacement récent, est même mise en avant chez Watts (qui brassera du vent dans quelques années en faisant semblant de ne pas comprendre pourquoi on doit refroidir les données brutes avant 2008, (ou réchauffer les données après 2008), pour les rendre comparables aux anciennes, malgré l'ICU minime par rapports aux divers changements dans la station !) : http://wattsupwiththat.com/2009/09/24/ooops-dutch-meteorological-institute-caught-in-weather-station-siting-failure-moved-station-and-told-nobody/ Il faut voir aussi que l'advection d'ICU est de 0.14° en donnée moyenne pratiquement "vraie" déterminée à partir des valeurs horaires et non pas à partir des seules Tx et des Tn (Ces recherches au pas horaire sont surtout faites dans l'optique de trouver une solution pour tenter d'homogénéiser correctement les données journalières en fonction des types de temps). Il est connu depuis longtemps que l'ICU impacte bien plus la moyenne vraie que la moyenne journalière classique de référence pour le suivi du climat, déterminée à partir des Tx et des Tn, à ces moments où les écarts à cause de l'ICU sont bien plus faibles. Le changement de calcul de la moyenne est d'ailleurs considéré comme une des causes de ruptures importantes (et il y en a eu à DB) L'ICU est faible comparé à d'autres corrections à appliquer dans bien des séries de données contaminées par l'ICU, même s'il existera toujours des exceptions pour confirmer la règle. On le voit nettement dans les données brutes de DB chez Berkeley, que le plus gros problème global (la synthése des sources de ruptures et non en isolant que celle due à l'ICU où que celle due au déplacement de 1950 ou autres) se produit entre 1850 et 1900 et les autres segments modernes, les biais, sont faibles, négatifs : Avec les données de rêves dispo chez Berkeley (brutes et homogénéisées, par stations et par régions !), on voit des ruptures à gogo pour bien d'autres raisons que l'ICU aussi dans la station rurale de l'étude de 2003. http://berkelyearth.lbl.gov/stations/92835 http://berkeleyearth.lbl.gov/stations/175554 L'homogénéisation même si elle n'est pas parfaite, est assez efficace au pas mensuel pour limiter aussi le biais dû à l'ICU, en plus des autres dérives plus importantes que l'ICU, comme ça été démontré x fois à travers le monde. Sur la même période commune que la station rurale, donc plus courte que la série de De Bilt complète, la tendance en données homogénéisées est "identique" à la station rurale, même un peu plus faible à DB, 2.45°C/S contre 2.54°/S pour la rurale, mais non significativement différente, c'est le même réchauffement. S'il y a un problème avec l'ICU, ce sera à un niveau bien plus global (modif de la circulation , du jet et autres) qui va réchauffer autant la station rurale que l'urbaine. On ne pourra donc pas détecter l'influence très globale en comparant des stations rurales/urbaines comme à DB, mais avec des modèles climatiques encore plus fins. Il faudra donc d'abord admettre que les modèles climatiques ne sont pas inutiles. Enfin en attendant, on ne peut pas revendiquer des problèmes d'ICU classiques (diff évolution rurale/urbaine) sans être dérangé un instant par l'utilisation des données journalières biaisées de T (ou des données mensuelles non homogénéisées), pour étudier quoique ce soit (les flux ou autres). Le seul moyen d'utiliser le pas journalier ou mensuel en données brutes, c'est de faire comme dans l'étude de 2003, avec les métadonnées précises, il faut réduire l'étude à quelques années où le matériel, le site, les façon de moyenner et autres, n'ont pas changé, ce qui limite beaucoup les possibilités, d'autant plus que les métadonnées vraiment complètes, ne sont pas souvent dispo ailleurs que dans les services nationaux et encore...) Donc en attendant qu'on sache homogénéiser les données journalières, ces jours de flux sont à étudier face aux valeurs mensuelles homogénéisées, sinon même si le raisonnement mathématique était parfaitement correct, ce serait une étude douteuse, vu que par définition, les données journalières de T ou mensuelles brutes, le sont. On ne sait toujours pas assez bien corriger les données journalières, Brandsma l'indique encore en 2013 : http://www.knmi.nl/publications/showAbstract.php?id=10503 Pour les amateurs de données mensuelles homogénéisées FR (en plus des brutes) et autres , on a un bon paquet de stations (les séries n'ont pas toujours la durée réellement dispo chez MF) et mieux encore, des zones régionales bien plus utiles qu'un seul point de mesure pour le genre d'étude de JBR ( http://berkeleyearth.lbl.gov/locations/52.24N-5.26E , http://berkeleyearth.lbl.gov/auto/Local/TAVG/Text/52.24N-5.26E-TAVG-Trend.txt ) Si on veut étudier la zone en données homogénéisées vers Aix en Provence: http://berkeleyearth.lbl.gov/locations/44.20N-4.47E Des stations à gogo : http://berkeleyearth.lbl.gov/station-list/station/154878 Amusez vous à classer et à comparer les moyennes mensuelles brutes, ou pire des valeurs journalières même modernes au Luc avec cette rupture : http://berkeleyearth.lbl.gov/stations/154856 Sur la période disponible, on passe d'une tendance de -0.64°C /déc en données brutes à + 3.25°/déc en données corrigées, l'ICU classique, restera bien ridicule par rapport aux autres changements dans cette station. On peut récupérer les données homogénéisées des stations et des zones régionales (régions plus ou moins fines selon le zoom qu'on choisit) directement sur une carte : https://mapsengine.google.com/11291863457841367551-04024907758807700184-4/mapview/ Pour revenir à ton étude JBR (en oubliant totalement le biais des données journalières mensuelles brutes de T, juste pour discuter du raisonnement de fond), le problème, c'est que malgré que tu comprennes que les GES ou une autre cause pour le fond, ont peu d'influence sur le bruit (sur les pics et creux) autour de la tendance de fond à la hausse, tu mélanges à nouveau le signal de fond et ce bruit, en disant que ma variable " feu autour de l'abri" , s'éteint pas moments. Le feu autour de l'abri ne s'éteint pas pendant les creux, vu que c'est la toile de fond, la chauffe de fond permanente de ce feu toujours présent et qui s'accentue même un peu plus chaque jour (j'ai précisé qu'on l'alimentait). Un creux, n'est pas une diminution de la variable "feu autour de l'abri" , tout comme un pic n'est pas son accentuation. Ce n'est pas le chauffage de fond qui crée ces pics et ces creux, c'est le bruit (généré dans mon cas, par la variable "bougie", qui est présente en S-SW et pas dans d'autres) Même avec un 6° le matin l'été à Besse à 26 km de la mer chaude, ça ne change pas le fait que le feu de fond saisonnier de l'été (généré par les paramètres physiques de fond, qui définissent la saison estivale, qui eux ne changent pas, que l'été soit très anormalement frais ou pas) est toujours bien présent sur le fond. C'est le bruit physique de la météo qui n'est parfois plus efficace pour générer une T estivale et non pas les paramètres physiques du fond estival qui chauffent autant sur le fond (quelque soit l'anomalie froide en été, même si la Tn observée est digne d'un mois hivernal pour ici, l'été est toujours bien physiquement présent sur le fond, les paramètres physiques concernés carburent toujours autant, c'est simplement masqué par le bruit météo, d'où l'importance de calculer la significativité pour éviter de déduire que l'été sur le fond n'existe plus à ce moment là. Mais bon personne ne va contester que l'été est physiquement présent sur le fond, malgré des anomalies estivales froides, donc personne ne va demander de calculer la significativité) Donc une fois qu'on a estimé que ce n'était pas significativement le signal de fond qui était vraiment concerné par les directions,...... (je signale que les 6 ou 7% de 13vents avec leurs IC, donneraient probablement une influence sur le fond considérée comme nulle, pas significativement différente de 0%, (il faudrait voir de près si c'est dû à un problème d'échantillons avec la série plus longue JBR, mais bon avec la série mensuelle homogénéisée). Je parle bien de l'influence "nulle" sur le fond, pas de l'influence dans le bruit, car le poids de cette variable peut-être très significatif pour les pics, mais il faut le chiffrer avec son IC ),.... il est intéressant de tenter d'expliquer le bruit (ces pics et creux) qui correspondent à certaines directions (oui mais sans calculs avec les autres classes de directions, c'est qu'en apparence sur un graphe). Il ne faut isoler une seule classe de directions, sans la confronter aux autres classes. Je le répète, c'est une erreur élémentaire en analyse statistique de faire comme si physiquement les autres directions n'existaient pas et comme si elles n'avaient aucune chance physiquement d'alimenter des pics (par ex comme celle de l'W-WSW) Ne t'en fais pas, si cette classe de directions de S-SW est bien plus importante pour les pics hauts que d'autres classes de directions (que ce soit à cause de l'ICU ou pas), ça ressortira dans les calculs en présence des autres variables, mais il reste à savoir combien ça compte dans les pics. Donc là c'est un calcul avec surplus compris, ensuite il faut déterminer si le surplus seul dans cette classe de directions, en rajoutait une couche. Si c'est significatif ça ressortira et s'il manque des échantillons, on le verra (tout a une influence, mais il faut toujours déterminer si c'est négligeable ou pas et s'il faut attendre plus de données pour être plus certain.) Il faut le chiffrer, car un graphe ne montre rien, ne calcule rien seul, l'apparence est souvent trompeuse quand on n'a pas calculé l'importance du poids des variables pour déterminer l'échelle de la variable à confronter aux pics de T sur un graphe (là ton échelle est arbitrairement choisie, vu qu'il n'y a pas de calculs pour la régler objectivement) Pour la tendance à l'augmentation des directions S-SW visible, tant que tu ne calcules pas sa significativité, à vue d'oeil on ne sait pas si cette tendance est vraiment différente de zéro, de plus on ne saura pas ce qu'on cherche à expliquer (un changement de fond de cette classe de directions ou une simple variation normale du nb de cas pour le lieu, donc ce sera difficile de chercher une cause si on ne sait pas si on analyse plutôt du bruit ou plus probablement un signal dans l'évolution de cette classe) Applique simplement une de tes propres préconisations sensées, qui est : le scepticisme organisé et précis , c'est le minimum de la démarche scientifique. Calcule la significativité et on aura une meilleure visibilité (Ou bien passe moi un fichier de tes données de S-SW de ton graphe (et d'autres classes si tu veux, j'en profiterai pour voir et tester l'évolution des tendances dans les autres classes et rechercher les évolutions significativement différentes) pour que je le calcule, afin d' éviter toutes distorsions dans le classement et me faire gagner du temps.) Là sur ton graphe, je ne vois pas comment on peut admettre que la tendance est significative où qu'elle ne l'est peut-être par manque d'échantillons, sans calculs avec une méthode correcte pour le cas. Désolé, je ne vais pas m'en remettre à la foi, d'autant plus que c'est aussi une de tes préconisations sensées, que tu devrais logiquement appliquer aussi à toi même (Des calculs avec des méthodes correctes d'un point de vue scolaire, évitent déjà pas mal de problèmes de foi aveugle sur des points très basiques, bien loin des histoires de théories plus ou moins préférées des scientifiques.) Enfin quoiqu'il en soit, au final, il faut traiter le problème de façon un peu différente, à cause de l'obligation d'utiliser des données de T mensuelles homogénéisées à la place des données journalières ou mensuelles brutes, biaisées. Il faut faire avec les outils et données les plus correctes à notre disposition.
  23. Comment déterminez vous précisément et concrètement la direction du flux pour ces études ? Est-ce qu'il y a une règle commune admise ou une base de données de directions de flux, qui évite que chacun trouve une direction un peu différente qui va faire changer de classe (qu'est ce qui définit qu'il n'y a pas de flux ?) ? Si c'est avec l'anémo de Debilt, l'important changement de hauteur modifie la direction moyenne d'un jour donné, je le vois ici avec mes anémo à différentes hauteurs et endroits, je n'ai pas exactement le même flux selon l'anémo que je sélectionne (même avec les 2 anémo très proches avec 40 cm de différence de hauteur, à cause du mât lui même !) 13vents quel est l'écart-type des T journalières dans chaque flux et total tous flux confondus, dans ton étude ? Merci ! Pour moi il ne faut pas travailler qu'avec une seule station et sur au moins 100 ans (bien plus si possible, pour 8 classes de directions, sinon il faudrait les réduire à 4 pour limiter les dégâts par manque d'échantillons), mais avec une moyenne de plusieurs stations (probable trop forte variabilité sur un seul point de mesure, qui masquera un éventuel signal s'il y en a un et qui nécessitera donc bien plus d'échantillons pour le détecter) et pas avec les T au pas journalier qu'on ne sait pas corriger (qui ne sont que des SQR qui même sans ICU, sont biaisées par d'autres changements. L'ICU n'est de toutes façons pas la principale cause de biais dans les séries brutes. De plus il existe aussi des paquets de biais d'ICU - ou inversé. Victor Venema "un Olivier Mestre" en Allemagne, qui travaille aussi avec O. Mestre dans les ateliers internationaux sur l'homogénéisation : , donc que va donner une étude avec De Bilt ou autre qui s'est nettement améliorée au fil du temps : http://www.knmi.nl/klimatologie/metadata/debilt.html ? De 19010101 à 19500516, la T était mesurée dans la pagode en photo, dans le Stevenson ensuite, puis déplacement de 200 m en 2008, super site classe 1, donc encore un nouveau petit coup de frais artificiel dans les données récentes. D'ailleurs les négativistes se servent de la baisse mécanique de T dans les données brutes de cette station à cause des meilleures mesures, pour essayer de faire croire à un masquage de déclin par Hadley : http://hidethedecline.eu/media/ARUTI/Europe/NWeurope/fig5.jpg
  24. Dans l'article de JBR, je relève des erreurs statistiques fondamentales et purement scolaires, qui ne peuvent donc mener à aucune conclusion pour le cas qu'il souhaite étudier. 1 - Il ne teste pas la significativité de la tendance (et du surplus) de la classe de directions de S-S , donc on ne sait pas si cette tendance existe ou pas probablement sur le fond (Est-ce que ce flux est à la hausse significativement, est-ce qu'elle est significativement différente de zéro ?) 2- Il ne vérifie pas que la tendance à la hausse de T présente en S-SW, n'existe surtout pas aussi pour bien d'autres classes de directions et il ne démontre pas si la tendance à la hausse de T dans sa direction cible, est significativement différente de celles des autres classes. Si la tendance à la hausse de T n'est pas significativement différente à celle de bien d'autres classes de directions, d'autant plus dans celles censées refroidir la T, il sera plus que difficile de démontrer que la hausse principale de T, n'est pas produite par une toute autre même cause principale commune, qui de fait ne peut pas être la classe S-SW , qui elle ne pourra plus jouer éventuellement significativement que dans le bruit, en expliquant éventuellement des pics des hivers les plus chauds par ex (ce qui reste à démontrer mathématiquement, ce qui n'est pas fait non plus dans son article). (A l'image de l'ENSO+ qui explique des pics, des années plus chaudes mais pas du tout la tendance de fond de T significativement à la hausse à l'échelle climatique, qui est significativement identique avec l'ENSO-, qui lui compte significativement dans certains creux profonds, du bruit) 3- Il n'a pas cherché à identifier, à quantifier la présence d'un signal de fond de T dans chaque classe de directions, pour déterminer l'existence éventuelle d'un signal de fond moyen commun, afin de le retirer, ce qui est une étape essentielle pour savoir ce qu'il reste ou non de la hausse de T en regard de la seule hausse de S-SW (après vérification de la significativité du signal. On ne retire surtout pas un signal, s'il ne l'est pas, vu qu'il sera statistiquement classé comme bruit). Ce n'est qu'à ce moment là, qu'on pourra chercher statistiquement à savoir si cette hausse résiduelle (ou non) de T par S-SW peut-être attribuable au surplus de S-SW dans le cadre de l'explication du bruit et non plus du fond. Il n'a pas cherché mathématiquement à faire la distinction entre ce qui est significatif ou pas pour le fond et ce qui est significatif ou pas pour le bruit. 4- Pour déterminer l'influence principale sur le fond de la T, il n'utilise qu'une seule variable explicative (classe de S-SW), sans avoir prouvé mathématiquement qu'il pouvait virer toutes les autres variables au moins aussi importantes. Il ne l'a pas testée face aux autres variables potentiellement au moins aussi explicatives et donc nous sommes absolument certains avec un IC de 100%, qu'il a pu rejeter de fait une variable qui pourrait être plus pertinente et/ou au moins aussi probable que la sienne. On doit confronter les variables candidates à la première place ou non, qui auraient pu provoquer la hausse de T sur le fond et les principaux bruits, pour estimer leur poids (et pas que sa variable préférée), car c'est certain qu'en gardant qu'une seule variable même que visiblement (non significativement donc) à la hausse face à une température à la hausse aussi, alors que c'est une variable qui a des chances d'expliquer des pics, on est certain de relever une assez bonne corrélation même si en réalité cette variable unique ne représentait absolument rien de significatif dans la hausse de T sur le fond, mais seulement peut-être une assez bonne explication de certains bruits. C'est un énorme biais de sélection de variables. Il faut obligatoirement s'occuper de la significativité (à toutes les étapes) et de sa compréhension (vu que ça ne fait ni chaud ni froid à JBR, qui à aucun moment ne montre qu'il s'en occupe, c'est de fait pareil pour lui que ce soit ou pas significatif) pour éviter de faire comme les journalistes moyens qui ne voient vraiment pas de différences quand une variable n'est pas significative dans ce qu'on cherche à démontrer, ce qu'apprécie particulièrement un de mes profs préférés de stats : Pour résumer le gros problème du traitement statistique de JBR : Imaginons que nous remarquions une tendance à la hausse de T, dans une direction de vent où il existe une petite flamme de bougie très proche de l'abri de la station, dans une classe de directions qui augmente en tendance visuellement assez bien comme la tendance à la hausse de T, tout en oubliant involontairement ou non, en ne vérifiant surtout pas au préalable que dans les autres classes de directions, il existe ou pas "la même" tendance de T (non significativement différente dans bien d'autres classes avec ou sans flamme) tout en rejetant involontairement ou non de fait, en utilisant qu'une seule variable, toutes les variables potentiellement aussi ou plus efficaces ( qui pourraient être avancées par soi et ou d'autres et qui sont physiquement crédibles, comme l'est la direction du vent qu'il préfère), comme l'est par exemple la variable "le feu tout autour de l'abri " qu'on alimente toujours plus chaque année, une des variables importantes, physiquement capable de chauffer sur le fond bien plus qu'une petite flamme de bougie, ce qui a démontré physiquement par les spécialistes. En refusant de fait de sélectionner la variable "feu autour de l'abri", en plus de la variable directions S-SW , tout en n'intégrant pas celles des autres classes de directions de vent (alors qu'on utilise la direction du vent comme variable !) et d'autres variables qui seraient utiles pour ce cas, comment peut-on trouver autre chose que la corrélation apparente sur le fond avec la petite flamme, vu qu'il ne reste plus que cette seule variable qui chauffe dans notre modèle ? On ne peut déterminer l'influence de la petite flamme seule ou du feu seul, qu'avec les autres variables, en les confrontant et non pas de façon isolée dans leur coin comme si aucun autre paramètre physique connu ne pouvait pas jouer plus ou autant que la petite flamme, à moins de prouver physiquement et mathématiquement que la petite flamme chauffe tellement plus que le feu autour de l'abri, qu'il est totalement inutile de s'occuper du feu, car son influence serait physiquement négligeable. Mais bon personne n'a réussi à prouver physiquement qu'un feu tout autour d'un abri météo qu'on alimente toujours plus chaque jour, chauffe moins sur le fond, qu'une petite flamme de bougie proche de l'abri dans une direction. En n'utilisant pas aussi la variable feu autour de l'abri, de fait on rend mathématiquement impossible la détection de cette variable importante physiquement et on décide arbitrairement, non scientifiquement, qu'en aucun cas le feu autour de l'abri ne peut être la cause principale de la hausse de fond. JBR pourrait voir pas mal de ses problèmes statistiques, en brassant ses variables de classes directions (dans son cas où il s'intéresse au vent, chaque classe de directions doit-être une variable pour confronter les classes de directions et estimer leur importance respective) en + de la variable du soleil, de celle des GES et autres bricoles importantes sensées jouer sur l'évolution du climat ou sur le bruit de ces saisons en Europe + autres éventuelles variables peut-être particulières à cette station (En fait il faut récupérer au moins les principales variables explicatives probables rapportées par la littérature, qu'elles plaisent ou non, en plus de celles physiquement crédibles que JBR pourra imaginer, comme les directions du vent par ex) , dans une regression PLS, qui évite certains pièges de la régression linéaire et qui a les avantages d'une ACP. Ca devrait lui permettre d'obtenir une bien meilleure estimation du poids réel de la variable S-SW tout en faisant ressortir la variable qui a le plus de poids sur le fond.
  25. Non Magellan tu ne sais pas à 100% , car un ventilo peut ne pas démarrer la nuit ou sans soleil, avec le courant d'origine plus faible et des frottements supplémentaires sur/dans le ventilo (sale, roulement usé, ou à causes d'insectes ou d'autres bricoles) C'est l'effet seuil de démarrage, avec plus de frottements il démarrera qu'avec une plus grande force (avec plus d'électricité dans ce cas). C'est comme sur un anémo qui indiquera la bonne vitesse aux fortes vitesses, alors qu'il ne démarrera pas du tout la nuit sans rafales à plus de 10 km/h par ex (pour 2 km/h dans un état normal) Quoiqu'il en soit, il faut ouvrir pour tester et déterminer ce qui ne fonctionne pas. Perso, ça m'étonne toujours quand on a une panne et qu'on ne vérifie pas un minimum dedans ce qui se passe au niveau mécanique (Il y a 3 vis, ce n'est pas compliqué de vérifier à la main si le ventilo force anormalement et si des bricoles sont dans la chambre et/ou frottent sous et autour du ventilo) Avec le Net, la maintenance n'est pas encore totalement virtuelle, il faut finir par mettre les mains dans le matériel (Ici une telle panne aurait été diagnostiquée même de nuit en pleine tempête, si je la découvre à ce moment-là, vu qu'il m'est impossible de dormir sans chercher à savoir pourquoi du matériel météo ne fonctionne pas )
×
×
  • Créer...