Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

ChristianP

Adhérent Infoclimat
  • Compteur de contenus

    2904
  • Inscription

  • Dernière visite

  • Jours gagnés

    1

Tout ce qui a été posté par ChristianP

  1. Salut, Attention ce n'est pas parce que c'est un kit de goretex neuf, que ça signifie que ce n'est que de la membrane en goretex sans aucun autre tissu, tout comme comme quand a a un coupe vent le plus léger, même dit 100% goretex. C'est du tissus goretex. C'est toujours un ou des tissus aussi fins soient-ils + la membrane. Un vêtement et un kit qu'en membrane seule, ça n'existe pas, car c'est une membrane très fine et bien trop fragile, c'est aussi malléable et fin que du ruban de téflon, ça ne ressemble pas à du tissus. Même les plus fines bandes d'étanchéité des coutures, celles thermo-soudées dans un vêtement en goretex, sont du laminé 2 couches (le goretex est tellement fin qu'on ne le voit le plus souvent, que lorsque qu'il se décolle seul ou non, du tissus fin sur lequel il est collé, c'est blanc (ou beige-jaunâtre quand il vieillit), s'il y a une autre couleur, c'est que la membrane est collée à un autre textile, quand on la décolle, on la voit ainsi que sa couleur) En général pour les bonnes vestes, le tissus extérieur de la veste est fait de 3 couches laminées/collées, un tissus intérieur, un tissus extérieur assez solide, la membrane en goretex est collée au milieu avec ces 2 tissus (en plus on a parfois une 4 ème couche couche non collée, un genre de filet d'aération) . On voit parfois la membrane collée à l'intérieur d'un laminé 2 couches dans les vêtements légers anciens, mais la membrane s'usait trop vite avec les frottements, donc maintenant pour les laminés 2 couches, on a souvent un 3 ème tissus, une doublure non collée. Pour mes filtres, je récupère que la partie blanche qui est la membrane en goretex seul (jaunâtre quand elle est usagée) : http://www.eider.fr/rd/goretex.aspx http://www.gore-tex.fr/remote/Satellite?c=fabrics_cont_land_c&childpagename=goretex_fr_FR%2Ffabrics_cont_land_c%2FFabricTechnologiesChapterOneLandingSEO&cid=1179537204643&p=1179537204639&pagename=SessionWrapper
  2. Pour le goretex, il faut bien veiller à ne récupérer que la membrane en goretex, sinon le textile collé sur la membrane va fausser la mesure (il faut éviter tout ce qui peut stocker et intercepter de l'eau de condensation. C'est le goretex, la membrane seule qui est utile et non le tissu toujours collé avec, vu qu'elle est fragile) Perso j'ai récupéré un vieux coupe vent léger, un goretex laminé en 2 couches et j'ai décollé la membrane, je l'ai passée ensuite dans de l'eau vinaigrée pour que les micro-pores ne soient pas trop bouchés par le calcaire de l'eau (ici l'eau c'est du béton /emoticons/biggrin@2x.png 2x" width="20" height="20">)
  3. Merci bien pour l'info PtitSuisse. Tamino parle de la décroissance exponentielle de l'auto-corrélation ici : http://tamino.wordpress.com/2008/06/10/hurst/ Le processus ARMA qui nécessite la stationnarité de la série temporelle, est utilisé par Tamino pour le cas qui nous intéresse (rechercher la durée minimale à partir de laquelle on pourra dire que la tendance est significative) pour modéliser la série temporelle (stationnaire) des résidus de la régression linéaire ( et non pour modéliser la série temporelle des anomalies de T GISS qui n'est pas stationnaire), ça me semble assez correct pour ce cas, non ? Si tu connais des méthodes modernes, efficaces pour compenser l'auto-corrélation à décroissance exponentielle ou non, merci !
  4. Merci Fred pour cette adresse géniale où Tamino, un mathématicien professionnel spécialisé dans l'analyse des données, nous régale avec ses explications sur les bonnes façons de décortiquer mathématiquement des données climato (en particulier tous les articles qui traitent des cycles, montrent à quel point l'humain a une très forte tendance naturelle à voir à tort et à travers, des cycles dans des graphes simples, là où mathématiquement, il est démontré qu'ils sont absents. Voir les liens en bas) J'ai mis du temps à te répondre, car des sujets ne sont pas toujours simples à comprendre et j'ai d'abord voulu lire entièrement son blog, y compris tous les commentaires, car certains sont particulièrement instructifs. Pour l'incertitude de la tendance calculée à partir des anomalies au pas annuel, cette méthode n'est pour le moment pas nécessaire (sur la base de départ en 1975, que Tamino a déterminé pour calculer le bruit sur la période du réchauffement moderne), car on ne relève pas le bruit rouge important du pas mensuel. On peut donc utiliser les statistiques "traditionnelles" basées sur les moindres carrés ordinaires (MCO). Les résidus ne sont pas significativement auto-corrélés, les tests de Spearman et de Kendall sont donc assez efficaces dans ce cas. Intuitivement tout le monde admettra facilement que la T exceptionnelle chaude d'une minute donnée, va dépendre fortement de la valeur de la T de la minute précédente, elles sont fortement auto-corrélées. Dans une tendance calculée, la présence de l'auto-corrélation positive des résidus (bruit rouge) de la régression linéaire est d'autant plus importante que l'échelle temporelle choisie est courte. Le bruit est bien plus fortement auto-corrélé avec un pas sur 1 minute dans une station donnée, qu'au pas mensuel pour la planète. Mais le bruit pour un mois de décembre donné est bien plus auto-corrélé et dépend donc plus du bruit du mois de novembre précédent, que le bruit d'une année dépend du bruit de l'année précédente. A une échelle temporelle donnée pour une période donnée, l'auto-corrélation du bruit qui n'est pas nulle, peut devenir négligeable. On peut constater ici la différence pour les anomalies globales du GISS depuis 1975, entre l'auto-corrélation positive très significative du bruit de la tendance calculée avec les anomalies au pas mensuel (coeff de corrélation sur l'axe verticale): (auto-corrélation positive significative = bruit rouge) et l'auto-corrélation négligeable du bruit avec les anomalies GISS au pas annuel : (assez proche d'un bruit blanc, donc bruit assez aléatoire). Si j'appliquais les tests de Spearman et de Kendall avec les anomalies au pas mensuel, ce serait du n'importe quoi, alors que les résultats sont assez corrects au pas annuel (pour les anomalies GISS au pas annuel, ces 2 tests donnent une durée minimale de 14 ans pour obtenir une tendance significative, ce qui correspond à ce qu'on voit dans le graphe au pas annuel un peu plus bas et à ce que trouve Tamino avec la compensation de l'auto-corrélation) J'ai calculé une très légère variante des incertitudes de Tamino, les données sont à jour et à la place de l'approximation de la loi normale, j'ai utilisé la loi de Student. Comme pour le graphe de Tamino avec le pas mensuel : On trouve la même durée à l'aide des anomalies au pas annuel : Mais en zoomant dans ce même graphe au pas annuel, en comparant la compensation (d'ordre 7 dans ce cas) avec le calcul de l'incertitude basé sur les MCO : On remarque que la différence entre les 2 méthodes, n'est pas significative (limite de significativité de la tendance autour de 14 ans pour les deux, ça nous montre qu'on peut utiliser les tests traditionnels) alors qu'avec les anomalies au pas mensuel (zoom) : la durée minimale avec la méthode traditionnelle qui ne compense pas l'auto-corrélation, les tests nous donneraient une fausse significativité de la tendance avec 10.4 ans (14 ans pour la méthode avec compensation de l'auto-corrélation et 10 ans faussement avec les tests de Kendall et Spearman) Comme le signale Tamino, à ces 14 ans, Il faut rajouter au moins un an à cause des incertitudes de la compensation de l'auto-corrélation basée sur des estimations. Il faut donc au moins 15 ans de données pour obtenir une tendance significative à partir des données GISS. Voici les corrélogrammes du bruit des anomalies annuelles de la NOAA et du bruit des anomalies annuelles pour la partie Nord de l'HN d'un message précédent. On n'a pas de bruit rouge significatif : Quelques liens utiles sur des sujets de Tamino très intéressants sur la façon d'analyser et de débusquer des cycles, à appliquer pour éviter d'inventer des cycles imaginaires à la simple vue d'oscillations dans des graphes : http://tamino.wordpr...l-probably-not/ http://tamino.wordpr...2/cyclical-not/ http://tamino.wordpr...8/04/15/cycles/ http://tamino.wordpr...ure-connection/
  5. Pour le panel des 29 stations, le mois de janvier est classé "froid" avec -1.25 écart-type. La dernière et plus courte tendance significative du panel pour le mois de janvier, est sur 58 ans (1953-2010), donc autant donner directement la dernière tendance climatique/60 ans sur 1951-2010 (+0.25°/déc) L'anomalie/30 ans de janvier sur 1981-2010 (+0.31° sur la moyenne 1950-2009) est à priori significativement plus chaude que celle sur 1951-1980 (-0.36°). C'est tout juste significatif pour le test de Mann-Whitney, mais on n'observe pas une différence significative avec les tests de Student, mais avec une distribution trop éloignée de la normalité pour Student. Pas de différence significative entre l'anomalie/10 ans de janvier sur 2001-2010 (0.22°) et celle sur 1991-2000 (0.78°) Pour Paris en données homogénéisées, l'anomalie pour le mois de janvier est de -1.2°/19 ème siècle, -0.48 écart-type, classée "fraîche", c'est la 90 ème valeur la plus froide de janvier / 335 ans. L'anomalie précédente plus fraîche à Paris, -1.6°, date de janvier 1997 (83 ème valeur / 335 ans) Janvier 2009 à Paris n'est pas très loin, c'est la 100 ème valeur la plus froide /335 ans, avec une anomalie de -0.8°/19 ème. Pour les durées de significativité des tendances, idem que pour le panel, aucune tendance significative avec moins de 58 ans de données, +0.26°/déc sur la dernière période climatique de 60 ans (1951-2010), donc pour ce mois, d'autant plus avec l'incertitude d'une tendance, on peut dire que la tendance du panel et celle de Paris pour ce mois, sont identiques. L'anomalie/30 ans (1981-2010) est à priori significativement plus chaude (1.92°) que l'anomalie sur 1951-1980 (1.03°) Pas de différence significative pour l'anomalie/ 10 ans de janvier 2001-2010 (2.01°) par rapport à celle sur 1991-2000 (2.28°)
  6. Un petit tour graphique sur les tendances des anomalies globales de Tm (NOAA sur 1901-2000). La dernière et la plus courte tendance significative d'après les tests de Kendall et de Spearman est relevée sur 1994-2009 (sur 16 ans) On y trouve l'intervalle de confiance, les droites en pointillés ( la zone où on est sensé relever le plus probablement 95% des observations), l'intervalle de confiance (à 95%) des points de la droite de régression (la zone d'incertitude entre les hyperboles), les 2 droites, marron et verte, indiquent l'intervalle de confiance de la pente (à 95%). C'est à dire qu'en réalité sur cette plus courte durée qui donne une tendance significative de l'évolution de la température (et non de l'évolution du climat !), on est quasi certain que la tendance est à la hausse, mais en fait on ne sait pas à quel niveau exactement. La tendance pourrait être aussi bien de 0.2575°/déc que de 0.0366°/déc (soit un réchauffement de +2.6° à +0.37° / 100 ans, ce qui est très différent), même si la probabilité que ce soit réellement une de ces deux valeurs, est bien plus faible celle que pour la valeur d'une pente proche de la droite de la tendance (celle à +0.147°/déc) On voit donc que la significativité sur la plus courte période possible, lorsqu'elle est très courte, donne simplement la quasi certitude que la tendance est à la hausse ou à la baisse. On se situe vraiment à la limite de la significativité. Il serait donc vraiment absurde et malhonnête de tirer des conclusions de hausses ou de baisses avec des tendances qui ne sont pas significatives, d'autant plus avec des pentes moins importantes (en valeur absolue). Pour que la prochaine tendance sur 1994-2010 reste significative (pour les tests de Kendall et Spearman), il faudrait que l'anomalie de 2010 soit >= 0.52° Pour que la prochaine tendance soit significative sur une aussi courte durée que 16 ans (sur 1995-2010), il faudrait que l'anomalie de 2010 soit >=0.575° Voici un exemple bien connu, sur 1998-2009, d'une tendance qui ne sert à rien et qui est malheureusement prise comme parole d'évangile d'un changement On voit l'écart entre les 2 droites de l'IC de la pente. On ne peut pas savoir avec une confiance suffisante si c'est une tendance à la baisse ou si c'est une tendance à la hausse. Même s'il y a 66.2% de chances pour une hausse et 33.8% pour une baisse, cette tendance n'a pas de sens. Si la tendance avait changé significativement depuis 1998, on devrait le détecter au minimum par rapport à une des plus fortes pentes à la hausse sur une plus longue période, donc à partir d'un des points les plus froids, en 1976. La tendance noire calculée avec les données sur 76-98 n'a guère bronché d'après la droite rouge calculée en intégrant aussi les données après 98 (sur 76-2009). La tendance est significativement la même sur 76-2009, elle n'a perdu que 0.0054°/déc ! "Enormissime" changement de tendance pour certains, malgré le fait que même dans 90 ans, en 2100 à ce même rythme, ça nous donnerait une différence de 0.05° (+1.53° au lieu de +1.58°), quel changement ! Dans les exemples précédents, ces tendances ne concernaient que l'évolution de la T interne du climat, elles ne sont pas représentatives de l'évolution du climat moyen. Il faut tirer une tendance sur au minimum 2 états moyens du climat pour analyser un début de tendance climatique ( Sur 2 périodes de 30 ans, donc avec 60 ans de données. Il y a encore trop souvent une confusion entre une moyenne sur au moins 30 ans qui est nécessaire pour représenter le climat, un état moyen, et une tendance sur 30 ans qui est insuffisante pour suivre l'évolution d'un climat par rapport à un autre climat, car ce n'est qu'une tendance tirée sur un unique climat moyen. De plus pour ceux qui pensent que le cycle de 60 ans est présent, une tendance calculée sur cette durée est indispensable. On ne peut pas dire que ce cycle est important et faire comme s'il n'existait pas !) C'est assez clair, depuis 1998, tous les points sauf 2000 et 2008, ont tiré la tendance vers le haut. Mais cette accentuation de la tendance semble à la limite de la significativité : On voit que la droite de tendance violette (1950-2009) pratiquement confondue avec la droite marron (IC sup de la pente sur 1950-98), reste dans et près de la limite supérieure de l'intervalle d'incertitude de la tendance sur 1950-98 qui n'est plus une tendance climatique (49 ans de données) Voyons une comparaison par rapport à la tendance climatique sur 1939-1998 On remarque que la tendance climatique 1950-2009 (verte) est significativement plus forte que la tendance climatique sur 1939-1998 (noire). La tendance climatique sur 1939-2009 (71 ans de données) est intéressante, car elle part toujours de la même période où la T est relativement élevée. Ca ne l'empêche pas de devenir significativement plus importante que la tendance climatique de 1939-1998 C'est encore un indice que malgré la stagnation de la progression du niveau des anomalies annuelles, les dernières années depuis 98 ont bien continué à réchauffer le climat et non à le stabiliser. Un petit outil intéressant pour visualiser les tendances sur différents pas de temps. http://www.radix.net...tureTrends.html Réglez le sur 60 ans et vous verrez qu'il n'y a jamais eu de refroidissement pour ces tendances représentatives de l'évolution du climat. C'est d'ailleurs conforme avec l'analyse et la comparaison des moyennes/30 ans, qui montre qu'on n'a jamais relevé de moyennes/30 ans significativement plus basses qu'une précédente moyenne/30 ans (du moins avec les données depuis 1880)
  7. http://www.accuweather.com/mt-news-blogs.asp?blog=weathermatrix&partner=accuweather&pgUrl=/mtweb/content/weathermatrix/archives/2009/03/was_world_wind_speed_record_challenged_in_1996.asp
  8. Pour Paris en données homogénéisées, l'anomalie de janvier au 20/01 est passée à -2.2°, le mois est pour le moment classé "frais" avec -0.85 ET (57 ème mois de janvier le plus froid /335 mois de janvier) Le mois de janvier récent le plus "frais" est janvier 97 (-1.6°)
  9. Oui c'était déjà le cas dans les anciennes anomalies NOAA. Hansen et ses collègues, ont estimé aussi que 2005 est probablement l'année la plus chaude avec d'autres données : http://www.columbia.edu/~jeh1/mailings/2010/20100115_Temperature2009.pdf Prévoir un record pour telle année, avec la variabilité d'une année sur l'autre, même en prenant tout en compte, c'est plus de l'estimation au feeling. L'essentiel pour le moment, c'est qu'ils ne se plantent pas dans les prévis plus solides, conçues pour donner les grandes tendances.
  10. Voici un petit tour d'horizon des anomalies annuelles de température globale et du climat, avec les données à jour de la NOAA pour 2009 (les anomalies annuelles ont été une nouvelle fois modifiées depuis mon dernier message sur ce sujet) L'anomalie de 2009 est de 0.5568°, 6 ème année la plus chaude. Le classement des années chaudes : Les 30 dernières années : La classification et le nb d'écart-type des 30 dernières années, par rapport au niveau du climat de fin 2009 (donc réchauffé de 0.3649°) : L'évolution des anomalies annuelles et de la moyenne mobile/11 ans (à ne pas confondre avec l'évolution du climat !): http://meteo.besse83...voltemp2009.png L'évolution du climat : http://meteo.besse83...volclim2009.png Dernière tendance climatique sur les 60 dernières années : +0.11°/déc (significative) Tendance sur les 30 dernières années : +0.17°/déc (significative) Dernière et plus courte tendance significative de la température : +0.15°/déc depuis 94 (16 ans) 1950-1979 : 0.0121° 1980-2009 : 0.3949° Hausse significative. 1990-1999 : 0.3626° 2000-2009 : 0.5363° Hausse significative. A vous de conclure ! /emoticons/biggrin@2x.png 2x" width="20" height="20">
  11. Pour moi le formulaire ne devrait contenir qu'une seule case à cocher regroupant les deux avantages, car je vois mal un passionné refuser l'un des avantages, s'il a la possibilité de recevoir les deux. Une 2 ème case dans ce cas, sous-entend un choix entre les deux options (perso j'avais coché les deux cases, parce que c'était possible tout en ne sachant pas laquelle choisir, mais aussi parce que je suis gourmand en info/données MF et je me suis dit que le système m'enverrait peut-être les deux /emoticons/biggrin@2x.png 2x" width="20" height="20">) En tous cas merci à nos négociateurs, c'est du sacré bon boulot d'avoir obtenu ces avantages !
  12. J'ai édité le message précédent pour ajouter la comparaison avec les mois froids de février : /index.php?showtopic=52319&view=findpost&p=1189751'>http://forums.infoclimat.fr/index.php?showtopic=52319&view=findpost&p=1189751
  13. Avec les données homogénéisées depuis 1676 pour Paris, disponibles dans l'étude de Daniel Rousseau (Merci !) dans la revue "La Météorologie" de la SMF, on a une assez bonne idée du niveau des différents mois de janvier froids sur une plus longue période en France. Après recalage des anomalies mensuelles de Paris depuis 1950 sur la même période de référence que les anomalies du panel (29 stations) de TreizeVents (Merci !), les anomalies du panel sont relativement bien corrélées (1) aux anomalies à Paris, sachant qu'avant 1870, il est difficile d'espérer mieux qu'une incertitude de +-0.5° sur les Tm mensuelles d'après D. Rousseau. (1 - Pour janvier coeff de corrélation r=0.96 et coeff de détermination r2=0.92, erreur type=0.51° et pour décembre r=0.93, r2=0.86, erreur type=0.58° ) La distribution est trop éloignée de la normalité, j'ai donc utilisé pour Paris une échelle de classification en centiles : Exceptionnellement froid <= 1er centile Très froid <= 3 ème centile Froid <= 10 ème centile Exceptionnellement chaud >= dernier centile Très chaud >= 97 ème centile Chaud >= 90 ème centile Voici le classement des anomalies des mois de janvier froids et chauds à Paris, par rapport à la moyenne du 19 ème siècle, utilisée dans l'étude de D. Rousseau : Pour le fun, j'ai placé l'anomalie très provisoire de jan 2010 à Paris (donnée corrigée, à jour au 12/01). Donc il n'est pas encore certain que le mois finisse "froid", mais ça donne une idée du rythme à soutenir pour obtenir un mois complet à ce niveau. Le même classement des mois froids de janvier, comparé au classement de décembre , avec déc 2009 (donnée corrigée) placé pour comparer : Les mois de janvier exceptionnels sont placés sur l'axe du zéro du graphe d'évolution du climat du mois de janvier à Paris (anomalie/ 30 ans / 1800-1899): http://meteo.besse83...lclimjanprs.png On voit que pendant les minima de Maunder et de Dalton, Paris relève quand même deux des mois de janvier exceptionnellement chauds, dont le premier mois de janvier le plus chaud (1708) vers la fin du Maunder ! Mais ce n'est pas tout, ce mois de jan 1708 (1er + chaud) précède d'un an seulement, le 3 ème mois de jan le plus froid (1709), alors qu'au plus fort du réchauffement actuel, Paris ne voit même pas passer un seul mois de décembre "exceptionnellement chaud" et qu'elle relève encore des mois de déc exceptionnellement chauds pendant ces minima solaires, guère efficaces pour décembre à Paris, où les moyennes/30 ans de déc se sont réchauffées (vers la fin du Maunder, on atteignait même le niveau des années 40 ! J'ai revu plusieurs fois tous les calculs tellement ça me paraissait bizarre, si quelqu'un a une théorie/explication intéressante... ) : http://meteo.besse83...lclimdecprs.png En revenant sur le graphe de janvier, on a deux autres mois exceptionnellement froids/chauds qui se suivent (1795 et 1796) Tout ça pour dire, qu'avec ces quelques exemples et bien d'autres en regardant en détail ces valeurs et ces graphes, tout le monde doit-être en mesure de comprendre ce qu'est la variabilité de la T avec ses capacités à offrir aléatoirement des écarts "immenses" en très peu de temps ( on peut vraiment tout voir, même sur 2 ans, donc dans un même climat : 1708/1709, 1795/1796). Ce fait devrait largement réjouir et émerveiller tous les passionnés et surtout ne pas les surprendre (sinon c'est qu'on n'appréhende toujours pas assez ce qu'est la variabilité !), car les possibilités d'écarts importants sont encore bien plus grandes pour les pas de temps plus courts que celui d'une Tm mensuelle (décades, jours) d'autant plus que la moyenne est déjà elle-même vague faute de longueur de série. Pour moi, il ne fait aucun doute que jan 85 peut-être très largement dépassé même en plein réchauffement, reste à savoir quand ( du moins avant de se prendre 5° de plus que le niveau de fin 2009) Décembre 1788 de nos jours, tournerait autour des -8° d'anomalie à Paris et jan 1795 autour des -6.5° d'anomalie, car la moyenne ne s'est pas encore trop envolée ( par ex : jan 1980-2009 = +1.73° /19 ème siècle à Paris, jan 1910-2009 = +1.39° ), et donc la distribution des extrêmes qui accompagne toujours une moyenne, ne s'est vraiment pas assez décalée, pour qu'on n'observe plus du tout de mois exceptionnellement froids par rapport au 19 ème siècle. Si on ne perçoit pas avec ces exemples, qu'on a toujours le potentiel pour relever encore pour un bon moment, de temps en temps, de très fortes anomalies froides qui contenteront tous les goûts, c'est à désespérer (certaines anomalies pourront être nettement plus froides que celles des 60 dernières années, en dehors de celle de février qui est très basse et donc très difficile à améliorer, avec une anomalie de -8.1° à Paris en 1956) . C'est quand même sympa la météo, on a des tirages au sort gratuits et permanents, on est certain de toucher des gros lots très chauds et très froids, mais il reste à savoir quand ils tomberont. Edition du 16/10/2010 : Ajout de la comparaison de janvier avec février. Voici les mois de janvier froids comparés aux mois de février froids: Les valeurs du panel (29 stations) de TreizeVents pour février, sont encore assez bien corrélées avec celles de Paris (r=0.98, r2=0.95, erreur type=0.52°) Ce mois de février nous apporte encore quelques exemples particuliers des possibilités de la variabilité de la Tm mensuelle. http://meteo.besse83...lclimfevprs.png Les minima de Maunder et de Dalton sont peu efficaces pour offrir les plus gros mois froids de février à Paris. Pas un seul mois exceptionnellement froid à leur actif, une anomalie/30 ans qui est franchement à la hausse dans le Maunder et la plus forte variation pendant le Dalton est aussi une hausse ! On a un mois exceptionnellement chaud, perdu entre ces deux minima. Ce n'est pas n'importe lequel des mois chauds, c'est le plus chaud de la série du mois de février, juste devant celui de 1990, +5.1° d'anomalie en 1767 ! Il est pourtant bien loin du réchauffement global actuel. Sur ces 334 ans, le premier mois exceptionnellement froid, malgré des périodes potentiellement froides en quantité industrielle auparavant, n'est relevé qu'au bout de 220 ans (en 1895). En prime, 3 des 4 mois exceptionnellement froids sont regroupés sur 45 petites années et pas n'importe où, dans le 20 ème siècle, de 1942 à 1986. Ces exemples nous montrent encore une fois qu'une anomalie de Tm mensuelle sur une zone donnée, peut être très largement à contre-courant des grandes tendances de fond de la zone ou du globe et ils nous indiquent qu'on peut toujours observer plusieurs mois exceptionnellement froids dans une vie et qu'on peut toujours battre de nos jours les pires records de froids et de Tm mensuelles, d'autant plus qu'on est loin d'avoir fait le tour des extrêmes des Tmm avec "seulement" 334 ans de données. J'avais oublié un élément important dans la première partie au sujet de déc 1788. Vu la différence de puissance du rayonnement solaire global en février par rapport à décembre (+40% à +50 % à midi solaire par ciel clair ici, sans parler de la différence de durée d'insolation journalière entre les 2 mois), on peut penser que si exactement la même situation synoptique que celle de février 56 se produisait au mois de décembre, l'anomalie pourrait détrôner celle de décembre 1788.
  14. J'aurais dû être plus précis. Ce n'est pas l'écart à la moyenne qui est testé. C'est la significativité de la différence entre les 2 moyennes /10 ans qui se suivent. Pour le premier cas, c'est donc la différence entre les estimations données par ces 2 moyennes d'anomalies/10 ans, 0.27° et -1.27°. C'est cette différence de -1.54° entre ces 2 estimations de la moyenne, qui est à la limite de la significativité (Probabilité 0.0563 avec Mann-Whitney et 0.07 avec Student, confirmé par le test d'inégalité des variances. Il aurait fallu que la proba soit < à 0.05 pour considérer comme assez significative cette différence) En fait, on ne se pose pas la question de savoir s'il a fait plus ou moins relativement froid, comme tu l'entends. On se demande si l'écart entre ces 2 estimations (ou si le froid relatif de cette moyenne d'anomalies, par rapport à la précédente, comme tu veux), est significatif d'un véritable changement de moyenne, ou s'il est simplement dû à l'aléa de l'échantillonnage. Il est tout à fait normal et logique, dans une certaine mesure, d'observer des différences d'estimations de la moyenne, basées sur de si et trop courts échantillons, à cause de la variabilité aléatoire importante de ces échantillons. La moyenne de l'une ou de l'autre des décennies, dans ce sens, n'est pas à prendre au degrés près, bien qu'elle soit donnée au centième. Ce ne sont que de vagues estimations de la moyenne bien plus générale de la population des anomalies de Tm, qu'on ne connaît pas très précisément faute de longueur de série suffisante pour la variabilité donnée. Même sans absolument aucune erreur de mesure et/ou sans aucun changement des conditions de mesures, donc avec des données sans aucune faille (ce qui n'est jamais le cas en pratique, surtout dans ce cas sans homogénéisation !), il y a un intervalle d'incertitude non négligeable, selon la variabilité habituelle des Tm de la zone (ou de la station), selon la longueur des séries qui donnent ces estimations et selon le type de distribution. L'intervalle d'incertitude est parfois tellement important par rapport à la différence des estimations, qu'une partie de ces intervalles se chevauche (donc sur une partie des intervalles, ces 2 estimations de la moyenne sont égales, à tel point que selon les probabilités calculées, on ne peut pas dire objectivement que la moyenne de la population plus générale qu'elles estiment, est significativement différente) Pour ces petits échantillons de 10 ans, en calculant avec Student l'intervalle de confiance à 95%, pour ces 2 estimations dans ce cas à la limite de la significativité ( anomalie de 0.27° et -1.27°), la moyenne des anomalies a 95% de chance de se trouver quelque part dans ces intervalles, mais on ne sait pas où exactement : Pour 50-59 [-0.94°; 1.84°] Pour 60-69 : [-2.79°; 0.15°] (Ceci sans prendre en compte les incertitudes non négligeables, qu'il existe dans ces données non homogénéisées. Donc en réalité, l'incertitude donnée par ces estimations est probablement bien plus grande) Les intervalles d'incertitude se chevauchent, la partie où ces 2 estimations de la moyenne peuvent être égales, se situe sur [-0.94°; 0.15°] Les tests montrent donc qu'il y a une probabilité légèrement (du moins sans données correctes) suffisante, pour que la différence entre ces 2 estimations, soit probablement due à une histoire de variabilité aléatoire d'échantillonnage. Même si le climat de fond de la France ne bougeait pas sur 10000 ans par exemple, on pourrait observer des écarts aussi importants entre 2 périodes de 10 ans, sans que ces écarts entre 2 moyennes de 10 ans, signifient qu'il y a un changement de moyenne plus générale. Sinon avec ton point de vue, en bricolant d'autres données de mois consécutifs dans une année, alors que tu as pourtant les anomalies et les Tm de décembre concernées par ces 2 moy/10 ans et que tous ces mois ne sont pas consécutivement classés "frais" comme avec ton bricolage, ça induit un sacré biais ! Ton bricolage serait relativement plus correct si tu respectais la chronologie et l'importance des anomalies (voir la chrono plus bas) et du nb d'écart-type , vu que les mois différents dans l'année ont parfois des ET différents du mois décembre. Déc Nb écart-type, Anomalie Classe 1950 -2,39 -3,77 Très froid 1951 0,02 0,03 Normal 1952 -0,68 -1,07 Frais 1953 1,54 2,43 Chaud 1954 0,97 1,53 Doux 1955 1,16 1,83 Chaud 1956 0,40 0,63 Normal 1957 -0,68 -1,07 Frais 1958 0,46 0,73 Normal 1959 0,91 1,43 Doux 1960 -1,00 -1,57 Frais 1961 0,21 0,33 Normal 1962 -2,01 -3,17 Très froid 1963 -2,01 -3,17 Très froid 1964 -0,87 -1,37 Frais 1965 0,97 1,53 Doux 1966 0,65 1,03 Doux 1967 -1,19 -1,87 Froid 1968 -0,74 -1,17 Frais 1969 -2,08 -3,27 Très froid Pour un test comme Mann-Whitney qui "décortique" et compare les rangs des anomalies des 2 séries de 10 ans, l'ordre réel ds anomalie et leur niveau à cette place, est particulièrement utile pour le résultat. L'aléatoire pour une distribution, ce n'est pas du n'importe quoi, il y a une certaine logique dans les distributions, ce que détectent certains tests. Donc avec ta succession d'anomalies plus qu'extraordinaire dans la réalité ( en bloquant 10 mois de décembre (ou autres) consécutifs avec une anomalie de -1.27° !!!) , la différence entre la moyenne qui est la même, devient obligatoirement très significativement différente (Mann-Whitney renvoie une proba 0.00123, donc dans ce cas c'est archi improbable que la moyenne soit identique pendant 10 ans, ou pendant 10 mois dans une année !) vu qu'une telle fréquence d'anomalies consécutives à ce niveau sur 10 ans pour décembre (ou autres), est obligatoirement le signe d'un changement majeur de distribution, c'est donc un changement de moyenne ! On voit là l'efficacité d'un test comparé aux bricolages insuffisants. Dans le tableau, c'est surtout le fait qu'il y a 3 mois de décembre très froids, qui a laminé la moyenne/10 ans, ce qui n'est pas du tout courant, mais ce n'est pas statistiquement improbable. Il y 1 chance sur environ 493, d'observer 3 valeurs <=- 2 ET dans une décennie de décembre en climat stabilisé sur la France (pour ce panel). Enfin pour ce cas à la limite de la significativité, je ne chipoterai pas si quelqu'un considère la différence comme significative, c'est d'ailleurs pour cette raison que j'ai précisé qu'on est à la limite de la significativité (mais bon dans les faits, la différence n'est pas significative, sinon la vraie moyenne plus approchée par l'estimation donnée par un moyenne sur une plus longue durée, se serait significativement effondrée) Oui Mitch /emoticons/smile@2x.png 2x" width="20" height="20">, c'est bien ça, mais tu peux arrondir à 0.0° sans problèmes, ça ne change vraiment rien à la précision réelle qui est loin d'être au centième. La fausse précision supplémentaire au centième, n'est en fait qu'une préférence de résolution pour afficher les moyennes calculées avec des centaines de données (panel de 29 stations). La Tm est de 5.3° (arrondie de fait par le graphe) pour une moyenne de 5.27° sur les valeurs arrondies de 1950-2008, donc 0.03° (0.0°). En parlant de résolution, si quelqu'un pouvait me communiquer les Txm mensuelles et Tnm mensuelles de Montsouris de 2007 à 2009 avec une résolution au millième, calculées avec les Tx et Tn journalières au dixième, ça m'arrangerait pour éviter les petits biais qui augmentent avec les arrondis des arrondis..., car pour homogénéiser la valeur mensuelle, on doit appliquer des corrections qui sont aux millièmes. Merci !
  15. Salut, A partir de la hauteur du soleil calculée pour chaque minute du jour concerné et à partir du rayonnement global théorique reçu pour la minute de ce jour, avec la méthode développée par MF, on obtient la durée d'insolation dans les stations équipées d'un pyrano (méthode programmée dans les stations Xaria), mais qui ne mesurent pas le rayonnement direct. Sur 6 ans de comparaisons des stations avec pyrano et l'héliographe en double, la méthode a donné +-1% d'écart par rapport à l'héliographe Cimel. Il y a quelques années, j'avais donné un lien vers le fichier des formules qui permettent d'appliquer cette méthode aux données de la Vantage pour une station (position à modifier) : http://meteo.besse83.free.fr/insolationvantage_xaria.xls Pour ceux qui n'envoient pas leur capteur à l'étalonnage, je conseille de vérifier son pyrano Davis en juin par ciel limpide vers midi solaire près du parc d'une station radome équipée d' un pyrano pro. Il y a des écarts selon les exemplaires Davis et selon les dérives. On peut effectuer un réglage à l'aide d'une vis à l'intérieur du capteur Davis (mais bon il vaut mieux mémoriser le nb de quarts de tour donnés et posséder en stock un autre capteur comme référence relative)
  16. D'après les valeurs arrondies du graphe du bilan , décembre 2009 a une anomalie de +0.03° sur la moyenne 1950-2008. Il est classé "Normal". Les mois de décembre qualifiés selon les 2 échelles communiquées dans mon précédent message (écart-type et moyenne sur 1950-2008) : Déc, Echelle 1, Echelle 2 1950 Très froid Très froid 1951 Normal Normal 1952 Frais Frais 1953 Chaud Chaud 1954 Doux Doux 1955 Chaud Doux 1956 Normal Normal 1957 Frais Frais 1958 Normal Normal 1959 Doux Doux 1960 Frais Frais 1961 Normal Normal 1962 Très froid Très froid 1963 Très froid Très froid 1964 Frais Frais 1965 Doux Doux 1966 Doux Doux 1967 Froid Frais 1968 Frais Frais 1969 Très froid Très froid 1970 Froid Froid 1971 Normal Normal 1972 Normal Normal 1973 Normal Normal 1974 Chaud Chaud 1975 Froid Frais 1976 Frais Frais 1977 Doux Doux 1978 Doux Doux 1979 Doux Doux 1980 Frais Frais 1981 Normal Normal 1982 Normal Normal 1983 Normal Normal 1984 Normal Normal 1985 Doux Doux 1986 Doux Doux 1987 Doux Doux 1988 Doux Doux 1989 Doux Doux 1990 Frais Frais 1991 Frais Frais 1992 Doux Doux 1993 Chaud Doux 1994 Chaud Chaud 1995 Normal Normal 1996 Frais Frais 1997 Doux Doux 1998 Normal Normal 1999 Normal Normal 2000 Chaud Très chaud 2001 Froid Frais 2002 Chaud Chaud 2003 Normal Normal 2004 Normal Normal 2005 Frais Frais 2006 Doux Doux 2007 Normal Normal 2008 Frais Frais 2009 Normal Normal La tendance de décembre depuis 1950, donc sur 60 ans, est de +0.17°/déc, non significative d'après les tests de Kendall et de Spearman. La dernière tendance à la limite de la significativité est sur 50 ans (1960-2009) de +0.36°/déc (tendance significative avec Kendall et non significative avec Spearman seulement pour quelques millièmes de probabilité). La tendance sur 30 ans (1980-2009) est de -0.03°/déc, non significative. La moyenne des anomalies de décembre des 30 dernières années (1980-2009), +0.34°, est significativement plus élevée que celle des 30 précédentes (1950-1979), -0.34° (d'après les tests de Mann et Whitney, T Test de Student, T Test d'inégalité des variances) Pour les décennies, il n'y a pas de différences significatives entre les moyennes. Décennie, Anomalie décembre/moy 50-2008 50-59 0,27° 60-69 -1,27° différence très proche de la limite de la significativité 70-79 -0,02° diff non significative 80-89 -0,44° diff non significative 90-99 0,36° diff non significative 00-09 0,24° diff non significative J'émets toujours les mêmes réserves sur la validité de ces calculs et de ces analyses, basés sur des Tm non homogénéisées au pas mensuel, car provenant des séries quotidiennes de référence (ou non). A ce propos, dans l'AR4 il est indiqué que dans des études sur 60 séries quotidiennes sur 1900-1999, 94% des séries sont douteuses (au pas journalier. On sait homogénéiser correctement le pas mensuel, il n'y a pas de problèmes à ce niveau) ainsi que 61% de 200 séries quotidiennes sur 1947-1999. Des travaux prometteurs sont en cours pour améliorer l'homogénéisation au pas journalier (enfin pour 90% des données, ce qui ne permet pas encore de corriger les valeurs les plus extrêmes et les records, mais c'est déjà utile pour estimer le premier décile et le dernier décile, qui sont des seuils pour calculer les nb de jours froids et de jours chauds, afin de suivre plus objectivement leur évolution. C'est aussi plus efficace pour calculer des moyennes mensuelles plus justes à partir des données quotidiennes)
  17. A voir avec l'écart-type du panel et pour celui de chaque station, si les anomalies concernées seront considérées fraîches, froides ou dans les normales. La variabilité habituelle de la T d'un lieu ou d'une zone peut-être assez différente selon les climats et les mois (ou d'autres périodes) des stations/zones concernées et donc une anomalie de Tm mensuelle de -0.70° dans telle station (ou pour tel groupe de stations) pour tel mois, peut-être classée dans la "normale", alors que pour d'autres elle sera classée comme "fraîche". D'après les données d'un graphe de novembre, le panel des 29 stations donnait pour le mois précédent un écart-type de 1.4°. Si l'ET de décembre du panel était équivalent à celui de novembre (j'en sais rien), avec par exemple une anomalie nationale de -0.69° pour ce panel sur le mois, il serait donc considéré dans les normales. (avec une anomalie entre + 0.5 et - 0.5 fois l'ET, pour 1.4° d'ET du panel, donc entre +0.7° et -0.7° d'anomalie, le mois serait considéré dans la "normale" pour le panel. Un mois de décembre qui aurait une anomalie de -0.69° au Luc, serait classé "frais" pour le Luc qui a un ET plus faible que le panel) Le reste de l'échelle dans le froid : -0.5 ET >= frais > -1 ET (autre variante de l'échelle, > -1.29 ET à la place de > -1 ET) -1 ET >= froid > -2 ET ( variante, -1.29 ET >= " " > -1.96) -2 ET >= très froid > -3 ET (variante, -1.96 ET >= " " > -2.57 ET) -3 ET >= Exceptionnellement froid (variante, >= " " -2.57 ET) (Si la distribution est trop éloignée de la normalité, pour définir les seuils de l'échelle, il vaudrait mieux utiliser les centiles) L'analyse d'un classement des anomalies de différentes stations/zones, sans les relier à leur variabilité propre, n'a pas vraiment de sens quand les ET de ces différentes zones/stations sont trop différents. D'ailleurs par rapport à la variabilité de la de Tm annuelle en France, on ne devrait pas entendre dire que la France a surchauffé plus vite que le globe (même avec l'anomalie "brute" qui laisse penser que c'est le cas), car c'est le globe qui a vu sa T évoluer le plus à la hausse par rapport à sa propre variabilité, qui est plus faible comparée à celle de la France (le globe s'est réchauffé de plus de 3 fois son écart-type, ce qui n'est pas le cas pour la France, malheureusement pour nous Mike /emoticons/biggrin@2x.png 2x" width="20" height="20">) Si ça ne demandait pas trop de travail en plus à TreizeVents, qui en fait déjà énormément pour nous régaler, ce serait un plus qu'on ne trouve pas encore ailleurs, si dans le bilan, on pouvait visualiser au moins 4 valeurs de plus (valeurs = x ET), celles des 2 stations et des 2 régions de France, qui auront relevé les valeurs les plus/moins importantes par rapport à leur variabilité propre. Merci, même si tu ne peux pas /emoticons/smile@2x.png 2x" width="20" height="20">!
  18. A voir comment elle se situe dans le graphique : http://meteo.besse83...roidfrj2009.png Inventaire réalisé selon la méthode indiquée ici :http://comprendre.me...10/21331-48.pdf Les 22 stations concernées : Le nouvel indicateur comprend 30 stations bien réparties, dont je n'ai pas la liste.
  19. Pour les données, cherche éventuellement dans l'explorateur du KNMI ( http://climexp.knmi.nl/ ), de plus on a la possibilité de ne choisir que des stations dont les séries sont homogénéisées (adjusted), c'est inutile d'utiliser des moyennes de données brutes sans rien connaître des changements. Ton étude des variations sur 3 ans, avec des stations non sélectionnées pour être représentatives d'une zone climatique suffisante (et sans qu'on sache si les moyennes sont homogénéisées) n'a pas pas vraiment de sens vu la variabilité de la température. Avec l'explorateur de données du KNMI, pour la zone de 60° à 90° N, avec la source de données ci-dessous, on obtient ces anomalies sur les 60 dernières années (durée minimale pour parler un peu évolution du climat) : # using minimal fraction of valid points 30.00 # T [Celsius] from CRUTEM3 + HadSST2 merged by land/sea area of grid box # cutting out region lon= -180.000 180.000, lat= 60.000 90.000 1950 0.344866 1951 0.413537 1952 0.183594 1953 0.854241 1954 0.719540 1955 -0.118166 1956 -0.127913 1957 0.565040 1958 0.187595 1959 0.449089 1960 0.544030 1961 0.373321 1962 0.606938 1963 0.256198 1964 -0.266347 1965 -0.134654 1966 -0.412913 1967 0.402925 1968 0.162199 1969 0.494686E-01 1970 0.224313 1971 0.198551 1972 -0.133465 1973 0.580150 1974 0.165106 1975 0.515476 1976 0.171042 1977 0.632597 1978 0.132506 1979 0.421064E-01 1980 0.388282 1981 1.12250 1982 0.178111E-02 1983 0.525809 1984 0.501629 1985 0.395462 1986 0.269356 1987 0.144586 1988 0.708294 1989 0.712359 1990 0.688947 1991 0.863916 1992 0.132608 1993 0.597112 1994 0.476069 1995 1.15210 1996 0.444040 1997 1.01175 1998 0.960855 1999 0.553397 2000 1.00918 2001 1.07928 2002 1.18543 2003 1.38189 2004 1.08820 2005 1.54894 2006 1.16267 2007 1.73801 2008 1.21873 2009 1.14281 Etant donné qu'en 2007, on relève l'anomalie la plus haute depuis au moins 1854 (début de cette série), il est plus que logique de descendre depuis 2007, d'autant plus que la variabilité de la Tm de cette zone, est environ 2 fois plus importante que celle du globe entier. Sur ces 60 ans, la tendance est de +0.18°/décade (significative). Sur les 30 dernières années, la tendance est de +0.37°/décade (significative) La dernière tendance significative d'après les tests de Kendall et/ou Spearman est donnée pour les 11 dernières années, +0.53°/décade (1999-2009). Tendance de +0.29°/décade sur les 10 dernières années, mais non significative. L'anomalie du climat (donc /30 ans) fin 2009 (sans décembre) pour cette zone, est passée à +0.81° contre +0.25° sur la période climatique précédente. La moyenne des 10 dernières années (1.26°) est significativement plus élevée que celle des 10 précédentes (0.69°) Tant que certains refuseront toujours d'admettre que la variabilité de la Tm annuelle autour de ce qu'est le climat ( une moyenne sur au moins 30 ans) est une règle élémentaire et qu'ils ne suivront pas l'évolution de ces moyennes/30 ans, bien avant de s'intéresser aux 3, 10, 20, ou 30 dernières années, on ne s'en sortira pas ! Comparer une évolution de Tm sur 3 ans à des projections donnant une évolution moyenne sur 100 ans, c'est inutile. ( une courbe dans une projection officielle de l'AR4 ne donne pas une évolution des anomalies "à la petite semaine", elle n'est pas du tout prévue pour estimer l'anomalie de telle période de 3 ans ou de telle décade ) A noter pour ceux qui sont amateurs de données homogénéisées en France, qu'on peut récupérer facilement la série phénoménale des 333 ans de données homogénéisées pour Paris, grâce au gros travail de Daniel Rousseau (CSM). Ces données de Tm mensuelles depuis 1676, sont toutes diffusées dans le dernier numéro de la revue "La Météorologie". En prime, il y a les corrections à appliquer aux données de Tmm actuelles à Montsouris, ce qui permet de continuer à comparer les moyennes actuelles aux anciens relevés corrigés (du moins tant qu'il n'y aura pas de nouveaux changements)
  20. Il faut que tu sois conscient que pour l'humidité relative, la précision minimale nécessaire à ton étude se paie quand même un peu. La marque que tu sembles choisir ne convient pas à tes études. Il te faut au minimum du matériel semi-pro Davis ou équivalent, mais encore bien plus cher. De plus quelque soit la qualité, même chez MF avec un capteur de HR à 700 euros pièce, il faut changer la cellule tous les 2 ans dans le meilleur des cas et au bout d'un an, si la vérification de l'étalonnage à cette période ne donne pas un bon résultat. Chez Davis ou dans les autres marques inférieures, il vaut mieux le changer tous les ans, vu qu'un capteur de HR qui dérive n'a pas de composant enfiché et qu'un étalonnage ne sert donc pas, il est à changer. Il faut compter dautour de 150 euros par an de capteur de HR au minimum pour la qualité minimale nécessaire à tes études. Dans ton cas je demanderai un certificat d'étalonnage pour être certain de ne pas rencontrer de problèmes, ce qui fait qu'à ce niveau vraiment minimal de précision dans le temps pour ton application, le prix annuel de cette mesure approche ton budget général.
  21. Depuis le début des relevés à Besse, je n'avais jamais vu geler en fin d'AM avec un bon gros Mistral, plus souvent synonyme de douceur même l'hiver ici. -1.0° actu avec 39 km/h/10 mn, rafales 70 km/h. vent maxi du jour sympa à 92 km/h. Tn -3.3°, Tx 2.6°. Je n'ai toujours pas vu passer une Tn climatologiquement froide pour Besse ou pour le Luc, grâce à l'aide du vent ou des nuages. 4 jours consécutifs avec une Tx climatologiquement froide. Vivement lundi !
  22. Ca n'arrive pas souvent que Cépet relève une Tx plus faible qu'à Besse, l'hiver. 3.8° à Cépet contre 5.5° ici (Tn -0.4° à Cépet) Dans le Var, c'est Vinon à 270 m d'altitude qui récolte la Tn la plus basse, -8.6°. Elle a bénéficié d'un vent faible. Ici à Besse, le froid n'est arrivé qu'aujourd'hui, -2.4° de Tn avec du Mistral en rafales à plus de 40 km/h (53 km/h maxi vers la Tn, le vent de terre a ramené du froid pour une fois). C'est la Tn la plus basse de la saison, mais elle est élevée pour ici ( elle est faible pour une Tn avec du vent pour ici, ce n'est pas très courant qu'il gèle avec du Mistral). Dans cet épisode, pour le moment, je ne comptabilise pas une seule Tn climatologiquement froide, 2 Tx sont climatologiquement froides, une seule Tm est climatologiquement froide (y compris au Luc). On est encore loin de la vague de froid ici, vu qu'il faut au moins 6 jours consécutifs avec des valeurs en dessous des seuils du coin, pour en parler. Ce soir, vent + nuages, -0.4°.
  23. Je parle de cette station à Brignoles bien installée et qui devrait récupérer le 4 ème jour :http://cevenol13.free.fr/brignoles/brignoles.htm C'est clair qu'une station bien plus loin à Brignoles en face de chez lui, au pied de versants nord, aurait récolté plus de jours. Il n'en demeure pas moins que dans le temps, dans certaines stations données dans le centre-Var, il a moins souvent gelé que pendant bien d'autres débuts de saisons froides. Si tu parles de Nans, c'est une autre planète que Brignoles et que le centre-Var, il y fait plus froid l'hiver en Tn. L'important c'est de voir l'écart avec ce qui est observé habituellement sur la période dans les mêmes conditions sur ta station.
  24. Oui ce ne sont pas les premières gelées dans le coin, mais on est loin du compte en centre-Var, touché souvent, soit pas trop de vent résiduel, soit par les nuages. A Brignoles on doit tourner à 3 j et à Besse j'en suis à 4 j. D'ailleurs ici la 1 ère gelée sous-abri est la 2 ème plus tardive depuis l'ouverture en 1993, c'est aussi la 2 ème fois qu'elle n'arrive qu'en décembre. Le mini de cette saison froide n'est vraiment pas bien bas, -2.1°. Tx 10° ici aujourd'hui, comme hier, Tn du jour 1.7° , pile sur la normale ! On est encore très loin d'une vague de froid pour le secteur, tant mieux , car je n'habite pas dans le Var, pour voir les vagues de froid du Nord, déjà que je ne peux pas voir celles du Sud ! Pour le moment ici on attend toujours l'équivalent des anomalies des records de froids l'hiver du secteur, mais dans le chaud l'été. Pour égaliser sur l'anomalie extrême d'une journée d'hiver ici, il faudrait relever une Tx environ 19° plus chaude que la normale d'août, soit une Tx d'environ 50° .
  25. Bonjour Stev, Tu te doutes bien que les normes d'abri et d'installation n'ont pas été élaborées par hasard et que ça fait plus de 200 ans que des scientifiques spécialistes de la mesure, ont testé et étudié les meilleures façons de mesurer la température de l'air avec les technologies disponibles à chaque époque. Tu te doutes aussi que de nombreux amateurs passionnés ont aussi pu vérifier depuis longtemps par l'expérimentation, l'efficacité des normes d'abri (non bricolé au hasard) et d'emplacement, pour mesurer assez correctement une température de l'air (un capteur dehors à l'ombre hors abri normalisé, va trop capter la T du sol, de l'arbuste/arbre ou du mur pas très loin... et si c'est thermo/boîtier hors abri, c'est pire, le composant de T va mesurer la T du boîtier trop fermé, qui rayonne beaucoup et qui bloque l'air autour du composant de T qui n'est plus vraiment à l'air libre) La très très grande majorité des stations pro sont filaires (je ne parle pas de Davis ou d'autres marques de stations, qui ne sont pas du matériel pro) et pour le moment, il n'y a pas plus fiable que le matériel filaire (y compris chez Davis) ! En réalité les stations non filaires n'existent pas vraiment sur le terrain chez les organismes pro, car même dans les stations isolées, les capteurs sont filaires et les données sont mémorisées sur place par l'acquisition filaire présente dehors près des capteurs. Une fois mémorisées par la station filaire sur place, les données sont simplement envoyées aux organismes par téléphone ou par satellite... (c'est simplement la transmission des données (déjà en mémoire sur place) vers les organismes qui est ou non filaire. C'est justement cette mémoire sur place près des capteurs, qu'il manque aux stations radio amateurs, les données se perdre parfois pendant la transmission sans fil, donc aucune chance de les récupérer) Un thermo à l'ombre peut renvoyer bien plus que 1° d'écart avec une station et un thermo sous abri normalisé, vu que le thermo à l'ombre hors abri, capte plus de rayonnements indirects et qu'il rayonne lui-même plus dehors, que sous abri normalisé prévu pour limiter les rayonnements directs et indirects tout en évitant de trop couper la circulation d'air. On observe aussi bien plus que 1° d'écart certains jours, entre une station avec un abri homologué bien placé et une autre station toute proche à quelques dizaines de mètres, avec ce même abri, mais mal placé : http://www.ccrom.org...chnique35-2.pdf La moindre des corrections pour ceux qui ont déjà pris le temps de répondre plusieurs fois sur ces points, quand on se pose des questions sur un sujet particulier, c'est de lire tous les messages sur le sujet, dans le forum concerné ( "Instrumentation") et dans le cas présent de consulter aussi les informations sur les normes minimales d'installation d'une station météo de base ( http://www.infoclima...s_rejoindre.php )/emoticons/wink@2x.png 2x" width="20" height="20">
×
×
  • Créer...