ChristianP
Adhérent Infoclimat-
Compteur de contenus
2904 -
Inscription
-
Dernière visite
-
Jours gagnés
1
Type de contenu
Profils
Forums
Calendrier
Tout ce qui a été posté par ChristianP
-
[Réseau StatIC] Suivi du déploiement
ChristianP a répondu à un sujet de Ced30 dans Vie du site Infoclimat
Pour répondre à ton message précédent, l'anémo de la Wizard3 est meilleur si la Vantage n'a pas le bon firmware avec la correction prévue pour le modèle Vantage, qui doit être dirigé vers le Nord dans ce cas. Attention pour les rafales sur 10 mn, elles ne sont pas fausses, il y a des ratés avec le micro, parfois le summary de WL n'a pas le temps de capter la valeur maxi (des 10 mn, du jour ou autres) alors qu'elle l'est par la console. Il suffit que ton micro temporise un peu à ce moment là pour x raisons, pour te faire sauter une actualisation de 2.5 s avec la rafale concernée. Ensuite il faut voir si la valeur était vraiment présente sur le summary dans les 10 mn au moment exact de l'envoi du TXT à l'heure du micro (si ta console n'a pas exactement la même heure que ton micro, tu n'aurais pas regardé la même tranche de 10 mn ). Il aurait fallu aussi vérifier que ton TXT a bien envoyé la valeur de 93 km/h/10 mn, pour savoir si le problème vient du traitement des données dans IC. WL ne donne pas le maxi sur 1h, sans un autre logiciel qui l'extrait, il faudrait donc récupérer tous les relevés minutes de chaque station, ce qui est faisable mais plus lourd à gérer. N'hésitez pas à écrire à Davis pour demander ce maxi sur 1h, ils installent de nouvelles fonctions aussi selon le nombre de demandes reçues. -
[Réseau StatIC] Suivi du déploiement
ChristianP a répondu à un sujet de Ced30 dans Vie du site Infoclimat
Oui j'en ai parlé hier avec les autres techniciens, ça joue un peu sur les Tn sous abri l'été. Ici dans le Sud, avec une bonne ventilation, pas de problèmes sur les Tx malgré que la dalle reste plus chaude que le sol plus ou moins herbeux autour. Pour comparer j'avais une mesure de T sous abri en permanence au-dessus de la dalle de mon mât et d'autres ailleurs. J'ai regardé en détail dans la classification MF, une dalle de plus de 0.8 m2 dans un rayon de 5 m te classe 3, au lieu de classe 2. Tu ajoutes une couche de terre herbeuse sur le béton et c'est réglé, plus de doutes. Content de voir cette belle station dans ma Broxie natale -
Bonsoir, Voilà j'ai reçu la réponse avec les dates exactes du record chez MF : 135 jours consécutifs avec RR<=1 mm du 1er mai au 12 sept 2006 à la BAN de Hyères. Donc méfiez vous aussi des données achetées dans la climathèque même après validation, il y a des erreurs, des différences, car ce ne sont pas des données homogénéisées (ce n'est d'ailleurs pas la première fois que j'en vois, malgré un prix des données non négligeable, ce qui est assez frustrant quand on n'a pas accès aux données travaillées)
-
Que pensez vous de ventilation active
ChristianP a répondu à un sujet de Atlantique44 dans Instrumentation
Ce n'est pas parce qu'un abri normalisé relève 30.9° que cette valeur est juste et que la tienne sans abri l'est aussi ! Pour la station de St Riquier, il faut voir l'installation, si elle est cloisonnée dans un jardinet, c'est vite fait de relever +2 à +3° d'erreur en Tx l'été par beau temps (parfois plus selon la nature du cloisonnement, des matérieux et selon les conditions) , ce ne serait pas une référence. Un abri Davis 7714 très bien placé (à une distance de plus de 4 fois la hauteur des obstacles, en surélevant l'abri si on n'a pas un assez grand terrain pour obtenir ce dégagement ) avec un thermo simple, ce n'est pas cher pour mesurer en amateur assez correctement la T (bien mieux qu'avec un abri MF mal placé et une station pro à 12000 euros) La ventilation forcée ne fait pas baisser les Tn, elle les fait monter très légèrement en moyenne, car elle évite le biais dû au rayonnement de l'abri (les parois internes de l'abri sont trop froides la nuit par temps clair et calme par rapport à l'air, donc le capteur perd plus d'énergie, il rayonne, il se refroidit trop) L'effet psychrométrique a lieu parfois après le lever du soleil quand l'air n'est plus saturé alors que l'abri ventilé et le capteur sont toujours humidifiés, mais ce n'est pas très courant, il faut des conditions bien particulières l'automne et l'hiver. En attendant que la mesure sonique de la T de l'air soit optimisée, il faut un abri anti-rayonnement bien placé (avec ventilation méca 24h/24h si on est dans un secteur peu souvent assez venté aux horaires des Tx, et si on habite en ville où c'est plus que préconisé par le spécialiste des mesures urbaines pour l'OMM). Pour l'abri de la photo d'un message plus haut, c'est un vrai four solaire, la sonde avec son capuchon serait bien mieux à l'ombre d'un arbre en plein vent. -
Salut Noël,/emoticons/smile@2x.png 2x" width="20" height="20"> J'ai consulté les relevés dans la climathèque, ce n'est pas la station de Hyères plage (SCRADH), elle a relevé 1.0 mm en août, ni les autres stations officielles appelées "Hyères" , Porquerolles pépinières, fermée depuis, ni celle du Levant. C'est probablement un autre pluvio hors réseau, j'ai demandé des précisions. Attention aux relevés bruts des synops en général sur le net, que ce soit dans Météociel et ailleurs. Exemple flagrant le 3/08/2006, avec une grosse coïncidence, car j'étais présent dans le parc à instruments de Hyères aéro avec un spécialiste de MF pour la visite annuelle de la station et assister à sa classification simplifiée . Il a versé la quantité d'eau nécessaire au contrôle du pluvio, d'où les 9.4 mm ce jour sec très ensoleillé. Le max du mois d'août 2006 à Hyères aéro est en réalité à 1.0 mm (à Hyères aéro il y a donc une série de 137 jours consécutifs sans pluie >= 1.1 mm, 0.1 mm de trop qui change tout pour le record de jours dans pluie !)
-
D'après des infos aimablement communiquées par MF, on constatera que le Quid même assez récent, n'était vraiment pas à jour ! Il n'a pas vu les 103 jours consécutifs sans pluie (>= 1 mm) de 1928 à Marseille. Il a même fait pire, en ne signalant pas de plus fortes valeurs. C'est la honte pour tous les passionnés du coin qui n'ont pas vu passer une sacrée valeur en 2006, avec 135 jours consécutifs sans RR>= 1 mm à Hyères (132 j à Istres et Salon en 1989) Pour le seuil suivant dit "sans pluie significative" (pour la climato MF c'est celui sans RR >= 10 mm), on a relevé par exemple 164 jours consécutifs en 1985 à Toulon (150 j en 1936 et 2001, 146 j en 2007, 123 j en 2009)
-
Statistiques et anomalies climatiques globales
ChristianP a répondu à un sujet de Sam82 dans Evolution du climat
Je me doutais que tu allais nous pondre quelque chose d'intéressant, comme d'habitude. Merci d'avoir pris le temps d'apporter toutes ces précisions et ces remarques. Même si les stats ne sont pas ton point fort, comme tu baignes pleinement dans les études, il l'est par rapport à mon point, qui est celui de quelqu'un qui n'avait pas fouillé de cours sur ces sujets depuis plus de 25 ans. Sans pratique régulière, c'est fou ce qu'on oublie ! Donc il est plus que probable que je sorte des énormités, que certains n'auront aucun mal à détecter et à corriger. J'ai amené ce sujet justement pour que nous soyons plus nombreux à améliorer notre façon de raisonner objectivement en climato. Sans prof, sans bagage théorique suffisant à l'instant t, sans autre point de vue, il est difficile de détecter ses propres erreurs. Dans ce message, je vais seulement aborder le premier point de ta réponse, la suite viendra plus tard selon les disponibilités. Je ne dois pas comprendre quelque chose concernant les valeurs moyennes de 97-2008 que tu utilises pour tes calculs, car avec les anomalies de Tm annuelles de la NOAA (nouvelles ou anciennes), je ne trouve pas de coeff de corrélation (standard de Pearson, de Spearman et de Kendall) si élevé et donc pas de tendance significative. Avec les nouvelles données ici : http://meteo.besse83...pear12n9708.png Dans les calculs du premier message, les résultats me semblent assez cohérents avec ceux de l'analyse des moyennes, qui indiquent une différence significative qu'à partir de 2 sous suites de 8 ans pour test de Spearman seul, ce qui correspond à la plus courte tendance significative sur 16 ans (sur 94-2009). Kendall est très proche de la limite de la significativité avec 16 ans ( les 2 tests le sont ensemble pleinement avec 17 ans) On peut très bien utiliser uniquement le test de Spearman vu que les études sur les tendances de T n'utilisent pas toutes la condition que les 2 tests soient significatifs, même si j'ai une préférence pour cette solution et pour Kendall si j'en utilisais qu'un seul. J'avais vu ta méthode avec cette table pour la significativité du coeff de corrélation standard, test paramétrique. Mais j'ai préféré donner ces 2 tests non paramétriques pour éviter que les utilisateurs aient à vérifier que le couple (X,Y) suit une loi normale bivariée (en sachant que ce n'est pas parce X et Y sont gaussiens individuellement que le couple l'est) d'autant plus quand on cherche la plus courte tendance significative, donc avec de petites séries où les tests paramétriques ne sont pas conseillés. Il est considéré qu'avec moins de 20 échantillons, même avec les tests non paramétriques, il vaut mieux prendre les résultats à titre indicatif. De plus comme je suis léger pour vraiment choisir objectivement, je me base aussi sur ce qu'on trouve dans les publications de climato, car il me semble que si un test est choisi par une majorité de spécialistes de climato, pour tel cas, ils ont quand même plus d'éléments en main pour choisir les meilleurs pour ce cas. Pour tester la significativité des évolutions de la température des 70 séries françaises homogénéisées, Mestre, Moisselin, ..., indiquent qu'avec le test de significativité de Spearman + Student (qu'ils ont utilisé), à l'inverse de la tendance, on ne cherche pas à imposer la droite comme modèle d'évolution. Autre élément dans une note MF plus ancienne, sur l'évolution de la T en France, qui utilise la condition que les 2 tests de Spearman et de Kendall doivent être significatifs. Il est dit qu'on peut remarquer que si les tests (Spn et Knl) décèlent une tendance, alors le coeff de corrélation linéaire dépasse le seuil imposé. La réciproque n'est pas vraie. Si la valeur de la tendance et si le coeff de corrélation linéaire, semblent fort, alors que les tests de tendances n'ont rien détecté, il est peu probable qu'il y ait tendance. Dans l'annexe sur les tests utilisables pour étudier le caractère aléatoire d'une suite chrono, il est indiqué que ces 2 tests ont une puissance convenable pour être utilisés sur des suites relativement courtes, d'autres tests sont donnés mais aucun avec le coeff de corrélation linéaire. Je ne doute pas que si le test de significativité d'une tendance de température basé sur le coeff de corrélation linéaire avait été considéré comme aussi performant que les autres, on le verrait aussi dans ces publications MF. Même hors MF dans les nombreuses publications de climato à l'AIC, il est courant de voir Kendall et/ou Spearman pour tester la significativité des tendances de T. Je ne sais pas dans quelle mesure, la sévérité de ton test, peut-être ou non une faiblesse par rapport aux 2 autres (c'est à dire dans quelle proportion par rapport aux deux autres, il rejettera trop souvent H0 et indiquera une tendance significative, alors qu'elle ne l'est pas) -
Bonsoir,Pour moi ton record est officiel vu qu'il est relevé dans un SPIEA homologué (à 1 m du sol, qui n'est pas installé sous des arbres ou autres) plus valide qu'un pluvio à augets homologué dans une station pro. On pourra toujours envoyer tes relevés à la clim DIRSE avec les photos dans les 4 directions de l'environnement avec ton pluvio. Pour Tony, les relevés de jours à 0.0 mm ne sont pas comparables aux anciens relevés manuels plus fins, vu que les pluvio à augets démarrent qu'à 0.2 mm et même à 0.5 mm pour certains modèles du réseau MF. Pour moi les nouveaux records de ce type sont plus que douteux s'il n'y a pas de SPIEA suivi chaque jour (ce qui n'est pas toujours le cas même s'il est présent dans certaines synoptiques). Pour l'histoire des records de Txx, 1° de différence avec l'ancien record, c'est pratiquement le minimum nécessaire pour qu'on puisse être assez certain que le record est effectivement battu (dans la meilleure station MF dans le meilleure site, la limite de l'incertitude de mesure positive en Tx dans la canicule est à ce niveau), ce n'est donc vraiment pas remarquable. Avec le SPIEA, si le personnel est présent chaque jour, on est certain qu'il n'est pas tombé 1 mm dès le premier jour du record. Après pour savoir si le record national de Toulon est potentiellement plus difficile à réaliser que celui de la Txx nationale en Corse, il faudrait récupérer les séries de ces paramètres pour les 2 stations et le calculer. On pourrait aussi s'amuser à calculer si ce record de RR est plus difficilement réalisable à Toulon ou dans la station la plus sèche de France (il faudrait récupérer absolument toutes les séries de jours consécutifs sans RR >= 1mm de ces 2 stations)
-
Statistiques et anomalies climatiques globales
ChristianP a répondu à un sujet de Sam82 dans Evolution du climat
Un peu de temps libre pour répondre plus tôt que prévu... Je parlais du climat stabilisé avec les 1000 anomalies annuelles générées aléatoirement par Excel : http://meteo.besse83.../simclim98.png. Il n'y a absolument aucune variable climatique (pas d'influence solaire, pas de CO2, pas de volcan, pas d'AMO, rien de rien...), ni d'atmosphère d'ailleurs /emoticons/biggrin@2x.png 2x" width="20" height="20">, c'est Excel qui les crée toutes aléatoirement. Elles sont juste bornées par le respect de la distribution des anomalies annuelles qu'on observerait dans un climat stable avec les paramètres calculés fin 98. Si on regarde attentivement la courbe sur 30 ans, on peut toujours trouver des pseudos cycles sur d'aussi courtes périodes que 130 ans (oscillations régulières sur cette période mais qui ne sont pas significatives d'un cycle quand on élargit la période) et on trouvera aussi des tendances significatives à la baisse (baisse significative du niveau de l'anomalie annuelle mais pas du climat moyen !) ou à la hausse sur des périodes courtes dans ces variations totalement aléatoires, et pour ce cas, ça ne change pas le fait que le climat est stabilisé même lorsqu'on voit la moyenne glissante/30ans baisser (elle ne baisse pas assez longtemps ou pas assez fortement pour considérer que le climat moyen a évolué significativement) On peut lancer 1000 simulations de ce type, on ne relèvera jamais strictement les mêmes alternances, ni les mêmes anomalies aux mêmes périodes, ni les mêmes max/min absolus. C'est cette variabilité que beaucoup refusent d'admettre, en cherchant une cause à toutes variations, en les extrapolant en prime, même lorsqu'elles sont très probablement aléatoires comme toutes celles-ci. Le réchauffement se poursuit chaque année sur 30 ans quand l'anomalie annuelle est supérieure à la moyenne sur 30 ans et à l'anomalie annuelle en tête de la série de 30 ans, celle qui est sortie par la nouvelle et dernière anomalie annuelle (ce n'est pas une question de positivité/négativité). Après au bout de 30 ans, il faut quand même vérifier mathématiquement que la moyenne est significativement différente (une moyenne n'est pas une valeur précise avec seulement 30 ans de données d'autant plus si l'écart-type est élevé, sans parler des problèmes de précisions des mesures) Attention pour le climat moyen, 30 ans c'est un strict minimum afin d'obtenir une efficacité statistique minimale d'un climat de référence pour l'échelle humaine. 30 ans ou 30 échantillons, ça ne concerne pas que l'atmosphère. C'est un seuil assez général en statistiques. Il est considéré comme devenant relativement efficace pour profiter de certaines lois et tests (avec un échantillonnage trop faible, on a plus de mal à déterminer la loi de distribution concernée et à estimer assez correctement divers paramètres statistiques) Dans les cours MF de statistiques appliquées à la météo, l'efficacité d'une série assez longue, c'est le plus souvent à partir de 100 échantillons, là où dans d'autres domaines on se contente de 30. D'après les spécialistes, l'idéal statistique du climat de référence concernant la température pour notre échelle humaine, c'est une moyenne/100 ans. C'est pour cette raison que j'ai choisi l'anomalie NOAA, la seule calculée sur 100 ans de données homogénéisées. Le problème c'est que cette science est jeune et donc on ne dispose pas de plusieurs séries de données de 100 ans assez bien homogénéisées. 100 ans c'est utile pour suivre le climat à long terme et avoir une bonne idée de ce qui courant ou pas, en général dans une vie humaine, mais ce n'est pas efficace pour analyser des changements très importants et très rapides sur quelques décennies (variation de 16° de Tm en quelques décennies dans le passé par exemple !) Il y a un très bon article dans le numéro de mai de la revue La Météorologie, qui aborde le point de de ce que pourrait être la définition physique du climat. Dans ce cas, pour la température de l'atmosphère, il semble que 100 ans soit aussi une assez bonne base de définition physique, même s'il est indiqué que sur 30 ans, il n'y aurait pas de différences fondamentales. Par rapport aux variations très rapides sur de courtes périodes, il est précisé qu'il faudrait inventer un terme pour qualifier l'échelle entre ce qui est météorologique (phénomène rapide, d'une semaine) et ce qui est climatique (phénomène lent, > 10 ans) Pour la T de surface des océans, il y a un article qui en parle dans le même numéro de la revue (selon les régions, en 100 ans, à l'exception de quelques zones, elle a pris de 0.5° à 2°, il reste à voir ce que donne l'anomalie globale, ce n'est pas indiqué.) Williams, j'ai l'impression que tu ne lis pratiquement pas mes messages. Le problème principal c'est que tu veux absolument rester au pas annuel et ne pas prendre du recul en changeant de focale (il faut "dézoomer", revenir au pas climatique) et surtout tu extrapoles ces tendances (ou stabilités) de l'anomalie annuelle sur x années sur une trop courte période (< 54 ans), à celle du climat moyen, sans regarder l'évolution réelle de ce climat moyen. Si tu parlais de ces variations de l'anomalie annuelle au pas annuel, sans indiquer que ça change aussi l'évolution du climat moyen dans le même sens, il n'y aurait aucun problème. Imagine pour 2 petites séries chronologiques de mois de 30j (tous à 30j pour simplifier), dans une station donnée qui aurait la même variabilité de Tm que celle de la planète, qu'on relève ces anomalies mensuelles de Tm : mois1: -0,2280° mois2: -0,1441° mois3 : 0,0256° mois4 : 0,1973° mois5 : 0,5446° mois1: -0,2280° mois2: -0,1441° mois3 : 0,0256° mois4 : 0,1973° mois5 : 0,3905° Trouves-tu que l'anomalie de Tm mensuelle est stabilisée dans la 1 ère série ? Dans la 2 ème série ? Lorsqu'on zoom au niveau des anomalies journalières, si on constate que les 32 dernières anomalies de Tm journalières des derniers mois de la série concernée (du 29 du mois4, au 30 du mois5) sont stables dans la 1 ère série et sont à la baisse significative pour la 2 ème série, est-ce que pour toi (ou d'autres !), ça change la réponse aux 2 premières questions ? Il faut bien comprendre que même avec un assez fort réchauffement, du fait de la variabilité importante (aléatoire + naturelle) de la température, on est sensé rencontrer d'assez longues périodes de baisses et de stagnations de l'anomalie (annuelle ou non) Par exemple ici , http://meteo.besse83...e9t%e9paris.png pour les anomalies de chaque été sur le secteur de Paris, qui n'est qu'un exemple parmi tant d'autres (simulation de l'IPSL de 2 scénarios, rouge et vert, sans réduction de CO2, donc on pourra rencontrer des périodes de baisses de l'anomalie annuelle, plus importantes avec un moindre réchauffement que celui-ci), la courbe rouge des anomalies de chaque été est stable (au pas annuel) pendant 27 ans et elle baisse même sur 21 ans pendant le gros du réchauffement alors que la moyenne de l'été augmente fortement. Et bien je suis persuadé qu'à cette époque, il y aura encore quelqu'un dans un forum pour dire que le climat se refroidit, alors qu'il prend et aura pris x degrés, simplement parce qu'il refuse de regarder l'évolution du climat (évolution des moy/30 ans) à la place de l'évolution de l'anomalie annuelle (évolution des moyennes de 12 mois) ! Il est inutile de vouloir extrapoler une variation visible au pas annuel, sans analyser l'évolution du climat moyen et donc sans regarder les moyennes, comme il est inutile d'analyser des variations de Tm journalières sans regarder la moyenne mensuelle du mois pour suivre l'évolution de la Tm de ce mois par rapport aux autres mois. Tire une droite de tendance sur les anomalies de Tm journalières du 30 juillet 2003 au 31 août 2003 et tu verras que ce serait une énormité absolue, d'indiquer qu'août 2003 est stable ou se refroidit par rapport aux autres mois, parce qu'il y a une tendance très significative à la baisse avec ces 32 anomalies de Tm journalières sur cette période pourtant extrême de 2003, et du siècle ! Une tendance sur 32 Tm journalières pour le pas mensuel, une tendance sur 32 ans pour le pas climatique, c'est pareil, on ne peut tirer de conclusion sur l'évolution mensuelle avec 32 jours, tout comme on ne peut tirer de conclusions sur l'évolution du climat avec 32 ans, simplement parce qu'on se trompe d'échelle pour raisonner. Le changement climatique est le fait que le climat change d'état moyen et pas le fait qu'il fluctue autour d'une moyenne comme pour la variabilité propre (variabilité aléatoire (hasard) + variabilité naturelle ( solaire, AMO, ENSO, volcan...) Refuser de regarder l'évolution de ces moyennes représentant le climat, comme tu le fais (tu n'es pas le seul !), c'est donc refuser d'analyser l'évolution du climat (tu analyses que les variations internes au climat). Je le répète, analyser l'évolution du climat au pas annuel sans garder l'œil sur l'évolution des moyennes représentant le climat moyen, c'est une erreur fondamentale qu'absolument personne ne réalise quand il s'agit d'une échelle de temps inférieure au climat. Je n'ai vu aucun passionné de climato, regarder uniquement l'anomalie des 14 derniers mois précédents d'une station donnée, pour voir l'évolution de l'année par rapport à une ou d'autres années de cette station, ni une seule personne qui zoome uniquement sur les 32 dernières anomalies journalières, pour voir l'évolution du mois par rapport à d'autres mois. C'est plutôt le contraire, tous regardent (ou estime) que la valeur finale de l'année ou du mois, pour la comparer à celles des autres années ou des autres mois, ce qui est quand même autrement plus logique et juste ! Donc pourquoi certains pratiquent-ils de la mauvaise façon, quand on change simplement le mot mois, année, par climat ? Ce n'est pas parce qu'il faut attendre 30 ans (ou estimer la valeur du climat moyen à la fin de ces 30 ans), pour comparer ce nouveau climat à l'ancien des 30 années précédentes, qu'on peut prendre ce genre de liberté. Soit on ne sait pas, ce qui est largement excusable, tout s'apprend; soit on sait et donc on continue à propager des raisonnements archi-faux, et je me demande bien dans quel but ? Certains oublient trop vite, même quelques scientifiques chevronnés, que la climato c'est la science de la patience ! Quelqu'un sait-il où se trouvent des données sur l'index volcanique DVI depuis 1996 (j'ai celles d'avant) et celles de l'index ENSO pour les années 1880 à 1949 (j'ai les suivantes) ? Merci ! -
Statistiques et anomalies climatiques globales
ChristianP a répondu à un sujet de Sam82 dans Evolution du climat
Ce n'est pas parce que tu as bien prévu la faiblesse de l'activité solaire, que ça démontre que l'activité solaire, influence bien plus l'anomalie globale (que ce qui est avancé par les scientifiques), qu'avant cette prévision, ceci sans démonstration mathématique. Je t'avais bien compris Williams, car à l'occasion de ma précédente réponse, j'avais réalisé ce graphe avec l'anomalie annuelle bloquée à 0.55° : http://meteo.besse83...5-2009-2028.png La température du climat moyen ne se stabilise pas, c'est le niveau de la température annuelle qui se stabilise. Avec 0.55°, les tests montrent que la tendance de 99 à 2028 n'est pas significative (idem à partir de 98. La plus courte tendance significative à la hausse pour ce cas, va de 1995 à 2028), mais ils montrent surtout que le climat calculé en 2028, se sera réchauffé très significativement depuis celui calculé fin 98 et que le groupe d'années de 2010-2028 se sera significativement réchauffé par rapport au climat calculé fin 2009. Plus justement, comme il est impossible de relever autant d'années consécutives avec la même anomalie de 0.55°, avec comme base une moyenne de 0.55° sur 19 ans de 2010 à 2028, le graphe aura plutôt tendance à ressembler à ça, http://meteo.besse83...olclim2028alea0,55stbl2009.png tu remarqueras que des anomalies annuelles passent sous le niveau de la moyenne/30 ans, alors que cette moyenne/30 ans continue de croître significativement. Le résultat pour la forme de la courbe/30 ans avec cet échantillon aléatoire, est par hasard sensiblement le même qu'avec toutes les anomalies fixées à 0.55° (l'écart-type entré pour la génération aléatoire, a été déterminé à partir du calcul de la variance sans biais sur les 11 ans de 1999-2009) Il n'y a pas de contradiction dans le paragraphe précédent, entre une tendance non significative sur 30 ans ( 99-2028) et une hausse très significative du climat moyen sur la même période 99-2028. Une tendance sur 30 ans contrairement à ce que certains pensent, n'est pas une tendance climatique d'échelle suffisante pour l'analyse de l'évolution du climat moyen/30 ans, car elle permet de comparer uniquement les 2 moyennes de 2 sous-suites /15 ans, 2 périodes bien trop courtes. Une tendance sur 30 ans, c'est juste une tendance interne à toute cette période de 30 ans. Le début et la fin d'une période de 30 ans ne sont pas des moyennes/30 ans, ce sont des anomalies annuelles qui ne donnent pas d'indications de l'évolution de ces 30 ans par rapport à la période de 30 ans précédente (ou suivante). La tendance/30 ans sera très sensible à la répartition des valeurs dans leurs 15 années respectives, même si elle reste de même signe. Dans l'analyse d'une tendance sur 30 ans (ou autre), il est indispensable d'analyser aussi les moyennes des 2 sous-suites qui la constitue, car ces 2 moyennes ne changent pas quelque soit la répartition des valeurs dans leurs 15 années respectives (pour le cas présent) Une tendance pour analyser l'évolution du climat moyen se calcule avec 60 ans de données afin qu'il y ait 2 sous-suites de 30 ans à comparer (grand mini 54 ans, avec 24 ans à comparer à 30 autres années). On pourra parler de climat moyen stable, s'il n'y a pas de tendance significative sur 60 ans et si la moyenne des 2 sous-suites de 30 ans, est significativement égale. Les autres tendances significatives que l'on trouve sur des pas de temps plus courts, sont utiles pour analyser les causes des variations non aléatoires, internes à ce climat moyen. (J'imagine que personne ici n'aurait l'idée saugrenue d'indiquer que la T du mois de septembre en cours, est stable par rapport au précédent mois de septembre, avec une tendance calculée sur les 11 premiers jours de septembre en cours, tout en ne tenant pas compte des 30 jours du mois de septembre précédent ! Quand on tire une droite de tendance sur les 30 jours dans un mois de septembre, ça ne nous donne pas l'évolution par rapport au mois de septembre précédent, mais uniquement celle à l'intérieur du mois de septembre concerné. Je me demande bien pourquoi ça paraît très évident à cette échelle et pas du tout quand on parle de climat moyen où il suffit pourtant de remplacer dans sa tête « 30 jours » par « 30 années » ?! ) Pour analyser une tendance de fond, il faut bien entendu bien plus que 60 ans de données (une tendance de fond pour un mois donné, ne se calcule pas avec seulement 2 mois de 30 j !) Là, http://meteo.besse83...olclim2028alea0,27stbl2009.png tu as l'évolution avec la valeur calculée pour 19 ans du précédent message (0.2717°) afin d'obtenir un climat en voie de stabilisation à partir de 2009 (il n'est pas encore stabilisé !), tu as une stabilisation de la courbe/30 ans. En 2028, le climat moyen ne pourra pas être considéré comme stabilisé, car la moyenne 1999-2028 sera significativement différente et plus chaude que le climat moyen calculé fin 98 (69-98). Il suffira que les anomalies annuelles repartent assez à la hausse après 2028 pour que le climat moyen se réchauffe. La tendance/30 ans sur 1999-2028 n'est significative que d'un refroidissement interne à cette période de 30 ans. On voit bien que même une tendance froide sur cette courte période de 30 ans, ne permet pas de conclure à une stagnation du climat moyen, car cette tendance ne change pas le fait que le climat moyen/30 ans de 1999-2028, s'est réchauffé par rapport au climat moyen précédent (69-98), ce qui montre bien la nécessité d'utiliser 60 ans de données, 2 périodes de 30 ans, pour analyser l'évolution du climat moyen (enfin c'est déjà évident quand on raisonne avec un mois donné !). Pour résumer, dans l'analyse de climat on a 3 types de tendance qui concernent des échelles climatiques différentes : Il y a la tendance significative courte (< 54 ans), qui permet d'analyser les variations internes au climat moyen (ce sont celles dont on discute le plus souvent dans les forums et que malheureusement beaucoup, répercutent à l'ensemble des échelles supérieures) Il y a la tendance significative qui permet d' analyser l'évolution du climat moyen (il faut au moins 2 périodes d'au moins 30 ans, sans chevauchement de données) Il y a la tendance de fond significative, qui va au-delà du (des) siècle(s), celle qui est persistante, malgré des baisses ou des hausses significatives de certaines périodes de 30 ans, qui feront qu'on conclura objectivement à une évolution significative du climat moyen/30 ans, alors que ça ne changera pas la tendance de fond qui continue à évoluer dans le même sens. Tant qu'on ne gardera pas en tête ces différentes échelles, on continuera à voir des extrapolations de tendances significatives de courtes durées (variations internes au climat moyen), à toutes les échelles (c'est le comble lorsqu'on extrapole celles qui ne sont déjà pas significatives à leur petite échelle!) Tu ne te rends pas compte que ton raisonnement qui soutient, que si les anomalies annuelles ne progressent plus d'année en année (sur une trop courte période par rapport au niveau du climat moyen précédent), alors ça signifie que le climat est stable; c'est comme si tu nous affirmais que les anomalies annuelles dans un climat qui se réchauffe, doivent répondre obligatoirement à une loi quasi-arithmétique ! Tu as pu constater sur le graphe précédent avec la génération aléatoire à 0.55°, que la moyenne/30 ans monte toujours, malgré des anomalies < au niveau de la courbe/30 ans. Pour que les anomalies suivent une loi quasi-arithmétique, afin que les anomalies restent plus hautes que les précédentes, il faudrait une vitesse d'évolution assez rapide en permanence. Le fait que les anomalies annuelles évoluent avec des paliers stables et des baisses, alors qu'elles augmentent toujours la moyenne, n'indique qu'un changement de vitesse d'évolution et non une stabilisation ou une régression du climat moyen. J'ai l'impression que tant que tu visualiseras une courbe au pas annuel sur le sommet des barres du des anomalies annuelles ( qui n'est pas celle de l'évolution du climat moyen) et que tu dissocieras l'analyse des écarts annuels au pas annuel sur une trop courte période, de l'analyse du climat moyen par rapport au climat moyen précédent, tu ne verras pas le problème. Imagine si on tenait le même genre de raisonnement que le tien, à l'envers, donc si le climat se refroidissait : « Le niveau de l'anomalie annuelle ne baisse plus d'année en année, l'écart entre ces anomalies annuelles est stable, nul ou négatif, donc le climat est stable même si la moyenne/30 ans se refroidit très significativement et que ces anomalies annuelles sont toutes plus faibles que cette moyenne climatique ! » Tu trouverais ça correct ?! Tu parles des variations de l'anomalie en fonction de l'ENSO et autres, mais tu oublies un point important. Systématiquement, il existe et il existera toujours des variations aléatoires de l'anomalie annuelle, même si toutes ces variables étaient strictement égales d'une année sur l'autre. Il suffit de voir le graphique du climat généré aléatoirement sur 1000 ans, dans mon premier message. C'est Excel qui le crée, sans aucune variable climatique. Tu y trouveras aussi de bonnes variations, certaines qui ressemblent à des cycles, mais tout est aléatoire et ça beaucoup ont du mal à l'admettre en cherchant une cause à la moindre variation et en superposant des courbes sans établir de calculs pour démontrer mathématiquement, qu'une variation sur un graphe, n'est très probablement pas aléatoire. Pour revenir à l'évolution des anomalies, dans le précédent message j'avais diffusé un graphe des anomalies aaprès extraction de la tendance, celui qui met en évidence un éventuel cycle de 62/63 ans (pas assez de périodes pour l'affirmer) Si le climat est vraiment stable à partir du maxi de ce cycle donc vers 2005, au mini de ce cycle vers 2036-37, on devrait relever quelques anomalies aux environs de 0.2° à 0.1° (sans aucune tendance, il y a une différence d'environ 0.4° à 0.5° entre le mini et le maxi du cycle, le max du dernier cycle est aux environs de 0.6°, sans aucun réchauffement, on est donc sensé perdre ces 0.4 à 0.5°). Si l'existence de ce cycle est confirmé bien plus tard, des valeurs autour de 0.5° au moment du mini du cycle vers 2037, sera donc encore une indication que le climat ne s'est pas stabilisé depuis le dernier maxi de 2005 (car avec le cycle on perd que 0.1° au lieu de 0.4° ou 0.5°, s'il n'y avait pas de réchauffement depuis 2005), de plus par rapport au dernier mini vers 76 (-0.1°), le climat aurait encore pris environ 0.6° (malgré la faiblesse relative d'une anomalie de 0.5° pour 2037). J'ai effectué le calcul statistique (sans prendre en compte ce cycle) des anomalies avec un index AA du vent solaire très faible sur toute la période suite à un éventuel futur minimum de Maunder, scotché en permanence à 6, avec une AMO chutant de façon identique à la période 1944 à 1976 (donc bien à la baisse), avec le CO2 progressant à la même vitesse que pendant ces 30 dernières années, vers 2037 malgré tous les paramètres allant dans le sens le moins chaud (sauf le CO2) on pourrait relever des anomalies autour de 0.88° à +-0.16° près. A noter qu'avec la suppression de données des satellites du jeu des anomalies de la NOAA à cause d'un biais, le VS devient maintenant un peu plus utile dans la régression avec les nouvelles anomalies de la NOAA. J'ai oublié de préciser un point très important. Les tests ne sont pas une bible, dans toutes les étapes on choisit le risque de première espèce de se tromper dans 5% de cas (par ex, dans 5 cas sur 100, telle succession d'anomalies annuelles sera en réalité une tendance significative d'un changement futur, alors que cette tendance a été testée comme ayant un caractère aléatoire, mais dans 95% des cas ce ne sera pas le cas.) Le choix objectif ne doit pas être basé sur le coup de chance, en choisissant la plus faible probabilité par préférence, ou par à priori ( ex, à priori avant l'étude, je pensais que le VS allait être bien mieux corrélé, et le CO2 pas aussi nettement, j'ai bien été obligé de me rendre à l'évidence que mathématiquement, ce n'était pas le cas) Williams, le verbe « semble » concerne plutôt ce qui a 95% de chances de se produire, alors que « ne semble pas » colle plutôt à ce qui n'a que 5% de chances de se réaliser. A moins de démontrer mathématiquement que tes indices de référence, influencent bien plus significativement l'anomalie, on ne peut pas trouver ton choix logique, même si au final, sur telle période, par hasard, la réalité collait à ton feeling (feeling, car tu n'as pas esquissé la moindre démonstration mathématique avec les données homogénéisées à ta disposition) Il n'y a aucune raison que ta théorie préférée ne soit pas démontrable mathématiquement, si elle est correcte. Au contraire, plus elle sera pertinente et plus elle expliquera les variations de ces 130 années et plus elle sera mise en évidence mathématiquement. Il existe bien d'autres techniques statistiques pour améliorer mon étude basique et toi qui travaille sur les cycles, tu devrais te plonger dans les techniques d'analyses corrélatoires et spectrales. Par exemple dans ce bouquin à partir de la page 26, http://books.google....Kendall&f=false tu trouveras une piste intéressante pour mettre en évidence des cycles parmi les variations aléatoires et une tendance de fond. Enfin par manque de temps, je n'interviendrai plus avant un bon moment sur ce sujet où je me suis assez longuement étendu. Il y a assez d'éléments dans mes 3 derniers messages pour tenter de raisonner plus rigoureusement en étudiant le climat. Par avance, je remercie ceux qui ne manqueront pas d'apporter des améliorations et d'exposer d'autres techniques statistiques pour ce domaine. -
Dans mes notes de 2003, l'ancien record est pointé à 102 jours aux stations de Cépet, de Sanary et à Bandol Bellevue (en considérant qu'il n'est rien tombé de >= 1 mm le 26 mai 2003 et le 4 septembre 2003 (6 + 30 +31 +31 +4) ) En 2003 à Besse j'avais relevé 97 j consécutifs. Actu malgré les multiples orages cet été dans les stations autour d'ici et le gros orage vers Camps la source à quelques km (plus de 50 mm là bas contre 0.7 mm ici ce jour-là), c'est ma 2 ème plus longue série toujours en cours, 69 j sans RR >= 1 mm (95 jours sans pluies > 3 mm, proche de mon record sans RR significative >= 10 mm qui est aussi de 97 j)
-
Statistiques et anomalies climatiques globales
ChristianP a répondu à un sujet de Sam82 dans Evolution du climat
A partir de ce message, je vais utiliser les nouvelles données d'anomalie de la NOAA.Je n'ai quand même pas écrit un bouquin et mes messages sont rares dans ces forums, ça compense. Il y a bien moins à lire que pour l'ensemble de tes messages sur le sujet et sur ton site /emoticons/biggrin@2x.png 2x" width="20" height="20"> Après reste à savoir si ceux qui tentent d'y voir clair, souhaitent déterminer objectivement, si ce qu'on croit percevoir sur des graphes simples, est correct. Pour tes dates, tu changes ta logique de segmentation à partir de 1998. Ta logique de départ d'après toutes les autres périodes précédentes que tu as choisies, c'est de mettre en évidence chronologiquement les plus grandes étapes de l'évolution de l'anomalie annuelle, donc c'est assez correct jusqu'à ta coupure bizarre de 98 en pleine hausse de l'anomalie moyenne sans interruption de 76 à 2009. Segmenter en 98, c'est comme si tu segmentais vers 1900 pour masquer volontairement la baisse sur toute la période de 1880 à 1913 (c'est à partir de 1914 que la moyenne des anomalies commence a augmenter et que des anomalies annuelles deviennent supérieures au niveau de la courbe/30 ans) Donc si tu suivais toujours ta logique de départ, la tendance est à la hausse très significative de 76 à 2009 et non pas seulement sur 22 ans. Tu peux segmenter en 98 mais avec une autre logique donc sans pouvoir l'intégrer dans une liste de segments qui n'ont pas du tout la même. Tu peux aussi très bien analyser la tendance à partir de 98 de façon isolée, mais pour le moment c'est trop court/et où les variations sont trop faibles. En attendant il ne faut pas oublier que la moyenne de 99-2009 est très significativement plus chaude que celle du climat moyen fin 98 (d'après le test de Mann-Whitney qui permet de comparer des moyennes avec des périodes de taille différente) Sans entrer dans des calculs plus compliqués, on ne peut étudier les cycles d'une série que si elle est stationnaire (sans tendance de fond, indépendante des cycles). Si la série est stationnaire d'origine, on peut travailler directement dessus. Si la série d'origine présente une tendance, il faut d'abord «extraire», «effacer» cette dernière, en ajustant un modèle de régression et en calculant les résidus. Ici nous sommes donc dans le 2 ème cas. Ici http://meteo.besse83...anstendance.png , tu trouveras le graphe des anomalies avec le retrait de la tendance afin de mettre en évidence visuellement d'éventuels cycles. Il y a trop peu d'alternances complètes pour que ces oscillations soient considérées comme significatives d'un cycle, même s'il se pourrait qu'il y ait ce cycle d'environ 63 ans. Ces oscillations (nombre insuffisant) sont confirmées par le corrélogramme : http://meteo.besse83...iduscycle63.png J'ai cherché des cycles secondaires avec un corrélogramme des résidus de ces résidus, mais ce n'est pas significatif vu que le calcul de ces derniers résidus n'est pas effectué avec un nombre suffisant d'oscillations (il se pourrait qu'il y ait des sous-cycles d'environ 4 ans, mais ce n'est vraiment pas significatif) J'ai mis à jour le graphe de l'évolution du climat avec les nouvelles données http://meteo.besse83...x/evolclimn.png Donc comme il semble que la période 1880-1881 soit aux alentours du maxi du cycle de 63 ans (s'il est démontré qu'il existe avec plus de données pour obtenir un nb d' oscillations significatif), le maxi de ce cycle étant autour de -0.1°, le maxi suivant vers 1944 est autour de +0.2° (donc +0.3° entre ces 2 cycles), et le dernier maxi autour de +0.6°, on trouve donc une tendance autour de +0.7° qui n'a rien à voir avec ce cycle éventuel (on a vu dans le graphe sans tendance que ce cycle faisait varier l'anomalie de+ -0.2° ). Mais effectivement si l'existence de ce cycle est confirmée, l'anomalie annuelle pourrait monter moins vite et passer parfois sous la courbe/30 ans pendant ces 25 à 30 prochaines années. Pour ta dernière question. Il faut absolument que tu comprennes qu'une anomalie annuelle supérieure à la moyenne/30 ans, ne peut pas diminuer cette moyenne ! Une anomalie annuelle n'est pas le niveau du climat moyen et j'ai l'impression que tu ne raisonnes qu'à partir du pas annuel (Dire que le climat moyen stagne depuis fin 98 avec que des anomalies supérieures à ce climat moyen, parce que l'anomalie n'est plus au niveau ou supérieure à l'anomalie annuelle de 98, c'est aussi grossièrement faux que si tu nous disais que que le mois d'août dans une station donnée en France, ne se réchaufferait plus parce que l'anomalie mensuelle des mois d'août des années suivant 2003, ne sont pas >= au niveau de celle exceptionnelle de 2003, alors que la moyenne des mois d'août de cette station continuerait de monter !) Tu oublies de garder en tête la moyenne du climat fin 98 (fixé par le niveau de l'anomalie annuelle qui n'est pas le niveau du climat) et tu ne sembles pas comprendre ce qu'est une distribution autour de la moyenne d'un climat stable (voir les paragraphes sur la distribution du msg précédent) Dans un climat stable fin 98, on doit relever des anomalies inférieures à la moyenne de ce climat fin 98, afin de compenser celles supérieures à cette moyenne. Actuellement, comme on l'a vu, elles sont toutes supérieures à cette moyenne et pas qu'un peu, souvent très fortement. Sinon, montre-nous où tu vois des anomalies annuelles inférieures à 0.1863° pour compenser celles qui sont supérieures ? Le climat fin 98 a une anomalie moyenne/30 ans de 0.1863°. Comment veux-tu afficher une moyenne/ 30 ans proche de 0.1863° avec des anomalies autour de 0.55° jusqu'en 2030 ? La moyenne des anomalies sur 11 ans de 99-2009 est de 0.5228° (j'ai utilisé 0.53° pour 2009) Donc tu vois bien la différence significative des moyennes entre ces 2 périodes. Le climat moyen en 2009 a déjà dépassé nettement le niveau moyen de celui de 98, on ne peut voir une stabilisation sur le climat de fin 98 sans une baisse significative, vu que la moyenne provisoire/30 ans en 2009 est 0.3638°. Pour revenir au niveau du climat moyen fin 98, tu poses l'équation du problème d'arithmétique pour trouver la moyenne des 19 prochaines anomalies qui seront présentes dans la moyenne /30 ans (1999-2028) avec les 11 premières années très chaudes déjà jouées (1999-2009), qui te donnera le climat moyen à fin 98 : 11/30 * 0.5228 + 19/30 * X = 0.1863 X = -0.0085° Il faudrait donc que la moyenne des anomalies des 19 prochaines années soit aux alentours de -0.0085° pour que la moyenne/30 ans en 2028 reste au niveau de celle fin 98 (0.1863°). Donc pour le moment vu que le climat ne s'est pas stabilisé depuis 98, ta question devrait-être plutôt : Quelle est la moyenne des anomalies des 19 prochaines années qui permettra à la moyenne/30 ans de 1999-2028 de rester au niveau du climat moyen actuel en 2009, calculé en 2009 (1980-2009) ? 11/30 * 0.5228 + 19/30 * X = 0.3638 X = 0.2717° Pour obtenir ton climat stabilisé au niveau de celui calculé en 2009, il faudra donc une moyenne des anomalies des 19 prochaines années aux alentours de 0.2717° (dans la distribution d'un climat stabilisé, il y aura donc des anomalies inférieures et supérieures à cette valeur et non pas toutes supérieures, sans qu'on puisse parler de refroidissement) Tant que le climat n'affichera une moyenne/30 ans aux alentours de 0.55°, tu n'auras pas de climat stable avec que des anomalies annuelles autour de 0.55°. -
Statistiques et anomalies climatiques globales
ChristianP a répondu à un sujet de Sam82 dans Evolution du climat
Un très bon prof de statistiques disait : "l'efficacité des outils statistiques est démontrée et elle admise par les scientifiques, mais certaines personnes ne les maîtrisent pas suffisamment, ces mêmes qui font penser à tort, qu'on peut faire dire n'importe quoi aux statistiques ! " C'est dommage que dans les différents forums de passionnés de climato, malgré le très bon niveau de certains intervenants, on ne trouve que trop rarement des infos sur l'application des divers principes des statistiques mathématiques, qui sont importantes pour aider à valider scientifiquement un raisonnement. Ca nous éviterait bien plus souvent d'appuyer une théorie ou un raisonnement sur des tendances, des chiffres non significatifs et sur des variables relativement corrélées de façon isolée, mais sans poids réel en les étudiant un peu plus en détail. A notre niveau, on n'a pas besoin de grandes démonstrations mathématiques. On peut profiter des méthodes sélectionnées par les pro (chez MF et ailleurs) des statistiques appliquées à la météo. Je ne suis pas un spécialiste et donc je fais partie des nombreux passionnés qui ne maîtrisent vraiment pas assez les statistiques mathématiques, mais comme il est clair qu'elles sont indispensables pour essayer de rester objectif et rigoureux, je me suis basé sur diverses publications dans ce domaine (en plus des cours spécifiques de MF de stats appliquées à la météorologie, le cours de base nr 15 , le cours nr 8 plus lourd : le traitement statistique des données multidimensionnelles, applications à la météo, tome 1 et 2, ainsi que sur la note MF "Recherche de l'évolution de la température dans les cinquante dernières années) Que ceux qui ont des connaissances bien plus solides dans ce domaine, n'hésitent pas à apporter des améliorations, des infos sur les toutes dernières techniques utilisées et les précisions nécessaires pour que nous progressions tous dans l'analyse objective des données climatologiques. Je ne vais pas rentrer dans les raisons du choix de tel ou tel test, pour éviter de trop rallonger ce texte, elles sont faciles à trouver sur le Net et dans les publications. Le but c'est de permettre à chacun de communiquer des analyses basées sur des chiffres assez significatifs seulement après avoir vérifié assez rapidement, par exemples : Est-ce que les tendances que l'on souhaite calculer, sont significatives ou sont-elles dues à une variabilité aléatoire simple? La moyenne est-elle significativement différente ? Les variables que l'on trouve dans certaines théories appréciées des passionnés, ont-elles un bon pouvoir explicatif malgré une corrélation brute significative ? Une distribution des anomalies est-elle conforme à ce que l'on doit s'attendre dans un climat stabilisé ? Pour ceux qui souhaitent éviter de trouver et d'entrer les nombreuses formules en manuel dans Excel, les calculs sont très simples et très rapides à réaliser avec un logiciel gratuit de stats, convivial et assez simple à utiliser (à l'aide des tutoriels en français et de cours de stats) comme Tanagra (après l'installation, il existe un petit complément pour Excel qui est à installer à partir d'Excel afin de sélectionner directement des colonnes de données d'une feuille Excel. On active ce complément à partir du menu d'Excel qui lance directement Tanagra en important automatiquement les données sélectionnées) http://eric.univ-lyo...fr/tanagra.html Il y a un fait important dont je viens de prendre connaissance à la fin de ce travail que j'avais commencé en juin avec les données à jour en mai 2009. La NOAA a publié il y a peu de nouvelles anomalies annuelles globales suite à des améliorations dans l'analyse des données http://www.ncdc.noaa...x.php#anomalies . Les données que j'ai utilisées dans toutes les nombreuses images et toutes les analyses et exemples plus bas, sont celles qui étaient encore disponibles sur le site en juillet http://meteo.besse83...noaajun2009.txt . Il y a donc des différences de quelques centièmes/millièmes de degrés avec ces nouvelles valeurs qui ne changeront pas fondamentalement les différentes analyses qui vont suivre (je n'ai malheureusement pas le temps de modifier tout ce travail avec ces dernières données qui de toutes façons seront modifiées à nouveau quand ils réussiront à corriger plus correctement les données des satellites) Donc, pour ceux qui se sont déconnectés depuis longtemps de ces notions ou qui ne s'y baignent jamais dans un travail bien différent, comment vérifier assez rapidement qu'une tendance (de relativement courte période) de température est réellement significative et donc par conséquence, comment choisir la longueur minimale de la série d'anomalies annuelles globales pour obtenir une tendance significative pour le cas qui nous concerne ? On va donc partir du principe que les données des stations entrant dans le calcul des anomalies annuelles de la NOAA (moyenne de référence sur 1901-2000) sont correctement homogénéisées même si on sait que ces données seront modifiées encore plusieurs fois au fil des progrès des techniques d'analyse et d'homogénéisation. On réalise 2 tests pour vérifier que la suite chronologique (dans notre cas, constituée par la succession d'anomalies annuelles qui entrera dans le calcul de la tendance) possède ou non, un caractère aléatoire simple. Si l'hypothèse nulle H0 (la suite possède un caractère aléatoire simple) est validée par les tests, c'est que la tendance n'est très probablement pas significative. Si l'hypothèse H0 est rejetée par les 2 tests, alors la suite possède très probablement une tendance significative (hypothèse H1). ( Rejet de H0 avec une probabilité au seuil critique de 0.05 : S'il y a moins de 5 chances sur 100 que l'hypothèse H0 soit valide, elle est très peu vraisemblable, donc c'est l'hypothèse H1 qui a beaucoup plus de probabilités d'être correcte, la significativité de la tendance sera donc validée avec une confiance à 95%) On utilise les tests de Spearman (rhô + significativité avec statistique t de Student) et de Kendall (tau + significativité avec une statistique spécifique). Pour ceux qui n'ont jamais entendu ces noms, ça va devenir plus clair avec un exemple pratique pour le cas qui nous intéresse avec le logiciel qui donne directement les probabilités à comparer au seuil de rejet (0.05) de l'hypothèse H0. Comme certains parlent de stagnation, voir de refroidissement ces 12 dernières années, on peut commencer par tester la série des 12 dernières anomalies annuelles de Tm globale de la NOAA (1998-2009, donc avec celle provisoire de 2009 calculée jusqu'à mai compris) Les résultats dans Tanagra : http://meteo.besse83...ix/toro9809.png Les r sont respectivement le rhô de Spearman et le tau de Kendall (les 2 coefficients de corrélation). La valeur qui nous intéresse, c'est le résultat du calcul de probabilité Pr, ça évite d'aller chercher les valeurs de t à comparer dans la table de Student pour le premier et dans une table de la loi normale pour le second (j'ai vérifié leur équation pour le 2 ème test de significativité, ce n'est pas celle du t de Student, c'est une autre statistique. Pour n <= 10, il vaut mieux comparer les r directement dans des tables spécifiques de rhô et de tau) Donc en comparant les 2 probabilités calculées au seuil critique choisi (0.05), on constate que les 2 tests valident nettement l'hypothèse nulle H0 (caractère aléatoire simple). La tendance linéaire que l'on calculera sur cette période n'est donc très probablement pas significative, elle a très probablement un caractère aléatoire simple, sans sens particulier (on voit bien que les probabilités des 2 tests (0.8459 et 1.000) pour que H0 soit valide, sont très importantes et très nettement > au seuil de rejet de H0, fixé à 0.05. Pour que l'hypothèse H1 soit choisie, il faudrait une longueur de série plus importante ou observer tendance plus forte sur 12 ans qui retournera une proba < à 0.05) Après 2 ou 3 autres périodes plus longues testées, il ressort, qu'il faut au minimum 17 ans de données d'anomalies annuelles (pour 1993-2009) pour que les 2 tests rejettent ensemble l'hypothèse H0 (au seuil de 0.05). http://meteo.besse83...ix/toro9309.png C'est donc la durée minimale avec laquelle on obtient une tendance très probablement significative pour cette période avec ces données (pour une autre période, il faudra refaire les calculs. On ne peut donc pas choisir les segments de tendance au pifomètre comme certains veulent le faire croire en "oubliant" de calculer la significativité de la tendance) Pour le cas le moins favorable (avec le tau de Kendall) qui rejette légèrement moins fortement H0, d'après la proba calculée par le soft, on a que 1.69 chance sur 100 que H0 soit valide, donc peu de chances que la tendance ait un caractère aléatoire simple. Donc pour le moment, la plus récente tendance linéaire significative sur la plus courte période acceptable (celle des 17 dernières années de 1993-2009 à jour en mai) pour qu'on puisse discuter un peu d'une cause autre que celle due à la variabilité aléatoire simple de la température globale, donne une tendance significative au réchauffement de +0.18°/décade (donc une hausse d'environ un écart-type/10 ans) On renouvelle les calculs pour connaître chronologiquement la longueur minimale de chaque segment précédent, qui permettra de calculer une tendance significative. Voici les résultats : 1978-1992 (15 ans) 1921-1977 (57 ans, logique avec l'évolution variable des anomalies, les hausses et les baisses n'ont jamais été assez importantes ou assez persistantes pour donner une tendance significative sur de plus courtes périodes) 1881-1920 (40 ans) On peut bien entendu chercher les segments de tendance significative en partant des points précis des plus grands changements visibles sur un graphe : http://meteo.besse83...ix/evolclim.png Par exemple pour les amateurs de froid, est-ce que la tendance de 1963 à 1976 était significative ? Les tests de Spearman et de Kendall valident assez largement le caractère aléatoire simple (Proba de 0.69 et de 0.78, à comparer au seuil de 0.05), donc elle n'est très probablement pas significative. Idem pour celle de 1957 à 1976, même si c'est moins nettement (Proba de 0.07 et de 0.11) Si les scientifiques de l'époque avaient disposé des données homogénéisées actuelles, ils n'auraient jamais annoncé un refroidissement. Attention, une tendance significative sur ces périodes relativement courtes, ne signifie pas que la tendance de fond évolue ou évoluera dans le même sens. Il faut replacer la tendance significative de courte période dans le contexte, en gardant à l'esprit la tendance de fond de la série complète disponible, la plus longue possible (là aussi pour le long terme on doit tester s'il y a un effet de persistance de la tendance de fond avec d'autres tests plus spécifiques pour les longues périodes) Comme la tendance sur 12 ans n'est pas significative, on peut quand même vérifier objectivement si la moyenne des 12 dernières années est restée significativement égale à celle des 12 précédentes (au moins pour ceux qui veulent démontrer objectivement que la T est stable depuis 12 ans) Je vais prendre 2 périodes de 11 ans (88-98 et 99-09) pour éviter d'intégrer l'anomalie exceptionnelle de 98 dans la période la plus chaude. On teste l'égalité des moyennes au seuil critique de 0.05 (si H0 est valide (> 0.05), les moyennes sont significativement égales, sinon, H1 est validée et donc les moyennes sont significativement différentes) On utilise le test de Mann-Whitney, mais on peut aussi calculer le t test de Student, qui pour ce cas doit être confirmé par un t test des variances. http://meteo.besse83...x/compmoy11.png Ils montrent que les moyennes sont significativement différentes. Donc vu le sens de l'écart, la moyenne 99-2009 est très probablement significativement plus chaude que la précédente (88-98). (Avec 2 périodes de 12 ans, donc avec l'anomalie de 98 dans la plus chaude des 2 périodes, le rejet de l'égalité des moyennes est logiquement encore plus fortement significatif. A partir des 2 dernières périodes de 7 ans, les moyennes seront considérées comme significativement égales, donc même avec l'écart positif trouvé entre ces 2 moyennes de 7 ans, on ne pourra pas indiquer que les 7 dernières années sont significativement plus chaudes que les 7 précédentes) Je vais maintenant aborder les corrélations, avec comme exemple pratique le sujet préféré de Williams (l'influence solaire, de la PDO et de l'AMO sur l'anomalie de Tm annuelle globale) qui publie pas mal de courbes, mais qui, sans études statistiques, laissent de très vagues impressions sur le poids réel de chaque variable potentiellement explicative. Je vais quand même rappeler ce qu'il faut toujours garder à l'esprit dans ces cas : "Corrélation n'est pas causalité". La mise en évidence d'une éventuelle causalité ne peut et ne doit reposer que sur les connaissances du domaine. Voici un exemple proche de notre sujet, trouvé dans un cours sur l'analyse des corrélations : Sur les données annuelles de 1897 à 1985, des études ont montré une corrélation de 0,91 entre le revenu national américain et le nombre de tâches solaires… Donc quand je parlerai de variance expliquée, ce ne sera que purement statistique sans vérification approfondie que la cause sera bien conforme aux principes physiques connus pour le domaine, moins évidents que pour l'exemple précédent. J'utilise les mêmes données d'anomalie annuelle de Tm globale de la NOAA de 1880 à 2009 (pour 2009, j'utilise une moyenne à jour en mai 2009) Celles de l'index AA du vent solaire disponibles ici : http://www.ngdc.noaa...AG/aastar.shtml (je calcule les moyennes annuelles), pour ceux qui se posent des questions sur les raisons de l'utilisation de l'AA index : Voir par exemple ici : http://bourabai.naro...t/solarwind.htm (à noter que certaines corrélations sont biaisées dans cette étude, car les données de Tm globale n'étaient pas homogénéisées à l'époque de l'étude) ftp://ftp.ngdc.noaa..../AASTAR/aaindex Les données de la PDO ici : ftp://ftp.ncdc.noaa.....1854.latest.ts Les données de l'AMO ici : http://www.cdc.noaa....on.us.long.data Et bien entendu je ne laisserai pas passer la variable à priori la plus importante d'après les scientifiques, les données du CO2 ici : http://www.earthpoli.../2008_data3.htm complétées pour 2008 et 2009 par : http://co2now.org/in...&id=22&Itemid=1 J'ai bien entendu cherché les meilleures corrélations brutes en déterminant le décalage temporel optimal pour chaque variable. A savoir que les calculs montrent que l'anomalie de Tm est corrélée au mieux au niveau du CO2, 14 ans après. Elle l'est 6 ans après avec le vent solaire et dans l'année même pour l'AMO. La PDO est déjà au plus mal pour expliquer la variance de l'anomalie de Tm, vu que c'est plutôt elle qui semble influencée 12 ans auparavant ! Après de nombreux essais et calculs, hors corrélations brutes, dans les régressions multiples, on n'obtient pas de meilleurs résultats qu'avec les paramètres dans leur année, j'y reviendrai plus en détails après l'exposé simple. Je vais d'abord développer la démarche à suivre avec l'exemple le plus simple et le plus efficace sur les 130 ans de données pour toutes les variables sans décalage temporel. Ici http://meteo.besse83...residsansvs.png , dans le tableau corrélation4, le logiciel a calculé les corrélations linéaires brutes, coefficients de corrélation r et de détermination r2 (niveau d'explication de la variance de l'anomalie de Tm) et les tests de significativité (t de Student) de r. Donc les 3 premiers coefficients r sont à priori significatifs (d'après les proba < au seuil critique de 0.05). On remarque à ce niveau de corrélations brutes que le CO2 semble expliquer largement la plus grande partie de la variance de l'anomalie de Tm (79.6%) alors que la PDO n'a pas l'air utile (0.01% !) et que le vent solaire n'est pas très efficace (15.5% de la variance expliquée par le VS). On vérifie la cohérence avec des graphes de nuages de points et on regarde s'il n'y a pas de corrélations monotones non linéaires cachées et que des points atypiques ne jouent pas trop en calculant les corrélations de rang avec Spearman. http://meteo.besse83...r/anotco2pt.png http://meteo.besse83...fr/anotvspt.png http://meteo.besse83...r/anotamopt.png http://meteo.besse83...r/anotpdopt.png http://meteo.besse83...x/spear4vcl.png Donc à priori pas d'incohérences majeures, sur les graphes à nuages de points (le point 1 c'est 1880, le 130 ème c'est 2009) on voit facilement que la meilleure corrélation de l'anomalie de Tm se produit avec le CO2. La PDO ne semble déjà pas utile. On revient aux tableaux de l'image plus haut http://meteo.besse83...residsansvs.png , dans le résidual scores1, on construit les variables résultantes en supprimant l'effet de l'influence du vent solaire, afin de vérifier dans le tableau corrélation5, les corrélations avec ces variables résultantes, ce qui nous permettra de voir ce qu'il restera des variances expliquées sans l'effet du vent solaire. On remarque déjà dans le tableau résidual scores1, que le vent solaire explique une partie de la variance du CO2 (15.9%), ce qui diminue l'utilité de la variable du VS (le CO2 augmente en partie avec le VS et le CO2 semble agir bien plus sur l'anomalie de Tm, le CO2 intègre déjà une bonne partie de l'influence du VS, l'influence directe du VS semble assez minime à ce niveau de l'analyse) L'analyse des corrélations des variables résultantes dans le tableau corrélation 5, montre effectivement qu'en supprimant l'effet du vent solaire, les r2 du CO2 et de l'AMO, ne baissent pas significativement (le CO2 "passe" de 79.6% à 76.1% de variance expliquée et l'AMO de 22.27% à 22.14%, pour les deux variable, ce n'est rien du tout d'après l'incertitude qui est donnée par les intervalles de confiance) On obtient la même réponse avec le calcul direct des corrélations partielles qui mesurent la liaison entre x et y en annulant l'effet des variables de contrôle. C'est net, seuls le CO2 et l'AMO ont un coeff de corrélation significatif après avoir retiré l'effet des autres variables : http://meteo.besse83...r/imfix/pc3.png Avant de choisir la meilleure régression linéaire multiple parmi plusieurs régressions, on peut aussi calculer les corrélations semi-partielles (qui quantifient le pouvoir explicatif additionnel apporté par la variable explicative x, quand on retranche celui des 3 autres variables de contrôle pour notre cas) afin de sélectionner les variables significativement efficaces pour ce mini modèle statistique rudimentaire. http://meteo.besse83...fix/smpcan4.png On voit qu'il n'y a que le CO2 et l'AMO qui sont significatives, ça confirme ce qu'on pouvait déduire plus haut. En comparant 2 régressions linéaires multiples, une avec le CO2 et l'AMO (c'est la seule régression qui contient uniquement des variables significatives d'après les tests) et la 2 ème avec le vent solaire en plus de ces 2 variables, on remarquera que ce VS ne semble pas particulièrement utile : http://meteo.besse83.../imfix/rlm2.png La p value (probabilité de la valeur critique) du VS montre qu'il n'a très probablement pas de poids et en comparant les R2 ajustés des 2 régressions, on voit bien qu'il n'apporte rien de significatif (cette comparaison, c'est aussi une façon de réaliser une corrélation semi-partielle), car 90% de la variabilité de l'anomalie de Tm semble expliquée avec ou sans le VS, par le CO2 et dans une moindre proportion par l'AMO. Je ne communique pas la régression qui contient la PDO qui n'a jamais eu un poids significatif dans toutes ces étapes et qui d'après divers essais a un coeff de corrélation brute vraiment trop instable. (Avec les coefficients standardisés de la régression linéaire multiple, comprenant les 4 variables dont les 2 qui ne sont pas significatives, on pouvait déjà largement percevoir le peu d'efficacité de la PDO et de du VS : http://meteo.besse83...coeffrlmstd.png Les paramètres du premier tableau (Unstandardized) qui donnent les coefficients de l'équation de la régression pour obtenir l'anomalie de Tm directement à partir des valeurs brutes (Ano Tm = 0.007567 x CO2 + 0.001295 x VS + 0.433427 x AMO + 0.023543 x PDO -2.409330) ne permet pas du tout sentir leur poid respectif, alors que le 2 ème tableau (Standardized) est bien plus efficace à ce niveau. On voit dans ce 2 ème tableau que si le CO2 varie d'un écart-type (26.27 ppm) l'anomalie de Tm évolue de 0.83 fois l'écart-type de l'anomalie de Tm (soit de 0.831883 x 0.2381° = 0.198°) alors que si l'index AA du VS varie d'un écart-type (6,02) l'anomalie de Tm ne changera que de 0.03 fois l'écart-type de l'anomalie de Tm, (soit 0.0327556 x 0.2381 = 0.0078° !) C'est à dire que même avec un index AA qui est monté au maximum à 37/1 an en 2003, tombait à 6/1 an comme en 1901, la variation due à l'AA index du VS ne représenterait une baisse que d'environ 0.04° (il y a une variation d'environ 5.17 x l'écart-type de l'AA index, donc 5.17 x 0.0078°), sachant qu'au 31 mai il est tombé à 9.54 de moyenne/2009 (pour 2009 le modèle à 2 variables explicatives avec les paramètres à jour au 31 mai 2009, prévoit une anomalie de Tm de 0.51°, contre 0.46° pour celui à 4 variables)) A ce niveau on pourrait trop rapidement penser que ce mini modèle (celui avec 2 variables explicatives, CO2 + AMO) est relativement correct avec 90% de la variabilité de l'anomalie de Tm expliquée, mais c'est loin d'être suffisant pour l'affirmer. En fait, il faut une analyse poussée des résidus (erreurs du modèle) qui pourra faire ressortir objectivement sa qualité ou sa médiocrité (du moins avant qu'il soit confronté à la réalité des futures anomalies). Comme le but n'était pas la recherche d'un modèle statistique performant, mais simplement de juger de l'utilité de certaines variables dans les théories appréciées des passionnés, pour ne pas alourdir encore plus ce message, je ne vais pas chercher à l'améliorer, ni approfondir l'analyse des résidus. On peut voir dans le tableau d'analyse des résidus en bas de l'image précédente http://meteo.besse83.../imfix/rlm2.png , une erreur type de 0.074°, que 50% des erreurs sont dans la fourchette de -0.04° à +0.04°, les erreurs mini/maxi sont de -0.19° et +0.20°, sachant que l'écart-type des anomalies de Tm sur ces 130 ans est de 0.2383°. Voir les stats des anomalies sur 130 ans ici : http://meteo.besse83.../imfix/rlm2.png Avec les graphes de nuages de points des résidus on peut détecter certains problèmes (dans un bon modèle, les points devraient être répartis de façon aléatoire, sans points atypiques, sans corrélations avec toutes les différentes variables x et y) : http://meteo.besse83...residutempo.png http://meteo.besse83.../residuanot.png http://meteo.besse83...x/residuco2.png http://meteo.besse83...x/residuamo.png On remarquera qu'il y a une corrélation significative (Proba < 0.05) des résidus avec l'anomalie de Tm, ce qui n'est pas bon : http://meteo.besse83...x/residucor.png Il y a peut-être un problème ponctuel d'homogénéisation de la série d'anomalie. Il faut voir que certains points atypiques se produisent comme par hasard pendant une guerre mondiale, une période difficile qui a nécessité bien plus de reconstructions des données sans métadonnées. De plus d'après la NOAA, l'intervalle de confiance de l'anomalie de Tm est plus importante dans la première partie de la période de 130 ans, que dans la seconde. Avec divers tests, je n'ai pas détecté un changement significatif dans les variances des résidus entre la première et la seconde période, elles sont très significativement égales. Par contre les tests sont contradictoires pour la période 1880-1956 par rapport à 1957-2009, il est possible qu'il y ait un problème d'homogénéité des variances des résidus. On pourrait chercher s'il existe une ou d'autres variables significatives explicatives qui pourraient jouer et si la régression peut devenir significativement meilleure sans les points atypiques et influents. Voilà donc en résumé le genre de démarche de base à réaliser plutôt que de rester sur de vagues impressions en regardant des courbes temporelles plus ou moins visuellement corrélées et en tournant les chiffres dans tous les sens sans absolument aucun test de significativité, ni calculs de corrélations partielles ou semi-partielles... (D'autant plus quand on ne réalise pas de nuages de points entre les variables) Sachant que certains scientifiques vont beaucoup plus loin avec des manipulations statistiques plus complexes, ce type de traitement statistique est vraiment le minimum à réaliser par un passionné qui est intéressé par une théorie qui n'est pas validée par la très grande majorité des scientifiques, d'autant plus s'il souhaite la soutenir et la propager sur le Net par l'intermédiaire de forums qui se veulent un peu plus objectifs que la moyenne. Il faudrait donc trouver des explications de la physique sur les raisons de l'influence significative (au niveau statistique pour le moment) de l'AMO au niveau global, pour le CO2, c'est à priori assez bien connu. Je reviens plus rapidement sur le cas du décalage temporel optimisé pour chaque variable, qui comme on va le constater, n'apporte rien. Comme je l'ai précisé plus haut, les meilleures corrélations brutes de l'anomalie de Tm, sont obtenues avec un décalage de 14 ans pour le CO2, de 6 ans pour le vent solaire, de 0 année pour l'AMO et de -12 ans pour la PDO : http://meteo.besse83.../cord118130.png Le premier tableau en haut à gauche est celui avec les corrélations brutes sans décalage temporel de l'exemple traité plus haut (130 ans) A droite on trouve les 130 ans avec le décalage temporel optimal, mais sans la PDO vu que le décalage est de -12 ans (signifie que c'est la PDO qui subit une influence 12 ans après un niveau d'anomalie donné) qui ne fournit que 118 ans (130 ans moins les 12 dernières années) et que ce paramètre a un coeff de corrélation particulièrement instable et qu'il n'est pas significatif, ni exploitable en l'état. Les 2 autres tableaux dessous donnent les corrélations pour les mêmes premières 118 années pour toutes les variables. Le premier en bas sans le décalage temporel, le 2 ème avec. On remarque d'après les probabilités, que le coeff r de la PDO est significatif sur ces 118 ans sans décalage et qu'il est positif. On avait vu qu'il n'est pas significatif sur 130 ans, sur 118 ans avec le décalage optimisé il change de signe et c'est là qu'il est le plus important en valeur absolue (0.27) et en significativité. On voit bien pourquoi à certaines époques des études peuvent montrer une corrélation significative et pas à une autre. J'ai vérifié, il ne semble pas y avoir de problèmes de colinéarité. On voit bien que les coeff des autres variables sont bien plus cohérents, le CO2 reste à sa place de leader. Le coeff de la corrélation brute du VS est celui qui bénéficie le plus de l'optimisation temporelle et la durée de 6 ans semble cohérente avec ce qu'on sait du cycle solaire. En fait pour le CO2 le changement est faible avec ce décalage temporel, on le verra dans les résultats. On va vérifier si le changement pour le coeff du vent solaire est significativement utile. On calcule les corrélations partielles et semi partielles : http://meteo.besse83...corco2amovs.png On constate que le vent solaire est très significativement inutile, ce sont les 2 variables de contrôle qui jouent. Certains doivent se demander, mais comment avec un coeff de corrélation brute plus important et si significatif, le VS n'est-t-il toujours pas significativement pertinent ? Il suffit de regarder les résultats du 3 ème tableau de droite, celui des corrélations du CO2 et de l'AMO avec le VS. On voit qu'avec le décalage temporel, l'AMO est maintenant significativement influencée par le VS et que le CO2 est bien plus influencé par le VS que sans le décalage temporel (voir dans l'exemple de base plus haut). Comme le CO2 et l'AMO agissent directement plus fortement sur l'anomalie de Tm et qu'ils sont déjà marqués par la variation du VS, inutile de l'intégrer une 2 ème fois pour une influence directe minime sur l'anomalie de Tm. En fait que le VS varie ou pas, ça ne change pas grand chose. L'essentiel à savoir c'est que lorsque le CO2 et l'AMO varient, comme ce sont eux qui pilotent le plus l'évolution de l'anomalie (surtout le CO2), si pour x raisons, le VS change, le CO2 et l'AMO seront automatiquement porteurs d'une assez bonne partie de son impact, donc inutile de suivre le VS, il suffit de regarder l'évolution du CO2 et dans une moindre mesure celle de l'AMO. Dans la régression avec le décalage temporel optimisé, http://meteo.besse83...mfix/rlmdvs.png , on remarquera que VS n'est pas significatif et que le R2 n'évolue pas significativement par rapport au modèle simple à 2 variables sans décalage optimisé (toujours dans les 90% avec ou sans VS, optimisé ou pas). La régression est "nettoyée" avec l'outil de Tanagra qui élimine les variables non significatives (dans ce cas le VS), http://meteo.besse83...mfix/bckwer.png (enfin en manuel c'est pareil, on l'a vu dans le 1 er exemple, sauf qu'on n'a pas eu de petit tableau récapitulatif sur l'élimination). On remarquera encore que le R2 n'a guère bronché en supprimant le VS et qu'effectivement le décalage de 14 ans pour le CO2 n'est pas significativement utile, donc autant en rester aux 2 paramètres significatifs (CO2 et AMO) sans décalage temporel. Autre point qui peut apporter des éléments objectifs sur la stabilité ou non du climat : l'analyse de la distribution des anomalies annuelles. Je vais partir du même cas où certains parlent de stabilisation/refroidissement du climat ces dernières années (depuis fin 98) probablement parce qu'ils oublient complètement de regarder si les règles d'une distribution statistique des anomalies annuelles d'un climat stabilisé sont assez respectées, ou parce qu'ils confondent une vitesse d'évolution des anomalies annuelles (vitesse = tendance de l'évolution en °C/décade par ex) avec l'évolution du niveau réel du climat moyen actuel, qui est le niveau atteint réellement chaque fin d'année par l'anomalie moyenne la plus récente sur au moins 30 ans, qu'on peut visualiser sur ce graphe déjà communiqué : http://meteo.besse83...ix/evolclim.png . Cette courbe sur 30 ans devrait systématiquement accompagner tous les graphes d'analyses du climat basées sur des périodes plus courtes, ça éviterait bien de grossières erreurs d'interprétation. Comment peut-ton affirmer que le climat se stabilise/se refroidit (sur la base des dernières anomalies depuis 99) alors qu'on n'observe pas une seule anomalie depuis 1976, sous le niveau de la courbe/30 ans ? En effet, le nombre/l'importance de ces anomalies inférieures au niveau de la courbe/30 ans, devrait être significatif dans un climat en voie de stabilisation. Dans un climat en cours de stabilisation depuis fin 98, on devrait rencontrer des anomalies significativement plus basses que le niveau /30 ans de fin 98. Les 11 dernières anomalies annuelles toutes supérieures à cette courbe/30 ans, ne peuvent que faire progresser l'anomalie/30 ans. Je reviens sur la baisse de la courbe/30 ans de la période de 1957 à 1976, même si elle n'est pas significative (voir plus haut), en données homogénéisées, au moins dans ce cas on observe une petite baisse de la courbe. C'est donc assez incompréhensible d'en voir certains ici et ailleurs (d'autant plus quand ce sont des scientifiques !) parler de stagnation ou de refroidissement du climat ces dernières années, alors que la courbe sur 30 ans progresse toujours de nos jours et qu'il n'y a aucun élément mathématique qui donne un résultat significatif qui aille dans ce sens. Ici http://meteo.besse83...x/simclim98.png avec l'utilitaire d'analyse d'Excel (génération de nombres aléatoires, distribution normale, 1 variable, 1000 échantillons, moyenne 0.1747, écart-type 0.1636) on peut s'amuser à simuler les variations aléatoires des anomalies annuelles /30 ans, d'un climat stable sur 1000 ans (et +) avec les paramètres du climat fin 98. On remarque bien que les variations aléatoires normales de la courbe/30 ans sont faibles et qu'une baisse ou une hausse de cette courbe n'indique pas que la tendance de fond progresse ou régresse et que même s'il y a des tendances significatives de relativement courtes périodes avec des groupes d'anomalies annuelles, ça n'a pas d'influence sur la tendance de fond (nulle dans ce cas) qui est à garder en tête dans toute analyse du climat. Le zoom, http://meteo.besse83...omsimclim98.png , sur le groupe d'années virtuelles comprenant les anomalies annuelles extrêmes, montre bien que même lorsque la courbe/30 ans est à la hausse, on observe quand même des anomalies annuelles inférieures à la courbe/30 ans (inversement quand elle baisse, on observe aussi des anomalies supérieures) et lorsque la courbe est plus stable l'alternance des anomalies supérieures et inférieures à la courbe/30 ans est encore plus importante. Il faut donc bien se garder d'analyser toutes variations minimes de la courbe de 30 ans et surtout ne pas affirmer qu'il y a stagnation quand cette courbe/30 ans monte toujours alors qu'on ne peut déjà pas affirmer qu'il y a une stagnation alors qu'elle baisse de façon non significative. Un climat stable est sensé renvoyer une distribution des anomalies qui tend vers la normalité (gaussienne). Pour ceux qui ont oublié ou qui ne l'ont jamais vue, voici le graphe de la fonction de répartition de la loi normale : http://meteo.besse83...fix/gausset.png Ca nous indique que dans une assez longue période stable, par exemple, que 95.4% des anomalies annuelles auront une valeur comprise dans l'intervalle [moyenne - 2 x l'écart-type ; moyenne + 2 x l'écart-type], c'est à dire qu'il n'y aura en moyenne que 2.3 anomalies positives/100 ans, qui seront au moins aussi importantes que la moy +2 ET (par exemple pour un climat stabilisé en 98, on est sensé relever en moyenne que 2.3 anomalies/100 ans >=0.5019°, on en a relevé 7 dans une période de 10 ans) On va analyser la répartition et l'écart-type des anomalies depuis 1999 avec comme base les paramètres du climat/30 ans calculés fin 1998. http://meteo.besse83...stri9909-98.png La courbe rouge correspond à la distribution selon la loi normale pour un climat stabilisé avec les paramètres fin 98 (l'axe vertical « y » intérieur, donne la densité de probabilité) On remarquera que la majorité des anomalies depuis 1999 (9 anomalies/11) sont >= moy +1.91 ET (moy + 1.91 ET = 2008 avec 0.4871°, plus qu'abusivement jugée relativement froide par certains !), c'est à dire que dans un climat stable à partir de fin 98, où on est sensé relever en moyenne que 0.28 valeurs / 10 ans >= à ce seuil, on en relève 9 en 10 ans ! On relève en 10 ans aussi 6 à 7 anomalies >= moy + 2.2 ET. Le nb d'anomalies par périodes de 10 ans >= moy + 1.91 ET, suit une loi de poisson. La probabilité d'observer 9 anomalies >= à ce niveau dans une période de 10 ans dans un climat stabilisé est donc de : 2.27... x 10^-11, soit 1 sur 44 milliards et quelques périodes de 10 ans, donc il n'y a quasiment aucune chance que le climat se soit stabilisé pour qu'on relève une telle série de valeurs quasi exceptionnelles en seulement 10 ans. La courbe bleue en pointillé représente ce que pourrait être le climat/30 ans en 2028 simplement si les anomalies se stabilisaient au niveau de celles de 99 à 2009. Une hausse d'une moyenne d'un peu plus de 2 fois l'écart-type c'est très important. Une valeur classée pratiquement exceptionnelle 30 ans plus tôt fin 98, se trouverait être la moyenne (calculer une hausse de la Tm annuelle de 2 fois l'écart-type pour la station proche de chez vous, vous verrez ce que ça représente à une petite échelle ou la variabilité est bien plus importante) Pour obtenir un climat stabilisé au niveau de celui fin 98, pour compenser ce surplus d'anomalies positives >= 2.2 fois l'écart-type, il faudrait obligatoirement relever un paquet d'anomalies plus faibles que -0.1852° (< à la moyenne/30 en 98 - 2.2 fois l'écart-type), et dans ce cas qui peut paraître incroyable, on ne pourra absolument pas encore parler de refroidissement, mais simplement de stabilisation. On peut voir que le dernier climat moyen fin 2009 se sera déjà réchauffé d'un peu plus d'un écart-type par rapport à celui fin 98. http://meteo.besse83...males98et09.png Pour certains une anomalie annuelle globale comme celle de 2008 (0.4871°) par exemple, ça ne représente pas grand chose et ça leur paraît négligeable, car on raisonne souvent à l'échelle fine d'une station ou d'un petit pays avec une variabilité en valeur bien différente et plus importante (+3.5 fois l'écart-type sur les Tm annuelles de la station la plus proche et +3.5 fois l'écart-type sur les anomalies annuelles globales, ne donneront pas les mêmes valeurs. La valeur de 3.5 ET de la station sera beaucoup plus importante, mais l'important c'est que la fréquence d'observation de ces 2 valeurs sera comparable, elle est sensée être aussi rare dans les 2 cas) Et pourtant ce niveau d'anomalie globale n'était pas sensé être banal. Si en 1980 à l'aide des mêmes données homogénéisées disponibles actuellement, des scientifiques avaient indiqué que dans un peu plus de 20 ans, pour les années futures de 2001 à 2009, l'anomalie la plus faible de ces années (+0.4871° en 2008) représenterait environ 3.5 fois l'écart-type des données sur 1880-1979 (ET = 0.1401°), certains ici et ailleurs auraient demandé leur internement d'office. C'est à dire qu'à priori en 1980, en pleine mode d'un refroidissement annoncé et basé sur l' inflexion ridiculement faible de la courbe des moyennes sur 30 ans, visible sur le graphe en 1976 (inflexion qui doit obligatoirement paraître énorme pour ceux qui parlent de stabilisation et de refroidissement du climat avec la hausse actuelle toujours bien nette de cette courbe), on était sensé observer en climat stabilisé à fin 1979, qu'environ 2.5 anomalies positives annuelles/10 000 ans du niveau de celle de 2008. Il y a d'ailleurs un problème de communication et de calibrage du vocabulaire chez certains qui le déconnecte de la réalité statistique, quand je lis ici où là, que l'anomalie 2008 est relativement froide alors que même en 2028 avec pour le moment un hypothétique bon du climat de 2 ET si les anomalies restent simplement au niveau de celles de 99 à 2009, cette anomalie de 2008 ne pourra même pas être classée comme relativement fraîche, mais simplement normale. Il aurait été bien plus juste d'annoncer qu'elle est la moins remarquablement chaude des 10 dernières années mais en aucun cas utiliser le terme « froide ». Qu'est ce qu'on peut attendre de l'évolution de l'anomalie moyenne sur 30 ans dans les prochaines années ? Pour 2009, il suffit simplement que l'anomalie annuelle de Tm de 2009 soit > à +0.1405°, pour que la dernière anomalie moyenne/ 30 ans calculée fin 2009, augmente par rapport à la précédente calculée fin 2008. On pourrait envisager que cette moyenne sur 30 ans puisse continuer à progresser pendant encore 10 ans avec une très faible vitesse de réchauffement si aucune anomalie annuelle < +0.2886 n'est relevée pendant les 10 prochaines années. Ceci simplement parce-que c'est l'anomalie la plus importante des dix premières années présentes dans le dernier climat moyen/30 ans qui sera calculé fin 2009 (représenté par la moyenne sur 1980-2009). Ces premières années seront automatiquement sorties de la moyenne 1990-2020 et donc peut-être remplacées par des anomalies au moins toutes aussi importantes ( > +0.2886 ) mais minimes comparées aux dernières anomalies et à l'anomalie moyenne /30 ans à ce jour (+0.35) Même à une échelle trop fine pour parler de climat moyen, http://meteo.besse83...aaindexanot.png , l'anomalie moyenne/11 ans, baissera peut-être, mais difficilement à partir de la fin 2009 comme de nombreuses fois dans l'histoire de cette courbe sans aucune signification pour le climat. En fait dans le cas présent, c'est dû au hasard de la distribution des anomalies. C'est uniquement parce cette année 2009 va remplacer l'anomalie exceptionnelle de 1998 (+0.5774°) qui sortira de la dernière moyenne/11 ans, que 2009 pourra provoquer une baisse de la dernière anomalie moyenne/11 ans. En 2010, que peut-on attendre de cette moyenne des anomalies/11 ans ? Il suffira simplement de relever une anomalie annuelle > +0.3972 pour que la courbe des anomalies moyennes sur 11 ans reparte à la hausse, sans que le réchauffement force en vitesse. De nombreuses variations ne sont pas significatives. On aurait relevé l'anomalie de 1998 (+0.5774°) en 1999 et celle de 1999 (+0.3972°) en 1998, avec la même anomalie en 2009 (> à 0.3972° et <+0.5774), au lieu d'une baisse en 2009, on obtiendrait une hausse du niveau de la moyenne sur 11 ans. En dehors d'un travail sur un modèle physique et statistique particulièrement pointu, inutile d'après ces courbes de raisonner sur les causes de ces trop petites variations à des échelles trop fines, ça n'a aucun sens d'un point de vue climatologique sans variations vraiment beaucoup plus fortes (qui feront qu'elles ne peuvent plus être considérées comme aléatoires). Il suffit de voir le graphe des variations des anomalies moyennes du passé, ou le graphe de celles de la simulation d'un climat stable, pour comprendre que les alternances des hausses ou des baisses sont la règle et que pour le moment, aucun indice significatif indique une stagnation et encore moins une baisse (même sur la courbe de 11 ans, non climatique, on n'observe pas de variations plus marquées que toutes les autres plus importantes de cette courbe qui n'ont pas modifié la tendance de fond) A noter pour les amateurs de l'influence prédominante du soleil, qu'en moyenne glissante, l'anomalie de Tm/30 ans aurait dû baisser depuis 2007 (meilleure corrélation avec 3 ans de décalage/VS) et depuis 2001 pour l'anomalie moyenne/11 ans (meilleure corrélation avec un décalage de 8 ans) Ceux qui sont arrivés à la fin de ce texte en décortiquant les explications et les résultats dans les images, ont bien mérité leur certif. de passionnés de climato qui tentent de rester objectifs /emoticons/biggrin@2x.png 2x" width="20" height="20"> -
Suivi du temps dans les régions méditerranéennes
ChristianP a répondu à un sujet de Charly-C dans Le temps en France
Oui j'avais diffusé 2 photos de la Valette dans le forum instrumentation : http://meteo.besse83.free.fr/imfix/lavalette1.jpg http://meteo.besse83.free.fr/imfix/lavalette2.jpg Sinon à Besse on se gèle toujours avec la brise de mer soutenue (37 km/h hier et 36.3° , la veille 35.7°, un max de 36.7° cette année par vent de terre) 38.6° de max à Vinon pour les bonnes stations du Var. Pour moi, Conqueyrac avec le site de l'abri trop pentu bien exposé sud + abri Cimel + arbres dans le haut de la pente, n'aurait même pas affiché une seule valeur à 39° cette année dans un site et avec un abri comparables à ceux d'Uzés. Je ne comprends pas pourquoi ils n'ont pas utilisé le bon site du barrage où il y avait déjà des mesures. -
Oui Tony, elle est vraiment très bien cette station. Pour moi c'est un record de qualité tout à fait valide face à l'ancien du Luc, si la hauteur de végétation au sol est restée aussi correcte sur une surface suffisante dans les rayons de 10 et 30 m (< 25 cm). Ca fait plaisir de voir une telle valeur dans cette installation qui respire ! Par rapport à une station classe 1 purement synoptique OMM (sol strictement plat dans un rayon de 100 m, végétation de 5 à 10 cm sur cette surface), la pente est orientée plutôt vers le N, par vent pas assez soutenu (hors directions SSE/S/SSW), je pense même que des Tx pas trop tardives (avant que le soleil dépasse l'W) pourraient-être très légèrement sous-estimées (le sol ne chauffe pas autant, car il n'est pas aussi bien orienté au soleil qu'un sol plat par rapport aux rayons les plus puissants aux horaires des Tx) Pour un tel record, il faudrait quand même qu'un passionné vérifie d'ici peu sur place, la hauteur actuelle de la végétation au sol dans les rayons de 10 et 30 m (c'est malheureusement courant que des stations se retrouvent classe 4 à telle ou telle période à cause de ce point. Ici dans le 83, les sous-traitants ne savent déjà pas mesurer une distance de 10 m, alors pour un entretien sur 30 m, MF ne le demande pas. Dans une classe 1 officiellement dans la base de données, on se retrouve avec des genêts de 2 m sur une grande étendue à 8 m de l'abri et de l'herbe très haute à environ 6 m, alors que l'entretien vient d'être fait ! )
-
Suivi du temps dans les régions méditerranéennes
ChristianP a répondu à un sujet de Oliv13 dans Le temps en France
Tempête de Mistral dans le Var : 111 km/h à Seillans et à Cépet 109 km/h à Cuers 108 km/h au Castellet Au moins 104 km/h dans les Maures de Vidauban. 100 km/h au Luc 95 km/h à Besse (aux anémo à 16 m, à 16.4 m (AF et NF) et à 17.5 m) 81 km/h à 10 m 77 km/h à 3.4 m 66 km/h à 2 m 95 km/h au Davis à 16 m, c'est un nouveau record mensuel et un nouveau record pour un été (ancien record de l'été et de juillet, 92 km/h en 2001) -
Oui très gris depuis plus de 24h < 125W/m2 de global avec du vent, oriente l'arrière de console avec des trous face au vent. Hier j'ai passé la soirée près de la superbe nouvelle station de Vidauban sur un sommet bien dégagé dans les Maures (303 m d'altitude). J'ai voulu profiter du capteur de HR neuf de MF sur cette nouvelle station pour vérifier un capteur de HR Davis de référence vers le haut de la gamme <= 90%, là où il y a souvent des probs. Je n'ai relevé que de 0 à -1% d'écart sur tous les échantillons de 6 mn pendant 3h ! C'est pas mal du tout après les essais il y a peu, d'un vieux capteur Davis sur la gamme moyenne comparé près de la Radome à Cuers aéro, -1.5% de moyenne, écarts variant de 0% à -2% (mais faux dans les hautes humidités à plus de 85% et surtout en temps de sortie de condensation). Les photos sont faussement lumineuses, il était plus de 21h30 : http://meteo.besse83.free.fr/imfix/etalvidauban.jpg http://meteo.besse83.free.fr/imfix/etalvidauban2.jpg Pour ceux qui ne l'ont pas encore vu, le sac à dos sur le tube au pied de mon abri Vantage a été bricolé pour ce "modèle" de station mobile, "l'homotopoclimatus" , qui se balade souvent à pied avec un 7714 ou avec une Vantage (T/HR) sur le dos, synchronisée sur un GPS. Phase d'étalonnage avec un 7714 : http://meteo.besse83.free.fr/imfix/etalonh...opoclimatus.jpg http://meteo.besse83.free.fr/imfix/etalonh...poclimatus2.jpg A voir, la nouvelle station MF dans le Var à la Valette sur le toit du collège : http://meteo.besse83.free.fr/imfix/lavalette1.jpg http://meteo.besse83.free.fr/imfix/lavalette2.jpg
-
Pour info, c'est mieux quand les paramètres sont assez stables pour permettre à la console dans l'abri de suivre : La console dans l'abri MF a relevé un maxi de 86% et un mini de 44% (42% pour une T comparable aux autres valeurs et abris proches). Dans l'abri Vantage le plus proche : 84% / 43% alors qu'en temps réel je relève des écarts de plus de 10% par moments entre la console et ce capteur. Dans l'autre abri Vantage à 8 m : 83%/ 43% L'abri lointain très proche de la forêt a relevé 86% (85% à T comparable) et 44% de mini. A noter que la Tx de la console a lieu quand les rayons du soleil sont assez rasants en fin d'AM et quand ils illuminent l'intérieur de l'abri MF, c'est un biais de rayonnement du boitier qui compense l'inertie de la console qui fait qu'elle rate la véritable Tx et l'heure de la Tx à 13h06 aujourd'hui dans l'abri pro ventilé méca (13h08 pour la Tx du capteur extérieur Davis dans l'abri MF) alors que la T console la donne à 17h03 ! Ne pas oublier que la console a un composant de HR moins précis que le capteur extérieur et qu'il n'est pas prévu pour la mesure à plus de 90%.
-
Sonde de température/humidité Vantage pro en rade
ChristianP a répondu à un sujet de tudgur dans Instrumentation
Ici toutes mes sondes sont à l'envers dans les divers modèles d'abri Davis. Il suffit de se servir des trous dans les coupelles et dans le capteur, tenu ici avec de très fins fils de fer tendus. Le téflon est micro-poreux, c'est un ingénieur dans la mesure qui m'a communiqué cette astuce. Le problème d'inertie concernera ta T bien plus que la HR. C'est pour cette raison que j'utilise l'ancien capteur pour laisser le composant de T hors du filtre que je bricole uniquement pour le composant de HR qui est à part sur le support de ce modèle. Tu sais si MF s'en voit tous les ans avec des capteurs de HR à 700 euros pièces et des filtres au top, c'est logique de rencontrer au minimum le même problème avec un capteur à 150 euros et un filtre vraiment moins bon pour ton secteur. Il me semble que les membres de l'association d'IC ont des réductions chez un commerçant Français (que je n'ai plus en tête). -
Oui ce composant peut dériver un peu avec le temps dans son emballage, mais bien moins que dehors avec souvent de la condensation. Pour le rangement au sec, c'est relatif aussi, il faut penser à vérifier le Td quand on (Davis) l'emballe (si tu l'as rangé en plein été avec 28° et un Td de 18° dans la maison, c'était sec à ce moment là, mais l'hiver dans un placard avec une T de 16°, l'air emprisonné sous le plastique est plus que loin de l'air sec ) Pour comparer tes HR à distance, pense à recaler les HR de la différence de T et compare les Td, car quand j'ai comparé vite fait avec une station, dans l'absolu c'était ta HR qui était plus humide que la station utilisée avec la HR recalculée sur ta T. Les comparaisons sont à réaliser quand il y a un vent bien établi qui homogénéise la masse d'air. Enfin il restera toujours des différences réelles selon l'altitude, la distance de la mer, l'évolution de la masse d'air... Enfin le mieux à notre niveau, c'est d'installer ton abri et capteur à 3 ou 4 m d'une radome et de récupérer les relevés minutes à MF. Perso j'ai plus confiance aux 65% du nouveau qu'aux 74% de l'ancien vu que le plus courant, c'est qu'un ancien capteur Davis dérive à la hausse dans cette partie de la gamme (c'est pour cette raison que je dis qu'il faut le changer au bout d'un an surtout dans ton cas avec ce filtre et le sel). Ne surtout pas comparer quand il y a des variations importantes de HR dans le temps. Pour un Davis ou un autre capteur, je le dis et je le répète, ne vous occupez pas des HR à plus de 90% (et n'appliquez surtout pas la méthode de MM91 si vous ne voulez pas biaiser la partie linéaire de la courbe, là où on la mesure au mieux). Ici j'ai un paquet de vieux capteurs Davis qui ne sont plus bons à 70, 80 et 90% (certains affichent 100% sans problèmes, d'autres non, mais ils ont bien dérivé à la hausse, mais ils sont corrects dans les humidités moyennes et basses, certains sous-estiment même un peu malgré la surestimation des hautes HR). Même pour les essais actuels pour l'OMM, MF n'a pas étalonné ses capteurs pour un palier supérieur à 90% (10 à 90% par pas de 10% et pour différents paliers de T, car le capteur ne donnera pas souvent une même erreur pour un même niveau de la gamme de HR pour un point de T différent) Perso même si on n'est pas chanceux, je préfère recevoir un capteur Davis qui affiche un max de 93% d'origine dans la condensation que 100%, car en général le capteur qui affiche 93% de max dans la condensation est juste sur tout le reste de la gamme sous les 90% , de plus on peut le voir dériver, alors qu'un capteur Davis qui affiche 100% d'entrée a le plus souvent déjà dérivé (et comme le "nouveau" logiciel ne permet pas de voir qu'il dépasse 100% comme à l'époque de la Monitor2, c'est difficile à détecter sans comparaisons assez objectives sur place) Ta console hors abri météo vas rayonner la nuit, c'est comme un thermo boîtier, pas un abri météo, la T sera biaisée et donc la HR aussi. De plus même dans un abri météo ta console n'a pas la même inertie que le capteur extérieur. Regarde un peu la difficulté si on n'utilise pas la bonne méthode même avec des abris : Actu sans vent, ciel clair, j'ai une console V1 dans l'abri MF pour des essais avec un autre abri trop lointain pour la laisser à l'intérieur. J'ai 58% sur la console (trop chaude, elle met plus de temps à se refroidir) dans l'abri MF contre 71% dans l'abri Davis lointain avec le capteur extérieur (dans l'AM avec le vent et la T assez stable, il y avait pourtant très peu d'écarts entre les deux), 68% pour l'abri Davis le plus près de l'abri MF qui abrite la console et 68% dans un 2 ème abri Davis à 8 m de là...
-
Sonde de température/humidité Vantage pro en rade
ChristianP a répondu à un sujet de tudgur dans Instrumentation
Bonsoir,As-tu retourné ton capteur de T/HR comme c'est maintenant préconisé par Davis pour fortement limiter les taux de pannes (dans l'abri, installer le capteur tête vers le bas) ? Pour le filtre, remplace celui d'origine par du ruban de téflon. Tu devrais être content dans ton site salé et humide, il aurait fallu le changer il y a 3 mois, il avait dû dériver dans les hautes humidités. Il faut compter un capteur de HR Davis par an où qu'on soit, sinon il faut oublier les stats de HR si on le garde jusqu'à la fin de vie sans vérifier les dérives. /emoticons/biggrin@2x.png 2x" width="20" height="20"> -
Suivi du temps dans les régions méditerranéennes
ChristianP a répondu à un sujet dans Le temps en France
A Besse, l'orage minable et faible avec de la grêle (6 mm maxi), un cumul de 3 mm à 101 mm/h d'intensité maxi, qui a produit seulement 2 impacts au total (les deux seuls sur les 24h), a réussi à me détruire le modem de l'ordi fixe, malgré le parafoudre téléphonique. C'est le 2 ème orage qui génère seulement 2 impacts au total et qui provoque des dégâts ici (pas eu le temps de débrancher sur ces 2 coups !). Enfin cette fois c'est bien plus limité, dans l'autre cas, il avait détruit le compteur EDF, les parafoudres, l'onduleur, l'informatique, et pas mal de matériel météo /emoticons/sad@2x.png 2x" width="20" height="20"> 32.1° de Tx avec une bascule très provisoire à l'W /NW (37 km/h maxi) après la brise habituelle de SSW/SW (41 km/h maxi), le vent d'E/ENE qui a pris la relève, a ramené de l'humidité ( 47 km/h maxi) Actu 19.3°, 96%, vent calme. -
Suivi du temps dans les régions méditerranéennes
ChristianP a répondu à un sujet dans Le temps en France
Bizarrement, les cigales viennent de se réveiller à la station avec 29°, elles ont fait une longue sieste après l'apéro. Elles ont 1 jour de retard sur la moyenne. Un copain à MF me signale une rafale de 79 km/h captée par la nouvelle station dans les Maures sur la commune de Vidauban. Elle est prometteuse, c'est le max du Var. -
Suivi du temps dans les régions méditerranéennes
ChristianP a répondu à un sujet dans Le temps en France
36.1° de max au Luc, 35.9° à Cuers assez débrousaillée dans cet axe (ce qui n'est vraiment pas le cas pour d'autres directions), je l'ai vue hier en vérifiant un vieux capteur de HR Vantage qui a dérivé dans les hautes humidités (toujours dans les tolérances dans les moyennes humidités, -1.5% d'écart moyen, l'écart varie en instantané de 0 à -2% à 3 m de la radome). A Besse 35.0° max de l'année (36.7° dans l'abri MF en classe 4 et 36.5° dans une autre Vantage en classe 4). Le vent s'est levé rapidement et fortement avec l'arrivée des nuages, 68 km/h à 16.4 m et à 17.5 m, 64 km/h à 16 m, 59 km/h à 10 m, 60 km/h à 3.4 m, 43 km/h à 2 m. Du vent et de la petite chaleur, y a pas mieux /emoticons/biggrin@2x.png 2x" width="20" height="20"> Ici il est clair que le chant des cigales n'est pas corrélé qu'aux T (du sol ou du l'air) du mois précédent et de début juin, toujours rien d'audible à la station. Elles n'ont peut-être pas apprécié les 1200 m des 12 mois précédents. -
Il suffisait de demander au commerçant du site indiqué : 61 euros HT (version avec 2 m de fil) délais 3 à 4 semaines. /emoticons/wink@2x.png 2x" width="20" height="20"> C'est connu dans tout le monde de la mesure, que les résistances en platine sont bien plus stables dans le temps que des thermistances et que leur interchangeabilité est meilleure. Choix d'un métal pour une thermosonde à résistance métallique. * Les critères du choix sont : o Sensibilité. On choisira un métal à CTR élevé. On augmentera la résistance en allongeant le fil, et/ou en réduisant le diamètre (limitation d'encombrement et de fragilité). On optera pour un métal de résistivité élevée (éviter par exemple le cuivre de résistivité faible). o Fidélité. Le métal doit être exempt de tout défaut structural, de toute contrainte, et il doit présenter une grande résistance à la corrosion et à la pollution. o Linéarité. L'équation Rq= f( q ) doit être la plus proche possible de celle d'une droite ; on peut réaliser des "linéarisations" en associant plusieurs métaux de coefficients de température différents. o Encombrement. Le diamètre étant de l'ordre de 10 µm, le métal doit être très ductile. o Conclusion. Le platine répond le mieux à l'ensemble des critères précédents car il peut s'obtenir très pur (99,999%), il présente une très grande inertie chimique, ce qui donne les meilleures conditions d'interchangeabilité (possibilité de remplacer une sonde de caractéristiques données par une autre de mêmes caractéristiques, sans "réglage" ni adaptation particulière), et il est très ductile. Comparaison des thermistances par rapport aux résistances. * Avantages : o Sensibilité thermique élevée, de l'ordre de 10 fois supérieure à celle des résistances métalliques. Leur coefficient de température est généralement négatif (on les appelle pour cela CTN), et il dépend fortement de T. Cependant, certains éléments, dans des domaines de température définis, ont des coefficients de température positifs (CTP). o La valeur ohmique est élevée (>1000) ; donc la prise en compte de la résistance des fils de liaison devient dès lors sans grand intérêt. o Leur grande résistivité permet d'obtenir des dimensions réduites (qqmm) et de réaliser des mesures quasi ponctuelles de la température. o Leur capacité calorifique réduite (due à leurs faibles dimensions) leur permet des temps de réponse très courts. * Inconvénients : o Elles sont sensibles à la corrosion chimique et aux chocs thermiques. o On observe une dérive des caractéristiques au cours du temps. o Leur interchangeabilité est médiocre. Au niveau pro on recommande un étalonnage d'une thermistance tous les 1 à 2 ans selon les modèles et un tous les 5 ans pour la PT 100 /1000. Pour ceux qui désirent plus d'infos sur la PT 100 de MF : http://files.meteofrance.com/files/education/temperature.pdf
