Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

ChristianP

Adhérent Infoclimat
  • Compteur de contenus

    2904
  • Inscription

  • Dernière visite

  • Jours gagnés

    1

Tout ce qui a été posté par ChristianP

  1. On peut la consulter ici : http://eprints.ifm-geomar.de/8738/
  2. ChristianP

    Problème ISS

    Il est conseillé de doubler la capacité : http://forums.accuwe...showtopic=15852 (J'ai lu ailleurs qu'on pouvait souder une capa de 20F au lieu de ces deux de 10 F dont on ne voit pas le branchement) N'hésitez pas à vous plaindre directement à Davis et dans les forums US. Ils ont signalé qu'ils ne réagissaient à un problème que s'ils recevaient assez de demandes et ça m'étonnerait qu'ils lisent les forums FR. Si la fréquence des mauvais retours n'est pas importante, ils ne risquent pas de changer. (Dans un forum, en fait on voit surtout les problèmes, mais on n'a pas une idée de la fréquence du problème concerné, car les propriétaires des dizaines milliers de Davis Vantage, ne viennent pas tous nous dire que leur capa fonctionne sans problèmes depuis des années. Si la fréquence des pannes est bien dans la norme de ce qu'on sait faire pour ce prix, ils n'y changeront pas grand chose tant qu'il n'y aura pas une solution aussi rentable pour eux et pour nous (sans augmenter le prix). Certain oublient que dans tout matériel électronique, il existe toujours des exemplaires qui tombent en panne plus ou moins rapidement. En météo c'est pire avec du matériel exposé dehors. Ici j'ai une console Monitor2 de 1992 qui fonctionne toujours, mais j'ai eu un capteur de HR qui est tombé en panne dans le mois de l'achat en 92. Davis c'est du haut de gamme pour nous et pour le portefeuille d'environ 90% des personnes au monde, mais c'est du bas de gamme pour le monde pro des pays "riches". Il y a de nombreuses pannes sur du matériel beaucoup plus cher que Davis. Il suffit de voir dans les divers essais OMM et des autres services nationaux, il n'est pas rare de voir des essais d'un an et moins avec divers matériels pro qui tombent en panne. Pourtant là, on a ce qui se fait de mieux en matériel et en installation avec toutes les protections et du personnel pro qui sait bien s'en occuper, alors comment voulez-vous qu'il n'existe pas au moins autant de pannes chez Davis ? Ce serait un miracle à ce prix ! Renseignez vous sur les taux de pannes des divers appareils électroménagers, il ne sont vraiment pas négligeables. Une panne d'hélico n'a pas les mêmes conséquences qu'une panne sur une station météo. Si on demandait le même taux de pannes sur une station météo, il faudrait ouvrir autrement plus vigoureusement notre portefeuille, bien plus que pour une station pro très haut de gamme (pour une petite station météo pour Mars, on demandera un taux de pannes bien plus faible que pour une station MF, mais le prix sera encore bien différent !) En attendant, c'est ce mois qu'il vaut mieux changer la pile pour éviter que le condensateur travaille trop fort l'hiver si la pile lâche. Pour éviter d'apporter le 220V près de l'ISS, on peut aussi acheter le module solaire prévu pour alimenter la station avec la console installée dehors, et à la place on le branche sur l'ISS.
  3. Publication intéressante toute fraîche indiquée par : http://www.noaanews.noaa.gov/stories2010/20101115_warming.html "Tropospheric temperature trends: history of an ongoing controversy" http://onlinelibrary.wiley.com/doi/10.1002/wcc.80/abstract
  4. Ici low battery s'affiche de temps en temps, même en été, sans qu'il y ait de l'humidité et malgré des contacts protégés, ce n'est pas important vu qu'elle est bonne et que je la change tous les ans en novembre avant le gros du froid. A noter que l'anémo de la Vantage Vue fonctionne avec 2 contacts par tour (1 contact par demi-tour), c'est plus précis (l'anémo MF donne des dizaines de "contacts" par tour) mais le contacteur qu'on ne peut pas changer et qui n'a pas évolué, va fonctionner 2 fois moins longtemps.
  5. ChristianP

    Déport pyranomètre

    Le déport sert à se dégager des obstacles, car pour l'OMM/MF il faudrait que le capteur ne voit pas d'obstacles de plus de 3° de hauteur sur l'horizon, en dehors des reliefs représentatifs de la région, afin de pouvoir comparer les valeurs entre les différentes stations. Il suffit d'installer une rallonge pour l'utiliser sur la console actuelle (c'est ce que je fais ici, les capteurs solaires sont sur le mât d'anémo) ou il faut s'équiper d'une autre console et d'une autre carte radio (station de T auxiliaire, ou carte pour déport d'anémo, ou autre carte ISS) et la déclarer comme ISS sur un autre canal (c'est ce que je fais ici, quand j'ai besoin d'obtenir la T d'une station auxiliaire avec une résolution de 0.1° au lieu de 0.5°)
  6. Et oui la baisse finira bien par arriver. Je me rappelle que Tamino avait trouvé un lag plus efficace de 7 mois par rapport à l'indice SOI, quand il avait réalisé une reconstruction avec tous les forçages radiatifs + SOI. On peut visualiser la répartition des anomalies sur 7 jours (ces images vont s'actualiser régulièrement) : Sur 30 jours :
  7. Un sujet intéressant de plus sur le blog de Météor, http://www.climat-ev...l#anchorComment , qui traite de la lecture de la tendance dont je parle souvent ici, avec un exemple de ce qu'il faut faire au minimum, lorsque quelqu'un veut discuter d'une tendance calculée sur une durée courte. Dans ce cas il faut tenir compte des bruits connus et de leur estimation, afin de réduire leur impact dans les données pour sortir une tendance moins bruitée ( ce sera bien entendu partiellement le cas vu qu'il restera quand même une partie de leur bruit, même si l'estimation était parfaite, mais probablement bien moins qu'en les laissant totalement) Le bruit rouge est surtout invoqué quand quelqu'un indique qu'il existe un changement de tendance avec trop peu d'années de données, tout en ne s'occupant pas du tout de l'analyse et de l'influence du bruit lui-même et donc du recalage nécessaire des données pour tenter d'éviter que le bruit masque trop la véritable tendance sous-jacente.C'est pour cette raison que je précise que hors analyse et prise en compte du bruit lui-même (et donc sous-entendu recalage des données), il faut calculer/afficher les tendances calculées sur d'assez longues périodes. Là justement Météor s'occupe d'une partie du bruit. Il supprime une dose de bruit rouge en retirant l'estimation (celle admise à ce jour par les scientifiques) de deux des principaux bruits connus (l'ENSO et le cycle solaire sont deux des diverses composantes génératrices du bruit rouge dans les séries de T globales) On pourrait affiner en limitant l'influence d'autres bruits, comme par exemples celui de l'AMO et de la PDO (pas certain que ce soit utile et significatif sur cette période, à vérifier par calculs), ainsi que celui d'autres paramètres générateurs de bruits significatifs (en cumulés ou non : si de petits bruits non significatifs vont tous dans le même sens, leurs effets cumulés dans le même sens, peuvent devenir significatifs) sur cette période si on dispose des données à jour. Enfin il faudrait voir après diminution de ces bruits, ce qu'il reste de l'intervalle de confiance de la tendance qui devrait en théorie se réduire. (Météor si tu me communiques ta série d'anomalies mensuelles "corrigées" depuis 1975, quand j'aurai du temps, je pourrais sortir un graphe des IC calculés à la mode Tamino/Lucie, pour comparer et voir ce qu'on gagne par rapport aux IC calculés avec les données normales et je pourrais regarder comment l'estimation du bruit a évolué) Est ce que quelqu'un aurait un tableau récapitulatif des dernières estimations (d'après les publications scientifiques) des effets en °C crête à crête, avec le lag le plus efficace, pour chaque paramètre ? Ici à jour avec les données de septembre 2010, Comme les calculs l'avaient déjà montré, on voit graphiquement que la PDO, l'AMO et l'ENSO (PAE) ne sont pas efficaces pour expliquer la tendance de fond à la hausse, elles donnent surtout des indications sur la variabilité à courte échelle, sur le bruit. Les courbes d'une couleur autre que grise ( les anomalies), sont les résultats des régressions, ce sont des anomalies "prédites" d'après les divers paramètres indiqués dans chaque graphe. On voit que le meilleur résultat avec un seul paramètre et le cumul des 3 paramètres, est donné par la droite verte en fonction du temps, non pas seulement parce le chrono tourne aussi la hausse, mais parce qu'il existe d'autres paramètres connus ou non, bien plus importants que ces oscillations, qui poussent la tendance de fond à la hausse. Ici On voit que pendant toutes les diverses combinaisons des phases PAE (- - - à + + +), la tendance de fond est toujours à la hausse sans différences significatives entre les combinaisons. Les extrêmes vont de +0.54°/siècle pour les phases (+ - +) à +0.74°/siècle en phases (- + -) . La tendance mini en ( + - +) est identique à la valeur de la combinaison ( - - - ) +0.55°/siècle, La tendance maxi aussi, n'est vraiment pas différente de la valeur en (- + +) et (+ + -) avec +0.73°/siècle. Donc inutile d'espérer une chute de la tendance de fond avec la combinaison - - - sans autres paramètres beaucoup plus influents, car cette combinaison chauffe aussi. Ici (Pour ceux qui ne savent pas/plus lire ce type de graphe : http://matisse.univ-...leguen2001b.pdf . Le réglage des boxplots du graphe est standard : 1.5) On voit qu'il n'y a pas de différences significatives entre les 8 boxplots qui représentent la distribution de toutes combinaisons possibles des phases PAE (Les distributions ne sont pas significativement plus chaudes ou plus froides et il n'y a pas une différence significative entre la distribution la plus chaude et la plus froide). Les valeurs hors catégories s'empilent du côté chaud, les distributions concernées ne se sont donc pas encore bien décalées ou étalées vers le chaud. Les valeurs atypiques sont absentes en (+ + +) à cause de l'étalement de la distribution vers le chaud, cette combinaison ratisse large ! Il y a un chevauchement considérable entre la phase (- - -) et ( + + +), ce qui signifie qu'on relève aussi de nombreux mois plus chauds en (- - -) qu'en (+ + +) et des valeurs plus froides en (+ + + ) qu'en (- - - ) En - - - la médiane indiquée par le trait central, est assez identique à la moyenne, à l'inverse de celle de la phase + + + qui est inférieure à la moyenne sensible à l'étalement de la distribution vers le chaud. Enfin il faut faire attention, vu que toutes les combinaisons n'ont pas été présentes aussi souvent dans une période de réchauffement soutenu ou pendant une stagnation, elles ne sont vraiment pas "finies" et donc pas réellement assez comparables. elles devraient évoluer relativement rapidement.
  8. Merci Noël, je voulais juste me réchauffer en m'approchant de la mer ! Pour expliquer comment choisir une courbe de données lissées, il y avait ce sujet bien fait, qui n'est plus en ligne pour le moment sur le site du mathématicien Tamino ( lien que je vous avais communiqué il y a des mois : http://tamino.wordpr...ngerous-curves/ , j'ai demandé sa réactivation). En attendant, pour gagner du temps, je vais me servir de certains de ses graphes/commentaires. Le lissage des données a pour objectif de supprimer les bruits supposés, de hautes fréquences (On supprime les fluctuations rapides avec un filtre passe-bas, comme le sont une moyenne mobile, un Loess et beaucoup d'autres) tout en cherchant à limiter l'impact sur les basses fréquences (fluctuations lentes) afin que la courbe ne s'éloigne pas trop du signal physique global le plus probable (surtout vers la fin de la courbe dont on cherche souvent à visualiser l'évolution la plus probable). Le signal final, on ne le connaîtra pas vraiment sans les futures données et on n'aura pas de certitude à 100%, même en supprimant du bruit de façon correcte (avec une confiance à 95%). La courbe lissée isole donc les variations lentes, elle est supposée représenter le plus souvent le signal sous-jacent. On cherche à obtenir une assez bonne approximation du signal global. La difficulté se situe le plus souvent à proximité du début et de la fin de la courbe, c'est un problème récurrent dans les courbes lissées. Je reprends l'exemple basé sur la série des anomalies annuelles de Central England jusqu'en 2008 à l'époque du post de Tamino. Dans ce fouillis provoqué par la variabilité habituellement importante de la T annuelle (surtout pour une seule station terrestre où l'écart-type est bien plus important que pour la T globale), sans lissage il est difficile de distinguer assez objectivement un signal, car selon la vision de chacun, à l'oeil ou en traçant des courbes plus ou moins au pifomètre (même avec de bons coeff de corrélation, mais sans d'indispensables calculs d'intervalles de confiances), les mouvements principaux ne seront pas les mêmes pour tout le monde, notre vision sera plus ou moins influencée de façon différente et surtout de façon très subjective, par les variations rapides. A l'oeil, ou selon le lissage choisi, si on n'a aucune notion de la variabilité de la T , on peut se demander si le signal s'aplatit réellement ou non, vers la fin de la série des anomalies annuelles. On peut aussi trouver ce nivellement avec une bonne filtration Loess, mais en lissant sur une durée trop courte de 15 ans, pas souvent significative et non conforme avec l'échelle caractéristique pour ce paramètre (30 ans pour la T). Les petits mouvements saccadés, suggèrent déjà sans calculs, qu'il reste trop de bruit. Avec le nombre d'années suffisant, aucune trace de l'aplatissement : Pas de dérive vers la fin dans les résidus, ils semblent toujours répartis de façon assez aléatoire. En zoomant sur les dernières années (données jusqu'en 2008) pour suivre au plus près la forme vers la fin, en plus de la classique tendance linéaire, on pourrait par exemple, tracer cette courbe très bien corrélée (choix absurde sans calculs, pour ceux qui connaissent): Un polynôme du 3 ème degrés bien différent avec des courbures prononcées en début et fin de courbe. Ces inflexions sont-elles réelles et représentatives du signal ? Sur le graphe global, on a les données avant 1975, on sait donc que la courbure initiale dans ce zoom n'est pas correcte. Pour l'inflexion de la fin de la courbe, la question reste ouverte vu qu'on ne dispose pas encore des données futures et en prime on n'a pas encore effectué de calculs statistiques d'IC qui permettent de savoir objectivement si ce changement brutal est probable ou improbable sur ces années. Enfin tout ça pour dire, que nous ne devrions jamais sélectionner une courbe ou baser une analyse sur une courbe sans avoir calculé des intervalles de confiance. Sinon c'est la meilleure façon de se tromper et donc de tromper les autres quand on publie des courbes. Une des méthodes les plus simples consiste à utiliser la régression linéaire pour calculer des tendances, afin de vérifier si la tendance a statistiquement changé en calculant les IC ( comme je l'ai déjà expliqué il y a des mois dans ce forum). Pour le cas présent, Tamino l'a fait en calculant les tendances et les IC tous les 5 ans : C'est clair maintenant avec les calculs. Il n'y a aucune preuve statistique d'un aplatissement ou d'un autre changement récent dans les données. La tendance est significativement à la hausse depuis 75 et elle n'a pas significativement changé d'après les plus courtes tendances suivantes (la dernière plus courte durée qui a une tendance significative est de 23 ans). Le manque de données sur la fin, comme le plus souvent, renvoie une incertitude énorme sur la dernière tendance calculée, étant donné le bruit important présent dans les données de T annuelles. On ne doit donc pas choisir une courbe qui montre une changement sur la fin, étant donné qu'il n'y a pas de preuves statistiques d'un changement. Même s'il n'y a jamais 100% de certitude, avec ces calculs, nous pouvons dire qu'il est beaucoup plus probable que la hausse continue, plutôt que d'indiquer que la T se stabilise ou chute. On doit choisir un lissage qui montre la réalité la plus probable jusqu'à preuve statistique que la tendance est devenue nulle (ou à la baisse). Et lorsque il y a stabilité sur 20/30 ans et plus, ça se voit aussi dans les calculs d'IC par exemple ici, pour un lissage Loess/30 ans GISS (jusqu'en juillet 2010) avec les changements significatifs de tendance : Calculs statistiques d'IC : La tendance est nulle pour les périodes 1 et 3. Je précise pour ceux qui ne savent pas lire ce type de graphe, que la période 3 n'indique pas une tendance négative, mais une tendance nulle (un refroidissement significatif aurait l'intervalle de confiance supérieur du point 3, qui serait situé sous le niveau de la ligne de 0°/an) et que la tendance de la période 4 n'est pas statistiquement différente de celle de la période 2 (pour qu'elle le soit, il faudrait que l'IC inférieur de la période 4 se situe au-dessus de l'IC supérieur de la période 2), on ne peut donc pas dire que la période 4 se réchauffe significativement plus rapidement que la 2. Nous ne devrions pas faire des affirmations sur les changements de tendances (que ce soit par écrit ou simplement sans le dire vraiment en publiant des courbes lissées avec des durées insuffisantes), sauf si nous avons appliqué une analyse statistique (calcul des IC). Tirer des conclusions uniquement sur des courbes lissées est très risqué. Les caractéristiques du filtre peuvent modifier considérablement l'apparence, et donc l'analyse. C'est une des raisons pour lesquelles le filtre Loess est si populaire chez les statisticiens, car il est conçu pour être robuste contre de tels pièges. Mais il y a toujours des choix à faire même avec un Loess, comme par exemple le choix de l'échelle de temps caractéristique du paramètre concerné (exemple, 30 ans pour la T dans l'étude du climat). Choisir 10 ans, c'est une échelle pour la T qui ne donne pas souvent des tendances statistiquement significatives, elle n'a donc pas de sens hors analyse du bruit lui même (la tendance peut baisser ou monter/10 ans, sans qu'on puisse dire comment le signal sous-jacent évolue si on élargit pas son zoom). Les scientifiques sont déjà descendus à contre-coeur pour les rapports du GIEC, en calculant des tendances sur 20 ans. Ca reste encore correct, en T globale, beaucoup de tendances/20 ans sont statistiquement significatives au niveau global et en lissage Loess on peut voir ici que le lissage sur 20 ans reste dans l'intervalle de confiance des pentes du lissage sur 30 ans : Ici on a l'intervalle de confiance des pentes du lissage Loess/10 ans On voit par exemple sur la fin, que le dernier segment pourrait être aussi bien fortement à la hausse ou à la baisse, ça n'a pas de sens de regarder ce type de pente si on ne garde pas à l'esprit le lissage sur 20/30 ans (Pas plus de sens que ce type de pente des tendances fixes par périodes de 10 ans) : On devrait plutôt tracer ce type de graphe : (attention la dernière tendance n'a pas encore le même sens que les autres périodes/20 ans, l'incertitude de sa pente est bien plus importante, car elle ne comporte pas 20 ans de données, mais seulement 10 ans et 9 mois. Pour le moment elle est significativement identique à la pente du lissage/30ans et à la pente/20 ans précédente, donc pas de changement) Les lissages Loess réalisés ici, sont basés sur des régressions du 1er degré. Pour coller plus aux données, par exemple, on pourrait configurer le Loess pour qu'il utilise des polynômes du 2 ème degré, mais ce n'est pas bon pour notre cas, car il fait ressortir des mouvements non significatifs, c'est du bruit qu'on cherche justement à gommer. J'attire votre attention sur certaines distorsions entre un lissage Loess (et d'autres) et certaines tendances linéaires, qu'il faut avoir à l'esprit et qui peuvent surprendre quand on lisse avec les oscillations/cycles, selon la durée choisie par rapport à la période de ces oscillations/cycles. Ce cas nous apprendra à bien faire la distinction entre une tendance de fond relativement correcte mais très mal ajustée aux données, et la tendance d'une partie de l'oscillation/cycle, bien plus ajustée aux données mais pas souvent représentative de la tendance de fond ou d'une période complète. Voici un exemple avec la PDO. On se rappelle du graphe d'un message précédent où on constate que la pente de la tendance/30 ans est assez semblable à celle du lissage Loess/30 ans : Maintenant on lisse sur 40 ans et on calcule la tendance/40 ans On constate que la tendance/40 ans ne suit plus du tout la pente du lissage/40 ans. Il faudrait un lissage bizarre et inutile de 60 ans, pour que le lissage retrouve une pente assez proche sur la fin : Ceci à cause du principe des variations de tendance selon le nombre d'années de données dans le calcul, par rapport à la période du cycle/oscillation concerné. Prenons une série temporelle avec un cycle d'environ 12 ans, une amplitude de 0.3° et une tendance de fond de 0.2°/décennie. On remarque bien les différences de pente considérables, quand la tendance est tracée sur moins d'un cycle, surtout vers un demi-cycle : On peut même observer des très fortes baisses alors que la tendance de fond est toujours à la hausse avec le même taux. Quand on calcule la tendance/30 ans de la PDO sur la dernière période, on voit qu'elle ne démarre pas au mini précédent, donc la tendance ne survole pas au moins une période complète (d'un mini à un mini ou d'un maxi à un maxi), comme sur le graphe animé dans la partie où les tendances partent dans tous les sens, elle n'est pas significative de la tendance de la dernière période complète de la PDO, et bien entendu ni de la tendance de fond générale. Sur 40 ans pour la PDO, on s'en approche beaucoup plus, la pente est donc moins forte, le lissage Loess avec ses régressions locales, suit bien plus les données et montre une pente encore prononcée. Ici on a le graphe de la tendance des cycles/12 ans, calculée selon la longueur de la tendance calculée par rapport au nombre de cyles. Au centre, on a la tendance de fond de 0.2°/décennie (tirets bleus +-10% d'écart, tirets verts +- 50%, tirets rouges +- 100%). On remarque qu'en dessous d'un cycle, l'incertitude sur la tendance est grande. La tendance varie considérablement, il faut donc au moins un cycle pour obtenir la tendance de la dernière période et plus de 2 cycles pour approcher au mieux la tendance de fond. Donc quand un lissage n'est pas suffisant par rapport aux périodes des oscillations, il faut garder à l'esprit qu'il ne représente pas souvent la tendance de fond. On lisse la T sur 5 et 11 ans pour supprimer le bruit dû à l'oscillation de l'ENSO et au cycle solaire, ce n'est pas suffisant pour voir l'évolution du climat, on supprime juste le bruit dû à ces oscillations. Si on veut s'affranchir du bruit de la PDO et de l'AMO, il faut lisser la T sur plus de 30 ans. Si on veut vérifier par exemple, que la PDO et l'AMO jouent sur la tendance de fond de la T, il faut voir leur tendance de fond, sinon on ne fait que regarder le bruit qu'elles provoquent sur la T, classique chez beaucoup de passionnés avec un zoom bloqué à fond sur le bruit (Avec la ligne noire en pointillés de la tendance générale sur le graphe de la PDO/ 40 ans, il est clair que la PDO n'a pas une tendance de fond à la hausse depuis 1880. Elle est visuellement à la baisse, mais attention n'oubliez pas les calculs indispensables quand on analyse une courbe, car ils indiquent qu'elle est stable, car cette baisse n'est pas statistiquement significative)
  9. Bonsoir, Attention Localsat, ce n'est pas parce que dans certains sites de mesure, dans d'autres régions, dans d'autres conditions, il n'y a pas de surchauffe de l'abri Vue face à des références pas assez caractérisées, qu'il ne faut pas effectuer de modifications. A partir du moment où des essais montrent une surchauffe indiscutable et fréquente des T diurnes face à des références bien connues, dans une région différente avec des conditions différentes plus chaudes, moins ventées et plus sèches, c'est qu'il y a un problème d'abri, pour ces cas courants dans le SE de fortes chaleurs sans assez de vent dans les secteurs non touchés par la brise de mer, et ailleurs dans les canicules du type 2003 ou de juillet 2006 (l'abri Vue n'est pas seul en cause, il y a surtout la position et la conception du capteur qui prolonge le fond noir de l'ensemble, sans des coupelles de toit pour l'isoler de cette surface plus chaude l'été) Le seul endroit où il ne faut pas modifier le fond noir de la Vue en France, c'est en altitude dans les stations qui comptent une très grande quantité de jours avec un sol recouvert de glace ou de neige y compris assez tard dans le printemps (dans ce cas il vaut d'ailleurs beaucoup mieux peindre aussi en noir l'intérieur des coupelles) C'est d'ailleurs à cause de ces différences de résultats en fonction de la région des essais, que l'OMM fait tester les abris dans des conditions extrêmes de froid et de chaleur avec différents types de sol (la prochaine grande comparaison aura lieu dans l'Arctique Canadien) Il faut bien voir que l'abri Vaisala de la mini station n'est pas une référence assez connue pour le moment (on ne connait pas précisément ses défauts et ses qualités) vu qu'on ne dispose pas des résultats d'essais aussi pointus que ceux de MF (test en soufflerie chaud/froid, test d'effet de sol, d'ombrage, de constante de temps, ..., en plus des essais traditionnels sur le terrain ) ce qui n'est pas le cas des abris MF (et d'autres), dont 2 modèles utilisés dans les essais de la Vue ici (on sait par exemple, qu'un Socrima à coupelles est moins sensible à l'effet de sol et aux réflexions, qu'un Young/Gill à coupelles (déjà utilisé par Campbell), qui comme indiqué dans un post précédent, peut surchauffer de plus de 10° sur la neige/glace) Regardez bien les courbes de rayonnement dans les abris, que je vous avais communiquées dans le post sur la mesure de la T sur la neige/glace, vous comprendrez à leurs formes, qu'un abri peut-être bien plus sensible qu'un autre, le matin avec un soleil rasant (à cause de réflexions différentes sur des persiennes et/ou par des ouvertures qui sont différentes) Le blanc n'améliore pas assez le problème matinal ponctuel sur la Vue, même si je n'ai plus dépassé 2° d'écart comme avant la modification. Je pensais vous aviez vu qu'il restait toujours des écarts le matin sur les graphes que j'avais communiqués avec les derniers résultats les plus complets. Par exemple, on voit vers 7h TU le 2 ème jour, 1.5° d'écart/10 mn : http://meteo.besse83.free.fr/imfix/vuecartfondblanc2m.png (2° /1 mn), la veille il est plus faible. Mais comme je l'ai indiqué ailleurs dans un autre sujet, cet écart ponctuel est en fait assez conforme avec ceux qu'on peut observer/ 1 mn, entre différents abris MF du réseau (surtout entre le très grand modèle et les plus petits modèles. Voir le graphe de courbes d'une comparaison de 3 abris dans l'article de Michel Leroy, sur la mesure de la T dans dans le nr 12 de la revue de la SMF de décembre 1995) On y voit près de 3° d'écart plusieurs minutes avec seulement 250W/m2 et un vent nul vers 6h TU le 6 mai 1995 qui disparait avec un vent de plus de 1 m/s (Donc écart énorme encore plus tôt qu'ici et avec moins de puissance solaire. Ici c'est plutôt avec un soleil rasant autour de 400 W/m2 que j'observe les plus gros écarts) En fait sur l'année, ces erreurs /1 mn, /10 mn, ne concernent pas 5% des matinées et sont bien plus exceptionnelles sur les valeurs finales (Tn ou Tx). Enfin ici ce n'est jamais arrivé que la surchauffe matinale me biaise une Tn ou une Tx. Le blanc et la hauteur de 2 m sont surtout prévus pour améliorer significativement la mesure des T diurnes au cours du reste des journées (ça saute quand même aux yeux sur les graphes avant et après la modif) et ils limitent les erreurs de Tx. Cette modification ne fait que diminuer la T du fond noir et permet de capter un air moins chaud pour compenser la T qui reste plus chaude du fait du boîtier fermé, sans changer le problème de réflexion par les persiennes avec un soleil rasant d'autant plus qu'il est puissant en étant assez bas et à 90° par le travers avec le composant orienté vers l'Est (erreurs maxi vers fin avril et début septembre) Il n'y a pas grand chose à tester ici en ce moment vu que je n'avais pas relevé d'erreurs particulières avec ces rayonnements faibles d'avant avril (1° d'écart sur 1 mn ponctuellement en T/ 1 mn, je n'en parlais même pas vu les différences d'abri et de constante de temps) A noter qu'en 6 mois le capteur de HR de la Vue non équipé d'un filtre goretex comme les autres Davis ici, a déjà dérivé de +4% (je l'ai remarqué début septembre). Il faut le changer. Il se démonte facilement, le problème c'est que le contacteur de l'anémo est aussi intégré et noyé dans la carte de la T/HR (on ne peut pas remplacer ce contacteur comme sur les Vantage Pro, ce n'est pas bon pour les économies, vu que ce composant peut lâcher très rapidement. J'aurais déjà renvoyé le capteur si j'avais une station achetée en France. C'est une station qui n'est vraiment pas intéressante pour les bricoleurs et à terme elle n'est vraiment pas rentable. Pour info, j'ai vu que le piézo pluvio Vaisala de la mini station sonique, a été particulièrement mauvais au cours d'essais près du col de Porte. Les écarts ont été considérables (par exemples, 85.5 mm pour le pluvio de référence contre 180 mm pour le Vaisala pendant l'été 2006, 216 mm contre 333 mm pendant l'été 2008 (cette fois le Vaisala a surestimé), 506 mm contre 197 mm pour l' hiver 2007/2008, bon avec la neige c'est plus difficile) A voir dans Etude comparée de la mesure granulométrique et volumétrique des précipitations Pôle Grenoblois d'Etudes et de Recherche pour la Prévention des Risques Naturels Programme de recherche 2006 Rapport de synthèse Brice Boudevillain1
  10. En postant ma réponse sur le sujet suivant de ce message, sur la possibilité ou non des records de froids pendant un fort réchauffement, que je préparais depuis pas mal de temps, je viens de voir que mes courbes lissées font causer. Je répondrai plus en détail dans quelques temps selon disponibilités. En attendant pour vous faire réfléchir sur les courbes lissées, voici quelques courbes lissées avec Loess (méthode robuste particulièrement appréciée des statisticiens pour justement éviter les pièges des courbes polynomiales, trigonométriques et autres, si du moins on lisse de façon cohérente avec les calculs de significativité statistique (que j'ai déjà abordée largement dans des messages précédents) ainsi qu'avec le niveau de bruit à supprimer pour l'échelle donnée, du moins si on ne se sert pas du lissage (ou d'autres techniques plus optimale dans ce cas) pour interpoler des données, ce qui nécessitera à l'inverse de mon cas, d'ajuster une courbe au plus près de chaque donnée. Mais bon là à ce niveau de finesse, on s'éloigne bien trop de l'échelle climatique) La T annuelle avec un 2 ème lissage sur 16 ans et la tendance/30 ans avec les données annuelles non lissées. Si vous avez suivi les posts sur la significativité, vous aurez compris pourquoi sur 16 ans et pas sur 10 ans au autres. Garder toujours en tête l'éventail de pentes possibles autour de chaque segment,(surtout pour le dernier, dont on ne connaîtra la vraie pente, qu'avec les futures données) et donc l'IC de la tendance, d'autant plus important que la durée est courte. Ca devrait vous montrer l'inutilité d'afficher cette variation de courte durée quand on veut connaître le mouvement global sur 30 ans et non les variations dans les 30 ans (mais bon là avec 16 ans, comme la tendance est significative, on est au moins certain que la pente n'est pas une baisse, même si la pente peut-être presque nulle ou bien plus forte que celle sur 30 ans) La T mensuelle avec en prime exceptionnellement un lissage sur 10 ans (ça me crève le cœur de la tracer /emoticons/biggrin@2x.png 2x" width="20" height="20">), http://meteo.besse83...3060_082010.png C'est la mieux ajustée aux données, mais inutile (du moins pour ceux qui ont besoin de sortir du bruit) vu que de la très grande majorité des petites variations supplémentaires sur cette courbe et surtout la dernière, ne sont pas statistiquement significatives. L'évolution générale du climat est donnée par la courbe sur 60 ans (la moins bien ajustée aux données). L'index annuel PDO (normal, non divisé) Il est plus bruité que la T, donc il faut plus d'années de données pour obtenir une tendance statistiquement significative. J'ai regardé vite fait la répartition et les corrélogrammes des résidus des courbes lissées de la PDO, je ne vois rien d'anormal (vu l 'écart entre le dernier mini le prochain en cours, j'aurais même dû lisser la PDO sur 40 ans plutôt que sur 30 ans) Pour 30 ans, le coeff du Loess est à 0.23 (23% des données), je ne lisse pas vraiment fort (lissage typique du Loess se situe de 0.25 à 0.5) Pour l'impression sur le graphe général, j'ai mis à jour le graphe en divisant la PDO par 3 au lieu de 2 sur la version de mon message précédent en ajoutant les tendances sur 30 ans : Bon j'en arrive enfin au sujet pour lequel je suis passé ici. Je ne suis pas d'accord. C'est justement ces fausses idées trop répandues, qui font que certains pensent à des refroidissements/réchauffements à la moindre série de gros records de froid/chaleur (Je ne parle pas des records de moyennes ou de records du nb de jours au-dessus de certains seuils) Des records de froids peuvent toujours être largement et facilement battus au cours d'un fort réchauffement climatique (même si la fréquence des valeurs froides (10% des plus froides) diminue), car les séries disponibles avec des données journalières d'extrêmes fiables, même pour les plus longues, sont bien trop courtes pour qu'on dispose des records de froid/chaleur significatifs d'une T globale plus froide qu'actuellement (Il faudrait des milliers d'années de données). De nombreux records de froid ne sont pas significatifs d'une durée suffisante, de plus pour ceux qui pourraient l'être, même d'après des calculs sérieux, ils ne le sont pas autant, comme on pourra le voir avec l'application sur les données du Luc. Ca dépend aussi beaucoup du niveau de la valeur d'un mois donné dans une station donnée (ex : au Luc, le record de Tnn de novembre est à -9,0°, mais en décembre il est à peine plus froid avec -9.3°, qui a donc une sacrée lacune aussi comparé à mars avec -10°, janvier n'est guère mieux loti, avec -12° par rapport aux -17° de février, mois plus chaud. La moyenne climatique pourrait se réchauffer de 4° au Luc, que ça ne changerait pas le fait que les records de Tnn des mois où ils sont faiblards, pourront tomber relativement facilement) C'est certain que le record absolu de froid au Luc, -17° le 12 février 56, est mathématiquement phénoménal pour ce coin, même pour l'époque passée plus froide. Il sera même difficile à améliorer avec un bon refroidissement climatique, vu que c'est une valeur qui n'était mathématiquement pas sensée être atteinte au Luc si février 1956 n'avait pas existé (et c'est bien là le problème on estime les records possible qu'avec ce qui a existé sur trop peu de temps). Si on exclut les 5 valeurs les plus froides des Tn de février 56 (6 des 9 valeurs <= -10° au Luc, figurent dans ce mois. Depuis 1946 , il n'y a que 3 années avec au moins une valeur <= -10°) et donc de toutes les Tn sur 1946-2009, le calcul de la durée de retour renvoie comme impossible une valeur de -17° au Luc (sans ces 5 valeurs de février 56, même pour une durée de retour absurde de 1 Méga d'années, on obtient seulement une Tnn de -13.3°, et dans ce cas une Tnn de -12.8° aurait une durée de retour aussi inutile de 10 000 ans, IC 95% [-11.3°; -14.3°]. -17° au Luc, c'est aussi énorme que de relever une Txx de 50° au Luc (du moins avant de connaître un jour futur au Luc, l'équivalent en chaleur de l'anomalie froide de fév 56, vu que l'été 2003 au Luc, c'est vraiment de la gnognotte par rapport à ce que peut produire la météo et aux anomalies chaudes qu'on a déjà observées ailleurs) Donc comme ce qui est considéré comme mathématiquement quasi-impossible (à cause des séries disponibles très insuffisantes) s'est déjà produit, il n'y a aucune raison objective que le réchauffement actuel et celui d'au moins les 50 prochaines années, ne puissent générer facilement de gros records de froid malgré une diminution de leur fréquence, surtout dans des mois qui possèdent des cas beaucoup moins extrêmes que février 56 au Luc. Un réchauffement/refroidissement n'est pas sensé limiter la variabilité habituellement énorme des valeurs les plus extrêmes qui ne répondent pas aux mêmes lois que les moyennes, on entend plutôt souvent le contraire. Cette variabilité énorme et habituelle des extrêmes peut déjà créer des valeurs mathématiquement surnaturelles (à priori, faute de milliers d'années de données) dans un sens ou dans l'autre. Le réchauffement qui a pourtant bien augmenté la moyenne climatique au Luc, n'a même pas encore réussi à élever le déjà vieux record absolu de Txx au Luc (42.7° en 1982) alors qu'il est autrement plus accessible qu'un -17° dans ce secteur dans un mois de février qui n'est pas le plus froid. Etant donné l'incertitude importante sur les calculs des durées de retour et la grande variabilité d'un extrême, un record seul même inimaginable mathématiquement, ne prouvera jamais rien du tout sur l'évolution du climat, on l'a vu pour ce -17° au Luc. Ce type de record c'est de la météo pure comme l'est une rafale de vent sur 3 s, ce n'est pas le climat. Pour illustrer le problème des records, à l'aide de R et des packages qui vont avec le package "Extreme", j'ai calculé quelques durées de retour pour les Tnn et Txx du Luc à partir de toutes les valeurs journalières qui dépassent les seuils de -5° pour les Tn et de 35° pour les Tx (c'est la meilleure qualité ( très relative) de l'ajustement qui a commandé le choix de la valeur de ces seuils qui sont par pur hasard, tombés sur ces valeurs habituelles), afin d'obtenir un plus grand nombre d'échantillons (pas loin de 400) et légèrement moins d'incertitudes, du moins à priori faute de données suffisantes (et en théorie avec la loi GPD : Distribution Pareto Généralisée), que lorsqu'on calcule les durées de retour avec la série des seuls maxi/mini annuels avec la Loi GEV : Loi Généralisée des Evènements Extrêmes. Durées de retour basées sur la distribution des valeurs journalières après les seuils (loi GPD ) : A comparer avec les durées de retour et les IC basés sur la loi GEV (donc dans ce cas uniquement avec les Txx / Tnn annuelles) : Les résultats graphiques dans R. Pour les Txx (GPD) : Pour les Tnn (GPD), lire les T comme étant négatives (on voit l'énormité du -17° pour le Luc) : A comparer avec le calcul basé sur les valeurs annuelles (GEV) et des IC bien plus larges et donc avec des valeurs absurdes faute d'un nombre d'années suffisant : Lire les T comme étant négatives : Enfin même avec la loi GPD, le maxi du Luc, 42.7°, aurait une durée de retour de 150 ans, mais en réalité vu l'intervalle de confiance, la durée de retour se situe quelque part entre [ 50 ans; 2000 ans] ! En fait cette incertitude large, n'est rien comparée à l'incertitude réelle encore bien plus importante, vu qu'on n'a pas encore observé au Luc, les valeurs de l'équivalent dans le chaud, de février 56 (ou l'équivalent d'autres anomalies de chaleur ailleurs). Ca signifie très probablement que la durée de retour réelle est bien plus incertaine que dans ces calculs. Pour le moment, le niveau des records absolus enregistrés pour chaque période de temps (jour, mois, année), a bien plus de rapports avec le fait que nous ne disposons pas de milliers d'années de données, que du fait que les moyennes se réchauffent/refroidissent ou non. Il suffit de voir le niveau de certains records de Tnn du mois de mars 2005 dans le SE, pour comprendre que les gros records de froid sont plus que toujours probables en plein réchauffement : Dans une des années les plus chaudes de la planète en mars 2005, par exemple, -13.9° à St Cannat (13) et -12.5° à Aix Les Milles (13), -10.6° ici à Besse à 26 km de la mer (83). On imagine facilement l'effet sur les Tn de la même masse d'air fin décembre/début janvier avec une bonne couche de neige au sol et un ciel aussi clair avec un rayonnement solaire bien plus faible et moins d'heures d'insolation (environ 300W/m2 de rayonnement global en moins à midi solaire fin décembre que début mars). Idem pour exactement la même configuration que février 56, mais décalé fin décembre/début janvier, on n'obtiendrait probablement pas les mêmes records malgré le réchauffement. Faute de durées de séries suffisantes et de données journalières assez bien homogénéisées, pour suivre l' évolution du climat, il est bien plus judicieux de s'en tenir aux moyennes/30 ans et aux tendances significatives des anomalies sur des périodes suffisantes () que de spéculer avec ces records extrêmes ponctuels qui sont de toutes façons plus que probables même dans un fort refroidissement/réchauffement. (Et non sur 15 ans seulement, durée pendant laquelle, il a été plus que courant que la tendance ne soit pas significative, même au moment du plus fort réchauffement. J'avais vu par exemple, dans un sujet avec les données Hadcrut, qu'il y a 8 tendances/15 ans non significatives depuis 1965, en voici certaines, http://www.skeptical...alden_1995b.gif , (dont certaines avec chevauchement de données, 39 fois une tendance/15 ans n'a pas été significative depuis 1900) . Certains oublient que la tendance n'a jamais cessé à de nombreux moments, de sembler s'arrêter /15 ans (illusion due au bruit) pendant que le climat et la tendance sous-jacente continuait à chauffer. Ils sont toujours en train de trouver des stagnations et des refroidissements, à ces variations habituelles de tendance même au cours d'un réchauffement. Enfin se baser sur ces records avec si peu d'années de données journalières fiables, pour se prononcer sur l'évolution du climat, c'est bien pire que de se noyer dans le bruit de 15 années d'anomalies globales sans tendance statistiquement significative ! Je rappelle pour ceux qui n'ont pas lu mes précédents pavés sur la significativité, qu'une tendance dite non statistiquement significative sur 15 ans, par exemple, ça ne veut pas dire qu'il n'y a pas de tendance, mais simplement qu'avec ces seuls 15 ans de données, on ne peut pas dire dans quel sens, elle évolue avec une assez grande confiance mathématique (avec ces 15 ans de données, on ne peut pas dire objectivement qu'elle est à la hausse, ni qu'elle stagne, ni qu'elle est à la baisse, mais ça n'empêche pas certains, de continuer de parler de stagnation du réchauffement à chaque fois qu'on parle d'une tendance non significative/x années, alors que la moyenne climatique augmente chaque mois dans pratiquement 99% des cas ces 15 dernières années. Avec les anomalies NOAA, le dernier mois qui est passé sous la dernière moyenne climatique/30 ans calculée chaque mois, est janvier 2008, la précédente était en novembre 2000, celle d'avant en février 1994, toutes les autres anomalies mensuelles depuis 1994 ont réchauffé le climat. 99% des anomalies mensuelles depuis 15 ans ont réchauffé le climat, et après certains veulent vous faire croire que le climat ne se réchauffent plus depuis 15 ans (même des pointures en maths avec des CV de folie) parce que la tendance n'est pas significative/15 ans ! Pour trouver la tendance la plus probable, mathématiquement, il suffit simplement d'élargir le nombre d'années pour le calcul et dans notre cas à partir de 16 ans, on a un réchauffement statistiquement significatif (attention significatif, ce n'est pas du 100 % certain, c'est le plus probable avec une confiance à 95%. Il faut voir que tout changement de tendance a commencé par des anomalies mensuelles stagnant ou descendant sur et sous de la dernière moyenne climatique, mais bon avec la variabilité/bruit de la T, quelqu'un avec l'esprit un peu scientifique, ne va pas s'emballer 95 fois/100 pour rien, il sait que dans 95% des cas ce ne sera pas un changement de tendance, il faut donc attendre confirmation avec un certain nombre d'années pour constater que ce n'était pas dû au bruit, mais tant que les anomalies mensuelles ne sont pas assez souvent inférieures ou égales à la dernière moyenne climatique/30 ans calculée chaque mois, c'est très simple de voir même pour un collégien, que ce n'est pas encore le cas actuellement. Starman, le contexte physique de l'évolution de la T n'a pas grand chose à voir avec l'évolution de la taille. Enfin il y a certains de tes copains en sortant du contexte, qui pensent même que la T évolue comme une marche aléatoire. Heureusement que des personnes compétentes nous informent sur ce type d'erreur de façon amusante : http://ourchangingcl...t-gain-problem/
  11. Les impressions à l'oeil n'ont aucun sens et aucune validité pour la mesure du vent fort, vu que l'impression visuelle dépend du bras de levier et de la taille des coupelles. Un moulinet réagit toujours largement assez rapidement dans le vent fort par rapport à sa constante de distance. Le moulinet de la Davis n'est pas trop lourd ou trop lent. Il est moins lourd que le MF qui n'a déjà pas de problèmes de constante et d'accélération pour mesurer les rafales en 0.5 s, d'autant plus dans le vent violent qui rend complètement négligeable la constante de bien plus lourds moulinets de montagne (en métal). J'ai déjà parlé de ce sujet dans ce forum. Le site de Ludo est loin d'être parmi les plus turbulents et le fait que les plus fortes rafales de la WS 3600 soient si systématiquement supérieures au Davis, indique, soit une différence de pas de mesure des rafales (plus fin sur la WS3600), soit un problème de conception du matériel chez Lacrosse, soit un ancien firmware Davis avec un vent toujours bloqué dans la direction où le Davis sous-estime les rafales > 64Km/h, vu qu'en dessous il les surestime le plus souvent hors très rares directions (enfin, même avec l'ancien firmware, des essais pro du Davis face à du matériel pro de réseau sur le terrain, ont montré une petite surestimation du vent moyen/ 30 mn par le Davis, j'avais d'ailleurs communiqué l'équation dans ce forum), soit une panne très particulière sur cet exemplaire Davis, mais bon je n'ai jamais entendu parlé de ce type de panne. Il faudrait que Ludo compare les vents moyens/10 mn des deux stations (ou d'autres durées selon le logiciel disponible, sans que le seuil de démarrage intervienne, donc dans des vents assez soutenus sans arrêts des moulinets pendant la durée moyenne choisie). Le vent moyen de la Davis V2 avec le bon firmware, est la référence relative, vu qu'à l'inverse de la WS3600, il a été testé rigoureusement par des pro. Il existe bien plusieurs anémo pro que MF a testés, qui surestiment le vent moyen autour de 30%, que ce soit en soufflerie ou sur le terrain. Ca signifie donc que des rafales max sont régulièrement biaisées de bien plus que +30% sur ces modèles, donc pourquoi pas un Lacrosse dont je doutais déjà largement des valeurs, suite à de trop fréquentes incohérences par rapport à des stations MF. Ludo, un problème de lubrification concerne le seuil de démarrage, il ne réduit pas la mesure du vent fort. Ce frottement augmente le seuil de démarrage, mais il est totalement négligeable à ces fortes vitesses (le couple à appliquer au démarrage est bien plus important que lorsque le moulinet est lancé). S'il avait un problème de friction plus important, ton anémo n'afficherait pratiquement jamais des 1.6 km/h en première valeur après un arrêt de 1 mn (ou plus), mais plutôt des 3.2 km/h et plus selon le niveau de frottement. Même avec des départs à partir de 10 km/h à 15 km/h, j'ai vu que ça ne nuisait toujours pas à la mesure des maxi dans le vent fort. Tu peux lubrifier ton anémo Davis sans risques avec du WD40 (y compris la Vantage Vue). Ici face à un moulinet pro type NRG40, archi testé dans le monde (très lent à l'oeil /emoticons/biggrin@2x.png 2x" width="20" height="20">, avec un mauvais seuil de démarrage, mais qui mesure assez régulièrement plus que les Davis (mais pas systématiquement) vu son pas de mesure plus fin que MF ), avec le Davis V1 ancien firmware mais bien orienté pour tenir compte du problème selon les directions fréquentes du vent fort ici et avec la V2 avec le nouveau firmware, les valeurs sont assez cohérentes. Par rapport à l'Ultimeter 800 quand il était en test au même niveau, le Davis enregistrait un vent moyen légèrement supérieur (rafales régulièrement plus fortes sur l'Ultimeter 800 avec son pas très fin. Pour info, maintenant l'Ultimeter 100, est la moins chère pour mesurer les rafales finement, elle est maintenant aussi équipé de l'anémo dit "pro" (ce qui n'était pas le cas à l'époque de mon achat), qui mesure sur bien moins que 0.5 s ) Je rappelle quand même que c'est MF qui n'est pas aux normes en mesurant les rafales max sur 0.5 s, la norme c'est 3 s (le 2.25s du Davis compense en partie le fait que Davis ne sorte pas une rafale sur 3 s toutes les 0.25 s). En France on pourrait battre le record mondial de rafales, du nb de jours de vent forts, avec du 0.5 s il ne serait pas homologué par l'OMM. C'est vrai que c'est particulièrement plaisant pour nous tous, de mesurer les rafales très finement, plus fortes, mais pour la climato et la météo, cette rafale n'est pas assez représentative (échelle trop fine sur 0.5 s, elle n'est représentative que sur 5 m, donnée MF, alors que sur 3s la rafale est à l'échelle d'un site météo (environ une centaine de mètres) Cette pratique de réduire l'échantillonnage pour coller un peu plus aux valeurs surestimées d'un ancien mauvais anémo, c'est aussi absurde que si de nos jours on utilisait un abri ventilé méca de qualité pour améliorer les mesures des Tx, mais qu'on modifiait l'échantillonnage pour déterminer les Tx, afin de les grossir artificiellement pour qu'elles collent un peu plus à celles surchauffées dans l'ancien mauvais abri de 1896 ! C'est exactement ce principe qu'applique MF avec du 0.5 s sur l'anémo ! S'il y a des valeurs à modifier artificiellement, ce sont celles de l'ancien mauvais anémo (bon on ne peut pas, car l'erreur est trop variable d'un anémo à l'autre, d'une station à l'autre, donc ça ne sert à rien vu qu'on est reparti à zéro en 1981), et non rendre invisibles celle relevées correctement sur 3 s à l'inverse de quelques trop rares synoptiques (Dans la climathèque je n'ai pas trouvé une seule radome dans le coin qui affiche aussi bien les rafales sur 3 s en plus du pas de 0.5 s) Pour info, voici la différence du nombre de jours de vent fort cet été pour 3 stations MF mesurant le vent sur un même et seul anémo, dont on échantillonne les valeurs sur 3 s et sur 0.5 s ( C'est la meilleure façon de voir objectivement la différence en fonction du pas de mesure, car même entre 2 anémo identiques, espacés de seulement quelques dizaines de cm, il existe régulièrement des écarts significatifs de rafales, d'autant plus avec des pas de mesures non synchronisés, comme c'est le cas chez nous, alors entre des modèles différents espacés...) : A noter une nouveauté importante chez Davis que j'ai remarquée en démontant complètement la Vantage Vue. Il se produit 2 contacts/ tour sur la Vue, normalement ça améliore la précision (sur l'anémo MF, on a des dizaines de contacts/tour), le système d'aimant fixé sur l'axe, qui n'est plus dans le moulinet, est plus lourd que sur les Vantage Pro.
  12. Voici 2 graphes assez parlants. En tenant compte de la durée moyenne de certaines oscillations, de la longueur de série disponible et de la T/30 ans : Tous sur 30 ans : L'échelle de T ne concerne que la courbe noire d'anomalie de T. Les autres courbes ont été déplacées arithmétiquement pour démarrer au même niveau que la T en 1880. L'importance des différentes oscillations ne donne pas une indication du poids sur la T et des unes par rapport aux autres. Certains paramètres ont été réduits ou augmentés pour une meilleure lisibilité. L'index PDO est divisé par 2 L'ENSO est multiplié par 2 Log2 CO2 est multiplié par 2 Les autres sont uniquement décalés. Pour la TSI, il faut bien voir qu' il n'y a que 0.66W/m2 de différence entre le maxi et le mini de la courbe jaune/30 ans (0.64W/m2 /33 ans). Si j'avais recalé la TSI de l'impact réel estimé par les spécialistes, on obtiendrait une ligne bien plus droite sans toutes les variations infimes rendues très visibles sur mon graphe (à l'inverse de ce graphe : http://www.skepticalscience.com/images/compare_pdo_temp_co2_solar.png) Pour ceux qui souhaitent s'amuser : Pour ajouter la fonction Loess à Excel : http://peltiertech.com/WordPress/loess-smoothing-in-excel/ Loess : http://en.wikipedia.org/wiki/Local_regression Les données que j'ai utilisées : PDO : ftp://eclipse.ncdc.noaa.gov/pub/ersstv3b/pdo/pdo.1854.latest.situ.v3b.ts AMO : http://www.esrl.noaa.gov/psd/data/correlation/amon.us.long.data ENSO : http://jisao.washington.edu/data_sets/globalsstenso/#digital_values TSI : http://lasp.colorado.edu/lisird/tss/historical_tsi.csv?&time=%3E1610-06-29&time%3C=2010-10-01 CO2 : http://www.earth-policy.org/datacenter/xls/indicator7_2010_7.xls ftp://ftp.cmdl.noaa.gov/ccg/co2/trends/co2_mm_mlo.txt Ano T : http://www.ncdc.noaa.gov/cmb-faq/anomalies.html
  13. Oui c'est clair que le Davis est très sensible à l'inclinaison du mât ( ou du bloc moulinet même si le mât est parfaitement droit, ce qui est courant), les rafales maxi du jour changent vraiment de façon significative ici pour de petites différences d'inclinaison, c'est pour cette raison que j'avais signalé il y a des années, l'importance de la mise à niveau d'un anémo Davis et quels niveaux vérifier. Si on incline les coupelles du Davis vers le ciel (même assez légèrement de moins de 5°) dans la direction d'où vient le vent, il surestime les rafales max du jour, mais il le sous-estime quand le vent vient de la direction opposée (Essais avec 2 anémo Davis, un penché volontairement de 5° vers le ciel dans la direction du Mistral et un autre penché dans le sens opposé de 5°, soit 10° d'écart entre les deux (mesure digitale du niveau), puis inversement pour vérifier que le changement de sens des valeurs, n'était pas dû à un biais de position des 2 anémo. Je suis persuadé qu'on pourra trouver d'autres écarts avec des Davis, du fait que mon site est turbulent et que le vent n'est vraiment pas horizontal avec les changements de terrain et d'obstacles. En regardant les exemples suivants vous allez voir le problème. J'ai lu quelques études à ce sujet. C'est très complexe, car contrairement à ce que je pensais en ayant le les résultats d'une comparaison MF (variation assez limpide selon le cosinus de l'angle), tous les anémo ne réagissent pas de la même façon à une inclinaison, de plus un même anémo ne réagit pas souvent de la même façon en soufflerie et sur le terrain, vu que le vent n'est pas aussi horizontal (surtout sur nos terrains en général pas très dégagés et/ou pas assez plat) on a aussi ce genre de truc de fou (le plus impressionnant ce sont les différences de courbes sur le terrain et en soufflerie pour un même anémo): Il faut aussi faire la distinction entre les anémo avec un moulinet suspendu (comme le Davis) avec ceux posés comme le MF ou le Maximum inc par exemple. Le Davis est très sensible à un mauvais niveau non seulement du mât, mais aussi du moulinet qui n'est pas souvent livré bien de niveau par rapport à la tige, elle-même pas toujours bien droite par rapport à la fixation qui va sur le mât (le bloc anémo/girou autour de la tige n'est pas toujours bien serré, il a souvent un petit jeu entre 2 points durs autour de la tige, qui fait qu'il peut basculer de quelques degrés pendant les manipulations, sans qu'on s'en aperçoive) En plus du mât, une fois fixé, je vérifie en haut le niveau du bloc moulinet, avec le mât bien droit (vérifié sur la flèche avec un fil à plomb). Selon l'exemplaire je suis parfois obligé de poser une cale en caoutchouc (quelques mm vers le haut de la fixation) et/ de modifier l'inclinaison du bloc en haut pour qu'il soit bien de niveau pour les vents de travers. Info : Dans la dernière mise à jour (fin 2009) de la classification de Michel Leroy proposée à l'OMM, les critères pour savoir si on peut corriger le vent moyen avec les obstacles, montrent bien que le critère de 10 fois la hauteur des obstacles, c'est le minimum syndical, ce n'est vraiment pas assez dégagé :
  14. Pour l'albédo moins important que les caractéristiques citées, ce n'est pas moi seul qui le dit, c'est écrit par Pierre Carrega. Elles sont si importantes qu'elles sont soulignées dans sa thèse. Dans la nature dans le SE avec les saletés, les poussières, je ne vois pas comment la nature peu donner un albédo plus fort que la neige, la glace la plus pure et qu'un sable très blanc, sauf dans des tests , à mesurer juste après une couche de peinture du meilleur réfléchissant ou en posant du papier alu , une couverture de survie, un miroir, neufs au sol. Donc pour rester dans le monde réel des terrains du SE l'été, on sait bien qu'il suffit d'ajouter de l''eau dans un sol relativement sombre, (albédo relativement faible du gazon vert sombre bien arrosé chaque soir ou matin par ex) pour le rendre plus froid l'AM qu'un sol naturel très blanc complétement sec, même si c'est certain que pour une même teneur d'eau pour les 2 sols, le sol blanc sera plus frais (si l'albédo avait l'avantage sur le terrain dans le SE l'été, le sol blanc sec resterait moins chaud que le gazon sombre humide). L'eau ce n'est qu'un des paramètres importants dans ce cas, avec les chaleurs spécifiques, les conductivités et autres, on a tout un panel de couleurs trompeuses (comme les roches sombres vers Fréjus qui ne sont pas aussi chaudes qu'on l'imagine juste avec leur couleur) Pour la mesure du goudron à 46° et les autres mesures à la fin de mon message, idem ce ne sont pas les miennes, elles sortent de son bouquin. Ces mesures ont été réalisées un début septembre (du 3 au 6 ). Ce ne sont pas les valeurs absolues prises à des moments bien différents dans des lieux bien différents dans des conditions différentes, qui nous permettent de voir les écarts entre les différentes surfaces. Les valeurs des surfaces sont à comparer avec celles des surfaces à peu près au même endroit avec un rayonnement solaire assez proche , avec la T de l'air, le vent, l'humidité du sol et de l'air dans ce secteur à ces moments-là (comme on ne compare pas des abris météo à x km dans telle autre région, avec les valeurs prises un mois sur l'un et celles dans un autre mois pour l'autre, afin de savoir si un abri est plus chaud qu'un autre) 46° en septembre pour une route au goudron normal à Vence, ça me paraît plus normal que la valeur qu'il a relevé un 24 juillet vers midi : 42° pour les pistes de l'aéro de Nice. Mais bon elles sont au bord de l'eau et la brise s'y lève tellement tôt, qu'en fait ce n'est pas si étonnant que ça. On ne le répètera jamais assez, la ventilation d'un site de mesure pour une T sous abri et encore plus pour une T de surface, est fondamentale pour le niveau des T (il suffit de voir la différence entre le sol de la classe 4 et de la classe 2 et il y a pire comme diff de T de surface à cause du vent, là ce n'était qu'une brise). Ici le goudron est plutôt gris, le plus proche au soleil est à plus de 500 m de la station. Pour les jours de très forte chaleur, il est moins chaud que le béton sombre hors sol, mais bon ici c'est la cambrousse, il est de très mauvaise qualité et n'est pas représentatif du goudron moyen des routes normales, des parking ou de celui proche des stations dans les aéro ( les avions se cracheraient sur ce goudron trop "gravillonnaire"). C'est certain qu'il y a des endroits plus abrités, avec des types de goudron dégoulinant, de mauvaise qualité, probablement bien plus chauds début juillet qu'à Vence début septembre (qui n'est déjà pas souvent très chaud en plein été, c'est un coin rapidement ventilé par la brise de mer), mais dans ce cas, pour que les surfaces aient reçue à peu près la même quantité de pluie les jours/mois précédents, il faut le comparer au terrain naturel sec à herbe clairsemée aussi peu ventilé, assez près de la route bouillante concernée, à ces moments-là, avec des paramètres météo assez proches. C'est certain que plus globalement par satellite en plein jour l'été, un immense terrain dégagé avec le goudron du circuit du Castellet, c'est plus chaud que les arbres et la végétation ou le calcaire blanc autour; les pistes de l'aéro de Nice sont même plus chaudes que les vieux quartier de Nice vu que les ombres alternativement portées dans les ruelles, compensent la T plus importante de toits abrités les plus surchauffés. Pour Carpentras, je ne comprends pas trop le problème, j'ai bien précisé que lorsque le sol était assez verdâtre (même sec pour être plus précis comme le montrent les mesures du gazon sec de PC) et/ou humide, le goudron ou le béton sont plus chauds. Donc de l'herbe verte assez serrée que ce soit le 15 mai ou le 15 juillet, c'est moins chaud que le goudron/béton, hors cas particuliers. De l'herbe verte à Carpentras, c'est signe que le sol a encore une dose d'humidité et de l'herbe sèche jaune ne prouve pas que le sol est assez sec pour que le goudron/béton devienne plus chaud que le sol de terre herbeux jaune, car on le sait l'albédo n'est pas le paramètre le plus important (Il suffit qu'il pleuve assez sur un sol sec grillé par l'été pour qu'il devienne plus frais un certain nombre de jours qui dépendra de l'ETP des jours suivants et des éventuels apports d'eau naturels ou non) Oui Dominique, j'ai réglé l'émissivité du thermo en fonction des surfaces.
  15. Comme mes réponses concernent plus la mesure et l'instrumentation, j'ai répondu ici :
  16. Pour répondre à quelques questions, je poursuis ici la discussion /index.php/topic/60100-climat-de-carpentras-tx-extremenent-chaudes-en-ete/page__view__findpost__p__1360420'>http://forums.infocl...ost__p__1360420 qui maintenant, concerne plus l'instrumentation et la mesure. Pour l'abri ventilé méca à chambre fermée nécessaire en montagne (ou en région avec un sol très souvent neigeux/glacé avec un soleil assez puissant), c'est à cause des erreurs de mesures qui peuvent être très importantes avec un fort albédo, quand le vent est trop faible avec certains abris à ventilation naturelle souvent trop "ouverts" malgré des doubles persiennes (trop de réflexions par les persiennes. Voir les liens dans ce message, /index.php/topic/60100-climat-de-carpentras-tx-extremenent-chaudes-en-ete/page__view__findpost__p__1362886'>http://forums.infocl...ost__p__1362886 pour ceux qui n'ont pas vu les erreurs de 15° sous abri normalisé ) TSRR %, pourcentage total de rayonnement solaire (ondes courtes) entrant dans l'abri ( = 0.5 x (pourcentage de rayonnement solaire global entrant dans l'abri + pourcentage de rayonnement solaire réfléchi par le sol entrant dans l'abri) selon l'horaire et la couleur de la surface du sol pour les abris plus bas (a = HO83 du réseau ASOS c'est le a ventilé méca à chambre fermée cylindre avec 3 parois ventilées avec lame d'air, b = CRS le Stevenson US, c = MMTS abri à coupelles à doubles persiennes, le Gill à coupelles à doubles persiennes, c'est exactement le même modèle que le Young dans la photo, http://meteo.besse83.../abrisdavos.png ) On remarquera que les abris "naturels" à coupelles sont trop lumineux par soleil rasant surtout avec un sol clair/réfléchissant. TSRR % dans les abris concernés en fonction de l'albédo : En fait aucun abri n'offre une ombre assez parfaite (il y fait encore trop jour, donc trop de W/m2, trop de chaleur pour un capteur sans vent qui est influencé par ce rayonnement non négligeable), mais dans l'ASOS à ventilation mécanique, la chambre fermée limite les dégâts et la ventilation méca permet d'évacuer ce surplus d'énergie. Vaisala a proposé une parade pour les abris sans chambres fermées, pour limiter les effets des réflexions sur la glace/neige ou sur un sol bien recouvert d'herbe/végétation verte (présente y compris en été), c'est de peindre en noir l'intérieur des coupelles : (Attention, ne pas réaliser cette modification en France en site non souvent neigeux à la belle saison pour les abris sans un un sol toujours bien recouvert de végétation verte, été comme hiver, car je n'ai encore trouvé aucun essai de coupelles à intérieur noir au-dessus d'un sol aride sec et bouillant. Il faut attendre les résultats de l'OMM. Pour le béton/goudron moins chaud en surface l'été que le sol naturel bien sec dans le SE, vers les heures les plus chaudes au soleil, il faut bien retenir que c'est uniquement par rapport à une terre vraiment assez sèche l'été (pas seulement sèche à vue d'oeil en surface) et surtout pas par rapport à un sol assez bien herbeux et verdâtre. Dans le SE l'été, l'herbe est tellement brûlée par le soleil qu'elle n'est même plus jaune, mais brune-grisâtre foncée et qu'elle laisse pas mal de zones de terre plus ou moins sombre. Ne pas oublier que l'ETP dans nos secteurs souvent ventés l'été par temps très chaud et très sec, n'a rien à voir avec celle souvent observée ailleurs en France, d'autant plus qu'il y a le plus souvent de longues périodes sans pluie l'été, même avec un été très pluvieux en quantité à cause du diluvien de juin dans le Var, le sol a été sec jusqu'à au moins 46 cm de profondeur depuis le 10 juillet jusqu'au 7 septembre. Sur les photos de Carpentras prises ce 1er mai là, avec de l'herbe encore verte, ce n'est vraiment pas le cas cette année-là, le sol est trop humide et vert, le béton/goudron dans ce cas est plus chaud. Enfin du moins pour le béton posé intégré au sol, ça dépend de l'épaisseur et si des produits d'étanchéité ont été inclus ou non dedans. Ici par exemple le béton du mât et des fixations des haubans est plus froid même quand le sol est humide comme actuellement, mais pas encore assez vert, car le béton est gris clair et il bois bien l'humidité du sol à l'inverse du béton étanche sur hourdis avec de l'air derrière, d'une dalle hors sol qui chauffe bien plus quand le sol est humide mais qui reste systématiquement moins chaude l'été au soleil que le sol naturel bien sec avec végétation carbonisée (voir mesures plus bas). Exemples de T des surfaces (bien sèche y compris en profondeur) sans vent des jours d'été en août avec très forte chaleur aux moments les plus chauds autour de midi solaire, relevées à l'aide d'un thermo à infrarouge (moyennes sur 10 minutes en se baladant sur la surface concernée) : Béton gris clair sur sol de terre très sèche : 49° Béton gris très foncé hors sol et sur hourdis : 53° (quand le sol est plus humide comme ces jours-ci, il y a plus de 10° d'écart entre les deux bétons) Sol de terre + herbe clairsemée et carbonisée site classe 2 (moyenne du site sur un rayon de 10 m) : 60° (50° avec une brise normale) Sol de terre + herbe clairsemée et brûlée station classe 4 : 70° (pointe instantanée à 79.2° sur une mini surface de terre sombre, c'est la plus forte température que j'ai enregistrée cet l'été sur des milliers de mesures de T de surface) T moy de la petite surface du sol juste sous le capteur à 10 cm du sol en classe 2 (herbe cramée courte de 5 cm et serrée) : 63° (pointe instantanée à 72°) Sable blanc d'ici entrant dans la composition du mortier : 46° (34° avec la brise) Gravier seul entrant dans la composition du béton (bonne épaisseur sur le sol) avec des couleurs variables, mais globalement pas particulièrement foncé : 62° ( 53° avec la brise) C'est la plus grosse surprise de mes essais, je pensais que ce gravier allait chauffer beaucoup moins, mais bon en fait c'est logique, car chaque élément du gravier ne peut transmettre la chaleur facilement aux autres et surtout pas vers les profondeurs du sol, la T de surface de chaque caillou au soleil peut donc monter bien plus que si chaque gravier était incrusté et en contact dans le sol avec juste les faces supérieures au soleil (voir remarque plus loin pour le calcaire en tas de pierre par rapport au calcaire posé et enfoncé dans la terre). Calcaire gris en site classe 2 : 46° Calcaire gris en site classe 4 : 54° (Le calcaire en tas de grosses pierres est plus chaud que le même calcaire de même couleur qui est bien intégré au sol de terre, car dans ce cas, le calcaire qui est bon conducteur évacue de la chaleur vers les profondeurs du sol, quand il a peu de contact avec lui, la chaleur s'accumule plus à la surface) Sol du sous-bois avec lierre à de 15/20 m de la station classe 4 : 26° Chêne au Sud (face du feuillage à l'ombre dirigée vers l'abri) : 30° Haie à l'W (face à l'ombre dirigée vers l'abri) : 32° Haie au Nord (face au soleil dirigée vers l'abri) : 40° Laitue vert clair et bien humide du jardin : 23° Espèce d'herbe verte à racine profonde résistant à la sécheresse très isolée, en classe 2 (les capteurs d'humidité du sol tous complétement secs, y compris celui à 46 cm de profondeur) : 33° Savane (herbe épaisse très sèche haute non coupée dans l'année, avec beaucoup de folle avoine) : 57° Savane coupée à 5 cm en laissant la coupe, donc de la paille au sol : 58° (mi-juillet la savane longue affichait 14° de moins que la savane coupée, car même en étant complétement jaune, elle a préservé plus longtemps un stock d'eau dans le sol et elle était bien moins sombre qu'en août) Toit de tuiles romanes plus ou moins rouges foncées, avec zones sombres et noires (T moyenne de tout mon toit) : 59° (T moy du toit par brise normale : 48°) Moyenne du versant le plus chaud SSE (tuiles rouges, foncées, avec pas mal de tâches noires) : 64° Tuile rouge sombre presque complètement noire (à cause d'un genre de champignons de tuile, très secs) sur le versant de toiture exposé SSE (c'est la tuile la plus chaude de mon toit) : 72° Tuiles romanes de couleurs décoratives (rose, beige clair à marron foncé) : 59° Tuiles bien rouges courantes versant pente NNW : 53° A noter que le toit même par vent calme vers midi solaire, reste toujours plus ventilé que la classe 4 et que la classe 2 , c'est uniquement pour cette raison qu'il n'est pas plus chaud que le sol naturel bien sec (en temps réel on voit que le moindre courant d'air fait baisser fortement la T de surface en arrachant plus facilement de la chaleur aux tuiles, que sur le sol massif qui lui stocke plus et qui est bien plus rugueux avec les herbes carbonisées qui coupent bien la ventilation dans la couche limite près de la terre sèche visible exposée au soleil, qui peut donc monter fortement en température). Autres précisions importantes pour la T de surface, mon toit n'a pas d'isolant directement contre les tuiles, il y a de l'air derrière, c'est le fond des combles qui est isolé avec de la laine de roche. La partie des tuiles de la zone isolée est plus chaude en surface le jour et plus froide la nuit que les parties de toit qui débordent sur des zones extérieures non isolées (l'avancée NNE du toit qui va s'appuyer sur un muret posé sur une restanque, capte le rayonnement de la chaleur accumulée par la restanque et le béton du sol). Le toit de tuile rouge la nuit ici par ciel clair et vent calme l'été, est un très bon producteur de froid, il refroidit extrêmement rapidement à la tombée de la nuit et il est plus froid que le sol de terre sèche nue sans herbe verte. Les tuiles sont en terre, fines, elles ne peuvent contenir un gros stock de chaleur, elles refroidissent très rapidement, mais elles s'échauffent plus vite le matin au soleil d'autant plus qu'au contraire d'un sol naturel, elles ne peuvent garder un stock d'eau, et dès que le sol est assez humide ou vert, le toit est plus chaud le jour au soleil. Enfin chaque toit pour de mêmes tuiles de même couleur une même pente, est un cas particulier, car la T de surface dépendra beaucoup de ce qu'il y a derrière ou contre les tuiles et des dégagements de ce toit (il y a bien plus ventilé que mon toit vu que la construction est situé une restanque plus bas et que je peux monter sur mon toit sans échelle en passant par la partie basse de la toiture située pratiquement au niveau du terrain supérieur où se trouve la station). Après une journée de plein soleil avec des Tx à plus de 35° dans les différents abris, après 21h avec un vent assez calme, juste après le coucher du soleil, le toit de tuile affichait 14° (pour la partie principale sur l'habitation isolée, la partie de toit non isolée qui surplombe du béton et la restanque, 16 à 17°) , c'est une espèce d'herbe bien verte encore présente en août uniquement à cause de la pluie exceptionnelle de juin, (les autres années il n'y en a pas) survivant à la sécheresse avec des racines profondes qui est la plus froide, 12° (surface occupée négligeable, en comptant toutes les herbes vertes dispersées et très isolées sur le terrain, il ne devait pas y avoir plus de 10 m 2 sur des milliers de m2) le sol de terre sombre nue est à 17°, le sable blanc à 13°, le gravier à 20°, le calcaire à 22° et le béton au sol à 23°, le béton hors sol à 25°, le mur WNW en pierres calcaires assez aérées est à 23° (mur dégagé bien exposé au soleil), le mur protégé du soleil toute la journée et donc du ciel nocturne est à 27°. Paradoxalement pendant les jours de très fortes chaleurs, les murs qui ont été abrités du soleil toute la journée par des canisses, restent plus chauds la nuit, y compris au lever du jour. La couverture limite trop les pertes d'énergie par IR et à partir d'un certain niveau de T de l'air la journée (non déterminé), le mur à l'ombre reste plus chaud que les autres toute la nuit. Le point fondamental à retenir, est donné par exemple dans la thèse de Pierre Carréga, Topoclimatologie et habitat, pour laquelle il a mesuré à échelle fine, par satellite, par avion et à pieds, des T de surface pour le 83 et le 06 : La capacité à s'échauffer de ces surfaces est d'autant plus forte que leur chaleur spécifique, leur conductance (dépend du rapport entre conductivité et capacité calorifique) et leur teneur en eau sont faibles. Ces caractéristiques sont plus importantes pour la T de surface que l'albédo. C'est pour cette raison par exemple, qu'un goudron pourtant noir, mais avec une forte chaleur spécifique et une bonne conductivité, s'échauffe moins en surface le jour au soleil (par rapport à un sol sec à végétation clairsemée assez sèche du SE l'été), car le goudron transmet et accumule la chaleur vers la profondeur ( mais il se refroidit moins la nuit, qu'un sol naturel, il restitue la chaleur la nuit). Début septembre à Vence, au radiomètre portatif il a relevé 60° pour le près ras sec avec herbe clairsemée, contre 46° pour le goudron de la route, 46° aussi pour le gravier blanc sec, 40° pour le gazon sec, 44° pour le près épais sec, 46° pour le sol nu.
  17. Il y a quelques années, avec Yohann (Cévenol13) j'avais visité la station MF de Carpentras. Ce n'est pas un bon site à cause du cloisonnement trop important en dehors des directions proches de l'ESE ( http://meteo.besse83...fix/carpentras/ ) au point que l'anémo est placé hors du parc à instruments pour justement capter la circulation d'air bien plus normale hors de ce cloisonnement artificiel. La station est classée 3 en T (officiellement), mais c'est une mauvaise classe 3 comparée à une classe 3 plus dégagée comme Orange (la classe 3 c'est vraiment le fourre tout, on y trouve de très bonnes stations dégagées avec quelques m2 de goudron en trop dans les 30 m qui concernent très peu les Tn dans certaines stations ou avec quelques ombres portées qui ne concernent pas les Tx, mais aussi de mauvaises stations trop fermées, trop pentues vers le Sud ou avec beaucoup plus d'ombres portées, etc...) Il n'y a pas de problèmes de sol pour les Tx l'été, vu que dans le SE, la végétation est souvent carbonisée par le soleil et par la sécheresse de l'été et qu'elle est donc bien représentative du secteur. Le béton présent n'est pas gênant pour les Tx de l'été, il est moins chaud en journée d'été que la terre sèche + herbe clairsemée (le goudron ou le béton accumulent la chaleur plus en profondeur dans le sol pour la restituer la nuit et biaise donc les Tn) (Pour le sol, il faudrait d'abord s'occuper des abris des stations de montagne avec de la neige ou de la glace présente assez tard dans le printemps (il faudrait obligatoirement des abris à ventilation méca vu le niveau des erreurs), qui peuvent surchauffer beaucoup plus qu'au dessus d'un sol sec surchauffé. Un exemple de cas extrêmes > 15° d'erreur (!!) sous abri normalisé à cause de l'albédo de la glace ou de la neige donc avec un sol pourtant froid, dans une comparaison de ces 3 abris à ventilation naturelle, dont un Young très connu et répandu dans le monde pro, http://meteo.besse83.../abrisdavos.png , par rapport à un abri Thygan ventilé méca. Les écarts selon le rayonnement solaire: http://meteo.besse83...entiledavos.png et dans le temps avec le vent en plus du rayonnement : http://meteo.besse83...tiledavos2.png. Sans abri ventilé à chambre fermée (donc éviter le modèle à kit de ventilation diurne de Davis pas très loin du mur ensoleillé d'une construction blanche par ex), l'albédo important et supplémentaire avec des parois verticales réfléchissantes, est aussi une source d'erreurs importantes.) La station de Carpentras Latapy est à seulement quelques centaines de mètres dans des champs au NW de celle de MF. C'est elle qui relève les Tx de qualité qui sont représentatives du secteur. Avec cette topographie simple et assez plate, si le site de Carpentras MF était de qualité synoptique, il aurait affiché à peu près les mêmes moyennes Tx mensuelles que Latapy (dans l'absolu avec un très léger surplus de quelques centièmes de °C pour les Tx moyennes de Latapy vu la faible différence d'altitude, ceci dans un site qui serait strictement comparable) C'est juste un effet de site artificiellement fermé qui fait que l'on considère à tort, que Carpentras est plus chaude en Tx l'été, que bien d'autres stations du SE mieux installées. Les Tx de 2003 : De tels écarts pour quelques centaines de mètres sans différences significatives de topographie, ce n'est vraiment pas un signe de qualité.
  18. J'ai déplacé la Vue modifiée (fond blanc + 2 m du sol) en classe 2 pour vérifier son comportement avec une meilleure ventilation naturelle près du Stevenson MF (le modèle réduit). Pour le moment elle est correcte, que ce soit par Mistral violent ou par brise habituelle. (sur une journée de brise classique l'écart dans 95% des relevés minutes : [-0.3°; 0.5°] ) La hauteur de 2 m n'a pas empêché la Vue de relever des Tn un peu plus basses par conditions radiatives humides ou sèches (ex : 8.1° hier matin et 5.7° avant-hier pour la Vue, contre 8.4° et 5.9° dans le Stevenson. Cette Tn record est particulièrement froide pour un 1er septembre ici. A un jour près, ce serait le record de Tnn d'août sur au moins 64 ans. Même pendant la première quinzaine de septembre, ça n'est jamais arrivé dans le secteur sur au moins 64 ans, il faut attendre un 16 septembre pour relever une Tn journalière assez proche et plus froide) Oui, avec cette modification et selon l'avis des autres techniciens (je ne suis pas dispo ces temps-ci pour participer aux discussions) on pourrait intégrer les stations Vue dans StatIC, au moins pour les stations sur les toitures souvent plus ventilées qu'au sol et dans les sites bien dégagés. Au sol, il faudrait des conditions minimales un peu plus dégagées que pour une station équipée d'un abri plus correct où on demande déjà 2 m pour compenser en partie les problèmes d'une classe 3 un peu cloisonnée (par exemple). Pour la Vue plus sensible au manque de ventilation, il ne faudrait vraiment rien d'autre dans les 10 m que la végétation de moins de 25 cm, avec un sol plat ou convexe qui ne limitera pas le mouvement de l'air ( une distance mini de 4 fois la hauteur des obstacles de plus de 10° de largeur, situés à plus de 10 m et à moins de 100 m). Je n'ai pas vu encore de tests de l'abri de la mini station sonique Vaisala par rapport à un abri aux caractéristiques connues, donc je ne sais pas si ce petit abri est assez correct. Mais bon le fait qu'il n'ait pas été choisi dans la dernière comparaison OMM dont les résultats devraient sortir à la fin de l'année, ce n'est pas bon signe (Aucun très petit abri testé par les pro dans d'autres essais, n'a été jugé assez efficace. Il y a d'abord une sélection au niveau national. Ils ne s'amusent pas à proposerun abri Cimel au niveau international, déjà disqualifié dans au moins un pays) Ils ont testé un autre modèle d'abri Vaisala, à coupelles bien plus grandes qui avait été assez bon dans les essais de la DSO à Trappes mais avec un sol herbeux bien vert, humide et parfait l'été pas fameux pendant ces essais et donc avec un environnement beaucoup moins chaud que dans le SE et que pendant les essais OMM en Algérie. Pour la peinture, comme indiqué dans un précédent message, j'ai recouvert le fond de 2 couches de peinture blanche pour mobilier de jardin en plastique (chez Castorama ou Leroy Merlin)
  19. J'ai enfin une petite disponibilité pour vous communiquer la suite des résultats de la comparaison de la Davis Vue par rapport à l'abri MF + capteur Davis. J'ai aussi réalisé quelques modifications pour améliorer assez nettement la mesure des T diurnes chaudes de l'été. Un exemple de mois chaud complet : Les erreurs sur les valeurs finales des Tx sont plus faibles avec le Mistral, le vent d'Est (direction dégagée pour la classe 4), ou sous des passages nuageux fréquents qui abrègent les Tx. Les écarts les plus importants ont été relevés sous le même type de vent que pendant l'été 2003, avec une brise de mer moins soutenue qu'habituellement. Ces écarts importants sont probablement plus faibles que ceux qu'on pourrait observer dans un mois de juillet 2003 ou 2006, à cause de l'anormalité (pour un mois de juin ici), de l'humidité du sol et de la végétation/forêt du site, suite à l'épisode diluvien et du cumul de juin 2010 jamais vu dans le Var depuis le début des mesures (même dans les plus anciens relevés d'avant 1900). La T de surface du sol et de la végétation a été très anormalement faible pour un début juillet ici (autour de 10 à 15° de moins) On remarquera l'effet de seuil important pour les Tx >= 35°. Beaucoup de valeurs autour de 34° ont été relevées dans l'abri MF, donc même avec des écarts peu importants, ça suffit pour biaiser fortement le nb de jours de Tx >= 35°. Les petites erreurs ne sont pas négligeables pour la climato quand les valeurs finales sont proches d'un seuil concerné ! Ici la Txx du mois se produit souvent par Mistral, donc la Txx n'est pas trop faussée, mais dans d'autres secteurs en France, les Txx arrivent plutôt avec un vent bien plus faible. J'ai regardé de près les températures de surface avec ce thermo à infrarouge http://www.conrad.fr...ywords&ns_fee=0 vers l'horaire des Tx dans les très fortes chaleurs. J'ai relevé autour de 8° d'écart entre le fond noir (pour les parties noires à l'ombre) de la Vue et le fond blanc de l'abri Vue et le fond blanc du Socrima (Par exemple un peu plus de 50° pour le fond noir contre 42° pour les fonds de ces 2 abris blancs. Le sol de terre sèche + herbe très clairsemée et cramée, tournait dans les 70°, dans les 50° pour les petits tas de roches calcaires très proches (le calcaire d'ici réchauffe les T nocturnes, mais il refroidit les Tx par rapport au sol sec), avec un air dans l'abri MF autour de 35 à 36°. Les coupelles blanches au soleil de la Vue et du Socrima MF ont "les mêmes" températures (à quelques dixièmes près, c'est un écart négligeable pour cette mesure IR) Les résultats sont suffisants pour voir le problème dans les fortes chaleurs, j'ai arrêté la comparaison avec le fond noir le 7/08. Pour tenter de corriger le problème de la Vue, pour le 8/08 j'ai repeint en blanc tout le fond noir ainsi que la girouette et la base du capteur de T//HR de la Vue (il ne reste plus rien de noir ou de sombre en dehors du moulinet, de l'inscription Davis et du panneau solaire). La T de surface de ce nouveau fond blanc, sans vent au moment le plus chaud avec des T à plus de 35°, n'a plus qu'autour de 1° d'écart (rarement près de 2°) avec le fond des abris blancs. L'écart résiduel est très probablement dû au fait que l'ensemble de la Vue est assez fermé. Ce boîtier est bien plus hermétique qu'un abri météo, il accumule et retient plus de chaleur que les coupelles aérées des abris blancs. Suite à différents essais à 1.5 m, la meilleure amélioration de la mesure de la T est obtenue avec la Vue repeinte en blanc et placée à 2 m du sol (au lieu de 1.5 m). Ecart typique avant la modification, donc avec le fond noir dans une journée d'été de 24 h avec des T très chaudes, [-0.2°; 1.7°] (95%) : Après la modification (à 2 m du sol + fond blanc) : L'écart est bien réduit et il est plus équilibré [-0.4°; 0.6°] (95%) En réalité le problème de la T Vue vient surtout du fait que le capteur n'est pas vraiment isolé dans un abri bien indépendant du fond noir du boîtier de cet ensemble. A l'inverse d'un véritable abri indépendant, (comme sur la Vantage 2 avec le capteur bien à part, isolé par un toit blanc + un isolant + une lame d'air entre le fond noir du pluvio et ce toit blanc + une bonne lame d'air entre le capteur, ce toit blanc et l'isolant) dans la Vue, l'abri n'a pas de toit, il n'y a pas de coupelle blanche supérieure fermée, le capteur fait corps avec le fond noir, il le prolonge, il n'y a pas de lame d'air entre le capteur et le fond noir (le capteur derrière le filtre est noir aussi, il absorbe plus la chaleur par rayonnement qu'un capteur inox brillant comme le Hobo, ça ne pardonne pas dans un abri insuffisant). Il y a conduction de chaleur du plastique noir de l'ensemble contre la base du capteur. J'ai aussi effectué des essais avec un Hobo quand le fond était noir. Je l'avais d'abord placé dans le Socrima pour vérifier l'écart par rapport au capteur Davis dans le Socrima. Pas de problèmes, avec une bonne synchronisation et le même échantillonnage, la précision est même conforme à ce que demande MF (voir Hobo - Davis dans Socrima) : J'ai déplacé ensuite ce Hobo dans l'abri de la Vue, de façon à ce que l'élément sensible en inox soit assez bas dans l'abri et qu'il ne soit pas en contact avec le fond noir de la Vue. On remarquera que par rapport au Hobo, là aussi l'écart de la Vue est très correct la nuit sans rayonnement solaire, ce qui n'est plus du tout le cas quand on intègre aussi les T diurnes. On notera aussi que l'écart est bien plus important entre le Hobo dans la Vue/ au capteur de la Vue, qu'entre le Hobo dans la Vue / au Davis dans le Socrima, ce qui montre qu'il y a un problème de conception de l'abri et/ou d'emplacement du capteur. Ecart de [-0.3°; 0.6°] avec le Hobo + abri Vue / au Davis + Socrima, l'inox brillant bien moins sensible au rayonnement et sans soucis de conduction dans ce cas, donne pratiquement les mêmes résultats que la modification que j'ai effectuée sur la Vue ( écart [-0.4°; 0.6°] obtenu avec la modif de la Vue) J'ai poussé cette station dans ses retranchements pour les rayonnements forts observés en France, pour tenter de mettre en évidence les écarts qu'on peut rencontrer dans des coins pas assez bien ventés vers les Tx pendant des canicules, ou en temps normal souvent sans assez de vent à 1.5 m dans l'intérieur en saison chaude comme par exemple à Carpentras. Avec ce fond noir, on pourra récolter de plus grosses erreurs dans un site moins évapotranspirant, avec des obstacles verticaux bien plus chauds que les arbustes et la forêt d'ici surtout par rapport à juin et juillet 2010 ici ! Il est aussi clair qu'en plaçant la station bien plus au vent, les erreurs seront moindres, mais la modification est indispensable même en Bretagne où le sol et le temps sont pourtant souvent plus humides l'été, pour éviter des erreurs qui se produiront obligatoirement dans les extrêmes pendant des canicules du type de 2003 ou de juillet 2006, où le vent est souvent faible à 1.5 m au moment des Tx avec un sol sec même dans des secteurs plus habituellement humides et ventés. Un fond noir exposé au rayonnement extérieur, qui s'étend jusqu'au capteur non isolé dans un abri indépendant, c'est une erreur de conception étonnante de la part de Davis. Enfin en attendant qu'ils modifient cette aberration, ce n'est pas compliqué d'appliquer cette simple modification (peinture blanche sur toutes les parties noires + placer la station à 2 m du sol) pour obtenir une assez bonne mesure de T qui offre à cette station un bon rapport qualité/ prix pour ceux qui n'ont pas la possibilité de déporter l'anémo sur un mât de 10 m ou autre. Bien repeinte en blanc, elle devient une très une bonne station de toiture à 2 m au-dessus de la faîtière pour ceux qui ne disposent pas d'un assez bon site au sol (Pour cette station, il vaut mieux éviter les sites >= classes 3 cloisonnés avec des obstacles significatifs en largeur à moins de 4 fois la hauteur des obstacles) Cet hiver j'analyserai l'impact de la modification sur les Tn en site plus ventilé en classe 2 (pour le moment en classe 4 la modification semble faire baisser un peu les Tn de -0.1°, mais le nb d'échantillons n'est vraiment pas encore assez significatif) et je vérifierai si la modification est aussi efficace dans les mêmes rayonnements solaires que fin juin et début juillet où les écarts ont été les plus importants (En août le rayonnement solaire est du même niveau que celui d'avril, mais l'effet de sol sec et chaud est par contre bien présent en août, il est très différent de celui d'avril). L'idéal pour tester la modification est de cumuler l'effet d'un site très sec avec un rayonnement solaire maximal de fin juin/début juillet.
  20. Voici la station des Arcs que j'avais visitée en février 2008 : http://meteo.besse83...%20arcs%20agro/ (position de la station au bout de la flèche rouge sur la carte 3D, en bas à gauche se trouve Taradeau où la station Davis de Daniel est bloquée depuis l'AM du 15 avec un gros cumul assez tôt: http://pagesperso-or...donneedavis.htm ) Un SPIEA aurait probablement capté plus de 400 mm aux Arcs, vu que normalement ce type de station n'intègre pas de programme de correction en fonction de l'intensité. Salut Janek, oui je me rappelle très bien /emoticons/biggrin@2x.png 2x" width="20" height="20"> Pour des relevés minutes sur Draguignan, tu peux toujours demander au propriétaire de la station Davis : http://meteodraguignan.free.fr/ http://meteodraguign...ts-mensuels.php
  21. 35.2 mm de plus à Besse cette nuit avec une intensité instantanée maxi de 230 mm/h, 2.4 mm/1 mn. La normale/30 ans de juin à Besse est de 30.2 mm, le record mensuel était de 118.1 mm en 1997 (254 mm pour le moment)
  22. 242 mm à Figanières agro 216 mm à Besse agro à 4 km au SSW d'ici (217.9 mm) (Pendant le dernier épisode diluvien dans le secteur, bien plus limité, Besse agro avait capté 203 mm pendant que je n'en relevais que 94 mm) 186 mm à Hyères agro 173 mm à Cuers agro L'Issole n'a pas débordé dans le secteur, le bassin versant plus à l'ouest, n'a pas ramassé grand chose par rapport à l'Est et le sol était très sec (plus d'un mois sans pluies significatives)
  23. 217.9 mm/24h à Besse sur Issole (SPIEA) 211.4 mm dans le Précis Mécanique 210.2 mm dans le Vantage Pro 210.6 mm dans le Monitor2 221.4 mm dans le Vantage Vue décalé de 30 à 35 m mètres par rapport aux autres pluvio. 291 mm dans la station MF de Vidauban dans les Maures.
  24. 188 mm c'est depuis 6h TU, les relevés communiqués par Yohann sont sur 24h, je viens de passer la barre des 200 mm (SPIEA) en 18h (ancien record 130 mm/24h tombés doucement). Intensité maxi 360 mm/h, 3.6 mm/ 1 mn. Vidauban : 196 mm Le Luc a probablement explosé aussi son record tous mois confondus depuis 1946, mais il manque 2 relevés horaires avec pluie abondante. C'est possible que ce soit l'épisode diluvien le plus important dans le Var tous mois confondus depuis le début des mesures.
  25. Mise à jour d'un document précédent : http://data.giss.nasa.gov/gistemp/paper/gistemp2010_draft0601.pdf Discussion : http://www.columbia.edu/~jeh1/mailings/2010/20100601_TemperaturePaper.pdf
×
×
  • Créer...