Jump to content
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

ChristianP

Adhérent Infoclimat
  • Content Count

    2860
  • Joined

  • Last visited

  • Days Won

    1

Everything posted by ChristianP

  1. Pas obligatoirement CP3. Ca m'étonnerait que l'ENSO soit indépendante du RC de fond, il faut bien que la chaleur accumulée dans l'océan ressorte d'une façon ou d'une autre et donc aussi par là, vu que rien n'est étanche. Ca dépendra du niveau de dépendance, du genre de changement (c'est certain que si elle reste bloquée en phase éternelle ENSO XL...) et de la vitesse du changement pour la période analysée et si l'indice n'est pas corrigé en conséquence. Une dérive lente positive de l'ENSO même indétectable avec les stats, se retrouvera dans le signal de fond du RC, confondue avec le RC dont il sera une composante par réchauffement de et par l'ENSO. Au final on le verra dans la résultante du RC sur le fond, qui déviera des rails actuel. Si les pics d'ENSO sont plus forts, ils vont faire sortir les anomalies des IP par rapport à avant. Les IP sont identiques dans le réchauffement avant 1945 sans ce surplus de pics sur 35 ans que tu indiques. On verra comme pour l'AMO influencée par le réchauffement, une corrélation avec le réchauffement de fond, dopée artificiellement si l'indice n'a pas été assez nettoyé de l'influence du réchauffement. Enfin bon Tamino regarde si l'indice de l'ENSO ne contient pas de signal capable de biaiser le poids de l'ENSO et donc l'analyse. Une influence bien réelle mais insignifiante pour la période n'est pas importante pour l'analyse. Aucune idée Nanuq de l'avenir de ces oscillations lentes connues imprévisibles, je suis totalement incapable avec ces oscillations pas modélisables par les stats, car irrégulières, c'est du domaine de la physique. De plus je ne les suis plus de près en sachant que le forçage anthropique qui augmente jour après jour les rend de plus en plus secondaires, car elles sont/seront de moins en moins capables de masquer visuellement le RC de fond. On le voit à la courbe du LOESS sur 60 ans qui correspond à la pente linéaire du RC moderne alors qu'avant ce n'était pas le cas. La physique attribue déjà la totalité la pente moderne actuelle au RCA. Il n'y a que les bruits puissants d'action assez rapide (en dehors d'oscillations inconnues de très longues périodes, peu probables, mais bon scientifiquement on ne peut pas dire que c'est totalement impossible) qui peuvent masquer temporairement le fond (ENSO (liée à la PDO), volcans assez puissants, soleil très fatigué longtemps). Je ne rentre pas dans le bruit mineur parce qu'une fois qu'on voit qu'il n'y a pas de tendance ni d'amplitudes efficaces, avec les stats ça ne sert à rien, vu que ce n'est pas significatif pour le fond. En 2009 je m'étais amusé à utiliser les oscillations visibles (non significatives de leur existence pour les stats, et oui sans assez d'échantillons des oscillations, on ne peut pas dire qu'elles existent pour le fond, car le bruit aléatoire avec l'auto-corrélation, génère par hasard ce même genre d'oscillations et donc il faut un paquet de données pour démontrer que c'est autre chose que le hasard) dans les données pour les propager dans le futur avec le RC de fond avec les prévis d'AMO et autres, basses. Vers 2037 ça donnait une anomalie de 0.88° +-0.16°, donc tu vois assez improbable dans les modèles. C'est ce qu'un physicien appellera justement de la cyclomania, de la non-science, car il n'y a aucune physique derrière pour avoir le droit de propager un tel signal (qui même s'il colle sur des périodes de l'AMO, ou autres, ne prouve pas que c'est l'AMO qui l'a généré, car le hasard génère plein d'oscillations tombant bien parfois sur des paramètres utiles) parce qu'on voit des oscillations dans les données passées. Là je peux propager une droite linéaire un certain temps pour détecter les sorties de route, et aussi pour voir un peu plus loin, parce que les modèles indiquent qu'en général en moyenne ça l'est jusqu'aux environs de 2050, ce ne serait pas conforme à la physique de le faire ensuite.
  2. Je le sais bien que les modèles sont imparfaits et d'ailleurs en réalité les IC des modèles sont environ 2 fois plus grands que ceux diffusés dans les graphes de toutes les courbes (Aussi d'après Victor Vennema statisticien de haut niveau et spécialiste de l'homogénéisation), car ils n'intègrent pas les incertitudes spécifiques autour de chaque run/modèle. Les IC présentés sont basés sur les valeurs centrales de chaque run/modèle. Ca signifie qu'en fait il y a pire côté chaud, mais aussi côté froid et c'est ce côté froid que tu ne peux/veux discerner, car tu le zappes comme si l'incertitude des modèles se situaient qu'entre le centre des modèles et au-delà de l'IC supérieur côté chaud. Ton problème c'est que tu as un très fort biais chaud pour ne plus parvenir à voir les IC inférieurs qui ont pourtant la même proba en termes physiques que l'exemple de tes 1% . Et oui, s'ils peuvent rater des éléments qui produisent plus de chaleur que prévu, ce que les IC montrent aussi, c'est qu'ils ont la même probabilité de rater des rétroactions négatives et autres bricoles compensant ce sur quoi tu te fixes. On ne peut pas être objectif en zappant les probabilités physiques équivalentes à tes 1%, où la réalité peut-être plus froide que la prévision des modèles, donc le plus sensé, c'est de s'en tenir au centre en attendant que les spécialistes affinent. Au fil du temps, le fait est qu'on a plutôt corrigé des biais chauds dans les modèles. La dernière prévis à court-terme dans l'AR5 est d'ailleurs plus faible que la prévis des projections à plus long-terme de ce même AR5 elles-même plus froides que l'AR4. Donc tu vois, les physiciens trouvent sans cesse des bricoles avec les obs et les progrés, qui compensent ce qu'annoncent les catastrophistes bloqués sur les IC supérieurs et plus, comme si la probabilité inverse n'existait pas pour eux. Les faits montrent qu'actuellement que d'un AR à l'autre, les prévis ont été recalées plutôt à la baisse et non dans ton sens. Tu as un biais de sélection (tu ne vois que ce qui peut produire plus de chaleur que prévu), c'est très humain, ça se corrige en y pensant un maximum.
  3. Et non Th38, les anomalies sont bien tombées et décembre 2016 est pile sur la tendance centrale du RC donc en situation neutre de l'ENSO : 0.00 , on ne peut guère faire plus parfait. Et oui l'oeil est très trompeur, d'où l'intérêt des calculs ! Je le dis et le répète, les données montrent sans l'ombre d'un doute que nous sommes simplement revenus avec 2015 et 2016 au niveau où nous devrions être pour la tendance de fond au RC sur 70- 98 sans aucune accélération (il en manque même encore un peu, 3 centièmes/déc pour GISS avec les dernières données corrigées, alors que ce n'était pas le cas avant). Juin était même un peu négatif par rapport au RC de fond, mais bon normal car il y a d'autres bruits encore plus météo qui jouent ponctuellement à cette échelle mensuelle si fine. C'est novembre qui était au-dessus, mais c'est très normal même sans ENSO, d'autant plus que le lag le plus efficace pour l'influence de l'ENSO se situe de +3 à +6 mois selon les modèles (Pour celui de Tamino c'est + 3 mois il me semble de mémoire) et la décroissance ne se fait pas brutalement, mais progressivement, il y a une inertie + du bruit météo et autres qui jouent obligatoirement, qui font que c'est aléatoire visuellement dans une certaine marge et que c'est aussi par hasard que décembre se retrouve aussi pile sur le RC de fond, comme il aurait pu être un peu au-dessus ou en-dessous. Ce n'est pas la peine de s'occuper d'anomalies mensuelles en dessous de +-0.14° autour du fond du RC pour y voir quelque chose de spécial pour GISS si elles ne sont pas trop fréquentes à ces niveau maxi. C'est normal de chez normal pour une situation neutre que les anomalies se baladent entre ces bornes. On remarquera que la plus grande partie de 2015 n'est vraiment pas très chaude relative au RC de fond et que l'ENSO ressort qu'à partir octobre 2015. On le voit clairement en retirant le signal moyen de fond sur 1970-2016 de GISS . Depuis mai 2016 on voit bien le net changement et il ne reste probablement que l'inertie qui maintient encore le plus souvent la T un peu au-dessus du RC de fond: janv-15 0,04 févr-15 0,09 mars-15 0,12 avr-15 -0,04 mai-15 0,00 juin-15 0,00 juil-15 -0,07 août-15 0,00 sept-15 0,02 oct-15 0,27 nov-15 0,25 déc-15 0,32 janv-16 0,38 févr-16 0,56 mars-16 0,51 avr-16 0,29 mai-16 0,13 juin-16 -0,04 juil-16 0,03 août-16 0,18 sept-16 0,07 oct-16 0,08 nov-16 0,12 déc-16 0,00
  4. Yoann44, je n'ai eu aucune intension de te taquiner, donc inutile d'interpréter ce que je dis pour ne pas imaginer n'importe quoi. Je suis direct. Si tu as un doute, tu passes par MP. Oui c'est cela, mdr, des œillères "statistiques", alors il faudra que tu sortes la tête du sable, vu que j'ai pris la peine de sortir des comparaisons aussi avec les modèles PHYSIQUES qui montrent que la valeur 2016 ne fait que revenir au centre des prévis PHYSIQUES (qui elles envoient des records annuels bien plus élevés que les stats pour la période, mais bon ça tu le zappes), malgré un Nino puissant (Lui aussi bien physique et qui n'est pas nouveau. Ils existaient aussi avant le RC et dans certaines reconstructions on en voit même de plus puissants) qui donc indique qu'il a fallu toute la bonne force de cette variabilité interne habituelle en + du RC, pour revenir simplement au centre des courbes physiques. Donc par définition mon analyse n'est pas que statistique vu que le fil rouge quand j'utilise les stats, c'est les modèles qui sont les seules prévis scientifiquement et physiquement assez solidement établies, mais surtout prévues pour cerner l'évolution de moyennes sur 20 /30 ans qui elles aussi sont en retard sur les modèles et qui le resteront si la pente n'augmente pas plus sur le fond (ni les modèles pour le moment du moins, ni les stats, jamais, ne peuvent prévoir l'évolution à si court-terme pour permettre de savoir si le rattrapage va continuer ou pas d'ici 2025 par ex). 2016 est plus rare pour les stats que pour les modèles pour l'année concernée, mais ce record est aussi dans les bornes statistiques de la variabilité interne pas bien cernée au niveau timing et fréquence par les modèles. Ils ne voient vraiment pas la même probabilité d'un plateau de record stagnant sur 15 ans par ex après un record comme 98, pas plus qu'actuellement après 2016 alors que les modèles donnent bien une évolution linéaire en moyenne sur le fond jusque vers environ 2050, donc aucune raison de ne pas s'appuyer dessus pour détecter des vrais indices de sorties de route par rapport à ce que nous dit la physique. Donc absolument aucun indice physique comme statistique, que la T globale de l'air soit sortie de ce que nous dit la physique qui est synthétisée au mieux de ce que sait faire la science actuellement, par les modèles qui prennent en compte l'amplification polaire et l'action de la vapeur d'eau en plus. Il n'y a vraiment pas besoin d'attendre d'autres données pour constater que 2015 et 2016 ne sont pas exceptionnelles dans les modèles à la même date, ni pour les stats, à cause de l'ENSO, vu qu'on a déjà de quoi les comparer ! Sinon ça s'appelle de la négation de la réalité en refusant de voir que la valeur de 2016 n'est qu'au milieu des modèles malgré le Nino puissant et que lorsque l'on réduit l'anomalie de la valeur de l'influence de l'ENSO, le record est bien plus modeste et totalement conforme à la tendance centrale identique calculée jusqu'à fin 98, qui est celle pour l'état moyen pour un bruit neutre, un ENSO neutre. On voit encore ici, chez les spécialistes anglais, à nouveau très bien le rattrapage par rapport aux ex prévis et non une sortie de route, dans les nouvelles prévis physiques à court-terme. Il n'y a rien qui sorte des bornes et on était bien en dessous de la prévis cible rouge précédente pendant un bon moment avant ce simple rattrapage (donc malgré l' initialisation avec les obs). Ce sera très intéressant de voir comment évolue la courbe réelle par rapport aux prévis bleues (la meilleure proba physiquement, c'est le centre du bleu). http://www.metoffice.gov.uk/research/climate/seasonal-to-decadal/long-range/decadal-fc Le rattrapage se fait donc aussi bien statistiquement que sur des bases physiques. Il n'y a rien d'exceptionnel pour ces valeurs dans les deux cas. 2015 et 2016 ne sont pas qu'un morceau du signal de fond, c'est le bruit (l'ENSO et autres bricoles moins importantes) + le RC de fond, que cherche à prévoir avec le bon timing le modèle expérimental plus haut et donc nous ne sortons même pas de l'IC supérieur à 90% des prévis, encore moins de l'IC 95% non communiqué ici, car les prévis sont trop incertaines. La courbe a été au contraire un bon moment dessous l'IC inférieur à 90% et heureusement que 2015 et 2016 sont venues pour compenser. Merci à l'ENSO XXL d'avoir simplement stoppé les sueurs froides des physiciens travaillant sur le bruit en pensant bien avoir cerné le fond. Pour la plupart des spécialistes, le fond est assez bien vu et ce sont les variations internes au climat,donc celles à court terme dans lesquelles beaucoup se noient, celles logiquement pas vues par les modèles, le problème principal à régler pour comprendre et prévoir ces mini variations de 1 à 20-30 ans afin d'arrêter une fois pour tout de voir le fond s'accélérer ou ralentir faussement toutes les 5 minutes, sans en tenir compte. http://www.climate-lab-book.ac.uk/2016/making-sense/#comment-2037 2016 (comme d'autres records précédents) est bien entendu tout à fait exceptionnel dans l'absolu des mesures "modernes" depuis 1850 (et bien avant probablement, mais bon, les modèles ne sont pas faits pour reconstituer des records annuels, mais des moyennes/20-30 ans, donc ce n'est pas du tout certain sans disposer des relevés précis) en tant que record absolu annuel et / 12 mois glissants à l'instant t à cause l'ENSO + RC le plus important (le RC sans ENSO XXL aurait fini par sortir cette valeur, alors que l'ENSO XXL sans RC n'aurait jamais généré ce record). Mais il ne l'est pas dans le contexte actuel du RC de fond, car il est déjà virtuellement battu à cause de la tendance, même sans accélération prochaine sur le fond et il est parfaitement conforme et plutôt bien moyen en 2016 par rapport aux records des prévis physiques du même instant, sans accélération en général avant autour de 2050. C'est en ça qu'il n'a rien d'anormal. 2016 est banal de chez banal pour les modèles et pour la vitesse de réchauffement observée sur 1970-98 (qui n'a malheureusement pas accéléré depuis), car l'ENSO était puissante et donc pour analyser ce record, il faut retirer son influence pour vérifier si le RC a été anormalement plus consistant sur le fond pour la T de l'air qu'avant 98 comme certains veulent nous le vendre sans aucune démonstration scientifique probante, mais sur des impressions. Ici de 1978 à 1998, on voit bien dans ce graphe de Tamino qu'il y a un surplus de phases ENSO favorables au bruit chaud (ça t'indique la valeur à déduire en 2016 de l'anomalie observée pour la relativiser et apercevoir un peu plus le vrai RC de fond) qui a donné la hausse visuelle avant 98. Après 98 jusqu'en 2014, ça s'est tassé (bien moins de chaleur restituée par l'ENSO), d'où le plateau visuel (faux hiatus) et c'est ça, cette succession en importance et en fréquence de l'ENSO, qui est malheureusement encore bien trop imprévisible par la physique et donc par les modèles pour le moment. Les stats voient le plateau de record en terme de proba par rapport à la signature du bruit habituel observé autour d'un signal moyen de fond (là dans le graphe c'est le bruit de l'ENSO qui est extrait et qu'il faut ajouter au fond de l'évolution du RC, et si le réchauffement ne modifie pas très fortement l'ENSO, il n'y a aucune raison que les bruits négatifs de l'ENSO visibles sur ce graphe, disparaissent à l'avenir tant que la physique ne nous le montre pas), alors que les modèles voient les proba en fonction de ce qu'ils arrivent à simuler physiquement et donc ce sont des proba sur des observations de prévisions et non comme les stats sur des obs mesurées qui sont meilleures/plus précises que les T générées par un run/modèle donné, mais des stats qui ne pourront jamais prévoir une accélération, à l'inverse des modèles. Tu t'appuies sur des impressions pendant tes lectures. Les records même puissants d'autant plus locaux en Arctique ou autres, ne font pas une tendance globale à eux seuls. Dans ton article d'avis, on voit bien le nombre de commentaires de scientifiques qui envisagent que c'est la variabilité naturelle avec le RC de fond. Il n'y a aucun travail scientifique qui est encore terminé pour faire le tri entre la variabilité naturelle et le RC pour ce secteur, c'est trop tôt. Ce sont des régions bien plus régies qu'ailleurs par une variabilité forte autour du RC, les écart-types y sont énormes et donc comme indiqué les conditions météo peuvent avoir joué un grand rôle pour cette année. Ce n'est pas aussi "simple" que pour déterminer si la T globale 2016 est normale ou non avec l'ENSO + RC. On avait déjà eu le coup avec 2012, du jamais vu, et ça devait être la fin de la banquise dans les 5 ans pour ceux sortant le doigt mouillé avec des techniques insuffisantes par rapport aux modèles. Les modèles ne sortent pas des impressions et ils ne sont pas tordus volontairement à la baisse pour faire plaisir au GIEC. Ils existeraient de la même façon avec ou sans GIEC qui ne fait que les exploiter. Les stats non plus, elles suivent les obs et il y a des règles mathématiques bien précises pour ne pas leur faire dire n'importe quoi. Un effet de seuil sortira beaucoup de valeurs consécutives des bornes des stats et des modèles du paramètre concerné s'il n'a pas été prévu, ça sautera aux yeux, complètement différent et hors norme et qui il concernera pas qu'une ou deux années. Donc inutile d'attendre une donnée de plus car le signal avec le bruit prévu on l'a avec les modèles et avec les stats. Et hop 2016 est dedans, bonne pioche ! Normal ! Surprise pour ceux endormis par les mantras de faux hiatus avec l'entrain et même l'acharnement médiatique des meilleurs physiciens même jusqu'en février 2016. Ils sont toujours aussi totalement inconscients de l'impact de leur com, pour avoir publié en titre d'une de leur publication scientifique dans une grande revue, que le réchauffement avait bien réellement ralenti (ce qui signifie de fait sur le fond, vu que le RC c'est le réchauffement de l'état moyen ce qu'ils nient quasi-systématiquement de fait dans leur com principale). L'important n'est pas seulement que la courbe observée colle ou pas aux modèles, l'essentiel pour valider les modèles, c'est que les spécialistes trouvent pourquoi physiquement la courbe se situe à tel niveau. Ils n'ont vraiment pas besoin de recaler les forçages ou la sensibilité à la hausse pour faire rentrer à tout prix 2016 dans les bornes prévus par les modèles, c'est un fait. 2016 est au milieu des larges attentes en T annuelle, loin du record possible donné par les modèles. Bon c'est quelque peu hors sujet, mais je réponds pour l'histoire de tes 1% de risque avec la roue de la voiture. Là encore c'est zoomer sur un risque infime qui est sorti du contexte du fait que la voiture est probablement déjà en train de tomber de la falaise, donc ce 1%, perdre une roue à ce moment et non avant la sortie de route, est déjà le dernier des soucis. Le RC comme la famine, les morts par millions à cause de la guerre économique sans foi, ni loi efficace, ne sont que des symptômes du même modèle de développement exponentiel, de la croissance infinie pour une minorité ( on peut estimer ici en convertissant la monnaie http://www.globalrichlist.net/ qu'il n'y a qu'environ 456 millions de personnes au monde (592 millions quand j'avais regardé il y a plus de 6 mois) qui perçoivent au moins le SMIC net annuel français (qui font donc partie des 7.6% les plus riches en salaire de la planète, ceci pour bien fixer les idées sur ceux qui sont réellement responsables de la surconsommation des ressources et des émissions et qui ont en général les moyens de consommer au delà de la part de planète qui lui reviendrait de droit dans un monde utopique juste et donc sur qui devrait porter les vrais efforts (pas que symboliques, pour se donner bonne conscience, ou juste pour ce que l'on juge supportable et plaisant) tout en payant les dettes antérieures de dépassement pour que ceux ne consommant pas la part qui leur revient, le puisse pour avoir l'essentiel, mais bon. Ce n'est pas demain que notre CB sera bloquée en fonction du quota personnel atteint, bien au contraire ils ont inventé la taxe carbone pour encore rendre plus inaccessible la part à ceux qui ne pouvait déjà pas en disposer, tout en se réservant le reste (et oui ceux qui surconsomment le plus se foutent totalement de payer la taxe, car ils ont les moyens de continuer comme avant, ceux qui sont limites bien moins et donc ils leurs abandonnent une partie de leur part...). Donc tu peux être alarmiste, resserrer les boulons de ta roue, la voiture est déjà tombée depuis longtemps de la falaise, avant même que que tu aies pensé que la roue sera peut-être un problème. Il y a des personnes compétentes qui y ont pensé il y a longtemps, des scientifiques, il suffit voir les liens plus bas sur le rapport Meadows de 1972 et autres. Le RC comme la famine pourtant beaucoup simple à résoudre et qui fait disparaître 1 enfant / 5s (pas dans 50 ans, là maintenant pendant tu es concentré sur tes 1% insignifiants de la voiture qui plane déjà vers le sol. Eux c'est 100% de risque avec un IC à 100%. Et je pourrais prendre les chiffres de l'OMS dans l'ordre d'importance, pour te faire la liste des priorités qui ne sont rien d'autres que celles générées par ce modèle délirant avec tant de monde sur la planète et qui ne seront pas plus résolus que le RC, par la volonté dans un monde compétitif (loi du plus fort), sinon ça se saurait. Il faut un monde à 100% collaboratif et il n'y a que les bisounours qui oublient l'histoire, qui pensent que ce monde est possible de nos jours sans qu'il y ait d'abord un effondrement destructeur du système actuel bien avant le RC. Si un jour le RC devient un vrai problème du niveau de la famine, des guerres militaires, civiles et surtout économiques et d'abord s'il touche vraiment assez fort les plus "riches" pays (ce qui est l'inverse en général), la technologie recadrera ça sans risques à partir de l'espace par exemple, pour modifier l'entrée solaire sans modifier la composition de l'atmosphère (cher mais on trouvera les moyens, on en trouve bien toujours de très gros pour se faire la guerre et quand on aura vraiment la tête dans le sac...). Mais le problème c'est que bien d'autres symptômes nous auront probablement emportés bien avant celui du RC, qui sera réduit de fait automatiquement (et oui quand on rase gratis à grande échelle la population, c'est efficace pour réduire les émissions bien avant l'arrivée des plus fortes hausses de T, c'est la sélection naturelle qui induira ça, selon la loi du modèle compétitif dans la nature, qu'elle soit humaine ou pas, la nature régulera la population si on ne collabore pas à 100% pour l'éviter. On est plutôt sur la pente inverse de la collaboration à grande échelle et ce ne sont pas des signatures en bas d'accords sans contraintes qui vont aller contre ça par ex : http://www.les-crises.fr/bilan-2016-la-contagion-du-desordre-par-guillaume-berlat/ . Il y a un livre récent qui fait une bonne synthèse des progrés réalisés avec ce modèle qui a été nécessaire à une époque mais qui ne colle plus aux limites physiques de l'équilibre qu'il a permis de dépasser, mais surtout il fait un bon point des chemins possibles, bon et mauvais : "Vivement demain, 15 ans pour sortir de l'impasse". La plus grande incertitude pour le RC, n'est donc pas à cause des bases physiques, mais à cause des scénarios et donc l'inconnue majeure, c'est l'évolution de la société et du monde. C'est clair que le RC n'a déjà pas de sens pour ceux qui ne peuvent déjà pas consommer leur part de planète qui n'arrive plus à se soigner, se nourrir normalement, meurent bien plus qu'à cause du RC (voir chiffre de l'OMS), dans des pays qui n'étaient plus touchés, en Grèce et au Vénézuéla par ex et dans les pays qui vont suivre la liste, dans des pays en guerres civiles ou militaires, car c'est invivable. Même en France ou malgré la famine dans le monde, un agriculteur se suicide tous les 2 jours car il ne peut vivre de cette denrée si rare pour les personnes affamées, sans parler des 10 à 15 000 morts par an à cause du chômage (avant la crise), pour les mêmes raisons de fond, le modèle de développement inadapté et non pas à cause du réchauffement lointain qui sera réglé que si le modèle est changé pour régler les problèmes actuels et donc tout ceux depuis cette foi en la loi de la jungle. Ton risque de 1%, déjà très décalé des prévisions physiques les plus probables, est des plus négligeables, si tu le replaces pas dans le contexte de fond du monde déjà sur la mauvaise pente : http://www.europesolidaire.eu/repimg/20120408210916_Futurism_Got_Corn_graph_631_thumb.jpg http://www.liberation.fr/futurs/2012/06/15/le-scenario-de-l-effondrement-l-emporte_826664 , http://www.les-crises.fr/dennis-meadows-croissance/ . La physique qui est partout dans l'évolution recadrera car nous ne le feront pas nous-mêmes avant de nous fracasser. Ce blog avec bien d'autres articles passionnants que ces deux, devraient parler aux amateur de météo et de physique : http://www.francois-roddier.fr/?p=202 http://www.francois-roddier.fr/?p=233 Regarde ceux qui ont l'esprit cartésien et logique de quoi ils s'inquiètent bien avant le RC, pas vraiment de tes 1% , au contraire ils alimentent la fournaise, car ils savent qu'il y aura beaucoup de places libres pour eux sur la planète, car à terme ils n'auront plus besoin de travailleurs, avec les robots et les IA pour tout fabriquer (il a déjà été démontré qu'une IA est plus efficace pour en programmer une autre qu'un humain), créer quoi que ce soit : http://www.7sur7.be/7s7/fr/1504/Insolite/article/detail/3070439/2017/02/02/Les-milliardaires-de-la-Silicon-Valley-se-preparent-a-l-apocalypse.dhtml Tu vois je sors quelque peu la tête des stats. Ici dans IC je n'aborde le raisonnement que d'un point de vue scolaire (ex : peut-on dire que 2016 est anormal en toute rigueur avec ce que nous dit la science à l'instant t et donc par rapport au RC observé sur le fond, peut-on dire que le réchauffement s'est accéléré sur le fond ?) Le catastrophisme avec ta roue, n'a jamais rien changé depuis 1972, tout comme l'inverse pour les négativistes qui en général ne veulent surtout pas voir changer le modèle, n'ont pas de sens à ce niveau. On peut tout invoquer pour voir le pire ou indiquer que tout va bien, sans démonstrations scientifiques, exactement comme je l'ai fait plus haut avec des indices sur l'évolution du monde. C'est une vision parmi tant d'autres. Quand je fais des stats, je pars du principe que la moins mauvaise prévision de l'évolution de la T à l'échelle climatique avec les incertitudes physiques hors contexte d'évolution de la société, est donnée par la physique et donc par ces modèles assis dessus, car il y a "quelques" personnes très compétentes qui ont passé leur vie à étudier et à bosser sur les principes physiques de base concernés. Donc à partir du moment où on sort de ses propres croyances et qu'on ne peut démontrer scientifiquement qu'ils se plantent physiquement en rentrant dans les équations et les paramètres des modèles, ni en moyennes efficaces en comparant avec les obs, on admet ce qui ressort de cette science à l'instant t, du moins des prévis de scénarios pour un monde fonctionnant à peu près comme maintenant, sans le probable (sans effondrement de la population et du niveau de vie avec d'autres symptômes du modèle, bien avant celui du RC) Pour le bruit, des variations internes dans 30 ans de données ( donc dans un échantillon de climat), c'est différent, car on le sait que ce n'est que le début des prévis décennales, pas assez efficaces, ce que justement n'admettent pas assez les scientifiques dans leur communication pour persister à orienter systématiquement involontairement ou non, l'attention du public sur le bruit. D’entrée depuis toujours, ils ne diffusent même pas tout d'abord dans les sites officiels, des graphes d'évolution du climat, de l'état moyen (de moyennes sur 20 -30 ans) tels qu'ils définissent pourtant eux même le changement climatique (c'est à mourir de rire d'ailleurs, d'être aussi incohérent et de venir se plaindre que dans les faits rien ne change), mais ils affichent au premier plan que des graphes d'évolution au pas annuel avec des lissages toujours trop bruités, tout en ne recadrant clairement pas le buzz dans les médias, mais en plongeant le public toujours plus dedans en le suralimentant à la moindre variation interne comme là en 2016 à nouveau qui sera suivi un jour ou l'autre d'un bruit "froid" relativement au RC de fond.
  5. Pour ceux qui ne suivent pas le SE, dont Adri manifestement, mdr : Le Campbell (il y a des différences de qualité) est très loin de respecter le seuil de 120W/m2 de direct théorique pour brûler le papier (pas n'importe lequel, le seuil n'a été fixé que pour suivre le brûlage des cartons français du Campbell dans les essais), décidé par l'OMM en 1981 avec l'électronique. Le Campbell (boule + papier selon leurs qualités) "voit" à géométrie variable ce seuil entre 70 et 280W/m2 de direct d'après divers travaux dans les années 50 à 70, et c'est pour cette raison que vers 1971, le seuil était de 200W/m2, puis le CIMO a recommandé 105W/m2 avant de définir le seuil actuel avec des études pour coller au matériel français. Mais le problème n'est pas qu'au niveau du seuil, c'est qu'il ne fait pas assez la différence entre le direct et le diffus et surtout qu'il sur-brûle le papier avec les passages de nuages d'autant plus que c'est fréquent, brutal (petits nuages) et avec du vent. Comme pour l'héliographe pointu de MF, ce n'est pas le seuil le problème principal, vu que dans le réseau MF la qualité du Campbell et du papier est la même (Le seuil du Cimel est précis à +- 30W/m2 à 95% et ça représente en toutes saisons sous nos latitudes +- 5/6 mn et moins par très beau ciel et +-20 mn par ciel trouble et très humide. Pour le pyrhéliomètre de référence c'est +-3.6W/m2) L'incertitude journalière du Cimel est de [-30 mn ; 12 min] ( le Kipp and Zonen [-42 mn ; 23 mn] ) à Carpentras dans 95% des journées, (avec une ou deux journées par an qui peuvent atteindre +- 60 mn dans l'absolu par rapport la vraie mesure qui est encore meilleure que la mesure du pyrhéliomètre de référence) et qu'il faut élargir à [-45 mn ; + 45 mn] dans 95% des cas l'incertitude journalière dans les stations moins ensoleillées au Nord. A Comparer avec les +- 2h dans 95% des journées et certaines erreurs journalières jusqu'à 6 h à Mâcon avec le Campell comparé au Cimel. La surestimation de 10% en général nationalement au pas mensuel (des erreurs se compensent), vient surtout du sur-brûlage du papier avec l'insolation fractionnée. Pas d'écart ou 50h d'écart en moyenne annuelle/30 ans dans certaines stations du SE, ça ne veut rien dire pour les valeurs journalières. C'est dû aux propriétés statistiques des grandes moyennes et c'est pour la même raison que malgré d'énormes erreurs journalières dans des points de mesures qui entrent dans la T moyenne globale, ils peuvent donner la T globale avec une plus grande précision (+-0.05°) que la meilleure station avec le meilleur abri au monde (Et le comble c'est que dans les +-0.05° , la majorité de l'incertitude ne vient même pas des instruments moins précis, ni de grosses erreurs sur certains points, mais de la couverture insuffisante du globe. La meilleure station MF en classe 1 sans panne, donne la Tm d'une journée avec une incertitude de plusieurs dixièmes de degrés et donc pas à 0.05° près hors hasard. Rien que l'acquisition a une incertitude supérieure, il faut des conditions météo favorables et que des erreurs se compensent par hasard) Le Davis ne donne pas un seuil de direct, mais un seuil de global, qui est du direct + diffus, donc il faut souvent bien plus de global pour obtenir ce seuil de 120W/m2 de direct, donc votre oeil vous jouent des tours pour estimer le seuil de 120W/m2. Le trouble atmosphérique aussi joue dessus. L'OMM recommande une précision du seuil de +-20%. Il sera peut-être révisé un jour avec les nouvelles normes d'ouverture des pyrhéliomètres, instruments de référence de la mesure du direct et de la DI. (Peut-être un seuil revu à la baisse, l'ouverture plus importante favorisant du diffus résiduel, même celui généré par le capteur lui même). En cherchant très loin dans ces forums, il y a le lien vers mon fichier Excel qui permet de déterminer la DI journalière à partir du Davis comme MF et l'OMM à partir de la mesure du rayonnement global au pas sur 1 mn. Le mieux c'est de pouvoir intégrer sa station dans le réseau StatIC qui la détermine automatiquement avec cette méthode même si c'est avec un pas de 10 mn, ce sera bien mieux et moins cher qu'avec un Campbell (Adri voir chez Précis Mécanique pour te fournir en papier français conçu pour, utile dans le SE avec les belles journées au pas mensuel que si tu as vraiment un modèle de Campbell qualité MF, donc voir aussi chez Précis Mécanique)
  6. Salut Michel, J'avais étudié il y a très longtemps l'intensité Davis en comparant les valeurs avec un autre pluvio Davis branché sur un enregistreur d'événements Hobo qui enregistre la date et l'heure de chaque basculement à la seconde près. C'est bien l'intensité instantanée qui est calculée à partir du temps mesuré entre 2 basculements ( la valeur instantanée est affichée sur la console et la valeur maxi est enregistrée pour le pas d'enregistrement choisi, donc dans une minute ici et à partir du total tombé en 1 mn enregistré, on obtient l'intensité aux normes OMM). A l'époque j'avais un doute vu que la console peut mettre beaucoup plus que 10 s à changer l'affichage de l'intensité dans les très fortes intensités alors que l'intensité change manifestement et qu'il y a des bons de plusieurs mm d'un coup sur la console dans les très fortes intensités entre deux affichages figés anormalement alors qu'il n'y a pas de ruptures de communication avec l'ISS (Ca se produit avec ou sans fil, avec un pluvio Davis ou non Davis, depuis toujours sur toutes les versions de la Vantage). L'OMM avait déterminé que les pluvio sont trop imprécis pour descendre à ce pas de temps si fin, l'intensité est trop incertaine dans les fortes intensités. C'est l'intensité calculée d'après la quantité tombée sur 1 mn qui a été choisie.
  7. CP3, surpris sur le Net dans certains blogs/forums, mais pas vraiment si tu relis le message de Cotissois plus haut avec la discrétion des médias. Pas de surprise depuis longtemps si tu regardes le modèle de Tamino ou même le simple modèle linéaire avec les IP même sans discriminer le bruit, car on a depuis assez longtemps une estimation de l'influence de l'ENSO selon les indices et autres, qui est donnée dans de nombreuses publications. Son modèle statistique "simple" et donc comme bien d'autres modèles qui estiment assez bien l'influence de l'ENSO, tous s'attendaient à voir la valeur autour de l'IP Sup avec un tel niveau de l'ENSO pour le RC donné. Personne ne pouvait penser voir 2016 inférieure à 2015 (sans un Nino plus vite faiblard ou sans une vraie Nina rapidement à l'oeuvre en 2016), ou pire inférieure à la valeur de la tendance centrale avec un Nino aussi puissant qu'en 98 avec du forçage en moins. On a un graphe sympa pour se balader sur les courbes et obtenir les différences quand on enlève le bruit estimé pour le modèle de Tamino et celui de la NASA. En supprimant ces bruits, on a un écart de 0.17°et 0.16° pour 2016 contre 0.22° et 0.21° en 98 et c'est bien une des raisons pour lesquelles on pouvait s'attendre à mieux pour la valeur de 2016 et à encore bien plus pour être logiquement surpris par 2016. https://www.carbonbrief.org/interactive-much-el-nino-affect-global-temperature En 98 avec les données de l'époque et la tendance donnée /30 ans (69-98), la valeur de 98 était quand même hors de l'IP, donc à ce moment là on s'attendait déjà qu'au prochain Nino aussi fort avec la même tendance plus faible en valeur centrale à l'époque, on se retrouverait près ou hors IP , plus au-dessus qu'en 98 avec le forçage anthropique en surplus, d'autant plus que les modèles de l'époque prévoyaient un RC plus important que l'AR4 et l'AR5 pour cette période. Le problème de la surprise pour certains, c'est que personne ne peut savoir quand un aussi bon Nino allait se produire après 98 et se reproduira après 2016 et que certains soient surpris que ça arrive dans 2 ans ou 20 ans, alors qu'on ne sait pas le prévoir, c'est ça qui est pour le moins surprenant. Une fois qu'il est là, on connait assez son influence sur la T, donc aucune surprise une fois l'intensité et la durée probable à venir avec le RC donné et les obs du passé. Je suis convaincu que certains seront plus anormalement surpris un jour si l'ENSO nous sort une Nina puissante tout aussi efficace pour placer la valeur sur /près de l'IP inférieur. Pourtant ce sera tout aussi normal, car cet IP inférieur tient aussi compte du RC sur le fond. On peut déjà prévoir l'agitation dans les médias bien plus importante que pour la valeur de 2016 à ce moment là. Pour moi si les projections à long terme sont optimales en valeur centrale, il ne sera pas surprenant avant l'accélération prévue autour de 2050 en valeur centrale des projections, qu'un rattrapage se produise bien avant, simplement pour recoller à la valeur centrale des projections plutôt qu'à la prévis décennale qui a revu la prévis à la baisse. Là aussi on ne pourra pas dire que les modèles à long terme ont sous-estimé, car on reviendrait simplement pile au centre en bruit neutre (à l'inverse d'actuellement en Nino costaud), mais simplement que la prévis décennale a des progrés à faire. Mais bon il ne sera pas surprenant non plus que les projections gardent un biais chaud ou finissent par en avoir un froid par rapport à la réalité, vu la complexité et le manque de mesures de paramètres pour alimenter au mieux les modèles.
  8. Désolé Yoann44 mais je n'ai pas pensé un seul instant que ça pouvait être insultant de ne pas savoir, vu que je ne sais pas grand chose sur bien des sujets et sur celui-ci aussi par rapport à bien des personnes scientifiques ou non. On n'a simplement pas la même perception. Je ne suis pas une pointure en français, ni en maths, je disais ça pour qu'en général les gens y compris les scientifiques pour leur communication déplorable, se préoccupent de la significativité des chiffres qu'ils comparent et non spécialement pour toi. Il y a bien des scientifiques pointus qui font ce genre d'erreurs, donc je ne vois pas comment j'aurais pu deviner que ça allait être une insulte pour toi.
  9. Et oui Yoann44, mais c'est très utile de respecter au moins les bases mathématiques élémentaires loin du niveau des matheux (calculer une simple moyenne climatique avec au moins 20 à 30 ans de données, c'est quand même accessible à la grande majorité des collégiens) et de chercher à connaître en lisant au moins ce qui se dit sur les chiffres que l'on cherche à analyser (là ce n'est pas des maths, mais du français/anglais), pour éviter de comparer ce qui n'est pas comparable et donc pour ne pas écrire et ni gober ce genre de trucs énormes par exemple : "Après 134 ans nous avions atteint 0,85°C et moins de deux ans après nous en sommes à 1,2°C. À ce rythme, on pourrait atteindre 1,5°C, une des limites fixées à la COP21 voici un an, en seulement 4 ou 5 ans." Un mois, une année à 1.2° ou autres, ne donne pas le niveau du réchauffement climatique qui est d'une autre échelle temporelle. Les 1.5° / 2°, s'entendent chez le GIEC pour des comparaisons d'une moyenne/20 ans au moins et non annuelle ou mensuelle. Par exemple, l'objectif à ne pas dépasser pour la moyenne 2081-2100 par rapport à la moyenne préindustrielle 1850-1900 de Hadley. On a par exemple la dernière bonne façon de comparer dans l'AR5 à partir de la série Hadley avec la prévis à court terme revue à la baisse par rapport aux projections de l'AR5, testable sur 2016-2035 : Pour les autres séries au départ plus tardif, c'est sur 1886-1905. Oui bizarrement, c'est la période indiquée dans un tableau dans les annexes en fin du rapport de l'AR5 pour GISS (et autre): "1986–2005 minus 1886–1905 +0.66°C " (0.61° pour Hadley/1850-1900) Avec les dernières données corrigées de GISS, le réchauffement entre ces deux moyennes est de +0.68°. Voilà on commence un peu à parler de réchauffement d'échelle climatique minimale (30 ans c'est mieux de l'avis de la majorité des spécialistes, car on sait qu'un plateau de 20 ans sans être significatif sur le fond est toujours assez probable pour la tendance donnée (deux moyennes/10 ans sans réchauffement significatif). Le signal sur le fond du réchauffement n'est pas encore assez puissant pour ressortir dans plus de 95% des cas du bruit habituel à cette échelle temporelle. 20 ans dans le GIEC ça doit-être une idée des physiciens qui l'a emportée à cause de leurs modèles pourtant inaptes à voir la fréquence aussi courante dans la réalité des paliers de 15 ans et plus pour la même tendance donnée. D'où le délire sur le faux hiatus sur le fond avec la faible proba de paliers de 15 ans et plus dans les modèles, mais pourtant pas dans la réalité.) Donc si on souhaite trouver l'évolution du climat depuis l'AR5 par ex, on doit comparer la moyenne au moins sur 1997-2016, notre dernier échantillon de climat aux normes GIEC à celle sur 1850-1900 pour cette série ou au moins sur 1880-1899 au minimum pour les autres ( Ce serait mieux sur 1880-1909 à cause de l'incertitude supplémentaire d'une moyenne sur 20 ans à cette époque avec peu de relevés et alors qu'ils sont moins précis) Mais bon là selon les normes GIEC avec les dernières données GISS on a un réchauffement climatique fin 2016 de 0.881° (1997-2016 / 1886-1905 ) donc encore bien loin du zoom bloqué de certains sur 1.2° ou 1.5° en valeur annuelle avec une méthode qui n'a pas la faveur des climatologues et du GIEC. Fin 2012 au moment du rapport , GISS affichait un réchauffement de 0.787° (1993-2012 / 1886-1905), donc le climat d'échelle climatique la plus minime qui soit pour faire vraiment plaisir à certains physiciens qui adorent se noyer dans le bruit, s'est réchauffé de 0.094° en 4 ans sur 2013-2016, et non de 0.35° en 2 ans (N'allez pas nous déduire une vitesse de réchauffement avec cette valeur sur 4 ans, car les IC sont monstrueux et donc la vitesse centrale trouvée ne veut rien dire pour l'avenir.) Si on part de la fin 2005, fin de la période de référence du GIEC pour une moyenne/20 ans dans l'AR5 qui est sur 1986-2005, la moyenne 2006-2016 (non climatique !), donc sur 11 ans s'est réchauffée de 0.263° (GISS), (pas comparable à une moyenne/20 ans, même avec les tests statistiques non paramètriques pour les petits échantillons différents, ce n'est pas recommandé avec moins de 20 échantillons). Donc en 9 ans pour obtenir les 0.2° effectifs par décennie donnés par l'AR4 pour cette période environ : Avec la tendance de fond actuelle de 0.181°/déc linéaire sur 70-2016 de GISS (vitaminée par 2016 et 2015), maintenue encore 9 ans, qui a pourtant une bonne proba d'être réduite un peu en valeur centrale car sans RC supplémentaire efficace pour le moment..... (Il est présent en théorie ce réchauffement supplémentaire avec le forçage supplémentaire depuis 98, mais il n'est pas encore pleinement efficace pour la T de l'air pour ne pas parvenir à faire mieux que 2016, car quand on enlève l'influence des bruits à court terme comme Tamino, on voit très clairement malgré ce record rare, que 2016 n'est pas hors catégorie pour la vitesse donnée, tout comme sans enlever les bruits, car cette valeur est conforme aussi avec les IP pour la tendance donnée en valeurs non "débruitées" de l'ENSO et autres. De plus comme tente de le cacher GS dans Real Climate avec une méthode de cueillette de cerises digne des négativistes, en se mettant à calculer du jour au lendemain la tendance à comparer que jusqu'à fin 97 au lieu de fin 98 correctement comme Tamino et tous les bons spécialistes, avec les corrections de données malheureusement pour lui, la tendance 70-98 est un peu plus forte que la tendance sur 70-2017 (0.184°/déc contre 0.181°/déc et ensuite il ose dire qu'on n'est pas loin de la significativité du changement de tendance en utilisant celle sur 70-97 , 0.171°/déc +-0.061° qui n'est clairement pas significativement différente de la suivante (98-2017 0.173°+-0.107°) ! ). 2016 avec un bon Nino comme en 98, appelle physiquement et statistiquement, 98 comme fin de la tendance à comparer à celle finissant fin 2016. La plus récente bonne tendance la plus probable sur le fond est celle sur 98-2016 avec un bon Nino pour débuter et finir cette tendance. J'ai choisi 0.181° /déc sur 70-2016 par excès et pour la précision de la tendance pour évaluer si on était en avance ou en retard sur les prévis. 2016 est simplement une valeur rare pour ce réchauffement donné et certaines valeurs suivantes avec Nina, un minimum solaire, devraient se retrouver sous la ligne centrale et donc la rapprocher des 0.173° tant que le réchauffement ne devient pas plus efficace sur le fond que sur 1998-2016) .....ça nous donnerait donc 0.187°/déc effectifs de réchauffement sur 2006-2025, toujours en dessous de la valeur centrale de 0.2° prévue. La prévis sera considérée comme bonne avec les IC des chiffres à comparer qui se croisent comme depuis longtemps, mais en aucun cas on ne peut dire à ce jour que les modèles ont sous-estimé et qu'il y a un emballement, un indice de réchauffement plus fort de la T de l'air sur le fond. Pour le moment les modèles sont encore au-dessus, mais il est clair que ça peut basculer n'importe quand, avant 2050 comme après (c'est le problème des modèles de ne pas être assez bon pour le timing, comme pour voir l'ENSO aux bons moments, aussi bien en fréquence qu'en intensité. On sait qu'il devrait y avoir une accélération, mais quand précisément ? Le plus probable en l'état actuel des modèles, c'est vers 2050 avec un IC assez large) On peut commencer à tester des prévis sur 2011-2030 de l'AR4 qui prévoyait plus que l'AR5 sur 2016-2035 [ 0.3° ; 0.7 °]/1986-2005 pour les prévisions à court terme revue à la baise par rapport aux projections de l'AR 5 Valeurs centrales du réchauffement prévu de la moyenne/20 ans 2016-2035 / 1986-2005 : RCP 6.0 : 0.455° et RCP 8.5 : 0.515° (dont 0.36° et 0.37° de la moyenne 2016-2025, mais pas d'une échelle testable à cause du bruit, vu que 20 ans c'est déja plus que limite) Celle de l'AR4 sur 2011-2030 est en partie testable: Donc il faut encore recaler pour rendre comparable les chiffres, car ils aiment compliquer en changeant sans cesse les périodes de référence. Pour la prévis de 0.69°/1980-1999, ça fait +1.40°/ 1886-1905 moyenne préindustrielle de GISS (Bon on peut très bien rajouter probablement quelques centièmes par rapport à la prévis faite pour Hadley, mais pas certain) Sur 2011-2016 (Attention moyenne d'échelle non climatique, donc pas indicatif du RC !) on a +0.996°/1886-1905. Donc si la tendance de fond est toujours de 0.181°/déc, ça nous donnerait une hausse de la moyenne 2011-2030/1886-1905 de 1.31° pour 1.40° prévus. Prévision correcte, mais toujours en dessous de la valeur centrale. Il faudra attendre pour tester l'AR5, car les prévis débutent pour la moyenne 2016-2035. Mais bon à vu d'oeil comme elles ont été revues à la baisse sur la période, ça part dans les clous au moins pour cette année (la première année en Nino est logiquement dans le haut de la fourchette des prévisions à court-terme, mais ne se retrouve qu'au centre des projections pour la même période, des projections probablement plus robustes sur l'évolution du climat que ces prévisions décennales débutantes) Donc les modèles ne sous-estiment pas du tout pour le moment, il n'y a rien d'anormal avec 2016. J'ai l'impression de relire les mêmes raisonnements que pour le faux hiatus. Que les modèles planent pour voir venir un plateau interne ou cette accélération interne sans que ça change quoi que ce soit au RC, c'est certain et c'est bien pour cette raison qu'il faut s'en tenir aux grandes moyennes et encore plus aux grandes tendances plus incertaines à cause du modèle linéaire. Donc revenons sérieusement à ce que savent assez bien faire les physiciens quand ils sortent la tête du bruit de leur modèle, prévoir le changement sur cette échelle efficace pour le moment : Dans l'AR4 : Donc avec une année 2016 si influencée par l'ENSO, on ne fait pas grand chose, c'est le fond qui fait tout au final pour une moyenne climatique et donc l'ensemble des anomalies sur une période assez grande pipées par le RC de fond. Les 0.85° de réchauffement climatique donné dans l'AR5 : C'est celui moins fiable que par les moyennes sur 20 ans (car il y a l'incertitude supplémentaire du modèle linéaire qui est trop dépendant de l'ordre des anomalies) à partir de la tendance linéaire générale aussi différente de l'échelle de la T. Il vient d'un réchauffement en tendance linéaire sur 1880-2012 pour Hadley, donc pour savoir de combien s'est réchauffé le climat depuis 2012, il faut calculer la tendance sur 1880-2016 et celle de 1880-2012 si la série concernée est différente et pour les corrections depuis. Pour GISS, c'est 0.89° de réchauffement sur 1880-2012 et c'est 0.98° de réchauffement en tendance linéaire sur 1880-2016, une façon de gratter 0.1° avec le modèle linéaire (0.881° c'est le niveau du réchauffement effectif avec les moyennes/20 ans aux normes GIEC correspondant aux 1.5°/2° à ne pas dépasser). Les scientifiques ne sont donc pas stupéfaits par 2016 en dehors de ceux qui restent la tête dans le bruit et en dehors de ceux réchauffistes qui tordent les stats pour faire croire que ça se réchauffe anormalement/plus vite avec 2016, comme les négativistes le font pour masquer le réchauffement de fond bien réel et sans faille en moyenne depuis 1970.
  10. Non il n'y a as pas eu de nouveau palier, de gros coups de réchauffement étonnant en 98 pas plus qu'actuellement probablement vu que 2016 est cohérente comme 98 avec l'ENSO et non pas avec un surplus de vitesse de RC sur le fond. Le seul nouveau palier de réchauffement débute en 70 et chaque année il progresse en moyenne comme indiqué par la tendance centrale de plus en plus connue au fil des échantillons (années) et de la meilleure connaissance/précision de la T globale. C'est un simple pic de bruit de l'ENSO plus puissant, autour de la tendance de fond au réchauffement inchangée en moyenne, qui a joué essentiellement, ( https://tamino.wordpress.com/2016/12/05/how-much-from-el-nino/ , c'est même assez diabolique que 2014 se retrouve pratiquement pile sur la tendance centrale calculée fin 98 avec l'influence déterminée quasi nulle de 0.01° de l'ENSO. On ne peut guère faire mieux comme signe qu'il n'y a très probablement pas de changement sur le fond du RC) et c'est la résultante, le signal du bruit changeant surtout avec l'ENSO + réchauffement de fond progressant à la même vitesse en moyenne, donc ce qui est visuel qui a changé, qui ne correspondait tout simplement plus au fond, comme on le voit avec le plateau interne du Loess auto qui suit le signal ( bruit+ réchauffement) de mes graphes et qui passe sous la tendance centrale avant de remonter fortement jusqu'à la valeur de 2016 et qui devient différent visuellement du fond pour la même raison. Il faut bien voir que la pente ascendante finale du Loess auto est la même qu'en 98 quand on le calcule sans utiliser les anomalies après 98 comme actuellement pour 2016, on ne connaît pas celles des années suivantes. L'IC est plus large au bout d'un tel lissage du fait qu'on n'a pas les obs suivantes qui finaliseront la courbe comme ce fut le cas en 98 où il ne reste plus grand chose de la forte hausse pourtant identique en 98 (et oui c'est la trace du bruit donné à l'instant t, c'est dans cette trace ponctuelle qu'il faut éviter de se perdre, comme se sont perdus ceux dans le faux hiatus précédent). L'oeil de tout le monde possède plus ou moins un biais pour ne remarquer que les pics ponctuels et les lire de façon opposée. Ton oeil est biaisé côté chaud, comme d'autres côté froid. En 2008, fin du RC ou refroidissement climatique pour certains, même quelques scientifiques se sont aussi noyés par le bruit, mais surtout par leurs idées reçues en refusant les résultats ou d'utiliser les outils dont ils disposent, pour le vérifier objectivement. Ton problème visuel est résumé par ces graphes et liens. Chaque oeil biaisé verra un pic de façon différente d'une personne à l'autre s'il n'utilise pas les méthodes valides pour lire les données et replacer les creux et les pics dans le contexte du fond : https://tamino.wordpress.com/2016/12/07/climate-deniers-top-3-tactics/ http://villemin.gerard.free.fr/Humour/Illusion.htm (A l'oeil les chiffres et les courbes, les droites ne sont pas toujours suffisantes et on n'a pas la même vision selon les personnes) On verra par la suite que sans un vrai changement (sans des valeurs annuelles chaudes incohérentes avec le bruit classique (ex : se retrouver près et hors de l'IP sup alors qu'on a une situation de bruit négatif ou même neutre type 2014), mais collant mieux avec le surplus de forçage anthropique et donc avec les projections de l' évolution des moyennes sur 20 ans, les seules d'une échelle scientifiquement crédibles et un minimum réellement testable pour le suivi du réchauffement du climat pour la T de l'air), les valeurs seront conformes à la tendance centrale + bruit, ce qui n'est pas optimal, vu qu'il y a toujours du retard en valeur centrale moyenne/20 ans par rapport aux projections. Ce n'est pas optimal qu'avec ce Nino + blob + forçage en plus, on se retrouve qu'au milieu des projections On devrait être dans la partie haute des projections comme on le voit en 98. Il a donc fallu des conditions de bruits favorables pour simplement sortir de la fourchette basse dans laquelle on était, Ce n'est donc qu'un rattrapage ponctuel et insuffisant par rapport à la prédiction centrale d'une moyenne sur 20 ans, pour le moment. Mais bon on colle à la fourchette haute des prévis expérimentales à plus court terme à partir des obs, qui avaient été revues à la baisse, ) Une année record même hors IP comme 98 à l'époque, ne suffit pas à bouger assez la tendance pour indiquer que c'est un palier de réchauffement sur le fond en surplus de la tendance au réchauffement déjà présente. Il n'y a pas de réchauffement par paliers comme on le voit bien avec la courbe Loess auto qui s'ajuste le mieux aux variations du bruit en analysant les variances. Le lissage déterminé automatiquement est de 7 ans, c'est à dire qu'en fait le Loess est la résultante des différences de moyennes sur 3.5 ans en plus de tendances linéaires sur 7 ans faites donc de 2 sous-suites de 3.5 ans, une durée qui comme par hasard correspond assez bien aux 3.7 ans de moyenne de l'ENSO http://www.cnrs.fr/cw/dossiers/dosclim1/rechfran/4theme/variaclima/evenemenso.html , ce qui colle aussi avec le fait que l'ENSO est le pilote essentiel du signal principal du bruit interne à court-terme autour du signal de fond du réchauffement, malgré les autres bricoles qui agissent aussi dans le bruit à court-terme dans une bien moindre mesure hors volcans monstrueux et autres catastrophes (A voir qu'est ce qui physiquement pilote le plus l'ENSO et à le prévoir) Comme 98 en 98, 2016 est simplement une valeur en avance pour son temps pour la tendance donnée au RC, ceci à cause de l'ENSO et qui pour la même tendance linéaire sur le fond (ce ne serait pas normal physiquement qu'elle le reste indéfiniment même en moyenne, vu que les modèles indiquent une accélération en général pour autour de 2050) avait le plus de proba d'être observée en 2027 (là en 2016, 2.6% de proba environ, donc 2.6 fois en moyenne en 100 ans d'être si près de l'IP avec toujours le même réchauffement sur le fond) l'IP autour de la tendance centrale est de l'ordre de l'influence des plus forts indices de l'ENSO, donc c'est parfaitement conforme et ça n'indique aucun bon particulier par étapes du réchauffement. C'est ce qui génère visuellement un palier de record prévisible et non un palier de réchauffement plus intense, plus rapide ou à un niveau supérieur au delà de ce que nous indique la tendance. Le palier supérieur du réchauffement est présent chaque année et donné par la tendance centrale de 0.181°à +-0.028° près et encore, sans tenir compte de bruits de plus longues périodes que depuis 70. On sait que l'évolution du réchauffement n'est pas linéaire à chaque instant, mais en moyenne elle l'est sur une période donnée et c'est justement quand elle ne l'est plus par rapport à l'actuelle d'après les outils statistiques nécessaires, qu'on peut détecter qu'il y a probablement ou pas un nouveau palier de réchauffement supérieur, tant que la physique ne permet pas de prévoir assez bien à l'avance, les bruits internes, les diverses rétroactions, les forçages, les "pollutions" humaines, pour prévoir plus précisément à l'avance le nouveau palier de réchauffement supérieur. On a un nouveau palier de record, car il est rare à cause de l'ENSO donné avec la même tendance au RC. La durée la plus probable du prochain palier est donnée par la projection de la valeur sur la tendance centrale. Pour moins de 0.1° rien de plus normal de devoir attendre après 2027 et après 2032 pour l'améliorer de plus de 0.1°. En cas de Nino puissant avant, rien de plus normal qu'il soit battu bien avant sans que ça change sur le fond. Comme avant ce sera l'ensemble des anomalies qui finira par nous dire qu'il y a un changement ou pas probable, mais là il n'y a vraiment aucun indice qui rend un changement probable, un niveau supérieur de réchauffement autre que celui donné par la tendance de fond (le plus probable c'est autour de 2050, mais ça peut-être bien avant comme après, comme dans certains runs/ modèles)
  11. C'est le problème de faire ces comparaisons de moyennes au niveau du collège. Il n'y a même pas de différence significative entre tes moyennes sur 5 ans. Pour la 2 ème moyenne R est obligé de descendre au niveau de significativité à 90% pour sortir un IC de la moyenne avec le test de Wilcox/Mann-Whitney pourtant plus fait pour des échantillons trop petits pour un test de Student. Là avec des moyennes de 5 échantillons, c'est chercher à se noyer dans le bruit. Toutes déductions à partir de tes chiffres n'ont donc aucun sens autre que pour analyser le bruit et non pour y voir une accélération particulière, un nouveau palier. Ce n'est qu'un palier de record annuel, donc par définition, c'est du bruit. Les comparaisons de tendances que tout le monde peut aussi réaliser correctement dans le calculateur SKS en tenant compte de l'auto-corrélation au pas mensuel, ne montrent aucun changement significatif entre les tendances et même avant qu'elles en soient capables, il n' y a pas l'once d'un signe d'accélération significative même d'échelle non climatique, sans des valeurs hors IP d'autant plus qu'ils sont de moins en moins larges au fil du temps avec plus de données dans la tendance que depuis 98. Je trouve que c'est même plutôt signe qu'il manque quelque chose pour que malgré un blob et un forçage anthropique supplémentaire non négligeable de 18 ans, en plus d'un Nino aussi puissant, la valeur ne sorte pas nettement de l'IP. Ces dernières années ne sont qu'un rattrapage du palier interne précédent, du faux hiatus. L'accélération est aussi insignifiante et donc aussi fausse pour le fond que le hiatus visible à l'oeil qui ne peut estimer le fond de façon assez probable. En 2014 le point de 2014 était confondu avec la tendance tirée depuis 98, donc rien de plus conforme en 2014, 2015 aussi, 2016 est à la limite. Il fallait bien que la variabilité naturelle compense un jour ou l'autre des points sous la tendance de fond depuis fin 98, comme 2008, 2011, 2012, 2013. On voit bien aussi qu'en retirant les principaux responsables des bruits à court terme, ce n'est qu'un rattrapage du retard, mais pas d'envolée particulière. On remarquera que les séries qui interpolent le plus la T aux pôles (c'est Berkeley qui les traite le plus) montent le plus en 2016 à l'inverse de la NOAA et Hadley : "As for the variability in warming rates (whether statistically meaningful or not), do we really need to invoke multi-decadal variability to explain it? We can take each data set and remove an estimate of variability caused by much more short-term factors, namely el Niño, volcanic eruptions, and solar variations (using a method like that from Foster & Rahmstorf). The data corrected for short-term fluctuation factors look like this : Là aussi c'est conforme avec les forçages, bien au centre : http://globalwarmingindex.org/ http://globalwarmingindex.org/AWI/info_page.html
  12. Tn la plus froide de la période et depuis le 13 février 2012 (-8.3° ce jour-là dans le Stevenson). En classe 2 : Abri Stevenson, MF -6.8°, SHT75 -6.8°, Pt 1000 -6.7° Abri Socrima Pt 1000 : -6.4° Abri Vue 10c Pt 1000 dans le champ à 215 m et 20 m plus bas : -8.7° Abri méca Davis SHT31 : -6.2° Abri méca Davis ventilo coupé SHT31 : -6.4° Mesure de référence Young méca SHT75 normes USCRN : -6.1° En classe 5 : Abri 7714 pt 1000 sur le toit : -6.2° Abri 7714 thermistance nue V1 à 10 m sur le mât d'anémo : -5.3° A noter que les Tx sont repassées hier au-dessus des normales pour janvier ici et au Luc. Aucun jour de vague de froid pour le moment car il manque encore deux jours sous les seuils concernés pour parler de VDF en centre-Var. Pour le moment on doit se rabattre sur les indices de "jour et/ou nuit anormalement/relativement froids" avec des seuils différents. Pour le Luc (MF) en janvier pour le moment, on ne relève aucune Tx " Jour anormalement/relativement froid" et 4 Tn "nuits anormalement et relativement froides".
  13. Salut ! Pour afficher cette valeur à 427 m d'altitude à Rocbaron ces jours-ci dans ton coin pentu, il faudrait que ton terrain soit plat sur certaine étendue avec des haies assez hautes qui bloquent l'air, ou dans un creux relatif et/ou situé au Nord d'obstacles, reliefs qui portent des ombres permanentes sur tout le sol la journée et que le site ne soit pas venté dans cette situation. Le -8° de ton voisin est cohérent d'autant plus s'il habite en bas sur une partie plane dans la plaine froide au pied de tes massifs producteurs de froid, mais sans détails précis sur le matériel, l'installation, le site, on ne peut pas savoir, car c'est facile de capter d'entrée -5° d'erreur en Tn avec un thermo boîtier hermétique ou massif en plein air avec des Td si bas. La T du ciel dans l'IR est bien plus froide (30 à 40° plus froide que la T de l'air contre 20° avec de l'air normalement humide) et permet aux matières et au sol de rayonner bien plus et donc à leur T de baisser sans assez de rapport avec la T de l'air, car ils tendent vers l'équilibre par rapport à la T équivalente du ciel. On veut mesurer la Tn de l'air seul hors rayonnements parasites. Ici tu peux voir l'écart avec un air normalement humide entre la sonde externe Hobo dans l'abri 7714 et la sonde interne du boitier Hobo blanc, hermétique en plein air : Si tu n'as pas d'abri et un thermo trop hermétique ou massif, même pour les Tn d'autant plus dans ces Td, il vaut mieux un abri à coupelles en plastique de dessous de pot de fleur (Explications détaillées à chercher dans le forum instrumentation). J'ai regardé sur la carte IGN de géoportail, je ne vois pas où ta station pourrait se situer à cette altitude pour chiffrer, car je ne vois pas de stagnation de l'air dans ces pentes sans les détails des obstacles d'échelle plus fine bloquant l'air. Il faudrait que tu nous pointes la position exacte de ta station sur la carte IGN ( https://www.geoportail.gouv.fr/carte ) afin qu'on regarde de près divers profils altimétriques autour de ton point. Quelle station, abri et thermo utilises-tu ? Si tu as des photos du site et de l'installation. Merci. Je vois bien le secteur, j'y faisais du VTT quand j'habitais à Cuers. C'est un secteur abrité de l'air maritime, bien froid pour les Tx l'hiver sur et près de certains versants avec pas mal d'ombres portées le jour. Pour les Tn ça dépendra vraiment du terrain concerné et des obstacles sur ces pentes. La plaine au pied de tes massifs est plus froide en T nocturne radiative que celle de Besse (Hier proche de -7° dans les points plus bas et plus abrités que le champ à 220 m, où j'ai fait des essais normalisés par le passé), j'y suis passé plusieurs fois avec une station mobile normalisée. -3.3° dans le Stevenson et -2.9° dans le Socrima (erreur supplémentaire du Stevenson qui rayonne plus que le Socrima qui lui même génère une erreur radiative par rapport à la vraie Tn de l'air seul) à Besse à l'arrache avec une coupure du vent et la fin de passages nuageux, car il n'a pas gelé pendant une bonne partie de la nuit avec des nuages et/ou du vent.
  14. Il est très courant avec le froid dynamique, que je récolte du Mistral résiduel pendant que les stations autour qui se retrouvent au calme (même au Castellet sur le haut plateau dégagé et plus à l'W , Entrecasteaux sur un sommet de colline !), plongent. Donc c'est classique et ça n’empêche pas les vagues de froid objectives pour ma station. Ce qui n'était pas normal cette nuit, c'est la direction du vent, comme la vraie brise de mer d'été soutenue l'AM. En 2012 j'ai relevé des Tn plus froides avec du vent plus fort pendant que des stations étaient plus au calme, de plus les Tx n'ont pas ce problème de calme/vent et indiquent la même chose pour mon point. Je ne suis pas dans une vague de froid même si j'utilisais le critère international élaboré sur les Tn pour définir les jours de vague de froid, pour les Tx. Le Luc ou Draguignan n'y sont pas plus pour le moment sans 6 jours consécutifs à des seuils journaliers. Ce sont des "nuits froides" pour l'instant, probablement pas de "jour froid " (Tx) . Il faudrait d'ailleurs que les météo/climatologues nationaux et donc les médias, les amateurs de bonnes données, harmonisent leurs définitions pour coller au langage international déjà défini et donné par exemple ici. Nombre de jours de vague de froid : Tn inférieure de 5 °C pendant au moins 6 jours (plus de 5 jours) à la moyenne quotidienne calculée sur une fenêtre glissante de 5 jours sur la période de 30 ans de référence. Exposé par exemple ici : http://documents.irevues.inist.fr/bitstream/handle/2042/20099/meteo_2006_54_33.pdf?sequence=1 et là http://www.drias-climat.fr/accompagnement/section/181 Ce n'est pas encore gagné même au Luc de récolter au moins 6 jours consécutifs de Tn à moins d'environ -3° pour cette station (le seuil varie chaque jour. Par ex aujourd'hui le seuil est à -2.9 et demain à -3.1), pour commencer à parler d'une vague de froid. Sans 6 jours consécutifs, il faudra ensuite se rabattre sur "les jours/ nuits froids" (seuil plus haut, avec par ex au plus -4.3°pour aujourd'hui pour les Tn et en dessous de 7.6° en Tx au Luc, il a dû faire plus chaud qu'ici avec 8.2° donc c'est probablement plié pour la Tx) qui ne sont pas des jours de vague de froid. Une vague de froid dure au moins 6 jours dans une station donnée, sinon ce n'est pas une vague de froid pour les climatologues internationaux. (C'est toujours pareil, il y a des scientifiques qui bossent à l'échelle internationale pour harmoniser les indices afin de parler le même langage dans le monde entier et d'autres seuls dans leur petit pays qui les ignorent et sont toujours là pour pondre des trucs incomparables et pas plus efficaces. Enfin même dans un pays donné on a déjà vu il y a très longtemps, un météorologue de MF pondre dans son coin son propre seuil dans une étude sur les jours de soleils avec un jour ensoleillé le seuil à 20% pour le comparer à notre région et montrer que son coin était aussi ensoleillé, et oui il était en Bretagne ! De plus il ne faut pas confondre l'indice national global de MF avec l'indice pour une station donnée. Ce n'est pas parce qu'il y a une vague de froid à une échelle donnée qu'elle existe pour l'endroit donné à l'intérieur de cette échelle. Il vaut mieux le calculer objectivement pour chaque station.)
  15. Tn pas très froide à Besse sur mon plateau pour la masse d'air donnée, à cause d'un vent de SW à W soutenu. En classe 2 : Abri Stevenson, MF -3.8°, SHT75 -3.8°, Pt 1000 -3.6° Abri Socrima Pt 1000 -3.4° Abri Vue Pt 1000 dans le champ à 215 m et 20 m plus bas : -5.4° Abri méca Davis SHT31 : -3.3° Abri méca Davis ventilo coupé SHT31 : -3.1° (C'est dans ce cas de vent que l'abri méca capte des Tn un peu plus basses, par manque de réactivité de l'abri sans ventilo) Mesure de référence Young méca SHT75 normes USCRN : -3.0° (-3.7° en pointe instantanée sur 10 s non représentative pour la météo et climato avec cette sonde rapide dans cet abri) En classe 5 : Abri 7714 Pt 1000 sur le toit : -3.1° Abri 7714 thermistance nue V1 à 10 m sur le mât d'anémo : -2.1° Une vague de froid assez comique ici qui ne parvient même pas à produire encore une seule Tn inférieure à -5° à la station alors qu'il y a des années cette valeur était si souvent observée même sans vague de froid. Selon les normes et définition de l'OMM ce n'est pas du tout une vague de froid pour ici (pourtant adaptées aux normales de la station donnée). A titre de comparaison, en février 2012 on avait relevé à la station, -10.9° avec 10 Tn consécutives inférieures à -5° dont certaines avec du vent et 16 valeurs sont plus basses que la plus froide de cette période fraîche. Mdr. Même en Tx plus parlantes car sans inversions, pour le moment 7.8° hier le mini de Tx de cette non vague de froid pour ma station (8.2° aujourd'hui) pour l'abri Stevenson à la plus longue série homogène, est plus élevé que 12 Tx de la vague de froid de février 2012.
  16. Même si tu utilisais un modèle parfait et homologué avec le bon papier, ce n'est plus qu'un objet de déco depuis que l'électronique est passée par là. Il est inutile pour la mesure de la DI surtout journalière ! Depuis très longtemps on sait que cette boule est connue pour ne pas mesurer la DI assez correctement et même pas du tout selon les cas comme sur ta feuille avec des passages nuageux. C'était noté dans la bible de l'instrumentation de l'OMM, le Cimo guide de 1983 : " Il ne mesure pas la durée d'insolation" (Source MF, note technique sur la détermination de la DI à partir d'un pyrano). On ne peut pas faire plus clair ! Immédiatement après l'installation en 1881 en France, les critiques apparaissent. Dans les annuaires de la SMF de 1889, 1904, 1910, de très grandes incertitudes sont rapportées, un appareil qui reste un peu grossier par rapport aux instruments habituels de la météo (MF). C'est pour dire à l'époque, alors maintenant, n'en parlons pas ! Donc ça se voyait déjà à l'oeil sans électronique, tellement les erreurs journalières peuvent être énormes justement quand il y a des passages nuageux, des voiles, de l'humidité, de la brume/brouillard,du trouble, différents, qui laissent quand même brûler le papier normalisé alors que le direct est insuffisant. De 62 à 82 il a été l'instrument de référence OMM faute de mieux, car c'est une mesure très difficile (MF), mais bien moins depuis l'arrivée de l'électronique. Même plus besoin d'un héliographe électronique Cimel très cher qui tombe bien plus souvent en panne qu'un pyrano et beaucoup plus cher qu'un pyrano haut de gamme (lui même plus cher qu'une station Davis complète avec pyrano) ni d'un pyrhéliomètre coûteux. On détermine la DI à partir des données d'un pyrano sur 1 mn (et donc du Davis ou d'autres stations moins chères équipées d'un pyrano assez correct) et du travail remarquable de MF à Carpentras qui a élaboré la méthode maintenant validée par l'OMM.
  17. Correction de RSS V4 : https://twitter.com/hausfath/status/817098622101635072 https://twitter.com/hausfath/status/817176148324909056
  18. Salut Sébastien Oui ici ça arrivait parfois l'été de galérer jusqu'à ce que je comprenne qu'il faut éviter le rayonnement solaire direct ou indirect trop puissant qui perturbe la transmission optique ( avec le rayonnement sur la neige, ça doit jouer) Augmente fortement l'ombrage porté sur le datalogger et surtout sur le côté connecteur optique (à nettoyer). Un mauvais alignement peut jouer. Si rien ne change, essaie de vidanger sur Dropbox par l'application gratuite COMET pour smartphone (il faut un adaptateur pour le connecteur USB /optique d'origine) Mettre à jour ou réinstaller le driver (C'est arrivé sur un ordi à cause de lui). Sinon change le cordon d'origine. Maintenant plus de galère hors très très rare problème d'alignement (trop en biais, pas assez enfoncé par manque d'attention), réglé en une fois.
  19. Et oui, il ne faut pas se fier aux apparences avec une telle série NCEP anormale, surnaturelle par rapport aux autres. Il n'y a pas de différence significative entre la tendance faiblarde sur 69-98 (Réchauffement significatif de 0.111°/déc) visuellement moins pentue que dans les autres séries et celle visuellement plus forte sur 98-2016 (Réchauffement significatif d'un bon Nino à un autre bon Nino, de 0.231°/déc, mais il aurait fallu plus de 0.238°/déc de différence entre les tendances centrales et donc une pente d'au moins 0.349°/déc sur 98-2016 pour NCEP pour y voir un réchauffement probablement plus fort sur le fond). Il est probable qu'il y ait un problème ou une rupture d'homogénéité quelque part pour que NCEP se comporte de façon si différente entre avant 98 et après par rapport aux autres séries. Si certains ont vu passer des explications sur ces différences de comportement, merci ! On peut voir que 2016 se retrouve comme une valeur aberrante très loin hors de l'IP de la tendance 69-98 projetée fin 98, mais plus du tout anormale sur l'IP de la tendance sur 69-2016 sensiblement identique aux autres séries et donc aussi de l'IP sur 69-98 des autres séries. Voir par exemple le graphe pour la série NOAA d'un message précédent : où la tendance sur 69-2016 est presque confondue avec celle sur 69-98 (équivalente à celle sur 69-2016 de NCEP), à l'inverse de NCEP et donc la valeur de 2016 de NCEP est si loin de l'IP de la pente anormalement faible sur 69-98 dans NCEP. Cette série NCEP contient plus de bruit et plus d’auto-corrélation que GISS (coeff de 3.73 contre 3.13 sur 69-2016 calculé à la mode Tamino/Grant Foster and co), la moins bruitée et la plus propre de mon point de vue statistique. L'IP pour une valeur annuelle NCEP est +- 0.1° plus large que pour une valeur de GISS ! C'est à dire que sans tenir compte de l'ENSO, et autres, juste des stats, l'anomalie sera prévue avec une incertitude de +-0.28° contre +-0.17° dans GISS. En tenant compte de l'ENSO, des volcans et du soleil, Tamino avec son modèle statistique, ramène l'incertitude de la prédiction d'une anomalie annuelle à +-0.07° sur GISS. Il vaut mieux effectuer des prévis d'anomalies à partir de la série GISS que NCEP qui complique largement le boulot (Hadley bien plus cohérente que la série NCEP est plus bruitée (avec plus d'incertitude pour la couverture de la planète) et plus auto-corrélée que GISS ) !
  20. Même avis, première photo et pas d'abri ventilé méca avec cet environnement sombre. Non Adri, ne pas confondre avec la classification pour le vent, ou avec les hauteurs pour la T qui ne sont là que pour les ombres portées sources de refroidissement et pour les distances des matériaux verticaux sources de chaleur par leur nature s'ils ne portent pas d'ombres, mais pas pour leur rapport avec la ventilation naturelle qu'ils réduisent. Malheureusement MF ne tient pas compte de la réduction de la ventilation naturelle et du cloisonnement pour la T sur un site dès que c'est de la végétation (naturelle ou non) ou une pente, trop proches. C'est une des failles majeures de leur classification, assez incroyable vu que Michel Leroy parlait très bien de la réduction de la ventilation naturelle par les obstacles et la rugosité d'une végétation courte (> 25 cm) trop haute, qu'il jugeait comme étant une des principales sources d'erreur. Tu ne trouveras pasdans la base de données, une classe 4 au motif de surchauffe à cause de végétation, haies végétales artificielles ou naturelles trop hautes, trop proches, mais uniquement pour ombres portées (qui refroidissent les T diurnes avec du soleil et sont une des plus grosses sources d'erreur de Tx quand elles concernent ces horaires l'hiver, bien plus qu'un cloisonnement pour celles surchauffant l'été) 4 fois la hauteur c'est donné depuis longtemps dans bien des pays et même par l'agence de l'environnement US, c'est aussi dans la notice des abris MF, comme le Stevenson par exemple : https://www.campbellsci.com/weather-station-siting Il y avait aussi la norme de 2 fois la hauteur pour la T, une norme minimale pour les postes climato de base. J'avais diffusé ces différentes normes il y a très longtemps dans un des forums. J'avais d'ailleurs effectué des essais par rapport à ces normes. Ce qu'il en ressort en synthèse selon aussi les essais des pro, c'est que sans un minimum de distance de dégagement dans l'absolu (donc en distance pure et pas que sur 3° ou x fois la hauteur) pas de végétation > 25 cm sur une surface ou largeur d'angle trop importante dans le rayon de 20-30 m, le rapport de distance et hauteur même de 3° de l'OMM pour les ombres portées n'est pas suffisant (d'autant plus que MF ne tient pas compte dans les faits pour viser du pied de l'abri, mais de l'abri lui-même. L'important n'est pas l'ombre sur l'abri, mais celle significative sur le sol sous et autour de l'abri). Un champ avec des végétaux de 1.5 m de haut laisse tout l'horizon visible, alors qu'il surchauffe nettement les Tx estivales par beau temps d'un parc d'un rayon de 10 m insuffisant. Le sol + végétation dans le rayon concerné pour éviter les erreurs, ne se retrouve pas à 1.25 m sous le niveau de l'abri mais bien plus haut. Créer des cuvettes artificielles avec un sol abrité donc anormalement surchauffé et une T de surface de végétation plus haute que l'air l'été à niveau d'abri et réduisant la ventilation naturelle, ce n'est vraiment pas top. En Hollande, le KNMI préconise de tondre 28 fois la végétation courte pendant la saison de croissance moins productive qu'ici, c'est un autre monde que chez MF dont bien des sites classe 1, 2 sont de classe 4 dans les faits à cause du manque d'entretien de la végétation courte dans les rayons réellement associés à la classe pour surchauffe sans ce problème ! Les spécialistes devraient relire attentivement les comparaisons de très haut niveau effectuées à De Bilt qui montrent comme des dégagements qui font rêver les amateurs et classe 1 chez MF qui ne s'occupe que des ombres portées et sources artificielles de chaleur, sont insuffisants avec une végétation courte trop haute et trop proche. Pas étonnant de voir des chez MF comme une station comme Montclus classée 2 avec le carnage si proche autour de l'abri dans certaines directions et Le Luc rétrogradée classe 4 à cause de la minuscule ombre portée sans influence du pilier de l'ancienne mesure de DI.
  21. Meilleurs voeux à tous ! Oui Cédric, avec le Cimel c'est mieux (Le noir pour les Tx, ne pas peindre le plafond (et le fond interne pour d'autres abris) en noir ça accentue un peu le biais froid des Tn radiatives, mais utile dans un 7714 par ex pour compenser en partie les Tn trop chaudes des installations de l'abri sur un toit ou trop haut par rapport aux normes). L'important c'est surtout que tu utilises le même matériel identique dans l'IR et la circulation d'air pour comparer tes écarts en Tn d'un point à l'autre malgré l'écart éventuel avec une station MF mais que tu sauras être identique après comparaisons comme à Montclus. Des troncs et des feuillages variables, sont trop compliqués pour savoir s'ils renvoient les mêmes biais par rapport à une station MF et donc entre tes différents points de mesures. Oui des doubles coupelles de 40 cm en haut et en bas dessous c'est utile pour porter une ombre sur tout l'abri et éviter des effets de sol, mais qu'à certaines saisons avec le soleil assez haut au moment des Tx, pas évident dans certains coins où elles se jouent très tardivement. Il faut calculer son diamètre utile selon les angles de hauteur du soleil autour des horaires des Tx. Dans mon secteur, impossible de laisser la journée une mesure même abri miniature Vue la journée hors d'un terrain clos privé, il y a bien trop de passages avec les chasseurs, promeneurs, randonneurs, VTT, moto, quad, 4x4, tailleurs de vignes et autres même très loin des habitations. C'est déjà délicat en ce moment avec les Tn qui se jouent vers 8h30 dans mon coin, il vaut mieux être là juste avant 8h si des vignes sont proches.
  22. Cédric, pour les Tn sans abri, il vaudrait mieux que tu plantes dans le sol du fer à béton de 1.2 cm de diam ou autres, identiques pour tes points de mesures, pour fixer les capteurs identiques au bout (si c'est un Voltcraft où on voit la thermistance par une ouverture, , testé à 1 m en fév 2013 pour les T nocturnes (ne pas regarder les écarts diurnes sans aucun sens) car des thermo en plein air se retrouvaient à 1 m de la neige chez les chasseurs de taf à l'époque. ) car un thermo boîtier de datalogger trop fermé peut se refroidir plus considérablement par rayonnement en plein air (Une comparaison entre la T interne d'un Hobo étanche blanc à 1.5 m et la sonde extérieure inox dans un 7714, il y a des années ) et il vaut mieux une petite plaque de polystyrène extrudée identique pour faire pendre dessous des capteurs trop fermés. ), pour que ton capteur soit vraiment en plein air de la même façon dans tous les sites, car au Nord d'un tronc large, c'est un obstacle pas obligatoirement assez identique qu'un plus fin avec le feuillage du kermès. Dans l'IR ça peut jouer selon la fraction de ciel et de sol visibles plus ou moins différente, puis selon l'humidité du tronc et des feuilles, la chaleur ou le froid stocké par un gros tronc/ petit tronc... Une simple barre de fer meulée au bout s'enfonce assez facilement à la massette dans tous les sols (même entre des plaques de roche calcaire sur mon plateau), c'est un support comparable pour tes points de mesure. Pour les Tx à l'air libre, les écarts varient selon les saisons et le type d'ombrage donc si tu ne veux pas t'en passer pour rendre comparables les ombres et leur production sur tes capteurs, autant faire pendre aussi les dataloggers sous un même petit panneau de polystyrène extrudé, bien enquillé/fixé sur la barre de de fer . (Ici une sonde Davis à l'ombre bien exposée à tous les vents sous le fond du Stevenson a surchauffé aujourd'hui en Tx que de 0.8° par rapport à celle dans le Stevenson, alors que l'été elle peut surchauffer à l'ombre souvent de plus de 3 à 4° ) Pour des mesures mobiles ponctuelles avec abri, je plante la ferraille à béton dans le sol et j'enquille par dessus un tube de 35 mm de diam et de 1.5 m. Installation et désinstallation hyper rapide sur site, l'abri restant toujours sur son tube.
  23. Nuit la plus froide de cette saison à Besse et depuis le 3 décembre 2013 : En classe 2 Référence USCRN abri Young méca SHT75 V2 : -3.6° Stevenson : -4.5° thermo MF, Pt 1000 -4.4°, V2 SHT75 -4.5° Socrima Pt 1000 : -4.0° V2 méca SHT31 ventilo coupé : -4.1° V2 méca SHT31 avec ventilo standard : -3.9° Classe 5 Toit 7714 Pt 1000 : -3.9° Mât 7714 à 10 m thermistance V1: -2.9° (-7.2° à 10 cm du sol)
  24. C'est le filtre Davis d'origine. Ca permet de montrer son influence par rapport à une Pt 1000 avec une constante de temps de 60 s placée dans le même abri et ça démontre qu'il faut lisser la T dans un abri méca si on ne dispose pas d'une sonde lissant assez le bruit dans la T sinon on perd le bénéfice d'un abri méca en captant du bruit de micro échelle que l'on ne capte pas avec des abris normaux. Dans la photo 2 c'est dans les abris au fond que ça se passe, tu as la Pt 1000 V2 noire (non méca) et la Pt 1000 dans le 7714 noir. En réalité les écarts sont même un peu plus grands entre ces deux abris, car la V2 est dans la position plus favorable (plus loin de la haie) dans ce micro site en classe 4 où la T varie sur de courtes distances. (En inversant les abris V2 et 7714, l'écart est un peu plus important entre les deux abris, car l'abri V2 se retrouve plus près de la haie) Pt 1000 / 10 s c'est la 2 ème sonde dans le Young méca pour montrer la différence avec le lissage aux normes USCRN pour harmoniser les constantes de temps. En ne lissant pas correctement selon les constantes de temps, on affichera parfois des Tx plus fortes qu'un Stevenson lui même un peu plus chaud qu'un Socrima ici. La sonde d'humidité de MF et la Pt 100 sont trop grandes pour le 7714 et on ne change pas les abris déjà payés de tout un réseau sans de plus grandes différences.
  25. Pour ceux qui ont un compte FB, fouillez dans les photos de page FB de ma station https://www.facebook.com/meteobesse.stationmeteo . Pour moi le 7714 d'origine déjà meilleur dans les essais de l'OMM, d'autant plus avec l'intérieur peint en noir est le meilleur surtout en Tx, de tous les abris à ventilation naturelle que j'ai testé ici même en classe 4 cloisonnée. Voir par exemple : https://www.facebook.com/photo.php?fbid=163093287188814&set=pb.100004644305349.-2207520000.1482665866.&type=3&theater https://www.facebook.com/photo.php?fbid=162754227222720&set=pb.100004644305349.-2207520000.1482665866.&type=3&theater https://www.facebook.com/photo.php?fbid=163093280522148&set=pb.100004644305349.-2207520000.1482665866.&type=3&theater https://www.facebook.com/photo.php?fbid=159727120858764&set=pb.100004644305349.-2207520000.1482665866.&type=3&theater https://www.facebook.com/photo.php?fbid=170006709830805&set=pb.100004644305349.-2207520000.1482665866.&type=3&theater https://www.facebook.com/photo.php?fbid=170006706497472&set=pb.100004644305349.-2207520000.1482665866.&type=3&theater https://www.facebook.com/photo.php?fbid=159727104192099&set=pb.100004644305349.-2207520000.1482665866.&type=3&theater
×
×
  • Create New...