Jump to content
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

ChristianP

Adhérent Infoclimat
  • Content Count

    2860
  • Joined

  • Last visited

  • Days Won

    1

Everything posted by ChristianP

  1. J'ai mis à jour mon graphe de l'année dernière avec l'anomalie provisoire (ça ne va pas se refroidir de nombreux centièmes en une semaine !) de MF de 2019 pour la France. Ici fin 2018, j'avais comparé la partie concernée du loess/60 ans (recalé sur 1976-2005 des projections) avec les projections pour la France du graphe extrait de " Evolution des températures annuelles/saisonnières Climat passé et futur – France métropolitaine " (MF) Je n'ai pas de temps à consacrer pour rentrer dans les pixels et coller le dernier loess/60 ans à jour fin 2019 sur les projections, pour si peu d'évolution à la hausse entre fin 2018 et fin 2019 comme ce sera le cas chaque année tant que le Loess/60 ans n'a pas rattrapé la pente de la linéaire calculée depuis 1970, plus pentue, du moins s'il n'y a pas de changement significatif d'ici 2030 (Les projections n'en prévoient pas !). Je montre plus rapidement la différence avec la logique petite augmentation de la pente du Loess ici : Il faut bien voir que sans un changement statistiquement significatif (ce qui n'est pas du tout prévu d'après les projections du graphe MF, sinon on verrait un palier dans ces projections, comme par exemple celui d'avant 70, aussi au niveau global que les modèles des projections simulent assez bien), la pente du loess/60 ans ne peut que s'accentuer progressivement sans aucune accélération, ni stagnation significatives sur le fond, simplement au fil du temps jusqu'à environ 2030 pour "une même" tendance linéaire ( qui peut-être différente mais que visuellement, non significativement différente) des anomalies annuelles (ou mensuelles) depuis 1970, car le loess/60 ans intègre encore des valeurs annuelles/mensuelles faiblardes, du plateau/hiatus, lui significatif, d'avant 1970. Ceux qui s'évertuent à vous montrer des lissages pour la France et des moyennes/10 ans en vous faisant croire que c'est pour suivre l'évolution du climat, que ce soit MF, le pape des physiciens (surtout les allergiques aux stats élémentaires), ou autres, vous induisent en erreur. Les moyennes sur 10 ans à cette échelle, servent simplement à montrer un certain niveau de variabilité interne qui parfois colle à l'évolution de fond du climat, mais malheureusement pas toujours en réagissant encore trop avec l'impact du bruit interne, non significatif de l'évolution sur le fond à l'échelle climatique nécessaire (On peut voir d'ailleurs que la courbe de la moyenne /30 ans (verte) est encore trop bruitée à l'échelle de la France, mais bon on arrive à discerner facilement l'évolution de fond -modéré- )
  2. Ton oeil ou le mien, ou autres, ne sont pas scientifiques pour ce niveau de finesse de courbure, tu opposes du pifo à des calculs, je ne vois pas la même chose. Je t'ai expliqué pourquoi dans ma réponse (car la différence significative entre la linéaire et la quadratique, ainsi que la physique (une accélération est prévue avec une courbure), indiquent qu'on doit explorer ce fit, donc de fait c'est comme vérifier si la dérivée seconde avec ses IC, est significativement positive/différente de 0.) Je vois bien que tu suis le bruit avec ton oeil, alors que le mien suit le fond qui met la courbure moyenne plus loin. Différence de vue cohérente avec ton problème qui ressort dans de nombreux messages ! Là on n'en est qu'à chercher les prémisses d'une accélération, une légère courbure significative et non la robustesse qui ne peut venir que bien après. On constate qu'on n'a jamais été aussi près d'une accélération et plus loin de la tendance centrale linéaire positive sur le fond depuis 1970. Ensuite il faudra attendre que les tendances linéaires soient significativement différentes sans saut de tendance non physique (ce que des pointures en physique ont ignoré à l'époque du hiatus, du moins certains qui n'apprécient pas les stats, ont utilisé pourtant les stats pour une hypothése de départ, comme des bras cassés. J'ai vu les débats sur le blog de Hawkins et j'ai constaté à quel point il est anti-stat quand ça l'arrange, mais pas pour pondre des trucs faux pareils en utilisant les stats comme hypothèse de départ, avec ses collègues ...) et que les méthodes les plus pointues de détermination des points de changements significatifs, affichent aussi la significativité, ce que tu verras dans des papiers comme à l'époque du non hiatus pour ces méthodes qui le martelaient. La robustesse est encore loin. Déjà que l'IC de la courbure vers 1970 est de 16 ans, tu ne risques pas de me sortir une date de changement de tendance plus précise qu'autour de 1970 comme tu le fais à l'oeil là avec 1980 sans aucun calcul. Comme à ton habitude que du baratin, jamais de démonstrations rigoureuses falsifiables. Démonte Tamino mathématiquement et non avec les mains ou l'oeil et tu deviendras crédible et tu nous apprendras enfin quelque chose (c'est ce que j'attends d'un prof, d'un scientifique, qu'il corrige les erreurs que l'on ne voit pas, mais rigoureusement ! ) Tamino ne risque pas de publier un papier basé que sur des quadratiques même de toutes les séries qui seraient très significatives, ça ne suffit pas et ce serait un gros gag comme papier, mdr ! Je ne doute pas que Tamino and co, ne manqueront pas de publier s'ils détectent un changement robuste de tendance avec son traitement du bruit surtout si des physiciens ne parviennent toujours pas à prévoir le bruit interne assez correctement (donc au minimum à bien prévoir l'ENSO avec la bonne intensité et le bon timing à toutes les échelles internes à 30 ans, de quelques mois , et de 1 à x ans), s'entêtent comme à l'époque du hiatus à ne pas tenir compte de l'absence nette de significativité du plateau/hiatus et à la présence nette de la significativité de la poursuite du RC de fond et continuent à se/nous noyer dans le bruit du hiatus insignifiant comme à cette époque et donc à faire de même quand une accélération sera présente clairement avec toutes les méthodes statistiques. Il le verra plus rapidement qu'avec les données classiques avec ses données débruitées (Malgré son papier sur l'absence de hiatus qui a été repris par le GIEC, il a fallu des années encore pour que le hiatus soit reconnu comme insignifiant pour le fond, un non hiatus, mais bon c'était évident depuis longtemps avec les analyses statistiques des obs.) C'est quand même incroyable que quand il n'y a pas de hiatus significatif (en prime très loin de pouvoir l'être), des physiciens le mettent au premier plan et ne voient plus que lui pourtant insignifiant pour le fond et là on approche d'un début d'accélération significative alors que le hiatus n'était pas du tout proche de l'être, et hop tu lui sautes dessus sans aucune démonstration rigoureuse qui montre qu'il s'est planté ! Même Zeke Hausfather a montré le parallèle sur twitter, en titrant pour blaguer "accélération !" en affichant la tendance linéaire plus forte (qu'en apparence) comparée à celle du hiatus. Il a aussi montré le peu de papiers traitant de l'accélération (visuelle) comparés au palier ( tout aussi visuel mais lui à l'inverse très loin de la significativité) ! Je ne doute donc pas que certains cadres qui sont incapables de tracer des courbes sur des durées dignes l'échelle climatique pour nous montrer l'évolution du climat quand ils en parlent (et non celle à la petite semaine sur 5, 10 ou 15 ans), et qui se sont acharnés à voir de l'importance et de l'anormalité imaginaire pour le hiatus pourtant très loin de l'être, ne risquent pas de voir une accélération même si elle devenait hyper significative statistiquement (car tant qu'ils ne le perçoivent pas physiquement avec leurs équations dans les modèles, malgré leurs grandes compétences pour parvenir à prévoir l'évolution de fond sur des périodes de 30 ans, certains finissent à l'évidence par nier la réalité des obs, et surtout à mettre les méthodes statistiques à la poubs quand ça les arrange et à les utiliser quand sa soutient leur idée même quand c'est faux aussi bien mathématiquement que physiquement, ce qui est plus grave ! Elles sont pourtant nécessaires tant qu'on ne sait pas prévoir le signal de fond interne comme en météo, à une échelle où les stats ne servent pas à grand chose (personne ne sort des méthodes stats pour prévoir une tempête à 24h, on regarde les modèles. Donc tant qu'on n'en n'arrive pas à ce niveau pour prévoir la variabilité interne 10, 20 et 30 ans, il faudra faire avec les stats). Le problème de certains physiciens est donc déjà nettement ressorti avec cette histoire du hiatus, car ils sont restés à fond la tête dans le guidon, avec leur zoom fixé sur le signal interne trop court et imparfait (parfait de fait dans leur tête pour ne pas voir le problème) des modèles physiques sans tenir assez compte des échelles temporelles, et donc de raisonner sur une échelle temporelle trop courte sans assez d'échantillonnage des modèles qui ne montraient logiquement pas une telle fréquence de ce type de palier (2% de proba d'après les modèles de voir un tel hiatus non significatif, contre 50% de rencontrer un palier d'au moins cette durée selon les obs et l'analyse statistique à l'époque...). Je me rappelle du papier ( et que j'avais cité dans IC à l'époque) qui est passé après que les pointures valident l'existence du hiatus, qui montrait le problème de ces meilleurs physiciens (ils partaient d'une hypothèse statistique dans leur papier alors qu'ils n'aiment pas les stats, en prime totalement fausse, car ils utilisaient 2 tendances linéaires avec un saut de tendance pas du tout physique (c'est la différence biaisée entre les 2 tendances avec ce saut non physique, qui est à l'origine de leur papier en plus de l'écart de cette tendance trop courte, avec celles des modèles) et non validée par les stats (ils ont fait une comparaison de tendance de débutant !), un saut qui n'existera jamais dans la nature pour la T globale ( Le hiatus à étudier était celui du problème de la prévision de ces tendances à courte échelle temporelle, la différence entre la réalité des obs qui donne très probable de tels hiatus et les modèles qui les voient si peu, logiquement car pas faits pour prévoir à cette courte échelle, mais des physiciens l'oublient clairement souvent, vu leur raisonnement affiché dans les faits, en zappant les IC monstrueux des prévisions décennales et le fait qu'ils rament pour prévoir à l'avance simplement l'ENSO). Donc ton histoire de, " j'ai l'habitude des signaux", oui je crois sincèrement que tu es très bon pour analyser le moindre bruit fin, interne, qui est un signal de fond pour toi, bien plus que n'importe quelle méthode stat, mais tu ne montres clairement pas du tout que tu l'es pour savoir si le signal fond d'une échelle temporelle plus grande évolue ou stagne, accélère, car tu montres au contraire que ton oeil ne voit que le bruit et pas le signal moyen. Ca saute encore plus aux yeux quand tu parles de la France avec ton suivi de courbes sur 10 ans (courbe d'un certain niveau de bruit et non d'évolution du climat !), comparé à un Loess/60 ans et alors que tu soutiens que ça doit ralentir alors que les projections ne montrent aucun ralentissement significatif sur le fond capable d’empêcher l'accentuation de la pente d'un loess/60 ans sans absolument aucun changement significatif (des baisses visuelles, des plateaux visuels, non significatifs, ne changeront rien à ce fait mathématique élémentaire qui te dépasse car tu es noyé dans le bruit. Je vais mettre à jour le graphe à 2019 avec l'anomalie provisoire de MF dans le sujet national, tu verras, ce qu'il se passera obligatoirement pour le Loess sans un changement significatif au fil des ans jusqu'en 2030.) Donc quand je vois ton raisonnement avec ton oeil et tes courbes sur 10 ans, et que les plus hautes pointures mondiales font ce genre d' erreur élémentaire de rater un saut de tendance non physique, et que le papier fait pour montrer leur erreur était digne d'une révision cours de stats à la fac et non un papier qui fait avancer la science, on peut dire que la capacité de certains physiciens à lire des obs est inversement proportionnelle à la qualité de leurs capacités à pondre de très bons modèles physiques pour prévoir la météo ou le fond sur une échelle climatique efficace (évolution de moyennes / 30 ans, peut-être 20 ans, pour le moment). Pour moi il est clair que dans certaines équipes de physiciens, avant de publier, il manque clairement de bons relecteurs en stats de type, Tamino, Mestre, Venema et autres.
  3. Je ne vois aucune extrapolation, je ne vois pas où il prolonge les données dans le futur, ce sont des obs, de plus il n'y a qu'une série est qui est significativement en accélération depuis 1980, en prime celle non recommandée pour la climato, ERA5 (Si tu appelles extrapolation le fait d'explorer la courbe quadratique plutôt que la linéaire, ce sont les tests statistiques qui commandent de la regarder dans le cas présent plutôt que la linéaire, car c'est significativement meilleur que la linéaire. De plus physiquement on est sensé observer une accélération un jour ou l'autre, donc une courbure en moyenne, et même si c'est plus tôt qu'attendu (autour de 2050), il faut regarder ça de près quand on commence à l'entrevoir dans les obs). Ensuite il traite le bruit habituellement selon son papier admis par les pairs (traitement admis par le GIEC aussi). Donc avec du bruit en moins dans les données, les IC sont plus petits, on pourra détecter une accélération sur le fond plus tôt qu'avec les données habituelles, mais malgré ça, il n'y a qu'une deuxième série qui montre une accélération significative (NOAA), mais que de peu. De plus si on change l'année ou des mois de départ ou de fin, ça ne l'est plus, donc tout ça fait que ce n'est pas une accélération à laquelle on peut se fier, on ne la considère pas (que ce soit Tamino et autres), mais c'est à surveiller, donc qu'est ce que tu veux de plus clair : que bien que nous soyons proche d'une accélération significative avec parfois de la significativité à la marge, elle n'existe pas encore dans les obs ? La concavité est moins dérangeante que la linéaire en moyenne quand c'est significativement meilleur mais surtout lorsque l’accélération sera devenue robuste (là c'est juste pour la détection de l'accélération, donc on n'a pas à prendre en compte cette concavité visible dans les obs, vu que ce n'est pas robuste. De plus même quand c'est robuste, les IC autour d'une année de changement significatif de tendance, sont parfois très larges, donc ça te fera bizarre. La prochaine accélération significative sera probablement peu courbée et ne sera jamais aussi nette que celle autour de 1970, sinon se serait vraiment très grave et les pires surchauffes prévues dans des modèles CMIP6, seraient dépassées !). Tout ça pour dire qu'on risque encore moins d'observer une accélération significative sur 10 ans comme le rapporte par erreur le journaliste plus sérieux habituellement.
  4. Oui, l'auteur utilise la même méthode qu'il reprochait aux négativistes avec le plateau, cette fois c'est côté chaud. Il a pourtant été informé de son erreur par des spécialistes du domaine comme par exemple ici, mais je vois à l'instant qu'il persiste dans les commentaires à la suite, où il montre qu'il ne ne sait pas que les barres d'erreurs d'une tendance/10 ans sont bien plus importantes que sur une valeur annuelle ! Pour le moment l'accélération significative est sur une bien plus longue durée (ce serait fort qu'elle le devienne que sur 10 ans !), mais elle n'est pas encore assez robuste pour la considérer, aussi d'après Tamino qui n'est pourtant pas le dernier à montrer la persistance et la force du RC pendant que la majorité plongeait dans le faux hiatus : https://tamino.wordpress.com/2019/11/08/global-temperature-update-6/
  5. Cotissois, tu contredis tes propres références où les scientifiques évitent justement de plonger dans la variabilité décennale d'autant plus que l'échelle spatiale est fine. Les courbes sur 11 ans des graphes HD que tu utilises, n'ont pas de sens pour le signal de fond climatique (le signal non interne au climat) à l'échelle d'une station bien trop bruitée (C'est déjà parfois trop bruité sur 30 ans à cette échelle), car c'est compliqué au niveau global où les prévis décennales sont encore très loin d'être efficaces. Les graphes de Dann17 sont bien plus parlants pour le fond que les graphes avec une courbe de la variabilité interne sur 11 ans. Montre nous à l'aide de références, si tu n'as pas de temps pour le démontrer toi-même, que les prévisions décennales à l'échelle d'une station ou de la France sont meilleures que celles au niveau globale sur 10/11 ans (Ce serait bien que tu produises quelque chose, car à part des incantations de plus en plus incroyables pour un scientifique, je ne vois rien et ta pédagogie n'est pas efficace. Comment veux tu que les gens aient confiance en la science si même toi tu sors des énormités qui plongent les gens dans le bruit interne et les énormes incertitudes de la prévis décennale même au niveau global "moins compliqué" !) A l'échelle de la France on a déjà assez de boulot avec l'incertitude de la modélisation pourtant loin de de l'échelle décennale, sans rajouter ta grosse couche de pifomètre quand tu insistes pour nous faire croire que l'échelle décennale est pertinente et efficace (elle ne l'est déjà pas avec les obs pour une station donnée ou la France (en terme d'évolution du climat sur le fond ) à tel point que certains négativistes ou scientifiques étourdis, se servent de cette courbe sur 11 ans sur la France pour faire croire au public que le climat ne se réchauffe plus en France, alors en prévis c'est pire que tout ...!) : Attribution pour les vagues de chaleur de juin et juillet : https://www.worldweatherattribution.org/wp-content/uploads/WWA-Science_France_heat_June_2019.pdf https://www.worldweatherattribution.org/wp-content/uploads/July2019_VF.pdf
  6. Cet histoire de sondage ne colle pas dans des secteurs comme la plaine du Luc, la topo et le foehn sont particuliers. Dans les records par vent de terre là-bas, la T est aussi la résultante de multiples compressions/foehn en amont en passant les collines et les mini plaines pour finir par un énième effet hot avec la plus forte compression, plus puissante encore, en tombant des massifs dans la plus grande et basse plaine au Luc/Le Cannet avant le massif des Maures. Plus on va vers l'W et NW du Var (selon la direction du vent de terre) et moins l'air est chaud malgré le vent de terre et malgré les cas avec une même T à 850 hPa, car il n'a pas subi autant de compressions successives. Donc analyse trop globale à partir d'un RS, il faut voir ça avec modèle de topoclimatologue. Avec la théorie globale des RS (et non à l'échelle fine), on n'aurait pas pu relever 42.2° au Luc avec seulement 21° à 850 hPa, http://www.meteociel.fr/modeles/archives/archives.php?day=5&month=8&year=2017&hour=12&type=ncep&map=0&type=ncep&region=&mode=0 et alors même que ce record a été très tronqué à cause du vent de terre pas franc, qui a perdu rapidement contre la brise très tôt et dont je voyais le mur s'approcher et finir par stopper un peu plus tard mon record plus à l'W. Le 44° était largement jouable au Luc le 5 août 2017 avec un vent de terre qui serait resté jusqu'à 18h et non remplacé par la brise dans le début d'AM, ceci malgré les 21° à 850 hPa. Avec 28° à 850 hPa, à la place de 21° dans la même config pour tout le reste, ça nous fait déjà du 49° au minimum, avec le même vent de terre remplacé par la brise avec le même timing, donc plus avec du vent de terre jusqu'à 18h minimum ! C'est clair que ça peut arriver cet été comme dans 100 ans (au pire dans moins de 300 ans si on continue comme actuellement à se goinfrer d'énergie, c'est garanti avec une croissance de 2.3% de consommation d'énergie par an, même si on retirait tout le surplus de CO2 anthropique https://dothemath.ucsd.edu/2011/07/galactic-scale-energy/ ...) ou plus que toutes les conditions soient réunies au Luc. Les séries de données sont bien trop courtes pour estimer sérieusement les possibilités de la météo en Tx absolue un jour/mois donné, d'autant plus que le climat n'est pas stable et donc à l'instant t, comme la moyenne sur 30 ans se réchauffe en permanence, par définition on a qu'un record maxi journalier/mensuel/absolu du nouveau climat tant qu'il n'est pas stabilisé. Il suffit de voir l'écart de ces valeurs du 28/06 avec les courbes des records journaliers/mensuels/absolus diffusés ici ou là. Ca signifie de fait que sur des milliers d'années de ce climat stable au niveau du RC actuel, les valeurs records des 364 autres jours finiront à ce niveau de décalage respectif relativement au jour spécifique donné dans l'année, un niveau impensable avant cette journée. Amusez-vous à estimer les records potentiels ( au bout de milliers d'années sans plus de RC), pour d'autres jours de l'année, en décalant la courbe annuelle initiale des records journaliers avant ce record, jusqu'au niveau du record du 28/06 sans modifier la courbure... Tous les records journaliers qui ne sont pas battus très largement, deviennent insignifiants maintenant à cause de ce 28/06 car on sait que la météo a pu faire ce jour-là. Il n'y a aucune loi physique, ni statistique qui empêchera d'observer un écart énorme spécifique à la saison, au mois, au jour, un autre jour, respectant la courbure générale annuelle, c'est juste une question d'échantillonnage. On verra peut-être dans les analyses des pro, combien est attribué au RC et combien à la situ météo exceptionnelle, mais dans tous les cas, le fait est que ce niveau d'écart avec les autres records est possible même si on ne pouvait pas départager exactement les causes. J'ai très bien en mémoire l'air autrement plus limpide et sec dans l'absolu pendant le record de 42.7° du 7 juillet 1982 au Luc et les 40.4° à Toulon à 10 m de la mer (Il était difficile de se baigner sur les plages du Mourillon de Toulon, avec le vent fort très sec et l'eau froide. L'évaporation avec ce vent était terrible quand on sortait mouillé, on se gelait pendant un court moment malgré le soleil surpuissant avec ce ciel sans trouble et la T élevée) à l'inverse du ciel dans le Gard du 28/06 qui est très typique de ma brise de mer classique ici. Donc c'est clair qu'on peut faire plus avec des Td moins élevés et une situation favorable pour le vent de terre à ciel limpide. Quand on voit la valeur de Vinon sur Verdon dans le haut Var à 44.3° en site classe 1, alors que la masse d'air a été assez humide et instable pour générer des orages pas très loin, ça ne fait aucun doute que le Luc montera un jour bien plus que les 46.5° estimés par les stats. La situation favorable ne sera pas simple à atteindre au Luc, car depuis des années je remarque que le vent de terre résiduel ou non dans ces cas, ne parvient plus à atteindre autant la plaine du Luc et ici plus à l'W, malgré parfois des prévisions météo de son extension. Brignoles semble devenir une limite du vent de terre plus fréquente l'été. D'après moi le problème est qu'avec le RC supplémentaire, la dépression thermique de la plaine du Luc se renforce et protège le Luc plus souvent de l'extension du vent de terre qui se termine habituellement dans les Maures ou contre la brise avant le Dramont, une situation qui permettaient les plus gros records. L'idéal pour scorer au Luc ou ici, c'est d'être à la limite de portée du vent de terre. La brise dans l'autre sens est un véritable mur sur lequel l'air déjà comprimé x fois, vient encore plus se comprimer, et c'est de cette façon que Fréjus St Raphaël au bord de mer avait chiffré plus que Le luc en 83, une station classe 1 dans cette direction de vent alors que le Dramont tout proche était en brise, qui détenait auparavant le record de France au bord de mer avec 42° en 1983. Donc mon pronostic (d'illuminé averti 😂 ) spécifique au Luc maintenant qu'il est possible de relever du 28 à 30° à 850 hPa à grande échelle sur le SE, en oubliant les stats, c'est du 49-50° de nos jours dans le cas d'un vent de terre d'W assez bien établi dans ce coin de la plaine du Luc avec un air aussi chaud. (Mon estimation de 46.5° était basée que sur les stats sans l'effet spécifique et les possibilités observées de la météo et en particulier le 28/06. ) La théorie est trop globale avec un RS en prime pas réalisé au dessus de la plaine du luc et sans aucun détail de ce qui se passe partout dans les très basses couches au-dessus des massifs et des plaines en amont et de celle du Luc. Il faudrait disposer des infos et se concentrer sur les détails à une échelle très fines dans les très basses couches entre l'W Var en aval des massifs et la plaine du Luc. La topoclimatologie en amont et vers le Luc, jouent à fond pour produire du 42.2° avec 21° à 850 hPa. A l'inverse du climat, il faut raisonner à très petite échelle. Le RS donne une info globale très utile mais insuffisante pour un coin comme Le Luc avec tous les phénomènes de petites échelles de très basses couches partout en amont et surtout entre 2 stations de RS. Edit : J'ai d'ailleurs retrouvé une explication de Pierre Carrega qui m'a beaucoup appris en topoclimatologie, qui montre comme le foehn dit "sec au vent", par dynamisme peut réchauffer un max l'air, dans un extrait d'un vieux bulletin de MSE : "On a ce mardi 1er août un cas typique de Foehn « sec », c’est à dire sans pluie au vent du relief. Contrairement aux sempiternelles interprétations présentes dans les manuels, la plupart des cas de Foehn donnant une forte chaleur sèche sous le vent d’un relief (ici la Côte d’Azur) ne sont pas accompagnés de pluie au vent (versant W du massif Central et des Alpes), et ne sont pas des foehns « humides au vent ». On sait que dans ce cas la chaleur gagnée sous le vent, par rapport au vent, s’explique par une épaisseur de compression adiabatique « sèche » (sans condensation) plus importante sous le vent que ne l’est l’épaisseur de détente « sèche » au vent, car la masse d’air a perdu de l’eau par précipitation sur les reliefs au vent (pluies orographiques). Cette perte d’eau provoque à la descente de l’air, une fois passé le sommet, une rapide désaturation et un réchauffement adiabatique « sec » beaucoup plus important que n’a été le refroidissement en mode saturé à la montée. Dans le cas de ce 1er août, la plongée de l’air sous le vent n’est pas précédée d’une ascendance au vent. Le phénomène est purement dynamique et relève de la mécanique des fluides : la vitesse suffisante du flux de secteur W vers 3000-4000m d’altitude conjuguée à son orientation par rapport au relief préalpin le fait plonger, et gagner environ 1°C par 100m, soit 30° pour 3000m de descente… (fig 7). Les quelques nuages lenticulaires constatés se moulent dans la partie supérieure des ondes engendrées en aval du relief (lignes rouges)." http://www.meteosudest.org/Pierre/BulletinPC01082006.php
  7. Le 28/06, la station de Besse sur Issole (83) a enregistré le nouveau record de Tx du mois de juin à Besse, 40.8° au thermo MF, 2 ème valeur de la station avant les 40.7° d'août 2003 et après le record absolu 41.8° en août 2017 et surtout c'est la première fois que le seuil des 40° est franchi avec une situation à brise de mer habituelle. Ancien record avec la brise 39.9° en 2003. 39.8° dans l'abri Young ventilé méca à la norme USCRN (Record absolu 40.7° en août 2017). 43.4° dans l'abri Socrima en site classe 4, même valeur qu'en août 2017. Preuve une fois de plus, qu'un site pas assez dégagé et/ou avec trop de surface et/ou de largeur de végétation courte trop haute dans les rayons de 5, 10 et/ou 30 m (du moins dans l'axe du vent concerné le jour de la Tx estivale donnée), ne permet pas de réaliser des comparaisons entre stations et pire de déterminer quel jour l'air est le plus chaud réellement, car les biais radiatifs sont trop présents et ils génèrent une dispersion des valeurs plus importante. Mais attention il faut vraiment analyser la direction et la vitesse du vent car les jours de vent venant de l'autre côté, des directions autour du secteur Est (secteur plus dégagé pour la classe 4 que pour la classe 2 !) il n'y a pas plus de +-0.2° d'écart hors cas rares pour 2 Socrima ( Là c'était à l'époque de la comparaison entre le Socrima en cls4 et le Stevenson cls 2 tout un été avec une bonne partie de mai , ), entre la classe 2 et 4 et le plus souvent moins. Le record le plus surprenant ici, c'est le record absolu de Tn avec 26.4° le 28 ( Ancien record 24.0° en août 2016, ancien record de juin, 22.5° en 2014, en 2003 il avait fait encore moins chaud la nuit, ici.) Avec l'ami Cévenol13, en ce jour historique incroyable pour la météo, pour la climatologie française et pour notre association/ notre le site et donc pour les plus de 1000 adhérents, les milliers de passionnés qui alimentent notre site et les forums, nous ne pouvions pas ne pas être en live sur le terrain de départements en vigilance rouge canicule, (surtout moi addict à la chaleur, allergique au froid, il me faut un bandeau sur les oreilles en vélo à partir de 15°, sinon douloureuses, elles casseraient seules, car glacées !), candidats au record de France de température maximale, avec le matériel nécessaire dans un site parfait classe 1 afin d'être certain de recueillir une mesure scientifique et représentative d'une très grande étendue de l'air entre 1.5 m et 2 m du sol, sans biais radiatifs majeurs autres que les défauts et limites bien connus des abris à ventilation naturelle, surtout ce jour avec un vent de terre soutenu de N à NE sur ce secteur de Teyran (Au NNE de Montpellier). ll aurait fallu choisir le site dans la région les jours avant ou au minimum la veille, mais bon impossible avec nos obligations. Le jour même nous étions pris par le temps, avec une mauvaise circulation et sur les cartes on ne trouve pas d'infos sur la hauteur de la végétation, pour trouver un champ récolté/tondu il y a peu, avec une végétation courte de moins de 10 cm sur une étendue de plus de 100 m dans l'axe du vent du jour. Nous voulions nous installer pour midi au plus tard, afin que les abris climatisés par la voiture aient le temps de s'approcher de l'équilibre avec la T de l'air (La constante de temps d'un abri Socrima étant bien plus longue que celle de la Pt 1000 qui est de 60 s sous 1 m/s de ventilation d'air, même constante que celle utilisée dans le réseau au top de l'USCRN aux US) Voici des photos qui complètent celles du lien plus bas : http://meteo.besse83.free.fr/imfix/canicule062019net/Ouest.jpg Cévenol13 avait fait un premier point en direct le 28 dans le forum et publié des infos et photos : Au final entre 15h et 16h UTC, nous avons relevé 44.5° de Tx dans l'abri Socrima MF et 44.6° un peu plus tôt dans l'abri Davis Vantage Vue modifié (placé 35 m plus Sud que l'abri Socrima). Il faut rajouter 0.1° aux valeurs lues pour les différences inter-sondes des Pt 1000 à Besse (Exactement +0.12° pour celle du Socrima, +0.086° pour celle du Davis Vue) : Petit détour instrumentation : Dans les études US plus récentes dont j'avais donné les liens à l'époque, rien n'a pourtant changé, pas plus que les hollandais avec des bibles sur les comparaisons d'abris. Au moment de l'installation avant midi à Teyran, les capteurs affichent plus de 40° plus rapidement que je ne l'imaginais en sortant de la voiture polaire (clim réglée du coté de Cévenol13 à 20°). Après l'installation sous le soleil de plomb, la prise des mesures aux jumelles laser, les notes, les photos, en dehors de faire 300 m toutes les 30 mn sous le soleil pour regarder sur les afficheurs les Tx des dataloggers, nous sommes restés à l'ombre partielle (donc autour de 50° à l'ombre hors abri normalisé) dans la pinède vers le NNW, à analyser la situation avec les autres stations et les infos des passionnés d'Infoclimat. Je craignais que le smart ne fonctionne plus à un moment. La batterie externe supplémentaire apportée se mettait en sécurité et n'a plus rien voulu savoir avant des heures de clim pendant le retour infernal parsemé d'incendies et de routes dont 3 autoroutes, coupées : J'avais oublié le sac dans la voiture surchauffée avec des batteries de secours du smart ( qui date de l'époque où on pouvait les ouvrir à gogo sans problèmes pour changer une batterie très facilement), trop bouillantes, j'ai dû les mettre dans la glacière; elles n'ont pas apprécié la journée. Malgré cette faible activité physique de 11h45 à 18 h, entre 11h45 et 16h, j'ai bu 3.5 litres d'eau des 4 litres emportés (0.5 l le matin dans la voiture sur le trajet et je ne compte pas 1 l en plus des 4 l de liquides, absorbé chez moi avant le départ) + une canette de 33 cl de Perrier jusqu'à 16h. Il a fallu se réapprovisionner à 16h et boire 2 litres pour s'hydrater 2h de plus sur le terrain et les heures du trajet du retour (lui climatisé). Avec l'âge je dois avoir des fuites d'eau dans ma tuyauterie, mdr, vu que je n'avais pas besoin d'autant d'eau à Djibouti ou dans les terres du Soudan et autres fournaises avec plus chaud en étant plus actif et en passant plus au soleil. Ce fut une journée qui restera dans les annales de la météo, de la climatologie et dans la mémoire de tous les passionnés par cette science. A noter les 45.1° à Brignoles dans le Stevenson + thermo MF du site classe 3 de l'ex StatIC de Brignoles. Une des plus grosses différences observées en Tx par ciel clair, entre ma station et celle-ci à 18 km en ligne droite (le vent de terre n'est pas arrivé ici plus à l'Est).
  8. Au final à Teyran en site classé 1, pour les stations mobiles, Socrima et Pt 1000, 44.5°, abri Vue modifié et Pt 1000, 44.6°. Nombreux incendies dans le secteur sur le retour, 30 départs, 3 visibles des environs de St Gilles. 3 autoroutes fermées. Routes infernales un vendredi soir. 5
  9. Bof, pas impressionnant ce nouveau record pour la période car en 2019 avec le RC supplémentaire depuis 2002, avec la tendance de fond, on devrait perdre bien plus d'un coup qu'il y a 17 ans et en particulier plus que pour le plus gros pic de fin juin 2002. https://nsidc.org/greenland-today/greenland-surface-melt-extent-interactive-chart/
  10. Et oui quand les IC se croisent, on ne peut départager les valeurs, elles ne peuvent pas être considérées comme significativement différentes. C'est pour cette raison qu'il vaut mieux suivre les écarts d'au moins 0.1°.
  11. Pour ceux qui s'intéressent à la précision de l'anomalie de température globale annuelle : https://agupubs.onlinelibrary.wiley.com/doi/pdf/10.1029/2018JD029522 http://sci-hub.ren/10.1029/2018JD029522 (papier "libre"/hacké, lien probablement rapidement invalide)
  12. En juin 1987, 122 km/h. Je m'en rappelle bien, car j'étais sur la route dans le secteur. http://tempetes.meteo.fr/spip.php?article98
  13. J'ai téléphoné à un responsable vendredi 31 mai. Comme je lui ai précisé, le principal problème de cette station pour la climato (d'IC, d'un passionné de vent maxi, de pluie en 1 mn, de captures de toutes les variations de T et autres comme avec des stations MF et Davis) c'est qu'elle ne mesure pas les paramètres pendant 80% du temps pour des raisons d'autonomie électrique ( 1 mois). La station travaille que pendant les 2 dernières minutes avant l'envoi des données toutes les 10 minutes, donc pendant 8 minutes, elle ne voit rien. Hors test capacité du matériel, même s'il était bon, c'est pour le moment une station utile pour assez bien approcher le vent moyen sur 10 mn, la T moy, des Tn lentes, pour des cumuls de pluies et faites pour certaines Tn des TAF, des événements ponctuels, des éoliennes, pour quelques valeurs qui ne correspondent pas aux normes climato. Elle n'est pas faite pour le vent maxi du jour, la T maxi, certaines Tn brèves, l'intensité des pluies, surtout ici ce serait plus qu' hasardeux, car la proba de capturer le vrai vent maxi du jour par exemple, est moins bonne que le hasard. Pour parvenir au niveau du hasard il faudrait déjà qu'elle capte les rafales sur le pas nécessaire minimal pendant 50% du temps et dans notre cas pour la climato c'est 100% du temps au pas de 0.5s et/ou 3 s. L'anémo intéressant, est piézoélectrique. Il mesure des pressions sur le cône en 0.1 s (donc sans problème d'énergie pour échantillonner en permanence et avec une reprogrammation, il pourrait sortir les valeurs aux normes). Une rafale sort quand il y a une certaine stabilité du vent sur plusieurs échantillons d'après un algorithme. Il n'a pas pu me dire sur combien d'échantillons la stabilité doit être vue. Le pas de mesure est donc variable en attente d'une certaine stabilité (donc d'après moi, le pas est d'autant plus long que le site est turbulent avec des variations de la vitesse du vent en peu de temps vu que c'est la condition). La rafale maxi prend en compte les 20 plus fortes rafales dans les 2 dernières minutes (donc pas celles pendant les 8 minutes où elle dort). 450 km/h atteint en soufflerie, à 135 km/h seulement 1 km/h d'écart avec la soufflerie (donc même vitesse que soufflerie avec son incertitude aussi). Quand il y a une fiente ou autres, le capteur le remarque et tient compte de la nouvelle pression pour le zéro (A voir avec la pression de la pluie forte). Il y a un bruit de fond qui ne permet pas d'être certain de la vitesse à moins de 3-4 km/h. Le pluvio n'a pas de pièces mobiles, c'est un système de syphon. Il faut que ce n'est pas comme le premier pluvio Davis à syphon lamentable du début des années 90, qui me faisait rêver d'un futur pluvio à augets. Pour la température c'est un SHT21 ( moins précis que le SHT31 chez Davis, lui même moins précis que le SHT35 et que le tout nouveau SHT85 (+- 0.1° sur une bonne partie de la gamme) remplaçant le SHT75) et chaque exemplaire est corrigé spécifiquement. La station envoie la moyenne des 10 valeurs dans les 2 dernières minutes, donc les tests d'abris sans sondes identique avec un échantillonnage équivalent à la Davis seront biaisés (les Tx seront lissées en plus d'être ratées de façon indépendante du lissage de la constante de temps, donc si la station sort souvent des valeurs identiques à la Davis, ce sera plutôt signe que l'abri lui-même surchauffe. Si cet abri est bon comme les autres abris normalisés, comme il l'indique, il devra sortir des Tx souvent plus froides que la Davis vu le sommeil de la station 8 mn et le lissage sur 2 minutes contre 10 s en permanence pour la Davis) Le plastique est biodégradable donc au bout de quelques années, des pièces sont à changer, mais elles ne sont pas chères, quelques dizaines d'euros. Une station est en test sur un mât géant de l'EDF avec un anémo tous les 10 m. L'EDF est satisfait d'après lui. Il verra avec le concepteur pour l'échantillonnage en fonction de l'autonomie et la possibilité de déporter l'anémo (il est détachable, mais il y a de l'électronique pour d'autres capteurs dans le cône avec la protection électrostatique/magnétique de l'électronique ailleurs) Je lui ai proposé de tester bénévolement la station. Je l'ai motivé en lui montrant le potentiel mondial s'il modifiait sa station pour la climato afin de devenir meilleur que Davis avec un anémo sans entretien et un pluvio sans pièces mobiles en plus de la capacité à transmettre dans les coins perdus pour un prix compétitif. Pour le réseau GSM je lui ai indiqué qu' il fallait une mémoire interne car ici je ne compte plus les coupures de réseau de tous les fournisseurs en même temps sur le seul mât capté, dans les situations extrêmes où il ne faut surtout pas rater un record, pendant les orages ou par temps calme pendant des pannes en amont, ou avec les bévues de techniciens sur le câblage du pylône... Vu les délais de réparation, une semaine de mémoire est un minimum, l'idéal serait au moins un mois pour les coins inaccessibles l'hiver. En fait avant les essais, sur le papier malgré que cette station soit très intéressante, pour IC, il manque une mémoire, une alim suffisante avec un échantillonnage permanent (100% du temps) et assez aux normes comme les stations MF et Davis.
  14. Très intéressant ! Cependant ça peut-être largement le hasard de la météo /climato de ces périodes, car vu le peu d'échantillons, il n'y a absolument rien de statistiquement significatif (sans avoir besoin de le calculer tellement c'est trop faible . Ca ne veut pas dire qu'il n'y a rien, mais là faute d'échantillons, trancher dans ce sens serait justement se remettre totalement au hasard capable de produire bien pires coïncidences dans l'IC à 95% . ) et surtout pour une bonne raison, par le fait qu'il n'y a pas la comparaison du pyrano avec l'héliographe sur le même site avec les mêmes masques au même moment, mais avec des stations à distance. Et oui c'est un sacré problème vu que MF profite le plus souvent des modifications de capteurs, de normes, de classifications, pour améliorer les sites et l'emplacement pour le paramètre concerné, donc dans le cas présent probablement en évitant plus de masques qu'à l'époque de l'installation des héliographes Cimel. C'était pareil pour la T ces dernières années. Dans le Var en remplaçant les abris Cimel par des abris Socrima, MF a effectué de petits déplacements ou des élagages, déboisements, ou autres, pour de bien meilleurs dégagements. Donc celui qui pratiquerait ton analyse à distance sans avoir tous les éléments de modification du site et de l'emplacement de l'abri, de la station, trouvera aussi un changement dans la température en plus de celle due au meilleur abri. Donc sans informations sur l'emplacement exact des différents pyrano par rapport aux héliographes Cimel dans un même site, ni sur le déplacement ou non du capteur, les modifications dans le site et autour pour les masques (élagage d'arbres, déplacement de poteaux ou autres bricoles plus ou moins importantes), il vaut mieux se fier aux comparaisons avec les pyrano et les héliographes dans un même site. MF a réalisé des comparaisons en double sur certains sites du Nord autres qu'à Trappes, comme à Strasbourg (sous-estimation faible du pyrano, donc pourquoi l'inverse dans tes stations ?) et eux seuls pourront valider que c'est bien le pyrano qui est en cause dans tes stations, du moins fautes d'échantillons suffisants pour exclure le hasard. Il faudrait voir si MF a effectué des mesures en double à Besançon où les écarts entre l'ancien Campbell et le Cimel avaient été les plus importants et donc c'est là que potentiellement le pyrano est sensé être le plus mauvais par rapport au Cimel ou pyrhéliomètre.
  15. 5 à 10% mais sur quel pas de temps ? Je n'ai pas vu ça dans la doc des essais MF avec les comparaisons réalisées pour la mise au point de la méthode, ni pour son acceptation à l'OMM avant d'introduire la méthode du pyrano la plus précise, inventée par MF (Oliviéri). Il ne faut pas mélanger des écarts donnés pour une journée et les écarts au mois et encore moins à l'année, sur des normales, ça n'a pas de sens. Avec ces + 5 à +10% avancés ici, si c'était à l'année et pire aux normales, autant rester au Campbell ! Avec la méthode du pyrano, MF a relevé -0.6% sur le cumul pendant 8 ans à Carpentras par rapport à la mesure de référence la plus précise, donnée par le pyrhéliomètre. Sur un an à Strasbourg/héliographe Cimel on a -1.36%, -1.06% à Montpellier sur 4.5 ans, +0.09% à Trappes sur 9 mois sans mois d'été, +0.44% sur 4 ans à Tours, -0.11% à Ajaccio sur 6 mois, +0.06% à Faaa sur 2 ans, -0.3% à Gillot sur 2 ans. MF indique dans cette note que la méthode a tendance à sous estimer en général la DI d'un peu moins de 1% sur de longues périodes. Et depuis ces essais la méthode a été améliorée pour l'OMM car MF et autres spécialistes ont affiné le calcul des coeff spécifiques à la station. Dans les stations les plus récentes on peut programmer des formules plus complexes et celles d'analyses du signal pyranomètrique les jours d'insolation intermittente et déterminer le trouble atmosphérique avec d'autres paramètres, pour améliorer la précision journalière. Dans les publications internationales sur le sujet, ces résultats sont régulièrement rappelés : L'amélioration des coeff pour Carpentras a entrainé une erreur de +1h sur 11012h (sur 2007-2010) mesurées par la référence, 0.00% d'erreur. Il suffit de regarder les tableaux des écarts pour différentes villes, pour voir que l'erreur minime au pas annuel, sera encore plus négligeable pour déterminer des normales de DI. https://www.wmo.int/pages/prog/www/IMOP/publications/IOM-109_TECO-2012/Session1/O1_07_Vuerich_Sunshine_Duration.pdf Il faut bien comprendre que des erreurs non systématiques non négligeables au pas journalier, se compensent et sont négligeables pour des années et encore plus pour des normales. Après c'est clair que plus on sera au Nord de l'Europe et plus ce sera compliqué l'hiver avec un soleil rasant tout le temps. Dans le chapitre 8 de la bible de l'OMM, "Measurement of sunshine duration"
  16. Oui j'avais bien lu pour CMIP5 que plus on injectait de paramètres, plus mais aussi moins compris/mesurés, et plus l'IC devenait important à l'image de cet exemple, (mais à voir pour la valeur centrale meilleure sur le passé dans CMIP5) : extrait d'ici : http://www.insu.cnrs.fr/files/plaquette_missterre.pdf Mais bon vu que pour ces modèles le problème principal reste les nuages (qui représentent 70% de la dispersion entre les modèles sur la sensibilité climatique, http://documents.irevues.inist.fr/bitstream/handle/2042/56362/meteo_2015_88_56.pdf ), donc ça voudrait dire de fait que les nuages auraient été mieux estimés dans CMIP3 et que c'est CMIP5 qui le dit (pour Cotissois) tout étant moins bon sur ce point (vu que s'il était meilleur pour les nuages, il le serait aussi par rapport à CMIP3). Ca n'a pourtant pas l'air d'être le cas d'après vos discussions sur les nuages et l'embryon de CMIP6.
  17. Je ne comprends pas comment des modèles plus récents avec des ordi plus puissants, sont moins bons (pour prévoir le fond, l'évolution de moyennes sur 20-30 ans et non pas la variabilité interne) tout en confirmant que les anciens sont meilleurs. Car si les derniers sont moins bons, ce qu'ils confirment n'est pas sensé être meilleur vu que par définition en étant moins bons, leur capacité à capter le meilleur est douteuse et donc ils ne pourraient pas dire que CMIP3 est meilleur. Enfin c'est une histoire quelque peu circulaire vue d'ici. D'autant plus que pour le moment avec les obs on ne peut pas savoir s'ils sont meilleurs, car ça ne veut rien dire avec si peu de données depuis CMIP3 et 5, que les obs soient plus proches de CMIP3 que de CMIP5 (surtout que RCP 8.5 et 4.5 ne sont pas différents sur cette période, j'ai regardé, la valeur centrale renvoie le même écart avec les obs et que CMIP3 reproduit moins bien les obs passées). Donc vu d'ici je ne vois pas comment en voyant plus mal le passé (sur le fond) que CMIP5, en disant que CMIP 5 est moins bon, on en arrive à la conclusion que CMIP5 confirme que CMIP3 est meilleur.
  18. Même le graphe d'un sceptique qui publie régulièrement chez Watts, montre comme les pentes les plus récentes des anomalies et du cycle solaire, sont inversées : Avec cette cueillette de cerises, certains vont finir par nous dire que plus le soleil faiblit et plus la T globale monte : C'est mieux avec l'ensemble : Les obs sont compatibles avec ce que nous dit la physique. L'influence du cycle solaire est tellement faible pour le fond qu'elle est noyée dans le bruit (Dixit Leif Svalgaard ) : Il y a comme une différence avec ce qui est sensé avoir une influence sur le fond : Il n'y a pas de tendance de fond dans l'activité du soleil, elle est considérée comme nulle sur ces 300 dernières années comme le montre un des graphes de Leif Svalgaard :
  19. Une "erreur" habituelle en climato de Fred Decker qui a pourtant été informé x fois de l'existence des séries homogénéisées et où elles se trouvent : Une normale n'est pas prévue pour le suivi de l'évolution du climat, c'est indiqué quelque part dans un des manuels à l'OMM, car les données ne sont pas homogénéisées. Avec des données homogénéisées : Pour la suite après 2013, je ne sais pas si cette série avec 2018 est homogénéisée : https://www.ncdc.noaa.gov/cag/city/time-series/USW00094846/tavg/12/12/1958-2018?base_prd=true&firstbaseyear=1958&lastbaseyear=2018&trend=true&trend_base=10&firsttrendyear=1958&lasttrendyear=2018&filter=true&filterType=loess
  20. Tamino avait traité ce papier à l'époque. Je me rappelle bien qu'il disait dans son blog que la très grande majorité de ces tendances ne sont pas significatives. Elles sont trop courtes pour la variabilité donnée. On ne peut pas tenir compte de ces tendances car le signal hivernal sur une durée suffisante est statistiquement significatif de l'inverse, d'un réchauffement (S'il avait été significatif d'un refroidissement de l'hiver avant ces tendances trop courtes, il aurait été juste de déduire que le signal n'a probablement pas changé, mais là c'est tout l'inverse). Il n'y a que dans cette science que certains perdent leur temps à publier des papiers basés sur ce qui n'est pas significatif, sur du bruit et pire, le compare à celui encore imprévisible par les modèles inaptes pour l'échelle interne même au niveau global moins compliqué (Ca n'a pas de sens avec une telle sous-estimation de la variabilité interne par les modèles faits pour la prévis climatique (de moyenne/30 ans et tendances /50-60 ans environ) et pas encore bons pour le bruit interne : https://pbs.twimg.com/media/DyitheTWkAAgZxk.jpg https://twitter.com/Knutti_ETH/status/1092315944519720960 ) Pour voir l'évolution des hivers à cause de la variabilité hivernale (qui en prime a peut-être augmenté d'après un post récent de Tamino https://tamino.wordpress.com/2019/01/31/global-warmings-wild-winter-in-the-usa/ ) , il faut tirer des tendances assez longues, sinon ce sera toujours le même problème d'interprétation non scientifique et la noyade de plus en plus habituelle de certains dans le bruit. Sous ces latitudes, le réchauffement des extrêmes de froid y est 2 à 5 fois plus fort que le RC moyen, donc pas top pour des hivers qui se refroidiraient. Non seulement il y a significativement moins de vagues de froid, mais en plus elles sont moins étendues et moins puissantes (ce qui n’empêche pas de battre des records ici ou là, vu les séries de T journalières bien trop courtes pour que ça n'arrive plus. Il faudrait des milliers d'années de climat stable pour obtenir des records de froids significatifs de ce que peut faire la météo pour l'état moyen donné malgré le RC actuel.) https://pbs.twimg.com/media/DyKuG2HXQAAmpRo.jpg https://twitter.com/gjvoldenborgh/status/1090625499892772865 https://pbs.twimg.com/media/DyaFYQ6X0AEuUjt.jpg https://twitter.com/gjvoldenborgh/status/1091706619346472960 Ce n'est clairement pas plus de froid l'hiver qui saute aux yeux, mais l'inverse : https://pbs.twimg.com/media/DyfDEzRWwAAah09.jpg https://pbs.twimg.com/media/DyfDFWGWoAEEOH0.jpg Il n'y a qu'un point de départ (1995) du calcul des tendances des vagues de froid, donc qu'une seule tendance, qui ne montre pas de diminution des VDF mais qu'en apparence uniquement, car là aussi pas significative. https://pbs.twimg.com/media/DyfDF4mWsAE66yq.jpg https://twitter.com/gjvoldenborgh/status/1092055951266496512 Aucune tendance calculée après 1985 environ n'est significative. L'agitation des tendances centrales selon les années quand elles deviennent plus courtes et surtout non significatives, est habituelle pour la plupart des paramètres. C'est le bruit qui prend la main sur le fond, ce sont des variations qui n'ont très probablement pas de sens (confiance à 95%) . On ne peut revendiquer une tendance au refroidissement de l'hiver ou une augmentation des VDF sous ces latitudes avec des tendances qui n'ont aucun sens (c'est pire que prendre son doigt mouillé car là on a clairement des tendances significatives avant qui montrent l'inverse.) : On peut voir qu'un certain niveau de froid observé il y a quelques jours aux US, avait une durée de retour d'environ 20 ans en 1900, avec le RC c'est pratiquement 150 ans : https://pbs.twimg.com/media/DyKu04hX0AMRm2K.jpg https://twitter.com/gjvoldenborgh/status/1090626290024173568 https://pbs.twimg.com/media/DyQJGzEWoAAk09V.jpg https://twitter.com/ClimateOfGavin/status/1091007104691912705 Au niveau global en dehors de vouloir cueillir des cerises pour extraire un point bleu ou pour tirer des tendances trop courtes d'évolution de VDF et faire dire aux tendances non significatives ce qu'elles ne disent pas, c'est pareil : "And a global view of the trend in daily temperature extremes around the world compared to the global warming signal shows that extreme lows are warming FASTER than the overall global warming signal. So extreme cold waves are weakening quickly" https://cliffmass.blogspot.com/2019/01/are-cold-waves-increasing-under-global_30.html https://www.worldweatherattribution.org/trends-in-weather-extremes-february-2018/ Il n'y a rien de significatif dans les données qui montre un refroidissement des hivers (ou plus de VDF, ou plus d'extrêmes de froids) sous ces latitudes, c'est tout le contraire, car tout ce qui est significatif affiche un réchauffement hivernal à tous niveaux et surtout des VDF et des extrêmes en durée, en fréquence et en étendue.
  21. Je ne comprends pas bien la question, car je ne connais pas de limite de 3 mois (hors celle de la mémoire interface selon le pas de temps choisi). La base de données de Weatherlink est limitée à 25 ans par station. Il faut créer une 2 ème station (pour une nouvelle base de données qui assurera la continuité) avant la fin des 25 ans pour ne pas perdre les données nouvelles arrivant juste après 25 ans. J'avais fouillé le sujet vu que ça m'est arrivé l'année dernière de ne plus pouvoir récupérer les nouvelles données (C'est indépendant des versions. Ma base de données de 25 ans a connu toutes les versions, dont celle à l'origine sous DOS jusqu'à la version 6).
  22. Pour le moment je n'ai pas le RCP8.5 en stock, j'ai que tout CMIP3 : Réchauffement moyenne/30 ans CMIP3 fin 2018 /1850-1900 : 0.903° (Observations de Berkeley : 0.907°) Pour le Loess/50 ans : 1.22° (Berkeley 1.20°) Graphe avec quelques séries et ERA5 : https://pbs.twimg.com/media/DybH-_cVsAY3hnz.jpg https://twitter.com/hausfath/status/1091779851512508416
  23. Où en est le réchauffement climatique global avec la série de Berkeley fin 2018 ? https://pbs.twimg.com/media/DxsOMXbU8AUDzH-.jpg https://pbs.twimg.com/media/DxsGzrpWoAEw42U.jpg https://pbs.twimg.com/media/Dxr9F1xX0AAX7Nz.jpg La moyenne climatique sur 30 ans de 1989-2018 est plus chaude de 0.91° que celle de référence préindustrielle du GIEC sur 1850-1900. Les modèles du GIEC pour le scénario RCP 4.5 (représentatif de la moyenne de tous les scénarios pour encore un bon moment. L'explorateur de données ne fournit pas sans trop gros travail perso, à l'inverse pour les modèles de l'AR4, une simple série de la moyenne de tous les modèles de tous les scénarios) de l'AR5 donnent une prévision de 0.93° de la moyenne/30 ans fin 2018. Donc 0.02° de différence, c'est très correct pour le moment (Il faudrait une différence d'environ plus de 0.08° pour que ce ne le soit plus) Le loess/50 ans des obs a une tendance en retard. Il affiche 1.20° de réchauffement pour 1.31° pour le loess/50 ans des modèles, ce qui est logique avec le bruit passé (celui du faux hiatus/palier interne et non climatique, qui influence plus la tendance et donc le bout du Loess, mais bien moins la moyenne climatique. Un bruit chaud devrait finir par compenser le bruit moins chaud du hiatus interne (un surplus d'ENSO+ après le surplus d'ENSO- pendant le hiatus) Avec la dernière méthode du GIEC 2018 qui utilise la dernière moyenne/10 ans pour estimer une moyenne/30 ans à cause de la tendance de fond significative, on a 1.10° de réchauffement pour 1.18° prévu fin 2018 par les modèles. Pour la méthode habituelle du GIEC, la tendance linéaire sur 1850-2018 donne un RC de 1.09°. Celle jusqu'à fin 98 était de 0.76°. 0.34° de RC depuis fin 98 (Significatif). Si on prend une autre méthode de l'AR5, la moyenne des 20 dernières années 1999-2018 par rapport celle 1979-1998, le réchauffement est de 0.38° (Significatif). https://pbs.twimg.com/media/DyAyBVXUwAAK6DL.jpg https://pbs.twimg.com/media/DyFbjpHXcAAllzH.jpg https://pbs.twimg.com/media/DxsKdiDXcAUdVOG.jpg https://twitter.com/hausfath/status/1089926618452176897 https://twitter.com/chriscmooney/status/1088475285224329216
  24. Si ces courbes sont relevées avec deux abris Davis (ou deux abris MF) et des sondes strictement identiques et étalonnées l'une sur l'autre et que les positions ont été inversées (le plus haut à la place du plus bas pour constater que l' influence de la hauteur plus grande (plus basse) est bien identique aux 2 emplacements), ça démontre que l'emplacement de l'abri est insuffisant (ou que la végétation courte n'est pas correcte), car on ne relève pas de tels écarts dans un assez bon site pour cette différence de hauteur (ça été démontré aussi par les essais MF). Récolter un faible écart pour cette différence de hauteur, c'est un très bon moyen objectif de vérifier la qualité de l'emplacement de son abri. Ce sont des écarts que je relevais dans ma classe 4 entre des abris Davis avec 50 cm de différence de hauteur, qui ne s'observent pas en classe 2. Le fait que l'écart de Tn ne soit pas différent rend douteux l'étalonnage et/ou une utilisation d'abris différents ou moins bons (ou un des abris), une différence de réactivité des capteurs, car la différence dans un mauvais site est plus faible en Tn qu'en Tx estivale sauf en cas de vent qui se lève vers le moment des Tn (une est plus haute sur l'abri touché par le vent et pas dans l'autre plus abrité avec l'air moins mobile en fin de nuit radiative). Sans matériel identique et bien étalonné, on ne peut pas déterminer ce genre d'écart et l'attribuer totalement à la différence de hauteur, de plus dans un site pas assez assez dégagé ou avec de la végétation courte trop haute, il faut inverser la hauteur des abris, pour vérifier l'écart dû à la différence de position des abris dans le site insuffisant. Sinon même avis qu'Adri pour la zone 4 et la hauteur d'installation dans ce site. L'abri a besoin de respirer à 2.5 m et d'éviter la surchauffe du site l'été (et éviter des Tx trop froides l'hiver) du sol abrité ( si ombragé l'hiver).
  25. Pour "tes" valeurs en "2035", d'après le document, ce sont les médianes des scénarios pour des moyennes/30 ans sur 2021-2050, celles connues en 2050 et non en 2035 valeurs centrées connues qu'en 2050 (ou alors éventuellement tu peux nous dire en 2040 avec la méthode du GIEC, on estime celle sur 30 ans à partir de la moyenne /10 ans connue fin 2040) 1 : 25% ;75%. L'IC plus large que "tes" valeurs médianes est de 50%, qui reste ridicule, car 50% des modèles donnent des valeurs qui sont hors des bornes [0.3°; 2° ], donc c'est quand même très loin de l'IC à 95% et très loin d'être moins probable d'observer une moyenne/30 ans en dehors des médianes, mais aussi d'un IC à 50%. On a autant de proba de relever une valeur dans l'IC qu'en dehors, donc ton histoire de majoritaire pour des valeurs de 0.6° à 1.3°, ça ne tient pas du tout la route car ça ne l'est déjà pas de 0.3° à 2° ! Diffuser dans le document un tel IC réduit, démontre que les pro ont conscience des limites de ces modèles à l'échelle minuscule de la France et donc qu'ils ne font très probablement pas aussi bien pour situer le signal de fond qu'au niveau global avec un IC courant à 90%. En fait le signal observé (du moins celui estimé des obs par diverses méthodes, car imparfaitement connu surtout vers le bout en 2018) est au-delà de cet IC de 50%, mais il reste largement dans le domaine du probable aussi pour les modèles, car le loess/60 ans est à la limite de l'IC à 66% (17%, 83%) du graphe suivant, plus large que l'IC à 50% pour les moyennes sur 30 ans (ce qui n'est pas le cas pour les courbes du graphe). J'ai ajouté le morceau de loess/60 ans calculé depuis 1900 (d'après les anomalies MF recalées /1976-2005) pour la période sur 70-2018 dans ce graphe des projections pour la France (Anomalies annuelles MF jusqu'en 2014) : Récupéré ici : http://www.meteo.fr/meteonet/temps/clim/ClimatHD/ressources/fiches/FUTUR_REG_TEMPE_FPROD.pdf Ce loess d'échelle climatique est loin d'être du bruit et il est contaminé par une partie d'un vrai palier climatique d'avant 70, donc du "froid" relativement au fond. La tendance linéaire un peu plus forte depuis 70 est plus proche de celle climatique sur 60 ans que d'un bruit interne de court terme ( Car ça fait quand même 49 ans de fort réchauffement sans changement significatif). Il n'y a rien dans ces modèles qui indique qu'il y a plus de proba d'observer un bruit "froid" (moins chaud) qui continuerait (celui en cours depuis 97) , ou à venir, plutôt qu'un bruit chaud ou équivalent à l'actuel depuis 70. L'écart est plus profond qu'un problème de niveau de bruit et de timing interne, vu les obs qui ne montrent pas la même situation que pour l'écart constaté au niveau global qui s'analyse avec les stats comme étant très probablement dû au bruit (on devrait-être dessous les valeurs centrales et non au-dessus s'il n'y avait pas de problème de fond des modèles sur la France, comme pour le global, car on sort d'un bruit "froid" (moins chaud) et la logique veut qu'on retrouve un bruit chaud ou au minimum la tendance de fond). Il faut voir que le bruit le moins chaud sur la France depuis 70 existe déjà depuis 1997, car on y relève la plus faible tendance un peu longue qui n'est pas significativement différente de zéro, 0,22°/déc depuis 97, mais les obs montrent que ça repart à la hausse ensuite et l'augmentation de la moyenne/30 ans est de 0.53° depuis leur moyenne de référence, donc depuis début 2006 (soit déjà pratiquement tes 0.6° de la médiane basse attendue qu'en 2050 ! Et plus que les 0.3° de l'IC bas à 50%), soit une tendance effective de 0.4°/déc sans incertitude du modèle linéaire ( pour 0.68°/déc en modèle linéaire depuis 2006, pas différente avec son incertitude large, de celle "nulle" à 0.22°/déc depuis 97) parfaitement conforme à celle longue sur le fond observée depuis 70 de 0.4°/déc. Donc je ne vois pas ni dans les obs, ni dans les modèles une proba supérieure de bruit "froid" qui devrait se poursuivre ou à venir, au contraire avec les obs, il y a un rattrapage en cours que ce soit pour le Loess ou pour la tendance faiblarde "nulle" depuis 97. La proba est supérieure pour que la tendance depuis 97 et le Loess/60 ans se redressent encore, sinon ce serait revendiquer de fait un prochain vrai palier d'échelle climatique (/30 ans au moins) qui n'est pas attendu dans les modèles sur la France. Un tel palier comme par le passé se percevrait déjà comme dans les obs au niveau global quand ce fut le cas. Si le bruit moins chaud continuait encore au minimum 8 ans en France, la tendance depuis 97 deviendrait différente de celle d'avant 97 et donc significative d'un changement pour le climat , d'un palier climatique en France, ce qui est absent des modèles et très peu probable avec les obs et les stats vu le RC de fond. Ne pas oublier que les modèles qui sont meilleurs au niveau global fournis avec un IC plus correct se sont plantés (du moins l'interprétation des physiciens qui s'évertuent à les utiliser dans un domaine pour lequel ils ne sont pas encore bien faits : pour prévoir le bon niveau avec le bon timing et la bonne fréquence des bruits internes !) sur le faux hiatus. Il n'y avait que 2% de proba d'observer ce faux hiatus dans les modèles, alors qu'on n'était pas loin de 50% de proba en utilisant les obs+stats ( donc pas loin du maxi des possibilités avec les obs et les stats) pour la durée du faux hiatus d'être observé (sans un puissant Nino plus tôt, qui de fait discrimine à lui seul les durées de paliers internes par rapport aux records significatifs (>=0.1°) avec le signal de fond actuel depuis 70), car parfaitement conforme pour la tendance centrale depuis 98 pour les stats basées sur les obs. Je n'ai pas vu passer que les modèles même pour l'échelle globale "plus simple" à prévoir, sont devenus capables de prévoir le bruit interne. A ma connaissance, ils sont toujours inaptes pour placer correctement 3, 5, 10, 15, 20 ans en avance dans un échantillon de climat, les plus forts Nino qui sont les seuls à pouvoir avancer ou retarder la fin d'un palier interne ou de record battu significativement d'au moins 0.1° (pour la tendance de fond donnée sans changement significatif), ce qui est bien moins compliqué que pour prévoir une fin de palier interne ou de nouveau record significatif sur la France, car il n'y a pas qu'un paramètre aussi déterminant qui joue autant sur la T annuelle et les paliers internes en France. Donc le problème hors période de scénarios plus discriminants après 2050, est de parvenir à prévoir le fond plus précisément à l'échelle minuscule de la France. Avec le RC de fond, donc à cause de la tendance de fond significative, les données ne sont vraiment pas assez i.i.d pour faire une fixette sur le centre d'une moyenne classique, qui n'est pas assez pertinente, donc il faut faire quelque chose pour estimer plus correctement la toute dernière moyenne et le niveau du bout du signal d'échelle climatique. Le GIEC (voire MF, à vérifier avec les 1.4°de RC trouvés) prend donc la liberté d'estimer une moyenne/30 ans par la dernière moyenne/10 ans (ce qui serait une grosse erreur sans tendance significative) en plus d' autres méthodes comme : Le traitement du bruit. Ils le déterminent et le retirent pour estimer le signal de fond le plus probable jusqu'à nos jours. Ils calculent le dernier RC de fond avec différentes tendances linéaires totales et regardent l'évolution à différentes périodes. Ils intègrent les forçages comme pour le GWI. Dans mon cas pour la France, j'utilise le loess/60 ans qui a l'avantage de suivre de près les moyennes/30 ans sans capter leur micro bruit inutile pour l'échelle climatique tout en allant au bout de la période, en respectant les changements significatifs de tendance linéaire, tout en regardant aussi ceux /30 ans, /15 ans, /10 ans, le loess auto, l'évolution des moyennes/30 ans et les points de changements significatifs de tendances linéaires, pour voir la cohérence et ne pas être contaminé par le bruit et/ou des artéfacts visuels/statistiques fréquents avec les lissages et des pentes linéaires non significatives. Pour bouger le loess/60 ans à la baisse d'ici 2050 pour rejoindre les 0.3°/déc de fond des modèles, il faudra obligatoirement un palier climatique pas vu par les modèles sur la France, d'où l'improbabilité que ça arrive et la probabilité que les modèles ne cernent pas bien le fond (là le Loess/60 ans devrait être un peu sous la valeur centrale les modèles, comme au global, si c'était une simple question de bruit, vu que celui moins chaud on l'a déjà eu sur la France aussi).
×
×
  • Create New...