Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

ChristianP

Adhérent Infoclimat
  • Compteur de contenus

    2 900
  • Inscription

  • Dernière visite

  • Jours gagnés

    1

Tout ce qui a été posté par ChristianP

  1. En juin 1987, 122 km/h. Je m'en rappelle bien, car j'étais sur la route dans le secteur. http://tempetes.meteo.fr/spip.php?article98
  2. J'ai téléphoné à un responsable vendredi 31 mai. Comme je lui ai précisé, le principal problème de cette station pour la climato (d'IC, d'un passionné de vent maxi, de pluie en 1 mn, de captures de toutes les variations de T et autres comme avec des stations MF et Davis) c'est qu'elle ne mesure pas les paramètres pendant 80% du temps pour des raisons d'autonomie électrique ( 1 mois). La station travaille que pendant les 2 dernières minutes avant l'envoi des données toutes les 10 minutes, donc pendant 8 minutes, elle ne voit rien. Hors test capacité du matériel, même s'il était bon, c'est pour le moment une station utile pour assez bien approcher le vent moyen sur 10 mn, la T moy, des Tn lentes, pour des cumuls de pluies et faites pour certaines Tn des TAF, des événements ponctuels, des éoliennes, pour quelques valeurs qui ne correspondent pas aux normes climato. Elle n'est pas faite pour le vent maxi du jour, la T maxi, certaines Tn brèves, l'intensité des pluies, surtout ici ce serait plus qu' hasardeux, car la proba de capturer le vrai vent maxi du jour par exemple, est moins bonne que le hasard. Pour parvenir au niveau du hasard il faudrait déjà qu'elle capte les rafales sur le pas nécessaire minimal pendant 50% du temps et dans notre cas pour la climato c'est 100% du temps au pas de 0.5s et/ou 3 s. L'anémo intéressant, est piézoélectrique. Il mesure des pressions sur le cône en 0.1 s (donc sans problème d'énergie pour échantillonner en permanence et avec une reprogrammation, il pourrait sortir les valeurs aux normes). Une rafale sort quand il y a une certaine stabilité du vent sur plusieurs échantillons d'après un algorithme. Il n'a pas pu me dire sur combien d'échantillons la stabilité doit être vue. Le pas de mesure est donc variable en attente d'une certaine stabilité (donc d'après moi, le pas est d'autant plus long que le site est turbulent avec des variations de la vitesse du vent en peu de temps vu que c'est la condition). La rafale maxi prend en compte les 20 plus fortes rafales dans les 2 dernières minutes (donc pas celles pendant les 8 minutes où elle dort). 450 km/h atteint en soufflerie, à 135 km/h seulement 1 km/h d'écart avec la soufflerie (donc même vitesse que soufflerie avec son incertitude aussi). Quand il y a une fiente ou autres, le capteur le remarque et tient compte de la nouvelle pression pour le zéro (A voir avec la pression de la pluie forte). Il y a un bruit de fond qui ne permet pas d'être certain de la vitesse à moins de 3-4 km/h. Le pluvio n'a pas de pièces mobiles, c'est un système de syphon. Il faut que ce n'est pas comme le premier pluvio Davis à syphon lamentable du début des années 90, qui me faisait rêver d'un futur pluvio à augets. Pour la température c'est un SHT21 ( moins précis que le SHT31 chez Davis, lui même moins précis que le SHT35 et que le tout nouveau SHT85 (+- 0.1° sur une bonne partie de la gamme) remplaçant le SHT75) et chaque exemplaire est corrigé spécifiquement. La station envoie la moyenne des 10 valeurs dans les 2 dernières minutes, donc les tests d'abris sans sondes identique avec un échantillonnage équivalent à la Davis seront biaisés (les Tx seront lissées en plus d'être ratées de façon indépendante du lissage de la constante de temps, donc si la station sort souvent des valeurs identiques à la Davis, ce sera plutôt signe que l'abri lui-même surchauffe. Si cet abri est bon comme les autres abris normalisés, comme il l'indique, il devra sortir des Tx souvent plus froides que la Davis vu le sommeil de la station 8 mn et le lissage sur 2 minutes contre 10 s en permanence pour la Davis) Le plastique est biodégradable donc au bout de quelques années, des pièces sont à changer, mais elles ne sont pas chères, quelques dizaines d'euros. Une station est en test sur un mât géant de l'EDF avec un anémo tous les 10 m. L'EDF est satisfait d'après lui. Il verra avec le concepteur pour l'échantillonnage en fonction de l'autonomie et la possibilité de déporter l'anémo (il est détachable, mais il y a de l'électronique pour d'autres capteurs dans le cône avec la protection électrostatique/magnétique de l'électronique ailleurs) Je lui ai proposé de tester bénévolement la station. Je l'ai motivé en lui montrant le potentiel mondial s'il modifiait sa station pour la climato afin de devenir meilleur que Davis avec un anémo sans entretien et un pluvio sans pièces mobiles en plus de la capacité à transmettre dans les coins perdus pour un prix compétitif. Pour le réseau GSM je lui ai indiqué qu' il fallait une mémoire interne car ici je ne compte plus les coupures de réseau de tous les fournisseurs en même temps sur le seul mât capté, dans les situations extrêmes où il ne faut surtout pas rater un record, pendant les orages ou par temps calme pendant des pannes en amont, ou avec les bévues de techniciens sur le câblage du pylône... Vu les délais de réparation, une semaine de mémoire est un minimum, l'idéal serait au moins un mois pour les coins inaccessibles l'hiver. En fait avant les essais, sur le papier malgré que cette station soit très intéressante, pour IC, il manque une mémoire, une alim suffisante avec un échantillonnage permanent (100% du temps) et assez aux normes comme les stations MF et Davis.
  3. Très intéressant ! Cependant ça peut-être largement le hasard de la météo /climato de ces périodes, car vu le peu d'échantillons, il n'y a absolument rien de statistiquement significatif (sans avoir besoin de le calculer tellement c'est trop faible . Ca ne veut pas dire qu'il n'y a rien, mais là faute d'échantillons, trancher dans ce sens serait justement se remettre totalement au hasard capable de produire bien pires coïncidences dans l'IC à 95% . ) et surtout pour une bonne raison, par le fait qu'il n'y a pas la comparaison du pyrano avec l'héliographe sur le même site avec les mêmes masques au même moment, mais avec des stations à distance. Et oui c'est un sacré problème vu que MF profite le plus souvent des modifications de capteurs, de normes, de classifications, pour améliorer les sites et l'emplacement pour le paramètre concerné, donc dans le cas présent probablement en évitant plus de masques qu'à l'époque de l'installation des héliographes Cimel. C'était pareil pour la T ces dernières années. Dans le Var en remplaçant les abris Cimel par des abris Socrima, MF a effectué de petits déplacements ou des élagages, déboisements, ou autres, pour de bien meilleurs dégagements. Donc celui qui pratiquerait ton analyse à distance sans avoir tous les éléments de modification du site et de l'emplacement de l'abri, de la station, trouvera aussi un changement dans la température en plus de celle due au meilleur abri. Donc sans informations sur l'emplacement exact des différents pyrano par rapport aux héliographes Cimel dans un même site, ni sur le déplacement ou non du capteur, les modifications dans le site et autour pour les masques (élagage d'arbres, déplacement de poteaux ou autres bricoles plus ou moins importantes), il vaut mieux se fier aux comparaisons avec les pyrano et les héliographes dans un même site. MF a réalisé des comparaisons en double sur certains sites du Nord autres qu'à Trappes, comme à Strasbourg (sous-estimation faible du pyrano, donc pourquoi l'inverse dans tes stations ?) et eux seuls pourront valider que c'est bien le pyrano qui est en cause dans tes stations, du moins fautes d'échantillons suffisants pour exclure le hasard. Il faudrait voir si MF a effectué des mesures en double à Besançon où les écarts entre l'ancien Campbell et le Cimel avaient été les plus importants et donc c'est là que potentiellement le pyrano est sensé être le plus mauvais par rapport au Cimel ou pyrhéliomètre.
  4. 5 à 10% mais sur quel pas de temps ? Je n'ai pas vu ça dans la doc des essais MF avec les comparaisons réalisées pour la mise au point de la méthode, ni pour son acceptation à l'OMM avant d'introduire la méthode du pyrano la plus précise, inventée par MF (Oliviéri). Il ne faut pas mélanger des écarts donnés pour une journée et les écarts au mois et encore moins à l'année, sur des normales, ça n'a pas de sens. Avec ces + 5 à +10% avancés ici, si c'était à l'année et pire aux normales, autant rester au Campbell ! Avec la méthode du pyrano, MF a relevé -0.6% sur le cumul pendant 8 ans à Carpentras par rapport à la mesure de référence la plus précise, donnée par le pyrhéliomètre. Sur un an à Strasbourg/héliographe Cimel on a -1.36%, -1.06% à Montpellier sur 4.5 ans, +0.09% à Trappes sur 9 mois sans mois d'été, +0.44% sur 4 ans à Tours, -0.11% à Ajaccio sur 6 mois, +0.06% à Faaa sur 2 ans, -0.3% à Gillot sur 2 ans. MF indique dans cette note que la méthode a tendance à sous estimer en général la DI d'un peu moins de 1% sur de longues périodes. Et depuis ces essais la méthode a été améliorée pour l'OMM car MF et autres spécialistes ont affiné le calcul des coeff spécifiques à la station. Dans les stations les plus récentes on peut programmer des formules plus complexes et celles d'analyses du signal pyranomètrique les jours d'insolation intermittente et déterminer le trouble atmosphérique avec d'autres paramètres, pour améliorer la précision journalière. Dans les publications internationales sur le sujet, ces résultats sont régulièrement rappelés : L'amélioration des coeff pour Carpentras a entrainé une erreur de +1h sur 11012h (sur 2007-2010) mesurées par la référence, 0.00% d'erreur. Il suffit de regarder les tableaux des écarts pour différentes villes, pour voir que l'erreur minime au pas annuel, sera encore plus négligeable pour déterminer des normales de DI. https://www.wmo.int/pages/prog/www/IMOP/publications/IOM-109_TECO-2012/Session1/O1_07_Vuerich_Sunshine_Duration.pdf Il faut bien comprendre que des erreurs non systématiques non négligeables au pas journalier, se compensent et sont négligeables pour des années et encore plus pour des normales. Après c'est clair que plus on sera au Nord de l'Europe et plus ce sera compliqué l'hiver avec un soleil rasant tout le temps. Dans le chapitre 8 de la bible de l'OMM, "Measurement of sunshine duration"
  5. Oui j'avais bien lu pour CMIP5 que plus on injectait de paramètres, plus mais aussi moins compris/mesurés, et plus l'IC devenait important à l'image de cet exemple, (mais à voir pour la valeur centrale meilleure sur le passé dans CMIP5) : extrait d'ici : http://www.insu.cnrs.fr/files/plaquette_missterre.pdf Mais bon vu que pour ces modèles le problème principal reste les nuages (qui représentent 70% de la dispersion entre les modèles sur la sensibilité climatique, http://documents.irevues.inist.fr/bitstream/handle/2042/56362/meteo_2015_88_56.pdf ), donc ça voudrait dire de fait que les nuages auraient été mieux estimés dans CMIP3 et que c'est CMIP5 qui le dit (pour Cotissois) tout étant moins bon sur ce point (vu que s'il était meilleur pour les nuages, il le serait aussi par rapport à CMIP3). Ca n'a pourtant pas l'air d'être le cas d'après vos discussions sur les nuages et l'embryon de CMIP6.
  6. Je ne comprends pas comment des modèles plus récents avec des ordi plus puissants, sont moins bons (pour prévoir le fond, l'évolution de moyennes sur 20-30 ans et non pas la variabilité interne) tout en confirmant que les anciens sont meilleurs. Car si les derniers sont moins bons, ce qu'ils confirment n'est pas sensé être meilleur vu que par définition en étant moins bons, leur capacité à capter le meilleur est douteuse et donc ils ne pourraient pas dire que CMIP3 est meilleur. Enfin c'est une histoire quelque peu circulaire vue d'ici. D'autant plus que pour le moment avec les obs on ne peut pas savoir s'ils sont meilleurs, car ça ne veut rien dire avec si peu de données depuis CMIP3 et 5, que les obs soient plus proches de CMIP3 que de CMIP5 (surtout que RCP 8.5 et 4.5 ne sont pas différents sur cette période, j'ai regardé, la valeur centrale renvoie le même écart avec les obs et que CMIP3 reproduit moins bien les obs passées). Donc vu d'ici je ne vois pas comment en voyant plus mal le passé (sur le fond) que CMIP5, en disant que CMIP 5 est moins bon, on en arrive à la conclusion que CMIP5 confirme que CMIP3 est meilleur.
  7. Même le graphe d'un sceptique qui publie régulièrement chez Watts, montre comme les pentes les plus récentes des anomalies et du cycle solaire, sont inversées : Avec cette cueillette de cerises, certains vont finir par nous dire que plus le soleil faiblit et plus la T globale monte : C'est mieux avec l'ensemble : Les obs sont compatibles avec ce que nous dit la physique. L'influence du cycle solaire est tellement faible pour le fond qu'elle est noyée dans le bruit (Dixit Leif Svalgaard ) : Il y a comme une différence avec ce qui est sensé avoir une influence sur le fond : Il n'y a pas de tendance de fond dans l'activité du soleil, elle est considérée comme nulle sur ces 300 dernières années comme le montre un des graphes de Leif Svalgaard :
  8. Une "erreur" habituelle en climato de Fred Decker qui a pourtant été informé x fois de l'existence des séries homogénéisées et où elles se trouvent : Une normale n'est pas prévue pour le suivi de l'évolution du climat, c'est indiqué quelque part dans un des manuels à l'OMM, car les données ne sont pas homogénéisées. Avec des données homogénéisées : Pour la suite après 2013, je ne sais pas si cette série avec 2018 est homogénéisée : https://www.ncdc.noaa.gov/cag/city/time-series/USW00094846/tavg/12/12/1958-2018?base_prd=true&firstbaseyear=1958&lastbaseyear=2018&trend=true&trend_base=10&firsttrendyear=1958&lasttrendyear=2018&filter=true&filterType=loess
  9. Tamino avait traité ce papier à l'époque. Je me rappelle bien qu'il disait dans son blog que la très grande majorité de ces tendances ne sont pas significatives. Elles sont trop courtes pour la variabilité donnée. On ne peut pas tenir compte de ces tendances car le signal hivernal sur une durée suffisante est statistiquement significatif de l'inverse, d'un réchauffement (S'il avait été significatif d'un refroidissement de l'hiver avant ces tendances trop courtes, il aurait été juste de déduire que le signal n'a probablement pas changé, mais là c'est tout l'inverse). Il n'y a que dans cette science que certains perdent leur temps à publier des papiers basés sur ce qui n'est pas significatif, sur du bruit et pire, le compare à celui encore imprévisible par les modèles inaptes pour l'échelle interne même au niveau global moins compliqué (Ca n'a pas de sens avec une telle sous-estimation de la variabilité interne par les modèles faits pour la prévis climatique (de moyenne/30 ans et tendances /50-60 ans environ) et pas encore bons pour le bruit interne : https://pbs.twimg.com/media/DyitheTWkAAgZxk.jpg https://twitter.com/Knutti_ETH/status/1092315944519720960 ) Pour voir l'évolution des hivers à cause de la variabilité hivernale (qui en prime a peut-être augmenté d'après un post récent de Tamino https://tamino.wordpress.com/2019/01/31/global-warmings-wild-winter-in-the-usa/ ) , il faut tirer des tendances assez longues, sinon ce sera toujours le même problème d'interprétation non scientifique et la noyade de plus en plus habituelle de certains dans le bruit. Sous ces latitudes, le réchauffement des extrêmes de froid y est 2 à 5 fois plus fort que le RC moyen, donc pas top pour des hivers qui se refroidiraient. Non seulement il y a significativement moins de vagues de froid, mais en plus elles sont moins étendues et moins puissantes (ce qui n’empêche pas de battre des records ici ou là, vu les séries de T journalières bien trop courtes pour que ça n'arrive plus. Il faudrait des milliers d'années de climat stable pour obtenir des records de froids significatifs de ce que peut faire la météo pour l'état moyen donné malgré le RC actuel.) https://pbs.twimg.com/media/DyKuG2HXQAAmpRo.jpg https://twitter.com/gjvoldenborgh/status/1090625499892772865 https://pbs.twimg.com/media/DyaFYQ6X0AEuUjt.jpg https://twitter.com/gjvoldenborgh/status/1091706619346472960 Ce n'est clairement pas plus de froid l'hiver qui saute aux yeux, mais l'inverse : https://pbs.twimg.com/media/DyfDEzRWwAAah09.jpg https://pbs.twimg.com/media/DyfDFWGWoAEEOH0.jpg Il n'y a qu'un point de départ (1995) du calcul des tendances des vagues de froid, donc qu'une seule tendance, qui ne montre pas de diminution des VDF mais qu'en apparence uniquement, car là aussi pas significative. https://pbs.twimg.com/media/DyfDF4mWsAE66yq.jpg https://twitter.com/gjvoldenborgh/status/1092055951266496512 Aucune tendance calculée après 1985 environ n'est significative. L'agitation des tendances centrales selon les années quand elles deviennent plus courtes et surtout non significatives, est habituelle pour la plupart des paramètres. C'est le bruit qui prend la main sur le fond, ce sont des variations qui n'ont très probablement pas de sens (confiance à 95%) . On ne peut revendiquer une tendance au refroidissement de l'hiver ou une augmentation des VDF sous ces latitudes avec des tendances qui n'ont aucun sens (c'est pire que prendre son doigt mouillé car là on a clairement des tendances significatives avant qui montrent l'inverse.) : On peut voir qu'un certain niveau de froid observé il y a quelques jours aux US, avait une durée de retour d'environ 20 ans en 1900, avec le RC c'est pratiquement 150 ans : https://pbs.twimg.com/media/DyKu04hX0AMRm2K.jpg https://twitter.com/gjvoldenborgh/status/1090626290024173568 https://pbs.twimg.com/media/DyQJGzEWoAAk09V.jpg https://twitter.com/ClimateOfGavin/status/1091007104691912705 Au niveau global en dehors de vouloir cueillir des cerises pour extraire un point bleu ou pour tirer des tendances trop courtes d'évolution de VDF et faire dire aux tendances non significatives ce qu'elles ne disent pas, c'est pareil : "And a global view of the trend in daily temperature extremes around the world compared to the global warming signal shows that extreme lows are warming FASTER than the overall global warming signal. So extreme cold waves are weakening quickly" https://cliffmass.blogspot.com/2019/01/are-cold-waves-increasing-under-global_30.html https://www.worldweatherattribution.org/trends-in-weather-extremes-february-2018/ Il n'y a rien de significatif dans les données qui montre un refroidissement des hivers (ou plus de VDF, ou plus d'extrêmes de froids) sous ces latitudes, c'est tout le contraire, car tout ce qui est significatif affiche un réchauffement hivernal à tous niveaux et surtout des VDF et des extrêmes en durée, en fréquence et en étendue.
  10. Je ne comprends pas bien la question, car je ne connais pas de limite de 3 mois (hors celle de la mémoire interface selon le pas de temps choisi). La base de données de Weatherlink est limitée à 25 ans par station. Il faut créer une 2 ème station (pour une nouvelle base de données qui assurera la continuité) avant la fin des 25 ans pour ne pas perdre les données nouvelles arrivant juste après 25 ans. J'avais fouillé le sujet vu que ça m'est arrivé l'année dernière de ne plus pouvoir récupérer les nouvelles données (C'est indépendant des versions. Ma base de données de 25 ans a connu toutes les versions, dont celle à l'origine sous DOS jusqu'à la version 6).
  11. Pour le moment je n'ai pas le RCP8.5 en stock, j'ai que tout CMIP3 : Réchauffement moyenne/30 ans CMIP3 fin 2018 /1850-1900 : 0.903° (Observations de Berkeley : 0.907°) Pour le Loess/50 ans : 1.22° (Berkeley 1.20°) Graphe avec quelques séries et ERA5 : https://pbs.twimg.com/media/DybH-_cVsAY3hnz.jpg https://twitter.com/hausfath/status/1091779851512508416
  12. Où en est le réchauffement climatique global avec la série de Berkeley fin 2018 ? https://pbs.twimg.com/media/DxsOMXbU8AUDzH-.jpg https://pbs.twimg.com/media/DxsGzrpWoAEw42U.jpg https://pbs.twimg.com/media/Dxr9F1xX0AAX7Nz.jpg La moyenne climatique sur 30 ans de 1989-2018 est plus chaude de 0.91° que celle de référence préindustrielle du GIEC sur 1850-1900. Les modèles du GIEC pour le scénario RCP 4.5 (représentatif de la moyenne de tous les scénarios pour encore un bon moment. L'explorateur de données ne fournit pas sans trop gros travail perso, à l'inverse pour les modèles de l'AR4, une simple série de la moyenne de tous les modèles de tous les scénarios) de l'AR5 donnent une prévision de 0.93° de la moyenne/30 ans fin 2018. Donc 0.02° de différence, c'est très correct pour le moment (Il faudrait une différence d'environ plus de 0.08° pour que ce ne le soit plus) Le loess/50 ans des obs a une tendance en retard. Il affiche 1.20° de réchauffement pour 1.31° pour le loess/50 ans des modèles, ce qui est logique avec le bruit passé (celui du faux hiatus/palier interne et non climatique, qui influence plus la tendance et donc le bout du Loess, mais bien moins la moyenne climatique. Un bruit chaud devrait finir par compenser le bruit moins chaud du hiatus interne (un surplus d'ENSO+ après le surplus d'ENSO- pendant le hiatus) Avec la dernière méthode du GIEC 2018 qui utilise la dernière moyenne/10 ans pour estimer une moyenne/30 ans à cause de la tendance de fond significative, on a 1.10° de réchauffement pour 1.18° prévu fin 2018 par les modèles. Pour la méthode habituelle du GIEC, la tendance linéaire sur 1850-2018 donne un RC de 1.09°. Celle jusqu'à fin 98 était de 0.76°. 0.34° de RC depuis fin 98 (Significatif). Si on prend une autre méthode de l'AR5, la moyenne des 20 dernières années 1999-2018 par rapport celle 1979-1998, le réchauffement est de 0.38° (Significatif). https://pbs.twimg.com/media/DyAyBVXUwAAK6DL.jpg https://pbs.twimg.com/media/DyFbjpHXcAAllzH.jpg https://pbs.twimg.com/media/DxsKdiDXcAUdVOG.jpg https://twitter.com/hausfath/status/1089926618452176897 https://twitter.com/chriscmooney/status/1088475285224329216
  13. Si ces courbes sont relevées avec deux abris Davis (ou deux abris MF) et des sondes strictement identiques et étalonnées l'une sur l'autre et que les positions ont été inversées (le plus haut à la place du plus bas pour constater que l' influence de la hauteur plus grande (plus basse) est bien identique aux 2 emplacements), ça démontre que l'emplacement de l'abri est insuffisant (ou que la végétation courte n'est pas correcte), car on ne relève pas de tels écarts dans un assez bon site pour cette différence de hauteur (ça été démontré aussi par les essais MF). Récolter un faible écart pour cette différence de hauteur, c'est un très bon moyen objectif de vérifier la qualité de l'emplacement de son abri. Ce sont des écarts que je relevais dans ma classe 4 entre des abris Davis avec 50 cm de différence de hauteur, qui ne s'observent pas en classe 2. Le fait que l'écart de Tn ne soit pas différent rend douteux l'étalonnage et/ou une utilisation d'abris différents ou moins bons (ou un des abris), une différence de réactivité des capteurs, car la différence dans un mauvais site est plus faible en Tn qu'en Tx estivale sauf en cas de vent qui se lève vers le moment des Tn (une est plus haute sur l'abri touché par le vent et pas dans l'autre plus abrité avec l'air moins mobile en fin de nuit radiative). Sans matériel identique et bien étalonné, on ne peut pas déterminer ce genre d'écart et l'attribuer totalement à la différence de hauteur, de plus dans un site pas assez assez dégagé ou avec de la végétation courte trop haute, il faut inverser la hauteur des abris, pour vérifier l'écart dû à la différence de position des abris dans le site insuffisant. Sinon même avis qu'Adri pour la zone 4 et la hauteur d'installation dans ce site. L'abri a besoin de respirer à 2.5 m et d'éviter la surchauffe du site l'été (et éviter des Tx trop froides l'hiver) du sol abrité ( si ombragé l'hiver).
  14. Pour "tes" valeurs en "2035", d'après le document, ce sont les médianes des scénarios pour des moyennes/30 ans sur 2021-2050, celles connues en 2050 et non en 2035 valeurs centrées connues qu'en 2050 (ou alors éventuellement tu peux nous dire en 2040 avec la méthode du GIEC, on estime celle sur 30 ans à partir de la moyenne /10 ans connue fin 2040) 1 : 25% ;75%. L'IC plus large que "tes" valeurs médianes est de 50%, qui reste ridicule, car 50% des modèles donnent des valeurs qui sont hors des bornes [0.3°; 2° ], donc c'est quand même très loin de l'IC à 95% et très loin d'être moins probable d'observer une moyenne/30 ans en dehors des médianes, mais aussi d'un IC à 50%. On a autant de proba de relever une valeur dans l'IC qu'en dehors, donc ton histoire de majoritaire pour des valeurs de 0.6° à 1.3°, ça ne tient pas du tout la route car ça ne l'est déjà pas de 0.3° à 2° ! Diffuser dans le document un tel IC réduit, démontre que les pro ont conscience des limites de ces modèles à l'échelle minuscule de la France et donc qu'ils ne font très probablement pas aussi bien pour situer le signal de fond qu'au niveau global avec un IC courant à 90%. En fait le signal observé (du moins celui estimé des obs par diverses méthodes, car imparfaitement connu surtout vers le bout en 2018) est au-delà de cet IC de 50%, mais il reste largement dans le domaine du probable aussi pour les modèles, car le loess/60 ans est à la limite de l'IC à 66% (17%, 83%) du graphe suivant, plus large que l'IC à 50% pour les moyennes sur 30 ans (ce qui n'est pas le cas pour les courbes du graphe). J'ai ajouté le morceau de loess/60 ans calculé depuis 1900 (d'après les anomalies MF recalées /1976-2005) pour la période sur 70-2018 dans ce graphe des projections pour la France (Anomalies annuelles MF jusqu'en 2014) : Récupéré ici : http://www.meteo.fr/meteonet/temps/clim/ClimatHD/ressources/fiches/FUTUR_REG_TEMPE_FPROD.pdf Ce loess d'échelle climatique est loin d'être du bruit et il est contaminé par une partie d'un vrai palier climatique d'avant 70, donc du "froid" relativement au fond. La tendance linéaire un peu plus forte depuis 70 est plus proche de celle climatique sur 60 ans que d'un bruit interne de court terme ( Car ça fait quand même 49 ans de fort réchauffement sans changement significatif). Il n'y a rien dans ces modèles qui indique qu'il y a plus de proba d'observer un bruit "froid" (moins chaud) qui continuerait (celui en cours depuis 97) , ou à venir, plutôt qu'un bruit chaud ou équivalent à l'actuel depuis 70. L'écart est plus profond qu'un problème de niveau de bruit et de timing interne, vu les obs qui ne montrent pas la même situation que pour l'écart constaté au niveau global qui s'analyse avec les stats comme étant très probablement dû au bruit (on devrait-être dessous les valeurs centrales et non au-dessus s'il n'y avait pas de problème de fond des modèles sur la France, comme pour le global, car on sort d'un bruit "froid" (moins chaud) et la logique veut qu'on retrouve un bruit chaud ou au minimum la tendance de fond). Il faut voir que le bruit le moins chaud sur la France depuis 70 existe déjà depuis 1997, car on y relève la plus faible tendance un peu longue qui n'est pas significativement différente de zéro, 0,22°/déc depuis 97, mais les obs montrent que ça repart à la hausse ensuite et l'augmentation de la moyenne/30 ans est de 0.53° depuis leur moyenne de référence, donc depuis début 2006 (soit déjà pratiquement tes 0.6° de la médiane basse attendue qu'en 2050 ! Et plus que les 0.3° de l'IC bas à 50%), soit une tendance effective de 0.4°/déc sans incertitude du modèle linéaire ( pour 0.68°/déc en modèle linéaire depuis 2006, pas différente avec son incertitude large, de celle "nulle" à 0.22°/déc depuis 97) parfaitement conforme à celle longue sur le fond observée depuis 70 de 0.4°/déc. Donc je ne vois pas ni dans les obs, ni dans les modèles une proba supérieure de bruit "froid" qui devrait se poursuivre ou à venir, au contraire avec les obs, il y a un rattrapage en cours que ce soit pour le Loess ou pour la tendance faiblarde "nulle" depuis 97. La proba est supérieure pour que la tendance depuis 97 et le Loess/60 ans se redressent encore, sinon ce serait revendiquer de fait un prochain vrai palier d'échelle climatique (/30 ans au moins) qui n'est pas attendu dans les modèles sur la France. Un tel palier comme par le passé se percevrait déjà comme dans les obs au niveau global quand ce fut le cas. Si le bruit moins chaud continuait encore au minimum 8 ans en France, la tendance depuis 97 deviendrait différente de celle d'avant 97 et donc significative d'un changement pour le climat , d'un palier climatique en France, ce qui est absent des modèles et très peu probable avec les obs et les stats vu le RC de fond. Ne pas oublier que les modèles qui sont meilleurs au niveau global fournis avec un IC plus correct se sont plantés (du moins l'interprétation des physiciens qui s'évertuent à les utiliser dans un domaine pour lequel ils ne sont pas encore bien faits : pour prévoir le bon niveau avec le bon timing et la bonne fréquence des bruits internes !) sur le faux hiatus. Il n'y avait que 2% de proba d'observer ce faux hiatus dans les modèles, alors qu'on n'était pas loin de 50% de proba en utilisant les obs+stats ( donc pas loin du maxi des possibilités avec les obs et les stats) pour la durée du faux hiatus d'être observé (sans un puissant Nino plus tôt, qui de fait discrimine à lui seul les durées de paliers internes par rapport aux records significatifs (>=0.1°) avec le signal de fond actuel depuis 70), car parfaitement conforme pour la tendance centrale depuis 98 pour les stats basées sur les obs. Je n'ai pas vu passer que les modèles même pour l'échelle globale "plus simple" à prévoir, sont devenus capables de prévoir le bruit interne. A ma connaissance, ils sont toujours inaptes pour placer correctement 3, 5, 10, 15, 20 ans en avance dans un échantillon de climat, les plus forts Nino qui sont les seuls à pouvoir avancer ou retarder la fin d'un palier interne ou de record battu significativement d'au moins 0.1° (pour la tendance de fond donnée sans changement significatif), ce qui est bien moins compliqué que pour prévoir une fin de palier interne ou de nouveau record significatif sur la France, car il n'y a pas qu'un paramètre aussi déterminant qui joue autant sur la T annuelle et les paliers internes en France. Donc le problème hors période de scénarios plus discriminants après 2050, est de parvenir à prévoir le fond plus précisément à l'échelle minuscule de la France. Avec le RC de fond, donc à cause de la tendance de fond significative, les données ne sont vraiment pas assez i.i.d pour faire une fixette sur le centre d'une moyenne classique, qui n'est pas assez pertinente, donc il faut faire quelque chose pour estimer plus correctement la toute dernière moyenne et le niveau du bout du signal d'échelle climatique. Le GIEC (voire MF, à vérifier avec les 1.4°de RC trouvés) prend donc la liberté d'estimer une moyenne/30 ans par la dernière moyenne/10 ans (ce qui serait une grosse erreur sans tendance significative) en plus d' autres méthodes comme : Le traitement du bruit. Ils le déterminent et le retirent pour estimer le signal de fond le plus probable jusqu'à nos jours. Ils calculent le dernier RC de fond avec différentes tendances linéaires totales et regardent l'évolution à différentes périodes. Ils intègrent les forçages comme pour le GWI. Dans mon cas pour la France, j'utilise le loess/60 ans qui a l'avantage de suivre de près les moyennes/30 ans sans capter leur micro bruit inutile pour l'échelle climatique tout en allant au bout de la période, en respectant les changements significatifs de tendance linéaire, tout en regardant aussi ceux /30 ans, /15 ans, /10 ans, le loess auto, l'évolution des moyennes/30 ans et les points de changements significatifs de tendances linéaires, pour voir la cohérence et ne pas être contaminé par le bruit et/ou des artéfacts visuels/statistiques fréquents avec les lissages et des pentes linéaires non significatives. Pour bouger le loess/60 ans à la baisse d'ici 2050 pour rejoindre les 0.3°/déc de fond des modèles, il faudra obligatoirement un palier climatique pas vu par les modèles sur la France, d'où l'improbabilité que ça arrive et la probabilité que les modèles ne cernent pas bien le fond (là le Loess/60 ans devrait être un peu sous la valeur centrale les modèles, comme au global, si c'était une simple question de bruit, vu que celui moins chaud on l'a déjà eu sur la France aussi).
  15. Le loess/60 ans, c'est une tendance plus une comparaison de deux moyennes/30 ans, on est à l'échelle climatique donc je ne comprends pas pourquoi il faudrait centrer sur 2018 comme si nous avions du bruit interne qui jouait. C'est le fond climatique qui est important pour cette pente, donc il n'y a rien dans le bruit futur d'échelle interne, hors catastrophe qui pourrait bouger la pente et la faire ralentir à 0.27°-0.3°/déc alors qu'elle contient déjà un vrai palier climatique d'avant 1970 qui minimise déjà sa pente. Le faux hiatus global a déjà impacté la France et les modèles sont incapables de trouver le bon timing de ce genre de bruit interne déjà au niveau global alors à l'échelle de la France, c'est encore plus incertain pour eux de bien le situer et de le quantifier à l'avance. En fait en regardant de près le dernier rapport du GIEC sur la limite de 1.5°, pour les 1.4° de RC pour MF fin 2017, je pense que MF utilise peut-être une des dernières méthodes du GIEC qui prend une dernière moyenne/10 ans comme une estimation d'une moyenne/30 ans centrée sur cette période plus courte (donc la moyenne 2008-2017 serait dans ce cas considérée comme la moyenne/30 ans de 1998-2027 ce qui dans ce cas donne bien 1.4° de RC fin 2017) A noter que maintenant ils utilisent une moyenne de 4 séries et non plus seulement Hadley : Voir en particulier les pages 57, 58, (59 où ils analysent aussi des moyennes climatiques "débruitées", 1.04° de RC fin 2017 dans la figure 1.2 page 57. Voir tableau 1.1 avec différentes périodes de suivi du RC et les écarts entre les séries) : https://www.ipcc.ch/site/assets/uploads/sites/2/2018/11/SR15_Chapter1_Low_Res.pdf
  16. Je ne comprends pas du tout pas pourquoi tu restes à l'époque de l'AR4 et que tu bloques en 2000 la valeur officielle de la France et même celle du GIEC. Le GIEC a mis à jour régulièrement le calcul officiel du RC après ton graphe tout comme MF. Sur HD climat on trouve ça avec un graphe terminé fin 2017 : Conforme à l'AR5 (mais pas pour les 1.4° mystérieux sur la France sur 1900-2017) : 1.34° sur la France sur 1901-2012 avec la même méthode à partir des anomalies MF plus précises du graphe des anomalies du panel MF sur HD climat (1.34° aussi avec ma série). Il n'y a aucune indication sur la façon de trouver leurs 1.4° en tendance moyenne de RC sur la France fin 2017. Ca ne correspond à rien en tendance ici. La tendance centrale sur 1900-2018 est 1.58° pour ma série reconstituée, 1.57° pour la leur avec des anomalies plus précises. Même sur 1901-2018 qui dégage de fait une donnée "chaude", elle est de 1.61° pour les 2 séries. Sur 1900-2017 c'est 1.50° de RC (1.51° pour ma série). De plus les 2.7°/siècle sur la France, c'est pratiquement la tendance centrale faiblarde (2.76°/siècle) trop courte pour qu'elle soit significative, observée sur 2000-2018. Si on prend la pente sur une échelle climatique qui justement est peu sensible au bruit, celle du loess /60 ans pour la période sans changement significatif de tendance linéaire avec les données d'anomalies sur 70-2018, elle est de 3.6° /siècle pendant que la tendance linéaire sur la même période à partir des anomalies est de 4° (3.96°)/siècle. Logique que la linéaire soit plus pentue que le loess/60 ans avec aucune donnée d'avant le changement significatif de tendance dans le calcul à l'inverse du loess/60 ans qui récupère des données d'avant 70 dans le calcul (donc de fait avec des données du vrai plateau climatique dans le calcul de la pente du loess/60 ans depuis 70 ). Plus le temps passe et plus la pente de ce loess/60 ans s'aligne sur la pente linéaire depuis 70, plus forte que celle du Loess, malgré une tendance plus faible en apparence ces dernières années (2000-2018) car la tendance sur 70-1999 a donné 4.6°/siècle (plus forte qu'en apparence). La pente du Loess/60 ans restera probablement plus faiblarde que la linéaire depuis 70, jusque vers 2030 (donc au bout des 60 ans sans nouveau changement significatif de tendance). Donc il est fort probable que le RC sur la France devienne plus fort que ce qu'indique déjà le Loess/60 ans actuellement et voire la linéaire depuis 70 vu que le RC est aussi sensé s'accélérer d'autant plus avec tous les schizophrènes profonds dans les plus inquiets qui s'acharnent de fait à alimenter la chaudière toujours plus. De plus en début d'année dernière dans un de mes posts en comparant le loess/60 ans pour la T globale à la méthode GIEC du GWI pour suivre le RC, qui prend les forçages en compte, on a vu que le Loess/60 ans est moins pentu que leur estimation du RC, donc il est plus que probable que le RC est plus fort aussi sur la France que ne l'indique ce Loess/60 ans. Ca ne dit rien pour les prévis très lointaines, surtout avec le facteur d'incertitude principal (pas tant que ça quand on regarde de près l'histoire) qui est le comportement humain plus que très largement capable d'auto réduire très massivement sa propre population par les guerres civiles et militaires ( et donc de fait ses émissions), bien plus et avant que le RC soit capable d'en faire autant... Une animation sympa : https://twitter.com/neilrkaye/status/1081192550826950657
  17. RC depuis 1900 +1.58° selon une des méthodes du GIEC en prenant la tendance moyenne depuis 1900, +1.33° / normale 1900-1929.
  18. J'avais commencé à répondre au mois d'août sur ce sujet qui rejoint le même problème sur les valeurs extrêmes à 50° et + avec le RC prévu. Un record absolu de Tx battu ou pas, n'a aucun sens sans savoir ce que représente un peu le record précédent à battre (d'autant plus à l'intérieur des terres ou pire vers les pôles où la variabilité est plus grande). Pour avoir une idée un peu plus juste du record potentiel et significatif réellement d'un état climatique stable donné et pire d'un climat avec une tendance de fond au RC, il faut énormément plus de données que les séries "modernes" de durée nanométrique pour cet usage, et qui en prime ne sont pas homogènes et toujours impossibles à corriger correctement au pas journalier surtout pour un record. Par exemple, le record de Paris de 1947 avec l'ancien abri Montsouris qui surchauffe surtout en Tx estivale par beau temps et vent faible (écart médian + 2° pour ces cas jusqu'à +3.5° mais pendant un an d'essais à Trappes avec un été pas folichon dans le coin sans aucun rapport avec 2003 et les étés banals dans le SE) avec en prime ensuite l'arrosage moderne du parc (-0.5° d'écart moyen en Tx estivales) fait que le record moderne recalé à la louche aux normes passées de 1947 donnerait probablement en valeur estimée autour de 42.5° ( 2° pour l'abri et 1° pour l'arrosage auto, car -0.5° de moyenne en Tx, est donné pour toutes conditions confondues, y compris avec les jours pluvieux et nuageux.) Pour voir la possibilité de 50° et plus en France après 2050, autour de 2075 ou plus ( Attention c'est surtout pour après 2050 et non en 2050, une année particulière, notre ami de Futura science, explique ces détails : https://www.futura-sciences.com/planete/actualites/climatologie-records-temperature-plus-50-c-france-61662/ ) , Voyons avec un exemple pour le record absolu moderne remarquable du Luc du 7 juillet 82 avec 42.7° toujours pas battu malgré le net RC supplémentaire depuis 82 : On remarque sur le graphe, que ce vieux record dans un bon site relevé aux normes actuelles (en prime avec beaucoup de vent ce jour-là soufflant de la direction hyper dégagée de cette station qui fait que cette valeur est très probablement équivalente à celle relevée dans un abri méca de haute qualité, un record qui vaut probablement plus de 45° dans des stations aux mêmes normes de mauvaises qualités que les 44.1° de Conqueyrac (avec abri Cimel surchauffant + cloisonnée pour le vent de terre + pente Sud trop forte, radiative) et St Christol les Alès (cloisonnée pratiquement dans toutes les directions, obstacles blancs rayonnants pour les Tx, serres proches, thermo à maxi et mini disposés contre la paroi Ouest de l'abri + thermographe douteux (donné à +-0.8° même si bien réglé), alors que personne n'est sensé chez MF continuer à vérifier l'étalonnage des thermographes de postes manuels depuis longtemps), est toujours nettement décalé de nos jours de la courbe de la significativité des records journalières. Tout record journalier n'atteignant pas ce niveau à 95% n'est pas encore assez significatif de la climatologie moyenne observée, d'autant plus avec une tendance significative, faute de recul et donc de milliers d'années de données journalières. Beaucoup de valeurs sont en retard par rapport à la moyenne des records et donc encore plus par rapport à ce qu'on est sensé observer dans 95% des cas quand on aura assez d'échantillons. Ce record de 1982 est toujours considéré comme très significatif aujourd'hui vu qu'aucune des valeurs plus récentes, n'a réussi à se décaler plus loin de l'IC supérieur que celle de 82. On peut voir de plus près en zoomant uniquement sur les Txx journalières que bien des records journaliers peuvent être très éloignés sur peu de jours. Quand on voit que pour le 9/07 le record est de 36.3° malgré le RC en plus depuis 82, alors que le record du 7/07 est de 42.7° sans ce RC, ça montre bien tout le problème du manque de milliers d'années de relevés pour obtenir des records cohérents/significatifs chaque jour pour un état moyen donné. Même si c'est moins prononcé au niveau annuel, c'est le même genre de problème qu'il faut avoir en tête pour se faire une idée d'un record absolu de Tx (ou Tn) potentiel vraiment assez significatif du maximum assez probable d'un état moyen donné. Donc même sans calculs élaborés de durée de retour, même sans recaler la courbe de significativité supérieure de l'IC, qui sera située plus bas fin 81 que sur ce graphique (vu qu'on retire un paquet de valeurs records et chaudes avec le RC depuis) où de nos jours il reste encore un surplus de 2.9° d'écart (39.8° pour le niveau à 95% le 7/07), une valeur équivalente à 82 donnerait probablement au meilleur moment thermique début août plus de 46° avec un bon mistral et vent d'Ouest (et donc plus avec un vent de terre résiduel faible ne permettant pas de dissiper le biais classique d'abri Stevenson/Socrima même dans ce très bon site dégagé). Ce n'est juste qu'une question d'échantillonnage de situations météo pour qu'on observe cette valeur de nos jours sans plus aucun RC supplémentaire ( ni plus rien du tout dans le pipeline). Si on utilise des méthodes plus pro pour le calcul des durées de retour extrêmes car la distribution des extrêmes n'est pas "Normale", avec la loi GEV et maximum de vraisemblance sur la base de la série de Txx annuelles, pas adaptée faute d'échantillons suffisants fin 1981, 42.7° était considérée pour cette loi comme impossible malgré que j'utilise les données qui ne sont pas claires d'avant 1959 et donc des 40° probablement pas propres et dopés qui sont présents, (J'ai vu les photo chez MF de l'ancien site qui est vraiment différent et bien moins bon que l'actuel, en 82) et qui ne sont d'ailleurs pas utilisées dans la série homogénéisée de Txm de MF qui débute qu'à partir de 1959 (au lieu de 1946). Donc malgré des valeurs probablement aux hormones dans le tas pour cette estimation, 42.3° en valeur centrale maxi possible (relativement aux capacités de ce paquet R, http://www.assessment.ucar.edu/toolkit/ et non à la réalité, vu que la durée de retour énorme, c'est considérer que la valeur est impossible) renvoyait en 81 une durée de retour de 10 millions d'années et l'IC à 95% de la valeur maxi sur une telle période faute d'échantillons suffisants, est important [38.8°, 45.8°] Même si on raisonne non plus en valeur centrale, mais en valeur limite d'IC à 95%, 42.7° en 81 c'était sensé être observé 2.5 fois en 100 périodes de 400 ans = 40 000 ans ( car la valeur centrale qui a une durée de retour de 400 ans en 81 = 41.0° IC à 95% [39.3 , 42.7] ) En 81 une durée de retour de 100 ans sur la base de la série de Txx annuelles disponible, renvoyait une Txx de : 40.4° [39.2°, 41.7°] . 41.3°[ 39.4, 43.3°] pour 1000 ans. On peut aussi se concentrer uniquement sur les Txx de l'été ou d'un mois avec la loi GEV, mais ça n'améliore pas encore assez l'estimation. C'est avec la loi GPD que l'estimation est plus réaliste, car on utilise la série des Tx dépassant un certain seuil pour récupérer le plus d'échantillons d'extrêmes, toutes celles en queues de distribution (dans le cas présent les Tx >= 35°), vu que parfois plusieurs fortes valeurs et donc des 40° ou autres, peuvent être relevées la même année et sont donc cette fois toutes prises en compte. En s'arrêtant à fin 81 : Fin 81 avec les données dispo, 42.7° [39.5° ; 45.9°] avait en valeur centrale une durée de retour de 3000 ans qui est passée à 70 ans selon la même loi avec le RC supplémentaire avec les données de 82 à fin 2017. La valeur équivalente à 42.7° en valeur centrale de nos jours avec la durée de retour de 3000 ans est de 46.5° [41,° ; 51.2°] pour l'analyse avec un seuil de la série d'extrêmes à 36° (ma sélection du seuil peut-être discutable, mais il faut trouver le juste milieu entre la récupération d'un nb suffisant d'échantillons, les indications des critères AIC et BIC, la tête de la courbe/ aux données et les proba renvoyées. Plus on recule le niveau de seuil et donc plus on utilise de données et moins on est dans la queue de distribution des extrêmes et moins la loi des extrêmes s'applique et plus les critères AIC et BIC se dégradent et plus les données extrêmes observées (ou futures même probables) deviennent faussement improbables. A l'inverse, moins on a de données en utilisant un seuil plus restrictif et plus les IC s'envolent, la valeur centrale et les bornes perdent de plus en plus de sens). En valeur limite d'IC, au lieu de 3000 ans en valeur centrale, la durée de retour de 46.5° est de 250 ans pour 44.0° en valeur centrale [41.5° ; 46.5°]. 43.1° en valeur centrale [ 41.2°, 44.9°] a encore une durée de retour de 100 ans de nos jours malgré le RC au Luc (42.2° en août 2017 nouveau record mensuel battant de 1.2° celui de 2003). Il faut bien voir qu'une durée de retour/valeur centrale c'est en moyenne et donc il existe obligatoirement de nombreuses périodes de 100 ans sans jamais observer cette valeur, mais bien moins, comme d'autres avec bien plus que la valeur centrale. C'est pour cette raison qu'il est très difficile de vraiment estimer un vrai maxi (ou mini) possible au regard des séries nanométriques actuelles pour l'objectif , même si on disposait de 150 ans de données journalières propres (c'est pour cette raison que ça n'a pas de sens de dire on a observé que 43°, donc c'est impossible 50° avec bien plus de RC). 30 échantillons de 100 ans, 3000 ans pour le pas journalier, c'est quand même bien mieux en stats plutôt que moins de 1 échantillon pour le Luc et bien d'autres stations, de plus non homogènes ! Il faut bien voir que ces IC sont aussi plus grands à cause du manque de centaines d'années de relevés pour récupérer assez de valeurs rares et non pas seulement parce qu'il est normal qu'il y ait un IC de valeurs probables pour chaque période de retour concernée (c'est pareil pour une tempête qu'on estime arriver 1 fois/ siècle, ce n'est qu'une moyenne, il y en a 0 de cette force dans plus de 1/3 des siècles et plusieurs dans un certains nombres de siècles, donc à notre échelle de vie réduite, difficile de savoir ce qu'est une véritable tempête du siècle !). Pour moi, vu que sans aucun RC supplémentaire, sans plus rien émettre, au Luc un 46.5° est bien possible car elle est même plus qu'équivalente à 42.7° de 1982 (il faut voir que le surplus de données a réduit les IC par rapport au calcul fin 1981, donc en réalité, c'est une valeur plus forte que 46.5°, que renverra l'IC sup, avec moins de données, comme en 1981) avec du RC puissant prévu en plus d'ici 2075, il ne fait aucun doute pour moi qu'on atteindra les 50° et plus dans l'intérieur de la France, mais quand, même si on stabilisait le RC de l'état moyen au niveau prévu en 2075, ça peut arriver dans la foulée, les années autour, comme dans 200 ou 300 ans et plus, pour un même RC . A ce niveau, pour l'année des 50° et plus, ce ne sera plus qu' une question d'échantillonnage aléatoire des conditions météo pour le réchauffement donné supplémentaire, car le bruit météo est capable de générer des situations très décalées de l'état moyen et on ne peut pas savoir quand malgré une prévision parfaite de l'état moyen, ni s'en rendre compte réellement avec nos séries si courtes pour l'échelle des records absolus. C'est bien pour cette raison que battre un record même de beaucoup ne veut rien dire tout comme ne pas le battre comme celui du Luc qui résiste, ne peut rien dire sur le RC ! Sauf si vous voulez vous noyer toujours un peu plus profondément dans le bruit 🙂 Pour le Luc si près assez près de la mer, c'est aussi plus compliqué de récupérer les bonnes conditions météo pour chiffrer, car il faut obligatoirement un vent de terre présent quand l'air le plus chaud résiste encore dans le SE, ce qui n'arrive pas souvent d'autant plus avec la dépression thermique dans cette cuvette qui contrarie souvent le vent résiduel de terre (vent d'Ouest et Mistral) qui permet ces records (A voir d'ailleurs si le RC ne va pas de plus en plus renforcer la dépression thermique dans ce coin et donc rendre encore plus rares les vents de terre résiduels à gros scores dans ce secteur l'été.) Si on analysait les données pour les 42.5° de 1983 de la station hyper dégagée dans cette direction de vent de l'aéro de Fréjus/St Raphaël , abri pourtant à quelques centaines de mètres du bord de mer, ça paraissait encore plus totalement impossible en 81 avec toutes les techniques imaginables. Même de nos jours ce n'est pas gagné de revoir cette valeur avec le RC ! C'est un sacré bon coup de la météo ! On ne peut estimer réellement avec l'intuition d'après les relevés observés, et à peine approcher avec les stats, les réelles possibilités de valeurs extrêmes avec des séries si courtes de Tx et si peu fiables dans le temps (avant 1950 voir 1959 pour celles du Luc et bien d'autres stations) et donc vu les modifications de l'occupation des sols d'ici 2075, du béton en plus, de la forêt probablement en moins dans le secteur, avec le RC en plus, il vaut mieux miser sur les modèles capables de pondre les situations météo et les valeurs associées possibles d'après les paramètres physiques. Depuis que je fais des calculs sur ces sujets, j'ai toujours vu des valeurs observées, pourtant données impossibles avec les stats avant de les observer, se produire. Alors celles données un peu probables avec les stats, ont des chances d'être garanties (sans pouvoir dire quand). Même en "anormalité" de base, la vague de chaleur de cette année n'est pas franchement remarquable au Luc (avec 38.1° au mieux contre 42.2° en 2017 malheureusement coupée très tôt dans son élan par la bascule de vent de terre à la brise de mer. Connaissant bien l'évolution de la Tx au Luc qui monte bien plus tardivement sous vent de terre, le record absolu aurait été pulvérisé, le record national probablement aussi, ce n'était qu'une question de météo et donc de timing fin). Le fait marquant cette année au moment de la réalisation du graphe il y a un bon moment, n'est pas dans le chaud, mais dans le froid avec 3 valeurs très décalées en février (laissant même croire à un bug quand j'ai vu ça, mais chez MF c'est pareil, et cohérent avec mes relevés ici, 3 valeurs différentes ici, mais très proches. Au Luc, Tx 2.3°, 3 jours consécutifs, déjà que ce n'est pas courant d'afficher des valeurs si froides, mais identiques ! La proba de sortir un truc pareil doit être très faible, quasi impossible ! Donc voilà un exemple de la puissance de la météo dans l'aléatoire, pour déjouer toutes les proba) :
  19. Nouveau record mensuel d'octobre de 437.5 mm (ancien 301.2 mm en 2013, mesures depuis 1993) , 3 ème valeur de la station après les 444.2 mm en Nov 2011, record absolu de 493.4 mm en Nov 2014. Pour les toulonnais, hier en regardant dans des archives, j'ai vu un maxi de 410 mm en oct 1839 (430 mm à Hyères) Je n'ai pas regardé si l'info est passée, la station de Toulon la Mitre a été déplacée dans l'arsenal il y a peu (attention la classification de la fiche est encore pour l'ancienne. A priori il reste encore la T et la pluviométrie à la Mitre pour comparer) https://donneespubliques.meteofrance.fr/metadonnees_publiques/fiches/fiche_83137001.pdf
  20. Cette pluie abondante sans fin m'a laissé du temps ! @calou34 😀 Il faut surtout remercier Serge avec sa phrase sur le plateau, qui a motivé ce post, car sans sa parole de scientifique, je ne l'aurais pas pondu. Avec Fred c'est inutile a priori, car c'est par définition impossible que des arguments même scolairement corrects, aient un impact, du moins pour le moment, vu qu'il n'a jamais admis de telles erreurs, ce qui est logique dans son cas, il faut avancer autre chose que des démonstrations : https://enjeuxenergies.wordpress.com/2018/10/27/climat -les-raisons-cognitives-de-linaction-cerveau-psycho-4/?fbclid=IwAR0jpnDB_lU5__DBUKVfQZNIvJ4F6zxMZUBle2GebJb8FKdPxUjMwgOk7qI Oui pro, dans mon esprit, c'est rémunéré en parlant dans les médias de ce sujet, mais quand c'est aussi un scientifique (rémunéré ou pas) ou un ex météorologue de MF qui s'expriment, ils sont tous sensés s'être assez formés/informés, être plus sérieux et rigoureux dans ce domaine que la moyenne des collégiens (les uns pour mériter leur salaire, les autres pour rester à la hauteur de leur qualification de scientifique), pour ne pas propager à l'infini des énormités pareilles. @CP3 Un calcul, une méthode et/ou la théorie, établis à l'instant t, sont valides jusqu'à ce quelqu'un démontre le contraire. La croyance dans ce cas, c'est de revendiquer que c'est faux, que c'est autre chose, sans jamais le démontrer de façon scolaire et scientifique. Une opinion et une pensée aussi lumineuses soient-elles pour certains, ne peuvent valider/invalider quoi que ce soit en science. http://23dd.fr/climat/histoire-rechauffement-climatique/111-glossaire-refutabilite-falsifiabilite http://www.charlatans.info/verite-science.php @Cotissois Je n'ai pas fouillé ces séries car connues pour être plus incertaines pour la climato et en prime le bruit météo, c'est plus ton domaine. L'incertitude est plus grande au pas journalier qu'au pas mensuel rapporté par meteor, lui même plus incertain que le pas annuel. Dans les autres séries, comme Hadley, c'est la couverture du globe la principale cause d'incertitude, la moins incertaine c'est GISS (enfin d'après leur calcul d'incertitude à l'époque où je les avais regardées de près il y a quelques années, à vérifier maintenant que c'est toujours le cas). Ca m'a poussé à réfléchir sur le bruit et le fond pour le pas journalier : Donc hors incertitude journalière de l'anomalie, en fait pour analyser les écarts d' anomalies globales de T d'un jour/quelques jours sur les autres, on retrouve le même genre d'erreur de raisonnement qu'au niveau climatique, mais à l'envers. Ceux qui revendiquent l'ENSO pour expliquer une/des anomalies journalières bien plus chaudes ou plus froides que d'autres jours proches, c'est équivalent à dire que le signal de fond du RCA influence la T mensuelle ou annuelle globale d'un mois/d'une année sur l'autre, bien plus que le bruit interne (Rien que l'ENSO dans le cas extrême à 95% pourrait faire varier l'anomalie annuelle de +0.15° à -0.15° en plus de la valeur attendue avec la tendance (avec tous les autres bruits neutres) en 3 ans environ. 0.3° de variation/ 3 ans que le RCA moyen actuel de 0.017°/an ne peut pas réaliser en moins de pratiquement 18 ans. Le bruit qui est interne pour le climat est de fait un signal de fond pour l'échelle temporelle journalière, donc il est négligeable pour l'analyse du bruit au pas journalier d'un jour sur l'autre, ses variations rapides seront prises de fait en compte par l'analyse de la météo à l'échelle globale. Ca se vérifie. Le signal de fond moyen pour le pas journalier est donné approximativement par le loess auto qui est la synthèse de la variabilité interne au climat. Ce signal de fond pour le pas journalier est la résultante visible du RCA + ENSO + cycle solaire + volcans + aérosol + PDO +AMO ...et autres bricoles connues ou pas. L'écart maximal dans le loess auto d'un jour sur l'autre est de seulement 0.000256° ! (Maxi relevé pendant la pente+ récente du loess auto avec l'aide du Nino 2016). Donc avec ou sans incertitude de l'anomalie journalière, ce n'est pas la peine de regarder de ce côté là ! Sans le loess auto, on retrouve le même ordre de grandeur pour l'ENSO dans le le cas extrême à 95% entre un ENSO+ à +0.15° et un ENSO- à -0.15° en 3 ans, on aurait une variation journalière moyenne que de 0.000278° (sans un autres bruits, tous neutres), mais comme on n'est pas dans ce cas extrême, la variation due à l'évolution de l'ENSO actuelle, est beaucoup plus faible entre des jours donnés, c'est négligeable à cette échelle. L'influence de l'ENSO est vu stable pour le pas journalier vu que c'est une moyenne (le bruit journalier dans l'ENSO sera pris en compte de fait par les SST journalière de la zone). Autour de ce fond de l'indice ENSO qui ne bouge pas assez à cette échelle, c'est de la météo pure qu'il faut analyser à l'échelle globale, continentale et maritime. Pour moi il faut donc un raisonnement plus proche de celui qu'on a pour analyser la T journalière d'un jour sur l'autre dans une station donnée, mais à l'échelle globale. On ne va pas prendre l'ENSO, le cycle solaire, ni le RC, ni les volcans, ..., pour expliquer des variations d'anomalies entre des jours/groupe de jours. Là c'est du même ordre, même si la variabilité est moindre avec la moyenne globale de toutes les stations et SST, il y a obligatoirement différents paramètres météo globaux qui jouent plus d'un jour à l'autre/périodes de quelques jours, comme par exemple une anomalie globale+ d'insolation/24h sur les continents et glaces, plutôt que sur les mers, une anomalie+ globale de couverture nuageuse nocturne (+ de nuages bas la nuit sur les continents/glaces), anomalie+ globale de vent de mer plutôt que de terre/de glace, anomalie+ globale de vitesse de vent nocturne sur les terres/glaces (hausse de T nocturne par brassage sur de plus grandes étendues que d'habitude), anomalie+ de pression basse sur les continents/glaces, anomalie+ d'étendue de précipitation diurne et/ou nocturne sur les continents, bas géopotentiels et autres éléments de météo pure que tu pourras trouver capables de synthétiser ou d'être des indicateurs de diverses anomalies globales de paramètres qu'on n'a pas à disposition pour y parvenir. Parfois ces anomalies explicatives potentielles, s'additionnent presque toutes dans un même sens ou dans l'autre, bien que dans la grande majorité des cas, certaines se compensent plus ou moins (C'est comme pour le bruit au niveau climatique, un ENSO+ puissant pourra se produire en même temps qu'un cycle solaire+, puissant, avec l'absence de bons volcans depuis longtemps, une diminution des aérosols artificiels, sous une AMO+, une PDO+, une IPO+, avec un Blob..., enfin la fournaise totale pour tous les bruits, le pied !😂 Et inversement bien des bruits négatifs dans le même sens vers le froid.) C'est encore une question d'échelle temporelle. Pour le pas journalier, il faut faire de la météo à l'échelle globale. Il faudrait trouver les anomalies annuelles, mensuelles et journalières globales en nb d'écart-type sur les continents/glaces (calculées d'après l'anomalie d'écart-type de chaque maille) et celles sur les mers/glaces pour nous donner une idée de ce qui varie le plus loin de la normale dans ces cas (en °C on ne peut pas vraiment le voir). J'ai toujours trouvé dommage que les organismes ne publient pas en plus des données/cartes habituelles au niveau global, les données/cartes d'anomalies en nb d'écart-type d'après le nb d'ET spécifique à chaque maille. Si les anomalies classiques en °C, chaudes se retrouvent plus que d'habitude sur les mers que sur les continents/glaces, l'anomalie globale sera moindre du fait que sur la mer un niveau très élevé équivalent en °C est impossible à atteindre. Le nb d'ET global augmentera dans ce cas et on verra du rouge sombre en pleine mer, équivalent au rouge sombre qu'on trouve sur les continents/glaces avec les énormes anomalies en °C sur les cartes d'anomalies classiques, alors que l'anomalie globale sera parfois plus faible malgré une anomalie en ET plus forte (Inversement si le froid d'intensité équivalente en ET, se retrouve plus souvent au-dessus des mers que d'habitude) Je me rappelle avoir vu ce type de carte dans des prévis du RC de je ne sais plus quel organisme et c'était bien plus parlant, car on pouvait comparer le vraiment plus chaud que d'habitude de chaque maille, alors qu'en °C on ne perçoit pas vraiment le problème du RC en mer, bord de mer et dans toutes les zones ou l'ET est faible. +1° d'anomalie à Ouessant ça n'a rien à voir avec +1° à Strasbourg, à Moscou ou vers l'Arctique. Une carte et des données d'anomalies d' ET montreront les véritables anormalités (Certaines anomalies peuvent être très anormales sans qu'on s'en rende compte dans les zones à faible variabilité et paraître très anormales dans les zones à forte variabilité alors qu'elles ne le sont pas !) @th38 , une référence donnée est spécifique à chaque mois pour enlever le cycle annuel, donc il y a des écarts différents. Quand on utilise des anomalies issues d'une référence mensuelle, on supprime du bruit saisonnier qui n'est pas dû à une variation du fond, mais à des variations habituelles, comme par exemple, avec la différence entre les mois d'été de l'hémisphère Nord et de l'hémisphère Sud, car il est recouvert de bien plus d'eau.
  21. Beaucoup d'erreurs élémentaires et incroyables pour des pro dans tout ce que je viens de lire, que ce soit dans l'édito de Fred sur "Où en est le RC", https://www.lameteo.org/index.php/news/3149-ou-en-est-le-rechauffement-climatique ou dans ses/des commentaires à la suite sur FB, avec une phrase impensable dans un commentaire venant d'un des rares scientifiques de l'équipe d'IC, notre @Seziou / Zarge © national, habituellement pointu et rigoureux pour recadrer les choses sur le sujet : Une énième histoire d'absence de RC/ de plateau du RC ces 20 dernières années, que ce soit au niveau RC global ou sur la France, dans ce dernier cas d'après aussi Louis Bodin avec un graphe des anomalies MF de 2014 (Peut-être issu de l'ONERC où j'ai vu exactement le même, car il est toujours bloqué en 2014 quand il y quelques semaines, j'ai voulu récupérer le fichier de données Excel du panel MF, qui n'est plus diffusé comme auparavant, afin d'analyser la réalité de cette histoire.) estampillé 2018 chez TF1 avec un lissage inadapté pour avancer un palier du RC. Voici l'évolution du climat en France fin 2017 (si quelqu'un a un fichier MF du panel de 30 stations au pas mensuel à jour fin août ou septembre 2018 (ou même bien avant), merci !), compatible avec l'évolution significative des moyennes climatiques, les tendances et avec les tests statistiques de comparaisons de moyennes et de tendances ce qui n'est pas le cas du graphe de Fred et celui présenté par Louis Bodin : D'habitude dans ce cas, ce sont les réchauffistes acharnés qui sortent du bois, qui nous ressortiraient l'accélération de la moyenne climatique/30 ans visible dans le graphe depuis 99, alors qu'elle n'est pas significative. Donc il faut vraiment en vouloir pour nous dénicher un plateau même à une échelle de 20 ans interne qu'à un échantillon de climat et donc qui ne peut donner l'évolution d'un climat par rapport à un autre. Ces derniers 20 ans, la moyenne/20 ans a pris 0.8° par rapport à la précédente/20 ans (indépendante), et celle sur 30 ans, 0.83° pendant ces 20 dernières années, excusez du peu ! Et lorsque je prends une des autres méthodes du GIEC pour mesurer le RC en comparant les différences de tendances depuis le début 1900, entre celle terminant il y a 20 ans et celle à jour de 1900 à fin 2017, c'est 0.79° de réchauffement en plus pendant ces 20 dernières années. C'est pour dire leur délire et leur plus qu'énorme problème d'interprétation et de choix d'échelle de certains pour analyser l'évolution du climat. Une courbe lissée sur 10-11 ans ou moins de 30 ans pour la France, est un non sans sens pour l'évolution du climat et arbitraire, pifométrique même pour suivre et prévoir l'évolution interne. L'évolution interne est tellement bruitée, logique à la petite échelle de la France (L'incertitude d'une tendance/20 ans qui correspond à la comparaison de 2 moyennes sur seulement / 10 ans de la T de la France, est plus de 4 fois plus importante qu'au niveau global et donc une tendance de cet ordre a encore moins de sens pour le fond d'autant plus quand on ne la compare à aucune autre tendance plus longue depuis le dernier changement significatif , ni même à la précédente/20 ans, tout en ne regardant pas les différences de moyennes/ 20 ans, ce qui est ahurissant pour parler évolution du RC de fait sans rien faire de sérieux ! La climato ne se fait pas à l'oeil mouillé !) des variations plus indicatives d'un bruit à signature aléatoire, donc sans changement de signal interne notable, vu que le loess auto, à l'inverse du niveau global, ne trouve même pas de variations internes utiles de petite échelle (celle ayant du sens pour l'échelle interne tout en n'ayant pas de significativité pour le climat) et lisse automatiquement à l'échelle la plus pertinente, c'est pour dire ! Sur 20 ans en France, on a une tendance de 0.68°/déc IC95% [0.25°/déc; 1.12°/déc] (S) et sur 78-97 et 0.17°/déc [-0.22°/déc, 0.54°/déc] (NS) sur 98-2017. A l'inverse du niveau global moins bruité, la dernière tendance/20 ans de 0.17°/déc, n'est donc pas significative d'un réchauffement avec un IC inférieur négatif (le test de Kendall utilisé aussi par MF dans ces cas, ainsi que le test de Fisher de la régression dans R, le confirment), mais comme elle n'est pas significativement différente de la précédente avec une confiance à 95%, ni de la tendance plus longue significative du climat (car les IC se recoupent dans tous les cas), il sera totalement faux de dire qu'il y a un changement pour un palier temporaire, ce que confirme l'augmentation nette des moyennes, et le lissage loess qui a l'avantage de synthétiser les évolutions de moyennes et de tendances linéaires. La moyenne/20 ans (donc non climatique pour la France) a augmenté ces 20 dernières années de 0.8° de façon très significative. (C'est encore plus significatif (P =0.00001), quand je compare la moyenne/20 ans à une véritable moyenne climatique/30 ans qui précède ces 20 dernières années) Pour le niveau global leur analyse est encore pire, en dessous de tout, car la dernière tendance /20 ans est même supérieure en valeur centrale à la précédente sur 20 ans (Idem pour la durée du graphe de Fred en comparant à la même durée précédente). Bon l'étourderie dans le meilleur des cas pour Serge, ce n'est pas un problème, ça arrive à tout le monde, il reconnaîtra le problème (si moi-même je n'ai pas fait d'erreurs), pour les autres qui refusent d'appliquer/ou d'apprendre les plus élémentaires des bases scolaires pour des raisons obscures ou psy, ce n'est pas gagné ! Regardez pour le global, ce tableau de calculs issus de différentes méthodes admises par des pro moins étourdis, ils sont limpides : Vous pouvez vérifier si je n'ai pas fait d'erreurs dans mon brouillon Excel , car ça me paraît tellement énorme que Serge se plante autant sur ce sujet, que je doute plus que d'habitude malgré que j'ai vérifié dans le calculateur de SKS et dans R : http://meteo.besse83.free.fr/imfix/evolutionnoaa082018.xlsx . Pour les loess, il vous faut un addin Excel et/ou R ou autres, pour celui auto et divers tests, mais bon je ne fais pas les calculs, c'est l'ordi. Pour le global, voici différentes façons assez correctes pour montrer l'évolution du climat compatible avec les tests et l'évolution des moyennes/tendances dans un graphe et non pas avec les variations internes au climat. C'est bien plus conforme avec un lissage suffisant, comme on le voit avec l'évolution du climat déterminé par les pro du domaine à l'aide des forçages en plus : http://globalwarmingindex.org/ La meilleure courbe de mon graphe, est donnée par le loess/50 ans, car sur cette période, il n'y a absolument aucun bruit, sens de pente, non significatifs et parasites. (Il n'y a que 4 orientations différentes de pente, car il n'y a que 4 changements significatifs de tendance ( une baisse, une hausse, puis un vrai plateau (il n'y a pas eu de tendance significativement négative, différente de 0, aucune moyenne climatique significativement différente, significativement plus basse.) puis le dernier changement pour la pente depuis 70 qui se poursuit à nos jours, sans aucun changement significatif, même pas d'un peu près ! Un loess à la bonne échelle, a l'avantage d'effectuer la synthèse entre les tendances et les moyennes, car une strictement même moyenne à la hausse de la même valeur, peut intégrer des pentes significatives totalement opposées selon la distribution des valeurs, ce qui n'a pas de sens, l'important c'est l'augmentation des moyennes et non les variations internes et visuelles quand on zoome trop pour suivre le climat. Avec une bonne échelle adaptée à la cible (plus fine pour suivre le bruit interne au climat comme le graphe de Fred, plus large pour suivre celle du climat), il nous évite justement de raconter n'importe quoi en se noyant dans le bruit quand on cherche à analyser le climat et il évite de se perdre dans l'échelle climatique quand on cherche à analyser le bruit, ce qui nécessite de zoomer cette fois comme avec le loess auto dans mon graphe un peu plus bas. Ceux qui veulent regarder la variabilité interne au climat, regardez la courbe noire par analyse auto des variances du loess auto et non au pifomètre par un lissage arbitraire sur 5, 10 ou 15 ans ou autres intermédiaires. Pour les 2 dernières tendances/20 ans indépendantes, on voit clairement que la toute dernière/20 ans soit disant plate, n'est même pas un plateau en apparence et qu'elle est plus pentue que la précédente (ben oui c'est plat pour ceux qui tracent des traits de tendance comme le font des écoliers de primaire/maternelle, à la main sans aucun calcul ! C'est inadmissible pour des pro !) Si Fred continue de contester que ça se réchauffe avec cette pente, alors que dans son commentaire tout en haut, il dit que ça se réchauffait fortement dans les 2 décennies précédentes, là avec une pente pourtant moindre, ce serait très fort. C'est exactement comme si quelqu'un vous disait que vous allez moins vite au boulot, parce que vous aviez été ralenti sur tel rond point, sans jamais contrôler le temps total, alors qu'au final vous êtes pourtant arrivé plus tôt. La fixette sur le ralentissement interne au trajet, au rond point , sans mesurer le temps total, mène à ce genre d'erreur. Il faut changer d'échelle et regarder l'ensemble le temps total du trajet par rapport aux trajets faits auparavant, pour le climat c'est le même principe, on a des moyennes climatiques et des tendances de tailles minimales à comparer, pour ça. Il faut comprendre que ces pentes de trop courtes échelles internes pour suivre le climat, varient rapidement d'une année/mois sur l'autre sans que ça ait un sens (d'autant plus au plan national avec une plus forte variabilité), à cause de l'incertitude de la pente à cause la variabilité classique, et donc ça ne sert à rien de les suivre de près tant que des valeurs ne sont pas près ou ne sortent pas de l'intervalle de prédiction (IP) inférieur de la longue tendance depuis 1970 sans changement significatif. Imaginez que le RC en plus en moyenne ces 20 dernières années dans le tableau des calculs des anomalies en °C , sont des anomalies de vos rentrées d'argent, alors que je suis votre banquier. Ce serait très facile avec vous de détourner un pognon de dingue sur ces 20 ans, comme dirait l'autre, (33 000 euros au minimum au niveau global + 80 000 au minimum au niveau national), vu que vous niez ce surplus de RC (de vos finances et le comble celui qui me sort ce graphe est même capable d'aller voir son banquier avec, pour lui dire qu'il a fait une erreur ! Erreur du client en votre faveur et il nous donnera le pognon de lui-même ! Quel gag !) ces 20 dernières années en restant bloqués, hypnotisés, dans les variations internes sans jamais en faire la synthèse avant et après la période donnée, sans comparer les tendances, sans avoir la moindre conscience de ce que signifie un plateau des plus logique et attendu après un record, de bonnes anomalies dans une tendance en moyenne linéaire car les anomalies fortes sont assez proches du record et très loin de la moyenne de référence qu'ils ignorent.... (et non faiblardes, des négatives et des positives assez bien réparties autour du niveau de la moyenne indépendante d'il y a 20 ans (/30 ans pour la France), nécessaires pour stabiliser provisoirement le RC et afficher un vrai palier significatif pour le RC. Sinon avec trop d'anomalies plus chaudes (ou trop souvent) comme c'est le cas, le RC continue malgré un plateau qui n'est que celui près du niveau du record/ou de très fortes anomalies (C'est comme si vous disiez que parce qu'on a eu un plateau avec 8 jours à plus de 40° à Auxerre en août 2003, puis une forte tendance à la baisse, le mois d'août 2003 ne se réchauffe plus par rapport aux autres ! Votre problème est là, aucune notion réelle des anomalies en présence dès le moindre plateau, donc avec votre raisonnement binaire, au moindre plateau, le mois (climat) n'est pas plus chaud que les autres, ça stagne, alors que c'est faux ! Un plateau n'a pas le même sens selon le niveau d'anomalies et pour connaître le niveau, il faut bien en faire la moyenne et en comparer au moins 2 avec au minimum une méthode digne du collège. Exemple pour la France, on voit bien votre biais vraiment hallucinant. Vous revendiquez de fait que la seule anomalie sous la moyenne 1978_1997 est capable à elle-seule de stabiliser le RC , vous êtes incroyablement naïfs en maths/stats , totalement hors sol ! (ce serait encore pire avec la vraie moyenne climatique/ 30 ans sur 1968_1997, je me suis basé sur votre choix sur 20 ans, donc incomplet ) : (C'est vraiment hallucinant que ce soit moi le paysan de Besse qui doive vous informer sur des trucs aussi basiques, mais bon classique avec ceux qui se foutent de la significativité, il n'y a que dans les discussions sur cette science qu'on voit ça ! ) C'est mieux avec des tests à votre niveau, mais bon... Avec le climat on compare aussi les tendances. On ne se contente pas de comparer des moyennes comme au collège . Vous ne faites rien de tout ça, donc vous vous plantez systématiquement dans le suivi de l'évolution du climat avec vos plateaux des plus habituels et obligatoires avec cette tendance, dès que les anomalies ne battent plus le record, alors qu'elles ne donnent pourtant pas une moyenne identique (significativement pas différente) à la précédente (elle est plus chaude !) et pas une tendance significativement différente de la précédente contenant un RC significatif !) ....qui réchauffent toujours le dernier échantillon de climat tout comme la tendance pourtant fortement à la baisse interne à août 2003, réchauffe toujours cet échantillon de mois remarquable, tant que les anomalies (internes) restent assez supérieures ou assez souvent / à la moyenne de l'échantillon précédent. De plus, de fait en assimilant un tel plateau interne à un changement, vous n'avez même pas conscience que vous revendiquez que le RC c'est non pas avant tout le RC de l'état moyen (vu qu'un record à lui seul ne veut rien dire pour le fond !), mais avant tout celui uniquement des records, tellement vous êtes avides de records battus de fait, par définition sans plateau attendu, alors que c'est la règle d'en observer même avec un RC de fond de 6° par siècle (0.06°/an) et donc encore de plus longs actu avec 0.017° par an depuis 1970 ! Vous raisonnez comme si on avait une exponentielle de malade ou du linéaire avec du 40°/ siècle. C'est 0.4°/ an qu'il vous faut avec votre raisonnement, pour écraser la variabilité (et donc supprimer les IP) à signature statistique classique dans les relevés, (et encore hors énormes volcans, astéroïdes et autres trucs de fous !) pour avancer que c'est un signe assez clair de changement et de stagnation provisoire du RC. Des plateaux de durées variables sont la règle obligatoire dans une tendance linéaire au RC bien trop faiblarde pour annuler la variabilité autour de cette hausse de fond moyenne à la hausse. Il existe des méthodes simples pour estimer la durée la plus normale/probable, la plus attendue pour le plateau suivant pour exactement le même réchauffement qui continue sur le fond. Il suffit de se servir de la tendance centrale depuis 70 et des IP. Un plateau significatif pour le RC ne peut pas exister tant que des anomalies ne sortent pas assez souvent de l'IP inférieur (1 valeur annuelle ça peut arriver sans modif du RC, vu qu'on est sensé en récolter 2.5 dessous / 100 ans en moyenne pour les IP à 95% (dont 2.5 supérieurs), mais en observer 2 en peu de temps, c'est signe qu'il faut s'y intéresser de très près et chercher la significativité d'un changement, comme c'est arrivé après 1945). La durée la plus probable d'un plateau interne, dépend du niveau du record annuel précédent, car plus la valeur est proche de l'IP sup (un record à plus faible proba, nécessite en moyenne, donc pas toujours, bien plus temps qu'un record situé presque contre la pente centrale ) ou pire hors IP (encore plus rare), et plus la probabilité qu'il soit long tout en étant des plus normal pour le même RC de fond sans faille, augmente. La durée la plus probable est donnée par la projection de cette valeur record comme 2016 sur la tendance centrale depuis le dernier changement significatif de tendance. Exemple que j'avais réalisé avec 2016 : Sans graphe, par calculs, la durée d'un plateau correspondant parfaitement à la tendance du RC actuel sur le fond depuis 70, est donnée par : (2 fois l'erreur standard de la régression + (+- la différence du record annuel avec l'IP sup) +0.1° (pour que le record soit considéré comme significativement différent du précédent, donc battu d'au moins 0.1°) ) / (la pente/an). Donc en arrondissant pour NOAA : ((2 *0.09)-0.03 + 0.1 )/0.017 = 15 ans environ, (C'est aussi la durée à partir de laquelle on observera une significativité de la tendance et donc on n'aura plus besoin de la comparer à la longue tendance significative pour savoir que le RC continue uniquement à cause de l'absence de différence significative de tendance, de l'augmentation des moyennes et des loess et divers autres tests.) qui est la durée du palier la plus normale qui soit avec la plus forte proba pour un RC strictement identique en moyenne sur le fond de 0.17°/déc, donc vers 2031 fin la plus probable fin d'un plateau/nouveau record après 2016. Mais comme les valeurs sont attendues distribuées autour de la tendance centrale (Vu que c'est une signature aléatoire, c'est rare que ça tombe pile sur la tendance centrale malgré la plus forte proba de la valeur centrale !), ça ne change rien si le record est battu et/ou que le palier se termine bien plus tôt de plus d'une erreur standard (Il sera faux dans ce cas de dire que ça s’accélère sans que les différences de tendances soient significatives), ou même en retard d'autant, plateau plus long qu'indiqué par la valeur centrale (Il sera tout aussi faux d'annoncer un ralentissement, car par exemple la proba est la même de part et d'autre de la valeur centrale, à moins une erreur standard,comme à plus une erreur standard, ce qui représente un peu plus de +- 5 ans). Pour qu'un plateau soit revendiqué comme un vrai plateau pour le RC de fond, il faut rajouter au reste, 2* l'erreur standard (c'est le côté inférieur de l'IP) avant d'effectuer la division / 0.017, ce qui fait qu'un plateau est considéré comme anormal pour le RC donné avec la pente centrale actuelle et la variabilité à signature habituelle, après environ 25 ans, mais seulement s'il n'y a pas de valeurs hors IP inférieur qui auraient rendu significatif le changement de tendance. Donc réclamer des pauses à tours de bras avec des plateaux des plus classiques avec des anomalies pourtant bien dans les bornes d' une telle tendance linéaire faiblarde, seulement avec votre oeil mouillé, pour dire que ça ne se réchauffe plus depuis x, sans aucune analyse sérieuse, malgré les démonstrations scolaires répétées , alors que c'est archi faux, est une escroquerie intellectuelle majeure. C'est vraiment prendre les lecteurs pour des idiots et ne pas les respecter, malheureusement même ceux qui ne s'en aperçoivent pas en ne vérifiant pas ce que Fred raconte ou en ne sachant pas comment le voir, donc ne vous étonnez pas que je tranche dans le vif en lisant des trucs pareils au moindre plateau des plus classiques, avec des météo, présentateurs très peu sérieux qui ne calculent rien et tirent des traits à l'oeil, ne savent pas interpréter une moy/10-11 ans ans plate dans les graphes ! (Pour la France, je n'ai pas calculé la durée probable d'un plateau dans le cas actuel, à vous de jouer, que les étudiants et passionnés effectuent l'exercice. Avec la méthode pifométrique, donc à vue d'oeil mouillé, mais un peu d'expérience, le plateau des plus normal le plus probable pour la France, devrait être plus long que pour le global, car il y a bien plus de variabilité malgré une hausse plus forte de la T qu'au niveau global, qui ne compense pas assez. En fait de mon point de vue en nombre d'écart-type, le RC en France est moins puissant qu'au niveau global, bien qu'il le soit en valeur absolue, mais c'est quand même la valeur absolue qui compte le plus pour le vivant !) Donc à ce niveau incroyable d'affirmations indignes de pro formés et payés (pourtant largement dans certains médias) pour être capables de bien faire ce genre de boulot de base pour nous informer correctement, à l'aide de ce que j'avais enregistré du glossaire de l'AR4, il faut revenir une nouvelle fois aux définitions, vu qu'il existe de multiples échelles temporelles pour un échantillon de climat et donc pour bien savoir quoi comparer et analyser et comment, quand on parle RC, de changement climatique dans ce cas précis pour notre échelle par rapport à la comparaison de Fred avec la cible du GIEC pour les 1°, 1.5°, 2° ... ( Les raisons des moyennes de 20 ans comme référence de comparaison pour les modèles, se trouvent ailleurs dans l'AR4 : ) . https://www.ipcc.ch/publications_and_data/ar4/wg1/fr/annexsannexe-1.html Même si on conteste leur définition, ceux qui se rappellent un peu de leurs cours de base en stats, savent que dans tous les domaines il vaut mieux récolter au minimum 30 échantillons dans une moyenne ou autres. Donc un climat c'est 30 ans de données au minimum (20 ans pour comparer avec le GIEC, vu qu'il faut des périodes comparables. Comme bien des scientifiques du domaine, je suis contre cette durée car il est clair que la variabilité sera encore trop présente, comme le montre les stats et même plus rarement les modèles, car certains affichent des paliers de 20 ans à cause de cette variabilité interne, donc 2 moyennes/10 ans pas significativement différentes malgré le RC) Donc pour cet objectif, l'analyse non pertinente de Fred des anomalies mensuelles et annuelles pour juger la cible, 1°, 1.5° GIEC car / 20 ans, avec un graphe utile juste pour analyser le bruit interne et non pas pour savoir où en est l'évolution du RC, est en prime biaisée par la référence NOAA qu'il garde sur 1901-2000, car elle contient de fait trop du RC récent, donc pas assez préindustrielle, comme la référence de la cible GIEC qui est donnée pour des moyennes/ 20 ans. Il faut donc rajouter 0.22° aux anomalies de l'édito/graphe de Fred (Référence sur 1886-1905, c'est la référence GIEC de l'AR5 pour les séries commençant qu'en 1880. Pour Hadley c'est sur 1850-1900. C'est le boulot de Fred de savoir ça, pas du tout le mien, c'est pour dire comme il respecte les lecteurs qui cherchent à s'informer et ensuite il qualifie les médias, de "médias poubelles" souvent avec pertinence pour le catastrophisme primaire, alors qu'il la fait grossir souvent "Allègrement" dans ce cas ! Ce qui ne remet pas en cause ses performances en météo, de présentateur, hors discours en climato basé sur du vent en maths, le seul point dont je m'occupe qui est inadmissible à son niveau.) On a ça aussi de testable dans l'AR5 pour la prochaine moyenne 2016-2035 (à la vitesse actuelle faiblarde, on finirait donc bien au-dessus des 1°/20 ans /préindus. Il n'y a pas de plantage en cours comme le fait croire Fred avec ses anomalies) : Pour voir l'évolution externe, donc du RC, du changement climatique, continuez à analyser qu'un seul échantillon de climat comme personne n'imaginera jamais analyser un échantillon de mois, par ex pour savoir situer le mois d'août 2003 par rapport aux autres mois d'août, en oubliant d'échantillonner des mois (donc là en oubliant de prendre des échantillons de climat à la place de votre fixette uniquement sur des variations internes) tout en zoomant pour nous sortir : "Oh là là ! Regardez la méchante forte pente à la baisse interne dans ce mois de 2003 (comme vous le faites pour le plateau ou autres variations internes à un échantillon de climat) pour faire croire volontairement ou non, que le mois d'août 2003 se refroidit (provisoirement, ou non , ce qu'il ne faut pas lire et entendre !) , est plus froid que le précédent, équivalent ou autres absurdités déduites d'un zoom inadapté à l'objectif : analyser l'évolution du RC ! Continuez à montrer ce qui n'a pas de sens et vous aurez le même résultat lamentable impensable. L'erreur de date du graphe de Louis Bodin est négligeable par rapport à ce type de raisonnement avec son lissage et avec le graphe de Fred (Prendre un microscope pour analyser l'évolution du climat ! Il est utile pour analyser l'évolution interne qui ne dit rien sur l'évolution du RC /changement climatique, lui-même, pour la T.) Fred dit s'arracher les yeux/cheveux avec les fautes d'orthographe des internautes, mais il est aveugle face à de telles énormités qui vont bien au delà de la forme de l'orthographe ! En climato, je préfère voir un inculte en orthographe, qui écrit en phonétique tordue, qui pondra de bonnes analyses chiffrées justes même de collégien, sur le climat, que des trucs pareils venant d'un pro (un collégien moyen aura l'honnêteté de et saura au moins, faire une soustraction entre 2 moyennes climatiques, calculer et tirer des tendances linéaires, mais pas eux, ils n'essaient même pas tellement convaincus avec leur oeil aussi scientifiquement bidon et biaisé que celui de tout le monde, alors qu'ils suivent le RC avec un microscope à la main au lieu de prendre du recul !) . C'est typique des journalistes et des météo qui se la jouent dans les médias à la Fox News, tout dans la forme et rien sur le fond, faite pour faire le buzz et attirer des clients et des adeptes à leur idéologie/déni des bases scolaires et scientifiques ! A leur niveau beaucoup savent qu'ils balancent des trucs faux en ne corrigeant jamais une fois qu'on leurs a démontré x fois de façon scolaire, ils n'opposent rien de scolairement valide et juste, que du bla bla pour continuer leurs affaires juteuses sans considérations pour autrui. Méfiez vous toujours de toutes les analyses en climato, où un rédacteur aussi bon soit-il en météo, en physique, avec des diplômes à gogo, ne respecte pas les échelles concernées pour les échantillons donnés utiles à l'analyse, ne parle jamais de tests statistiques ou de significativité des valeurs, sans courbes lissées sur d'assez longues périodes pour n'afficher que les variations significatives s'il parle d'évolution du climat (et non analyse de bruit sans remettre en question le fond avec un une variation non significative ( plateau, accélération, ralentissement non significatifs), s'il fait des cueillettes de cerises (zoom trop fort pour éviter de montrer la réalité évidente avec l'ensemble), c'est qu'il n'a rien vérifié et a pris uniquement son oeil mouillé, pifométrique. Tout ceci est valable quelle que soit la cause du RC, le CO2, une oscillation océanique, le réchauffement du manteau, ou tout ce que vous voulez, pour le suivi du climat à notre échelle, il faut sortir de la variabilité de haute fréquence et non rester bloqué dans un échantillon pour détecter l'évolution de cet échantillon par rapport aux autres, sinon plantage garanti. Si on faisait de même en médecine, de se foutre à ce point extrême, de la significativité des tests, ce serait un carnage dans la population ! "Putain de facteur humain !" Vivement que l'IA remplace tous les bidochons à la mode dans les grands médias, pour qu'on n'entende plus n'importe quoi en lecture élémentaire des données ! https://www.ulyces.co/news/au-japon-le-jt-national-sera-presente-par-un-robot-des-le-mois-davril/ Je ne doute pas que si je n'ai pas fait d'erreur de calculs de bidochon moi-même, Serge rectifiera sa confirmation du ralentissement provisoire ou non, du RC ces 20 dernières années ou m'apprendra autre chose si j'ai raté quelques bricoles importantes. Mais bon dans ce cas, il faudra qu'il nous démontre scientifiquement que le RC a ralenti ces 20 dernières années et pas seulement avec les mains, l'oeil, ou qu'avec des bla bla, ce qui n'est pas gagné quand on sait qu'un de mes profs préférés en stats, Tamino (Grant Foster) a déjà testé vers fin 2017-début 2018 qu'on n'était pas loin d'une accélération significative dans la série GISS (pas robuste encore malgré P=0.04), ça dépend trop du début de la tendance et le juge de paix qu'est le test de Chow pour vraiment éviter les erreurs comme des sauts de tendances non physiques, qui n'existent pas dans la nature, ne la donne pas significative d'un changement. A l'année prochaine pour le bilan de 2018, je passerai juste pour admettre et corriger mes éventuelles erreurs grossières si vous en trouvez (je ne suis pas à l'abri, mais à démontrer mathématiquement avec des méthodes scolaires admises), pour le reste des bla bla non objectifs, la rhétorique des croyants, répondre aux questions, je n'ai pas le temps. Fred corrigera mon orthographe et ma syntaxe, je n'ai pas le temps d'affiner la relecture et il aime ça plutôt que les chiffres et les maths 😉 Ah oui j'oubliais sur un autre sujet, un document passionnant de référence sur le soleil, sur l'entrée solaire dans CMIP6 : Solar forcing for CMIP6 (v3.2) https://www.geosci-model-dev.net/10/2247/2017/gmd-10-2247-2017.pdf
  22. 90.1 mm au SPIEA à 19h dont 57.6 mm en 37 mn, 28 mn une avec intensité instantanée >= 104 mm/h, maxi 281 mm/h au pluvio V2, 27 mn pour le Précis Mécanique avec maxi à 262 mm/h.
  23. 1016 mm https://waterdata.usgs.gov/nwis/uv?cb_00020=on&cb_00025=on&cb_00035=on&cb_00036=on&cb_00045=on&cb_00052=on&cb_61728=on&cb_62620=on&format=gif_default&site_no=02093222&period=&begin_date=2018-09-08&end_date=2018-09-16 Un débit 2.9 fois plus important que pendant le record en 1999 avec Floyd Daily discharge, cubic feet per second -- statistics for Sep 16 based on 78 years of record. Max en SEP 1999 : 11500 cfps SEP 2018 : 33700 cfps La différence de hauteur est modeste, probablement qu'en apparence à cause d'un étalement sur une plus grande largeur et/ou surtout de la limite de l'appareil de mesure pas assez haut (comme ce sera le cas sur l'Issole ici, car à ce niveau de pluie on est certain à 100% de rater la hauteur d'une crue d'un facteur énorme) : https://waterdata.usgs.gov/nwis/uv?cb_00060=on&cb_00065=on&format=gif_default&site_no=02108000&period=&begin_date=2018-09-08&end_date=2018-09-16
  24. https://waterdata.usgs.gov/nwis/uv?site_no=02093222 https://waterdata.usgs.gov/nwis/uv?site_no=0210869230
  25. Daily discharge, cubic feet per second statistics for Sep 15 based on 64 years of record. Ancien maxi 1720 cfps en 1984, nouveau record amélioré de plus d'un facteur 3, près de 6000 cfps (En baisse à 5450 cfps pour la valeur actuelle) : https://waterdata.usgs.gov/nwis/uv?site_no=02091000 Très nombreuses données diverses intéressantes dans certaines stations, par exemple https://waterdata.usgs.gov/nwis/uv?cb_00020=on&cb_00025=on&cb_00035=on&cb_00036=on&cb_00045=on&cb_00052=on&cb_61728=on&cb_62620=on&format=gif_default&site_no=0209303201&period=&begin_date=2018-09-07&end_date=2018-09-15 ici : https://webapps.usgs.gov/Florence/
×
×
  • Créer...