Aller au contenu
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

ChristianP

Adhérent Infoclimat
  • Compteur de contenus

    2 835
  • Inscription

  • Dernière visite

  • Jours gagnés

    1

À propos de ChristianP

  • Rang
    Cumulus congestus

Personal Information

  • Lieu
    Besse sur Issole (83 - Alt 275 m à 26 km de la mer)
  • Site web
    http://www.facebook.com/meteobesse.stationmeteo

Visiteurs récents du profil

956 visualisations du profil
  1. ChristianP

    Statistiques et anomalies climatiques nationales

    Le loess/60 ans, c'est une tendance plus une comparaison de deux moyennes/30 ans, on est à l'échelle climatique donc je ne comprends pas pourquoi il faudrait centrer sur 2018 comme si nous avions du bruit interne qui jouait. C'est le fond climatique qui est important pour cette pente, donc il n'y a rien dans le bruit futur d'échelle interne, hors catastrophe qui pourrait bouger la pente et la faire ralentir à 0.27°-0.3°/déc alors qu'elle contient déjà un vrai palier climatique d'avant 1970 qui minimise déjà sa pente. Le faux hiatus global a déjà impacté la France et les modèles sont incapables de trouver le bon timing de ce genre de bruit interne déjà au niveau global alors à l'échelle de la France, c'est encore plus incertain pour eux de bien le situer et de le quantifier à l'avance. En fait en regardant de près le dernier rapport du GIEC sur la limite de 1.5°, pour les 1.4° de RC pour MF fin 2017, je pense que MF utilise peut-être une des dernières méthodes du GIEC qui prend une dernière moyenne/10 ans comme une estimation d'une moyenne/30 ans centrée sur cette période plus courte (donc la moyenne 2008-2017 serait dans ce cas considérée comme la moyenne/30 ans de 1998-2027 ce qui dans ce cas donne bien 1.4° de RC fin 2017) A noter que maintenant ils utilisent une moyenne de 4 séries et non plus seulement Hadley : Voir en particulier les pages 57, 58, (59 où ils analysent aussi des moyennes climatiques "débruitées", 1.04° de RC fin 2017 dans la figure 1.2 page 57. Voir tableau 1.1 avec différentes périodes de suivi du RC et les écarts entre les séries) : https://www.ipcc.ch/site/assets/uploads/sites/2/2018/11/SR15_Chapter1_Low_Res.pdf
  2. ChristianP

    Statistiques et anomalies climatiques nationales

    Je ne comprends pas du tout pas pourquoi tu restes à l'époque de l'AR4 et que tu bloques en 2000 la valeur officielle de la France et même celle du GIEC. Le GIEC a mis à jour régulièrement le calcul officiel du RC après ton graphe tout comme MF. Sur HD climat on trouve ça avec un graphe terminé fin 2017 : Conforme à l'AR5 (mais pas pour les 1.4° mystérieux sur la France sur 1900-2017) : 1.34° sur la France sur 1901-2012 avec la même méthode à partir des anomalies MF plus précises du graphe des anomalies du panel MF sur HD climat (1.34° aussi avec ma série). Il n'y a aucune indication sur la façon de trouver leurs 1.4° en tendance moyenne de RC sur la France fin 2017. Ca ne correspond à rien en tendance ici. La tendance centrale sur 1900-2018 est 1.58° pour ma série reconstituée, 1.57° pour la leur avec des anomalies plus précises. Même sur 1901-2018 qui dégage de fait une donnée "chaude", elle est de 1.61° pour les 2 séries. Sur 1900-2017 c'est 1.50° de RC (1.51° pour ma série). De plus les 2.7°/siècle sur la France, c'est pratiquement la tendance centrale faiblarde (2.76°/siècle) trop courte pour qu'elle soit significative, observée sur 2000-2018. Si on prend la pente sur une échelle climatique qui justement est peu sensible au bruit, celle du loess /60 ans pour la période sans changement significatif de tendance linéaire avec les données d'anomalies sur 70-2018, elle est de 3.6° /siècle pendant que la tendance linéaire sur la même période à partir des anomalies est de 4° (3.96°)/siècle. Logique que la linéaire soit plus pentue que le loess/60 ans avec aucune donnée d'avant le changement significatif de tendance dans le calcul à l'inverse du loess/60 ans qui récupère des données d'avant 70 dans le calcul (donc de fait avec des données du vrai plateau climatique dans le calcul de la pente du loess/60 ans depuis 70 ). Plus le temps passe et plus la pente de ce loess/60 ans s'aligne sur la pente linéaire depuis 70, plus forte que celle du Loess, malgré une tendance plus faible en apparence ces dernières années (2000-2018) car la tendance sur 70-1999 a donné 4.6°/siècle (plus forte qu'en apparence). La pente du Loess/60 ans restera probablement plus faiblarde que la linéaire depuis 70, jusque vers 2030 (donc au bout des 60 ans sans nouveau changement significatif de tendance). Donc il est fort probable que le RC sur la France devienne plus fort que ce qu'indique déjà le Loess/60 ans actuellement et voire la linéaire depuis 70 vu que le RC est aussi sensé s'accélérer d'autant plus avec tous les schizophrènes profonds dans les plus inquiets qui s'acharnent de fait à alimenter la chaudière toujours plus. De plus en début d'année dernière dans un de mes posts en comparant le loess/60 ans pour la T globale à la méthode GIEC du GWI pour suivre le RC, qui prend les forçages en compte, on a vu que le Loess/60 ans est moins pentu que leur estimation du RC, donc il est plus que probable que le RC est plus fort aussi sur la France que ne l'indique ce Loess/60 ans. Ca ne dit rien pour les prévis très lointaines, surtout avec le facteur d'incertitude principal (pas tant que ça quand on regarde de près l'histoire) qui est le comportement humain plus que très largement capable d'auto réduire très massivement sa propre population par les guerres civiles et militaires ( et donc de fait ses émissions), bien plus et avant que le RC soit capable d'en faire autant... Une animation sympa : https://twitter.com/neilrkaye/status/1081192550826950657
  3. ChristianP

    Statistiques et anomalies climatiques nationales

    RC depuis 1900 +1.58° selon une des méthodes du GIEC en prenant la tendance moyenne depuis 1900, +1.33° / normale 1900-1929.
  4. J'avais commencé à répondre au mois d'août sur ce sujet qui rejoint le même problème sur les valeurs extrêmes à 50° et + avec le RC prévu. Un record absolu de Tx battu ou pas, n'a aucun sens sans savoir ce que représente un peu le record précédent à battre (d'autant plus à l'intérieur des terres ou pire vers les pôles où la variabilité est plus grande). Pour avoir une idée un peu plus juste du record potentiel et significatif réellement d'un état climatique stable donné et pire d'un climat avec une tendance de fond au RC, il faut énormément plus de données que les séries "modernes" de durée nanométrique pour cet usage, et qui en prime ne sont pas homogènes et toujours impossibles à corriger correctement au pas journalier surtout pour un record. Par exemple, le record de Paris de 1947 avec l'ancien abri Montsouris qui surchauffe surtout en Tx estivale par beau temps et vent faible (écart médian + 2° pour ces cas jusqu'à +3.5° mais pendant un an d'essais à Trappes avec un été pas folichon dans le coin sans aucun rapport avec 2003 et les étés banals dans le SE) avec en prime ensuite l'arrosage moderne du parc (-0.5° d'écart moyen en Tx estivales) fait que le record moderne recalé à la louche aux normes passées de 1947 donnerait probablement en valeur estimée autour de 42.5° ( 2° pour l'abri et 1° pour l'arrosage auto, car -0.5° de moyenne en Tx, est donné pour toutes conditions confondues, y compris avec les jours pluvieux et nuageux.) Pour voir la possibilité de 50° et plus en France après 2050, autour de 2075 ou plus ( Attention c'est surtout pour après 2050 et non en 2050, une année particulière, notre ami de Futura science, explique ces détails : https://www.futura-sciences.com/planete/actualites/climatologie-records-temperature-plus-50-c-france-61662/ ) , Voyons avec un exemple pour le record absolu moderne remarquable du Luc du 7 juillet 82 avec 42.7° toujours pas battu malgré le net RC supplémentaire depuis 82 : On remarque sur le graphe, que ce vieux record dans un bon site relevé aux normes actuelles (en prime avec beaucoup de vent ce jour-là soufflant de la direction hyper dégagée de cette station qui fait que cette valeur est très probablement équivalente à celle relevée dans un abri méca de haute qualité, un record qui vaut probablement plus de 45° dans des stations aux mêmes normes de mauvaises qualités que les 44.1° de Conqueyrac (avec abri Cimel surchauffant + cloisonnée pour le vent de terre + pente Sud trop forte, radiative) et St Christol les Alès (cloisonnée pratiquement dans toutes les directions, obstacles blancs rayonnants pour les Tx, serres proches, thermo à maxi et mini disposés contre la paroi Ouest de l'abri + thermographe douteux (donné à +-0.8° même si bien réglé), alors que personne n'est sensé chez MF continuer à vérifier l'étalonnage des thermographes de postes manuels depuis longtemps), est toujours nettement décalé de nos jours de la courbe de la significativité des records journalières. Tout record journalier n'atteignant pas ce niveau à 95% n'est pas encore assez significatif de la climatologie moyenne observée, d'autant plus avec une tendance significative, faute de recul et donc de milliers d'années de données journalières. Beaucoup de valeurs sont en retard par rapport à la moyenne des records et donc encore plus par rapport à ce qu'on est sensé observer dans 95% des cas quand on aura assez d'échantillons. Ce record de 1982 est toujours considéré comme très significatif aujourd'hui vu qu'aucune des valeurs plus récentes, n'a réussi à se décaler plus loin de l'IC supérieur que celle de 82. On peut voir de plus près en zoomant uniquement sur les Txx journalières que bien des records journaliers peuvent être très éloignés sur peu de jours. Quand on voit que pour le 9/07 le record est de 36.3° malgré le RC en plus depuis 82, alors que le record du 7/07 est de 42.7° sans ce RC, ça montre bien tout le problème du manque de milliers d'années de relevés pour obtenir des records cohérents/significatifs chaque jour pour un état moyen donné. Même si c'est moins prononcé au niveau annuel, c'est le même genre de problème qu'il faut avoir en tête pour se faire une idée d'un record absolu de Tx (ou Tn) potentiel vraiment assez significatif du maximum assez probable d'un état moyen donné. Donc même sans calculs élaborés de durée de retour, même sans recaler la courbe de significativité supérieure de l'IC, qui sera située plus bas fin 81 que sur ce graphique (vu qu'on retire un paquet de valeurs records et chaudes avec le RC depuis) où de nos jours il reste encore un surplus de 2.9° d'écart (39.8° pour le niveau à 95% le 7/07), une valeur équivalente à 82 donnerait probablement au meilleur moment thermique début août plus de 46° avec un bon mistral et vent d'Ouest (et donc plus avec un vent de terre résiduel faible ne permettant pas de dissiper le biais classique d'abri Stevenson/Socrima même dans ce très bon site dégagé). Ce n'est juste qu'une question d'échantillonnage de situations météo pour qu'on observe cette valeur de nos jours sans plus aucun RC supplémentaire ( ni plus rien du tout dans le pipeline). Si on utilise des méthodes plus pro pour le calcul des durées de retour extrêmes car la distribution des extrêmes n'est pas "Normale", avec la loi GEV et maximum de vraisemblance sur la base de la série de Txx annuelles, pas adaptée faute d'échantillons suffisants fin 1981, 42.7° était considérée pour cette loi comme impossible malgré que j'utilise les données qui ne sont pas claires d'avant 1959 et donc des 40° probablement pas propres et dopés qui sont présents, (J'ai vu les photo chez MF de l'ancien site qui est vraiment différent et bien moins bon que l'actuel, en 82) et qui ne sont d'ailleurs pas utilisées dans la série homogénéisée de Txm de MF qui débute qu'à partir de 1959 (au lieu de 1946). Donc malgré des valeurs probablement aux hormones dans le tas pour cette estimation, 42.3° en valeur centrale maxi possible (relativement aux capacités de ce paquet R, http://www.assessment.ucar.edu/toolkit/ et non à la réalité, vu que la durée de retour énorme, c'est considérer que la valeur est impossible) renvoyait en 81 une durée de retour de 10 millions d'années et l'IC à 95% de la valeur maxi sur une telle période faute d'échantillons suffisants, est important [38.8°, 45.8°] Même si on raisonne non plus en valeur centrale, mais en valeur limite d'IC à 95%, 42.7° en 81 c'était sensé être observé 2.5 fois en 100 périodes de 400 ans = 40 000 ans ( car la valeur centrale qui a une durée de retour de 400 ans en 81 = 41.0° IC à 95% [39.3 , 42.7] ) En 81 une durée de retour de 100 ans sur la base de la série de Txx annuelles disponible, renvoyait une Txx de : 40.4° [39.2°, 41.7°] . 41.3°[ 39.4, 43.3°] pour 1000 ans. On peut aussi se concentrer uniquement sur les Txx de l'été ou d'un mois avec la loi GEV, mais ça n'améliore pas encore assez l'estimation. C'est avec la loi GPD que l'estimation est plus réaliste, car on utilise la série des Tx dépassant un certain seuil pour récupérer le plus d'échantillons d'extrêmes, toutes celles en queues de distribution (dans le cas présent les Tx >= 35°), vu que parfois plusieurs fortes valeurs et donc des 40° ou autres, peuvent être relevées la même année et sont donc cette fois toutes prises en compte. En s'arrêtant à fin 81 : Fin 81 avec les données dispo, 42.7° [39.5° ; 45.9°] avait en valeur centrale une durée de retour de 3000 ans qui est passée à 70 ans selon la même loi avec le RC supplémentaire avec les données de 82 à fin 2017. La valeur équivalente à 42.7° en valeur centrale de nos jours avec la durée de retour de 3000 ans est de 46.5° [41,° ; 51.2°] pour l'analyse avec un seuil de la série d'extrêmes à 36° (ma sélection du seuil peut-être discutable, mais il faut trouver le juste milieu entre la récupération d'un nb suffisant d'échantillons, les indications des critères AIC et BIC, la tête de la courbe/ aux données et les proba renvoyées. Plus on recule le niveau de seuil et donc plus on utilise de données et moins on est dans la queue de distribution des extrêmes et moins la loi des extrêmes s'applique et plus les critères AIC et BIC se dégradent et plus les données extrêmes observées (ou futures même probables) deviennent faussement improbables. A l'inverse, moins on a de données en utilisant un seuil plus restrictif et plus les IC s'envolent, la valeur centrale et les bornes perdent de plus en plus de sens). En valeur limite d'IC, au lieu de 3000 ans en valeur centrale, la durée de retour de 46.5° est de 250 ans pour 44.0° en valeur centrale [41.5° ; 46.5°]. 43.1° en valeur centrale [ 41.2°, 44.9°] a encore une durée de retour de 100 ans de nos jours malgré le RC au Luc (42.2° en août 2017 nouveau record mensuel battant de 1.2° celui de 2003). Il faut bien voir qu'une durée de retour/valeur centrale c'est en moyenne et donc il existe obligatoirement de nombreuses périodes de 100 ans sans jamais observer cette valeur, mais bien moins, comme d'autres avec bien plus que la valeur centrale. C'est pour cette raison qu'il est très difficile de vraiment estimer un vrai maxi (ou mini) possible au regard des séries nanométriques actuelles pour l'objectif , même si on disposait de 150 ans de données journalières propres (c'est pour cette raison que ça n'a pas de sens de dire on a observé que 43°, donc c'est impossible 50° avec bien plus de RC). 30 échantillons de 100 ans, 3000 ans pour le pas journalier, c'est quand même bien mieux en stats plutôt que moins de 1 échantillon pour le Luc et bien d'autres stations, de plus non homogènes ! Il faut bien voir que ces IC sont aussi plus grands à cause du manque de centaines d'années de relevés pour récupérer assez de valeurs rares et non pas seulement parce qu'il est normal qu'il y ait un IC de valeurs probables pour chaque période de retour concernée (c'est pareil pour une tempête qu'on estime arriver 1 fois/ siècle, ce n'est qu'une moyenne, il y en a 0 de cette force dans plus de 1/3 des siècles et plusieurs dans un certains nombres de siècles, donc à notre échelle de vie réduite, difficile de savoir ce qu'est une véritable tempête du siècle !). Pour moi, vu que sans aucun RC supplémentaire, sans plus rien émettre, au Luc un 46.5° est bien possible car elle est même plus qu'équivalente à 42.7° de 1982 (il faut voir que le surplus de données a réduit les IC par rapport au calcul fin 1981, donc en réalité, c'est une valeur plus forte que 46.5°, que renverra l'IC sup, avec moins de données, comme en 1981) avec du RC puissant prévu en plus d'ici 2075, il ne fait aucun doute pour moi qu'on atteindra les 50° et plus dans l'intérieur de la France, mais quand, même si on stabilisait le RC de l'état moyen au niveau prévu en 2075, ça peut arriver dans la foulée, les années autour, comme dans 200 ou 300 ans et plus, pour un même RC . A ce niveau, pour l'année des 50° et plus, ce ne sera plus qu' une question d'échantillonnage aléatoire des conditions météo pour le réchauffement donné supplémentaire, car le bruit météo est capable de générer des situations très décalées de l'état moyen et on ne peut pas savoir quand malgré une prévision parfaite de l'état moyen, ni s'en rendre compte réellement avec nos séries si courtes pour l'échelle des records absolus. C'est bien pour cette raison que battre un record même de beaucoup ne veut rien dire tout comme ne pas le battre comme celui du Luc qui résiste, ne peut rien dire sur le RC ! Sauf si vous voulez vous noyer toujours un peu plus profondément dans le bruit Pour le Luc si près assez près de la mer, c'est aussi plus compliqué de récupérer les bonnes conditions météo pour chiffrer, car il faut obligatoirement un vent de terre présent quand l'air le plus chaud résiste encore dans le SE, ce qui n'arrive pas souvent d'autant plus avec la dépression thermique dans cette cuvette qui contrarie souvent le vent résiduel de terre (vent d'Ouest et Mistral) qui permet ces records (A voir d'ailleurs si le RC ne va pas de plus en plus renforcer la dépression thermique dans ce coin et donc rendre encore plus rares les vents de terre résiduels à gros scores dans ce secteur l'été.) Si on analysait les données pour les 42.5° de 1983 de la station hyper dégagée dans cette direction de vent de l'aéro de Fréjus/St Raphaël , abri pourtant à quelques centaines de mètres du bord de mer, ça paraissait encore plus totalement impossible en 81 avec toutes les techniques imaginables. Même de nos jours ce n'est pas gagné de revoir cette valeur avec le RC ! C'est un sacré bon coup de la météo ! On ne peut estimer réellement avec l'intuition d'après les relevés observés, et à peine approcher avec les stats, les réelles possibilités de valeurs extrêmes avec des séries si courtes de Tx et si peu fiables dans le temps (avant 1950 voir 1959 pour celles du Luc et bien d'autres stations) et donc vu les modifications de l'occupation des sols d'ici 2075, du béton en plus, de la forêt probablement en moins dans le secteur, avec le RC en plus, il vaut mieux miser sur les modèles capables de pondre les situations météo et les valeurs associées possibles d'après les paramètres physiques. Depuis que je fais des calculs sur ces sujets, j'ai toujours vu des valeurs observées, pourtant données impossibles avec les stats avant de les observer, se produire. Alors celles données un peu probables avec les stats, ont des chances d'être garanties (sans pouvoir dire quand). Même en "anormalité" de base, la vague de chaleur de cette année n'est pas franchement remarquable au Luc (avec 38.1° au mieux contre 42.2° en 2017 malheureusement coupée très tôt dans son élan par la bascule de vent de terre à la brise de mer. Connaissant bien l'évolution de la Tx au Luc qui monte bien plus tardivement sous vent de terre, le record absolu aurait été pulvérisé, le record national probablement aussi, ce n'était qu'une question de météo et donc de timing fin). Le fait marquant cette année au moment de la réalisation du graphe il y a un bon moment, n'est pas dans le chaud, mais dans le froid avec 3 valeurs très décalées en février (laissant même croire à un bug quand j'ai vu ça, mais chez MF c'est pareil, et cohérent avec mes relevés ici, 3 valeurs différentes ici, mais très proches. Au Luc, Tx 2.3°, 3 jours consécutifs, déjà que ce n'est pas courant d'afficher des valeurs si froides, mais identiques ! La proba de sortir un truc pareil doit être très faible, quasi impossible ! Donc voilà un exemple de la puissance de la météo dans l'aléatoire, pour déjouer toutes les proba) :
  5. Nouveau record mensuel d'octobre de 437.5 mm (ancien 301.2 mm en 2013, mesures depuis 1993) , 3 ème valeur de la station après les 444.2 mm en Nov 2011, record absolu de 493.4 mm en Nov 2014. Pour les toulonnais, hier en regardant dans des archives, j'ai vu un maxi de 410 mm en oct 1839 (430 mm à Hyères) Je n'ai pas regardé si l'info est passée, la station de Toulon la Mitre a été déplacée dans l'arsenal il y a peu (attention la classification de la fiche est encore pour l'ancienne. A priori il reste encore la T et la pluviométrie à la Mitre pour comparer) https://donneespubliques.meteofrance.fr/metadonnees_publiques/fiches/fiche_83137001.pdf
  6. ChristianP

    Statistiques et anomalies climatiques globales

    Cette pluie abondante sans fin m'a laissé du temps ! @calou34 Il faut surtout remercier Serge avec sa phrase sur le plateau, qui a motivé ce post, car sans sa parole de scientifique, je ne l'aurais pas pondu. Avec Fred c'est inutile a priori, car c'est par définition impossible que des arguments même scolairement corrects, aient un impact, du moins pour le moment, vu qu'il n'a jamais admis de telles erreurs, ce qui est logique dans son cas, il faut avancer autre chose que des démonstrations : https://enjeuxenergies.wordpress.com/2018/10/27/climat -les-raisons-cognitives-de-linaction-cerveau-psycho-4/?fbclid=IwAR0jpnDB_lU5__DBUKVfQZNIvJ4F6zxMZUBle2GebJb8FKdPxUjMwgOk7qI Oui pro, dans mon esprit, c'est rémunéré en parlant dans les médias de ce sujet, mais quand c'est aussi un scientifique (rémunéré ou pas) ou un ex météorologue de MF qui s'expriment, ils sont tous sensés s'être assez formés/informés, être plus sérieux et rigoureux dans ce domaine que la moyenne des collégiens (les uns pour mériter leur salaire, les autres pour rester à la hauteur de leur qualification de scientifique), pour ne pas propager à l'infini des énormités pareilles. @CP3 Un calcul, une méthode et/ou la théorie, établis à l'instant t, sont valides jusqu'à ce quelqu'un démontre le contraire. La croyance dans ce cas, c'est de revendiquer que c'est faux, que c'est autre chose, sans jamais le démontrer de façon scolaire et scientifique. Une opinion et une pensée aussi lumineuses soient-elles pour certains, ne peuvent valider/invalider quoi que ce soit en science. http://23dd.fr/climat/histoire-rechauffement-climatique/111-glossaire-refutabilite-falsifiabilite http://www.charlatans.info/verite-science.php @Cotissois Je n'ai pas fouillé ces séries car connues pour être plus incertaines pour la climato et en prime le bruit météo, c'est plus ton domaine. L'incertitude est plus grande au pas journalier qu'au pas mensuel rapporté par meteor, lui même plus incertain que le pas annuel. Dans les autres séries, comme Hadley, c'est la couverture du globe la principale cause d'incertitude, la moins incertaine c'est GISS (enfin d'après leur calcul d'incertitude à l'époque où je les avais regardées de près il y a quelques années, à vérifier maintenant que c'est toujours le cas). Ca m'a poussé à réfléchir sur le bruit et le fond pour le pas journalier : Donc hors incertitude journalière de l'anomalie, en fait pour analyser les écarts d' anomalies globales de T d'un jour/quelques jours sur les autres, on retrouve le même genre d'erreur de raisonnement qu'au niveau climatique, mais à l'envers. Ceux qui revendiquent l'ENSO pour expliquer une/des anomalies journalières bien plus chaudes ou plus froides que d'autres jours proches, c'est équivalent à dire que le signal de fond du RCA influence la T mensuelle ou annuelle globale d'un mois/d'une année sur l'autre, bien plus que le bruit interne (Rien que l'ENSO dans le cas extrême à 95% pourrait faire varier l'anomalie annuelle de +0.15° à -0.15° en plus de la valeur attendue avec la tendance (avec tous les autres bruits neutres) en 3 ans environ. 0.3° de variation/ 3 ans que le RCA moyen actuel de 0.017°/an ne peut pas réaliser en moins de pratiquement 18 ans. Le bruit qui est interne pour le climat est de fait un signal de fond pour l'échelle temporelle journalière, donc il est négligeable pour l'analyse du bruit au pas journalier d'un jour sur l'autre, ses variations rapides seront prises de fait en compte par l'analyse de la météo à l'échelle globale. Ca se vérifie. Le signal de fond moyen pour le pas journalier est donné approximativement par le loess auto qui est la synthèse de la variabilité interne au climat. Ce signal de fond pour le pas journalier est la résultante visible du RCA + ENSO + cycle solaire + volcans + aérosol + PDO +AMO ...et autres bricoles connues ou pas. L'écart maximal dans le loess auto d'un jour sur l'autre est de seulement 0.000256° ! (Maxi relevé pendant la pente+ récente du loess auto avec l'aide du Nino 2016). Donc avec ou sans incertitude de l'anomalie journalière, ce n'est pas la peine de regarder de ce côté là ! Sans le loess auto, on retrouve le même ordre de grandeur pour l'ENSO dans le le cas extrême à 95% entre un ENSO+ à +0.15° et un ENSO- à -0.15° en 3 ans, on aurait une variation journalière moyenne que de 0.000278° (sans un autres bruits, tous neutres), mais comme on n'est pas dans ce cas extrême, la variation due à l'évolution de l'ENSO actuelle, est beaucoup plus faible entre des jours donnés, c'est négligeable à cette échelle. L'influence de l'ENSO est vu stable pour le pas journalier vu que c'est une moyenne (le bruit journalier dans l'ENSO sera pris en compte de fait par les SST journalière de la zone). Autour de ce fond de l'indice ENSO qui ne bouge pas assez à cette échelle, c'est de la météo pure qu'il faut analyser à l'échelle globale, continentale et maritime. Pour moi il faut donc un raisonnement plus proche de celui qu'on a pour analyser la T journalière d'un jour sur l'autre dans une station donnée, mais à l'échelle globale. On ne va pas prendre l'ENSO, le cycle solaire, ni le RC, ni les volcans, ..., pour expliquer des variations d'anomalies entre des jours/groupe de jours. Là c'est du même ordre, même si la variabilité est moindre avec la moyenne globale de toutes les stations et SST, il y a obligatoirement différents paramètres météo globaux qui jouent plus d'un jour à l'autre/périodes de quelques jours, comme par exemple une anomalie globale+ d'insolation/24h sur les continents et glaces, plutôt que sur les mers, une anomalie+ globale de couverture nuageuse nocturne (+ de nuages bas la nuit sur les continents/glaces), anomalie+ globale de vent de mer plutôt que de terre/de glace, anomalie+ globale de vitesse de vent nocturne sur les terres/glaces (hausse de T nocturne par brassage sur de plus grandes étendues que d'habitude), anomalie+ de pression basse sur les continents/glaces, anomalie+ d'étendue de précipitation diurne et/ou nocturne sur les continents, bas géopotentiels et autres éléments de météo pure que tu pourras trouver capables de synthétiser ou d'être des indicateurs de diverses anomalies globales de paramètres qu'on n'a pas à disposition pour y parvenir. Parfois ces anomalies explicatives potentielles, s'additionnent presque toutes dans un même sens ou dans l'autre, bien que dans la grande majorité des cas, certaines se compensent plus ou moins (C'est comme pour le bruit au niveau climatique, un ENSO+ puissant pourra se produire en même temps qu'un cycle solaire+, puissant, avec l'absence de bons volcans depuis longtemps, une diminution des aérosols artificiels, sous une AMO+, une PDO+, une IPO+, avec un Blob..., enfin la fournaise totale pour tous les bruits, le pied ! Et inversement bien des bruits négatifs dans le même sens vers le froid.) C'est encore une question d'échelle temporelle. Pour le pas journalier, il faut faire de la météo à l'échelle globale. Il faudrait trouver les anomalies annuelles, mensuelles et journalières globales en nb d'écart-type sur les continents/glaces (calculées d'après l'anomalie d'écart-type de chaque maille) et celles sur les mers/glaces pour nous donner une idée de ce qui varie le plus loin de la normale dans ces cas (en °C on ne peut pas vraiment le voir). J'ai toujours trouvé dommage que les organismes ne publient pas en plus des données/cartes habituelles au niveau global, les données/cartes d'anomalies en nb d'écart-type d'après le nb d'ET spécifique à chaque maille. Si les anomalies classiques en °C, chaudes se retrouvent plus que d'habitude sur les mers que sur les continents/glaces, l'anomalie globale sera moindre du fait que sur la mer un niveau très élevé équivalent en °C est impossible à atteindre. Le nb d'ET global augmentera dans ce cas et on verra du rouge sombre en pleine mer, équivalent au rouge sombre qu'on trouve sur les continents/glaces avec les énormes anomalies en °C sur les cartes d'anomalies classiques, alors que l'anomalie globale sera parfois plus faible malgré une anomalie en ET plus forte (Inversement si le froid d'intensité équivalente en ET, se retrouve plus souvent au-dessus des mers que d'habitude) Je me rappelle avoir vu ce type de carte dans des prévis du RC de je ne sais plus quel organisme et c'était bien plus parlant, car on pouvait comparer le vraiment plus chaud que d'habitude de chaque maille, alors qu'en °C on ne perçoit pas vraiment le problème du RC en mer, bord de mer et dans toutes les zones ou l'ET est faible. +1° d'anomalie à Ouessant ça n'a rien à voir avec +1° à Strasbourg, à Moscou ou vers l'Arctique. Une carte et des données d'anomalies d' ET montreront les véritables anormalités (Certaines anomalies peuvent être très anormales sans qu'on s'en rende compte dans les zones à faible variabilité et paraître très anormales dans les zones à forte variabilité alors qu'elles ne le sont pas !) @th38 , une référence donnée est spécifique à chaque mois pour enlever le cycle annuel, donc il y a des écarts différents. Quand on utilise des anomalies issues d'une référence mensuelle, on supprime du bruit saisonnier qui n'est pas dû à une variation du fond, mais à des variations habituelles, comme par exemple, avec la différence entre les mois d'été de l'hémisphère Nord et de l'hémisphère Sud, car il est recouvert de bien plus d'eau.
  7. ChristianP

    Statistiques et anomalies climatiques globales

    Beaucoup d'erreurs élémentaires et incroyables pour des pro dans tout ce que je viens de lire, que ce soit dans l'édito de Fred sur "Où en est le RC", https://www.lameteo.org/index.php/news/3149-ou-en-est-le-rechauffement-climatique ou dans ses/des commentaires à la suite sur FB, avec une phrase impensable dans un commentaire venant d'un des rares scientifiques de l'équipe d'IC, notre @Seziou / Zarge © national, habituellement pointu et rigoureux pour recadrer les choses sur le sujet : Une énième histoire d'absence de RC/ de plateau du RC ces 20 dernières années, que ce soit au niveau RC global ou sur la France, dans ce dernier cas d'après aussi Louis Bodin avec un graphe des anomalies MF de 2014 (Peut-être issu de l'ONERC où j'ai vu exactement le même, car il est toujours bloqué en 2014 quand il y quelques semaines, j'ai voulu récupérer le fichier de données Excel du panel MF, qui n'est plus diffusé comme auparavant, afin d'analyser la réalité de cette histoire.) estampillé 2018 chez TF1 avec un lissage inadapté pour avancer un palier du RC. Voici l'évolution du climat en France fin 2017 (si quelqu'un a un fichier MF du panel de 30 stations au pas mensuel à jour fin août ou septembre 2018 (ou même bien avant), merci !), compatible avec l'évolution significative des moyennes climatiques, les tendances et avec les tests statistiques de comparaisons de moyennes et de tendances ce qui n'est pas le cas du graphe de Fred et celui présenté par Louis Bodin : D'habitude dans ce cas, ce sont les réchauffistes acharnés qui sortent du bois, qui nous ressortiraient l'accélération de la moyenne climatique/30 ans visible dans le graphe depuis 99, alors qu'elle n'est pas significative. Donc il faut vraiment en vouloir pour nous dénicher un plateau même à une échelle de 20 ans interne qu'à un échantillon de climat et donc qui ne peut donner l'évolution d'un climat par rapport à un autre. Ces derniers 20 ans, la moyenne/20 ans a pris 0.8° par rapport à la précédente/20 ans (indépendante), et celle sur 30 ans, 0.83° pendant ces 20 dernières années, excusez du peu ! Et lorsque je prends une des autres méthodes du GIEC pour mesurer le RC en comparant les différences de tendances depuis le début 1900, entre celle terminant il y a 20 ans et celle à jour de 1900 à fin 2017, c'est 0.79° de réchauffement en plus pendant ces 20 dernières années. C'est pour dire leur délire et leur plus qu'énorme problème d'interprétation et de choix d'échelle de certains pour analyser l'évolution du climat. Une courbe lissée sur 10-11 ans ou moins de 30 ans pour la France, est un non sans sens pour l'évolution du climat et arbitraire, pifométrique même pour suivre et prévoir l'évolution interne. L'évolution interne est tellement bruitée, logique à la petite échelle de la France (L'incertitude d'une tendance/20 ans qui correspond à la comparaison de 2 moyennes sur seulement / 10 ans de la T de la France, est plus de 4 fois plus importante qu'au niveau global et donc une tendance de cet ordre a encore moins de sens pour le fond d'autant plus quand on ne la compare à aucune autre tendance plus longue depuis le dernier changement significatif , ni même à la précédente/20 ans, tout en ne regardant pas les différences de moyennes/ 20 ans, ce qui est ahurissant pour parler évolution du RC de fait sans rien faire de sérieux ! La climato ne se fait pas à l'oeil mouillé !) des variations plus indicatives d'un bruit à signature aléatoire, donc sans changement de signal interne notable, vu que le loess auto, à l'inverse du niveau global, ne trouve même pas de variations internes utiles de petite échelle (celle ayant du sens pour l'échelle interne tout en n'ayant pas de significativité pour le climat) et lisse automatiquement à l'échelle la plus pertinente, c'est pour dire ! Sur 20 ans en France, on a une tendance de 0.68°/déc IC95% [0.25°/déc; 1.12°/déc] (S) et sur 78-97 et 0.17°/déc [-0.22°/déc, 0.54°/déc] (NS) sur 98-2017. A l'inverse du niveau global moins bruité, la dernière tendance/20 ans de 0.17°/déc, n'est donc pas significative d'un réchauffement avec un IC inférieur négatif (le test de Kendall utilisé aussi par MF dans ces cas, ainsi que le test de Fisher de la régression dans R, le confirment), mais comme elle n'est pas significativement différente de la précédente avec une confiance à 95%, ni de la tendance plus longue significative du climat (car les IC se recoupent dans tous les cas), il sera totalement faux de dire qu'il y a un changement pour un palier temporaire, ce que confirme l'augmentation nette des moyennes, et le lissage loess qui a l'avantage de synthétiser les évolutions de moyennes et de tendances linéaires. La moyenne/20 ans (donc non climatique pour la France) a augmenté ces 20 dernières années de 0.8° de façon très significative. (C'est encore plus significatif (P =0.00001), quand je compare la moyenne/20 ans à une véritable moyenne climatique/30 ans qui précède ces 20 dernières années) Pour le niveau global leur analyse est encore pire, en dessous de tout, car la dernière tendance /20 ans est même supérieure en valeur centrale à la précédente sur 20 ans (Idem pour la durée du graphe de Fred en comparant à la même durée précédente). Bon l'étourderie dans le meilleur des cas pour Serge, ce n'est pas un problème, ça arrive à tout le monde, il reconnaîtra le problème (si moi-même je n'ai pas fait d'erreurs), pour les autres qui refusent d'appliquer/ou d'apprendre les plus élémentaires des bases scolaires pour des raisons obscures ou psy, ce n'est pas gagné ! Regardez pour le global, ce tableau de calculs issus de différentes méthodes admises par des pro moins étourdis, ils sont limpides : Vous pouvez vérifier si je n'ai pas fait d'erreurs dans mon brouillon Excel , car ça me paraît tellement énorme que Serge se plante autant sur ce sujet, que je doute plus que d'habitude malgré que j'ai vérifié dans le calculateur de SKS et dans R : http://meteo.besse83.free.fr/imfix/evolutionnoaa082018.xlsx . Pour les loess, il vous faut un addin Excel et/ou R ou autres, pour celui auto et divers tests, mais bon je ne fais pas les calculs, c'est l'ordi. Pour le global, voici différentes façons assez correctes pour montrer l'évolution du climat compatible avec les tests et l'évolution des moyennes/tendances dans un graphe et non pas avec les variations internes au climat. C'est bien plus conforme avec un lissage suffisant, comme on le voit avec l'évolution du climat déterminé par les pro du domaine à l'aide des forçages en plus : http://globalwarmingindex.org/ La meilleure courbe de mon graphe, est donnée par le loess/50 ans, car sur cette période, il n'y a absolument aucun bruit, sens de pente, non significatifs et parasites. (Il n'y a que 4 orientations différentes de pente, car il n'y a que 4 changements significatifs de tendance ( une baisse, une hausse, puis un vrai plateau (il n'y a pas eu de tendance significativement négative, différente de 0, aucune moyenne climatique significativement différente, significativement plus basse.) puis le dernier changement pour la pente depuis 70 qui se poursuit à nos jours, sans aucun changement significatif, même pas d'un peu près ! Un loess à la bonne échelle, a l'avantage d'effectuer la synthèse entre les tendances et les moyennes, car une strictement même moyenne à la hausse de la même valeur, peut intégrer des pentes significatives totalement opposées selon la distribution des valeurs, ce qui n'a pas de sens, l'important c'est l'augmentation des moyennes et non les variations internes et visuelles quand on zoome trop pour suivre le climat. Avec une bonne échelle adaptée à la cible (plus fine pour suivre le bruit interne au climat comme le graphe de Fred, plus large pour suivre celle du climat), il nous évite justement de raconter n'importe quoi en se noyant dans le bruit quand on cherche à analyser le climat et il évite de se perdre dans l'échelle climatique quand on cherche à analyser le bruit, ce qui nécessite de zoomer cette fois comme avec le loess auto dans mon graphe un peu plus bas. Ceux qui veulent regarder la variabilité interne au climat, regardez la courbe noire par analyse auto des variances du loess auto et non au pifomètre par un lissage arbitraire sur 5, 10 ou 15 ans ou autres intermédiaires. Pour les 2 dernières tendances/20 ans indépendantes, on voit clairement que la toute dernière/20 ans soit disant plate, n'est même pas un plateau en apparence et qu'elle est plus pentue que la précédente (ben oui c'est plat pour ceux qui tracent des traits de tendance comme le font des écoliers de primaire/maternelle, à la main sans aucun calcul ! C'est inadmissible pour des pro !) Si Fred continue de contester que ça se réchauffe avec cette pente, alors que dans son commentaire tout en haut, il dit que ça se réchauffait fortement dans les 2 décennies précédentes, là avec une pente pourtant moindre, ce serait très fort. C'est exactement comme si quelqu'un vous disait que vous allez moins vite au boulot, parce que vous aviez été ralenti sur tel rond point, sans jamais contrôler le temps total, alors qu'au final vous êtes pourtant arrivé plus tôt. La fixette sur le ralentissement interne au trajet, au rond point , sans mesurer le temps total, mène à ce genre d'erreur. Il faut changer d'échelle et regarder l'ensemble le temps total du trajet par rapport aux trajets faits auparavant, pour le climat c'est le même principe, on a des moyennes climatiques et des tendances de tailles minimales à comparer, pour ça. Il faut comprendre que ces pentes de trop courtes échelles internes pour suivre le climat, varient rapidement d'une année/mois sur l'autre sans que ça ait un sens (d'autant plus au plan national avec une plus forte variabilité), à cause de l'incertitude de la pente à cause la variabilité classique, et donc ça ne sert à rien de les suivre de près tant que des valeurs ne sont pas près ou ne sortent pas de l'intervalle de prédiction (IP) inférieur de la longue tendance depuis 1970 sans changement significatif. Imaginez que le RC en plus en moyenne ces 20 dernières années dans le tableau des calculs des anomalies en °C , sont des anomalies de vos rentrées d'argent, alors que je suis votre banquier. Ce serait très facile avec vous de détourner un pognon de dingue sur ces 20 ans, comme dirait l'autre, (33 000 euros au minimum au niveau global + 80 000 au minimum au niveau national), vu que vous niez ce surplus de RC (de vos finances et le comble celui qui me sort ce graphe est même capable d'aller voir son banquier avec, pour lui dire qu'il a fait une erreur ! Erreur du client en votre faveur et il nous donnera le pognon de lui-même ! Quel gag !) ces 20 dernières années en restant bloqués, hypnotisés, dans les variations internes sans jamais en faire la synthèse avant et après la période donnée, sans comparer les tendances, sans avoir la moindre conscience de ce que signifie un plateau des plus logique et attendu après un record, de bonnes anomalies dans une tendance en moyenne linéaire car les anomalies fortes sont assez proches du record et très loin de la moyenne de référence qu'ils ignorent.... (et non faiblardes, des négatives et des positives assez bien réparties autour du niveau de la moyenne indépendante d'il y a 20 ans (/30 ans pour la France), nécessaires pour stabiliser provisoirement le RC et afficher un vrai palier significatif pour le RC. Sinon avec trop d'anomalies plus chaudes (ou trop souvent) comme c'est le cas, le RC continue malgré un plateau qui n'est que celui près du niveau du record/ou de très fortes anomalies (C'est comme si vous disiez que parce qu'on a eu un plateau avec 8 jours à plus de 40° à Auxerre en août 2003, puis une forte tendance à la baisse, le mois d'août 2003 ne se réchauffe plus par rapport aux autres ! Votre problème est là, aucune notion réelle des anomalies en présence dès le moindre plateau, donc avec votre raisonnement binaire, au moindre plateau, le mois (climat) n'est pas plus chaud que les autres, ça stagne, alors que c'est faux ! Un plateau n'a pas le même sens selon le niveau d'anomalies et pour connaître le niveau, il faut bien en faire la moyenne et en comparer au moins 2 avec au minimum une méthode digne du collège. Exemple pour la France, on voit bien votre biais vraiment hallucinant. Vous revendiquez de fait que la seule anomalie sous la moyenne 1978_1997 est capable à elle-seule de stabiliser le RC , vous êtes incroyablement naïfs en maths/stats , totalement hors sol ! (ce serait encore pire avec la vraie moyenne climatique/ 30 ans sur 1968_1997, je me suis basé sur votre choix sur 20 ans, donc incomplet ) : (C'est vraiment hallucinant que ce soit moi le paysan de Besse qui doive vous informer sur des trucs aussi basiques, mais bon classique avec ceux qui se foutent de la significativité, il n'y a que dans les discussions sur cette science qu'on voit ça ! ) C'est mieux avec des tests à votre niveau, mais bon... Avec le climat on compare aussi les tendances. On ne se contente pas de comparer des moyennes comme au collège . Vous ne faites rien de tout ça, donc vous vous plantez systématiquement dans le suivi de l'évolution du climat avec vos plateaux des plus habituels et obligatoires avec cette tendance, dès que les anomalies ne battent plus le record, alors qu'elles ne donnent pourtant pas une moyenne identique (significativement pas différente) à la précédente (elle est plus chaude !) et pas une tendance significativement différente de la précédente contenant un RC significatif !) ....qui réchauffent toujours le dernier échantillon de climat tout comme la tendance pourtant fortement à la baisse interne à août 2003, réchauffe toujours cet échantillon de mois remarquable, tant que les anomalies (internes) restent assez supérieures ou assez souvent / à la moyenne de l'échantillon précédent. De plus, de fait en assimilant un tel plateau interne à un changement, vous n'avez même pas conscience que vous revendiquez que le RC c'est non pas avant tout le RC de l'état moyen (vu qu'un record à lui seul ne veut rien dire pour le fond !), mais avant tout celui uniquement des records, tellement vous êtes avides de records battus de fait, par définition sans plateau attendu, alors que c'est la règle d'en observer même avec un RC de fond de 6° par siècle (0.06°/an) et donc encore de plus longs actu avec 0.017° par an depuis 1970 ! Vous raisonnez comme si on avait une exponentielle de malade ou du linéaire avec du 40°/ siècle. C'est 0.4°/ an qu'il vous faut avec votre raisonnement, pour écraser la variabilité (et donc supprimer les IP) à signature statistique classique dans les relevés, (et encore hors énormes volcans, astéroïdes et autres trucs de fous !) pour avancer que c'est un signe assez clair de changement et de stagnation provisoire du RC. Des plateaux de durées variables sont la règle obligatoire dans une tendance linéaire au RC bien trop faiblarde pour annuler la variabilité autour de cette hausse de fond moyenne à la hausse. Il existe des méthodes simples pour estimer la durée la plus normale/probable, la plus attendue pour le plateau suivant pour exactement le même réchauffement qui continue sur le fond. Il suffit de se servir de la tendance centrale depuis 70 et des IP. Un plateau significatif pour le RC ne peut pas exister tant que des anomalies ne sortent pas assez souvent de l'IP inférieur (1 valeur annuelle ça peut arriver sans modif du RC, vu qu'on est sensé en récolter 2.5 dessous / 100 ans en moyenne pour les IP à 95% (dont 2.5 supérieurs), mais en observer 2 en peu de temps, c'est signe qu'il faut s'y intéresser de très près et chercher la significativité d'un changement, comme c'est arrivé après 1945). La durée la plus probable d'un plateau interne, dépend du niveau du record annuel précédent, car plus la valeur est proche de l'IP sup (un record à plus faible proba, nécessite en moyenne, donc pas toujours, bien plus temps qu'un record situé presque contre la pente centrale ) ou pire hors IP (encore plus rare), et plus la probabilité qu'il soit long tout en étant des plus normal pour le même RC de fond sans faille, augmente. La durée la plus probable est donnée par la projection de cette valeur record comme 2016 sur la tendance centrale depuis le dernier changement significatif de tendance. Exemple que j'avais réalisé avec 2016 : Sans graphe, par calculs, la durée d'un plateau correspondant parfaitement à la tendance du RC actuel sur le fond depuis 70, est donnée par : (2 fois l'erreur standard de la régression + (+- la différence du record annuel avec l'IP sup) +0.1° (pour que le record soit considéré comme significativement différent du précédent, donc battu d'au moins 0.1°) ) / (la pente/an). Donc en arrondissant pour NOAA : ((2 *0.09)-0.03 + 0.1 )/0.017 = 15 ans environ, (C'est aussi la durée à partir de laquelle on observera une significativité de la tendance et donc on n'aura plus besoin de la comparer à la longue tendance significative pour savoir que le RC continue uniquement à cause de l'absence de différence significative de tendance, de l'augmentation des moyennes et des loess et divers autres tests.) qui est la durée du palier la plus normale qui soit avec la plus forte proba pour un RC strictement identique en moyenne sur le fond de 0.17°/déc, donc vers 2031 fin la plus probable fin d'un plateau/nouveau record après 2016. Mais comme les valeurs sont attendues distribuées autour de la tendance centrale (Vu que c'est une signature aléatoire, c'est rare que ça tombe pile sur la tendance centrale malgré la plus forte proba de la valeur centrale !), ça ne change rien si le record est battu et/ou que le palier se termine bien plus tôt de plus d'une erreur standard (Il sera faux dans ce cas de dire que ça s’accélère sans que les différences de tendances soient significatives), ou même en retard d'autant, plateau plus long qu'indiqué par la valeur centrale (Il sera tout aussi faux d'annoncer un ralentissement, car par exemple la proba est la même de part et d'autre de la valeur centrale, à moins une erreur standard,comme à plus une erreur standard, ce qui représente un peu plus de +- 5 ans). Pour qu'un plateau soit revendiqué comme un vrai plateau pour le RC de fond, il faut rajouter au reste, 2* l'erreur standard (c'est le côté inférieur de l'IP) avant d'effectuer la division / 0.017, ce qui fait qu'un plateau est considéré comme anormal pour le RC donné avec la pente centrale actuelle et la variabilité à signature habituelle, après environ 25 ans, mais seulement s'il n'y a pas de valeurs hors IP inférieur qui auraient rendu significatif le changement de tendance. Donc réclamer des pauses à tours de bras avec des plateaux des plus classiques avec des anomalies pourtant bien dans les bornes d' une telle tendance linéaire faiblarde, seulement avec votre oeil mouillé, pour dire que ça ne se réchauffe plus depuis x, sans aucune analyse sérieuse, malgré les démonstrations scolaires répétées , alors que c'est archi faux, est une escroquerie intellectuelle majeure. C'est vraiment prendre les lecteurs pour des idiots et ne pas les respecter, malheureusement même ceux qui ne s'en aperçoivent pas en ne vérifiant pas ce que Fred raconte ou en ne sachant pas comment le voir, donc ne vous étonnez pas que je tranche dans le vif en lisant des trucs pareils au moindre plateau des plus classiques, avec des météo, présentateurs très peu sérieux qui ne calculent rien et tirent des traits à l'oeil, ne savent pas interpréter une moy/10-11 ans ans plate dans les graphes ! (Pour la France, je n'ai pas calculé la durée probable d'un plateau dans le cas actuel, à vous de jouer, que les étudiants et passionnés effectuent l'exercice. Avec la méthode pifométrique, donc à vue d'oeil mouillé, mais un peu d'expérience, le plateau des plus normal le plus probable pour la France, devrait être plus long que pour le global, car il y a bien plus de variabilité malgré une hausse plus forte de la T qu'au niveau global, qui ne compense pas assez. En fait de mon point de vue en nombre d'écart-type, le RC en France est moins puissant qu'au niveau global, bien qu'il le soit en valeur absolue, mais c'est quand même la valeur absolue qui compte le plus pour le vivant !) Donc à ce niveau incroyable d'affirmations indignes de pro formés et payés (pourtant largement dans certains médias) pour être capables de bien faire ce genre de boulot de base pour nous informer correctement, à l'aide de ce que j'avais enregistré du glossaire de l'AR4, il faut revenir une nouvelle fois aux définitions, vu qu'il existe de multiples échelles temporelles pour un échantillon de climat et donc pour bien savoir quoi comparer et analyser et comment, quand on parle RC, de changement climatique dans ce cas précis pour notre échelle par rapport à la comparaison de Fred avec la cible du GIEC pour les 1°, 1.5°, 2° ... ( Les raisons des moyennes de 20 ans comme référence de comparaison pour les modèles, se trouvent ailleurs dans l'AR4 : ) . https://www.ipcc.ch/publications_and_data/ar4/wg1/fr/annexsannexe-1.html Même si on conteste leur définition, ceux qui se rappellent un peu de leurs cours de base en stats, savent que dans tous les domaines il vaut mieux récolter au minimum 30 échantillons dans une moyenne ou autres. Donc un climat c'est 30 ans de données au minimum (20 ans pour comparer avec le GIEC, vu qu'il faut des périodes comparables. Comme bien des scientifiques du domaine, je suis contre cette durée car il est clair que la variabilité sera encore trop présente, comme le montre les stats et même plus rarement les modèles, car certains affichent des paliers de 20 ans à cause de cette variabilité interne, donc 2 moyennes/10 ans pas significativement différentes malgré le RC) Donc pour cet objectif, l'analyse non pertinente de Fred des anomalies mensuelles et annuelles pour juger la cible, 1°, 1.5° GIEC car / 20 ans, avec un graphe utile juste pour analyser le bruit interne et non pas pour savoir où en est l'évolution du RC, est en prime biaisée par la référence NOAA qu'il garde sur 1901-2000, car elle contient de fait trop du RC récent, donc pas assez préindustrielle, comme la référence de la cible GIEC qui est donnée pour des moyennes/ 20 ans. Il faut donc rajouter 0.22° aux anomalies de l'édito/graphe de Fred (Référence sur 1886-1905, c'est la référence GIEC de l'AR5 pour les séries commençant qu'en 1880. Pour Hadley c'est sur 1850-1900. C'est le boulot de Fred de savoir ça, pas du tout le mien, c'est pour dire comme il respecte les lecteurs qui cherchent à s'informer et ensuite il qualifie les médias, de "médias poubelles" souvent avec pertinence pour le catastrophisme primaire, alors qu'il la fait grossir souvent "Allègrement" dans ce cas ! Ce qui ne remet pas en cause ses performances en météo, de présentateur, hors discours en climato basé sur du vent en maths, le seul point dont je m'occupe qui est inadmissible à son niveau.) On a ça aussi de testable dans l'AR5 pour la prochaine moyenne 2016-2035 (à la vitesse actuelle faiblarde, on finirait donc bien au-dessus des 1°/20 ans /préindus. Il n'y a pas de plantage en cours comme le fait croire Fred avec ses anomalies) : Pour voir l'évolution externe, donc du RC, du changement climatique, continuez à analyser qu'un seul échantillon de climat comme personne n'imaginera jamais analyser un échantillon de mois, par ex pour savoir situer le mois d'août 2003 par rapport aux autres mois d'août, en oubliant d'échantillonner des mois (donc là en oubliant de prendre des échantillons de climat à la place de votre fixette uniquement sur des variations internes) tout en zoomant pour nous sortir : "Oh là là ! Regardez la méchante forte pente à la baisse interne dans ce mois de 2003 (comme vous le faites pour le plateau ou autres variations internes à un échantillon de climat) pour faire croire volontairement ou non, que le mois d'août 2003 se refroidit (provisoirement, ou non , ce qu'il ne faut pas lire et entendre !) , est plus froid que le précédent, équivalent ou autres absurdités déduites d'un zoom inadapté à l'objectif : analyser l'évolution du RC ! Continuez à montrer ce qui n'a pas de sens et vous aurez le même résultat lamentable impensable. L'erreur de date du graphe de Louis Bodin est négligeable par rapport à ce type de raisonnement avec son lissage et avec le graphe de Fred (Prendre un microscope pour analyser l'évolution du climat ! Il est utile pour analyser l'évolution interne qui ne dit rien sur l'évolution du RC /changement climatique, lui-même, pour la T.) Fred dit s'arracher les yeux/cheveux avec les fautes d'orthographe des internautes, mais il est aveugle face à de telles énormités qui vont bien au delà de la forme de l'orthographe ! En climato, je préfère voir un inculte en orthographe, qui écrit en phonétique tordue, qui pondra de bonnes analyses chiffrées justes même de collégien, sur le climat, que des trucs pareils venant d'un pro (un collégien moyen aura l'honnêteté de et saura au moins, faire une soustraction entre 2 moyennes climatiques, calculer et tirer des tendances linéaires, mais pas eux, ils n'essaient même pas tellement convaincus avec leur oeil aussi scientifiquement bidon et biaisé que celui de tout le monde, alors qu'ils suivent le RC avec un microscope à la main au lieu de prendre du recul !) . C'est typique des journalistes et des météo qui se la jouent dans les médias à la Fox News, tout dans la forme et rien sur le fond, faite pour faire le buzz et attirer des clients et des adeptes à leur idéologie/déni des bases scolaires et scientifiques ! A leur niveau beaucoup savent qu'ils balancent des trucs faux en ne corrigeant jamais une fois qu'on leurs a démontré x fois de façon scolaire, ils n'opposent rien de scolairement valide et juste, que du bla bla pour continuer leurs affaires juteuses sans considérations pour autrui. Méfiez vous toujours de toutes les analyses en climato, où un rédacteur aussi bon soit-il en météo, en physique, avec des diplômes à gogo, ne respecte pas les échelles concernées pour les échantillons donnés utiles à l'analyse, ne parle jamais de tests statistiques ou de significativité des valeurs, sans courbes lissées sur d'assez longues périodes pour n'afficher que les variations significatives s'il parle d'évolution du climat (et non analyse de bruit sans remettre en question le fond avec un une variation non significative ( plateau, accélération, ralentissement non significatifs), s'il fait des cueillettes de cerises (zoom trop fort pour éviter de montrer la réalité évidente avec l'ensemble), c'est qu'il n'a rien vérifié et a pris uniquement son oeil mouillé, pifométrique. Tout ceci est valable quelle que soit la cause du RC, le CO2, une oscillation océanique, le réchauffement du manteau, ou tout ce que vous voulez, pour le suivi du climat à notre échelle, il faut sortir de la variabilité de haute fréquence et non rester bloqué dans un échantillon pour détecter l'évolution de cet échantillon par rapport aux autres, sinon plantage garanti. Si on faisait de même en médecine, de se foutre à ce point extrême, de la significativité des tests, ce serait un carnage dans la population ! "Putain de facteur humain !" Vivement que l'IA remplace tous les bidochons à la mode dans les grands médias, pour qu'on n'entende plus n'importe quoi en lecture élémentaire des données ! https://www.ulyces.co/news/au-japon-le-jt-national-sera-presente-par-un-robot-des-le-mois-davril/ Je ne doute pas que si je n'ai pas fait d'erreur de calculs de bidochon moi-même, Serge rectifiera sa confirmation du ralentissement provisoire ou non, du RC ces 20 dernières années ou m'apprendra autre chose si j'ai raté quelques bricoles importantes. Mais bon dans ce cas, il faudra qu'il nous démontre scientifiquement que le RC a ralenti ces 20 dernières années et pas seulement avec les mains, l'oeil, ou qu'avec des bla bla, ce qui n'est pas gagné quand on sait qu'un de mes profs préférés en stats, Tamino (Grant Foster) a déjà testé vers fin 2017-début 2018 qu'on n'était pas loin d'une accélération significative dans la série GISS (pas robuste encore malgré P=0.04), ça dépend trop du début de la tendance et le juge de paix qu'est le test de Chow pour vraiment éviter les erreurs comme des sauts de tendances non physiques, qui n'existent pas dans la nature, ne la donne pas significative d'un changement. A l'année prochaine pour le bilan de 2018, je passerai juste pour admettre et corriger mes éventuelles erreurs grossières si vous en trouvez (je ne suis pas à l'abri, mais à démontrer mathématiquement avec des méthodes scolaires admises), pour le reste des bla bla non objectifs, la rhétorique des croyants, répondre aux questions, je n'ai pas le temps. Fred corrigera mon orthographe et ma syntaxe, je n'ai pas le temps d'affiner la relecture et il aime ça plutôt que les chiffres et les maths Ah oui j'oubliais sur un autre sujet, un document passionnant de référence sur le soleil, sur l'entrée solaire dans CMIP6 : Solar forcing for CMIP6 (v3.2) https://www.geosci-model-dev.net/10/2247/2017/gmd-10-2247-2017.pdf
  8. ChristianP

    Suivi de l'épisode méditerranéen du 7 au 12 octobre 2018.

    90.1 mm au SPIEA à 19h dont 57.6 mm en 37 mn, 28 mn une avec intensité instantanée >= 104 mm/h, maxi 281 mm/h au pluvio V2, 27 mn pour le Précis Mécanique avec maxi à 262 mm/h.
  9. ChristianP

    Suivi de l'ouragan Florence

    1016 mm https://waterdata.usgs.gov/nwis/uv?cb_00020=on&cb_00025=on&cb_00035=on&cb_00036=on&cb_00045=on&cb_00052=on&cb_61728=on&cb_62620=on&format=gif_default&site_no=02093222&period=&begin_date=2018-09-08&end_date=2018-09-16 Un débit 2.9 fois plus important que pendant le record en 1999 avec Floyd Daily discharge, cubic feet per second -- statistics for Sep 16 based on 78 years of record. Max en SEP 1999 : 11500 cfps SEP 2018 : 33700 cfps La différence de hauteur est modeste, probablement qu'en apparence à cause d'un étalement sur une plus grande largeur et/ou surtout de la limite de l'appareil de mesure pas assez haut (comme ce sera le cas sur l'Issole ici, car à ce niveau de pluie on est certain à 100% de rater la hauteur d'une crue d'un facteur énorme) : https://waterdata.usgs.gov/nwis/uv?cb_00060=on&cb_00065=on&format=gif_default&site_no=02108000&period=&begin_date=2018-09-08&end_date=2018-09-16
  10. ChristianP

    Suivi de l'ouragan Florence

    https://waterdata.usgs.gov/nwis/uv?site_no=02093222 https://waterdata.usgs.gov/nwis/uv?site_no=0210869230
  11. ChristianP

    Suivi de l'ouragan Florence

    Daily discharge, cubic feet per second statistics for Sep 15 based on 64 years of record. Ancien maxi 1720 cfps en 1984, nouveau record amélioré de plus d'un facteur 3, près de 6000 cfps (En baisse à 5450 cfps pour la valeur actuelle) : https://waterdata.usgs.gov/nwis/uv?site_no=02091000 Très nombreuses données diverses intéressantes dans certaines stations, par exemple https://waterdata.usgs.gov/nwis/uv?cb_00020=on&cb_00025=on&cb_00035=on&cb_00036=on&cb_00045=on&cb_00052=on&cb_61728=on&cb_62620=on&format=gif_default&site_no=0209303201&period=&begin_date=2018-09-07&end_date=2018-09-15 ici : https://webapps.usgs.gov/Florence/
  12. En regardant dans mes stats, la rafale maxi hier du Davis Vantage à 16 m, 95 km/h, est un nouveau record mensuel du mois d'août. Ancien record 88.5 km/h en août 95 anémo Davis Monitor2 sur un autre mât, 87 km/h en août 2012 à 16 m pour le Davis Vantage sur le même mât actuel. Plus de 104 mm ce mois d'août, c'est un nouveau record mensuel aussi depuis l'ouverture de la station en 94 (Ancien record en août 2015, 92 mm) Tx du jour 32.3°. Juste avant que le gros de l'orage touche la station :
  13. Cumul de 31 mm au SPIEA, 29.4 mm au Davis Vantage à 384 mm/h maxi, 31.6 mm à 340 mm/h maxi au Précis Mécanique avec 10.2 mm/3mn. Le pluvio Davis étant à 2 m, il est plus sensible aux pertes dans ce cas venté et surtout dans ce cas près du record de vent maxi sous un orage à la Davis à 16 m qui est de 97 km/h, pour 95 km/h aujourd'hui avec un record sous orage aujourd'hui de 102 km/h au NRG Maximum Inc à 17.5 m absent à l'époque du record à 16 m. 70 km/h à l'Ultimeter à 10 m.
  14. Jour le plus chaud de l'année à Besse, malgré les passages de nuages instables et des variations du vent créant des écarts temporels supplémentaires de micro échelle même pour les capteurs dans le Stevenson en fonction des constantes de temps des capteurs et de la synchronisation imparfaite des relevés/10 s et /minute. Premier 40° dans le Socrima (40.6°) en site classe 4 Ouest, où ce n'est pas une valeur fréquente non plus malgré les gros biais radiatifs de micro site certains jours selon la direction du vent , le bon timing et l'évolution du site au fil des ans pour tester différentes configurations de sans/avec buissons et différentes distances pour comprendre au mieux ce qui influence le plus le biais de mesure (Par exemple il vaut bien mieux des arbres de 20 m de hauts à 20 m de l'abri que des buissons de 2 m de haut à 2 m de l'abri (ou pire qu'une étendue de buissons comme à Montclus qui crée un sol virtuel avec sa T de surface située plus haut et plus chaude que l'air qu'il y aurait à ce niveau avant d'entrer dans l'abri sans eux ) car la T de surface et des faces des buissons assez secs et exposés au soleil est plus chaude que celle des arbres (et surtout que la T de l'air même actuellement sans grande sécheresse pour ici) et bien plus proche de l'abri que pour les arbres et le fetch de terrain libre avec les buissons trop proches en distance ne permet pas au vent de brasser l'air et de toucher l'abri et le sol comme avec des arbres plus lointains pour un même angle de dégagement pourtant strictement identique.) En site classe 2 : Abri Stevenson MF : Thermo MF : 37.9° (Record de la station ouverte en 1993, le 5 août 2017 : 41.8°) SHT75 Davis : 37.8° (42.1°) PT 1000 : 37.5° ( 41.5°) Abri Socrima MF avec Pt 1000 : 37.1° (41.4°) Abri Young méca avec SHT75 normes USCRN: 36.6° (40.7°) En classe 4 à l'Ouest cloisonnée par la forêt et des buissons : Abri Socrima MF avec Pt 1000 : 40.6° (43.4°) Abri Cimel avec Pt 1000 : 41.8° (44.5°) Classe 4 à l'Est près du potager (et de la piscine du voisin) : Abri Davis Vantage Vue à 10 coupelles avec PT 1000 : 38.0° (43.7°)
  15. Jour aussi chaud qu'hier dans l'absolu ici (1 dixième de plus pour la mesure de référence aux normes USCRN), mais avec plus de biais radiatifs en site classe 4 à l'Ouest, à cause de la brise présente plus tôt ailleurs. Surchauffe de 3.2° dans le Socrima en classe 4 (38.8° contre 35.6° dans le Socrima en classe 2), le record de surchauffe étant de 4.0° avec un vent de SW levé bien plus tôt encore le 8 juin 2001. En site classe 2 : Abri Stevenson MF : Thermo MF : 36.0° (Record de la station ouverte en 1993, le 5 août 2017 : 41.8°) SHT75 Davis : 35.8° (42.1°) PT 1000 : 35.7° ( 41.5°) Abri Socrima MF avec Pt 1000 : 35.6° (41.4°) Abri Young méca avec SHT75 normes USCRN: 34.9° (40.7°) En classe 4 à l'Ouest cloisonnée par la forêt et des buissons : Abri Socrima MF avec Pt 1000 : 38.8° (43.4°) Abri Cimel avec Pt 1000 : 39.9° (44.5°) Classe 4 à l'Est près du potager (et de la piscine du voisin) : Abri Davis Vantage Vue à 10 coupelles avec PT 1000 : 36.5° (43.7°) Besacmétéo, en 1923 l'ancien modèle ouvert de type Montsouris surchauffait beaucoup (Ecart médian de 2° en Tx par beau temps estival et vent faible dans un site avec un sol verdoyant parfait classe 1 à Trappes sans canicule dans l'été des essais, jusqu'à +3.5° maxi donc probablement plus vers Nîmes au sol plus souvent sec et plus chaud), bien plus que le Cimel utilisé par MF il y a encore peu d'années et présent ici. C'est aussi pour cette raison que le record de 1947 de Montsouris tient encore tout comme les 44° de Toulouse. C'est déjà compliqué de comparer des mesures modernes avec 2 abris et sondes identiques, alors pour le reste des records avec des sites et abris variables dans le temps, ce n'est pas encore gagné (impossible de corriger correctement les valeurs journalières comme on peut le voir entre mes classes 4 et 2 sans temps, ni vent vraiment différents, juste une histoire de timing et hop les erreurs sont bien différentes pour un dixième de différence pour la mesure la plus proche de la réalité qui elle-même est probablement plus chaude que celle d'une mesure sonique de référence, la plus dépouillée de biais radiatifs . Ce sera comme ça tant qu'on ne mesurera pas la vraie T de l'air seul sans plus aucun biais radiatif, il ne restera que les effets de micro sites pas assez normalisés en dégagements et hauteur de végétation courte)
×