Jump to content
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

ChristianP

Adhérent Infoclimat
  • Content Count

    2860
  • Joined

  • Last visited

  • Days Won

    1

Everything posted by ChristianP

  1. Le loess/60 ans, c'est une tendance plus une comparaison de deux moyennes/30 ans, on est à l'échelle climatique donc je ne comprends pas pourquoi il faudrait centrer sur 2018 comme si nous avions du bruit interne qui jouait. C'est le fond climatique qui est important pour cette pente, donc il n'y a rien dans le bruit futur d'échelle interne, hors catastrophe qui pourrait bouger la pente et la faire ralentir à 0.27°-0.3°/déc alors qu'elle contient déjà un vrai palier climatique d'avant 1970 qui minimise déjà sa pente. Le faux hiatus global a déjà impacté la France et les modèles sont incapables de trouver le bon timing de ce genre de bruit interne déjà au niveau global alors à l'échelle de la France, c'est encore plus incertain pour eux de bien le situer et de le quantifier à l'avance. En fait en regardant de près le dernier rapport du GIEC sur la limite de 1.5°, pour les 1.4° de RC pour MF fin 2017, je pense que MF utilise peut-être une des dernières méthodes du GIEC qui prend une dernière moyenne/10 ans comme une estimation d'une moyenne/30 ans centrée sur cette période plus courte (donc la moyenne 2008-2017 serait dans ce cas considérée comme la moyenne/30 ans de 1998-2027 ce qui dans ce cas donne bien 1.4° de RC fin 2017) A noter que maintenant ils utilisent une moyenne de 4 séries et non plus seulement Hadley : Voir en particulier les pages 57, 58, (59 où ils analysent aussi des moyennes climatiques "débruitées", 1.04° de RC fin 2017 dans la figure 1.2 page 57. Voir tableau 1.1 avec différentes périodes de suivi du RC et les écarts entre les séries) : https://www.ipcc.ch/site/assets/uploads/sites/2/2018/11/SR15_Chapter1_Low_Res.pdf
  2. Je ne comprends pas du tout pas pourquoi tu restes à l'époque de l'AR4 et que tu bloques en 2000 la valeur officielle de la France et même celle du GIEC. Le GIEC a mis à jour régulièrement le calcul officiel du RC après ton graphe tout comme MF. Sur HD climat on trouve ça avec un graphe terminé fin 2017 : Conforme à l'AR5 (mais pas pour les 1.4° mystérieux sur la France sur 1900-2017) : 1.34° sur la France sur 1901-2012 avec la même méthode à partir des anomalies MF plus précises du graphe des anomalies du panel MF sur HD climat (1.34° aussi avec ma série). Il n'y a aucune indication sur la façon de trouver leurs 1.4° en tendance moyenne de RC sur la France fin 2017. Ca ne correspond à rien en tendance ici. La tendance centrale sur 1900-2018 est 1.58° pour ma série reconstituée, 1.57° pour la leur avec des anomalies plus précises. Même sur 1901-2018 qui dégage de fait une donnée "chaude", elle est de 1.61° pour les 2 séries. Sur 1900-2017 c'est 1.50° de RC (1.51° pour ma série). De plus les 2.7°/siècle sur la France, c'est pratiquement la tendance centrale faiblarde (2.76°/siècle) trop courte pour qu'elle soit significative, observée sur 2000-2018. Si on prend la pente sur une échelle climatique qui justement est peu sensible au bruit, celle du loess /60 ans pour la période sans changement significatif de tendance linéaire avec les données d'anomalies sur 70-2018, elle est de 3.6° /siècle pendant que la tendance linéaire sur la même période à partir des anomalies est de 4° (3.96°)/siècle. Logique que la linéaire soit plus pentue que le loess/60 ans avec aucune donnée d'avant le changement significatif de tendance dans le calcul à l'inverse du loess/60 ans qui récupère des données d'avant 70 dans le calcul (donc de fait avec des données du vrai plateau climatique dans le calcul de la pente du loess/60 ans depuis 70 ). Plus le temps passe et plus la pente de ce loess/60 ans s'aligne sur la pente linéaire depuis 70, plus forte que celle du Loess, malgré une tendance plus faible en apparence ces dernières années (2000-2018) car la tendance sur 70-1999 a donné 4.6°/siècle (plus forte qu'en apparence). La pente du Loess/60 ans restera probablement plus faiblarde que la linéaire depuis 70, jusque vers 2030 (donc au bout des 60 ans sans nouveau changement significatif de tendance). Donc il est fort probable que le RC sur la France devienne plus fort que ce qu'indique déjà le Loess/60 ans actuellement et voire la linéaire depuis 70 vu que le RC est aussi sensé s'accélérer d'autant plus avec tous les schizophrènes profonds dans les plus inquiets qui s'acharnent de fait à alimenter la chaudière toujours plus. De plus en début d'année dernière dans un de mes posts en comparant le loess/60 ans pour la T globale à la méthode GIEC du GWI pour suivre le RC, qui prend les forçages en compte, on a vu que le Loess/60 ans est moins pentu que leur estimation du RC, donc il est plus que probable que le RC est plus fort aussi sur la France que ne l'indique ce Loess/60 ans. Ca ne dit rien pour les prévis très lointaines, surtout avec le facteur d'incertitude principal (pas tant que ça quand on regarde de près l'histoire) qui est le comportement humain plus que très largement capable d'auto réduire très massivement sa propre population par les guerres civiles et militaires ( et donc de fait ses émissions), bien plus et avant que le RC soit capable d'en faire autant... Une animation sympa : https://twitter.com/neilrkaye/status/1081192550826950657
  3. RC depuis 1900 +1.58° selon une des méthodes du GIEC en prenant la tendance moyenne depuis 1900, +1.33° / normale 1900-1929.
  4. J'avais commencé à répondre au mois d'août sur ce sujet qui rejoint le même problème sur les valeurs extrêmes à 50° et + avec le RC prévu. Un record absolu de Tx battu ou pas, n'a aucun sens sans savoir ce que représente un peu le record précédent à battre (d'autant plus à l'intérieur des terres ou pire vers les pôles où la variabilité est plus grande). Pour avoir une idée un peu plus juste du record potentiel et significatif réellement d'un état climatique stable donné et pire d'un climat avec une tendance de fond au RC, il faut énormément plus de données que les séries "modernes" de durée nanométrique pour cet usage, et qui en prime ne sont pas homogènes et toujours impossibles à corriger correctement au pas journalier surtout pour un record. Par exemple, le record de Paris de 1947 avec l'ancien abri Montsouris qui surchauffe surtout en Tx estivale par beau temps et vent faible (écart médian + 2° pour ces cas jusqu'à +3.5° mais pendant un an d'essais à Trappes avec un été pas folichon dans le coin sans aucun rapport avec 2003 et les étés banals dans le SE) avec en prime ensuite l'arrosage moderne du parc (-0.5° d'écart moyen en Tx estivales) fait que le record moderne recalé à la louche aux normes passées de 1947 donnerait probablement en valeur estimée autour de 42.5° ( 2° pour l'abri et 1° pour l'arrosage auto, car -0.5° de moyenne en Tx, est donné pour toutes conditions confondues, y compris avec les jours pluvieux et nuageux.) Pour voir la possibilité de 50° et plus en France après 2050, autour de 2075 ou plus ( Attention c'est surtout pour après 2050 et non en 2050, une année particulière, notre ami de Futura science, explique ces détails : https://www.futura-sciences.com/planete/actualites/climatologie-records-temperature-plus-50-c-france-61662/ ) , Voyons avec un exemple pour le record absolu moderne remarquable du Luc du 7 juillet 82 avec 42.7° toujours pas battu malgré le net RC supplémentaire depuis 82 : On remarque sur le graphe, que ce vieux record dans un bon site relevé aux normes actuelles (en prime avec beaucoup de vent ce jour-là soufflant de la direction hyper dégagée de cette station qui fait que cette valeur est très probablement équivalente à celle relevée dans un abri méca de haute qualité, un record qui vaut probablement plus de 45° dans des stations aux mêmes normes de mauvaises qualités que les 44.1° de Conqueyrac (avec abri Cimel surchauffant + cloisonnée pour le vent de terre + pente Sud trop forte, radiative) et St Christol les Alès (cloisonnée pratiquement dans toutes les directions, obstacles blancs rayonnants pour les Tx, serres proches, thermo à maxi et mini disposés contre la paroi Ouest de l'abri + thermographe douteux (donné à +-0.8° même si bien réglé), alors que personne n'est sensé chez MF continuer à vérifier l'étalonnage des thermographes de postes manuels depuis longtemps), est toujours nettement décalé de nos jours de la courbe de la significativité des records journalières. Tout record journalier n'atteignant pas ce niveau à 95% n'est pas encore assez significatif de la climatologie moyenne observée, d'autant plus avec une tendance significative, faute de recul et donc de milliers d'années de données journalières. Beaucoup de valeurs sont en retard par rapport à la moyenne des records et donc encore plus par rapport à ce qu'on est sensé observer dans 95% des cas quand on aura assez d'échantillons. Ce record de 1982 est toujours considéré comme très significatif aujourd'hui vu qu'aucune des valeurs plus récentes, n'a réussi à se décaler plus loin de l'IC supérieur que celle de 82. On peut voir de plus près en zoomant uniquement sur les Txx journalières que bien des records journaliers peuvent être très éloignés sur peu de jours. Quand on voit que pour le 9/07 le record est de 36.3° malgré le RC en plus depuis 82, alors que le record du 7/07 est de 42.7° sans ce RC, ça montre bien tout le problème du manque de milliers d'années de relevés pour obtenir des records cohérents/significatifs chaque jour pour un état moyen donné. Même si c'est moins prononcé au niveau annuel, c'est le même genre de problème qu'il faut avoir en tête pour se faire une idée d'un record absolu de Tx (ou Tn) potentiel vraiment assez significatif du maximum assez probable d'un état moyen donné. Donc même sans calculs élaborés de durée de retour, même sans recaler la courbe de significativité supérieure de l'IC, qui sera située plus bas fin 81 que sur ce graphique (vu qu'on retire un paquet de valeurs records et chaudes avec le RC depuis) où de nos jours il reste encore un surplus de 2.9° d'écart (39.8° pour le niveau à 95% le 7/07), une valeur équivalente à 82 donnerait probablement au meilleur moment thermique début août plus de 46° avec un bon mistral et vent d'Ouest (et donc plus avec un vent de terre résiduel faible ne permettant pas de dissiper le biais classique d'abri Stevenson/Socrima même dans ce très bon site dégagé). Ce n'est juste qu'une question d'échantillonnage de situations météo pour qu'on observe cette valeur de nos jours sans plus aucun RC supplémentaire ( ni plus rien du tout dans le pipeline). Si on utilise des méthodes plus pro pour le calcul des durées de retour extrêmes car la distribution des extrêmes n'est pas "Normale", avec la loi GEV et maximum de vraisemblance sur la base de la série de Txx annuelles, pas adaptée faute d'échantillons suffisants fin 1981, 42.7° était considérée pour cette loi comme impossible malgré que j'utilise les données qui ne sont pas claires d'avant 1959 et donc des 40° probablement pas propres et dopés qui sont présents, (J'ai vu les photo chez MF de l'ancien site qui est vraiment différent et bien moins bon que l'actuel, en 82) et qui ne sont d'ailleurs pas utilisées dans la série homogénéisée de Txm de MF qui débute qu'à partir de 1959 (au lieu de 1946). Donc malgré des valeurs probablement aux hormones dans le tas pour cette estimation, 42.3° en valeur centrale maxi possible (relativement aux capacités de ce paquet R, http://www.assessment.ucar.edu/toolkit/ et non à la réalité, vu que la durée de retour énorme, c'est considérer que la valeur est impossible) renvoyait en 81 une durée de retour de 10 millions d'années et l'IC à 95% de la valeur maxi sur une telle période faute d'échantillons suffisants, est important [38.8°, 45.8°] Même si on raisonne non plus en valeur centrale, mais en valeur limite d'IC à 95%, 42.7° en 81 c'était sensé être observé 2.5 fois en 100 périodes de 400 ans = 40 000 ans ( car la valeur centrale qui a une durée de retour de 400 ans en 81 = 41.0° IC à 95% [39.3 , 42.7] ) En 81 une durée de retour de 100 ans sur la base de la série de Txx annuelles disponible, renvoyait une Txx de : 40.4° [39.2°, 41.7°] . 41.3°[ 39.4, 43.3°] pour 1000 ans. On peut aussi se concentrer uniquement sur les Txx de l'été ou d'un mois avec la loi GEV, mais ça n'améliore pas encore assez l'estimation. C'est avec la loi GPD que l'estimation est plus réaliste, car on utilise la série des Tx dépassant un certain seuil pour récupérer le plus d'échantillons d'extrêmes, toutes celles en queues de distribution (dans le cas présent les Tx >= 35°), vu que parfois plusieurs fortes valeurs et donc des 40° ou autres, peuvent être relevées la même année et sont donc cette fois toutes prises en compte. En s'arrêtant à fin 81 : Fin 81 avec les données dispo, 42.7° [39.5° ; 45.9°] avait en valeur centrale une durée de retour de 3000 ans qui est passée à 70 ans selon la même loi avec le RC supplémentaire avec les données de 82 à fin 2017. La valeur équivalente à 42.7° en valeur centrale de nos jours avec la durée de retour de 3000 ans est de 46.5° [41,° ; 51.2°] pour l'analyse avec un seuil de la série d'extrêmes à 36° (ma sélection du seuil peut-être discutable, mais il faut trouver le juste milieu entre la récupération d'un nb suffisant d'échantillons, les indications des critères AIC et BIC, la tête de la courbe/ aux données et les proba renvoyées. Plus on recule le niveau de seuil et donc plus on utilise de données et moins on est dans la queue de distribution des extrêmes et moins la loi des extrêmes s'applique et plus les critères AIC et BIC se dégradent et plus les données extrêmes observées (ou futures même probables) deviennent faussement improbables. A l'inverse, moins on a de données en utilisant un seuil plus restrictif et plus les IC s'envolent, la valeur centrale et les bornes perdent de plus en plus de sens). En valeur limite d'IC, au lieu de 3000 ans en valeur centrale, la durée de retour de 46.5° est de 250 ans pour 44.0° en valeur centrale [41.5° ; 46.5°]. 43.1° en valeur centrale [ 41.2°, 44.9°] a encore une durée de retour de 100 ans de nos jours malgré le RC au Luc (42.2° en août 2017 nouveau record mensuel battant de 1.2° celui de 2003). Il faut bien voir qu'une durée de retour/valeur centrale c'est en moyenne et donc il existe obligatoirement de nombreuses périodes de 100 ans sans jamais observer cette valeur, mais bien moins, comme d'autres avec bien plus que la valeur centrale. C'est pour cette raison qu'il est très difficile de vraiment estimer un vrai maxi (ou mini) possible au regard des séries nanométriques actuelles pour l'objectif , même si on disposait de 150 ans de données journalières propres (c'est pour cette raison que ça n'a pas de sens de dire on a observé que 43°, donc c'est impossible 50° avec bien plus de RC). 30 échantillons de 100 ans, 3000 ans pour le pas journalier, c'est quand même bien mieux en stats plutôt que moins de 1 échantillon pour le Luc et bien d'autres stations, de plus non homogènes ! Il faut bien voir que ces IC sont aussi plus grands à cause du manque de centaines d'années de relevés pour récupérer assez de valeurs rares et non pas seulement parce qu'il est normal qu'il y ait un IC de valeurs probables pour chaque période de retour concernée (c'est pareil pour une tempête qu'on estime arriver 1 fois/ siècle, ce n'est qu'une moyenne, il y en a 0 de cette force dans plus de 1/3 des siècles et plusieurs dans un certains nombres de siècles, donc à notre échelle de vie réduite, difficile de savoir ce qu'est une véritable tempête du siècle !). Pour moi, vu que sans aucun RC supplémentaire, sans plus rien émettre, au Luc un 46.5° est bien possible car elle est même plus qu'équivalente à 42.7° de 1982 (il faut voir que le surplus de données a réduit les IC par rapport au calcul fin 1981, donc en réalité, c'est une valeur plus forte que 46.5°, que renverra l'IC sup, avec moins de données, comme en 1981) avec du RC puissant prévu en plus d'ici 2075, il ne fait aucun doute pour moi qu'on atteindra les 50° et plus dans l'intérieur de la France, mais quand, même si on stabilisait le RC de l'état moyen au niveau prévu en 2075, ça peut arriver dans la foulée, les années autour, comme dans 200 ou 300 ans et plus, pour un même RC . A ce niveau, pour l'année des 50° et plus, ce ne sera plus qu' une question d'échantillonnage aléatoire des conditions météo pour le réchauffement donné supplémentaire, car le bruit météo est capable de générer des situations très décalées de l'état moyen et on ne peut pas savoir quand malgré une prévision parfaite de l'état moyen, ni s'en rendre compte réellement avec nos séries si courtes pour l'échelle des records absolus. C'est bien pour cette raison que battre un record même de beaucoup ne veut rien dire tout comme ne pas le battre comme celui du Luc qui résiste, ne peut rien dire sur le RC ! Sauf si vous voulez vous noyer toujours un peu plus profondément dans le bruit 🙂 Pour le Luc si près assez près de la mer, c'est aussi plus compliqué de récupérer les bonnes conditions météo pour chiffrer, car il faut obligatoirement un vent de terre présent quand l'air le plus chaud résiste encore dans le SE, ce qui n'arrive pas souvent d'autant plus avec la dépression thermique dans cette cuvette qui contrarie souvent le vent résiduel de terre (vent d'Ouest et Mistral) qui permet ces records (A voir d'ailleurs si le RC ne va pas de plus en plus renforcer la dépression thermique dans ce coin et donc rendre encore plus rares les vents de terre résiduels à gros scores dans ce secteur l'été.) Si on analysait les données pour les 42.5° de 1983 de la station hyper dégagée dans cette direction de vent de l'aéro de Fréjus/St Raphaël , abri pourtant à quelques centaines de mètres du bord de mer, ça paraissait encore plus totalement impossible en 81 avec toutes les techniques imaginables. Même de nos jours ce n'est pas gagné de revoir cette valeur avec le RC ! C'est un sacré bon coup de la météo ! On ne peut estimer réellement avec l'intuition d'après les relevés observés, et à peine approcher avec les stats, les réelles possibilités de valeurs extrêmes avec des séries si courtes de Tx et si peu fiables dans le temps (avant 1950 voir 1959 pour celles du Luc et bien d'autres stations) et donc vu les modifications de l'occupation des sols d'ici 2075, du béton en plus, de la forêt probablement en moins dans le secteur, avec le RC en plus, il vaut mieux miser sur les modèles capables de pondre les situations météo et les valeurs associées possibles d'après les paramètres physiques. Depuis que je fais des calculs sur ces sujets, j'ai toujours vu des valeurs observées, pourtant données impossibles avec les stats avant de les observer, se produire. Alors celles données un peu probables avec les stats, ont des chances d'être garanties (sans pouvoir dire quand). Même en "anormalité" de base, la vague de chaleur de cette année n'est pas franchement remarquable au Luc (avec 38.1° au mieux contre 42.2° en 2017 malheureusement coupée très tôt dans son élan par la bascule de vent de terre à la brise de mer. Connaissant bien l'évolution de la Tx au Luc qui monte bien plus tardivement sous vent de terre, le record absolu aurait été pulvérisé, le record national probablement aussi, ce n'était qu'une question de météo et donc de timing fin). Le fait marquant cette année au moment de la réalisation du graphe il y a un bon moment, n'est pas dans le chaud, mais dans le froid avec 3 valeurs très décalées en février (laissant même croire à un bug quand j'ai vu ça, mais chez MF c'est pareil, et cohérent avec mes relevés ici, 3 valeurs différentes ici, mais très proches. Au Luc, Tx 2.3°, 3 jours consécutifs, déjà que ce n'est pas courant d'afficher des valeurs si froides, mais identiques ! La proba de sortir un truc pareil doit être très faible, quasi impossible ! Donc voilà un exemple de la puissance de la météo dans l'aléatoire, pour déjouer toutes les proba) :
  5. Nouveau record mensuel d'octobre de 437.5 mm (ancien 301.2 mm en 2013, mesures depuis 1993) , 3 ème valeur de la station après les 444.2 mm en Nov 2011, record absolu de 493.4 mm en Nov 2014. Pour les toulonnais, hier en regardant dans des archives, j'ai vu un maxi de 410 mm en oct 1839 (430 mm à Hyères) Je n'ai pas regardé si l'info est passée, la station de Toulon la Mitre a été déplacée dans l'arsenal il y a peu (attention la classification de la fiche est encore pour l'ancienne. A priori il reste encore la T et la pluviométrie à la Mitre pour comparer) https://donneespubliques.meteofrance.fr/metadonnees_publiques/fiches/fiche_83137001.pdf
  6. Cette pluie abondante sans fin m'a laissé du temps ! @calou34 😀 Il faut surtout remercier Serge avec sa phrase sur le plateau, qui a motivé ce post, car sans sa parole de scientifique, je ne l'aurais pas pondu. Avec Fred c'est inutile a priori, car c'est par définition impossible que des arguments même scolairement corrects, aient un impact, du moins pour le moment, vu qu'il n'a jamais admis de telles erreurs, ce qui est logique dans son cas, il faut avancer autre chose que des démonstrations : https://enjeuxenergies.wordpress.com/2018/10/27/climat -les-raisons-cognitives-de-linaction-cerveau-psycho-4/?fbclid=IwAR0jpnDB_lU5__DBUKVfQZNIvJ4F6zxMZUBle2GebJb8FKdPxUjMwgOk7qI Oui pro, dans mon esprit, c'est rémunéré en parlant dans les médias de ce sujet, mais quand c'est aussi un scientifique (rémunéré ou pas) ou un ex météorologue de MF qui s'expriment, ils sont tous sensés s'être assez formés/informés, être plus sérieux et rigoureux dans ce domaine que la moyenne des collégiens (les uns pour mériter leur salaire, les autres pour rester à la hauteur de leur qualification de scientifique), pour ne pas propager à l'infini des énormités pareilles. @CP3 Un calcul, une méthode et/ou la théorie, établis à l'instant t, sont valides jusqu'à ce quelqu'un démontre le contraire. La croyance dans ce cas, c'est de revendiquer que c'est faux, que c'est autre chose, sans jamais le démontrer de façon scolaire et scientifique. Une opinion et une pensée aussi lumineuses soient-elles pour certains, ne peuvent valider/invalider quoi que ce soit en science. http://23dd.fr/climat/histoire-rechauffement-climatique/111-glossaire-refutabilite-falsifiabilite http://www.charlatans.info/verite-science.php @Cotissois Je n'ai pas fouillé ces séries car connues pour être plus incertaines pour la climato et en prime le bruit météo, c'est plus ton domaine. L'incertitude est plus grande au pas journalier qu'au pas mensuel rapporté par meteor, lui même plus incertain que le pas annuel. Dans les autres séries, comme Hadley, c'est la couverture du globe la principale cause d'incertitude, la moins incertaine c'est GISS (enfin d'après leur calcul d'incertitude à l'époque où je les avais regardées de près il y a quelques années, à vérifier maintenant que c'est toujours le cas). Ca m'a poussé à réfléchir sur le bruit et le fond pour le pas journalier : Donc hors incertitude journalière de l'anomalie, en fait pour analyser les écarts d' anomalies globales de T d'un jour/quelques jours sur les autres, on retrouve le même genre d'erreur de raisonnement qu'au niveau climatique, mais à l'envers. Ceux qui revendiquent l'ENSO pour expliquer une/des anomalies journalières bien plus chaudes ou plus froides que d'autres jours proches, c'est équivalent à dire que le signal de fond du RCA influence la T mensuelle ou annuelle globale d'un mois/d'une année sur l'autre, bien plus que le bruit interne (Rien que l'ENSO dans le cas extrême à 95% pourrait faire varier l'anomalie annuelle de +0.15° à -0.15° en plus de la valeur attendue avec la tendance (avec tous les autres bruits neutres) en 3 ans environ. 0.3° de variation/ 3 ans que le RCA moyen actuel de 0.017°/an ne peut pas réaliser en moins de pratiquement 18 ans. Le bruit qui est interne pour le climat est de fait un signal de fond pour l'échelle temporelle journalière, donc il est négligeable pour l'analyse du bruit au pas journalier d'un jour sur l'autre, ses variations rapides seront prises de fait en compte par l'analyse de la météo à l'échelle globale. Ca se vérifie. Le signal de fond moyen pour le pas journalier est donné approximativement par le loess auto qui est la synthèse de la variabilité interne au climat. Ce signal de fond pour le pas journalier est la résultante visible du RCA + ENSO + cycle solaire + volcans + aérosol + PDO +AMO ...et autres bricoles connues ou pas. L'écart maximal dans le loess auto d'un jour sur l'autre est de seulement 0.000256° ! (Maxi relevé pendant la pente+ récente du loess auto avec l'aide du Nino 2016). Donc avec ou sans incertitude de l'anomalie journalière, ce n'est pas la peine de regarder de ce côté là ! Sans le loess auto, on retrouve le même ordre de grandeur pour l'ENSO dans le le cas extrême à 95% entre un ENSO+ à +0.15° et un ENSO- à -0.15° en 3 ans, on aurait une variation journalière moyenne que de 0.000278° (sans un autres bruits, tous neutres), mais comme on n'est pas dans ce cas extrême, la variation due à l'évolution de l'ENSO actuelle, est beaucoup plus faible entre des jours donnés, c'est négligeable à cette échelle. L'influence de l'ENSO est vu stable pour le pas journalier vu que c'est une moyenne (le bruit journalier dans l'ENSO sera pris en compte de fait par les SST journalière de la zone). Autour de ce fond de l'indice ENSO qui ne bouge pas assez à cette échelle, c'est de la météo pure qu'il faut analyser à l'échelle globale, continentale et maritime. Pour moi il faut donc un raisonnement plus proche de celui qu'on a pour analyser la T journalière d'un jour sur l'autre dans une station donnée, mais à l'échelle globale. On ne va pas prendre l'ENSO, le cycle solaire, ni le RC, ni les volcans, ..., pour expliquer des variations d'anomalies entre des jours/groupe de jours. Là c'est du même ordre, même si la variabilité est moindre avec la moyenne globale de toutes les stations et SST, il y a obligatoirement différents paramètres météo globaux qui jouent plus d'un jour à l'autre/périodes de quelques jours, comme par exemple une anomalie globale+ d'insolation/24h sur les continents et glaces, plutôt que sur les mers, une anomalie+ globale de couverture nuageuse nocturne (+ de nuages bas la nuit sur les continents/glaces), anomalie+ globale de vent de mer plutôt que de terre/de glace, anomalie+ globale de vitesse de vent nocturne sur les terres/glaces (hausse de T nocturne par brassage sur de plus grandes étendues que d'habitude), anomalie+ de pression basse sur les continents/glaces, anomalie+ d'étendue de précipitation diurne et/ou nocturne sur les continents, bas géopotentiels et autres éléments de météo pure que tu pourras trouver capables de synthétiser ou d'être des indicateurs de diverses anomalies globales de paramètres qu'on n'a pas à disposition pour y parvenir. Parfois ces anomalies explicatives potentielles, s'additionnent presque toutes dans un même sens ou dans l'autre, bien que dans la grande majorité des cas, certaines se compensent plus ou moins (C'est comme pour le bruit au niveau climatique, un ENSO+ puissant pourra se produire en même temps qu'un cycle solaire+, puissant, avec l'absence de bons volcans depuis longtemps, une diminution des aérosols artificiels, sous une AMO+, une PDO+, une IPO+, avec un Blob..., enfin la fournaise totale pour tous les bruits, le pied !😂 Et inversement bien des bruits négatifs dans le même sens vers le froid.) C'est encore une question d'échelle temporelle. Pour le pas journalier, il faut faire de la météo à l'échelle globale. Il faudrait trouver les anomalies annuelles, mensuelles et journalières globales en nb d'écart-type sur les continents/glaces (calculées d'après l'anomalie d'écart-type de chaque maille) et celles sur les mers/glaces pour nous donner une idée de ce qui varie le plus loin de la normale dans ces cas (en °C on ne peut pas vraiment le voir). J'ai toujours trouvé dommage que les organismes ne publient pas en plus des données/cartes habituelles au niveau global, les données/cartes d'anomalies en nb d'écart-type d'après le nb d'ET spécifique à chaque maille. Si les anomalies classiques en °C, chaudes se retrouvent plus que d'habitude sur les mers que sur les continents/glaces, l'anomalie globale sera moindre du fait que sur la mer un niveau très élevé équivalent en °C est impossible à atteindre. Le nb d'ET global augmentera dans ce cas et on verra du rouge sombre en pleine mer, équivalent au rouge sombre qu'on trouve sur les continents/glaces avec les énormes anomalies en °C sur les cartes d'anomalies classiques, alors que l'anomalie globale sera parfois plus faible malgré une anomalie en ET plus forte (Inversement si le froid d'intensité équivalente en ET, se retrouve plus souvent au-dessus des mers que d'habitude) Je me rappelle avoir vu ce type de carte dans des prévis du RC de je ne sais plus quel organisme et c'était bien plus parlant, car on pouvait comparer le vraiment plus chaud que d'habitude de chaque maille, alors qu'en °C on ne perçoit pas vraiment le problème du RC en mer, bord de mer et dans toutes les zones ou l'ET est faible. +1° d'anomalie à Ouessant ça n'a rien à voir avec +1° à Strasbourg, à Moscou ou vers l'Arctique. Une carte et des données d'anomalies d' ET montreront les véritables anormalités (Certaines anomalies peuvent être très anormales sans qu'on s'en rende compte dans les zones à faible variabilité et paraître très anormales dans les zones à forte variabilité alors qu'elles ne le sont pas !) @th38 , une référence donnée est spécifique à chaque mois pour enlever le cycle annuel, donc il y a des écarts différents. Quand on utilise des anomalies issues d'une référence mensuelle, on supprime du bruit saisonnier qui n'est pas dû à une variation du fond, mais à des variations habituelles, comme par exemple, avec la différence entre les mois d'été de l'hémisphère Nord et de l'hémisphère Sud, car il est recouvert de bien plus d'eau.
  7. Beaucoup d'erreurs élémentaires et incroyables pour des pro dans tout ce que je viens de lire, que ce soit dans l'édito de Fred sur "Où en est le RC", https://www.lameteo.org/index.php/news/3149-ou-en-est-le-rechauffement-climatique ou dans ses/des commentaires à la suite sur FB, avec une phrase impensable dans un commentaire venant d'un des rares scientifiques de l'équipe d'IC, notre @Seziou / Zarge © national, habituellement pointu et rigoureux pour recadrer les choses sur le sujet : Une énième histoire d'absence de RC/ de plateau du RC ces 20 dernières années, que ce soit au niveau RC global ou sur la France, dans ce dernier cas d'après aussi Louis Bodin avec un graphe des anomalies MF de 2014 (Peut-être issu de l'ONERC où j'ai vu exactement le même, car il est toujours bloqué en 2014 quand il y quelques semaines, j'ai voulu récupérer le fichier de données Excel du panel MF, qui n'est plus diffusé comme auparavant, afin d'analyser la réalité de cette histoire.) estampillé 2018 chez TF1 avec un lissage inadapté pour avancer un palier du RC. Voici l'évolution du climat en France fin 2017 (si quelqu'un a un fichier MF du panel de 30 stations au pas mensuel à jour fin août ou septembre 2018 (ou même bien avant), merci !), compatible avec l'évolution significative des moyennes climatiques, les tendances et avec les tests statistiques de comparaisons de moyennes et de tendances ce qui n'est pas le cas du graphe de Fred et celui présenté par Louis Bodin : D'habitude dans ce cas, ce sont les réchauffistes acharnés qui sortent du bois, qui nous ressortiraient l'accélération de la moyenne climatique/30 ans visible dans le graphe depuis 99, alors qu'elle n'est pas significative. Donc il faut vraiment en vouloir pour nous dénicher un plateau même à une échelle de 20 ans interne qu'à un échantillon de climat et donc qui ne peut donner l'évolution d'un climat par rapport à un autre. Ces derniers 20 ans, la moyenne/20 ans a pris 0.8° par rapport à la précédente/20 ans (indépendante), et celle sur 30 ans, 0.83° pendant ces 20 dernières années, excusez du peu ! Et lorsque je prends une des autres méthodes du GIEC pour mesurer le RC en comparant les différences de tendances depuis le début 1900, entre celle terminant il y a 20 ans et celle à jour de 1900 à fin 2017, c'est 0.79° de réchauffement en plus pendant ces 20 dernières années. C'est pour dire leur délire et leur plus qu'énorme problème d'interprétation et de choix d'échelle de certains pour analyser l'évolution du climat. Une courbe lissée sur 10-11 ans ou moins de 30 ans pour la France, est un non sans sens pour l'évolution du climat et arbitraire, pifométrique même pour suivre et prévoir l'évolution interne. L'évolution interne est tellement bruitée, logique à la petite échelle de la France (L'incertitude d'une tendance/20 ans qui correspond à la comparaison de 2 moyennes sur seulement / 10 ans de la T de la France, est plus de 4 fois plus importante qu'au niveau global et donc une tendance de cet ordre a encore moins de sens pour le fond d'autant plus quand on ne la compare à aucune autre tendance plus longue depuis le dernier changement significatif , ni même à la précédente/20 ans, tout en ne regardant pas les différences de moyennes/ 20 ans, ce qui est ahurissant pour parler évolution du RC de fait sans rien faire de sérieux ! La climato ne se fait pas à l'oeil mouillé !) des variations plus indicatives d'un bruit à signature aléatoire, donc sans changement de signal interne notable, vu que le loess auto, à l'inverse du niveau global, ne trouve même pas de variations internes utiles de petite échelle (celle ayant du sens pour l'échelle interne tout en n'ayant pas de significativité pour le climat) et lisse automatiquement à l'échelle la plus pertinente, c'est pour dire ! Sur 20 ans en France, on a une tendance de 0.68°/déc IC95% [0.25°/déc; 1.12°/déc] (S) et sur 78-97 et 0.17°/déc [-0.22°/déc, 0.54°/déc] (NS) sur 98-2017. A l'inverse du niveau global moins bruité, la dernière tendance/20 ans de 0.17°/déc, n'est donc pas significative d'un réchauffement avec un IC inférieur négatif (le test de Kendall utilisé aussi par MF dans ces cas, ainsi que le test de Fisher de la régression dans R, le confirment), mais comme elle n'est pas significativement différente de la précédente avec une confiance à 95%, ni de la tendance plus longue significative du climat (car les IC se recoupent dans tous les cas), il sera totalement faux de dire qu'il y a un changement pour un palier temporaire, ce que confirme l'augmentation nette des moyennes, et le lissage loess qui a l'avantage de synthétiser les évolutions de moyennes et de tendances linéaires. La moyenne/20 ans (donc non climatique pour la France) a augmenté ces 20 dernières années de 0.8° de façon très significative. (C'est encore plus significatif (P =0.00001), quand je compare la moyenne/20 ans à une véritable moyenne climatique/30 ans qui précède ces 20 dernières années) Pour le niveau global leur analyse est encore pire, en dessous de tout, car la dernière tendance /20 ans est même supérieure en valeur centrale à la précédente sur 20 ans (Idem pour la durée du graphe de Fred en comparant à la même durée précédente). Bon l'étourderie dans le meilleur des cas pour Serge, ce n'est pas un problème, ça arrive à tout le monde, il reconnaîtra le problème (si moi-même je n'ai pas fait d'erreurs), pour les autres qui refusent d'appliquer/ou d'apprendre les plus élémentaires des bases scolaires pour des raisons obscures ou psy, ce n'est pas gagné ! Regardez pour le global, ce tableau de calculs issus de différentes méthodes admises par des pro moins étourdis, ils sont limpides : Vous pouvez vérifier si je n'ai pas fait d'erreurs dans mon brouillon Excel , car ça me paraît tellement énorme que Serge se plante autant sur ce sujet, que je doute plus que d'habitude malgré que j'ai vérifié dans le calculateur de SKS et dans R : http://meteo.besse83.free.fr/imfix/evolutionnoaa082018.xlsx . Pour les loess, il vous faut un addin Excel et/ou R ou autres, pour celui auto et divers tests, mais bon je ne fais pas les calculs, c'est l'ordi. Pour le global, voici différentes façons assez correctes pour montrer l'évolution du climat compatible avec les tests et l'évolution des moyennes/tendances dans un graphe et non pas avec les variations internes au climat. C'est bien plus conforme avec un lissage suffisant, comme on le voit avec l'évolution du climat déterminé par les pro du domaine à l'aide des forçages en plus : http://globalwarmingindex.org/ La meilleure courbe de mon graphe, est donnée par le loess/50 ans, car sur cette période, il n'y a absolument aucun bruit, sens de pente, non significatifs et parasites. (Il n'y a que 4 orientations différentes de pente, car il n'y a que 4 changements significatifs de tendance ( une baisse, une hausse, puis un vrai plateau (il n'y a pas eu de tendance significativement négative, différente de 0, aucune moyenne climatique significativement différente, significativement plus basse.) puis le dernier changement pour la pente depuis 70 qui se poursuit à nos jours, sans aucun changement significatif, même pas d'un peu près ! Un loess à la bonne échelle, a l'avantage d'effectuer la synthèse entre les tendances et les moyennes, car une strictement même moyenne à la hausse de la même valeur, peut intégrer des pentes significatives totalement opposées selon la distribution des valeurs, ce qui n'a pas de sens, l'important c'est l'augmentation des moyennes et non les variations internes et visuelles quand on zoome trop pour suivre le climat. Avec une bonne échelle adaptée à la cible (plus fine pour suivre le bruit interne au climat comme le graphe de Fred, plus large pour suivre celle du climat), il nous évite justement de raconter n'importe quoi en se noyant dans le bruit quand on cherche à analyser le climat et il évite de se perdre dans l'échelle climatique quand on cherche à analyser le bruit, ce qui nécessite de zoomer cette fois comme avec le loess auto dans mon graphe un peu plus bas. Ceux qui veulent regarder la variabilité interne au climat, regardez la courbe noire par analyse auto des variances du loess auto et non au pifomètre par un lissage arbitraire sur 5, 10 ou 15 ans ou autres intermédiaires. Pour les 2 dernières tendances/20 ans indépendantes, on voit clairement que la toute dernière/20 ans soit disant plate, n'est même pas un plateau en apparence et qu'elle est plus pentue que la précédente (ben oui c'est plat pour ceux qui tracent des traits de tendance comme le font des écoliers de primaire/maternelle, à la main sans aucun calcul ! C'est inadmissible pour des pro !) Si Fred continue de contester que ça se réchauffe avec cette pente, alors que dans son commentaire tout en haut, il dit que ça se réchauffait fortement dans les 2 décennies précédentes, là avec une pente pourtant moindre, ce serait très fort. C'est exactement comme si quelqu'un vous disait que vous allez moins vite au boulot, parce que vous aviez été ralenti sur tel rond point, sans jamais contrôler le temps total, alors qu'au final vous êtes pourtant arrivé plus tôt. La fixette sur le ralentissement interne au trajet, au rond point , sans mesurer le temps total, mène à ce genre d'erreur. Il faut changer d'échelle et regarder l'ensemble le temps total du trajet par rapport aux trajets faits auparavant, pour le climat c'est le même principe, on a des moyennes climatiques et des tendances de tailles minimales à comparer, pour ça. Il faut comprendre que ces pentes de trop courtes échelles internes pour suivre le climat, varient rapidement d'une année/mois sur l'autre sans que ça ait un sens (d'autant plus au plan national avec une plus forte variabilité), à cause de l'incertitude de la pente à cause la variabilité classique, et donc ça ne sert à rien de les suivre de près tant que des valeurs ne sont pas près ou ne sortent pas de l'intervalle de prédiction (IP) inférieur de la longue tendance depuis 1970 sans changement significatif. Imaginez que le RC en plus en moyenne ces 20 dernières années dans le tableau des calculs des anomalies en °C , sont des anomalies de vos rentrées d'argent, alors que je suis votre banquier. Ce serait très facile avec vous de détourner un pognon de dingue sur ces 20 ans, comme dirait l'autre, (33 000 euros au minimum au niveau global + 80 000 au minimum au niveau national), vu que vous niez ce surplus de RC (de vos finances et le comble celui qui me sort ce graphe est même capable d'aller voir son banquier avec, pour lui dire qu'il a fait une erreur ! Erreur du client en votre faveur et il nous donnera le pognon de lui-même ! Quel gag !) ces 20 dernières années en restant bloqués, hypnotisés, dans les variations internes sans jamais en faire la synthèse avant et après la période donnée, sans comparer les tendances, sans avoir la moindre conscience de ce que signifie un plateau des plus logique et attendu après un record, de bonnes anomalies dans une tendance en moyenne linéaire car les anomalies fortes sont assez proches du record et très loin de la moyenne de référence qu'ils ignorent.... (et non faiblardes, des négatives et des positives assez bien réparties autour du niveau de la moyenne indépendante d'il y a 20 ans (/30 ans pour la France), nécessaires pour stabiliser provisoirement le RC et afficher un vrai palier significatif pour le RC. Sinon avec trop d'anomalies plus chaudes (ou trop souvent) comme c'est le cas, le RC continue malgré un plateau qui n'est que celui près du niveau du record/ou de très fortes anomalies (C'est comme si vous disiez que parce qu'on a eu un plateau avec 8 jours à plus de 40° à Auxerre en août 2003, puis une forte tendance à la baisse, le mois d'août 2003 ne se réchauffe plus par rapport aux autres ! Votre problème est là, aucune notion réelle des anomalies en présence dès le moindre plateau, donc avec votre raisonnement binaire, au moindre plateau, le mois (climat) n'est pas plus chaud que les autres, ça stagne, alors que c'est faux ! Un plateau n'a pas le même sens selon le niveau d'anomalies et pour connaître le niveau, il faut bien en faire la moyenne et en comparer au moins 2 avec au minimum une méthode digne du collège. Exemple pour la France, on voit bien votre biais vraiment hallucinant. Vous revendiquez de fait que la seule anomalie sous la moyenne 1978_1997 est capable à elle-seule de stabiliser le RC , vous êtes incroyablement naïfs en maths/stats , totalement hors sol ! (ce serait encore pire avec la vraie moyenne climatique/ 30 ans sur 1968_1997, je me suis basé sur votre choix sur 20 ans, donc incomplet ) : (C'est vraiment hallucinant que ce soit moi le paysan de Besse qui doive vous informer sur des trucs aussi basiques, mais bon classique avec ceux qui se foutent de la significativité, il n'y a que dans les discussions sur cette science qu'on voit ça ! ) C'est mieux avec des tests à votre niveau, mais bon... Avec le climat on compare aussi les tendances. On ne se contente pas de comparer des moyennes comme au collège . Vous ne faites rien de tout ça, donc vous vous plantez systématiquement dans le suivi de l'évolution du climat avec vos plateaux des plus habituels et obligatoires avec cette tendance, dès que les anomalies ne battent plus le record, alors qu'elles ne donnent pourtant pas une moyenne identique (significativement pas différente) à la précédente (elle est plus chaude !) et pas une tendance significativement différente de la précédente contenant un RC significatif !) ....qui réchauffent toujours le dernier échantillon de climat tout comme la tendance pourtant fortement à la baisse interne à août 2003, réchauffe toujours cet échantillon de mois remarquable, tant que les anomalies (internes) restent assez supérieures ou assez souvent / à la moyenne de l'échantillon précédent. De plus, de fait en assimilant un tel plateau interne à un changement, vous n'avez même pas conscience que vous revendiquez que le RC c'est non pas avant tout le RC de l'état moyen (vu qu'un record à lui seul ne veut rien dire pour le fond !), mais avant tout celui uniquement des records, tellement vous êtes avides de records battus de fait, par définition sans plateau attendu, alors que c'est la règle d'en observer même avec un RC de fond de 6° par siècle (0.06°/an) et donc encore de plus longs actu avec 0.017° par an depuis 1970 ! Vous raisonnez comme si on avait une exponentielle de malade ou du linéaire avec du 40°/ siècle. C'est 0.4°/ an qu'il vous faut avec votre raisonnement, pour écraser la variabilité (et donc supprimer les IP) à signature statistique classique dans les relevés, (et encore hors énormes volcans, astéroïdes et autres trucs de fous !) pour avancer que c'est un signe assez clair de changement et de stagnation provisoire du RC. Des plateaux de durées variables sont la règle obligatoire dans une tendance linéaire au RC bien trop faiblarde pour annuler la variabilité autour de cette hausse de fond moyenne à la hausse. Il existe des méthodes simples pour estimer la durée la plus normale/probable, la plus attendue pour le plateau suivant pour exactement le même réchauffement qui continue sur le fond. Il suffit de se servir de la tendance centrale depuis 70 et des IP. Un plateau significatif pour le RC ne peut pas exister tant que des anomalies ne sortent pas assez souvent de l'IP inférieur (1 valeur annuelle ça peut arriver sans modif du RC, vu qu'on est sensé en récolter 2.5 dessous / 100 ans en moyenne pour les IP à 95% (dont 2.5 supérieurs), mais en observer 2 en peu de temps, c'est signe qu'il faut s'y intéresser de très près et chercher la significativité d'un changement, comme c'est arrivé après 1945). La durée la plus probable d'un plateau interne, dépend du niveau du record annuel précédent, car plus la valeur est proche de l'IP sup (un record à plus faible proba, nécessite en moyenne, donc pas toujours, bien plus temps qu'un record situé presque contre la pente centrale ) ou pire hors IP (encore plus rare), et plus la probabilité qu'il soit long tout en étant des plus normal pour le même RC de fond sans faille, augmente. La durée la plus probable est donnée par la projection de cette valeur record comme 2016 sur la tendance centrale depuis le dernier changement significatif de tendance. Exemple que j'avais réalisé avec 2016 : Sans graphe, par calculs, la durée d'un plateau correspondant parfaitement à la tendance du RC actuel sur le fond depuis 70, est donnée par : (2 fois l'erreur standard de la régression + (+- la différence du record annuel avec l'IP sup) +0.1° (pour que le record soit considéré comme significativement différent du précédent, donc battu d'au moins 0.1°) ) / (la pente/an). Donc en arrondissant pour NOAA : ((2 *0.09)-0.03 + 0.1 )/0.017 = 15 ans environ, (C'est aussi la durée à partir de laquelle on observera une significativité de la tendance et donc on n'aura plus besoin de la comparer à la longue tendance significative pour savoir que le RC continue uniquement à cause de l'absence de différence significative de tendance, de l'augmentation des moyennes et des loess et divers autres tests.) qui est la durée du palier la plus normale qui soit avec la plus forte proba pour un RC strictement identique en moyenne sur le fond de 0.17°/déc, donc vers 2031 fin la plus probable fin d'un plateau/nouveau record après 2016. Mais comme les valeurs sont attendues distribuées autour de la tendance centrale (Vu que c'est une signature aléatoire, c'est rare que ça tombe pile sur la tendance centrale malgré la plus forte proba de la valeur centrale !), ça ne change rien si le record est battu et/ou que le palier se termine bien plus tôt de plus d'une erreur standard (Il sera faux dans ce cas de dire que ça s’accélère sans que les différences de tendances soient significatives), ou même en retard d'autant, plateau plus long qu'indiqué par la valeur centrale (Il sera tout aussi faux d'annoncer un ralentissement, car par exemple la proba est la même de part et d'autre de la valeur centrale, à moins une erreur standard,comme à plus une erreur standard, ce qui représente un peu plus de +- 5 ans). Pour qu'un plateau soit revendiqué comme un vrai plateau pour le RC de fond, il faut rajouter au reste, 2* l'erreur standard (c'est le côté inférieur de l'IP) avant d'effectuer la division / 0.017, ce qui fait qu'un plateau est considéré comme anormal pour le RC donné avec la pente centrale actuelle et la variabilité à signature habituelle, après environ 25 ans, mais seulement s'il n'y a pas de valeurs hors IP inférieur qui auraient rendu significatif le changement de tendance. Donc réclamer des pauses à tours de bras avec des plateaux des plus classiques avec des anomalies pourtant bien dans les bornes d' une telle tendance linéaire faiblarde, seulement avec votre oeil mouillé, pour dire que ça ne se réchauffe plus depuis x, sans aucune analyse sérieuse, malgré les démonstrations scolaires répétées , alors que c'est archi faux, est une escroquerie intellectuelle majeure. C'est vraiment prendre les lecteurs pour des idiots et ne pas les respecter, malheureusement même ceux qui ne s'en aperçoivent pas en ne vérifiant pas ce que Fred raconte ou en ne sachant pas comment le voir, donc ne vous étonnez pas que je tranche dans le vif en lisant des trucs pareils au moindre plateau des plus classiques, avec des météo, présentateurs très peu sérieux qui ne calculent rien et tirent des traits à l'oeil, ne savent pas interpréter une moy/10-11 ans ans plate dans les graphes ! (Pour la France, je n'ai pas calculé la durée probable d'un plateau dans le cas actuel, à vous de jouer, que les étudiants et passionnés effectuent l'exercice. Avec la méthode pifométrique, donc à vue d'oeil mouillé, mais un peu d'expérience, le plateau des plus normal le plus probable pour la France, devrait être plus long que pour le global, car il y a bien plus de variabilité malgré une hausse plus forte de la T qu'au niveau global, qui ne compense pas assez. En fait de mon point de vue en nombre d'écart-type, le RC en France est moins puissant qu'au niveau global, bien qu'il le soit en valeur absolue, mais c'est quand même la valeur absolue qui compte le plus pour le vivant !) Donc à ce niveau incroyable d'affirmations indignes de pro formés et payés (pourtant largement dans certains médias) pour être capables de bien faire ce genre de boulot de base pour nous informer correctement, à l'aide de ce que j'avais enregistré du glossaire de l'AR4, il faut revenir une nouvelle fois aux définitions, vu qu'il existe de multiples échelles temporelles pour un échantillon de climat et donc pour bien savoir quoi comparer et analyser et comment, quand on parle RC, de changement climatique dans ce cas précis pour notre échelle par rapport à la comparaison de Fred avec la cible du GIEC pour les 1°, 1.5°, 2° ... ( Les raisons des moyennes de 20 ans comme référence de comparaison pour les modèles, se trouvent ailleurs dans l'AR4 : ) . https://www.ipcc.ch/publications_and_data/ar4/wg1/fr/annexsannexe-1.html Même si on conteste leur définition, ceux qui se rappellent un peu de leurs cours de base en stats, savent que dans tous les domaines il vaut mieux récolter au minimum 30 échantillons dans une moyenne ou autres. Donc un climat c'est 30 ans de données au minimum (20 ans pour comparer avec le GIEC, vu qu'il faut des périodes comparables. Comme bien des scientifiques du domaine, je suis contre cette durée car il est clair que la variabilité sera encore trop présente, comme le montre les stats et même plus rarement les modèles, car certains affichent des paliers de 20 ans à cause de cette variabilité interne, donc 2 moyennes/10 ans pas significativement différentes malgré le RC) Donc pour cet objectif, l'analyse non pertinente de Fred des anomalies mensuelles et annuelles pour juger la cible, 1°, 1.5° GIEC car / 20 ans, avec un graphe utile juste pour analyser le bruit interne et non pas pour savoir où en est l'évolution du RC, est en prime biaisée par la référence NOAA qu'il garde sur 1901-2000, car elle contient de fait trop du RC récent, donc pas assez préindustrielle, comme la référence de la cible GIEC qui est donnée pour des moyennes/ 20 ans. Il faut donc rajouter 0.22° aux anomalies de l'édito/graphe de Fred (Référence sur 1886-1905, c'est la référence GIEC de l'AR5 pour les séries commençant qu'en 1880. Pour Hadley c'est sur 1850-1900. C'est le boulot de Fred de savoir ça, pas du tout le mien, c'est pour dire comme il respecte les lecteurs qui cherchent à s'informer et ensuite il qualifie les médias, de "médias poubelles" souvent avec pertinence pour le catastrophisme primaire, alors qu'il la fait grossir souvent "Allègrement" dans ce cas ! Ce qui ne remet pas en cause ses performances en météo, de présentateur, hors discours en climato basé sur du vent en maths, le seul point dont je m'occupe qui est inadmissible à son niveau.) On a ça aussi de testable dans l'AR5 pour la prochaine moyenne 2016-2035 (à la vitesse actuelle faiblarde, on finirait donc bien au-dessus des 1°/20 ans /préindus. Il n'y a pas de plantage en cours comme le fait croire Fred avec ses anomalies) : Pour voir l'évolution externe, donc du RC, du changement climatique, continuez à analyser qu'un seul échantillon de climat comme personne n'imaginera jamais analyser un échantillon de mois, par ex pour savoir situer le mois d'août 2003 par rapport aux autres mois d'août, en oubliant d'échantillonner des mois (donc là en oubliant de prendre des échantillons de climat à la place de votre fixette uniquement sur des variations internes) tout en zoomant pour nous sortir : "Oh là là ! Regardez la méchante forte pente à la baisse interne dans ce mois de 2003 (comme vous le faites pour le plateau ou autres variations internes à un échantillon de climat) pour faire croire volontairement ou non, que le mois d'août 2003 se refroidit (provisoirement, ou non , ce qu'il ne faut pas lire et entendre !) , est plus froid que le précédent, équivalent ou autres absurdités déduites d'un zoom inadapté à l'objectif : analyser l'évolution du RC ! Continuez à montrer ce qui n'a pas de sens et vous aurez le même résultat lamentable impensable. L'erreur de date du graphe de Louis Bodin est négligeable par rapport à ce type de raisonnement avec son lissage et avec le graphe de Fred (Prendre un microscope pour analyser l'évolution du climat ! Il est utile pour analyser l'évolution interne qui ne dit rien sur l'évolution du RC /changement climatique, lui-même, pour la T.) Fred dit s'arracher les yeux/cheveux avec les fautes d'orthographe des internautes, mais il est aveugle face à de telles énormités qui vont bien au delà de la forme de l'orthographe ! En climato, je préfère voir un inculte en orthographe, qui écrit en phonétique tordue, qui pondra de bonnes analyses chiffrées justes même de collégien, sur le climat, que des trucs pareils venant d'un pro (un collégien moyen aura l'honnêteté de et saura au moins, faire une soustraction entre 2 moyennes climatiques, calculer et tirer des tendances linéaires, mais pas eux, ils n'essaient même pas tellement convaincus avec leur oeil aussi scientifiquement bidon et biaisé que celui de tout le monde, alors qu'ils suivent le RC avec un microscope à la main au lieu de prendre du recul !) . C'est typique des journalistes et des météo qui se la jouent dans les médias à la Fox News, tout dans la forme et rien sur le fond, faite pour faire le buzz et attirer des clients et des adeptes à leur idéologie/déni des bases scolaires et scientifiques ! A leur niveau beaucoup savent qu'ils balancent des trucs faux en ne corrigeant jamais une fois qu'on leurs a démontré x fois de façon scolaire, ils n'opposent rien de scolairement valide et juste, que du bla bla pour continuer leurs affaires juteuses sans considérations pour autrui. Méfiez vous toujours de toutes les analyses en climato, où un rédacteur aussi bon soit-il en météo, en physique, avec des diplômes à gogo, ne respecte pas les échelles concernées pour les échantillons donnés utiles à l'analyse, ne parle jamais de tests statistiques ou de significativité des valeurs, sans courbes lissées sur d'assez longues périodes pour n'afficher que les variations significatives s'il parle d'évolution du climat (et non analyse de bruit sans remettre en question le fond avec un une variation non significative ( plateau, accélération, ralentissement non significatifs), s'il fait des cueillettes de cerises (zoom trop fort pour éviter de montrer la réalité évidente avec l'ensemble), c'est qu'il n'a rien vérifié et a pris uniquement son oeil mouillé, pifométrique. Tout ceci est valable quelle que soit la cause du RC, le CO2, une oscillation océanique, le réchauffement du manteau, ou tout ce que vous voulez, pour le suivi du climat à notre échelle, il faut sortir de la variabilité de haute fréquence et non rester bloqué dans un échantillon pour détecter l'évolution de cet échantillon par rapport aux autres, sinon plantage garanti. Si on faisait de même en médecine, de se foutre à ce point extrême, de la significativité des tests, ce serait un carnage dans la population ! "Putain de facteur humain !" Vivement que l'IA remplace tous les bidochons à la mode dans les grands médias, pour qu'on n'entende plus n'importe quoi en lecture élémentaire des données ! https://www.ulyces.co/news/au-japon-le-jt-national-sera-presente-par-un-robot-des-le-mois-davril/ Je ne doute pas que si je n'ai pas fait d'erreur de calculs de bidochon moi-même, Serge rectifiera sa confirmation du ralentissement provisoire ou non, du RC ces 20 dernières années ou m'apprendra autre chose si j'ai raté quelques bricoles importantes. Mais bon dans ce cas, il faudra qu'il nous démontre scientifiquement que le RC a ralenti ces 20 dernières années et pas seulement avec les mains, l'oeil, ou qu'avec des bla bla, ce qui n'est pas gagné quand on sait qu'un de mes profs préférés en stats, Tamino (Grant Foster) a déjà testé vers fin 2017-début 2018 qu'on n'était pas loin d'une accélération significative dans la série GISS (pas robuste encore malgré P=0.04), ça dépend trop du début de la tendance et le juge de paix qu'est le test de Chow pour vraiment éviter les erreurs comme des sauts de tendances non physiques, qui n'existent pas dans la nature, ne la donne pas significative d'un changement. A l'année prochaine pour le bilan de 2018, je passerai juste pour admettre et corriger mes éventuelles erreurs grossières si vous en trouvez (je ne suis pas à l'abri, mais à démontrer mathématiquement avec des méthodes scolaires admises), pour le reste des bla bla non objectifs, la rhétorique des croyants, répondre aux questions, je n'ai pas le temps. Fred corrigera mon orthographe et ma syntaxe, je n'ai pas le temps d'affiner la relecture et il aime ça plutôt que les chiffres et les maths 😉 Ah oui j'oubliais sur un autre sujet, un document passionnant de référence sur le soleil, sur l'entrée solaire dans CMIP6 : Solar forcing for CMIP6 (v3.2) https://www.geosci-model-dev.net/10/2247/2017/gmd-10-2247-2017.pdf
  8. 90.1 mm au SPIEA à 19h dont 57.6 mm en 37 mn, 28 mn une avec intensité instantanée >= 104 mm/h, maxi 281 mm/h au pluvio V2, 27 mn pour le Précis Mécanique avec maxi à 262 mm/h.
  9. 1016 mm https://waterdata.usgs.gov/nwis/uv?cb_00020=on&cb_00025=on&cb_00035=on&cb_00036=on&cb_00045=on&cb_00052=on&cb_61728=on&cb_62620=on&format=gif_default&site_no=02093222&period=&begin_date=2018-09-08&end_date=2018-09-16 Un débit 2.9 fois plus important que pendant le record en 1999 avec Floyd Daily discharge, cubic feet per second -- statistics for Sep 16 based on 78 years of record. Max en SEP 1999 : 11500 cfps SEP 2018 : 33700 cfps La différence de hauteur est modeste, probablement qu'en apparence à cause d'un étalement sur une plus grande largeur et/ou surtout de la limite de l'appareil de mesure pas assez haut (comme ce sera le cas sur l'Issole ici, car à ce niveau de pluie on est certain à 100% de rater la hauteur d'une crue d'un facteur énorme) : https://waterdata.usgs.gov/nwis/uv?cb_00060=on&cb_00065=on&format=gif_default&site_no=02108000&period=&begin_date=2018-09-08&end_date=2018-09-16
  10. https://waterdata.usgs.gov/nwis/uv?site_no=02093222 https://waterdata.usgs.gov/nwis/uv?site_no=0210869230
  11. Daily discharge, cubic feet per second statistics for Sep 15 based on 64 years of record. Ancien maxi 1720 cfps en 1984, nouveau record amélioré de plus d'un facteur 3, près de 6000 cfps (En baisse à 5450 cfps pour la valeur actuelle) : https://waterdata.usgs.gov/nwis/uv?site_no=02091000 Très nombreuses données diverses intéressantes dans certaines stations, par exemple https://waterdata.usgs.gov/nwis/uv?cb_00020=on&cb_00025=on&cb_00035=on&cb_00036=on&cb_00045=on&cb_00052=on&cb_61728=on&cb_62620=on&format=gif_default&site_no=0209303201&period=&begin_date=2018-09-07&end_date=2018-09-15 ici : https://webapps.usgs.gov/Florence/
  12. En regardant dans mes stats, la rafale maxi hier du Davis Vantage à 16 m, 95 km/h, est un nouveau record mensuel du mois d'août. Ancien record 88.5 km/h en août 95 anémo Davis Monitor2 sur un autre mât, 87 km/h en août 2012 à 16 m pour le Davis Vantage sur le même mât actuel. Plus de 104 mm ce mois d'août, c'est un nouveau record mensuel aussi depuis l'ouverture de la station en 94 (Ancien record en août 2015, 92 mm) Tx du jour 32.3°. Juste avant que le gros de l'orage touche la station :
  13. Cumul de 31 mm au SPIEA, 29.4 mm au Davis Vantage à 384 mm/h maxi, 31.6 mm à 340 mm/h maxi au Précis Mécanique avec 10.2 mm/3mn. Le pluvio Davis étant à 2 m, il est plus sensible aux pertes dans ce cas venté et surtout dans ce cas près du record de vent maxi sous un orage à la Davis à 16 m qui est de 97 km/h, pour 95 km/h aujourd'hui avec un record sous orage aujourd'hui de 102 km/h au NRG Maximum Inc à 17.5 m absent à l'époque du record à 16 m. 70 km/h à l'Ultimeter à 10 m.
  14. Jour le plus chaud de l'année à Besse, malgré les passages de nuages instables et des variations du vent créant des écarts temporels supplémentaires de micro échelle même pour les capteurs dans le Stevenson en fonction des constantes de temps des capteurs et de la synchronisation imparfaite des relevés/10 s et /minute. Premier 40° dans le Socrima (40.6°) en site classe 4 Ouest, où ce n'est pas une valeur fréquente non plus malgré les gros biais radiatifs de micro site certains jours selon la direction du vent , le bon timing et l'évolution du site au fil des ans pour tester différentes configurations de sans/avec buissons et différentes distances pour comprendre au mieux ce qui influence le plus le biais de mesure (Par exemple il vaut bien mieux des arbres de 20 m de hauts à 20 m de l'abri que des buissons de 2 m de haut à 2 m de l'abri (ou pire qu'une étendue de buissons comme à Montclus qui crée un sol virtuel avec sa T de surface située plus haut et plus chaude que l'air qu'il y aurait à ce niveau avant d'entrer dans l'abri sans eux ) car la T de surface et des faces des buissons assez secs et exposés au soleil est plus chaude que celle des arbres (et surtout que la T de l'air même actuellement sans grande sécheresse pour ici) et bien plus proche de l'abri que pour les arbres et le fetch de terrain libre avec les buissons trop proches en distance ne permet pas au vent de brasser l'air et de toucher l'abri et le sol comme avec des arbres plus lointains pour un même angle de dégagement pourtant strictement identique.) En site classe 2 : Abri Stevenson MF : Thermo MF : 37.9° (Record de la station ouverte en 1993, le 5 août 2017 : 41.8°) SHT75 Davis : 37.8° (42.1°) PT 1000 : 37.5° ( 41.5°) Abri Socrima MF avec Pt 1000 : 37.1° (41.4°) Abri Young méca avec SHT75 normes USCRN: 36.6° (40.7°) En classe 4 à l'Ouest cloisonnée par la forêt et des buissons : Abri Socrima MF avec Pt 1000 : 40.6° (43.4°) Abri Cimel avec Pt 1000 : 41.8° (44.5°) Classe 4 à l'Est près du potager (et de la piscine du voisin) : Abri Davis Vantage Vue à 10 coupelles avec PT 1000 : 38.0° (43.7°)
  15. Jour aussi chaud qu'hier dans l'absolu ici (1 dixième de plus pour la mesure de référence aux normes USCRN), mais avec plus de biais radiatifs en site classe 4 à l'Ouest, à cause de la brise présente plus tôt ailleurs. Surchauffe de 3.2° dans le Socrima en classe 4 (38.8° contre 35.6° dans le Socrima en classe 2), le record de surchauffe étant de 4.0° avec un vent de SW levé bien plus tôt encore le 8 juin 2001. En site classe 2 : Abri Stevenson MF : Thermo MF : 36.0° (Record de la station ouverte en 1993, le 5 août 2017 : 41.8°) SHT75 Davis : 35.8° (42.1°) PT 1000 : 35.7° ( 41.5°) Abri Socrima MF avec Pt 1000 : 35.6° (41.4°) Abri Young méca avec SHT75 normes USCRN: 34.9° (40.7°) En classe 4 à l'Ouest cloisonnée par la forêt et des buissons : Abri Socrima MF avec Pt 1000 : 38.8° (43.4°) Abri Cimel avec Pt 1000 : 39.9° (44.5°) Classe 4 à l'Est près du potager (et de la piscine du voisin) : Abri Davis Vantage Vue à 10 coupelles avec PT 1000 : 36.5° (43.7°) Besacmétéo, en 1923 l'ancien modèle ouvert de type Montsouris surchauffait beaucoup (Ecart médian de 2° en Tx par beau temps estival et vent faible dans un site avec un sol verdoyant parfait classe 1 à Trappes sans canicule dans l'été des essais, jusqu'à +3.5° maxi donc probablement plus vers Nîmes au sol plus souvent sec et plus chaud), bien plus que le Cimel utilisé par MF il y a encore peu d'années et présent ici. C'est aussi pour cette raison que le record de 1947 de Montsouris tient encore tout comme les 44° de Toulouse. C'est déjà compliqué de comparer des mesures modernes avec 2 abris et sondes identiques, alors pour le reste des records avec des sites et abris variables dans le temps, ce n'est pas encore gagné (impossible de corriger correctement les valeurs journalières comme on peut le voir entre mes classes 4 et 2 sans temps, ni vent vraiment différents, juste une histoire de timing et hop les erreurs sont bien différentes pour un dixième de différence pour la mesure la plus proche de la réalité qui elle-même est probablement plus chaude que celle d'une mesure sonique de référence, la plus dépouillée de biais radiatifs . Ce sera comme ça tant qu'on ne mesurera pas la vraie T de l'air seul sans plus aucun biais radiatif, il ne restera que les effets de micro sites pas assez normalisés en dégagements et hauteur de végétation courte)
  16. Jour le plus chaud de l'année à Besse, vraiment pas formidable et alors que ce n'est que la première valeur de l'année >= à 35° aux normes MF (mais même pas aux normes supérieures de l' USCRN) de cet été pour le moment lamentablement frisquet en pointes des Tx (et non en moyenne des Tx plus chaudes que la moyenne) ici avec la forêt et le sol anormalement humides à l' inverse de la sécheresse exceptionnelle avant et pendant l'été 2017. En site classe 2 : Abri Stevenson MF : Thermo MF : 35.8° (Record de la station ouverte en 1993, en août 2017 : 41.8°) SHT75 Davis : 35.8° (42.1°) PT 1000 : 35.6° ( 41.5°) Abri Socrima MF avec Pt 1000 : 35.5° (41.4°) Abri Young méca avec SHT75 normes USCRN: 34.8° (40.7°) En classe 4 à l'Ouest cloisonnée par la forêt et des buissons : Abri Socrima MF avec Pt 1000 : 37.9° (43.4°) Abri Cimel avec Pt 1000 : 39.2° (44.5°) Classe 4 à l'Est près du potager (et de la piscine du voisin) : Abri Davis Vantage Vue à 10 coupelles avec PT 1000 : 36.7° (43.7°)
  17. Voilà Cotissois, effectivement c'est plus proche actuellement avec CMIP3 (que 2 centièmes de retard pour la moyenne/ 20 ans des obs pour les 2 séries les plus chaudes (HadCW et Berkeley) et la moyenne/20 ans de tous les modèles, contre 8 centièmes pour CMIP5 RCP4.5 (donc que pour tous les modèles RCP4.5), pas d'emballement non plus encore, mais rattrapage en cours du retard et probablement dépassement de la valeur moyenne prévue d'ici 2030 (Si pas de volcans majeurs ou autres accidents). En fait c'est plus tard que CMIP3 chauffe plus la moyenne/20 ans que CMIP5. A noter que ce soit pour CMIP3 ou CMIP5 RCP4.5, la prévis moyenne est considérée comme correcte car les IC non présents sur le graphe se croisent toujours (pour les modèles c'est +-0.05° et pour les obs c'est du même ordre ou un peu plus selon les séries, donc il faudra plus de 0.1° d'écart pour considérer que la prévis moyenne n'est pas bonne.) On ne peut pas savoir encore avec un recul trop largement insuffisant, lesquels auront vu le plus juste.
  18. Cotissois, il faudrait voir l'évolution de la moyenne sur 20 ans observée par rapport à celle sur 20 ans CMIP3 , car CMIP3 est connu pour être plus chaud en évolution des moyennes/20 ans que CMIP5 (je parle bien pour les projections et pas avec les histoires de recadrage sur le hiatus et des prévis décennales). C'est probablement une illusion due au fait que ton graphe se termine en 2020 et à l'oeil fixé que sur le bruit chaud de la fin. Sur 2011-2030 c'est donné 0.64° à 0.69° en valeur centrale / 1980-1999 . J'essaierai de voir avec CMIP3. https://www.ipcc.ch/publications_and_data/ar4/wg1/en/ch10s10-3-1.html#table-10-5 Sinon ce n'était pas pour rassurer, mais qu'un constat des obs à l'heure actuelle, qui ne montrent clairement pas d'accélération, mais en aucun cas de l'optimisme pour l'avenir de la courbe, vu qu'on bourre toujours à fond la chaudière. Etant donné que le bout du fond du GWI insensible au bruit est strictement identique au niveau attendu par la moyenne/20 ans CMIP5 RCP 4.5 fin 2017, ça signifie pour moi que du bruit avec le temps de réponse du système, finira probablement par permettre de rattraper la valeur centrale de ce scénario à un moment ou un autre, d'autant plus qu'avec les stats antérieures faites il y a des années ici, j'avais vu qu'il y avait un délai d'une vingtaine d'années (18 ans en valeur centrale) pour qu'un Loess / 60 ans colle au mieux avec les forçages importants comme le CO2, comme s'il existait une genre de constante de temps globale de premier niveau pour que ces forçages dits instantanés se retrouvent un minimum assez bien brassés et homogénéisés pour être intégrés et restitués de façon minimale efficace assez globalement par l'ensemble du bruit et que ça colle mieux pour l'échelle climatique minimale. Mais bon ça me semble tordu physiquement.
  19. Relativement à un message assez lointain ici sur le choix de Hadley, ce sont les scientifiques et le GIEC aussi qui choisissent Hadley. Il y a quelques temps j'avais parlé d'un papier sur le GWI basé sur Hadley, où ils ont traité aussi le sujet des autres séries. Revoir les graphes du supplément du GWI selon les séries et les périodes de référence ( Hadley sans ou avec (CW) zone polaire prise en compte) : https://static-content.springer.com/esm/art%3A10.1038%2Fs41598-017-14828-5/MediaObjects/41598_2017_14828_MOESM1_ESM.pdf On peut voir les différences d'évolution en °C/siècle depuis 1970 (79 pour les sat) des différentes séries avec les bruits courants traités par Tamino avec sa méthode admise dans l'AR5 : Sinon contrairement à ce que je lis ici ou ailleurs, bien trop souvent pour cause de noyade dans le bruit (cette fois encore plus profondément pour les pro côté chaud), à l'échelle climatique minimale efficace des projections (donc pour des moyennes/20 ans), les obs sont toujours en retard sur la prévis moyenne de tous les modèles pour le scénario même assez gentil RCP 4.5. Pas de palier supérieur, ni d'accélération significative au niveau statistique non plus pour la tendance de fond (avec les méthodes habituelles des pro) dans les obs, ni même en décortiquant aussi les données de leur fichier Excel du GWI ( http://globalwarmingindex.org/ ) avec les forçages pris en compte. Il n'y a rien d'anormal dans les anomalies de T globales mensuelles relativement au RC de fond un peu plus chaud du GWI qu'un Loess / 60 ans, comme on le voit ici avec les données du GWI au 31/12/2017 sur lequel j'ai rajouté quelques bricoles : Même pendant le Nino 2016, les anomalies sont moins souvent hors normes par rapport au fond que pendant le Nino 98. C'est bien visible par rapport à l'IC à 95% du GWI ici : où on voit clairement qu'il n'y a que 3-4 valeurs hors IC du GWI pendant ce Nino contre près d'une dizaine pendant celui de 98 et près de 20 hors IC inférieur vers 2011 -2014 pendant le faux hiatus. Les anomalies mensuelles de 2017 sont dans l'IC pourtant restreint (car ce n'est pas l'IP de l'échelle mensuelle, mais l'IC du signal de fond), certaines flirtant avec l'IC inférieur et passant même dessous en fin d'année ( il faudra ajouter janvier et février dessous). Les anomalies sont moins souvent au-delà des +0.15° que le signal de fond que dans bien d'autres périodes passées et même que symétriquement sous -0.15° vers 2011-2014 pour le côté "froid" ici en retirant le signal du GWI (à jour fin décembre) : On est aussi très loin de la fréquence de l'importance des décalages positifs des anomalies mensuelles vers les années 40 où le Loess/60 ans est pratiquement confondu avec le fond du GWI. Regardez aussi les écarts des anomalies dans le positif par rapport au fond dans les années un peu avant 1880 alors que le forçage naturel assez neutre. Qu'est ce que vous auriez dit en 2016-2018 avec de tels écarts mensuels par rapport au fond ? Regardez maintenant les pentes effectives prévues et observées du graphe déjà donné plus haut Le taux de pente calculé d'après le changement de la moyenne/20 ans, donc sans l'incertitude supplémentaire d'une tendance différente du modèle linéaire. Celle effective prévue d'après l'évolution de la moyenne/20 ans sur 2006-2025 de RCP 4.5 par rapport à leur référence 1986-2005. Calcul du taux effectif d'après les prévis pour la moyenne 2006-2025 déterminée à partir des moyennes/ 10 ans du tableau en annexe 2 page 1444 de l'AR5 Ex : Taux effectif prévu en valeur centrale RCP 4.5 d'après la hausse de la moyenne/20 ans 2006-2025 = ((0.36 + 0.59)/2)/2 = 0.475/2 = 0.2375°/déc. On voit bien la droite bleue, celle observée, au rythme actuel effectif de 0.176°/déc depuis 2006, est toujours en retard sur la rouge prévue et il faudrait encore d'assez nombreuses anomalies plus chaudes que la rouge pour continuer à compenser le retard pris depuis 2006 et pendant le faux hiatus où les anomalies étaient sous la bleue. On peut voir clairement qu'on est très loin de l'emballement avec les moyennes observées sur 20 ans par rapport à la moyenne/20 ans prévue de l'ensemble de tous les modèles RCP4.5 : On remarque aussi avec l'échelle climatique minimale efficace que ça n'a pas vraiment de sens d'opposer les séries quand on part d'une base commune récente là où la détermination de la T est plus précise et moins différente, car il n'y a que 3 centièmes d'écart entre l'échantillon de climat le plus chaud (Berkeley et HadCW) et le moins chaud (Hadley). Les modèles RCP4.5 donnent 1.02°/20 ans fin 2017 contre 0.94° pour Berkeley et HadCW , 0.91° pour Hadley. L'AR5 utilise pour la période pré-industrielle un écart de -0.61° par rapport à leur moyenne de référence 1986-2005 (donc une normale de référence plus chaude de 0.61°. C'est ce que donnent aussi les anomalies Hadley dans leur fichier du GWI), mais c'est pour Hadley sans zone polaire. Vu les incertitudes et les différences entre les séries à cette époque et la non couverture polaire, à la place j'utilise une base moyenne commune pour toutes les séries, de -0.7° plus probable, car les modèles RCP4.5 indiquent une moyenne de -0.725° et HadCW renvoie -0.675° au lieu de -0.61° de Hadley AR5. Si on utilisait directement la moyenne réelle spécifique de chaque série à l'époque comme référence, vu les différences d'estimation/précision avant 1900, on ne ferait que les propager vers la fin des courbes pour sortir ce genre de graphe avec un biais de comparaison, laissant penser que les séries ne sont pas plus proches de nos jours (ce serait comme vouloir faire croire que la détermination de l'anomalie globale était plus précise et que les séries étaient moins différentes vers 1900 que vers 2005. Je n'ai pas effectué le calcul de la période de référence, j'ai simplement sélectionné directement les séries avec la période spécifique commune possible avec GISS (1880-1899) pour les diverses séries dans l'explorateur de données du KNMI.) Pour compenser le retard pris sur la prévis par le RC pendant 2006-2017, pour Hadley, il faudrait un taux effectif de 0.33°C/déc sur 2018-2025 ( 0.30°/déc pour les 2 séries les plus chaudes, Berkeley et HadCW) pour atteindre pile la prévis moyenne effective de 0.2375°/déc sur 2006-2025. Ca correspondra à une nouvelle augmentation de la moyenne/20 ans depuis fin 2017 de 0.264° pendant ces 8 ans en cours, alors qu'elle n'est montée "que" de 0.211° ces 12 dernières années (0.237° en 12 ans pour hadCW, il faut donc une hausse de 0.238° de hausse en 8 ans) donc il faut que le bruit, les forçages et/ou la sensibilité, leurs réactivités, donnent un coup de main plus puissant. L'évolution est donc encore très très loin de sortir de l'IC à 5% supérieur marquant la limite pouvant indiquer un emballement par rapport aux prévis des projections, vu que nous ne sommes même pas au niveau de la prévis moyenne ! (C'était d'ailleurs pareil pour le faux hiatus mais en étant pourtant plus proche de sortir de l'IC inf vu qu'à l'époque la moyenne/20 ans était bien plus loin de la prévis moyenne et plus proche de l'IC inf, c'est pour dire le biais chaud cognitif majeur des pro emballement actuellement alors que l'on rame encore pour rattraper simplement la moyenne des prévis RCP 4.5) Pour que l'on considère un emballement d'ici 2025 par rapport aux prévis des projections, il faudrait une pente effective, de plus de 0.62°/déc (!) (0.59°/déc pour Berkeley/HadCW) sur ces 8 ans en cours, pour simplement rattraper la droite verte en pointillés d'ici 2025, donnée par l'IC sup à 5% des modèles RCP 4.5 du tableau donné plus haut (Il faudra plus que ça pour considérer l'emballement en ajoutant les IC des obs et des modèles pour pouvoir le dire d'après les obs de T, pour ce scénario). C'est pour dire que vous n'avez pas fini avec du bruit chaud de voir des emballements à gogo totalement inexistants même pour un simple rattrapage logique à venir dans le cadre du RC toujours aussi "pépère" sur le fond de la T de l'air, ou même pour afficher un écart identique côté positif à ce qu'il est actuellement côté négatif par rapport à la prévis moyenne, en vous acharnant à rester la tête profondément dans le bruit sans prendre de recul en regardant l'échelle minimale nécessaire. Le problème c'est que des scientifiques qui s'ennuient avec l'échelle climatologique qui demande de la patience, continuent à induire en erreur les lecteurs avec leur comparaison chaque année d'une valeur annuelle bruitée (ou même mensuelle !) face aux projections pour les tester alors qu'elles ne sont pas du tout conçues pour l'échelle annuelle, ni même décennale, du moins quand on ne cherche pas à étudier/comparer très justement le bruit dans les modèles décennaux expérimentaux (à prendre avec des pincettes), à détecter un décalage par rapport au bruit, traité (comme par ex par Tamino où le fait même qu'il reste du bruit dans ce graphe et au pas mensuel (courbe rouge "débruitée") aussi, malgré le retrait de l'estimation du poids des bruits courants, montre qu'il manque encore de précision et/ou qu'on ne connaît pas certains bruits et/ou que la précision est insufisante pour certains forçages. Un commentaire de Tamino à ce sujet : ), ou simulé comme par ex avec le modèle de Météor. Je ne conteste pas du tout que les anomalies aient été anormales bien des mois selon ce modèle très justement conçu pour suivre l'évolution finement avec le bruit simulé. Je conteste que cette anormalité est en fait très relative au modèle, elle ne l'est pas pour et sur le fond, car comme personne au monde ne maîtrise assez l'estimation et la connaissance du bruit et la mesure assez précise des divers forçages fins, la sensibilité et les constantes de temps, pour cette échelle fine, comme pour les projections, la moyenne sur 20 ans (30 ans aurait été mieux comme dans les rapports avant l'AR4, vu que des modèles donnent des plateaux possibles sur 20 ans à cause du bruit et non d'un problème/changement sur le fond) est justement nécessaire pour éviter ce problème qui laisse penser qu'il y a quelque chose d'anormal à l'échelle fine car trop mal cernée, alors que ce n'est pas le cas quand on va voir le fond tout en analysant le bruit aux échelles efficaces, avec ce que montrent les fréquences et importances des écarts par rapport au fond dans le passé de tous les relevés. L'année 2017 est considérée neutre pour le bruit dans le modèle de Tamino car son modèle donne la valeur "débruitée" équivalente à la valeur observée (c'est donc d'autres bruits et/ou forçages, sensibilité ou autres, plus ou moins mal estimés, inconnus et/ou absents du modèle, qui ont décalé la valeur 2017 de la tendance linéaire centrale). Ca confirme que 2016 est une relative contre-performance malgré un Blob et le Nino, pas de Pinatubo comme quelques années avant 98. La valeur brute de 2016 aurait dû être bien plus haute et hors IP à l'échelle annuelle. De même l'échantillon de climat minimal relatif aux projections fin 2017 est encore relativement loin des 1.5° / au niveau pré-industriel. Il est de 0.82°/20 ans pour Hadley normes AR5, 0.91° /aux normales pré-industrielles comparables d'une série à l'autre (0.94° pour HadCW et Berkeley), mais ça n'empêche pas que certains pro nous sortent à tour de bras des comparaisons de valeurs mensuelles ou annuelles pour faire croire que nous sommes sur le point de dépasser le seuil de 1.5° beaucoup plus tôt que prévu (ce qui est faux, car c'est un seuil donné pour une moyenne d'au moins 20 ans et non pour un pas annuel ou mensuel) entretenant côté chaud, la même confusion que les négativistes côté froid, des échelles météo et climatique, pour vous faire gober qu'un mois ou une année c'est équivalent à un échantillon de climat ! ) Pour fixer les idées et calmer les hallucinations collectives sur l'emballement qui n'existe toujours pas malheureusement à ce jour pour la T de l'air à l'échelle climatique minimale, au rythme actuel effectif des obs depuis début 2006 sans changement sur le fond, la moyenne/20 ans atteindrait 1.5°/20 ans que fin 2056 pour Hadley normes AR5 (2046 pour Berkeley et HadCW), pour une prévis AR5 RCP4.5 en 2042 pour Hadley AR5 ( prévis en 2038 pour un réchauffement de 0.7° comme base, donnée par les modèles et HadCW au lieu de 0.61° de Hadley) Je suis gentil de rester sur RCP 4.5 car les prévis pour du plus lourd, donnent ce seuil avec une autre référence qu'Hadley sans zone polaire, encore plus tôt pour des moyennes /10 ans. Les 2° en 2041 (prévis centrale ! au lieu de 2048 pour leur moyenne/10 ans) et les 1.5° (2027 ! avec un IC qui commence à 2015, mdr (Limite de l'IC à 2039 pour le réchauffement plus "laborieux"), donc 1.5° prévisible déjà de nos jours hors emballement par rapport aux prévis. Voir dans le tableau page 16 de la publication plus bas ) 1.5 ° /10 ans avec Hadley et le scénario plus chaud, c'est 2035 (il faudrait que ça arrive avant 2022 pour considérer un emballement avec cette série) http://iopscience.iop.org/article/10.1088/1748-9326/aab305/pdf Tamino qui est pourtant un statisticien es climato, militant pro réchauffement, sachant bien déterminer s'il y a un changement ou une accélération significative, qui a démonté très justement cette notion absurde non scientifique de hiatus, faux et totalement imaginaire, vu l'absence totale de significativité, en cas d'emballement ne sortirait pas des calculs et ces graphes qui indiquent très clairement qu'il n'y a rien de nouveau et de significatif sur le fond : https://climateyes.wordpress.com/2018/02/21/history-of-the-global-warming-trend-part-2/ L'évolution en moyenne sur 20 ans dans ce graphe de Tamino ici avec l'IC de la moyenne sur 20 ans et là avec en plus l'IP jaune des valeurs mensuelles (le bleu pour l'IP des valeurs annuelles) : Comparez la position des anomalies de 2017 avec ce qui s'est passé souvent haut perché dans le jaune vers les années 40... On voit comme le bruit a généré bien plus d'anomalies chaudes par rapport au fond que pendant ces mois récents malgré un forçage bien supérieur actuellement. Ici la comparaison d'un spécialiste des modèles montre aussi qu'on est loin de l'IC supérieur indiquant un éventuel emballement et plutôt dans la zone rouge où la moyenne/20 ans ciblée (barre noire) indicative avait été revue à la baisse avec les données 2006-2012 par rapport à celle des projections considérées plus robustes : http://www.climate-lab-book.ac.uk/comparing-cmip5-observations/ Soyez cohérents, car si vous nous parlez d'accélération, d'emballement du RC actuellement, alors vous auriez dû marteler avec la mini meute des négativistes et bien des scientifiques noyés dans le bruit, qu'il y avait bien plus qu'un hiatus avant 2014, mais un fort ralentissement du RC sur le fond dans ces années où les anomalies étaient à la ramasse hors IC inférieur du GWI, bien plus et plus souvent qu'en 2017 elles ne le sont dans le chaud par rapport au signal de fond observé ou prévu par les projections. Je ne pourrai répondre avant un bon moment, d'autant plus que je voudrais bien prendre le temps de répondre à un autre post sur un autre sujet.
  20. Pour changer cette année, record de neige pour un mois de mars et un printemps, ça se termine ici, chute de neige faible maintenant, 6 cm sur la planche. https://www.facebook.com/meteobesse.stationmeteo/videos/991304547701013/ Brignolais, en février 56, 109 cm de neige en 3 épisodes avec -20° de Tn dans un poste à Brignoles (maxi du Var 109.5 cm à Lorgues) et 20 jours consécutifs de neige au sol à Menton. Pour fixer les idées sur les différences nettes et la catastrophe que ce serait de nos jours : http://documents.irevues.inist.fr/bitstream/handle/2042/27267/RFF_1957_1_1.pdf http://www.persee.fr/docAsPDF/medit_0025-8296_1972_num_11_3_1449.pdf https://www.api-movie.fr/haut-var/l-hiver-1956-en-provence/
  21. Au final dans la nuit, 29 cm sur la planche à neige dont 25 cm en moins de 24h, c'est le nouveau record après les 21 cm de février 2001 (35 cm au niveau du support du SPIEA au sol, 38 cm de maxi dans le parc à instruments). T 1.3°. 80 km/h de vent maxi dans la nuit. Je viens de voir que c'est l'hiver le plus neigeux en quantité ici depuis l'ouverture, 60 cm (ancien record 34 cm ) https://www.facebook.com/meteobesse.stationmeteo/posts/979556155542519 Dans la nuit/soirée : https://www.facebook.com/pierre.leroy.contact/videos/10211094368338250/ https://www.facebook.com/meteobesse.stationmeteo/posts/979398022224999 https://www.facebook.com/meteobesse.stationmeteo/posts/979356258895842
  22. https://m.facebook.com/story.php?story_fbid=979356258895842&id=100004644305349&refid=17&__tn__=-R
  23. Vivement l'été et un 45° pour me consoler de ça à Besse :
×
×
  • Create New...