Aller au contenu
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Statistiques et anomalies climatiques globales


sirius

Messages recommandés

Ensuite le refroidissement n'est pas généralisé, il suffit de quelques zones plus froides que d'habitude pour faire chuter la moyenne, c'est souvent comme çà.

 

Je suis bien d'accord. Cette chute brutale est un indice que quelque chose se passe localement, mais je n'irais pas interpréter l'ampleur de la chute à la décimale près ou la tendance de fond depuis plusieurs mois.

Lien à poster
Partager sur d’autres sites

  • Réponses 5k
  • Créé
  • Dernière réponse

Les plus actifs

Les plus actifs

Messages populaires

Je reviens sur ce sujet mal placé dans le national car c'est global. "Le réchauffement climatique en pause : records de chaleur mondiaux, c'est fini !" http://www.lameteo.org/index.php/news/2822

Beaucoup d'erreurs élémentaires et incroyables pour des pro dans tout ce que je viens de lire, que ce soit dans l'édito de Fred sur "Où en est le RC", https://www.lameteo.org/index.php/news/3149-ou-en

Autre vision...les dernières 12000 années..   

Images postées

il y a 2 minutes, Cotissois 31 a dit :

 

 

 

Je suis bien d'accord. Cette chute brutale est un indice que quelque chose se passe localement, mais je n'irais pas interpréter l'ampleur de la chute à la décimale près ou la tendance de fond depuis plusieurs mois.

OK, sinon j'ai écrit à Levi Cowtan pour lui demander son avis sur la validité des données qu'il donne sur son site par rapport à NOAA et Hadley, par exemple, et si possible la base numérique correspondante.

Lien à poster
Partager sur d’autres sites

  • 2 weeks later...
Il y a 7 heures, Higurashi a dit :

Les émissions de carbone en Amazonie dues aux feux de forêts pourraient contrecarrer la réduction de celles liées à la déforestation.

 

https://www.carbonbrief.org/carbon-emissions-from-amazon-wildfires-could-counteract-deforestation

 

Je n'avais pas compris sur le coup.

La déforestation provoque des émissions de CO2.

La réduction, au cours des dernières années, de cette déforestation, a eu pour effet de diminuer ces émissions.

Le fait qu'il y ait d'avantage d'incendies aurait tendance à annuler cet effet.

 

Modifié par meteor
Lien à poster
Partager sur d’autres sites

Il y a 3 heures, meteor a dit :

 

Je n'avais pas compris sur le coup.

La déforestation provoque des émissions de CO2.

La réduction, au cours des dernières années, de cette déforestation, a eu pour effet de diminuer ces émissions.

Le fait qu'il y ait d'avantage d'incendies aurait tendance à annuler cet effet.

 

 

Tu es sûr qu'au cours de ces dernières années qu'il y a une réduction de la déforestation car j'ai toujours entendu l'inverse comme ici ??

 

Williams

Modifié par williams
Lien à poster
Partager sur d’autres sites

Il y a 10 heures, williams a dit :

 

Tu es sûr qu'au cours de ces dernières années qu'il y a une réduction de la déforestation car j'ai toujours entendu l'inverse comme ici ??

 

Williams

Oui ça remonte un peu très récemment.

On peut se demander aussi comment sont établis les chiffres de déforestation.

Par satellite, par statistiques nationales,...?

EDIT: apparemment c'est par images satellitaires (Amazonie notamment)

Modifié par meteor
Lien à poster
Partager sur d’autres sites

Anomalie globale de février 2018, selon NCEP, à 0.35°C par rapport à 1981-2010.

Au 4ème rang des plus chauds.

L'anomalie des SST s'est élevée à 0.16°C en forte baisse en début de mois mais en forte hausse à la fin.

Le système est revenu pour le moment dans la monotonie du RC à peine tempérée par une très faible Niña.

Il n'y pas de quoi se réjouir car on reste chaud bien sûr même si on s'est éloigné des valeurs très élevées de la bouffée chaude et même de certains mois de 2017.

L'Arctique est cependant toujours très préoccupant avec une anomalie de +3.6°C, quant à sa banquise se reporter au topic correspondant pour se faire une idée de son état désastreux.

Enfin on notera que ce qui nous "sauve" c'est l'hémisphère sud dont l'anomalie est restée proche de zéro.

Modifié par meteor
Lien à poster
Partager sur d’autres sites

Selon GFS, l'anomalie hémisphérique devrait chuter assez abruptement ces prochains jours, tirant l'anomalie globale vers le bas. Ça se rapproche un peu du schéma que l'on a observé en janvier dernier. 

 

1520780932-gfs-anomaly-timeseries-global

 

L'Arctique passerait en anomalie négative (moyenne sur 7 jours), ce qui est assez peu fréquent hors saison estivale pour être souligné.

 

1520781483-anom2m-mean-arctic.png

  • J'aime 1
  • Surprise 1
Lien à poster
Partager sur d’autres sites

Il y a 1 heure, thib91 a dit :

Dans un contexte de RC bien lancé c'est vraiment une curiosité de voir des cartes rivalisant avec les froids des années 50/60 ou 80. 

 

Je ne pense pas qu'on puisse parler de curiosité au sens physique du terme, mais peut-être plutôt du côté intuitif. C'est une chose sur laquelle on insiste trop peu à mon avis mais les records froids continueront à se produire ici et là sur le globe tout au long du siècle et même bien après. Les études qui s'intéressent à l’évolution des vagues de froid dans des scénarios de réchauffement relativement marqué produisent des résultats surement contre-intuitifs (comme l'absence de diminution de l'intensité de celles-ci dans certaines régions) mais ces résultats découlent de processus identifiables. D'ailleurs, ce serait d'autant plus étrange pour la population à la fin du siècle de voir l'apparition ponctuelle d'extrêmes froids alors que le processus de réchauffement serait bien plus avancé qu'actuellement. Par contre, l'asymétrie chaud/froid irait en grandissant. 

 

La préparation des pays face aux extrêmes froids ne doit donc pas être négligée comme précisé dans cette étude de 2011 par exemple.

 

 http://onlinelibrary.wiley.com/doi/10.1029/2011GL047103/abstract

Modifié par Higurashi
  • J'aime 3
Lien à poster
Partager sur d’autres sites

Le 14/03/2018 à 13:10, Higurashi a dit :

 

Je ne pense pas qu'on puisse parler de curiosité au sens physique du terme, mais peut-être plutôt du côté intuitif. C'est une chose sur laquelle on insiste trop peu à mon avis mais les records froids continueront à se produire ici et là sur le globe tout au long du siècle et même bien après. Les études qui s'intéressent à l’évolution des vagues de froid dans des scénarios de réchauffement relativement marqué produisent des résultats surement contre-intuitifs (comme l'absence de diminution de l'intensité de celles-ci dans certaines régions) mais ces résultats découlent de processus identifiables. D'ailleurs, ce serait d'autant plus étrange pour la population à la fin du siècle de voir l'apparition ponctuelle d'extrêmes froids alors que le processus de réchauffement serait bien plus avancé qu'actuellement. Par contre, l'asymétrie chaud/froid irait en grandissant. 

 

La préparation des pays face aux extrêmes froids ne doit donc pas être négligée comme précisé dans cette étude de 2011 par exemple.

 

 http://onlinelibrary.wiley.com/doi/10.1029/2011GL047103/abstract

 

Quelques jours après,  la météo vient illustrer tes dires.

Nancy vient ainsi d'enregistrer sa journée sans dégel la plus tardive d'après-guerre, il faut remonter à 1922 pour trouver des valeurs similaires plus tardives, c'est en quelque sorte un record de froid.

Modifié par thib91
  • J'aime 2
Lien à poster
Partager sur d’autres sites

L'écart entre les publications mensuelles de la NOAA et la NASA concernant l'anomalie de température mondiale moyenne pose quand même, à mon sens, un problème de plus en plus sérieux avec l'amplification polaire qui devient grandissante...

La NOAA classant Février à +0,65 ° C d'anomalie tandis que la NASA à +0,78°C. Un écart de plus d'un dixième quand même.

201802.gif

amaps-2.png?w=1300

On voit bien sur les cartes d'anomalies que la différence principale entre les instituts se situe au niveau du cercle Arctique (non pris en compte par la NOAA).

Alors oui la NOAA préfère par prudence ne pas extrapoler à partir des quelques stations météo disséminées dans le cercle Arctique les anomalies de températures là-bas, tandis que la NASA a fait ce pari qui peut paraître risqué ou biaisé même selon certains.

Mais lorsque ces quelques stations météo relèvent quand même des anomalies assez énormes (comme celle relevées au Nord du Groenland fin Février, cf topic suivi de l'englacement au pôle nord et topic suivi de la température en Arctique/Antarctique), on se dit que la NASA n'extrapole pas trop avec le gros rouge foncé affiché dans sa carte d'anomalie... 

Je ne sais pas si au sein de la NOAA il y a une discussion en ce sens, sur le fait de devoir prendre en compte un jour ou l'autre les anomalies de températures relevées en Arctique (mais dans ce cas là aussi en Antarctique, et d'ailleurs à ce propos la NASA a relevé des anomalies négatives là bas mais qui ne compensent pas l'énorme anomalie du cercle Arctique), mais je pense que cela devient vraiment important. Que ce soit en terme de communication auprès du grand public, qu'en terme de communication auprès des institutions et des décideurs. Un tel écart entre la NASA et la NOAA peut vraiment poser question à des néophytes du climat et du RC, et instiller le doute...

 

En attendant, ce graphique et les deux animations de Zack Labe montre bien l'enjeu de prendre en compte les anomalies de température de plus en plus importantes relevées en Arctique (par rapport au reste du globe) :

DYSFLKOV4AAN3DV.jpg:large

 

Edit : Savez-vous si il existe un programme visant à implanter davantage de stations météorologiques dans le cercle Arctique et dans le cercle Antarctique ?

Modifié par Yoann44
  • J'aime 1
Lien à poster
Partager sur d’autres sites

Il me semble assez probable que NOAA et Hadley travaillent sur la question et finissent par adopter la démarche NASA, ou assimilée.

Déjà Cowtan et Way ont ouvert le chemin.

Car, oui, si l'Arctique continue sur sa lancée, son "poids" dans l'anomalie globale va tangenter les 15%.

Une fois qu'on a enfoncé ces portes ouvertes, il faut admettre que ce n'est pas trop simple.

Les régions polaires sont très particulières dans leur genre.

Pour l'Antarctique on a un continent avec une altitude moyenne qui dépasse les 2000 m et pour l'Arctique, comment mesurer les SST sous la banquise?

Quelle est dans ces conditions la validité des extrapolations de la NASA?

 

Modifié par meteor
Lien à poster
Partager sur d’autres sites

Notons aussi le Berkeley Earth qui prend en compte l'anomalie aux pôles avec une méthode indépendante des autres instituts. http://berkeleyearth.org/land-and-ocean-data/. Sinon en arctique, il y'a un également un ensemble de bouées prises dans les glaces qui font des mesures de température de la surface et/ou de l'air au-dessus. http://iabp.apl.washington.edu/maps_daily_table.html

Modifié par Higurashi
  • J'aime 1
Lien à poster
Partager sur d’autres sites

Il y a 1 heure, Higurashi a dit :

Notons aussi le Berkeley Earth qui prend en compte l'anomalie aux pôles avec une méthode indépendante des autres instituts. http://berkeleyearth.org/land-and-ocean-data/. Sinon en arctique, il y'a un également un ensemble de bouées prises dans les glaces qui font des mesures de température de la surface et/ou de l'air au-dessus. http://iabp.apl.washington.edu/maps_daily_table.html

 

Oui mais si j'ai bien compris le texte et le tableau vert car les rouges ne donneraient plus de données, il n'y aurait que 3 ou 4 bouées qui donneraient réellement les SST en Arctique et encore pratiquement à la même latitude (entre 72 et 76°).

De plus ces bouées seraient mises en service depuis minimum 2016.

Difficile de pondre une anomalie dans ces conditions tout juste un suivi à condition qu'on soit sûr de leur fiabilité et qu'elles soient régulièrement étalonnées ce qui n'est pas forcément évident.

Après on peut envisager un melting pot de SST et de Ts, mais çà doit devenir un peu compliqué, je suppose.

A moins que je n'ai pas tout saisi, c'est fort possible, car je ne vois pas pourquoi autant de bouées (tableaux rouges) ne donneraient plus de données (problème de fiabilité?)

Modifié par meteor
Lien à poster
Partager sur d’autres sites

il y a une heure, meteor a dit :

 je ne vois pas pourquoi autant de bouées (tableaux rouges) ne donneraient plus de données (problème de fiabilité?)

 

Les bouées ont une durée de vie d'environ 1 an et demi, il y'a donc constamment des nouvelles qui sont déployées et d'autres qui arrêtent d’émettre (les tableaux rouges).  

Celles qui transmettent actuellement des données sur la température de surface (glace ou SST suivant leur position) :

 

1521813822-sstmap-current.png

  • J'aime 1
  • Merci 1
Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Relativement à un message assez lointain ici sur le choix de Hadley, ce sont les scientifiques et le GIEC aussi qui choisissent Hadley. Il y a quelques temps j'avais parlé d'un papier sur le GWI basé sur Hadley, où ils ont traité aussi le sujet des autres séries. Revoir les graphes du supplément du GWI selon les séries et les périodes de référence ( Hadley sans ou avec (CW) zone polaire prise en compte) :
https://static-content.springer.com/esm/art%3A10.1038%2Fs41598-017-14828-5/MediaObjects/41598_2017_14828_MOESM1_ESM.pdf

 


On peut voir les différences d'évolution en °C/siècle depuis 1970 (79 pour les sat) des différentes séries avec les bruits courants traités par Tamino avec sa méthode admise dans l'AR5 :
rates.jpg

 

Sinon contrairement à ce que je lis ici ou ailleurs, bien trop souvent pour cause de noyade dans le bruit (cette fois encore plus profondément pour les pro côté chaud), à l'échelle climatique minimale efficace des projections (donc pour des moyennes/20 ans), les obs sont toujours en retard sur la prévis moyenne de tous les modèles pour le scénario même assez gentil RCP 4.5.
Pas de palier supérieur, ni d'accélération significative au niveau statistique non plus pour la tendance de fond (avec les méthodes habituelles des pro) dans les obs, ni même en décortiquant aussi les données de leur fichier Excel du GWI ( http://globalwarmingindex.org/ ) avec les forçages pris en compte.
Il n'y a rien d'anormal dans les anomalies de T globales mensuelles relativement au RC de fond un peu plus chaud du GWI qu'un Loess / 60 ans, comme on le voit ici avec les données du GWI au 31/12/2017 sur lequel j'ai rajouté quelques bricoles :
GWIloess60.png

 


Même pendant le Nino 2016, les anomalies sont moins souvent hors normes par rapport au fond que pendant le Nino 98. C'est bien visible par rapport à l'IC à 95% du GWI ici :
AWI_AR5_new_SD.png


où on voit clairement qu'il n'y a que 3-4 valeurs hors IC du GWI pendant ce Nino contre près d'une dizaine pendant celui de 98 et près de 20 hors IC inférieur vers 2011 -2014 pendant le faux hiatus. Les anomalies mensuelles de 2017 sont dans l'IC pourtant restreint (car ce n'est pas l'IP de l'échelle mensuelle, mais l'IC du signal de fond), certaines flirtant avec l'IC inférieur et passant même dessous en fin d'année ( il faudra ajouter janvier et février dessous). Les anomalies sont moins souvent au-delà des +0.15° que le signal de fond que dans bien d'autres périodes passées et même que symétriquement sous -0.15° vers 2011-2014 pour le côté "froid"   ici en retirant le signal du GWI (à jour fin décembre) :
ecartmensuelgwi.png

 

On est aussi très loin de la fréquence de l'importance des décalages positifs des anomalies mensuelles vers les années 40 où le Loess/60 ans est pratiquement confondu avec le fond du GWI.
Regardez aussi les écarts des anomalies dans le positif par rapport au fond dans les années un peu avant 1880 alors que le forçage naturel assez neutre. Qu'est ce que vous auriez dit en 2016-2018 avec de tels écarts mensuels par rapport au fond ?


Regardez maintenant les pentes effectives prévues et observées du graphe déjà donné plus haut
GWIloess60.png


Le taux de pente calculé d'après le changement de la moyenne/20 ans, donc sans l'incertitude supplémentaire d'une tendance différente du modèle linéaire. Celle effective prévue d'après l'évolution de la moyenne/20 ans sur 2006-2025 de RCP 4.5 par rapport à leur référence 1986-2005. Calcul du taux effectif d'après les prévis pour la moyenne 2006-2025 déterminée à partir des moyennes/ 10 ans du tableau en annexe 2 page 1444 de l'AR5
projectionsAR5.png


Ex : Taux effectif  prévu en valeur centrale RCP 4.5 d'après la hausse de la moyenne/20 ans  2006-2025 = ((0.36 + 0.59)/2)/2 = 0.475/2 = 0.2375°/déc.
On voit bien la droite bleue, celle observée, au rythme actuel effectif de 0.176°/déc depuis 2006, est toujours en retard sur la rouge prévue et il faudrait encore d'assez nombreuses anomalies plus chaudes que la rouge pour continuer à compenser le retard pris depuis  2006 et pendant le faux hiatus où les anomalies étaient sous la bleue.

 

On peut voir clairement qu'on est très loin de l'emballement avec les moyennes observées sur 20 ans par rapport à la moyenne/20 ans prévue de l'ensemble de tous les modèles RCP4.5 :
rcp45preind074series.png

 

On remarque aussi avec l'échelle climatique minimale efficace que ça n'a pas vraiment de sens d'opposer les séries quand on part d'une base commune récente là où la détermination de la T est plus précise et moins différente, car il n'y a que 3 centièmes d'écart entre l'échantillon de climat le plus chaud (Berkeley et HadCW) et le moins chaud (Hadley). Les modèles RCP4.5 donnent 1.02°/20 ans fin 2017 contre 0.94° pour Berkeley et HadCW ,  0.91° pour Hadley.

 

L'AR5 utilise pour la période pré-industrielle un écart de -0.61° par rapport à leur moyenne de référence 1986-2005 (donc une normale de référence plus chaude de 0.61°. C'est ce que donnent aussi les anomalies Hadley dans leur fichier du GWI), mais c'est pour Hadley sans zone polaire. Vu les incertitudes et les différences entre les séries à cette époque et la non couverture polaire, à la place j'utilise une base moyenne commune pour toutes les séries, de -0.7° plus probable, car les modèles RCP4.5 indiquent une moyenne de -0.725° et HadCW  renvoie -0.675° au lieu de -0.61° de Hadley AR5. Si on utilisait directement la moyenne réelle spécifique de chaque série à l'époque comme référence, vu les différences d'estimation/précision avant 1900, on ne ferait que les propager vers la fin des courbes pour sortir ce genre de graphe avec un biais de comparaison,
rcp45188018994serie2017.png
laissant penser que les séries ne sont pas plus proches de nos jours (ce serait comme vouloir faire croire que la détermination de l'anomalie globale était plus précise et que les séries étaient moins différentes vers 1900 que vers 2005. Je n'ai pas effectué le calcul de la période de référence, j'ai simplement sélectionné directement les séries avec la période spécifique commune possible avec GISS (1880-1899) pour les  diverses séries dans l'explorateur de données du KNMI.)

 


Pour compenser le retard pris sur la prévis par le RC pendant 2006-2017, pour Hadley, il faudrait un taux effectif de 0.33°C/déc sur 2018-2025 ( 0.30°/déc pour les 2 séries les plus chaudes, Berkeley et HadCW) pour atteindre pile la prévis moyenne effective de 0.2375°/déc sur 2006-2025. Ca correspondra à une nouvelle augmentation de la moyenne/20 ans depuis fin 2017 de 0.264° pendant ces 8 ans en cours, alors qu'elle n'est montée "que" de 0.211° ces 12 dernières années (0.237° en 12 ans pour hadCW, il faut donc une hausse de 0.238° de hausse en 8 ans) donc il faut que le bruit, les forçages et/ou la sensibilité, leurs réactivités, donnent un coup de main plus puissant. L'évolution est donc encore très très loin de sortir de l'IC à 5% supérieur marquant la limite pouvant indiquer un emballement par rapport aux prévis des projections, vu que nous ne sommes même pas au niveau de la prévis moyenne ! (C'était d'ailleurs pareil pour le faux hiatus mais en étant pourtant plus proche de sortir de l'IC inf vu qu'à l'époque la moyenne/20 ans était bien plus loin de la prévis moyenne et plus proche de l'IC inf, c'est pour dire le biais chaud cognitif majeur des pro emballement actuellement alors que l'on rame encore pour rattraper simplement la moyenne des prévis RCP 4.5)


Pour que l'on considère un emballement d'ici 2025 par rapport aux prévis des projections, il faudrait une pente effective, de plus de 0.62°/déc (!) (0.59°/déc pour Berkeley/HadCW) sur ces 8 ans en cours, pour simplement rattraper la droite verte en pointillés d'ici 2025, donnée par l'IC sup à 5% des modèles RCP 4.5 du tableau donné plus haut (Il faudra plus que ça pour considérer l'emballement en ajoutant les IC des obs et des modèles pour pouvoir le dire d'après les obs de T, pour ce scénario). C'est pour dire que vous n'avez pas fini avec du bruit chaud de voir des emballements à gogo totalement inexistants même pour un simple rattrapage logique à venir dans le cadre du RC toujours aussi "pépère" sur le fond de la T de l'air, ou même pour afficher un écart identique côté positif à ce qu'il est actuellement côté négatif par rapport à la prévis moyenne, en vous acharnant à rester la tête profondément dans le bruit sans prendre de recul en regardant l'échelle minimale nécessaire.


Le problème c'est que des scientifiques qui s'ennuient avec l'échelle climatologique qui demande de la patience, continuent à induire en erreur les lecteurs avec leur comparaison chaque année d'une valeur annuelle bruitée (ou même mensuelle !) face aux projections pour les tester alors qu'elles ne sont pas du tout conçues pour l'échelle annuelle, ni même décennale, du moins quand on ne cherche pas à étudier/comparer très justement le bruit dans les modèles décennaux expérimentaux (à prendre avec des pincettes), à détecter un décalage par rapport au bruit,  traité (comme par ex par Tamino
compare.jpg?w=768&h=510


où le fait même qu'il reste du bruit dans ce graphe et au pas mensuel (courbe rouge "débruitée") aussi,

rawadj.jpg?w=768&h=510
malgré le retrait de l'estimation du poids des bruits courants, montre qu'il manque encore de précision et/ou qu'on ne connaît pas certains bruits et/ou  que la précision est insufisante pour certains forçages. Un commentaire de Tamino à ce sujet :

Citation

"There’s still fluctuation; we don’t know all the fluctuation factors and probably never will, and our estimates of the influence of the factors we do know about is bound to be imperfect. But we’ve accounted for the biggest known factors, making whatever trend exists clearer. Two of the biggest differences between original and adjusted data are in 1998 and 2016, which is no surprise; those years were affected not just by el Niño, but by big el Niño events."


),
ou simulé comme par ex avec le modèle de Météor.
Je ne conteste pas du tout que les anomalies aient été anormales bien des mois selon ce modèle très justement conçu pour suivre l'évolution finement avec le bruit simulé. Je conteste que cette anormalité est en fait très relative au modèle, elle ne l'est pas pour et sur le fond, car comme personne au monde ne maîtrise assez l'estimation et la connaissance du bruit et la mesure assez précise des divers forçages fins, la sensibilité et les constantes de temps, pour cette échelle fine, comme pour les projections, la moyenne sur 20 ans (30 ans aurait été mieux comme dans les rapports avant l'AR4, vu que des modèles donnent des plateaux possibles sur 20 ans à cause du bruit et non d'un problème/changement sur le fond) est justement nécessaire pour éviter ce problème qui laisse penser qu'il y a quelque chose d'anormal à l'échelle fine car trop mal cernée, alors que ce n'est pas le cas quand on va voir le fond tout en analysant le bruit aux échelles efficaces, avec ce que montrent les fréquences et importances des écarts par rapport au fond dans le passé de tous les relevés.


L'année 2017 est considérée neutre pour le bruit dans le modèle de Tamino car son modèle donne la valeur "débruitée" équivalente à la valeur observée (c'est donc d'autres bruits et/ou forçages, sensibilité ou autres, plus ou moins mal estimés, inconnus et/ou absents du modèle, qui ont décalé la valeur 2017 de la tendance linéaire centrale). Ca confirme que 2016 est une relative contre-performance malgré un Blob et le Nino, pas de Pinatubo comme quelques années avant 98. La valeur brute de 2016 aurait dû être bien plus haute et hors IP à l'échelle annuelle.

 

 

De même l'échantillon de climat minimal relatif aux projections fin 2017 est encore relativement loin des 1.5° / au niveau pré-industriel. Il est de 0.82°/20 ans pour Hadley normes AR5, 0.91° /aux normales pré-industrielles comparables d'une série à l'autre  (0.94° pour HadCW et Berkeley), mais ça n'empêche pas que certains pro nous sortent à tour de bras des comparaisons de valeurs mensuelles ou annuelles pour faire croire que nous sommes sur le point de dépasser le seuil de 1.5° beaucoup plus tôt que prévu (ce qui est faux, car c'est un seuil  donné pour une moyenne d'au moins 20 ans et non pour un pas annuel ou mensuel) entretenant côté chaud, la même confusion que les négativistes côté froid, des échelles météo et climatique, pour vous faire gober qu'un mois ou une année c'est équivalent à un échantillon de climat !

cmip5seuil15.png

)


Pour fixer les idées et calmer les hallucinations collectives sur l'emballement qui n'existe toujours pas malheureusement à ce jour pour la T de l'air à l'échelle climatique minimale, au rythme actuel effectif  des obs depuis début 2006 sans changement sur le fond, la moyenne/20 ans atteindrait 1.5°/20 ans que fin 2056 pour Hadley normes AR5 (2046 pour Berkeley et HadCW), pour une prévis AR5 RCP4.5 en 2042 pour Hadley AR5 ( prévis en 2038 pour un réchauffement de 0.7° comme base, donnée par les modèles et HadCW au lieu de 0.61° de Hadley)


Je suis gentil de rester sur RCP 4.5 car les prévis pour du plus lourd, donnent ce seuil avec une autre référence qu'Hadley sans  zone polaire, encore plus tôt pour des moyennes /10 ans. Les 2° en 2041 (prévis centrale ! au lieu de 2048 pour leur moyenne/10 ans) et  les 1.5°  (2027 ! avec un IC qui commence à 2015, mdr (Limite de l'IC à 2039 pour le  réchauffement plus "laborieux"), donc 1.5° prévisible déjà de nos jours hors emballement par rapport aux prévis.  Voir dans le tableau page 16 de la publication plus bas )
1.5 ° /10 ans avec Hadley et le scénario plus chaud, c'est 2035 (il faudrait que ça arrive avant 2022 pour considérer un emballement avec cette série)


http://iopscience.iop.org/article/10.1088/1748-9326/aab305/pdf


Tamino qui est pourtant un statisticien es climato, militant pro réchauffement, sachant bien déterminer s'il y a un changement ou une accélération significative, qui a démonté très justement cette notion absurde non scientifique de hiatus, faux et totalement imaginaire, vu l'absence totale de significativité, en cas d'emballement ne sortirait pas des calculs et ces graphes qui indiquent très clairement qu'il n'y a rien de nouveau et de significatif sur le fond :

rate2.jpg


piecewise.jpg

 

https://climateyes.wordpress.com/2018/02/21/history-of-the-global-warming-trend-part-2/

 


L'évolution en moyenne sur 20 ans dans ce graphe de Tamino ici avec l'IC de la moyenne sur 20 ans
uncertainty.jpg


et là avec en plus l'IP jaune des valeurs mensuelles (le bleu pour l'IP des valeurs annuelles) :
river.jpg


Comparez la position des anomalies de 2017 avec ce qui s'est passé souvent haut perché dans le jaune vers les années 40... On voit comme le bruit a généré bien plus d'anomalies chaudes par rapport au fond que pendant ces mois récents malgré un forçage bien supérieur actuellement.

 

Ici la comparaison d'un spécialiste des modèles montre aussi qu'on est loin de l'IC supérieur indiquant un éventuel emballement et plutôt dans la zone rouge où la moyenne/20 ans ciblée (barre noire) indicative avait été revue à la baisse avec les données 2006-2012 par rapport à celle des projections considérées plus robustes :
fig-nearterm_all_UPDATE_2018.png


http://www.climate-lab-book.ac.uk/comparing-cmip5-observations/

 

 

Soyez cohérents, car si vous nous parlez d'accélération, d'emballement du RC actuellement, alors vous auriez dû marteler avec la mini meute des négativistes et bien des scientifiques noyés dans le bruit, qu'il y avait bien plus qu'un hiatus avant 2014, mais un fort ralentissement du RC sur le fond dans ces années où les anomalies étaient à la ramasse hors IC inférieur du GWI, bien plus et plus souvent qu'en 2017 elles ne le sont dans le chaud par rapport au signal de fond observé ou prévu par les projections.

 

Je ne pourrai répondre avant un bon moment, d'autant plus que je voudrais bien prendre le temps de répondre à un autre post sur un autre sujet.

 

  • J'aime 2
  • Merci 6
Lien à poster
Partager sur d’autres sites

Merci pour ce post détaillé.

 

Il faut préciser quand même sur CMIP5.

Cela peut rassurer certains de voir qu'on est dans le bas de CMIP5 - RCP4.5

Mais personnellement, CMIP5 ne m'a jamais convaincu et je préfère CMIP3.

Ce n'est pas prétentieux de le dire, car on sait les conditions dans lesquelles CMIP est fait : cadence de production*, vérification faible (le climat ne permet pas une vérification poussée) et aucune possibilité de revenir en arrière pour optimiser la chose*. Pour un modélisateur météo, chaque nouveau CMIP est ce qu'on appelle une "version beta" ou "expérimentale", qui n'a rien à voir avec un modèle calibré et expérimenté comme on a en météo.

 

* Pour le rapport du GIEC de 2014, il fallait que les résultats CMIP5 soient distribuables aux autres groupes scientifiques dès mi 2010 ! (vu sur Internet, documents de l'IPSL)

Modifié par Cotissois 31
Lien à poster
Partager sur d’autres sites

CMIP3 + plusieurs reconstructions du réel  ( CMIP5 a le droit d'être oublié, même si c'est tabou de le dire maintenant, et il le sera avec CMIP6 )

 

cmp_cmip3_sat_ann.png

 

Modifié par Cotissois 31
  • J'aime 1
Lien à poster
Partager sur d’autres sites

Merci Christian pour ce rappel à l'ordre fort utile.

Attendre encore 20 ou 30 ans, c'est long surtout à mon âge.

Tant pis, on a déjà eu la démonstration par les faits que le hiatus était une fumisterie. On va s'en contenter

Ceci dit, si le réchauffement était moins fort que prévu, ça serait plutôt une bonne nouvelle, non? 

Je pense plutôt qu'il pourrait être moins rapide que prévu

 

Le point que soulève Cotissois à propos des CMIP 3 et CMIP5 vaut la peine qu'on s'y attarde u n peu.

Le simple fait qu'il y ait davantage de modèles impliqués dans CMIP5 suffit à disperser les projections : 12 groupes différents participaient à CMIP3 (pour 24 modèles puisqu'il y avait parfois plusieurs versions). Il y en avait 17 (toujours pour 24 modèles apparemment). On sait bien qu'utiliser la dispersion comme une mesure de l'incertitude  est un pis aller. Il a fallu se dépêcher pour ne pas dire plus pour être prêt à temps.  C'est vrai pour les deux exercices mais  les groupes de CMIP3 avaient (ont) de la bouteille. C'est peut être un peu moins le cas pour certains des nouveaux participants à CMIP5. 

De toute manière,les modèles sont plus ou moins bons . Ce n'est pas un crime de lèse majesté que de le dire. Il faut du temps pour y serrer les boulons (participer à toutes les intercomparaisons,  simuler les paléo climats etc..)

D'où l'idée de sélectionner ceux qui satisfont des contraintes diverses comme la représentation des variations dans l'espace et dans le temps du bilan radiatif  par exemple ou de toute autre variable observée.

 

Ceci dit, il y a eu des comparaisons CMIP3 CMiP5: tapez CMIP3 CMIP5 dans google et il en vient une tétrafloppée et il ne semnle pas que toutes concluent à la supériorité de cMIP3 (voir par exemple  ici ) 

  • J'aime 1
Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Cotissois, il faudrait voir l'évolution de la moyenne sur 20 ans observée par rapport à celle sur 20 ans CMIP3 , car CMIP3 est connu pour être plus chaud en évolution des moyennes/20 ans que CMIP5 (je parle bien pour les projections et pas avec les histoires de recadrage sur le hiatus et des prévis décennales). C'est probablement une illusion due au fait que ton graphe se termine en 2020 et à l'oeil fixé que sur le bruit chaud de la fin.

Sur 2011-2030 c'est donné 0.64° à 0.69° en valeur centrale / 1980-1999 . J'essaierai de voir avec CMIP3.

https://www.ipcc.ch/publications_and_data/ar4/wg1/en/ch10s10-3-1.html#table-10-5

 

Sinon ce n'était pas pour rassurer, mais qu'un constat des  obs à l'heure actuelle, qui ne montrent clairement pas d'accélération, mais en aucun cas de l'optimisme pour l'avenir de la courbe, vu qu'on bourre toujours à fond la chaudière.

Etant donné que le bout du fond du GWI insensible au bruit est strictement identique au niveau attendu par la moyenne/20 ans CMIP5 RCP 4.5 fin 2017,  ça signifie pour moi que du bruit avec le temps de réponse du système, finira probablement par permettre de rattraper la valeur centrale de ce scénario à un moment ou un autre, d'autant plus qu'avec les stats antérieures faites il y a des années ici, j'avais vu qu'il y avait un délai d'une vingtaine d'années (18 ans en valeur centrale) pour qu'un Loess / 60 ans colle au mieux  avec les forçages importants comme le CO2, comme s'il existait une genre de constante de temps globale de premier niveau pour que ces forçages dits instantanés se retrouvent un minimum assez bien brassés et homogénéisés pour être intégrés et restitués de façon minimale efficace assez globalement par l'ensemble du bruit et que ça colle mieux pour l'échelle climatique minimale. Mais bon ça me semble tordu physiquement.

 

  • J'aime 1
Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
  • En ligne récemment   1 membre est en ligne

×
×
  • Créer...