Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Statistiques et anomalies climatiques globales


Sam82

Messages recommandés

Alors c'est assez tendu en fait:

-l'ensemble du programme de 5° de géographie (1H30 par semaine) porte sur la notion de développement durable, et on y trouve deux chapitres "ménager l'atmosphère" et "la question de l'énergie". Donc ça baigne.

-sauf que: les deux questions sont séparées, mais qu'à l'inverse, ménager l'atmopshère regroupe la pollution de l'air et le réchaufement climatique. Surtout, les géographes sont touchés par le climato-scepticisme et Allègre a bonne presse notamment auprès d'un mandarin de fac le professeur Pitte et sa "société de géographie" qui a patronné en 2010 un ouvrage "le ciel ne va pas nous tomber sur la tête" à 15 signataires.

Comment expliquer ce relatif scepticisme?

J'insiste à trouver logique que le RCA ne soit pas un élément notable des programmes scolaires. Parler de développement durable, de préservation, de gestion de l'énergie. me paraît à peu près suffisant pour des jeunes de collège. Quant au scepticisme supposé de certaines corporations, il faudrait plutôt parler d'une conception différente des priorités. Des professeurs "illustres" peuvent se montrer sceptiques car ça leur donne une raison de se montrer. Les professeurs communs n'ont rien à prouver devant des élèves de 5e, ils essaieront juste de forcer 2-3 choses par coeur, de faire passer certaines notions et concepts, et tenter de leur communiquer un certain enthousiasme sur la discipline, autant que se peut.
Lien à poster
Partager sur d’autres sites

  • Réponses 5,1k
  • Créé
  • Dernière réponse

Les plus actifs

Les plus actifs

Messages populaires

Je reviens sur ce sujet mal placé dans le national car c'est global. "Le réchauffement climatique en pause : records de chaleur mondiaux, c'est fini !" http://www.lameteo.org/index.php/news/2822

Ok, je rajoute donc une couche dans la "censure" de cet énergumène...     Et du coup, Infoclimat va pouvoir me verser une prime supplémentaire.

Beaucoup d'erreurs élémentaires et incroyables pour des pro dans tout ce que je viens de lire, que ce soit dans l'édito de Fred sur "Où en est le RC", https://www.lameteo.org/index.php/news/3149-ou-en

Images postées

Posté(e)
Beauvoir (Manche/Mt st Michel

J'insiste à trouver logique que le RCA ne soit pas un élément notable des programmes scolaires. Parler de développement durable, de préservation, de gestion de l'énergie. me paraît à peu près suffisant pour des jeunes de collège. Quant au scepticisme supposé de certaines corporations, il faudrait plutôt parler d'une conception différente des priorités. Des professeurs "illustres" peuvent se montrer sceptiques car ça leur donne une raison de se montrer. Les professeurs communs n'ont rien à prouver devant des élèves de 5e, ils essaieront juste de forcer 2-3 choses par coeur, de faire passer certaines notions et concepts, et tenter de leur communiquer un certain enthousiasme sur la discipline, autant que se peut.

Je ne prône pas cela non plus; ce n'est pas la quantité qui fait problème dans mon esprit, c'est surtout que les enseignants ne savent pas si ce RCA est ou non une réalité; selon les interlocuteurs qu'ils rencontrent, ils peuvent varier. La culture d'un prof de géo sur des choses qu'il n'a pas étudiées et qui relèvent d'un savoir de sciences dures ne passe que par les media et les pairs. Et entre les "illustres" et la base/prof, il y a un interlocuteur majeur qui est le discours des corps d'inspection, or ce corps d'inspection s'inspire lui beaucoup plus que les profs de base de ce que publient les chercheurs de sa discipline.

Il faut préciser en outre que les profs de géo sortent de fac de lettres ou sciences éco/droit à leur écrasante majorité, la géo en France étant une science humaine. Les bases physiques du RCA ne sont accessibles aisément qu'aux profs de sciences nat (SVT) voire aux physiciens ce qui fait un flou de plus: à qui revient-il d'enseigner le RCA au delà de l'école primaire? Tout cela ne rend pas très sûr de sa légitimité sur son savoir le prof de géo et ne le pousse pas à développer ce sujet à l'excès je te rassure! mais le problème reste entier: "comment ne pas dire de bêtises en classe sur ce sujet" plus que "combien d'heures on en parle".

Lien à poster
Partager sur d’autres sites

Je ne prône pas cela non plus; ce n'est pas la quantité qui fait problème dans mon esprit, c'est surtout que les enseignants ne savent pas si ce RCA est ou non une réalité; selon les interlocuteurs qu'ils rencontrent, ils peuvent varier. La culture d'un prof de géo sur des choses qu'il n'a pas étudiées et qui relèvent d'un savoir de sciences dures ne passe que par les media et les pairs. Et entre les "illustres" et la base/prof, il y a un interlocuteur majeur qui est le discours des corps d'inspection, or ce corps d'inspection s'inspire lui beaucoup plus que les profs de base de ce que publient les chercheurs de sa discipline.

Il faut préciser en outre que les profs de géo sortent de fac de lettres ou sciences éco/droit à leur écrasante majorité, la géo en France étant une science humaine. Les bases physiques du RCA ne sont accessibles aisément qu'aux profs de sciences nat (SVT) voire aux physiciens ce qui fait un flou de plus: à qui revient-il d'enseigner le RCA au delà de l'école primaire? Tout cela ne rend pas très sûr de sa légitimité sur son savoir le prof de géo et ne le pousse pas à développer ce sujet à l'excès je te rassure! mais le problème reste entier: "comment ne pas dire de bêtises en classe sur ce sujet" plus que "combien d'heures on en parle".

raisonnement très juste. qui doit enseigner le RC (je ne parle même pas du RCA !). cela devrait s'apprendre, je pense, en cours de sciences naturelles, puisque c'est là qu'on y apprend notamment le cycle du carbone, le cycle de l'eau, etc... la cause anthropique, elle, devrait être enseignée en géo. sauf qu'on retombe ici dans ce que je disais dans un post précédent: chaque établissement pourrait choisir d'enseigner ou non le RC, et sur le RC d'enseigner ou non sa cause anthropique. à l'instar de l'enseignement évolutionisme/créationisme aux US... et là, vive la compréhension par les jeunes! qui de toute façon se le verront remettre en cause par leurs propres parents une fois rentrés à la maison...

c'est pas gagné.

à la rigueur, le meilleur enseignement qui pourrait exister, c'est d'avoir le nez dans la m**** dans quelques années. mais il sera trop tard.

Lien à poster
Partager sur d’autres sites

+1 Bernard,

Et je pense que la vision à la Jencovici (cout de l’énergie, taxe carbone) est la meilleur façon de décarboner le plus vite possible notre mode de vie.

Pb, on ne peux pas faire ça en France seulement (suicide economique), ça doit etre mondial.

Donc, comme ça n'arrivera pas, l'idée est de se comporter, a titre individuel, "comme si" l’énergie coutait 4 fois plus par exemple.

Dans mon modeste cas, ça a consisté a remplacer un vieille chaudière fioul par une pompe à chaleur aquathermique (COP réél annuel de 4,3 à 4,5), ce qui me libère chaque année des capitaux pour... Isoler encore mieux : cercle vertueux que beaucoup d'entre nous pourraient mettre en œuvre, et c'est rentable, surtout avec de l'huile de coude.

Pour l'auto, je limite mes déplacements (j'habite à pied de mon lieux de travail), je fait mes courses à pied, mes deplacement sont de l'ordre de 8000 km/an, raisonnable. Ma voiture (une essence d'1,4T qui crame 8l/100) sera avantageusement remplacée par un modèle de 900 kg à terme, pour le même service rendu.

J'achète beaucoup d'occasion (livres, déco...), ou du matos haut de gamme (electro-ménager qui dure en moyenne 25 à 30 ans), le plus possible fait en europe, voire en France, et pas plus cher à la fin des fins, en fait, c'est plus écolo.

Notre vote le plus puissant est celui du porte monnaie, Un groupe ne nous plait pas ? Faut pas acheter chez eux ! C'est pas toujours possible, certes, mais dans 80% des cas, si, et ces groupes, si puissants soient-ils, ne peuvent survivre à une telle baisse de chiffre d'affaire si on agissait en nombre de la sorte. Les grands intérêts privés ne sont puissants que grâce aux sous qu'on veux bien leur donner, ils sont malins, flattent les bas instincts "j'en veux plus pour moins cher", notre responsabilité est grande dans l’émergence de ces monstres apatrides, et leurs conséquences (conso energétique hyper accrue --> CO2)

L'actualité me fait rebondir par rapport à ce dernier paragraphe, car ce qui se passe dans l'agro-alimentaire ne peut laisser indifférent et montre bien les conséquences à boycotter brutalement un groupe tout puissant et cela a été bien sûr bien calculé.

Malheureusement ce n'est pas ceux qui sont à la tête de ces groupes bien puissants qui en subiront les conséquences mais les milliers de salariés qui ont été embauchés à une époque pour acheter la paix d'une région afin de les arrêter de faire sauter les relais de télévision et où on a développé une industrie agro-alimentaire basée sur la production à outrance, en passant outre la qualité en bourrant les bêtes censées nous nourrir d'antibiotiques et de "vitamines" avec les suspicions sur notre santé à consommer ces produits, et quitte à sacrifier l'environnement.

C'est clair que le consommateur commence à se poser des questions sur la qualité de ses produits, le problème c'est qu'il est face à un dilemme et qu'il risque de mettre des milliers de salariés au chômage (à cause de choix stratégiques purement mercantiles) s'il consomme brutalement plus intelligemment; et il restera en plus les algues vertes à gérer !

Lien à poster
Partager sur d’autres sites

Th 38, Cotissois 31

Dans un message précédent, je disais, sur l’estimation du GIEC dans l’AR4 de 2007 d’une tendance au réchauffement de 0,2 °C par décennie pour les 20 ans à venir : «Cette conclusion, dite robuste, est bien mal partie ».

He bien, le GIEC le pense aussi !

Il suffit de lire leurs écrits sur les projections à court terme, entre 1986-2015 et 2016-2035.

1ère version dans le SOD « fuité » en Décembre 2012, chapitre 11, page 4 et graphique 11.33 page 126 (souligné par moi):

« Projected Changes in Temperature

The global mean surface air temperature anomaly for the period 2016–2035 relative to the reference period of 1986–2005, will likely be in the range 0.4–1.0°C (medium confidence). This conclusion presumes that there are no major volcanic eruptions before or during 2016–2035 and no significant long term changes in total solar irradiance, but takes into account the RCP and SRES emissions scenarios, and also medium evidence that the CMIP5 models that warm most rapidly may be inconsistent with observations. It is consistent with the AR4 Summary for Policymakers statement that ‘For the next few decades a warming of about 0.2°C per decade is projected for a range of SRES emission scenarios’.

It is more likely than not that that actual warming will be closer to the lower bound of 0.4°C than the upper bound of 1.0°C (medium confidence). [11.3.6.3; Figure 11.33] »

2ème version dans le rapport final, Septembre 2013, chapitre 11, page 52 (souligné par moi) :

The observed hiatus has important implications for near-term projections of GMST. A basic issue concerns the sensitivity of projections to the choice of reference period. Figure 11.25b and c show the 5-95% ranges for CMIP5 projections using a 1986–2005 reference period (light grey), and the same projections using a 2006–2012 reference period (dark grey). The latter projections are cooler, and the effect of using a more recent reference period appears similar to the effect of initialization (discussed in Section 11.3.2.1.1 and shown in Figure 11.25c for RCP4.5). Using this more recent reference period, the 5–95% range for the mean

GMST in 2016–2035 relative to 1986–2005 is 0.36°C–0.79°C (using all RCP scenarios, weighted to ensure equal weights per model and using an estimate of the observed GMST anomaly for (2006–2012)–(1986–2005) of 0.16°C). This range may be compared with the range of 0.48°C–1.15°C obtained from the CMIP5 models using the original 1986–2005 reference period.”

Et page 120, graphique 11.25 (souligné par moi)

“Figure 11.25:

Synthesis of near-term projections of global mean surface air temperature (GMST). a) Projections of annual mean GMST 1986–2050 (anomalies relative to 1986–2005) under all RCPs from CMIP5 models (grey and coloured lines, one ensemble member per model), with four observational estimates (HadCRUT4:(Morice et al., 2012); ERA-Interim: (Simmons et al., 2010); GISTEMP: (Hansen et al., 2010); NOAA: (Smith et al., 2008)) for the period 1986–2012 (black lines). default_cool.png as a) but showing the 5–95% range of annual mean CMIP5 projections (using one ensemble member per model) for all RCPs using a reference period of 1986–2005 (light grey shade) and all RCPs using a reference period of 2006–2012, together with the observed anomaly for (2006–2012)–(1986–2005) of 0.16°C (dark grey shade). The percentiles for 2006 onwards have been smoothed with a 5-year running mean for clarity.

La référence à la conclusion robuste l’AR4 est supprimée. La fourchette finale est donnée entre 0,3 à 0,7°C. Elle est en concordance avec la diminution de la valeur de la tendance décennale prise en compte : 0,16°C au lieu de 0,2 °C (replacée dans la nouvelle zone gris foncé du graphique).

Les évolutions des prochaines années seront très intéressantes à suivre….

Lien à poster
Partager sur d’autres sites

Th 38, Cotissois 31

Dans un message précédent, je disais, sur l’estimation du GIEC dans l’AR4 de 2007 d’une tendance au réchauffement de 0,2 °C par décennie pour les 20 ans à venir : «Cette conclusion, dite robuste, est bien mal partie ».

He bien, le GIEC le pense aussi !

Quelle joie !

Texto, le GIEC avait écrit : "The committed warming trend values show a rate of warming averaged over the first two decades of the 21st century of about 0.1°C per decade, due mainly to the slow response of the oceans. About twice as much warming (0.2°C per decade) would be expected if emissions are within the range of the SRES scenarios."

Il ya quand même le "about".

Les derniers modèles prévoient 0.36°C–0.79°C au lieu de

0.48°C–1.15°C en 30 ans.

On est plus proche de 0.16 que de 0.2 en 20 ans.

Ok soit. Une "erreur" de 0.04 sur les derniers 20 ans. Quant aux prévisions qui ont un intervalle de confiance aussi large que la prévision elle-même, j'ai bien envie d'attendre 2035 pour en rediscuter. Les uns vont retenir la borne basse, les autres la borne élevée, les autres la moyenne de l'intervalle. Ca commencera à devenir plus clair quand tous les intervalles seront réduits. En attendant, il faut voir venir.

Lien à poster
Partager sur d’autres sites

Cotissois31,

Sur cet aspect, je n’emploierais pas le mot erreur. Que le Giec tienne compte des dernières tendances issues des mesures (0,16°C par décennie) et réévalue à la baisse ses estimations de réchauffement de surface sur 3o ans, entre 0,3 et 0,7°C (moyenne 0,5°C, soit 0,167°C par décennie) cela n’est pas critiquable, au contraire.

Ce qui me gêne plus et me pose question, c’est surtout l’emploi du terme « conclusions robustes » dans l’AR4 et le décalage avec les estimations issues des modèles dans l’AR5.

Dans le paragraphe, il est spécifié qu’initialement, l’estimation moyenne des modèles, sur la même période, était de 0,48 à 1,15°C, (moyenne 0,815°C soit 0,272°C par décennie). C’est nettement plus. Décalage conjoncturel ou structurel ?

Il est bien trop tôt pour se prononcer et je suis tout à fait d’accord pour dire qu’il n’y a aucune conclusion définitive à tirer avant la fin de période concernée. La réalité est le seul « juge ».

Troy master vient de sortir une analyse sur http://troyca.wordpress.com/2013/ :

A quel point les déclarations du Giec sur l’objectif des 2°C dans les scénarios RCP 4.5 et 6.0 sont prouvées ?

Un autre article sur le lien sciences et démocratie :

http://www.lemonde.fr/idees/article/2013/10/17/plus-de-science-pour-plus-de-democratie_3497896_3232.html

Lien à poster
Partager sur d’autres sites

En tous cas les habitants des Ile Kiribati ne se posent plus de questions sur la réalité du changement climatique et si le CO2 en est responsable, ils n'ont plus le luxe des palabres eux, au point qu'un habitant réclame le statut de réfugié climatique:

http://www.20minutes.fr/article/1237899/ynews1237899?xtor=RSS-176

Vidéo en fin d'article à regarder également

Lien à poster
Partager sur d’autres sites

En tous cas les habitants des Ile Kiribati ne se posent plus de questions sur la réalité du changement climatique et si le CO2 en est responsable, ils n'ont plus le luxe des palabres eux, au point qu'un habitant réclame le statut de réfugié climatique:

http://www.20minutes.fr/article/1237899/ynews1237899?xtor=RSS-176

Vidéo en fin d'article à regarder également

Effectivement . Merci pour le lien default_wink.png/emoticons/wink@2x.png 2x" width="20" height="20">

Ceux qui sont durement concernés, ou qui sont réalistes n'ont pas le temps de se toucher sur des détails.

Lien à poster
Partager sur d’autres sites

Cotissois31,

Ce qui me gêne plus et me pose question, c’est surtout l’emploi du terme « conclusions robustes » dans l’AR4 et le décalage avec les estimations issues des modèles dans l’AR5.

Mot à mot, la phrase de l'AR4 est exacte, même si elle n'aurait pas dû se retrouver dans ce paragraphe "conclusion robuste". Bon, il y a sans doute un certain enthousiasme à aller plus vite que la musique sur la prévision à court terme, alors qu'on sait bien que théoriquement c'est très très compliqué. Certains identifient çà comme une reconsidération éventuelle de la sensibilité, mais on est surtout dans l'oscillation. Les modèles prévoient des signaux croissants souvent lisses faiblement oscillants, mais ce n'est pas très réaliste.

Exemple :

http://www.homolog.us/blogs/wp-content/uploads/2012/07/Global_Warming_Predictions.png

A basic issue concerns the sensitivity of projections to the choice of reference period. Figure 11.25b and c show the 5-95% ranges for CMIP5 projections using a 1986–2005 reference period (light grey), and the same projections using a 2006–2012 reference period (dark grey).

Et donc, pourquoi la période de référence la plus récente donnerait les meilleurs résultats ?

C'est là où il faut être prudent. En modélisation des systèmes naturels, ça ne convaincra pas grand monde qu'une période de référence plus récente est plus fiable. Il faut surtout une période de référence longue. Là ça me laisse perplexe honnêtement.

Lien à poster
Partager sur d’autres sites

Cotissois 31 « Et donc, pourquoi la période de référence la plus récente donnerait les meilleurs résultats ?

C'est là où il faut être prudent. En modélisation des systèmes naturels, ça ne convaincra pas grand monde qu'une période de référence plus récente est plus fiable. Il faut surtout une période de référence longue. Là ça me laisse perplexe honnêtement. »

OK, on peut penser, qu’à priori, rien ne permet de dire que cela doit donner de meilleurs résultats et qu’une référence longue est préférable à une tendance courte.

Mais, si le Giec a pris l’initiative de changer de position par rapport à son premier projet SOD, en abaissant la tendance à court terme, tout en sachant l’interprétation qui pourrait en être donnée, cela a été mûrement réfléchi.

Si j’ai bien compris, le Giec a pris en compte des études récentes qui démontraient que la zone de confiance initiale, notamment dans sa partie supérieure, était incompatible avec le réchauffement passé (ex. Stott et al 2013).

On peut aussi le voir en zoomant sur le graphe 11.25 de la page 120 du chapitre 11. Les moyennes annuelles des températures de surface pour les années 2008, 2011, 2012 se retrouvent en dehors de la zone de confiance initiale (5%-95% en gris clair).

2013, sans doute supérieure à 2012, y sera peut-être encore.

Au-delà, c’est l’inconnue. La NOAA prévoit des conditions ENSO neutres pour le début 2014.

Dans le graphe 11.25, j’ai incorporé la prévision dite décennale du Met Office, en réalité sur seulement 5 ans pour la période Novembre 2012 à Octobre 2017 (courbe bleue). Sa barre de confiance est à moitié en dessous de la zone de confiance initiale (zone gris clair).

Ses valeurs annuelles moyennes prévues, restent au bord de la limite inférieure de la zone de confiance initiale.

Quelques années avec des mesures réelles, juste au bord ou en dessous d'une barre de confiance (5%-95%), c’est possible (1 fois sur 10 ou 20) et peut s’expliquer avec le cumul des incertitudes ou la variabilité naturelle. Mais si cela arrive plusieurs fois d’affilée et surtout se prolonge, la confiance dans la validité des projections des modèles sera plus qu'interrogée.

En recalant ses projections et sa barre de confiance vers le bas (zone gris foncé), le Giec les replace au plus près des valeurs de températures qu’il estime probable dans les 20 ans à venir (comme par exemple celles du Met Office).

Bien entendu, il faut attendre la fin de la période pour valider ce raisonnement. Même dans ce cas, on ne peut en tirer de conclusions définitives sur le long terme, au-delà des 20 ans à venir : ajustement conjoncturel (variabilité climatique et/ou cumul des incertitudes) ou structurel (surestimation initiale des modèles).

ps une image serait plus parlante, mais je ne sais comment l'intégrer dans le post. J'ai compris comment intégrer une image.

c4xt.jpg

Lien à poster
Partager sur d’autres sites

Personnellement je trouve que en faire autant pour si peu c'est exagéré, le Giec est tout à fait dans la fourchette qu'il a émise et à ce que je sache dans les années 95 personne avait fait un tel "scandale" parce que leurs estimations étaient en dessous de ce qui se passait réellement...

compare2.jpg

Après comme disait quelqu'un , avec des " et si cela , et si ceci " on ferait des lampes torches avec des poissons rouges quoi. Cela temporise peut être légèrement parce qu'on est dans une période de phases océanique négatives, mais comme le disait Treizevents, qu'on arrive récemment à avoir de tels valeurs malgré ça, ça laisse présager ce qu'on aura quand ça va repasser positif. Et la on blâmera le Giec de sous estimations ? Parce que oui, se rassurer en se disant que la courbe restera dans le bas de la fourchette c'est un acte de foi. La réalité on l'a sous les yeux chaque jour, et elle démontre que la tendance est toujours profondément présente.

Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Gpiton, avec les projections à court terme (2016-2035), c'est quand même une prévis intermédiaire entre les prévis décennales et les projections classiques de plus long terme, la confiance est moyenne, il y a encore trop de bruit pour sortir une prévis assez efficace avec les modèles actuels.

Dans le chapitre 11 (la fonction de limitation du nb de citations à 10 dans un message du forum est pénible, voici la 11 ème sans cadre) :

Key points are: 1) the uncertainty in near-term projections is dominated by internal variability

and model spread. This finding provides some of the rationale for considering near-term projections

separately from long-term projections.

Même si c'est du court-terme, ces projections ne sont pas initialisées avec les les obs :

11.3 Near-Term Projections

11.3.1 Introduction

In this section the outlook for global and regional climate up to mid-century is assessed, based on climate

model projections. In contrast to the predictions discussed in 11.2, these projections are not initialized using

observations; instead, they are initialized from historical simulations of the evolution of climate from preindustrial

conditions up to the present. The historical simulations are forced by estimates of past

anthropogenic and natural climate forcing agents, and the projections are obtained by forcing the models

with scenarios for future climate forcing agents. Major use is made of the CMIP5 model experiments forced

by the RCP scenarios discussed in Chapters 1 and 8. Projections of climate change in this and subsequent

chapters are expressed relative to the reference period: 1986–2005. In this chapter most emphasis is given to

the period 2016–2035, but some information on changes projected before and after this period (up to midcentury)

is also provided. Longer-term projections are assessed in Chapters 12 and 13.

Key assessment questions addressed in this section are: what is the externally forced signal of near-term

climate change, and how large is it compared to natural internal variability?

Dans le graphe 11.25 de l'AR5 (TS.14 dans le résumé) de l'article que tu pointes dans un message précédent, je ne vois pas l'IC sup de l'obs, sortir de l'IC à 90 % du graphe central (et donc encore moins de l'IC classique à 95% absent),

post-8-0-74302700-1382715730_thumb.png

donc même si ce n'est pas loin de sortir, on ne peut pas dire objectivement que c'est sorti, d'autant plus que la valeur modèle représentant la limite à 90%, a aussi son propre IC qu'on ne montre pas dans ce graphe (cette valeur limite est plus incertaine que ne le sera l'obs pile à ce même niveau)

On ne peut pas exclure des scénarios, vu que pendant cette période, ça ne fait pas vraiment de différences :

This chapter describes current scientific expectations for ‘near-term’ climate. Here ‘near term’ refers to

climate from the present to mid-century during which the climate response to different emissions scenarios is

generally similar. Greatest emphasis is given to the period 2016–2035, though some information on

projected changes before and after this period (up to mid-century) is also assessed.

En 2030, il n'est pas prévu d'écarts importants à cause des scénarios. C'est plus une histoire de différences de modèles que de scénarios :

n the near-term, differences in global mean surface air temperature across RCP scenarios for a single

climate model are typically smaller than across climate models for a single RCP scenario. In 2030, the

CMIP5 ensemble median values differ by at most 0.2ºC between RCP scenarios, whereas the model spread

(17–83% range) for each RCP is about 0.4ºC. The inter-scenario spread increases in time: by 2050 it is

0.8ºC, whereas the model spread for each scenario is only 0.6ºC. Regionally, the largest differences in

surface air temperature between RCP2.6 and RCP8.5 are found in the Arctic. [11.3.2.1.1, 11.3.6.1, 11.3.6.3,

Figure 11.24ab, Table AII.7.5]

On peut voir dans la synthèse des projections à court-terme du chapitre 11, que pour la période 2012-2035, on a même un IC inférieur à 90% qui tombe à 0.11°/déc (donc une tendance moindre avec l'IC à 95 % classique) :

(7) In view of the sensitivity of projections to the reference period it is helpful to consider the likely rate of

change of GMST in the near-term. The CMIP5 5-95% ranges for GMST trends in the period 2012–2035 are

0.11°C–0.41°C per decade. This range is similar to, though slightly narrower than, the range found by

Easterling and Wehner (2009) for the CMIP3 SRES A2 scenario over the longer period 2000–2050. It may

also be compared with recent rates in the observational record (e.g., ~0.26°C per decade for 1984–1998 and

~0.04°C per decade for hiatus period 1998–2012; See Box 9.2). The RCP scenarios project that ERF will

increase more rapidly in the near-term than occurred over the hiatus period (see Box 9.2 and Annex II),

which is consistent with more rapid warming. In addition, Box 9.2 includes an assessment that internal

variability is more likely than not to make a positive contribution to the increase in GMST in the near-term.

Internal variability is included in the CMIP5 projections, but because almost all the CMIP5 models do not

capture the hiatus, the distribution of CMIP5 near-term trends will not reflect this assessment and might, as a

result, be biased low. This uncertainty, however, is somewhat counter balanced by the evidence of point (5),

which suggests a high bias in the distribution of near-term trends. A further projection of GMST for the

period 2016–2035 may be obtained by starting from the observed GMST for 2012 (0.14°C relative to 1986–

2005) and projecting increases at rates between the 5–95% CMIP5 range of 0.11°C–0.41°C per decade. The

resulting range of 0.29°C–0.69°C, relative to 1986–2005, is shown on Figure 11.25©.

Ca signifie de fait que même avec une tendance nulle et ses IC classique sur la période 2012-2035, on ne pourra même pas affirmer que c'est incompatible avec la prévis.

Même en raisonnant à partir de l'AR4 et des 0.2°/déc/30 ans (soit +0.6°/30 ans pour la moyenne climatique), une tendance /30 ans est connue à au mieux 0.05° près (statistiquement, sans même combiner les incertitudes de mesures et de la détermination de la T globale), donc un peu moins incertaine que celle /24 ans (comme 2012-2035), il faudrait une tendance de moins de 0.1°/déc/30 ans pour pouvoir indiquer que la tendance prévue ( celle de 0.2°/déc/30 ans) est incorrecte, alors qu'en testant les changements à partir des 2 moyennes/30 ans indépendantes, on détectera plus facilement, si la valeur observée est compatible ou non avec l'évolution la moyenne/30 ans.

Il faut bien faire la distinction entre la prévis climatique ( qui est le changement de l'état moyen/30 ans) et une tendance sur 30 ans, qui elle, n'est équivalente qu' à une comparaison de 2 moyennes/15 ans. C'est une tendance/60 ans qui représente l'évolution climatique, car c'est la première tendance d'échelle climatique qui recouvre au moins 2 échantillons de climat.

Une tendance/30 ans permet en général de distinguer le signal forcé hors de la variabilité naturelle, mais vraiment pas celle de l'évolution du climat, cible des modèles. Quand tu traces une tendance sur 7 ans, c'est comme comparer 2 moyennes / 3.5 ans..., quelque "peu" bruitées.

A noter qu'il suffirait de relever une tendance de 0.23°/déc /2013- 2030, pour que la valeur tombe pile sur la prévis de 0.2°/déc (avec GISS), ce qui est encore largement faisable, étant donné que sur 92-2006, donc sur 15 ans, cette série a affiché une tendance de 0.28°/déc (cette fois on partirait d'un niveau relativement bas à cause du surplus de Nina et non plus à cause d'un volcan)

Se servir de tendances partielles ou même d'une complète sur un seul échantillon de climat qui contient 30 années, ça n'a pas d'autre sens que d'analyser des variations dans l'échantillon lui-même. Ce n'est pas l'évolution du climat étant donné qu'il est impossible de voir l'évolution sans comparer moins 2 échantillons de 30 ans (que ce soit avec des moyennes ou des tendances, il faut 60 ans de données)

On peut prendre un exemple local réel assez comique pour celui qui serait obnubilé que par une tendance complète sur un seul échantillon et qui refuserait de comparer au moins 2 échantillons.

Avec une Tx moyenne mensuelle phénoménale de 38.0° en août 2003 dans une station MF à Draguignan (fermée depuis), malgré la tendance fortement négative des Tx sur l'ensemble des 31 jours de ce mois (-2.6°/décade, donc -8.1°/31j pour tout ce mois bouillant !), ça ne signifie pas pour autant que la Tx moyenne d'août 2003, est devenue plus froide ou stable par rapport aux autres mois d'août. C'est le mois d'août le plus chaud en Tx jamais enregistré, sans qu'on puisse le savoir si on reste fixé uniquement sur cette tendance pourtant complète sur l'échantillon, en oubliant de consulter un ou d'autres échantillons de moyennes/31 j représentant un ou des autres mois d'août à comparer pour chercher une évolution !

Quand on compare deux moyennes/20 ans, pour suivre l'évolution du climat, c'est mieux que de tirer une tendance sur 20 ou 30 ans, mais il manque quand même 20 ans de données. Je ne comprends d'ailleurs toujours pas pourquoi (vu que je ne suis pas tombé sur l'explication dans l'AR5) le GIEC est encore sur 20 ans alors qu'à l'époque de l'AR4, les scientifiques n'étaient déjà pas chauds pour utiliser cette durée, d'autant plus que l'AR5 martèle toujours la même chose sur la durée de base pour le pas climatique minimal cible des modèles climatiques :

1.2.2 Key Concepts in Climate Science

Here, some of the key concepts in climate science are briefly described; many of these were summarized

more comprehensively in earlier IPCC assessments (Baede et al., 2001). We only focus on several of them to

facilitate discussions in this assessment.

First of all, it is important to distinguish the meaning of weather from climate. Weather describes the

conditions of the atmosphere at a certain place and time with reference to temperature, pressure, humidity,

wind, and other key parameters (meteorological elements), the presence of clouds, precipitation, and the

occurrence of special phenomena, such as thunderstorms, dust storms, tornados, etc. Climate in a narrow

sense is usually defined as the average weather, or more rigorously, as the statistical description in terms of

the mean and variability of relevant quantities over a period of time ranging from months to thousands or

millions of years. The relevant quantities are most often surface variables such as temperature, precipitation

and wind. The classical period for averaging these variables is 30 years, as defined by the World

Meteorological Organization. Climate in a wider sense also includes not just the mean conditions, but also

the associated statistics (frequency, magnitude, persistence, trends, etc.), often combining parameters to

describe phenomena such as droughts. Climate change refers to a change in the state of the climate that can

be identified (e.g., by using statistical tests) by changes in the mean and/or the variability of its properties,

and that persists for an extended period, typically decades or longer.

Dans la FAQ aussi :

There are fundamental limits to just how precisely annual temperatures can be projected, because of the

chaotic nature of the climate system. Furthermore, decadal-scale projections are sensitive to prevailing

conditions—such as the temperature of the deep ocean—that are less well known. Some natural variability

over decades arises from interactions between the ocean, atmosphere, land, biosphere and cryosphere, and is

also linked to phenomena such as the El Niño-Southern Oscillation (ENSO) and the North Atlantic

Oscillation (see Box 2.5 for details on patterns and indices of climate variability).

Volcanic eruptions and variations in the sun's output also contribute to natural variability, although they are

externally-forced and explainable. This natural variability can be viewed as part of the ‘noise’ in the climate

record, which provides the backdrop against which the ‘signal’ of anthropogenic climate change is detected.

Natural variability has a greater influence on uncertainty at regional and local scales than it does over

continental or global scales. It is inherent in the Earth system, and more knowledge will not eliminate the

uncertainties it brings. However, some progress is possible—particularly for projections up to a few years

ahead—which exploit advances in knowledge of, for instance, the cryosphere or ocean state and processes.

This is an area of active research. When climate variables are averaged over decadal time scales or longer,

the relative importance of internal variability diminishes, making the long-term signals more evident

(FAQ1.1, Figure 1). This long-term perspective is consistent with a common definition of climate as an

average over 30 years.

Là encore dans l'AR5 à l'occasion de la mise en avant d'une tendance sur 23 ans (1990-2012), il est bien indiqué que les projections des modèles ne sont pas faites pour ces échelles temporelles courtes :

1.3.1 Global and Regional Surface Temperatures

Observed changes in global mean surface air temperature since 1950 (from three major databases, as

anomalies relative to 1961–1990) are shown in Figure 1.4. As in the prior assessments, global climate

models generally simulate global temperatures that compare well with observations over climate timescales

(Section 9.4). Even though the projections from the models were never intended to be predictions over such

a short time scale, the observations through 2012 generally fall within the projections made in all past

assessments. The 1990–2012 data have been shown to be consistent with the FAR projections (IPCC,

1990), and not consistent with zero trend from 1990, even in the presence of substantial natural

variability (Frame and Stone, 2013).

(Petite parenthèse : Par rapport à la discussion sur Tamino dans un sujet plus haut, j'ai vu qu'un peu plus bas que ce paragraphe plus haut, sa méthode de traitement du bruit est considérée comme valide par le GIEC (Rahmstorf et al., 2012, c'est la mise à jour de FR 2011) vu qu'ils l'utilisent dans l'AR5 :

In summary, the trend in globally-averaged surface temperatures falls within the range of the previous IPCC

projections. During the last decade the trend in the observations is smaller than the mean of the projections

of AR4 (see Section 9.4.1, Box 9.2 for a detailed assessment of the hiatus in global mean surface warming in

the last 15 years). As shown by Hawkins and Sutton (2009), trends in the observations during short-time

scale periods (decades) can be dominated by natural variability in the Earth’s climate system. Similar

episodes are also seen in climate model experiments (Easterling and Wehner, 2009). Due to their experimental design these episodes cannot be duplicated with the same timing as the observed episodes in

most of the model simulations; this affects the interpretation of recent trends in the scenario evaluations

(Section 11.2). Notwithstanding these points, there is evidence that early forecasts that carried formal

estimates of uncertainty have proved highly consistent with subsequent observations (Allen et al., 2013). If

the contributions of solar variability, volcanic activity and ENSO are removed from the observations the

remaining trend of surface air temperature agree better with observations (Rahmstorf et al., 2012).

)

Donc ce n'est donc pas parce-que le GIEC nous communique des graphes et prévis avec des valeurs moyennes/1 an, /20 ans ou des tendances /10 ans, que la cible de la prévis et la capacité efficace des modèles sont annuelles, décennales, internes à une période de 30 ans. Ce ne sont pas des modèles décennaux, qui eux ne sont qu'expérimentaux et insuffisants d'après tous les scientifiques (le consensus est de 100%, à part comme d'habitude chez les négativistes qui sortent les ratés des prévis expérimentales des modèles décennaux pour faire croire que les modèles climatiques sont bidons, car leur spécialité est de mélanger volontairement les échelles temporelles)

FAQ du chapitre 11 :

Climate scientists do not attempt or claim to predict the detailed future evolution of the weather over coming seasons, years or decades...

....However, decadal prediction, unlike weather and seasonal-to-interannual prediction, is still in its infancy.

....Current research is aimed at improving decadal prediction systems, and increasing the understanding of the reasons for any apparent skill.

D'après les calculs de ton message du 10 octobre, tu avais indiqué des valeurs les moins probables pour 2016-2035 / 1986-2005. L' AR 5 indique ici ce qui est le moins probable pour l'évolution de la moyenne de 2016-2035 :

In the near term (2016-2035), global mean surface warming is more likely than not to exceed 1°C and very

unlikely to be more than 1.5oC relative to preindustrial (assuming 0.61°C warming has occurred prior to

1986–2005) (medium confidence).

Donc le réchauffement le plus probable de la moyenne/20 ans en 2016-2035 (avec une confiance moyenne, donc dans l'absolu, la proba n'est pas fameuse) serait d'au plus 0.39° (1° - 0.61° ; 0.61°+-0.06°, c'est l'anomalie de 86-2005 donnée par l'AR5)

J'ai regardé pour la série au pas annuel GISS, je trouve une anomalie de 0.4° pour 1986-2005 sans arrondir, avec l'IC à 95% [0.33° ; 0.47° ] .

Sur 2006-2012, la moyenne des anomalies est de 0.584°, IC à 95% [0.534° ; 0.635°]

Donc le réchauffement de cette petite moyenne est déjà statistiquement significatif, malgré le bruit à ces échelles courtes.

Pour la tendance climatique de fond, il y a un graphe de l'AR5 intéressant pour l'estimer assez bien sur 61 ans, vu qu'on nous donne la période où la tendance des forçages naturels est nulle (avec des IC particulièrement faibles), sur 1951-2011 :

tendance%20de%20fond1951-2011.png

La tendance de fond est de 0.126°/déc +-0.028° avec GISS.

On ne peut pas faire mieux, car non seulement c'est la tendance minimale d'échelle climatique qui recouvre 2 échantillons de climat, mais en prime de fait elle prend en compte une éventuelle oscillation d'environ 60 ans (donc par définition influence quasi-nulle pour le fond, sur la période complète)

Si on regarde la période précédente de 61 ans, 1890-1950, la tendance est de 0.061°/déc +-0.019° (hausse faible mais déjà significative d'un RC) et elle est significativement différente la tendance 1951-2011. Il est donc très improbable que la tendance climatique de fond sur 60 ans descende significativement sous l'actuelle, il est bien plus fortement probable que la tendance climatique de fond /61 ans augmente significativement au delà de celle enregistrée (0.126°/déc), vu le changement sur le fond avec un forçage moindre et des rétroactions minimes dans une bonne partie de cette période (ceci pour un même forçage naturel nul, qui n'est pas garanti pour les 60 prochaines années)

ic20162035.png.8c0be2703f636f255e040e0ab

Lien à poster
Partager sur d’autres sites

traqueurdefoudres

Votre ton, vos « allusions » et arguments laissent à penser que vous n’êtes pas un scientifique et interrogent sur votre crédibilité ….

Je préfère, et de loin, ce que dit Ed. Hawkins (Lien déjà cité dans post #1325).

Je ne suis d’accord que sur un point : avec des «si» on peut faire beaucoup de choses….

Par exemple, « si », comme vous, on présente une courbe comparative de tendance démarrant en 1990, tout en omettant de dire que les courbes représentant les mesures de températures réelles on été décalées volontairement d’environ 0,1°C, alors on change la conclusion. En plus, cette courbe n’est pas dans le rapport du GIEC, contrairement à celle que j’ai évoquée avec ses références (post #1337) qui démarre en 1986, dans une influence ENSO en zone neutre.

Avec des « si », on peut aussi établir chaque scenario du GIEC, car ce sont des scenarios prospectifs basés sur des hypothèses, ce qui est une méthode pertinente :

-

« Si » la concentration du taux de CO2, comme celles des autres gaz à effet de serre, passe de tant à tant en 2100,

-

« Si » la concentration des aérosols directs diminue de tant à tant jusqu’en 2100, ce qui atténuerait leur «effet refroidisseur»,

-

« S’il » n’y a pas de grandes éruptions volcaniques entraînant un effet refroidisseur,

-

« Si » le cumul des forçages et des rétroactions conduit, en cas de doublement de la concentration du CO2, à une ECS moyenne (sensibilité climatique à l’équilibre) de 3,2°C (moyenne des valeurs utilisées dans les modèles informatiques dans une plage probable située entre 1,5 à 4,5°C),

-

« Si », etc. (liste non exhaustive)

-

«Alors», la moyenne mondiale de la température de la surface terrestre sera augmentée de tant à tant en 2100 (par exemple 1,4°C à 3 ,1°C, soit 2,2°C en moyenne pour la période 2081-2100 dans le scénario RCP6.0).

Christian pierre, merci de vos commentaires.

En effet, la prévision décennale, pour l’instant n’est pas encore fiable. Je ne suis pas sûr qu’elle le soit un jour, car il faudrait prévoir, notamment, l’évolution précise de l’Enso plus de 10 ans à l’avance.

Pourtant, le Metoffice dit le contraire avec son modèle réinitialisé Depresys et pense le prouver avec ses prévisions « retrospectives »…. (lien http://www.metoffice.gov.uk/research/climate/seasonal-to-decadal/long-range/decadal-fc

).

Mon ajout sur la prévision quinquennale du Metoffice voulait montrer qu’elle était en phase avec la nouvelle tendance proposée par le Giec, mais pas avec l’ancienne, sans plus. C’était à titre illustratif, pas comme une preuve, car il est évident que l’on ne peut comparer statistiquement des données qui ne sont pas établies pour être comparées.

Je constate qu’il y a un faisceau d’indices expliquant le recalage, fait par le Giec, de ses projections et de leur barre de confiance vers le bas (zone gris foncé), en les replaçant au plus près des valeurs de températures qu’il estime probable dans les 20 ans à venir.

Ed Hawkins pense que des comparaisons modèles/réalités, à court terme, sont possibles, à condition de prendre beaucoup de précautions.

Il est l'un des auteurs du GIEC AR5 et un membre du Groupe directeur scientifique du CLIVAR. Ses intérêts de recherche portent sur ​​la variabilité décennale et la prévisibilité du climat, en particulier dans la région de l'Atlantique, et à quantifier les différentes sources d'incertitude dans les prévisions climatiques et les impacts. Il a, entre-autres, participé à l’étude Stott et al 2013 citée par le Giec.

Fin de l’abstract : « Nos résultats indiquent que pour chaque RCP l'extrémité supérieure de la fourchette des projections CMIP5 des modèles climatiques est incompatible avec le réchauffement passé.». (Lien

http://iopscience.iop.org/1748-9326/8/1/014024

)

Que dit-il dans son blog ? (Lien http://www.climate-lab-book.ac.uk/2013/near-term-ar5/

), souligné par moi :

«La période à court terme est intéressante parce que les projections peuvent être vérifiés assez rapidement et parce que la compréhension des changements au cours de cette période peut être pertinente pour la prise de décision d'adaptation.

Cette période est aussi relativement insensible aux scénarios particuliers d'émissions, bien que les émissions d'aérosols diminuent très rapidement dans tous les RCP, ce qui peut être légèrement irréaliste. Toutefois, le court terme est compliqué en raison du rôle de la variabilité du climat.».

Sur le graphe 11.25 : « Le panneau du bas montre l'évaluation, y compris les plages d'incertitude 5-95% des simulations brutes en utilisant deux périodes de référence - 1986-2005 (gris clair) et 2006-2012 (gris foncé). Les observations et leurs incertitudes sont également représentées. La zone hachurée rouge indique une prévision indicative «probable» (> 66%) pour la température de surface moyenne mondiale au cours de 2016-2035 et la barre noire montre l'étendue probable évaluée pour la moyenne de 2016 à 2035 qui est 0,3-0,7 ° C au-dessus de la moyenne de 1986 à 2005. Cette évaluation est faite avec «confiance moyenne»

Plus loin, «Notez que les observations pour 2012 sont tout simplement hors de la plage 5-95% par rapport aux simulations».

Sur la prise en compte d’une base de 20 ans, n’y a-t-il pas la volonté de pouvoir évaluer en retardant le moins possible l’échéance ?

Sinon, il faudrait prendre, comme deuxième période 2016-2045. 2035, c’est déjà loin, alors 2045…. ou alors prendre 1976-2005 et 2006-2035….

Pour la tendance de fond, j’utilise une autre méthode qu’un calcul statistique sur les données brutes. Je retire des mesures réelles mensuelles de températures, l’influence du soleil, des volcans, de l’Enso et de l’Amo (même si ce dernier est encore sujet à caution, mais c’est celui qui représente le moins mal une oscillation multi-décennale). Sur les 45 dernières années, j’obtiens, par régression linéaire, une tendance sous-jacente de fond d’environ 0,13°C par décennie (entre 0,13 et 0,135°C), un peu supérieure à votre calcul de tendance fait sur une période plus longue. C’est simplement indicatif. En plus, rien ne prouve que la tendance de fond soit linéaire….

Lien à poster
Partager sur d’autres sites

traqueurdefoudres

Votre ton, vos « allusions » et arguments laissent à penser que vous n’êtes pas un scientifique et interrogent sur votre crédibilité ….

Je préfère, et de loin, ce que dit Ed. Hawkins (Lien déjà cité dans post #1325).

Je ne suis d’accord que sur un point : avec des «si» on peut faire beaucoup de choses….

Par exemple, « si », comme vous, on présente une courbe comparative de tendance démarrant en 1990, tout en omettant de dire que les courbes représentant les mesures de températures réelles on été décalées volontairement d’environ 0,1°C, alors on change la conclusion.

Je n'ai jamais prétendu être un "scientifique", au passage wink.png Mais jusqu'à preuve du contraire il n'est pas demandé d'avoir un badge académique pour exposer des faits sur un forum, surtout quand ceux ci proviennent d'une personne qui s'y connait particulièrement bien dans le domaine ( Tamino ).

Le graphique que j'ai posté est la version la plus correcte des événements. Le comment du pourquoi a été expliqué sur le blog de Tamino avec une démonstration. http://tamino.wordpress.com/2012/12/20/fake-skeptic-draws-fake-picture-of-global-temperature/

Lien à poster
Partager sur d’autres sites

Posté(e)
LONGWY Alt: 360 m Nord du 54

traqueurdefoudres

Votre ton, vos « allusions » et arguments laissent à penser que vous n’êtes pas un scientifique et interrogent sur votre crédibilité ….

Parce que vous croyez que votre ton est respectable?

Nous sommes ici sur un forum avec pour la plupart des personnes non scientifiques mais uniquement des passionnés.

Ces passionnés essaient par leurs connaissances d'apporter des points de vue et des arguments pour proposer aux autres membres des réponses sur un sujet.

Ensuite il y'a débat forcément, c'est le but du forum, on ne peut être d'accord sur tout mais à condition que ce soit justifié en respectant au préalable les personnes.

Traqueurdefoudres a toujours été dans cet esprit et même s'il n'est pas scientifique, il est un véritable passionné (parmi d'autres) sur ce sujet comme on peut le voir dans toutes ces interventions argumentées ici ou ailleurs.

Mais, dire que des personnes qui ne sont pas scientifiques ne sont pas crédibles c'est que vous n'avez absolument rien compris et donc rien à faire ici car en tenant ces propos c'est à l'ensemble des membres que vous adressez voire... au delà.

Alors essayer d'être moins arrogant envers des "non scientifiques" et on pourra vous lire sans arrière pensée...

Lien à poster
Partager sur d’autres sites

Comme dit Traqueursdefoudre, il n'y a pas besoin de badge académique pour être scientifique. Et là où gpiton se trompe, c'est que le ton n'a pas besoin d'être académique pour comprendre et maîtriser des choses scientifiques. Sinon les nouvelles générations ne seront jamais acceptés comme scientifiques...

Bref, chacun son école sur le ton employé, et chacun son école de la pensée.

Je pense que vous vous passionnez sur le sujet mais dans un but trop sceptique.

Le scepticisme est autorisé dans les fenêtres closes d'un laboratoire ou de sa maison. Mais sur des espaces publics, le sceptique tue le travail de crédibilité et de reconnaissance de la communauté scientifique. Donc en soi, même sur un forum comme çà, on n'a pas le droit de semer le doute gratuitement, sans préciser clairement le doute concerne quoi

Sur la prévision décennale, on peut être sceptique sans problème, sachant qu'il n'y a jamais eu de consensus. Mais il ne faut pas laisser penser que ça change le problème général, qui lui a un consensus.

Lien à poster
Partager sur d’autres sites

Christian Pierre, j’ai trouvé cela dans le chapitre 11, paragraphe 11.3.6., en fin de page 52 et début de page 53. (traduit et souligné par moi) :

« Globalement, en l'absence d'éruptions volcaniques majeures - ce qui entraînerait un refroidissement significatif mais temporaire - et, en supposant aucun futurs changements significatifs à long terme du rayonnement solaire, il est probable (probabilité> 66%) que l’anomalie de la GMST pour la période 2016-2035, par rapport à la période de référence de 1986-2005 sera comprise entre 0,3 ° C et 0,7 °C (évaluation des experts, pour le degré significatif ; degré de confiance moyen).

Cette gamme est cohérente, avec un degré significatif, avec la gamme obtenue en utilisant CMIP5 5-95% tendances de modèle pour 2012 - 2035. Elle est également compatible avec la gamme CMIP5 5-95 % pour les quatre scénarios RCP de 0,36 ° C à 0,79 ° C, en utilisant la période de référence 2006-2012 , après que les bornes supérieures et inférieures sont réduites de 10%, pour tenir compte de la preuve, notée au point (5), que certains modèles peuvent être trop sensibles aux forçages anthropiques.

La gamme 0,3 °C à 0,7 °C comprend la gamme probable des projections ASK et des prévisions initialisées pour RCP4.5. Cela correspond à un taux de variation de la GMST entre 2012 et 2035 dans la plage de 0,12 ° C à 0,42 ° C par décennie.

Les taux élevés de changement sont susceptibles d'être associés à une importante contribution positive venant de la variabilité interne (encadré 9.2) et/ou des taux de croissance élevés du forçage radiatif efficace (par exemple, que l'on trouve dans RCP8.5).

Notez que la limite supérieure de 0,8 ° C sur la GMST 2016-2035 correspond à un taux de variation sur la période 2012-2035 de 0,49 ° C par décennie, qui est considéré comme peu probable. Les taux évalués du changement sont conformes avec la déclaration AR4 de SPM que « Pour les prochaines décennies, un réchauffement d'environ 0,2 ° C par décennie est prévu pour une gamme de scénarios d'émissions SRES ». Cependant, les taux implicites de réchauffement au cours de la période depuis 1986-2005 à 2016-2035 sont plus faibles en raison du hiatus : 0,10 °C-0,23 ° C par décennie, suggérant que l'évaluation AR4 était près de l'extrémité supérieure des attentes actuelles pour cet intervalle de temps spécifique.

L'évaluation ici ne fournit seulement une fourchette probable pour la GMST. Les raisons possibles pour lesquelles le monde réel pourrait s'écarter de cette gamme comprennent : le forçage radiatif s'écartent fortement de la scénarios RCP , soit pour des causes naturelles (par exemple , les grandes éruptions volcaniques , les variations de l'irradiance solaire ) ou anthropiques (par exemple , d'aérosols ou des émissions de gaz à effet de serre) ; des processus qui sont mal simulés dans les modèles CMIP5 exercent une influence significative sur la GMST. Cette dernière catégorie comprend : une possible forte "récupération" du hiatus récent dans la GMST ; la possibilité que les modèles pourraient sous-estimer la variabilité décennale (mais voir la section 9.5.3.1), la possibilité que la sensibilité des modèles aux forçages anthropiques peut différer de celle du monde réel (voir le point 5), et la possibilité de changements abrupts du climat (voir l'introduction aux sections 11.3.6 et 12.5.5 ).

L'évaluation ici a porté sur une moyenne de 20 ans des valeurs de la GMST pour la période 2016-2035. Il n'ya pas de méthode unique pour obtenir une fourchette probable de valeurs annuelles moyennes à partir d’une gamme de moyennes sur 20 ans, de sorte que ces calculs comportent nécessairement des incertitudes supplémentaires (au-delà de celles qui sont décrites dans le paragraphe précédent), et une baisse de confiance. Néanmoins, il est utile de tenter d'estimer une fourchette de valeurs moyennes annuelles, qui peut être comparée avec les projections brutes du modèle et, à l'avenir, avec les observations.

Pour ce faire, la simple approche suivante est utilisée :

1) Démarrer en 2009 à partir de l'anomalie observée de la GMST 2006-2012 de 0,16 °C (par rapport à 1986-2005) , les tendances linéaires sont projetés sur la période 2009-35 avec un minimum et un maximum de gradient choisis pour être compatibles avec la fourchette de 0.3 °C à 0,7 °C pour la moyenne de la GMST sur la période 2016-2035;

2) Afin de tenir compte de la variabilité d'année en année des valeurs moyennes annuelles, les tendances linéaires résultantes sont compensés par ± 0,1 ° C. La valeur de 0,1 °C est basée sur l'écart type des moyennes annuelles des pistes de contrôle du CMIP5 (pour un chiffre significatif). Ces calculs fournissent une fourchette probable indicative pour la moyenne annuelle de la GMST, ce qui est présenté comme la zone hachurée rouge dans la figure 11.25b. A noter que cette gamme ne tient pas compte de l’impact prévisible de futures éruptions volcaniques.»

Lien à poster
Partager sur d’autres sites

Traqueur de foudres, loin de moi la volonté d’être arrogant, ni de prétendre tout connaître, bien au contraire.

J’essaie au maximum de rester sur le factuel et il me parait légitime d’attendre que l’on me réponde ou contredise sur ce terrain, pas sur des allusions (faire un tel « scandale ».... avec des « et si cela, et si ceci » on ferait des lampes torches avec des poissons rouges.... c’est un acte de foi.... etc.) qui n'ont rien à voir avec un argumentaire factuel.

Je constate que vous ne me contredisez pas lorsque je dis que les projections du Giec sont toutes basées sur de nombreuses hypothèses, donc des « si possibles », mais pas certains.

« Le graphique que j'ai posté est la version la plus correcte des événements

Qu’est –ce qui vous permet de le dire ?

L’argumentation de Grant Foster, est très controversée. Elle vient de son blog, pas d’une publication revue par des pairs, ni du rapport du Giec.

Si c’est la version la plus correcte, alors les autres ne le sont pas ?

En quoi le graphique 11.25 présenté dans le chapitre 11 du rapport du Giec ne serait pas une version correcte ?

En quoi l’analyse de Ed. Hawkins, un contributeur du Giec, ne serait pas correcte quand il dit : «

Notez que les observations pour 2012 sont tout simplement hors de la plage 5-95% par rapport aux simulations» ? (ponctuellement, cela n’a pas de conséquences, mais si cela perdure, il y a problème)

A titre personnel, on peut avoir plein de certitudes sur ce qui va se passer dans les prochaines décennies.

Ce n’est pas mon cas. Même le Giec est plus prudent quand il parle de l’évolution de la température globale moyenne de surface (GMST) pour les décennies à venir dans le chapitre 11 :

« L'évaluation ici fournit seulement une fourchette probable pour la GMST. Les raisons possibles pour lesquelles le monde réel pourrait s'écarter de cette gamme comprennent : les forçages radiatifs s'écartant fortement des scénarios RCP, soit pour des causes naturelles (par exemple, les grandes éruptions volcaniques, les variations de l'irradiance solaire) ou anthropiques (par exemple, des aérosols ou des émissions de gaz à effet de serre) ; des processus qui sont mal simulés dans les modèles CMIP5 exercent une influence significative sur la GMST. Cette dernière catégorie comprend : une possible forte " récupération " du hiatus récent dans la GMST ; la possibilité que les modèles pourraient sous-estimer la variabilité décennale (voir la section 9.5.3.1), la possibilité que la sensibilité des modèles aux forçages anthropiques peut différer de celle du monde réel (voir le point 5), et la possibilité de changements abrupts du climat (voir l'introduction aux sections 11.3.6 et 12.5.5). »

Le seul « juge de paix » viendra de la réalité des observations futures.

Lien à poster
Partager sur d’autres sites

J'ai surtout l'impression qu'on essaie de faire passer les modèles du Giec pour des trucs foireux. Ils ont peut être sous estimer la fonte de l'arctique, de l'antarctique, la hausse du niveau des mers ( on en parle moins, un hasard ? ), mais pour les températures on est dans les projections. C'est correct.

Pour l'histoire, à la base dans le rapport projet du Giec il y'avait un graphique qui avait une erreur de baseline. Cela a été reconnu et corrigé par des contributeurs du Giec. Mais comme le sang attire les requins il y'en a qui en on profiter pour propager le fait que les modèles c'est bon pour les singes ( Ross McKitrick au hasard ).

C'est aussi pour cela que je parais sec parfois quand je parle mais c'est parce que ces sortes d'agissements sont purement salissants pour la science climatique. Au passage, Tamino n'hésite pas à employer des adjectifs plus frappants pour qualifier ce genre de personnes.

Donc pour en revenir au graphique, l'erreur est la suivante : " L'alignement des projections avec une seule année extra- chaud rend les projections trop chaude, donc les observations sont trop froides en comparaison. "

Il ne faut pas être grand druide pour comprendre cela, et ce biais a été corrigé, d'ou le graphique que j'avais posté.

Deuxièmement, il faut aussi savoir que le GIEC illustre également la " moyenne multi- modèle". Ce moyen permet une comparaison facile avec les données d'observation , mais il n'y a aucune raison de croire que le climat va suivre cette voie moyenne , en particulier à court terme.

Il y'en a d'ailleurs plusieurs qui se sont plantés à ce niveau, comme Judith Curry en ne considérant que la moyenne.

Troisièmement, à titre informatif. Y'en a aussi qui cueillent la cerise comme on dit, pour casser du sucre sur les modèles du Giec. La plupart des arguments qui disent que les modèles du Giec ont échoués, se basent sur la variation des températures de surface sur les 15 dernières années ( 98/12 ). Pendant cette période, les températures ont augmenté d'environ 50 % plus lentement que la moyenne multi-modèle, mais sont restés dans la fourchette. Cependant, on connait maintenant le biais introduit par 1998... On peut aussi alors choisir 1992/2006 et la on trouve que la température a augmenter de 50% plus rapidement que la moyenne multi-modèle...

gisstrend12.jpg

Ces deux déductions précédentes sont aussi fausses l'une que l'autre.

Donc le Giec conclut avec cette phrase : " À long terme, les simulations des modèles climatiques montrent une tendance de la température planétaire moyenne de surface de 1951 à 2012 qui est en accord avec la tendance observée (indice de confiance très élevé) . Il existe cependant des différences entre les tendances simulées et observées sur des périodes aussi courtes que 10 à 15 ans (par exemple , de 1998 à 2012). "

Sauf que la prévision à 10/15 ans est bourrée d'incertitudes comme les oscillations océaniques par exemple. Mais comme le faisait remarquer Cotissois, ça ne change absolument pas la tendance à long terme. Ou alors on peut se servir de la difficulté à modéliser la tendance à 10 ans pour faire croire qu'on ne sait pas modéliser l'évolution climatique, auquel cas c'est un acte au seul but de décrédibiliser la science climatique. Y'en a malheureusement qui le font, et je reviens sur le fait que Tamino n'y va pas de mains mortes sur les mots qu'il emploi tongue.png

" C'est pourquoi les modèles climatiques ont du mal à prévoir les changements sur 10-15 ans, mais le font très bien avec les prédictions sur plusieurs décennies dans le futur " , comme l'illustre le GIEC.

DvDFmodel-data.png

IPCC AR5 Figure 1.4 draft (left) and draft final (right) versions. In the draft final version, solid lines and squares represent measured average global surface temperature changes by NASA (blue), NOAA (yellow), and the UK Hadley Centre (green). The colored shading shows the projected range of surface warming in the IPCC First Assessment Report (FAR; yellow), Second (SAR; green), Third (TAR; blue), and Fourth (AR4; red).

Lien à poster
Partager sur d’autres sites

Le seul « juge de paix » viendra de la réalité des observations futures.

Ca c'est typique des négationnistes.

Ca reviens à "circuler, il n'y a rien à voir !"

Lien à poster
Partager sur d’autres sites

Ca c'est typique des négationnistes.

Ca reviens à "circuler, il n'y a rien à voir !"

Quelle contribution, merci ! smile.png

Sérieusement, si tu es si sur, alors ne fait pas se genre de réflexion et passe à autre chose default_wink.png/emoticons/wink@2x.png 2x" width="20" height="20">

Lien à poster
Partager sur d’autres sites

Invité Sky Blue

Le seul « juge de paix » viendra de la réalité des observations futures.

Pour ma part, je vois surtout la réalité des observations actuelles et cela me suffit pour me convaincre.whistling.gif
Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...