Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Statistiques et anomalies climatiques globales


Sam82

Messages recommandés

Christian : merci des précisions. Pourquoi y-a-t-il un lag de 20 ans dans la courbe violette rapportée au forçage? J'ai l'impression que tu construis cette courbe avec la valeur de sensibilité à l'équilibre (0,75K/W/m2), mais dans ce cas, 20 ans me paraît un temps de relaxation assez court (?). Ne vaudrait-il pas mieux prendre la moyenne des sensibilités transitoires des 20 modèles (données dans l'AR4), mais pour le coup sans aucun "lag" puisque c'est la réponse rapide attendue? Je serais curieux de voir ce que cela donnerait.

Donc quand un modèle se trompe, à la poubelle ? Et si aucun modèle ne peut avoir raison, on abandonne ?

Euh non, pas du tout, je suis persuadé que le progrès des connaissances va continuer. C'est le fameux level of understanding : par définition, on comprendre mieux le climat quand on aura avancé sur ce qui est toujours en medium, low ou very low level.
Lien à poster
Partager sur d’autres sites

  • Réponses 5,1k
  • Créé
  • Dernière réponse

Les plus actifs

Les plus actifs

Messages populaires

Je reviens sur ce sujet mal placé dans le national car c'est global. "Le réchauffement climatique en pause : records de chaleur mondiaux, c'est fini !" http://www.lameteo.org/index.php/news/2822

Ok, je rajoute donc une couche dans la "censure" de cet énergumène...     Et du coup, Infoclimat va pouvoir me verser une prime supplémentaire.

Beaucoup d'erreurs élémentaires et incroyables pour des pro dans tout ce que je viens de lire, que ce soit dans l'édito de Fred sur "Où en est le RC", https://www.lameteo.org/index.php/news/3149-ou-en

Images postées

Euh non, pas du tout, je suis persuadé que le progrès des connaissances va continuer. C'est le fameux level of understanding : par définition, on comprendre mieux le climat quand on aura avancé sur ce qui est toujours en medium, low ou very low level.

Tu travailles sans doute dans un cabinet d'audit pour affirmer çà...

C'est une technique des sceptiques que de placer ce "low level of understanding" , un peu comme si en météo on ne comprenait rien parce que la prévision à 10 jours ne marche pas...

Bref, du grand sérieux tout çà.

Lien à poster
Partager sur d’autres sites

Tu travailles sans doute dans un cabinet d'audit pour affirmer çà...

Non, je lis simplement l'AR4. Si les chercheurs éprouvent le besoin de préciser leur niveau actuel de compréhension, je suppose que cela a un sens. Il n'y a aucune raison de douter que les équipes de chercheurs de chaque modèle font de leur mieux, donc que leurs prévis du moment sont les plus correctes en l'état de leur connaissance du climat. C'est leur boulot. Ensuite, si tu veux me faire croire qu'il est scientifique de dire "nous savons déjà tout et nos prévisions ne changeront pas d'un iota ou alors de broutilles sans conséquence dans les 50 prochaines années", eh bien là, oui, j'aurai des doutes sur ce genre de "science". Mais ce n'est absolument pas ce que disent les chercheurs. Ils disent simplement qu'en l'état des connaissances (dont les sorties de modèle font en quelque sorte la synthèse), la plus grande part du réchauffement depuis 1950 vient des GES. Le degré de confiance dans ce résultat résulte du degré d'avancement du modèle et je n'arrive pas comprendre que cette évidence soit remise en question. C'est un peu comme si une assemblée d'oncologues en 1975 disait : "cela fait trente ans que nous faisons de l'oncologie, notre modèle du cancer n'est pas complet, il y a des mécanismes connus mais mal évalués, il y a deux ou trois choses à implémenter encore, mais nous savons déjà l'essentiel sur cette maladie et les avancées ne changeront désormais pas cette base". Même chose s'ils le déclaraient en 2011 avec 30 ans de travaux en plus (qui auraient démenti le propos de 1975). Pourquoi ils ne le disent pas ? Pourquoi ils disent plus modestement que bien des choses restent à élucider et que plus on avance, plus on découvre la complexité de l'ADN, de la cellule et du vivant en général ? Et pourquoi serait-il scientifique de poser que jamais ô grand jamais la réponse du climat au CO2 sera différente d'un best estimate contemporain, alors que les modèles climatiques comme tous les modèles scientifiques sont des work in progress (et que ce best estimate s'inscrit dans une assez large fenêtre d'incertitude en tout état de cause)?
Lien à poster
Partager sur d’autres sites

Sirius : en effet, je ne pige pas tes réponses. Un AOGCM, j'ai compris que cela reproduit la circulation générale océan-atmosphère du climat terrestre. Ce n'est pas censé être un simple modèle de balance énergétique où j'ajoute une couche de forçage pour voir ce que cela donne sur une version très simplifiée du système. Ni un modèle de complexité intermédiaire où je reproduis tel trait du climat. Si les AOGCM (la vingtaine du GIEC) sont mauvais pour la fréquence, l'intensité et le phasage des grandes oscillations connues, eh bien c'est qu'ils sont mauvais tout simplement, puisque ces oscillations résultent de la circulation océan-atmosphère qu'ils sont censés modéliser. Si certains sont bons et d'autres mauvais, il serait temps de les classer selon leurs performances, je suppose. Tu opposes simulation et prévis court ou long termes, mais comme Christian évoque des oscillations sur 60 ans, je ne vois pas où tu veux en venir. Sur 1900-2010, y a-t-il oui ou non des oscillations quasi-trentenaires qui modulent le signal de fond provenant des forçages? C'est cela qui me semble en discussion dans certains articles récents de la littérature, dont Wu 2011 cité ci-dessus par Starman. Si demain on dit que 51% de l'évolution des T observée entre 1950 et 2005 provient du phasage déphasage AMO-PDO et des émissions d'aérosols, eh bien une autre (et célèbre) proposition qui attribuait 51% (ou plus) de cette évolution aux seuls GES sera fausse. Or la question que je me pose est : une telle perspective est-elle physiquement insensée aujourd'hui? Et comment puis-je dire qu'elle est peu ou très peu probable si j'admets que de toute façon, mon modèle ne sait pas reproduire l'AMO-PDO (donc qu'il ne peut détecter-attribuer quoi que ce soit concernant l'effet de ces phénomènes sur les Ts)?

Non, les AOGCM n'ont pas pour objectif de simuler la variation annuelle des températures, ni même la variation décennale.

C'est aussi simple que ça.

Tu leur fais dire ce qu'ils ne veulent pas dire.

Donc, toute cette discussion n'a de sens que si on isole la tendance de fond.

Par ailleurs, j'ai lu l'article de Wu, il reste pour l'essentiel centré sur l'analyse de l'évolution de la température globale. Il n'aborde la question de la structure spatiale que de manière assez marginale (dans une sous section) mais il a au moins le mérite de le faire . Le résultat qui en découle est qu'il existe qq chose qui peut s'expliquer par la variabilité multidécennale dans l'Atlantique Nord.

A noter cette réponse des auteurs précisément sur le site de Judith Curry:

we attribute only about 15% of the 50-year trend to the AMO

Quand on parle de détection/attribution, il faut se mettre en tête qu'on enquête. Il ne suffit pas de dire qu'on a un coupable possible, il faut identifier sa marque ou son empreinte digitale. On peut trouver 36 façons d'obtenir la variation annuelle de la température globale, surtout si l'on agite uen variabilité multidécennale d'amplitude et de période inconnue.

Il est évident que dans ces conditions, on y arrivera toujours mais c'est mettre les choses à l'envers et inventer une oscillation ad'hoc pour contrer une explication physiquement simple et réaliste. Autant dire un petit homme vert.

Analysez donc la façon dont la température varie dans le temps en fonction des régions, de la latitude, des continents , des océans, de l'altitude, des saisons, du jour, de la nuit etc...Ca, c'est une signature beaucoup plus difficile à simuler que la seule température globale.

Il n'y a pas de doute qu'une partie du réchauffement du 20e siècle soit d'origine naturelle, personne ne remet ça en cause. Ce qu'on dit, c'est qu'il est principalement d'origine anthropique.

Wu et al ont fait un bon article intéressant certes mais qui ne change pas le fond.

Je les cite à nouveau

OUr intent in presenting these statistics is not to contest the IPCC’s attribution of the late 20th century (i.e., the 50-year) trend, but, rather, to question whether the acceleration in the rate of greenhouse warming has been as pronounced as implied by the graph presented in Figure TS.6 in the Technical Summary

L'accélération peut parfaitement être pour une part due à une oscillation multidécennale, pour une part à la diminution du forçage des aérosols ou encore autre chose. Ca veut simplement dire que toute tentative pour déterminer la sensibilité climatique sur la variation récente est immédiatement contestable.

Cela s'applique parfaitement à tous ceux qui torturent cette malheureuse courbe d'évolution de la température globale et en font des prédictions nostradamusesques.

Lien à poster
Partager sur d’autres sites

Il n'y a pas de doute qu'une partie du réchauffement du 20e siècle soit d'origine naturelle, personne ne remet ça en cause. Ce qu'on dit, c'est qu'il est principalement d'origine anthropique.

ce n'est pas tout à fait ce que dit le GIEC : il ne dit que ce serait la majorité du réchauffement depuis la deuxième moitié du XXe siecle qui serait "à 90 % de probabilité" anthropique - donc en réalité il ne s'engage que sur 25 % du réchauffement environ. Reste que même comme ça, il ne spécifie nulle part clairement, sauf erreur, par quelle méthode il arrive à mesurer quantitativement cette probabilité.
Lien à poster
Partager sur d’autres sites

il ne dit que ce serait la majorité du réchauffement depuis la deuxième moitié du XXe siecle [...] sur 25 % du réchauffement environ

Si on est bien d'accord que 0.5 * 0.5 = 0.25, c'est surtout pour prouver que c'est bien 0.5 * 0.5 l'opération à réaliser default_laugh.png Je pense que vous avez du vous laisser entrainer dans la conception erroné que le réchauffement se divise en deux parties égale avant et après 1950, en oubliant qu'avant 1950 l'influence anthropique est à prendre en compte aussi. Cela peut sembler du détail, mais vous utilisez des raccourcis qui peuvent devenir dangereux.

Pour la question d'attribution, je n'ai pas lu tout ce sujet, mais il me semble qu'il en avait été question. J'espère ne pas faire dans le redit.

Le GIEC en a tout un paragraphe à ce sujet :

http://www.ipcc.ch/publications_and_data/ar4/wg1/fr/tssts-4-1.html

Où il y a ce schéma qui est un grand classique de l’exercice d'attribution :

figurets23l.png

Des travaux plus récents également et utilisant une approche totalement différente, comme Lean et Rind en 2008 :

http://pubs.giss.nasa.gov/docs/2008/2008_Lean_Rind.pdf

Avec ce graphique qui montre le poids des différentes contributions :

capturejw.png

Etc... Je ne vais pas vous débitez toute la littérature, mais il existe un ensemble d’exercices d'attribution qui converge vers le même résultat. Alors, certes, ce n'est une équation univoque qui montre mathématiquement et avec une confiance de 100% que le réchauffement est majoritairement d'origine anthropique. Mais le faisceau d'évidence est bien là.

Lien à poster
Partager sur d’autres sites

(...)

Analysez donc la façon dont la température varie dans le temps en fonction des régions, de la latitude, des continents , des océans, de l'altitude, des saisons, du jour, de la nuit etc...Ca, c'est une signature beaucoup plus difficile à simuler que la seule température globale.

(...)

Ben oui mais là, c'est le problème du chapitre 11 de l'AR4 où, avant de donner ses prévis régionales pour 2100, le GIEC commence par rappeler comment il simule les T et les pluvios sur chaque région. Or, tu t'aperçois quand même que ce n'est pas correct du tout. Je cite la première région, l'Afrique et les premiers paragraphes :

There are biases in the simulations of African climate that are systematic across the MMD models, with 90% of models overestimating precipitation in southern Africa, by more than 20% on average (and in some cases by as much as 80%) over a wide area often extending into equatorial Africa. The temperature biases over land are not considered large enough to directly affect the credibility of the model projections (see Supplementary Material Figure S11.21 and Table S11.1).

The ITCZ in the Atlantic is displaced equatorward in nearly all of these AOGCM simulations. Ocean temperatures are too warm by an average of 1°C to 2°C in the Gulf of Guinea and typically by 3°C off the southwest coast in the region of intense upwelling, which is clearly too weak in many models. In several of the models there is no West African monsoon as the summer rains fail to move from the Gulf onto land, but most of the models do have a monsoonal climate albeit with some distortion. Moderately realistic interannual variability of SSTs in the Gulf of Guinea and the associated dipolar rainfall variations in the Sahel and the Guinean Coast are, by the criteria of Cook and Vizy (2006), only present in 4 of the 18 models examined. Tennant (2003) describes biases in several AGCMs, such as the equatorward displacement of the mid-latitude jet in austral summer, a deficiency that persists in the most recent simulations (Chapter 8).

Despite these deficiencies, AGCMs can simulate the basic pattern of rainfall trends in the second half of the 20th century if given the observed SST evolution as boundary conditions, as described in the multi-model analysis of Hoerling et al. (2006) and the growing literature on the interannual variability and trends in individual models (e.g., Rowell et al., 1995; Bader and Latif, 2003; Giannini et al., 2003; Haarsma et al., 2005; Kamga et al., 2005; Lu and Delworth, 2005). However, there is less confidence in the ability of AOGCMs to generate interannual variability in the SSTs of the type known to affect African rainfall, as evidenced by the fact that very few AOGCMs produce droughts comparable in magnitude to the Sahel drought of the 1970s and 1980s (Hoerling et al., 2006). There are exceptions, but what distinguishes these from the bulk of the models is not understood.

Les autres régions, c'est grosso modo le même topo, sauf que souvent l'accord sur les T n'y est pas non plus. Si les modèles reconnaissent ainsi qu'ils diffèrent des climatologies et de leur évolution, qu'il leur manque pas mal de précision voire certains phénomènes de base, on en revient au même problème, "l'empreinte digitale" du CO2 à la surface est déduite de simulations incorrectes.
Lien à poster
Partager sur d’autres sites

Etc... Je ne vais pas vous débitez toute la littérature, mais il existe un ensemble d’exercices d'attribution qui converge vers le même résultat. Alors, certes, ce n'est une équation univoque qui montre mathématiquement et avec une confiance de 100% que le réchauffement est majoritairement d'origine anthropique. Mais le faisceau d'évidence est bien là.

cet ensemble d'exercices est une comparaison avec des modèles qui n'ont pas en eux même été vraiment validés, à la précision où ils prétendent l'etre en tout cas. Par exemple il est clair que le comportement de la première moitié du XXe siecle n'est pas très bien reproduit, ni la pente moyenne, ni le moment où les températures arrêtent de croitre. C'est plus ou moins masqué par le choix de normaliser les anomalies sur la période 1900-1950, ce qui cache l'écart entre les pentes, et aussi le "truc" de comparer des données à tout un ensemble de modèles hétérogènes, ce qui recouvre forcément à un moment n'importe quelle courbe expérimentale : dans la mesure où on n'a aucune information précise sur la sélection de modèles auxquelles on a comparé les courbes, c'est difficile d'y voir une validation rigoureuse de quoi que ce soit.
Lien à poster
Partager sur d’autres sites

Etc... Je ne vais pas vous débitez toute la littérature, mais il existe un ensemble d'exercices d'attribution qui converge vers le même résultat. Alors, certes, ce n'est une équation univoque qui montre mathématiquement et avec une confiance de 100% que le réchauffement est majoritairement d'origine anthropique. Mais le faisceau d'évidence est bien là.

AGWobserver maintient une liste très complète sur les études d'attribution:

http://agwobserver.wordpress.com/2010/03/25/papers-on-formal-attribution/

Une revue très complète sur le sujet:

http://journals.ametsoc.org/doi/pdf/10.1175/JCLI3329.1

Je ne connais pas de revue plus récente. Celle ci date un peu (on y trouve encore les données biaisées de UAH)...

Lien à poster
Partager sur d’autres sites

Si on est bien d'accord que 0.5 * 0.5 = 0.25, c'est surtout pour prouver que c'est bien 0.5 * 0.5 l'opération à réaliser default_laugh.png Je pense que vous avez du vous laisser entrainer dans la conception erroné que le réchauffement se divise en deux parties égale avant et après 1950, en oubliant qu'avant 1950 l'influence anthropique est à prendre en compte aussi. Cela peut sembler du détail, mais vous utilisez des raccourcis qui peuvent devenir dangereux.

je n'ai utilisé aucun raccourci, j'ai juste rappelé qu'à ma connaissance , le GIEC n'avait émis aucune assertion sur le fait que la majorité du RC du XXe siecle etait anthropique, sauf erreur qu'on voudra bien me corriger.
Lien à poster
Partager sur d’autres sites

Ensuite, si tu veux me faire croire qu'il est scientifique de dire "nous savons déjà tout et nos prévisions ne changeront pas d'un iota ou alors de broutilles sans conséquence dans les 50 prochaines années", eh bien là, oui, j'aurai des doutes sur ce genre de "science".

Tu sais ce qu'est une limite de prévisibilité ? Et pourquoi on peut prévoir la grande échelle sans arriver à prévoir correctement la petite échelle ?

Si oui, alors pourquoi tu sors des arguments sur le fait que les modèles se trompent à une certaine échelle ?

Si non, alors merci de te renseigner un peu sur des notions qui sont à la base de toute notion de prévision...

Si tu réussis à trouver une autre réponse que oui ou non, alors c'est que tu as décidé de nous emm*** jusqu'au bout.

Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Skept, cette courbe de CO2 n'est là qu'à titre indicatif, pour montrer la forme générale possible de la hausse de T pour la valeur donnée. J'ai choisi cette valeur au hasard, c'est celle communiquée par Sirius dans un des ses commentaires que j'avais en mémoire à ce moment là. +2.8° pour un doublement du CO2 n'est quand même pas un des cas les plus improbables, bien qu'il existe beaucoup d'autres possibilités.

Le lag de 20 ans a été choisi en fonction d'une bonne corrélation et aussi de l'auto-corrélation significative (comme on le fait pour l'ENSO ou d'autres paramètres sensés agir plus efficacement à un instant t + t et significativement pendant un certain temps, sur la T). Là, j'ai fait en sorte de choisir le moment où les bruits de relativement hautes fréquences ont pu digérer et restituer à la T de l'air, une partie significative de l'influence du cumul du CO2 par rapport à l'instant t de ce niveau.

C'est clair qu'on peut très bien faire coller n'importe quelle courbe de même forme qui n'aura pas du tout de rapport avec le sujet donné. Ce n'est pas cette courbe qui démontre et démontrera que la théorie est juste, c'est la physique et les obs futures.

Mais bon si la courbe du loess/65 ans des obs avait été totalement inverse, tendance négative avec exactement la même courbure, il y en a plus d'un qui douterait assez justement de la possibilité affichée par la théorie derrière cette courbe (il y a quand même une théorie physique sous-jacente derrière la forme, au-delà de son positionnement exact qui lui est largement discutable. Enfin là c'est clair qu'on verra facilement par la suite, comment évoluent les obs par rapport à mon choix arbitraire de janvier 2011)

Je ne sais pas si tu avais vu la comparaison des obs aux modèles ici sans décalages : /topic/40167-statistiques-et-anomalies-climatiques-globales/page__view__findpost__p__1407218'>http://forums.infocl...ost__p__1407218 , mais bon ça n'a pas encore vraiment de sens vu la bien trop courte durée depuis 2000.

Dans les actes 2010 de l'AIC en libre accès, il y a un papier intéressant :

MODÈLES CLIMATIQUES :

CERTITUDES, INCERTITUDES ET IMPACTS LOCAUX

LE TREUT H.

Laboratoire de Météorologie Dynamique/ Institut Pierre Simon Laplace ; Université Pierre et Marie Curie /

Ecole Polytechnique. letreut@lmd.jussieu.fr

Résumé : L'augmentation des gaz à effet de serre constitue un phénomène à la fois récent et durable dont les conséquences ne peuvent être appréhendées qu'au travers des modèles numériques. La capacité des modèles climatiques à estimer les aspects globaux des changements climatiques commence à être solidement éprouvée, mais la simulation de changements locaux pose des problèmes qui sont en grande partie non résolus. Dans les années qui viennent, une évolution est à attendre de l'augmentation des capacités de calcul, qui permettra en particulier d'améliorer la résolution géographique des modèles.

Mais cette évolution sera certainement insuffisante et elle devra s'accompagner d'une meilleure compréhension des processus qui maintiennent les systèmes climatiques régionaux et déterminent leur vulnérabilité.

Dans ce site, http://www.cgd.ucar.edu/cas/ , dans les news, il y a un lien vers un article pour le grand public sur les possibilités ou non des modèles, qui montre bien que ça ne sert à rien de chipoter sur des prévis de variations pour 10, 20 ou 30 ans, vu qu'on débute seulement à ce niveau :

http://e360.yale.edu...er_is_yes/2360/

Lien à poster
Partager sur d’autres sites

Tu sais ce qu'est une limite de prévisibilité ? Et pourquoi on peut prévoir la grande échelle sans arriver à prévoir correctement la petite échelle ?

Si oui, alors pourquoi tu sors des arguments sur le fait que les modèles se trompent à une certaine échelle ?

Si non, alors merci de te renseigner un peu sur des notions qui sont à la base de toute notion de prévision...

Si tu réussis à trouver une autre réponse que oui ou non, alors c'est que tu as décidé de nous emm*** jusqu'au bout.

Désolé d'être emm*** à essayer de comprendre.

Non, je ne connais la limite de prévisibilité qu'en météo sur quelques jours, mais pas en climato sur les échelles de temps des modèles. Cela correspond à quoi dans ce dernier cas?

Cela dit, je ne parle pas de prévision, uniquement de simulation des tendances observées 1900-2005 dans l'AR4 et, dans cette simulation, de détection-attribution.

Sirius semble dire que l'on repère la marque des GES sur des évolutions à petite échelle concordantes (dans l'espace et le temps), pas seulement sur une grande échelle (moyenne globale séculaire). Je le cite

Oui, sauf que la détection/attribution ne se fait pas sur la base de la température globale.

Ca se fait sur la base de la signature spatio temporelle du réchauffement.

Analysez donc la façon dont la température varie dans le temps en fonction des régions, de la latitude, des continents , des océans, de l'altitude, des saisons, du jour, de la nuit etc...Ca, c'est une signature beaucoup plus difficile à simuler que la seule température globale.

C'est en réponse à cela que je soulignais que les modèles reconnaissent à plus petite échelle des problèmes de réalisme assez importants, ou du moins qui paraissent assez importants au non-spécialiste.

En gros, le point que je soulevais, c'est d'essayer de comprendre cette page de l'AR4 sur la détection-attribution et plus particulièrement quelle place joue la variabilité naturelle dans le mode de calcul qui est présenté. C'est un peu compliqué pour moi, d'abord je ne vois pas à quelles échelles spatiales et temporelles s'appliquent le calcul décrit (le point ci-dessus), ensuite je ne comprends pas le rôle et l'estimation de la variabilité naturelle, qui est d'abord décrite dans ce texte comme u (dans la première équation y = Xa + u) puis ensuite comme la covariance de C (dans le troisième paragraphe) :

http://www.ipcc.ch/publications_and_data/ar4/wg1/en/ch9s9.html

Si quelqu'un pouvait traduire cela en français non matheux, je comprendrais sans doute mieux ce qui est fait concrètement dans une détection-attribution d'un signal au milieu du bruit.

Christian : merci des précisions. Peut-être que la réponse à ma question est dans le texte de Le Treut, que je vais essayer de trouver.

Lien à poster
Partager sur d’autres sites

Désolé d'être emm*** à essayer de comprendre.

Non, je ne connais la limite de prévisibilité qu'en météo sur quelques jours, mais pas en climato sur les échelles de temps des modèles. Cela correspond à quoi dans ce dernier cas?

Cela dit, je ne parle pas de prévision, uniquement de simulation des tendances observées 1900-2005 dans l'AR4 et, dans cette simulation, de détection-attribution.

Sirius semble dire que l'on repère la marque des GES sur des évolutions à petite échelle concordantes (dans l'espace et le temps), pas seulement sur une grande échelle (moyenne globale séculaire). Je le cite

C'est en réponse à cela que je soulignais que les modèles reconnaissent à plus petite échelle des problèmes de réalisme assez importants, ou du moins qui paraissent assez importants au non-spécialiste.

En gros, le point que je soulevais, c'est d'essayer de comprendre cette page de l'AR4 sur la détection-attribution et plus particulièrement quelle place joue la variabilité naturelle dans le mode de calcul qui est présenté. C'est un peu compliqué pour moi, d'abord je ne vois pas à quelles échelles spatiales et temporelles s'appliquent le calcul décrit (le point ci-dessus), ensuite je ne comprends pas le rôle et l'estimation de la variabilité naturelle, qui est d'abord décrite dans ce texte comme u (dans la première équation y = Xa + u) puis ensuite comme la covariance de C (dans le troisième paragraphe) :

http://www.ipcc.ch/publications_and_data/ar4/wg1/en/ch9s9.html

Si quelqu'un pouvait traduire cela en français non matheux, je comprendrais sans doute mieux ce qui est fait concrètement dans une détection-attribution d'un signal au milieu du bruit.

Christian : merci des précisions. Peut-être que la réponse à ma question est dans le texte de Le Treut, que je vais essayer de trouver.

"Sirius semble dire que l'on repère la marque des GES sur des évolutions à petite échelle concordantes (dans l'espace et le temps), pas seulement sur une grande échelle (moyenne globale séculaire). Je le cite

C'est en réponse à cela que je soulignais que les modèles reconnaissent à plus petite échelle des problèmes de réalisme assez importants, ou du moins qui paraissent assez importants au non-spécialiste."

Le problème que vous soulevez est différent de celui dont parle Sirius. Ce que Sirius veut dire, est que les observations montrent une signature clairement lié aux forçages anthropiques. Par exemple, la stratosphère se refroidit alors que la troposphère se réchauffe, c'est une indication que la chaleur est emprisonné en basse couche, donc que ce sont plus probablement les gaz à effet de serre. Le Soleil réchaufferait uniformément la colonne d'air quand à lui. Autre exemple, le réchauffement est plus marqué quand le Soleil est absent (nuit, hiver), donc le Soleil peut difficilement être le principal responsable. Et autre...

Ce sont des observations qui valident des modèles physiques assez simple, et qui se comprennent très bien par l'intuition.

Ce que vous, vous soulignez, est la difficulté des modèles à simulez finement (dans une échelle spatio temporelle) le climat. C'est un problème nettement différent. Le fait que les modèles patinent par exemple avec la simulation de la mousson, et de la variabilité des températures de surface de l'Océan en Golfe de Guinée, est aussi un problème de simulation à une échelle spatio temporelle assez fine, certes. Mais c'est clairement un problème différent.

"En gros, le point que je soulevais, c'est d'essayer de comprendre cette page de l'AR4 sur la détection-attribution et plus particulièrement quelle place joue la variabilité naturelle dans le mode de calcul qui est présenté. C'est un peu compliqué pour moi, d'abord je ne vois pas à quelles échelles spatiales et temporelles s'appliquent le calcul décrit (le point ci-dessus), ensuite je ne comprends pas le rôle et l'estimation de la variabilité naturelle, qui est d'abord décrite dans ce texte comme u (dans la première équation y = Xa + u) puis ensuite comme la covariance de C (dans le troisième paragraphe) :

http://www.ipcc.ch/p...1/en/ch9s9.html"

C'est du calcul matriciel. Si vous n'avez jamais fait de calcul matriciel de votre vie, cela va être violent de vous expliquez cela. Honnêtement, je ne vois pas comment vous expliquez cela simplement. Si vous connaissez les régressions linéaires simple, vous avez un truc du genre :

T = a * X + b

T est la variable à expliquer, X la variable explicative, a est la pente et b l'ordo à l'origine.

Mais vous pouvez avoir plusieurs variables X1, X2, X3, ... telle que

T = a1 * X1 + a2 * X2 + a3 * X3 + b

Alors a1, a2, a3, sont les coefficients de la régression linéaire, et b est le résidu.

Vous pouvez généraliser à i variables, i allant de 1 à n :

T = Somme ( ai * Xi ) + b

Cela peut s'écrire sous forme matriciel :

T = a * X + u

Mais après, je capitule. Lisez Lean et Rind, si vous y arrivez, c'est le même boulot qui font.

Si on quitte les math's pour expliquer crument ce que cela signifie, c'est simplement que la température est la somme de toutes les influences connues. Cela paraît d'un seul coup trivial, mais pour y arriver il faut passer par le calcul matriciel.

"Désolé d'être emm*** à essayer de comprendre.

Non, je ne connais la limite de prévisibilité qu'en météo sur quelques jours, mais pas en climato sur les échelles de temps des modèles. Cela correspond à quoi dans ce dernier cas?

Cela dit, je ne parle pas de prévision, uniquement de simulation des tendances observées 1900-2005 dans l'AR4 et, dans cette simulation, de détection-attribution."

C'est ce que se tue à vous expliquer Sirius. Ce n'est pas parce que les modèles patinent par exemple avec la simulation de la mousson, et de la variabilité des températures de surface de l'Océan en Golfe de Guinée, qu'ils sont mauvais. Un modèle de simulation des mouvements des plaques pour analyser et prévoir le risque sismique est-il mauvais parce qu'il ne reproduit pas ces températures en golfe de Guinée ?

Lien à poster
Partager sur d’autres sites

Paix : merci des explications, certains choses sont déjà plus claires. En effet, certains traits du réchauffement observé ne sont compatibles qu'avec le forçage anthropique. Je n'ai pas trop de problème avec cela.

Pour le calcul matriciel, je vois un peu à quoi cela correspond (mais bon, aucune pratique). Ma question, c'est plutôt comment la composante variabilité naturelle est isolée du reste dans la décomposition des facteurs nécessaires à ce calcul. Par exemple, je vois que Lean et Rind 2008 prennent l'ENSO sur 1896-2006, mais je me demande pourquoi et comment. D'abord l'ENSO n'a pas de raison d'être isolé du reste (on peut imaginer que l'ENSO varie selon le soleil ou le CO2 ou leur combinatoire, donc que ce n'est pas un facteur indépendant) et ensuite, l'ENSO n'est pas le seul mode de variabilité, il faudrait plutôt un indice qui couple l'ensemble des oscillations connues (il se peut par exemple que le mode de variabilité ne soit pas telle oscillation, mais le phasage de plusieurs oscillations).

Mais de toute façon, Lean et Rind font plutôt de l'analyse statistique et empirique de climatologies NCEP. C'est l'autre aspect qui m'intéresse, celui du calcul physique à partir des grilles et de certaines conditions initiales : quand un chercheur lance un run 1900-2000 en forçages naturels seulement sur son modèle, comment sait-il qu'il obtient la bonne base de variabilité intrinsèque, une représentation réaliste du climat, et pas un truc faussé au départ ? Quels sont ses moyens de contrôle ? C'est là où je comprends mal pourquoi il n'est pas important de bien simuler des PDO, des AMO, l'ICTZ et la mousson, etc. Le raisonnement intuitif paraît : si je veux connaître l'influence du facteur X sur le système S, je simule d'abord S de façon réaliste, et ensuite j'applique X pour voir ce qui change. Ce que vous me dites en fait avec Sirius, c'est que le réalisme actuel de S (dans les runs des modèles) suffit très largement pour repérer l'influence de X. A partir du moment ou on a le jour et la nuit, l'hiver et l'été, la basse et haute atmosphère, le mouvement de l'équateur vers les pôles, des choses dans ce genre, cela suffit, on peut considérer que le détail des couplages internes océan-atmosphère sont négligeables pour la grandeur concernée (les T sur plusieurs décennies)?

Lien à poster
Partager sur d’autres sites

Sirius semble dire que l'on repère la marque des GES sur des évolutions à petite échelle concordantes (dans l'espace et le temps), pas seulement sur une grande échelle (moyenne globale séculaire). Je le cite

...

C'est en réponse à cela que je soulignais que les modèles reconnaissent à plus petite échelle des problèmes de réalisme assez importants, ou du moins qui paraissent assez importants au non-spécialiste.

D'abord, une chose: les modèles climatiques ne sont évidemment pas parfaits , on peut lister leurs imperfections si tu veux mais il faut les mettre en relation avec ce que l'on étudie, cad à la tendance générale des champs de température, vapeur d'eau, précipitations etc mais en fait surtout la température.

Un modèle météo n'est pas validé par la comparaison des précipitations ou même des températures à Pétaouchnok ou à Paris. On a des champs de pression calculés et des observations qu'on interpole à l'échelle du modèle au moyen des méthodes d'assimilation et on les compare sur toute la planète.

On fait sensiblement de même avec les modèles climatiques mais à leur échelle cad que l'échelle régionale, c'est un continent entier, l'échelle temporelle, c'est 30 ans minimum.

D'où les exemples qui t'ont été cités mais qui ne sont que des illustrations (le refroidissement de la strato , le refroidissement accentué sur les continents, plus la nuit que le jour, l'hiver que l'été etc...

Exemple: Wu et al, ont essayé de déterminer la signature spatiale de la variabilité multidecennale, l'échelle est l'Atlantique Nord. Quelle conclusion tirent ils?

Que 15% du réchauffement peut être attribué à cette variabilité multidécennale.

Je n'ai pas de pb avec ce résultat, c'est dans l'ordre de grandeur de ce à quoi je m'attendais et ça ne remet pas en cause la conclusion fort prudente que le RC est principalement d'origine anthropique.

Ensuite, la principale conclusion à en tirer, c'est que ça n'a aucun sens de chercher à déterminer ce qui va se passer dans le siècle qui vient à partir de l'examen de cette malheureuse courbe des températures moyenne globales.

Vous voir discuter sans fin là dessus est, pardonnez moi, risible.

1 à l'exception des GES, on connaît pas les forçages

2 on a tellement peu de recul, qu'en fait on n'a (presque) aucune idée de l'amplitude et de le période des oscillations multidécennales

et avec ça, vous discutez de la valeur de la sensibilité climatique!

Lien à poster
Partager sur d’autres sites

Non, je ne connais la limite de prévisibilité qu'en météo sur quelques jours, mais pas en climato sur les échelles de temps des modèles.

Les modèles climato ne sont pas le bon exemple pour comprendre la grande échelle.La prévisibilité de la température moyenne globale tient essentiellement à l'équilibre radiatif, qui est relativement simple à calculer. Donc l'ordre 0 ne pose pas problème.

Les modèles climato actuels sont beaucoup plus complexes et ont pour but de simuler la fine échelle, sans garantie de succès, tout en montrant une cohérence avec cet ordre 0.

L'information première qui va faire évoluer la connaissance de l'ordre 0, ce sont les SRES.

Il n'y a rien à attendre des nouveaux modèles climato sur l'ordre 0. Aujourd'hui on cherche à évaluer la réaction de la fine échelle, en terme de probabilités. On sait dans l'absolu qu'un run donné d'un modèle est complètement illusoire (c'est comme faire tourner un modèle météo sur 50 ans...). Mais il y a une information probabiliste à retenir de chaque run, et de chaque ensemble de runs.

Lien à poster
Partager sur d’autres sites

Le problème que vous soulevez est différent de celui dont parle Sirius. Ce que Sirius veut dire, est que les observations montrent une signature clairement lié aux forçages anthropiques. Par exemple, la stratosphère se refroidit alors que la troposphère se réchauffe, c'est une indication que la chaleur est emprisonné en basse couche, donc que ce sont plus probablement les gaz à effet de serre.

ça me parait plus probablement etre du au fait que le CO2 participe au refroidissement de la stratosphère dans les conditions optiquement mince (il est excité par collisions et rayonne dans l'IR). Le refroidissement n'est pas tant du à l'absorption du rayonnement LWR d'en bas qu'à l'augmentation de l'émissivité vers l'espace. Ce qui prouve juste que le CO2 augmente, mais ne dis pas grand chose de son impact sur la température au sol.
.

Ce que vous, vous soulignez, est la difficulté des modèles à simulez finement (dans une échelle spatio temporelle) le climat. C'est un problème nettement différent. Le fait que les modèles patinent par exemple avec la simulation de la mousson, et de la variabilité des températures de surface de l'Océan en Golfe de Guinée, est aussi un problème de simulation à une échelle spatio temporelle assez fine, certes. Mais c'est clairement un problème différent.

c'est néanmoins essentiel quand on parle de l'impact du climat sur les populations pauvres africaines ....
C'est du calcul matriciel. Si vous n'avez jamais fait de calcul matriciel de votre vie, cela va être violent de vous expliquez cela. Honnêtement, je ne vois pas comment vous expliquez cela simplement. Si vous connaissez les régressions linéaires simple, vous avez un truc du genre :

T = a * X + b

T est la variable à expliquer, X la variable explicative, a est la pente et b l'ordo à l'origine.

Mais vous pouvez avoir plusieurs variables X1, X2, X3, ... telle que

T = a1 * X1 + a2 * X2 + a3 * X3 + b

Alors a1, a2, a3, sont les coefficients de la régression linéaire, et b est le résidu.

Vous pouvez généraliser à i variables, i allant de 1 à n :

T = Somme ( ai * Xi ) + b

Cela peut s'écrire sous forme matriciel :

T = a * X + u

Mais après, je capitule. Lisez Lean et Rind, si vous y arrivez, c'est le même boulot qui font.

Si on quitte les math's pour expliquer crument ce que cela signifie, c'est simplement que la température est la somme de toutes les influences connues.

ce n'est valide que si on est sûr de maitriser toutes les causes connues, et qu'on a juste "à choisir" entre elles. Mais si c'etait le cas, l'accord avec les données passées devrait etre excellent,ce qui n'est pas le cas. Ca laisse donc de la place aux causes "inconnues" comme les oscillations océaniques.
Lien à poster
Partager sur d’autres sites

ça me parait plus probablement etre du au fait que le CO2 participe au refroidissement de la stratosphère dans les conditions optiquement mince (il est excité par collisions et rayonne dans l'IR). Le refroidissement n'est pas tant du à l'absorption du rayonnement LWR d'en bas qu'à l'augmentation de l'émissivité vers l'espace. Ce qui prouve juste que le CO2 augmente, mais ne dis pas grand chose de son impact sur la température au sol.

c'est néanmoins essentiel quand on parle de l'impact du climat sur les populations pauvres africaines ....

ce n'est valide que si on est sûr de maitriser toutes les causes connues, et qu'on a juste "à choisir" entre elles. Mais si c'etait le cas, l'accord avec les données passées devrait etre excellent,ce qui n'est pas le cas. Ca laisse donc de la place aux causes "inconnues" comme les oscillations océaniques.

Vu l'heure, je vais éviter de trop causer, cela m'évitera de dire d'autre c*******s, mais juste deux points :

"Mais si c'etait le cas, l'accord avec les données passées devrait etre excellent,ce qui n'est pas le cas."

Chez Lean and Rind, 0.87 de corrélation et 76% de la variabilité expliquée, et vous dites que l'accord n'est pas excellent ?!?! default_blink.png

"c'est néanmoins essentiel quand on parle de l'impact du climat sur les populations pauvres africaines ...."

Ce n'est pas que je sois raciste, mais qu'est on en à f***** ? Tant qu'on y est, on peut discuter de l'évolution de la température du Loch Ness pour savoir si le monstre local va survivre.

P.S. : C'est quoi cet' arnaque ? On n'a pas le droit de dépasser un certain niveau de vulgarité ?

Lien à poster
Partager sur d’autres sites

(...)

Ensuite, la principale conclusion à en tirer, c'est que ça n'a aucun sens de chercher à déterminer ce qui va se passer dans le siècle qui vient à partir de l'examen de cette malheureuse courbe des températures moyenne globales.

Vous voir discuter sans fin là dessus est, pardonnez moi, risible.

1 à l'exception des GES, on connaît pas les forçages

2 on a tellement peu de recul, qu'en fait on n'a (presque) aucune idée de l'amplitude et de le période des oscillations multidécennales

et avec ça, vous discutez de la valeur de la sensibilité climatique!

Ben, quand Hegerl et Knutti ont fait leur review sur la sensibilité climatique dans Nature Geoscience (le lien que tu m'avais donné chez Meteor), j'ai bien noté que pour eux, l'analyse du climat actuel était le moyen le plus robuste d'estimer la sensibilité. Comme celle-ci se définit basiquement comme l'évolution des températures de surface par rapport au forçage et à ses rétroactions, c'est quand même bizarre de s'entendre dire que non, cette évolution ne signifie pas grand chose.

Mais au fond, je suis d'accord avec toi, c'est la conclusion à laquelle je suis personnellement arrivé : on ne peut exclure aucune des valeurs de sensibilité physiquement compatibles avec les observations, et finalement le spectre est très large. L'affectation de probabilité est assez illusoire puisqu'on ne connaît pas les forçages et que l'on n'a pas de recul (tes remarques). Là où l'on a du recul (paléoclimats), les climatologies sont trop bruitées pour trancher, on ne sait pas avec beaucoup de précision ce qu'il en est des températures, des glaces, des aérosols naturels, de la végétation, de la circulation AO, de l'effet relatif de l'insolation, du CH4 ou du CO2, etc.

La prévisibilité de la température moyenne globale tient essentiellement à l'équilibre radiatif, qui est relativement simple à calculer. Donc l'ordre 0 ne pose pas problème.

Les modèles climato actuels sont beaucoup plus complexes et ont pour but de simuler la fine échelle, sans garantie de succès, tout en montrant une cohérence avec cet ordre 0.

L'information première qui va faire évoluer la connaissance de l'ordre 0, ce sont les SRES.

Il n'y a rien à attendre des nouveaux modèles climato sur l'ordre 0.

Tu trouves que l'équilibre radiatif est simple à calculer? Ben pas moi. Ce n'est pas parce que l'on sait ce qu'ajoute radiativement 2xCO2 que l'on sait ce que rajoutent radiativement l'ensemble des rétroactions, ni ce qui va en résulter sur la couche de surface en particulier (celle où les T nous intéressent). Or, en terme de budget énergétique, ce sont surtout les rétroactions qui pèsent et on le sait depuis le début.

Moi, je croyais que les AOGCM servaient justement à évaluer si les rétroactions se tenaient comme prévu en zone tropicale, aux pôles, dans la colonne atmosphérique, etc. Et aussi à intégrer peu à peu des données qui sont importantes pour l'équilibre radiatif au-delà des seuls GES anthropiques (le cycle du carbone, le cycle de la végétation, la distribution de chaleur océanique, etc.).

Lien à poster
Partager sur d’autres sites

Tu trouves que l'équilibre radiatif est simple à calculer? Ben pas moi. Ce n'est pas parce que l'on sait ce qu'ajoute radiativement 2xCO2 que l'on sait ce que rajoutent radiativement l'ensemble des rétroactions, ni ce qui va en résulter sur la couche de surface en particulier (celle où les T nous intéressent). Or, en terme de budget énergétique, ce sont surtout les rétroactions qui pèsent et on le sait depuis le début.

Moi, je croyais que les AOGCM servaient justement à évaluer si les rétroactions se tenaient comme prévu en zone tropicale, aux pôles, dans la colonne atmosphérique, etc. Et aussi à intégrer peu à peu des données qui sont importantes pour l'équilibre radiatif au-delà des seuls GES anthropiques (le cycle du carbone, le cycle de la végétation, la distribution de chaleur océanique, etc.).

Bien, on en revient donc à la seule vraie question qui ait un sens:

existe t il une rétroaction salvatrice?

ceux qui y croient et la cherchent désespérément en restent pour leurs frais pour le moment.

Or, là, la paléo ne conduit pas tellement à penser qu'il existe vraiment une rétroaction puissante.

A moins de penser que cette rétroaction ne fonctionnerait que vis à vis de l'isolation de la planète mais pas de son chauffage ce qui semble assez dur à avaler.

Là encore, entendons nous bien: des rétroactions, il y en a des tas

des rétroactions négatives aussi

ce qu'on cherche c'est LA retroaction assez puissante pour jouer les thermostats.

Lien à poster
Partager sur d’autres sites

Bien, on en revient donc à la seule vraie question qui ait un sens:

existe t il une rétroaction salvatrice?

ceux qui y croient et la cherchent désespérément en restent pour leurs frais pour le moment.

(...)

Oui, de même que l'on évite aussi de spéculer sur les seules rétroactions terribles.

Moi, je n'ai aucune croyance, je n'attends pas d'un modèle qu'il me sauve ou qu'il me perde, mais qu'il progresse sur les glaces, la vapeur d'eau, le gradient adiabatique, les nuages, les puits et source carbone, etc.

A dire vrai, la valeur centrale de sensibilité d'un AR du GIEC me semble la valeur provisoire à retenir, puisque par définition elle est le produit de toutes les connaissances intégrées dans les modèles et d'une plus forte densité de probabilité (même si l'on peut discuter ce dernier point, j'ai encore des doutes sur le fait que cette probabilité ait une valeur quelconque). C'est juste le mot "provisoire" qui me semble important, et ce qu'il implique d'ouverture d'esprit dans le débat comme dans la recherche. Je ne sais pas si la nouvelle sensibilité moyenne intermodèles de l'AR5 sera toujours à 3,2 K, ou à 3,5 K, ou à 2,7 K, etc. Elle a un peu changé, elle changera un peu. Mais il n'y a aucune raison de penser qu'elle change brusquement d'un AR l'autre, et au fond il y a assez peu de raisons d'attendre qu'elle s'échappe largement de la fourchette 2-4 K.

Lien à poster
Partager sur d’autres sites

Tu trouves que l'équilibre radiatif est simple à calculer? Ben pas moi. Ce n'est pas parce que l'on sait ce qu'ajoute radiativement 2xCO2 que l'on sait ce que rajoutent radiativement l'ensemble des rétroactions, ni ce qui va en résulter sur la couche de surface en particulier (celle où les T nous intéressent). Or, en terme de budget énergétique, ce sont surtout les rétroactions qui pèsent et on le sait depuis le début.

Moi, je croyais que les AOGCM servaient justement à évaluer si les rétroactions se tenaient comme prévu en zone tropicale, aux pôles, dans la colonne atmosphérique, etc. Et aussi à intégrer peu à peu des données qui sont importantes pour l'équilibre radiatif au-delà des seuls GES anthropiques (le cycle du carbone, le cycle de la végétation, la distribution de chaleur océanique, etc.).

Oui toi, mais...
Lien à poster
Partager sur d’autres sites

Bien, on en revient donc à la seule vraie question qui ait un sens:

existe t il une rétroaction salvatrice?

ceux qui y croient et la cherchent désespérément en restent pour leurs frais pour le moment.

Or, là, la paléo ne conduit pas tellement à penser qu'il existe vraiment une rétroaction puissante.

d'une part il n'y a pas besoin d'une rétroaction puissante, le seul effet radiatif du CO2 sans grosse rétroaction diminue deja nettement la sensibilité, en tout cas la ramène à la limite basse.d'autre part, il y a un mécanisme évident qui peut amplifier plus les variations vers le froid que vers le chaud : la couverture glacée des terres, qui ne joue que dans le sens des glaciations/déglaciation. Plus elles diminuent, moins leur effet est sensible.
Lien à poster
Partager sur d’autres sites

d'une part il n'y a pas besoin d'une rétroaction puissante, le seul effet radiatif du CO2 sans grosse rétroaction diminue deja nettement la sensibilité, en tout cas la ramène à la limite basse.

d'autre part, il y a un mécanisme évident qui peut amplifier plus les variations vers le froid que vers le chaud : la couverture glacée des terres, qui ne joue que dans le sens des glaciations/déglaciation. Plus elles diminuent, moins leur effet est sensible.

Mauvais exemple: il s'agit là de la diminution d'une rétroaction positive, il ne s'agit pas d'une rétroaction négative. A la rigueur, on pourrait peut être parler d'une rétroaction de deuxième ordre (cad d'une rétroaction négative dans une rétroaction positive)

Pour parler de cette rétroaction négative là, il faut déjà avoir ajouté une rétroaction positive à ton effet radiatif.

Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...