ChristianP Posté(e) 1 décembre 2013 Besse sur Issole (83 - Alt 275 m à 26 km de la mer) Partager Posté(e) 1 décembre 2013 Pour montrer que ça ne sert à rien de suivre ces tendances décennales/30 ans sur ce genre de graphe, même en respectant le modèle, j'ai tracé les tendances décennales /30 ans et leurs IC, pour la série Hadcrut4 standard et l'hybride (il manque les derniers mois de 2013 pour la dernière sur 1984-2013) La première tendance décennale /30 ans débute donc en 75 vers le point du dernier changement significatif de tendance au pas mensuel, ceci pour que toutes les tendances appartiennent bien au même modèle linéaire (qui se terminera quand les données afficheront un nouveau changement significatif de tendance, soit pour une stabilisation, soit pour un réchauffement significativement plus important que l'actuel depuis 75, soit pour un refroidissement significatif) J'ai intégré aussi une des prévis de l'AR4 donnée ici, http://www.ipcc.ch/publications_and_data/ar4/wg1/en/ch10s10-es-1-mean-temperature.html . Je n'ai pas fourni celle de l'AR5, vu que les prévis sont revues à la baisse et ratissent plus large (avec un valeur basse de +0.3°en 30 ans sur 2016-2035 / la moyenne fin 2005, soit une tendance moyenne de 0.1°/déc/ 30 ans, ça fait un IC inférieur bleu (à la place de celui de l'AR4) qui se situerait pas loin des 0.04°/déc. Donc autant dire, qu'il faudrait une sacrée catastrophe naturelle pour que l'IC sup des obs se retrouve sous cette valeur ! Ne pas oublier que même la prévis de l'AR4 se jugera surtout vers 2030, car la courbe centrale a largement le temps d'évoluer, de monter ou de descendre, ce sont des tendances décennales moyennes/30 ans,nous ne sommes pas encore à la moitié de la période. Pour le moment, les obs décennales moyennes/30 ans sont largement dans les clous de cette prévis. J'aurais pris la cible habituelle des 0.2°/déc/30ans du scénario moyen, testé habituellement par les sceptiques aussi, les obs sont quasi parfaitement conformes avec la dernière tendance hybride de 0.196°/déc/30ans (pour le moment, rien n'est joué d'un point de vue mathématique, c'est plus probablement le cas d'un point de vue physique) Cette méthode est inutile pour détecter un changement significatif d'évolution des tendances, on le verra bien plus tôt avec celles que j'ai largement citées et expliquées x fois. Comme je l'ai aussi indiqué, pour la vérifications des prévis, il vaut mieux comparer les moyennes/30 ans indépendantes, pour minimiser l'importance de l'IC de 0.05° à 0.06° qui se situera autour des valeurs sur 30 ans et non pas sur des tendances décennales aux chiffres divisés /3 (l'IC est relativement plus important pour une tendance /10 ans en moyenne/30 ans, car pour une même moyenne donnée on peut observer différentes tendances internes du fait de la variabilité des données annuelles et de leur position par rapport au centre des tendances concernées). Donc pour invalider plus facilement la prévis, il vaut mieux comparer des moyennes plutôt que des tendances (Je parle d'un point de vue purement arithmétique et non physique, je le répète, car les prévis peuvent être mathématiquement très bonnes sans que physiquement tout soit aussi bon dans les modèles, et inversement, dans ce cas avec des obs exceptionnelles pour x autres raisons qu'un problème de physique et autres dans les modèles, qui ne sont pas conçus pour prévoir des obs exceptionnelles, mais les plus probables en moyenne) Lien à poster Partager sur d’autres sites More sharing options...
piloutop Posté(e) 1 décembre 2013 Saint Hilaire (195m), 20km au Sud de Toulouse (Haute Garonne) Partager Posté(e) 1 décembre 2013 Pas tant que cela au vue des dires de Christian et Cotissois. Ben non ... Lien à poster Partager sur d’autres sites More sharing options...
gpiton Posté(e) 2 décembre 2013 Partager Posté(e) 2 décembre 2013 ChristianP La courbe que j’ai calculée voulait seulement permettre de voir, de manière synthétique, l’évolution des valeurs de la tendance décennale calculée sur une base de 30 ans à partir des données Giss Loti. Un point c’est tout. Je n’ai pas parlé d’autres choses, ni présenté cela comme un «super indicateur». Comme me disait mon directeur, on peut dire ce que l’on veut, avoir les opinions que l’on veut, ce qui compte, ce sont les faits car ils sont têtus. N’importe qui peut constater que, dans la période récente, l’évolution des valeurs de tendance décennale a changé, avec une légère diminution ai-je écrit. Cela n’est pas une surprise puisque les estimations des anomalies récentes évoluent moins vite que dans les périodes précédentes (années 60 à 90) et donc conduisent, de fait, à faire baisser la tendance en cours. C’est déjà ce que l’on constate, jusqu’à maintenant, dans le graphe (fourni précédemment) produit par Ed hawkins, un contributeur du Giec. La référence à 2003 ne m’a pas interpellé. Dans son rapport sur « le changement climatique », d’Octobre 2010, en page 3, l’académie des sciences Française disait : «En résumé, depuis la seconde moitié du XIXe siècle, plusieurs indicateurs indépendants montrent sans ambiguïté un réchauffement climatique, post ‐ Petit âge glaciaire2, modulé dans le temps, avec une augmentation de 1975 à 2003.» C’est évident que les évolutions précédentes ne pouvaient par perdurer. Elles devaient aboutir à un plateau, plus ou moins fluctuant que j’avais personnellement estimé, en me basant sur le graphe de Ed Hawkins à une moyenne d’environ 0,25-0,26°C par décennie. En relisant le chapitre 11 du rapport AR5, les valeurs des projections des modèles sont données en milieu de page 52 : « (7) Compte tenu de la sensibilité des projections à la période de référence, il est utile de considérer le taux probable de changement de GMST dans le court terme. Les gammes 5%-95% des modèles CMIP5, pour les tendances GMST dans la période 2012-2035, sont de 0,11°C-0.41°C par décennie.» Cela correspond à une moyenne de 0,26°C, proche de mon estimation, alors que précédemment, c’est plutôt la valeur de 0,2°C qui était utilisée. Zeke Hausfather, actuellement chercheur principal au Berkeley Earth, écrit régulièrement sur « The Yale forum ». Ce 25 novembre : « Au cours de la dernière décennie les modèles ont projeté que le réchauffement accélérerait comparé aux 30 années antérieures, alors que les mesures (même avec les données révisées de Cowtan & Way) ne montrent aucune accélération dans le réchauffement.. » Que conclue-t-il des récentes évolutions des estimations de température globale de surface terrestre ? « Les prochaines années seront importantes en aidant les scientifiques à déterminer si le ralentissement récent du réchauffement est une fluctuation mineure ou quelque chose de plus significatif qui pourrait constituer un défi fondamental à la compréhension du climat de la Terre.» C’est exactement ce que je pense. Ne me dites-pas qu’il est un climato-sceptique et qu’il n’a rien compris….. Ps nous n’avons pas le même tableur. Le mien donne 0,187°C pour la tendance décennale C&W hybrid calculée sur les 30 dernières années connues (de Janvier 1983 au 31 décembre 2012). Lien à poster Partager sur d’autres sites More sharing options...
rcaman Posté(e) 2 décembre 2013 Partager Posté(e) 2 décembre 2013 et je retourne ma veste toujours du bon coté….. Lien à poster Partager sur d’autres sites More sharing options...
Cotissois 31 Posté(e) 3 décembre 2013 Brest Partager Posté(e) 3 décembre 2013 Zeke Hausfather, actuellement chercheur principal au Berkeley Earth, écrit régulièrement sur « The Yale forum ». Ce 25 novembre : « Au cours de la dernière décennie les modèles ont projeté que le réchauffement accélérerait comparé aux 30 années antérieures, alors que les mesures (même avec les données révisées de Cowtan & Way) ne montrent aucune accélération dans le réchauffement.. » Que conclue-t-il des récentes évolutions des estimations de température globale de surface terrestre ? « Les prochaines années seront importantes en aidant les scientifiques à déterminer si le ralentissement récent du réchauffement est une fluctuation mineure ou quelque chose de plus significatif qui pourrait constituer un défi fondamental à la compréhension du climat de la Terre.» C’est exactement ce que je pense. Ne me dites-pas qu’il est un climato-sceptique et qu’il n’a rien compris….. Je parie que le gars ne dirait pas la même chose devant ses confrères. Le choix des mots est incompatible avec un discours scientifique neutre : futur simple, "aucune", "fondamental", "seront importantes", etc. donc le gars se désinhibe en arrivant sur un forum, avec une volonté de tout "jeter" ou de se trouver un public. Et c'est un comportement tout à fait humain, mais égoïste et peu professionnel. Regardez ma courbe à nouveau, celle qui montre 2 estimations de température, avec 2 incertitudes. Et voyez que la réalité on la connaît à peu près. Et c'est justement pour çà que dans le doute, rien n'est remis en question. Ici le doute sert à évacuer la sur-interprétation : ne pas avoir l'esprit orienté vers "ça ne se passe pas comme prévu". Exercice difficile j'en conviens, mais les modèles numériques nous aident terriblement car ils ont un signal lissé et nous obligent à voir large. Lien à poster Partager sur d’autres sites More sharing options...
ChristianP Posté(e) 7 décembre 2013 Besse sur Issole (83 - Alt 275 m à 26 km de la mer) Partager Posté(e) 7 décembre 2013 Oui Gpiton, la valeur de ma dernière tendance hybride/30 ans n'est pas la bonne. Elle est en fait sur 29 ans (sur 1984-2012 au lieu de 1984-2013), car sans données disponibles sur 2013. La dernière tendance hybride possible/30 ans pour le moment, est bien de 0.187°/déc +-0.053° sur 1983-2012. Ca, c'est bien un fait que tu aurais pu démontrer mathématiquement, si je n'avais pas été d'accord. C'est justement le problème sur d'autres points que tu abordes, ce ne sont pas des faits, et ils sont sans rapport avec les erreurs mathématiques de ton graphe. Je ne vois pas de tests mathématiques valides qui montrent un changement significatif sur le fond, en attendant que les mesures physiques tranchent dans le vif. Ton graphe de synthèse sur l'évolution des tendances décennales sur 30 ans n'est pas un fait (tu dis que ce n'est pas un super indicateur, mais tu persistes quand même à utiliser dans ta réponse cette estimation de 0.26°/déc vers 2013, sans aucun sens), tant que tu ne respecteras les règles mathématiques du modèle sur lequel tu t'appuies (le linéaire) et en général celles élémentaires en stats, dont une des plus fondamentales : le respect de l'indépendance des données. Avec ces tendances glissantes, en plus de ne pas respecter les changements significatifs, tu rends fortement dépendantes les données et donc tu traces une fausse tendance linéaire et tu en tires des conclusions exactement comme si les données /30 ans étaient indépendantes (avec les centres des tendances espacés d'au moins 30 ans). En fait tu ne peux réaliser aucune régression linéaire valide sur les tendances/30 ans glissantes pour ta droite rouge (et encore moins extrapoler), car le nombre de degrés de liberté effectif est ridicule, on ne peut rien faire. Tu n'as en réalité que 2 points indépendants possibles sans chevauchement de données. Donc ton estimation de 0.26°/déc en prolongeant cette droite, c'est exactement comme si tu nous affirmais que 1 + 1 = 0.26, ça ne repose sur aucune règle mathématique valide (sans parler du fait que la prévis centrale de 0.26°/déc , n'est pas donnée pour fin 2013, mais pour une moyenne atteinte dans 22 ans ! Si on suivait toujours ton raisonnement biaisé, cette valeur de 0.26°/déc sur ton graphe serait à pointer en 2035 pour comparer la pente théorique (toute aussi fausse) avec la tienne) Pour que ta synthèse d'évolution des tendances/30 ans soit correcte, il suffit juste de respecter les points de changements significatifs de tendance : et de présenter tes tendances/30 ans de cette façon : Là elles seront indépendantes. La droite entre 2 points donnés, n'est pas une régression linéaire. C'est une liaison comme tu la réalises naturellement entre deux anomalies annuelles (ou autres) de T qui se suivent, où personne ne tentera une régression, vu que dans ce cas tout le monde trouve naturellement, que ça n'a pas de sens de calculer une tendance avec 2 points. Pour adapter ce graphe, il suffit juste de réduire certaines tendances à 30 ans (le dernier segment est bien plus long) et donc corriger les IC en conséquence (avec le calculateur de SKS, tu y parviendras facilement, par contre pour le modèle d'auto-corrélation, il faut changer de gamme d'années pour que le modèle de bruit calculé concerne le bon segment) , tout en respectant l'indépendance des données si tu choisis une autre période dans un même segment, donc en maintenant au minimum 30 ans d'écart, entre le centre de chaque tendance décennale/30 ans. C'est correct mathématiquement si tu choisis dans un même segment, la tendance/30 ans que tu souhaites. Par exemple pour le dernier, c'est une de celles sur 1975-2004 à 1984-2013, même la plus faible des tendances de mon graphe (du précédent message) que tu trouveras si tu veux, car ce sont les mêmes tendances/30 ans dans un même segment sans changement significatif. Pour d'autres segments, tu n'as pas trop de choix, vu que les tendances/30 ans appartenant au même segment, ne peuvent être nombreuses dans une tendance qui ne dure guère plus de 30 ans sans changement significatif. C'est donc dans le dernier segment que tu as le plus de liberté, justement parce que le réchauffement se poursuit sur le fond plus longtemps que 30 ans, toujours avec la même vigueur sur ce fond (et non pas sur 10, ou 16 ans ou autres tendances et moyennes, internes, jusqu'à ce qu'elles soient significativement différentes de la tendance de fond antérieure), ce que montre justement le palier de ton graphe vers 2003, qui n'est qu'une preuve de plus que la tendance/30 ans n'a pas évolué significativement (la tendance/30 ans varie de quelques miettes, un changement pour une simple stabilité réelle, aurait affiché une nette baisse sur ta courbe, comme après 1945, étant donné qu'il faut bien que ta tendance /30 tombe à 0.05°/déc +-0.055° pour afficher une stabilité et ce n'est pas en gardant la même tendance/30 ans vers 0.17°/déc, mais en se réduisant nettement pour tomber à 0.05°/déc, qu'on arrive à une stagnation significative et différente) C'est un fait mathématique qu'il n'y a probablement pas de changements sur le fond avec une confiance à 95%. Tu as plus à l'air de tenter volontairement de le masquer par des moyens que tu sais invalides depuis le temps que tu lis sur ce sujet, alors qu'il en existe des bons et que tu les connais. Si tu veux présenter des faits qui contredisent mon affirmation basée sur les tests mathématiques conformes avec ce que nous dit la physique pour le moment, c'est très simple, présente nous des résultats de calculs de tests valides (même si ce n'est pas toi qui les effectue), qui montrent que le changement est significatif sur le fond. Ce sera un fait qu'il y a un changement significatif sur le fond, quand quelqu'un apportera au moins une preuve mathématique valide, en attendant que la physique détecte la véritable évolution sur le fond malgré la trop courte longueur du palier. Je le répète un fait se montre très facilement, aussi facilement que tu aurais pu le faire, si j'avais contesté le fait que la tendance hybride /30 ans, ne pouvait pas être calculée avec les données de 2013 non disponibles. Donc applique la même méthode pour appuyer ce que tu penses être des faits. Le vrai test arithmétique des prévis, c'est de vérifier la compatibilité de l'évolution de la moyenne /1984-2013 avec celle prévue /1984-2013 (Ne pas oublier les bases : le RC pour les prévis du GIEC, c'est avant tout, la prévision de l'évolution de l'état moyen) et non par rapport à celles prévues /30 ans pour 2030 ou 2035, car les valeurs actuelles peuvent largement évoluer et elles se testeront assez efficacement plus près de ces dates (donc pour 1984-2013, ce sont des valeurs virtuellement prévues, car générées par les modèles après des obs, surtout par l'AR4 et l'AR5, ce qui n'est pas un problème pour les projections classiques qui ne sont pas initialisées sur les anomalies observées) Sinon pour Zeke que je suis depuis des années, vu qu'il travaille sur un sujet qui me passionne, m'avait habitué à beaucoup mieux. Si tu ne sais pas le vérifier par toi-même, demande lui de nous montrer vers quelle année pendant notre période où ça diverge des modèles, sur la courbe centrale des modèles, la dérivée seconde indique une accélération significative ? Quand tu reviendras avec une dérivée seconde qui montre qu'on devait observer une accélération significative dans les modèles, je te dirais qu'effectivement c'est un fait. En attendant, c'est du bla-bla de blog. Il faudra être fort pour trouver une accélération significative sur la courbe centrale des modèles aussi rectiligne : Pour que la dérivée seconde indique une accélération significative, il faut un minimum de courbure générale et une pente générale assez différente après qu'avant la courbure, qui se verra quand même à l'oeil. La plupart des modèles de l'AR4 ne prévoyaient déjà pas d'accélération avant 2040-2050 (j'en ai déjà parlé à l'époque) et là avec ce qu'on a rapporté depuis plusieurs messages sur les prévis de l'AR5, c'est loin d'être le cas. Pour que ce soit un fait, que quelqu'un démontre mathématiquement où est l'accélération significative dans les prévis des modèles pour notre période. Pour le RC qui ralentirait, c'est toujours le raccourci habituel de nombreux scientifiques de qualité, quand ils parlent d'une période courte relativement plate. Je ne vais pas encore rappeler ce que sont les bases de l'évolution du climat et donc du RC, qui ne se joue pas à la petite semaine. Le fait est qu'il n'y a pas de changement significatif dans l'évolution de la moyenne/30 ans, le dernier échantillon de climat se réchauffe toujours. C'est un fait très simple à démonter mathématiquement, si je me trompe. Donc toujours pareil, apportez nous des résultats de tests valides et non des bla-bla. Là le fait est que depuis 99 les anomalies annuelles sont sous la courbe centrale des modèles du graphe, mais ce n'est pas encore significatif pour l'évolution de l'échantillon de climat, ni pour des modèles conçus surtout pour prévoir l'évolution de grandes moyennes (/30 ans au moins), malgré le fait qu'un palier de ce niveau, est rare dans les modèles, il ne l'est pas quand on analyse les obs réelles (j'ai déjà assez calculé d'IP et d'IC pour laisser à ceux qui contredisent ces faits, de présenter un minimum boulot) Quelque soit l'évolution par rapport aux prévis, les données futures sont toujours importantes, vu qu'on a pas une confiance à 100%, quelque soit le cas, tant qu'on n'a pas assez de mesures physiques de divers paramètres pour quantifier précisément les causes de chaque variation interne. Lien à poster Partager sur d’autres sites More sharing options...
ChristianP Posté(e) 8 décembre 2013 Besse sur Issole (83 - Alt 275 m à 26 km de la mer) Partager Posté(e) 8 décembre 2013 An apparent hiatus in global warming? Kevin E. Trenberth, John T. Fasullo http://onlinelibrary.wiley.com/doi/10.1002/2013EF000165/full We can speculate that the huge 1997–1998 El Niño event was a trigger for the change in the PDO; certainly, it led to a large loss of heat in the Pacific [Balmaseda et al., 2013] that has taken years to recover from, if the recovery is even complete. Past behavior of the PDO (Figure 8) suggests that regimes can last for 25 years. The CCSM4 model has hiatus periods up to about 15 years in duration, projected during the 21st century when there is a positive TOA energy imbalance [Meehl et al., 2013]. Accordingly, it becomes very important for climate models to be able to simulate ENSO and Pacific decadal variability realistically, with the correct amplitude and duration as a form of natural climate noise in which any external signals are embedded Voilà une raison de plus pour laquelle on ne peut pas s'appuyer sur des périodes courtes pour invalider arithmétiquement des modèles sur le fond ( tant que les modèles ne simulent pas correctement l'amplitude et la durée de certains bruits), comme avec le fait qu'on relève de rares paliers de plus de 15-16 ans dans les modèles (quand ce bruit qui ne change rien au fond, sera bien simulé, on verra probablement dans les modèles, la même chose que l'on observe dans les obs analysées mathématiquement : une banalité de ce genre de palier) et donc pourquoi en attendant, il faut continuer à ne s'occuper que de suivre/comparer l'évolution des grandes moyennes (d'au moins 30 ans) pour lesquels ils sont conçus. Lien à poster Partager sur d’autres sites More sharing options...
th38 Posté(e) 8 décembre 2013 Partager Posté(e) 8 décembre 2013 An apparent hiatus in global warming? Kevin E. Trenberth, John T. Fasullo http://onlinelibrary.wiley.com/doi/10.1002/2013EF000165/full Voilà une raison de plus pour laquelle on ne peut pas s'appuyer sur des périodes courtes pour invalider arithmétiquement des modèles sur le fond ( tant que les modèles ne simulent pas correctement l'amplitude et la durée de certains bruits), comme avec le fait qu'on relève de rares paliers de plus de 15-16 ans dans les modèles (quand ce bruit qui ne change rien au fond, sera bien simulé, on verra probablement dans les modèles, la même chose que l'on observe dans les obs analysées mathématiquement : une banalité de ce genre de palier) et donc pourquoi en attendant, il faut continuer à ne s'occuper que de suivre/comparer l'évolution des grandes moyennes (d'au moins 30 ans) pour lesquels ils sont conçus. Super intéressant cet article ! Merci Christian Lien à poster Partager sur d’autres sites More sharing options...
gpiton Posté(e) 12 décembre 2013 Partager Posté(e) 12 décembre 2013 En attendant que Zeke Hausfather , qui est à l’AGU à San fansisco, me réponde sur "l’accélération de tendance", il y a de quoi lire. Un blog a sorti le projet du prochain rapport de synthèse 2014 du Giec : http://tallbloke.files.wordpress.com/2013/12/pre-fod-syr03122013-fin.pdf Lien à poster Partager sur d’autres sites More sharing options...
Cotissois 31 Posté(e) 14 décembre 2013 Brest Partager Posté(e) 14 décembre 2013 Gpiton, ne nous incitez pas à commenter une ébauche de rapport comme çà. Vous pouvez le garder sur le disque-dur, vous aurez déjà la satisfaction d'avoir eu accès à un document probablement hacké, vu le blog d'origine, donc probablement d'accès illégal. Comment ne vous rendez-vous pas compte que ce document n'est pas communicable en l'état où il est ? Quant à Zeke, on attend ce qu'il va dire devant ses collègues de l'AGU. Ce qu'il dit en privé ou sur son forum ou sur blog, ce n'est absolument pas notre problème, ni le sujet d'ailleurs. Lien à poster Partager sur d’autres sites More sharing options...
Cotissois 31 Posté(e) 14 décembre 2013 Brest Partager Posté(e) 14 décembre 2013 Bon, ce n'était pas mon propos de départ. Je voulais souligner le nombre incroyablement bas de reprises médiatiques de l'article de cowtan and way. D'un certain point de vue, ça simplifie la communication et ça ne pose pas le problème d'un "retour en arrière" qui serait difficile à gérer pour les communicants du GIEC. Mais d'un autre, cela démontre que l'Internetomédiatosphère devient tellement addict au buzz et la polémique qu'elle n'arrive plus à accorder de l'importance à ce qui est important. Au fond, toute importance est relative et discutable. Allez, en 2014, la prochaine sortie du GIEC va encore agacer tout le monde et tout ce qui sera dit sera retenu contre Je vous avais déjà dit que la chambre des Communes (Parlement britannique) avait sollicité un rapport sur le rapport du GIEC ? en résumé, les députés anglais débattent entre eux pour savoir s'il faut croire et suivre le rapport du GIEC. Si ! http://www.parliament.uk/business/committees/committees-a-z/commons-select/energy-and-climate-change-committee/inquiries/parliament-2010/the-ipcc/ Lien à poster Partager sur d’autres sites More sharing options...
CP3 Posté(e) 15 décembre 2013 Vaucluse Partager Posté(e) 15 décembre 2013 D' après les interprétations des données du GISS , Ce mois de Novembre 2013 a été le mois de Novembre le plus chaud jamais enregistré depuis le début des mesures . Ainsi pour cette Année 2013 , Le second semestre ,semble enregistrer des ano positives de temperature plus forte qu' au premier . A voir , le resultat des sorties prochaines de l' ensemble des organismes . Lien à poster Partager sur d’autres sites More sharing options...
CP3 Posté(e) 17 décembre 2013 Vaucluse Partager Posté(e) 17 décembre 2013 Après les fortes anomalies de températures relevées par le Giss pour ce mois de Novembre ,il en est de meme pour la Noaa qui mesure,également , la plus forte ano de temperature positive à la surface des terres et des mers , pour un Mois de novembre . D' ailleurs pour la Noaa , le trimeste Sept-Oct -Nov 2013 , est aussi le second trimeste le plus chaud pour cette meme periode , jamais enregistré depuis le début des mesures . Un petit coup de chaud semble donc se confirmer notamment pour le second semestre 2013 , le tout dans des conditions Enso neutre . A voir , ce que fera paraitre , la situation en 2014 . Lien à poster Partager sur d’autres sites More sharing options...
TreizeVents Posté(e) 17 décembre 2013 Dax (40) Partager Posté(e) 17 décembre 2013 Quand je vois les relevés de GISS et de la NOAA (et Hadley devrait très probablement aller dans le même sens), je me demande si le gros coup de chauffe qu'ils enregistrent n'est pas lié, en partie, à la manière dont se sont réparties les anomalies. On sait que ces trois bases ne prennent pas, faute de mesures suffisantes, en compte les régions arctiques et antarctiques. Du coup, cela a tendance à "atténuer" les anomalies mensuelles lorsque l'on a de fortes anomalies chaudes sur le bassin arctique (non prises en comptes) et des anomalies froides sur les continents (prises en compte), ce qui a été la situation la plus observée et de loin en particulier en hiver ces dernières années. Or, en novembre 2013, le schéma a été inversé : les terres d'Eurasie ont monstrueusement surchauffé et cela a été pris en compte (on tape dans les +5° sur le mois sur de larges pans de Sibérie) au point que l'Amérique du Nord restée plus froide n'a pas pu compenser, alors que c'est dans le bassin arctique que les anomalies sont restées plus modestes au regard de ce que l'on a déjà pu obtenir. J'ai fait tourner rapidement les réanalyses du NCEP, c'est assez flagrant : quand on fait tourner les réanalyses en retirant les régions non couvertes par GISS ou la NOAA, on tombe exactement comme ces deux bases sur une valeur de novembre 2013 record, de peu, de 2010. Mais si on intègre les régions polaires dans la réanalyse, novembre 2013 n'arrive en fait qu'en troisième position, très très loin de novembre 2012 qui avait explosé les compteurs. On peut le confirmer d'ailleurs avec la projection des anomalies issue de la réanalyse : [align=center][/align] Véritable cocote minute du bassin arctique, non prise en compte dans l'anomalie NOAA (zone grisée) : [align=center][/align] Ce n'est que mon avis de modeste amateur, mais j'aurais tendance à bien plus faire confiance au résultat donné par la réanalyse globale (avec novembre 2013 bien moins chaud que 2012). Lien à poster Partager sur d’autres sites More sharing options...
ChristianP Posté(e) 18 décembre 2013 Besse sur Issole (83 - Alt 275 m à 26 km de la mer) Partager Posté(e) 18 décembre 2013 Oui je me faisais la même réflexion sur l'influence de la répartition des anomalies sur terre ou sur mer. C'est clair qu'avec un écart-type bien plus important dans les terres (une anomalie à +3 sigma sur 1000 km2 en pleine Russie, ça produit une anomalie en °C, bien plus importante que + 3 sigma en pleine mer près de l'équateur pour cette même surface), si les terres récoltent proportionnellement plus d'anomalies froides, alors que ce sont les mers qui récupèrent plus d' anomalies chaudes, l'anomalie globale ne peut que varier de façon différente dans le cas inverse. Je regrette et je ne comprends toujours pas pourquoi les spécialistes ne communiquent pas une anomalie non pas seulement en °C, mais en nombre d'ET global, déterminé à partir du nb d' ET de chaque maille (et non pas à partir de l'ET de la moyenne globale communiquée, qui ne peut pas faire ressortir la véritable anomalie de la planète, le vrai écart à la variabilité "normale", indépendant du fait qu'on relève plus ou moins d' anomalies +-, en mer et sur terre) Pour le moment sans ce paramètre, je reste toujours sur ma faim. En attendant pour Gpiton, il y a une méthode où on n'a pas à s'occuper de savoir si on respecte le modèle linéaire pour suivre l'évolution du climat, en utilisant la moyenne mobile / 31 ans qui affiche le signal de fond à l'échelle minimale pour parler d'évolution du climat (Pour un centrage correct une moyenne mobile avec un nombre impair, sur 31 ans au lieu de 30 ans, les IC espacés de 31 ans pour préserver l'indépendance des moyennes pour des comparaisons des moyennes / 31 ans) Je l'ai comparée à celle /31 ans des modèles CMIP3 que j'avais en stock (du moins uniquement ceux qui génèrent des données pour la période donnée sur 1880-2050), dont j'avais diffusé le fichier Excel en lien quelque part dans ce forum. Les IC ne prennent en compte que l'incertitude générale de l'estimation d'une moyenne, donc ils n'intègrent pas l'incertitude des modèles, ni celle de mesure et de détermination de la T globale, c'est à dire qu'on ne peut pas produire des IC plus petits. A une année donnée, correspond le centre d'une moyenne/31 ans (donc la dernière valeur, c'est le centre de la moyenne sur 1983-2013 : 1998). Lien à poster Partager sur d’autres sites More sharing options...
gpiton Posté(e) 20 décembre 2013 Partager Posté(e) 20 décembre 2013 En ce qui concerne l’analyse de Zeke Hausfather fin Novembre, je n’ai pas eu de réponse (répond-t-il à un inconnu….). Mais il suffit de lire le rapport AR5 du Giec pour vérifier s’il a raison ou pas. La tendance des 360 derniers mois connus (30 ans) est de : Giss loti = 0,171°C +- 0,058 Noaa = 0,160°C +- 0,054 Hadcrut4 = 0,169°C +- 0,056 C&W hybrid = 0,187 +- 0,063 Dans le rapport AR5, en haut de page 26 du chapitre 9, il est écrit : “Cependant, une analyse de la pleine suite des simulations historiques CMIP5 (augmenté pour la période 2006–2012 par les simulations RCP4.5) révèle que 111 de 114 réalisations montrent une tendance GMST sur 1998-2012 qui est plus haute que l'ensemble de tendance HadCRUT4 entière (paragraphe TS.3, figure 1a ; la tendance moyenne de l'ensemble CMIP5 est de 0,21°C par décade).” Page 27 : « La tendance décennale des modèles CMIP5 sur les 15 ans finissant en 1998 est de 0,16°C. » Cela correspond à ce que dit Zeke Hausfather : « Au cours de la dernière décennie les modèles ont projeté que le réchauffement accélérerait comparé aux 30 années antérieures, alors que les mesures (même avec les données révisées de Cowtan & Way) ne montrent aucune accélération dans le réchauffement. » Selon le rapport AR5, la tendance moyenne attendue (0,21°C sur 1998 à 2012) est supérieure à celle prévue par les modèles dans les 15 années précédentes (0,16°C) ou même des 30 années précédentes (~0,145°C). L’estimation de tendance moyenne réelle des 15 dernières années est restée faible (0,04 à 0,12°C par décennie selon la source, C&W compris) et celle des 30 dernières années se situe à 0,16 - 0,187°C selon les sources, C&W compris. Les auteurs du rapport AR5 font parfois des comparaisons avec des périodes de 15 ans. S’ils le font, même si cela accroit l’incertitude, c’est qu’ils estiment que cela a du sens. Je ne vois donc pas ce qui gênerait ses collègues, sauf à dire que l’on ne peut rien déduire de statistiquement significatif sur des périodes inférieures à 30 ans. Mais cela reviendrait à dire que ce qui est écrit dans certaines parties du rapport ne veut rien dire…. Pour les tendances en cours ou à venir, j’ai regardé ce que disaient l’AR4 et l’AR5. Dans l’AR4 sorti en 2007, il était écrit : - Prévision de tendance dans la prochaine décennie d’environ 0,2°C, - Projection 2025/2005 de 0,45 à 0,5°C soit en moyenne 0,226°C par décennie, - Projection 2011-2030/1980-1999 de 0,64 à 0,69°C soit en moyenne 0,215°C par décennie, - Projection 2046-2068/1980-1999 de 1,29 à 1,75°C (moyenne 1,52°C). Dans l’AR5, pages 52 il est écrit : - Prévision tous modèles CMIP5 2016-2035/1986-2005 de 0,48 à 1,15°C (moyenne 0,815°C soit ~0,272°C par décennie) ; - Prévision décennale tous modèles CMIP5 2012/2035 de 0,11 à 0,41°C soit en moyenne 0,26°C par décennie ; Il y a d’autres estimations dans l’étude Stott et al 2013. Elle a démontré que pour chaque RCP l'extrémité supérieure de la fourchette des projections CMIP5 des modèles climatiques est incompatible avec le réchauffement passé. Il est écrit : - Prévision CMIP5 RCP 8.5 2020-2029/1986-2005 de 0,51 à 1,16°C (moyenne 0,835°C) - Prévision CMIP5 RCP 4.5 2020-2029/1986-2005 de 0,48 à 1°C (moyenne 0,74°C) Les simulations issues des modèles CMIP5 prévoient bien, une augmentation des moyennes de tendance décennale pour la, ou les deux prochaines décennies. Il est vrai que les marges d’erreurs sont très importantes, les valeurs pouvant varier de 1 à 2, voire de 1 à 3,7… Par contre, pour mieux coller à ce qu’il pense être le plus probable, la prévision GIEC 2016-2035/1986-2005 a été abaissée, par rapport aux simulations. La fourchette est de 0,3 à 0,7°C, beaucoup plus proche de la tendance réelle passée . J’ai récupéré sur le site http://climexp.knmi.nl/CMIP5/Tglobal/ les estimations d’évolutions moyennes des températures selon les 4 scénarios. Les valeurs sont données en températures absolues, avec un léger décalage de base selon le scénario. Je cherche à récupérer les IC. (RCP 8.5 en rouge, 6.0 en vert, 4.5 en bleu, 2.6 en marron). En dehors du scénario 8.5, il n’y a pas d’accélération visible de tendance après 2015/2020. En relisant les rapports du Met Office paru en Juillet 2013 sur « la récente pause dans le réchauffement global », je constate qu’il utilise comme un des indicateurs, l’évolution des tendances décennales, mais calculée seulement sur une base de 9 ans. (figure 1 du 2ème rapport). Pour mieux visualiser les évolutions de tendance décennale, j’ai complété un graphe précédent avec les valeurs Giss Loti (noir), et les scenarios moyens RCP 8.5 (rouge), 6.0 (vert), 4.5 (bleu), 2.6 (marron). Il s’agit bien de tendances décennales calculées sur les 30 dernières années, pas de l’évolution des anomalies, donc tout ce qui dépasse 0 correspond à une élévation de température, plus ou moins rapide. Les valeurs des tendances décennales moyennes des différends scénarios RCP restent proches jusqu’en 2020 en continuant d’accélérer jusqu’à 0,27–0,29°C. C’est bien en phase avec les écrits du rapport AR5 concernant les simulations CMIP5 pour l’avenir proche. Les scenarios divergent beaucoup après. Le scénario RCP 8.5 est le seul qui continue d’accélérer fortement bien après 2020. Ce graphe permet de comparer rapidement l’estimation de tendance réelle sur 30 ans avec celle correspondante attendue de l’un des scénarios CMIP5. Par exemple, pour les 360 derniers mois connus, l’estimation de tendance décennale Giss Loti est de 0,171°C +- 0,058. Pour la même période, celle correspondante des 4 RCP varie de 0,250 à 0,264°C (+- ?) Il s’agit là d’un constat, sachant que le plus important c’est de comprendre les causes qui produisent ces évolutions, et elles ne sont pas toujours les mêmes selon la période regardée. ChristianP, j’ai repris la logique de votre dernier graphe, en faisant une moyenne mobile centrée sur 31 ans sur toutes les données et en actualisant avec les 4 scénarios CMIP5 (les bases sont recalées pour faire coïncider les 4 parties «historiques» jusqu’en 2005). C’est plus rapide à réaliser, mais les évolutions sont moins visibles qu’en utilisant un comparatif de l’évolution des tendances calculées sur les 30 dernières années. A l'inverse du scénario RCP 8.5 (rouge) qui accélère de manière quasi continue, la tendance commence à s'infléchir vers ~2005, ~2010 et ~2020 selon les 3 autres scénarios. Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 21 décembre 2013 Partager Posté(e) 21 décembre 2013 Il s’agit là d’un constat, sachant que le plus important c’est de comprendre les causes qui produisent ces évolutions, et elles ne sont pas toujours les mêmes selon la période regardée. une des causes invoquées est une prise de chaleur, accrue, de l'océan. cette prise de chaleur serait corrélée à la phase négative de la PDO.(PDO très mal modélisée apparemment) voir ce qu'en dit Trenberth, ici. Mais je pense qu'on en a déjà parlé sur ce forum. Au passage bravo pour ta présentation des résultats des CMIP5. Lien à poster Partager sur d’autres sites More sharing options...
williams Posté(e) 22 décembre 2013 Partager Posté(e) 22 décembre 2013 une des causes invoquées est une prise de chaleur, accrue, de l'océan. cette prise de chaleur serait corrélée à la phase négative de la PDO.(PDO très mal modélisée apparemment) voir ce qu'en dit Trenberth, ici. Mais je pense qu'on en a déjà parlé sur ce forum. Au passage bravo pour ta présentation des résultats des CMIP5. Ce qui montre bien que les oscillations océaniques ont aussi un rôle sur l'évolution du climat. Williams Lien à poster Partager sur d’autres sites More sharing options...
ChristianP Posté(e) 27 décembre 2013 Besse sur Issole (83 - Alt 275 m à 26 km de la mer) Partager Posté(e) 27 décembre 2013 Merci Gpiton pour le boulot d'extraction et de tracés des modèles de l'AR5, un à un, en prime pour tous les scénarios. Ca se saurait, si pour vérifier la significativité d'un changement d'accélération sur le fond (et non avec du bruit à gogo !), il suffisait sans le comprendre, de lire le GIEC ou autres, de citer leurs chiffres sortis du contexte sans préciser, qu'ils ne sont pas significativement différents sur le fond à cause des courtes périodes concernées. C'est de plus en plus volontairement dans ton cas, vu qu'on t'a informé x fois comment savoir (si tu ne comprends pas le texte du GIEC) s'ils concernent un écart sur le fond, un écart avec le bruit, et/ou des variations internes visibles dans 30 ans. Tout le monde est capable de voir que ça varie à court-terme, que ça diverge sur 15 ans et sur d'autres périodes internes à 30 ans, qu'il y a des écarts en apparence sur des graphes, des valeurs centrales différentes, quand il y a du bruit mélangé au signal sur ces courtes périodes, mais sur le fond, ça demande autre chose, vu que les modèles ne sont pas conçus et bons pour ces échelles. Le GIEC ne va pas rabâcher x fois pour ceux qui se lavent le cerveau sur le fil conducteur robuste, quand il publie ailleurs dans le texte, des chiffres très utiles pour une autre échelle ! Donc arrête de jouer ici au faux ignorant ou mets toi au boulot pour intégrer une fois pour toutes les bases. Le fil rouge sous-jacent à garder en tête est clair : Despite the robust multi-decadal timescale warming, there exists substantial interannual to decadal variability in the rate of warming, with several periods exhibiting weaker trends (including the warming hiatus since 1998) (Figure TS.1)... ....Over the 62-year period 1951–2012, observed and CMIP5 ensemble-mean trend agree to within 0.02°C per decade (Box TS.3, Figure 1c; CMIP5 ensemble mean trend 0.13°C per decade). There is hence very high confidence that the CMIP5 models show long-term GMST trends consistent with observations, despite the disagreement over the most recent 15-year period. Si tu lis des chiffres du GIEC en oubliant volontairement systématiquement ce fil rouge, qui est que le signal climatique est très bien vu pour l'échelle climatique minimale (il faut 2 échantillons de climat,de 30 ans au moins, donc pour une tendance, c'est sur 60 ans au moins, comme par exemple, sur les 62 ans plus haut), et que les variations à court-terme divergentes, ne changent rien d'important pour le fond pour le moment et qu'elles sont utiles à faire ressortir pour l'analyse des variations internes visibles, ce n'est même pas la peine de continuer à le consulter. Les scientifiques en sont à tenter d'expliquer et de prévoir les variations dans 30 ans, comme pourquoi précisément une tendance /10, /15 ou /30 ans, est plus faible ou plus forte que celle de fond et que celles des modèles. Donc ils décortiquent tous les bruits (au sens très général, qu'ils soient habituels ou non, naturels ou non) suspects de faire varier la T à ces échelles. Ils font ressortir les divergences à ce niveau, montrent où ça ne colle pas assez pour se permettre une prévis interne à 30 ans efficace. Mais toi tu passes ton temps à nous sortir ces chiffres uniquement pour faire croire que ça a très probablement un sens important pour le signal de fond, alors que c'est l'inverse qui est le plus probable d'après eux. Maintenant, le pire, c'est que tu veux faire passer ces citations hors contexte du court-terme, comme une méthode un peu sérieuse et assez correcte pour tester si une accélération est significativement différente entre obs et modèles. Tu utilises des tendances/30 ans pour la chercher sans même afficher les IC des obs et des modèles sur ton graphe, alors que ton choix augmente proportionnellement le bruit d'un facteur 3 (!) plutôt que d'utiliser la moyenne/30-31 ans ! Si tu avais collé les IC aux valeurs des obs et des modèles sur ton graphe préféré, tu verrais déjà qu'il n'y a pas de diff significative et donc que c'est impossible mathématiquement d'observer et d'envisager une accélération significativement différente entre obs et modèles à cette échelle (dans le bruit aux courtes échelles, il n'y a rien de nouveau, tu pourras toujours en trouver des variations de vitesses au nanomètre tant que tu y es, mais même un élève de primaire sait que ça n'a pas de sens pour la T finale de la journée de se fixer sur les baisses et hausses horaires de T, mais dès que ça parle climat, c'est incroyable comme le cerveau de certains coince sur des bases aussi élémentaires !) Et oui ton IC sur une valeur de tendance décennale même moyenne/30 ans, est proportionnellement 3 fois plus grand que pour la moyenne/30 ans. L'IC plus important proportionnellement, ne sort pas du saint esprit, il est produit par ton choix volontaire inadapté à notre cas (chercher une accélération significativement différente sur le fond entre obs et modèles) et tu nous refiles cette proportion industrielle de bruit, alors que ça fait x messages qu'on te le signale et qu'on t'explique pourquoi l'estimation d'une tendance/30 ans est plus sensible au même niveau de bruit dans l'absolu que pour une moyenne/30 ans. Ce n'est pas parce que les scientifiques utilisent des tendances /x années pour d'autres raisons, que c'est utile pour notre cas. C'est le contexte qui décide du choix : chercher une accélération significativement différente sur le fond, nécessite de virer du bruit et pas d'en rajouter que ce soit dans l'absolu ou en proportion ! C'est quand même le comble quand on veut démontrer qu'il existe un changement significatif d'accélération entre les obs et les modèles, de vouloir absolument masquer le signal de fond, avec une quantité de bruit, alors qu'il faut faire l'inverse, virer assez de bruit, sans trop déformer le signal de fond, afin de visualiser comment évolue le signal de fond et trouver une éventuelle accélération différente sur le fond. ChristianP, j’ai repris la logique de votre dernier graphe, en faisant une moyenne mobile centrée sur 31 ans sur toutes les données et en actualisant avec les 4 scénarios CMIP5 (les bases sont recalées pour faire coïncider les 4 parties «historiques» jusqu’en 2005). C’est plus rapide à réaliser, mais les évolutions sont moins visibles qu’en utilisant un comparatif de l’évolution des tendances calculées sur les 30 dernières années. Ton "mais", est très symptomatique de l'erreur fondamentale, probablement volontaire depuis que tu as été informé en long et en large des échelles. Tu n'es pas satisfait parce qu'il n'y a pas de variations assez visibles en moyenne mobile/31 ans, pas assez d'écarts à ton goût, avec les modèles et des variations à l'échelle minimale climatique pour lesquels il sont faits. Ca ne plait pas que ça colle trop au modèles et allez hop (!), que je te rajoute une bonne couche de proportion de bruit en utilisant les tendances déc/30 ans, pour masquer le signal de fond et faire ressortir de fausses variations pour ce fond, vu qu'elles viennent de la proportion de bruit ajouté + du non respect du modèle de ces tendances, afin que que ça varie bien plus visuellement à cause du bruit pour tromper le lecteur, pour nous dire entre les lignes : Regardez, ça change bien sur le fond , alors que tu as contaminé le signal avec du bruit et en te basant sur l'utilisation tordues de citations de chiffres du GIEC qui ne concernent pas le fond, mais des périodes courtes ! Et dans le prochain message, tu vas nous ressortir la même tambouille, malgré les x explications. Oui ce sont des variations très intéressantes à décortiquer pour arriver à les prévoir, mais elles sont considérées comme négligeables pour le fond, tant qu'elles ne sont pas significatives pour lui, que ce soit physiquement, ou au moins mathématiquement, si la physique manque de mesures pour le déterminer. Ca se saurait si on pouvait avec des citations de valeurs non significativement différentes entre obs et modèles, démontrer un changement/une différence d'accélération significative pour le fond. Pour commencer à envisager une accélération significativement différente entre les obs et les modèles, il suffisait simplement de démontrer que les tendances de ton graphe préféré sur les tendances décennales/ 30 ans pour notre période où ça diverge, sont significativement différentes. Il te faut d'abord des IC des estimations stats des obs et modèles (donc coller au mimimum mentalement les IC, voir plus bas les infos pour remplacer ton point d'interrogation sur l'IC des modèles) Il y a du monde qui l'a déjà fait, bien avant ton graphe, je l'ai vérifié encore sur les points concernés de ton graphe. Il n'y a pas de différences significatives de tendances /30 ans obs/modèles, donc pas de différences significatives d'accélération. Et oui, il est impossible d'observer une accélération significativement différente sans d'abord relever une tendance significativement différente entre les obs et modèles (pour la période concernée par la divergence récente), vu que la dérivée première (les taux, les vitesses en °C/déc, non pas de ton graphe, mais celles données par les pentes des tangentes à la courbe d'évolution de la T moy mobile/31 ans) non significativement différente, ne peut donner une dérivée seconde (l'accélération en °C/déc^2) qui le soit. Un lycéen de première qui n'a pas abordé les calculs de significativité, pouvait étudier les variations de la fonction locale concernée par la divergence. Là tu n'as pas de problèmes avec le modèle linéaire pour suivre la véritable forme de l'évolution des pentes d' une courbe d'évolution du climat (donc des moyennes d'au moins 30 ans) Il aurait d'abord zoomé sur la période concernée entre les deux flèches à partir de 1961 à maintenant, 98 (car en valeur moyenne mobile/31 ans centrée), pour extraire la fonction locale dont on veut étudier les variations en partant d'une partie où les données sont assez proches pour que les divergences antérieures ne biaisent pas la détermination de la fonction pour la divergence qu'on cherche à étudier (au lieu de 1961, en regardant de plus près au zoom, j'aurais même dû commencer en 64, mais bon ça ne change rien) : Le zoom des moyennes mobiles/31 ans et deux fonctions y ajustées pour les obs et modèles, qui donnent les primitives à dériver : Là un lycéen dans son programme n'a normalement pas de quoi tester et vérifier qu'il n'y a pas une différence significative entre la linéaire et la quadratique (Il n'y a aucune raison objective de choisir la quadratique plutôt que la linéaire que ce soit pour les obs ou pour les modèles, ceci déjà à cause du bruit dans l'estimation, donc après les IC des tendances/30 ans, pas d'accélération différente sur le fond aussi sur cette base. Avec la linéaire, l'accélération est nulle, vu que la dérivée seconde, y" = 0, qu'on peut extraire avec les règles de dérivation, de l'équation linéaire de la droite fonction d'origine y du graphique. Il ne faut pas confondre, croissance différente avec accélération présente ou différente, avant même de parler de différence significative, donc sur le fond.) Le lycéen qui ne peut le savoir, poursuit l'analyse des variations à partir des quadratiques où il a une chance de trouver une accélération qui change entre les modèles et ou obs, faute de pouvoir en estimer la significativité. Il trace donc la dérivée première (les équations y du graphe suivant, sont en fait des y' , les dérivées premières des équations des fonctions quadratiques du graphe précédent): Là même sans les IC présents, il pourra déjà dire que le réchauffement est toujours croissant aussi bien dans les modèles, que dans les obs (quand il y aura un changement d'évolution du climat lui-même (et non à l'intérieur de lui, vu qu'on ne voit pas le bruit interne à 30 ans, c'est prévu pour !), ça se verra aussi clairement sur ce genre de graphe d'évolution de la dérivée première) et que l'accélération est constante, uniforme et qu'elle n'a pas changé ni dans les modèles, ni dans les obs. Et oui la dérivée seconde, l'accélération, Y" est égale à une constante, en dérivant les équations y' , y"=0.0062°/déc^2 pour les modèles, y"=0.0043°C/déc^2 pour les obs. C'est à dire que c'est une accélération constante (ni croissante, ni décroissante), plate de chez plate (je n'ai pas tracé le graphe, avec 2 lignes horizontales, j'espère que c'est assez évident pour le monde !), différente entre les obs et modèles, mais pas significativement, loin de là, mais c'est clair que si ça persiste ça le deviendra et on le verra mathématiquement. Comme la significativité n'était déjà pas présente entre la linéaire et la quadratique, on ne pouvait pas récolter des IC au bout des pentes des dérivées premières, qui montrent une différence significative. On peut noter la différence significative de tangentes entre 1968 et et 98 (pour respecter l'indépendance des données), signe que le climat est significativement différent aussi bien dans les obs que dans les modèles (et y en a encore qui vont oser continuer nous dire que ça stagne (sous entendu sur le fond, vu que tout le monde voit bien que ça stagne dans le bruit.), parce qu'ils sont obnubilés par leur zoom volontairement bloqué sur les bruits internes sur 1 à 30 ans...) Pour la significativité de la différence /30 ans obs/modèles, comme il te manque celui pour les estimations stats/30 ans des modèles. Il suffit en première approximation, de remplacer ton point d'interrogation, par la valeur "générique" de +-0.055°, vu que ça varie selon les échantillons/30 ans et les séries d'obs, le plus souvent de 0.05° à 0.06° (en moy /30 ans ou en tendance /30 ans, les IC sont exactement du même ordre, ce sont exactement les mêmes valeurs qui entrent dans l'estimation stat de la tendance et de la moyenne) Il faut donc une différence de plus de 0.11° entre 2 séries indépendantes/ 30 ans pour commencer à considérer la significativité probable d'une différence de tendance, de moyenne/30 ans de T globale, avant d'envisager la moindre possibilité d' accélération différente sur le fond (même quand elle l'est visuellement à cause du bruit), mais aussi pour commencer à se pencher sur les détails, affiner les calculs d'IC et intégrer les autres sources d'erreur (par ex, de mesure et de détermination de la T globale pour les obs), car les IC de ces estimations stats des modèles, que tu peux calculer directement d'après les modèles /runs individuels que tu as récoltés (et non pas d'après la moyenne multi-modèles-runs d'un même scénario ou non, qu'on peut voir sur un de tes graphes et qui lisse mécaniquement ce bruit), seront plus larges que +-0.055°/30 ans, à cause du fait que les modèles ne savent pas simuler assez précisément le niveau de bruit de la réalité. Donc si ce n'est déjà pas significatif avec les plus petits IC possibles autour des estimations stats à partir des modèles, ce n'est pas la peine de perdre du temps dans les calculs précis. En injectant des IC d'environ +-0.055° autour des valeurs modèles/30 ans, c'est comme si on sous-entendait qu'ils ont parfaitement capté le niveau de bruit de l'évolution de T du monde réel aux pas fins, alors qu'il est connu qu'ils ont tendance à faire un peu trop varier la T d'un mois, d'une année sur l'autre, par rapport à la réalité. Pour calculer les IC directement à partir des modèles, il faut se prendre la tête et vérifier pour chaque run/modèle (donc à faire avec un programme, vu le temps que ça prend en manuel !), si la méthode de Tamino (celle dans le calculateur de SKS) ou autres méthodes correctes quand ce n'est pas le cas, s'appliquent, recalculer le modèle de bruit, les paramètres adaptés à la variabilité différente du run concerné, pour compenser l'auto-corrélation. Effectuer ça pour chaque run-modèle et moyenner pour récupérer les IC moyens des estimations du bruit à partir des modèles, comparables à ceux d' une seule expérience réelle, la notre. Donc on voit pourquoi, il vaut mieux commencer à avoir une idée de la proximité ou non de la significativité, en utilisant les IC des obs directement sur les modèles, en première approximation (si l'écart est assez important entre les IC des obs et des modèles avec cette approximation, ça évitera aussi les calculs détaillés aussi pour considérer que la différence est très probablement significative) Donc avec des tendances/30 ans qui ne sont pas significativement différentes (entre les obs et les modèles) pour la période concernée pour l'étude de la variation où ça diverge, ne peuvent pas générer d'accélération significativement différente. C'est mathématiquement impossible et c'est clair qu'il y a et aura toujours des variations plus ou moins importantes avec le bruit, rien de nouveau tant que les modèles ne seront pas capables de prévoir ce bruit et non pas simplement de simuler son apparence. Lien à poster Partager sur d’autres sites More sharing options...
ChristianP Posté(e) 28 décembre 2013 Besse sur Issole (83 - Alt 275 m à 26 km de la mer) Partager Posté(e) 28 décembre 2013 Pour les amateurs d'explications possibles sur les variations de T globale à court-terme, voir cet article chez RC : http://www.realclimate.org/index.php/archives/2013/12/the-global-temperature-jigsaw/ Pour ceux qui préfèrent l'allemand : http://www.scilogs.de/klimalounge/das-globale-temperatur-puzzle/ Lien à poster Partager sur d’autres sites More sharing options...
Invité Guest Posté(e) 29 décembre 2013 Partager Posté(e) 29 décembre 2013 J'ai jeté un œil à l'article que ChristianP a mis en lien et j'ai quelques interrogations . Premièrement il y a les 3 premiers graphiques qui démarrent en 1850 pour s'arrêter à nos jours,aucun d'entre eux ne donnent les mêmes anomalies pour la période 1850/début 1900 ? En second lieu,il est écrit que l'activité solaire faible contribue au hiatus actuel des anomalies,soit mais pourquoi une activité solaire forte ne contribuerait pas au RC ? Ensuite le volcanisme de ce début de siècle serait également partie prenante du hiatus,soit mais il se trouve que le volcanisme de ce début de siècle est largement plus faible que lors de la fin du siècle précédent et que le forçage d'une éruption ne dure que le temps de 1 à 3 années pour les plus puissante ( cf : le Pinatubo par exemple ) et pour terminer,je suis perplexe sur "la missing heat" pour justifier le hiatus,si on considère la période 2003/2012,seuls l'océan indien ( 0-2000 m => 0,069/déc ) et l'atlantique sud ( 0-2000 m => 0,046/déc ) ont connu un réchauffement,l'atlantique nord ( 0-2000 m => -0,011 et le pacifique ( 0-2000 M => 0,001/déc ) sont stables,voire même en léger refroidissement pour l'atlantique nord ( données ARGO ERA NODC ). Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 30 décembre 2013 Partager Posté(e) 30 décembre 2013 je suis perplexe sur "la missing heat" pour justifier le hiatus,si on considère la période 2003/2012,seuls l'océan indien ( 0-2000 m => 0,069/déc ) et l'atlantique sud ( 0-2000 m => 0,046/déc ) ont connu un réchauffement,l'atlantique nord ( 0-2000 m => -0,011 et le pacifique ( 0-2000 M => 0,001/déc ) sont stables,voire même en léger refroidissement pour l'atlantique nord ( données ARGO ERA NODC ). euh, je ne vois pas en quoi la dite chaleur manquante ne serait pas occasionnée par un phénomène local et a contrario pourquoi elle devrait être généralisée à l'ensemble des océans. Lien à poster Partager sur d’autres sites More sharing options...
Invité Guest Posté(e) 30 décembre 2013 Partager Posté(e) 30 décembre 2013 Très juste Météor,cependant les valeurs les plus hautes ne sont pas représentatives de la chaleur manquante de surface ( cf : + 0,069°C/déc ou + 0,046°C ),mon raisonnement me fait penser qu'il y a un facteur bien plus important qui agit sur "la missing heat ou chaleur manquante" . Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 30 décembre 2013 Partager Posté(e) 30 décembre 2013 Très juste Météor,cependant les valeurs les plus hautes ne sont pas représentatives de la chaleur manquante de surface ( cf : + 0,069°C/déc ou + 0,046°C ),mon raisonnement me fait penser qu'il y a un facteur bien plus important qui agit sur "la missing heat ou chaleur manquante" . les 0.069°C/décennie ou 0.046°C concernent bien les couches 0-2000m, non? il n'y a donc pas de relation simple avec les températures de surface. de plus, malgré les apparences, ces chiffres sont très importants vu l'épaisseur de la couche concernée. Lien à poster Partager sur d’autres sites More sharing options...
Higurashi Posté(e) 30 décembre 2013 Partager Posté(e) 30 décembre 2013 C'est sur que si tu compares avec des degrés deux trucs qui ont une inertie thermique différente tu ne trouveras rien de folichon... L'air c'est 1,256 kJ⋅m-3⋅K-1 et l'eau 4 200 kJ⋅m-3⋅K-1. Pour ça qu'on compare en terme énergétique. http://fr.wikipedia.org/wiki/Capacit%C3%A9_thermique_massique Lien à poster Partager sur d’autres sites More sharing options...
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant