Jump to content
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

starman

Membre-forum
  • Content Count

    230
  • Joined

  • Last visited

Everything posted by starman

  1. par quelle méthode statistiquement solide calcules tu l'accélération "significative" du réchauffement sur les terres depuis 1975, et quelle est sa valeur en °C/décennie^2 ? pour moi, "significative" veut dire : dont on peut donner une valeur numérique robuste (à plusieurs sigmas).
  2. Merci pour la leçon de morale , Christian, j'ai l'impression d'être revenu à l'école primaire ! Je passe sur la délicatesse de dire "ah moi je sais qui tu es" comme argument de discussion, je m'en fiche un peu. Je suis flatté que tu te sois intéressé à toutes mes contributions sur internet, mais c'est pas le propos. Tu fais juste des contresens complets sur ce que je dis sur le climat : je ne sais pas ce que tu appelles "LA" théorie fondamentale, mais je n'ai jamais dit que la thermodynamique ou le transfert radiatif est faux. J'ai juste dit que les modèles numériques étaient par natur
  3. justement, je ne sais pas trop quel signification apporter à ce genre de calcul : la significativité, c'est lié à la variance par rapport à la tendance linéaire (le chi^2 quoi). En retirant un signal variable positivement corrélé à ces écarts, tu la réduis forcément. a la limite , si tu retires exactement le signal obtenu en faisant la différence avec la tendance linéaire, tu va retrouver - par définition - exactement la tendance linéaire et donc la significativité du trend devient 100 % !. Mais c'est juste une conséquence mathématique qui n'a aucun sens physique. Par ailleurs, je répète, la
  4. il n'y a pas de parti-pris à dire qu'il n'y a aucune accélération mesurable du réchauffement : personne ne le prétend, même pas les plus "réchauffistes". Au mieux, une tendance constante, mais à condition de corriger de bruits ... eux-même évalués par des composantes principales donc calculés comme des écarts par rapports à la tendance. (Par exemple la température superficielle entre dans le calcul de l'indice MEI, ce qui rend pour moi la procédure quelque peu suspecte). par ailleurs sur le fil de RC , c'est assez rigolo : Gavin Schmidt pense qu'il pourrait ne pas y avoir d'accélération signif
  5. je ne vois pas le problème à dire que les données sont encore trop incertaines pour contraindre fortement les modèles - c'est à dire trop bruitées pour être capable soit de les invalider, soit d'invalider des modèles concurrents. mais dans ce cas il n'y a pas non plus de raison de crier haro sur ceux qui disent que les modèles ne sont pas encore vraiment validés , que ça reste des simulations sur ordinateur, qui n'ont pas encore reçu de confirmation fiable : c'est juste une autre façon de dire la même chose.
  6. j'ai dit : il n'y a aucune tendance significative à l'accélération du RC , donc tu es d'accord avec ça?la tendance à la décéleration n'est peut etre pas significative, mais la moyenne est plutot à une baisse et pas à une hausse. or si la hausse est dû au forçage anthropique qui augmente plus ou moins linéairement, on devrait bien constater une accélération , qui devrait être significative à partir d'un certain moment. Quelle est la prédiction des modèles sur cette accélération ?
  7. je me trompe, où les courbes de Tamino ne montrent aucune tendance à l'accélération du réchauffement, et semblent plutot indiquer une tendance (pas très significative certes mais perceptible), à son ralentissement ?
  8. été et printemps je voulais dire, c'est moins clair pour l'automne.
  9. pour ce qui est de la couverture neigeuse en hiver dans l'hémisphère Nord, c'est toute la décennie 2000-2010 qui est au-dessus de la moyenne http://climate.rutgers.edu/snowcover/chart_anom.php?ui_set=0&ui_region=nhland&ui_month=12 en revanche, effectivement, il y a des anomalies clairement négatives en été et en automne. a l'oeil, ça fait plus oscillation temporelle cohérente que fluctuations aléatoires.
  10. je ne rappelle que des évidences : Christian peut très bien appliquer son traitement statistique aux données 1900-1940 et voir ensuite ce que donne l'extrapolation de la tendance sur les 30 ans qui suivent , je pense que pour lui c'est de la gnognotte comme boulot. Sinon, bonne année 2011 à tous !
  11. c'est quand même intéressant la méthodologie de cette article. On a une liste d'évènements de nature très variées : la température chaude, la température froide, la pluie, la sécheresse, des tempêtes, la neige, la glace de mer, le soleil, l'absence de soleil, les feux de forêts... . On a des critères également variés d'estimation : l'intensité, la date, la fréquence... Enfin on a un certains nombres de régions : il y a 10 provinces et 3 territoires au canada, mais on peut aussi avoir des régions géographiques plus fines (par exemple une inondation peut etre assez locale).Si on multiplie tous
  12. il faut rappeler , en revanche, qu'il n'existe aucune méthode statistique pour savoir si un trend observé sur une certaine période correspond réellement à une tendance linéaire extrapolable , ou bien une composante physique de basse fréquence dépassant les limites de l'observation. Si on fait l'hypothèse d'un trend , on peut déterminer sa valeur la plus probable, mais l'hypothèse en elle-même n'est pas prouvable statistiquement - il faut l'argumenter par des arguments physiques sur le système qui justifie qu'il ne puisse pas exister de composantes basses fréquences. Ce qui est très très loin d
  13. pour moi c'est typique d'un raisonnement circulaire : l'extrapolation vient d'un modèle qui est justifié par les observations actuelles? donc la seule information pertinente, ce sont les observations actuelles. Si ça suffisait à justifier l'extrapolation, alors toutes les extrapolations seraient toujours justifiées par le fait qu'il existe des modèles reproduisant les données passées. Ton exemple de la chute d'un immeuble est très bon, parce que justement ton extrapolation est uniquement valable parce que tu connais une loi exacte qui a été vérifiée parce que prédictive (histoiquement, premièr
  14. j'ai mal du me faire comprendre, je sais très bien ce que c'est qu'une dérivée et qu'on peut l'exprimer en n'importe quelle unité dimensionnellement correcte de y/x - on a tout à fait le droit de dire que le réchauffement en une matinée est d'un million de °C /siècle. j'ai juste dit que la valeur sur un temps T donné ne signifiait rien d'autre que cette valeur sur le temps T. Il y a un implicite dans toutes les études de "tendances linéaires", c'est qu'au delà d'un certain temps, les composantes périodiques deviennent négligeables et ce qu'on mesure est réellement un tendance linéaire extrapol
  15. il faut quand même remarquer qu'il n'y a pas de rapport entre la significativité d'une tendance et le fait qu'on puisse l'extrapoler ensuite ! le réchauffement que tu mesures avec un thermomètre sur 6 heures entre 7h du matin et 13 h est absolument significatif et correspond à plusieurs degrés par heure , soit des millions de degrés par siècle ! c'est simplement que c'est en fait une composante périodique qui n'a aucun sens à etre extrapolée.Donc même une tendance significative sur T années n'assure nullement que ça corresponde à une tendance plus longue.
  16. j'ai pas bien compris si c'était prévu par les modèles GCM, ce refroidissement pendant 10 ans ? comment est ce qu'on l'évalue sinon?
  17. tout à fait ! disserter sur des écarts inférieurs aux dispersions entre les différentes mesures, ça n'a de toutes façons aucune signification, et c'est certain qu'on est dans ce cas, y a pas besoin d'attendre pour le vérifier, c'est d'ores et déjà évident d'après les données que tu présentes. Je te félicite donc aussi pour la hauteur scientifique de tes analyse, et surtout pour leur probité !
  18. vu que cette prediction est basée sur le fait que "les émissions de gaz à effet de serre continueront d'augmenter" , elle est totalement conditionnée à la vraisemblance de cette hypothèse. Or il y a des tas de cas où l'extrapolation exponentielle est injustifiée, et que ça ne veut absolument rien dire d'être "sur les rails". Diriez vous qu'un enfant de 10 ans est sur les rails d'atteindre 3 mètres à 50 ans ? ben pourtant c'est aussi vrai que pour les températures !
  19. une remarque : il suffirait de rapporter les écarts d'une année sur l'autre aux incertitudes (ne seraient ce qu'en évaluant l'écart type entre les différentes estimations ramenées à la même baseline), pour que tout ceci n'ait plus aucun interêt : tout le monde concluera qu'il n'y a pas de différence significative entre 1998 et 2010 . Le fait qu'on s'étripe pour savoir si la 2e decimale va etre supérieure ou inférieure est juste la preuve du peu de scientificité du discours médiatique actuel sur le climat.
  20. c'est sur, mais par définition, il est normal qu'il arrive rarement des événements pas normaux (c'est à dire que toute distribution statistique implique l'existence de temps en temps d'évènements nettement en dehors de l'intervalle moyen de probabilité - qui sont rares et donc JUSTEMENT considérés comme anormaux).L'occurence d'évènements rares n'a donc pas de signification précise - encore une fois, ce qui devient significatif, c'est que des évènements auparavant rares deviennent courants. La fonte de la banquise est significativement plus grande depuis 10 ans, qu'il y a 30 ans, c'est certain
  21. c'est sûrement une bonne question , oui ! mais en pratique comment on peut y répondre si on n'a pas une bonne précision sur ces phénomènes?
  22. Bon, mais alors quand on se met à vouloir chiffrer les conséquences économiques, par exemple sur l'économie des stations de sports d'hiver de moyenne montagne, en Europe, il faut mettre quoi dans les projections? plus de neige ? moins de neige ? zéro parce qu'on sait pas ?
  23. je pense que c'est simplement le milieu de la période de normalisation (1951+1980 )/2 = 1965,5 /emoticons/smile@2x.png 2x" width="20" height="20"> evidemment l'accord est toujours assuré autour du milieu de la période de normalisation des anomalies ....
  24. ça dépend pour quelles courbes : pour les comparaisons sur le XXe siecle (faite sur la figure FAQ_9-2 fig 1) en particulier , la période de référence est 1901-1950, c'est décrit dans le supplementary material du chapitre 9 (faut fouiller un peu effectivement.. étape 10 de l'appendice 9C pour ceux qui veulent vérifier ). C'est peut être l'origine de la différence, ceci dit, une simple translation de la différence des moyennes suffit à les recentrer sur n'importe quelle période au choix ....
  25. tiens, au fait, Christian, par curiosité : as-tu déjà essayé de faire le lissage à 30 ans sur le résultat des modèles GCM (si ils sont disponibles quelque part ?), pour voir si ils ont une tête comparable aux observations ? (le lissage à 30 ans devrait essentiellement faire disparaitre tous les problemes ENSO etc ... je pense).
×
×
  • Create New...