Jump to content
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

starman

Membre-forum
  • Content Count

    230
  • Joined

  • Last visited

Everything posted by starman

  1. par quelle méthode statistiquement solide calcules tu l'accélération "significative" du réchauffement sur les terres depuis 1975, et quelle est sa valeur en °C/décennie^2 ? pour moi, "significative" veut dire : dont on peut donner une valeur numérique robuste (à plusieurs sigmas).
  2. Merci pour la leçon de morale , Christian, j'ai l'impression d'être revenu à l'école primaire ! Je passe sur la délicatesse de dire "ah moi je sais qui tu es" comme argument de discussion, je m'en fiche un peu. Je suis flatté que tu te sois intéressé à toutes mes contributions sur internet, mais c'est pas le propos. Tu fais juste des contresens complets sur ce que je dis sur le climat : je ne sais pas ce que tu appelles "LA" théorie fondamentale, mais je n'ai jamais dit que la thermodynamique ou le transfert radiatif est faux. J'ai juste dit que les modèles numériques étaient par nature incertains, et donc que les comparaisons avec les modèles numériques n'avaient aucune fiabilité prouvée a priori , et d'autre part, en ce qui concerne les aspects non climatiques, il me paraissait évident que pour tout le monde que l'apport des fossiles était bien supérieur à tous les inconvénients qu'on pouvait leur associer (y compris toi et tous ceux qui clament qu'il faut réduire les fossiles, mais continuent quand même à en consommer une quantité suffisante pour les épuiser totalement en quelques dizaines d'années si c'etait généralisé à toute la planète).Tu me diras quelle "théorie fondamentale" c'est censé contredire ! à part ça, je pense qu'Ardèche va apprécier les liens que tu lui donnes ... ;-) rhooooh ... même des scientifiques dis donc ! (note bien que dans ce cas ,la théorie était bonne : mais les fondements en étaient TRES solides logiquement !)
  3. justement, je ne sais pas trop quel signification apporter à ce genre de calcul : la significativité, c'est lié à la variance par rapport à la tendance linéaire (le chi^2 quoi). En retirant un signal variable positivement corrélé à ces écarts, tu la réduis forcément. a la limite , si tu retires exactement le signal obtenu en faisant la différence avec la tendance linéaire, tu va retrouver - par définition - exactement la tendance linéaire et donc la significativité du trend devient 100 % !. Mais c'est juste une conséquence mathématique qui n'a aucun sens physique. Par ailleurs, je répète, la significativité physique de la variation ne dis rien sur ses causes physiques, ni si ça va durer : le même traitement sur la période 1900-1940 aboutirait aux mêmes conclusions - sans qu'on puisse n'y l'attribuer au CO2, ni l'extrapoler dans le futur.
  4. il n'y a pas de parti-pris à dire qu'il n'y a aucune accélération mesurable du réchauffement : personne ne le prétend, même pas les plus "réchauffistes". Au mieux, une tendance constante, mais à condition de corriger de bruits ... eux-même évalués par des composantes principales donc calculés comme des écarts par rapports à la tendance. (Par exemple la température superficielle entre dans le calcul de l'indice MEI, ce qui rend pour moi la procédure quelque peu suspecte). par ailleurs sur le fil de RC , c'est assez rigolo : Gavin Schmidt pense qu'il pourrait ne pas y avoir d'accélération significative jusqu'à la moitié du siècle, mais d'autres blogeurs s'affolent que l'humanité pourrait disparaitre en 2050. Disparaitre avec 0.15°C de plus par décennie ?
  5. je ne vois pas le problème à dire que les données sont encore trop incertaines pour contraindre fortement les modèles - c'est à dire trop bruitées pour être capable soit de les invalider, soit d'invalider des modèles concurrents. mais dans ce cas il n'y a pas non plus de raison de crier haro sur ceux qui disent que les modèles ne sont pas encore vraiment validés , que ça reste des simulations sur ordinateur, qui n'ont pas encore reçu de confirmation fiable : c'est juste une autre façon de dire la même chose.
  6. j'ai dit : il n'y a aucune tendance significative à l'accélération du RC , donc tu es d'accord avec ça?la tendance à la décéleration n'est peut etre pas significative, mais la moyenne est plutot à une baisse et pas à une hausse. or si la hausse est dû au forçage anthropique qui augmente plus ou moins linéairement, on devrait bien constater une accélération , qui devrait être significative à partir d'un certain moment. Quelle est la prédiction des modèles sur cette accélération ?
  7. je me trompe, où les courbes de Tamino ne montrent aucune tendance à l'accélération du réchauffement, et semblent plutot indiquer une tendance (pas très significative certes mais perceptible), à son ralentissement ?
  8. été et printemps je voulais dire, c'est moins clair pour l'automne.
  9. pour ce qui est de la couverture neigeuse en hiver dans l'hémisphère Nord, c'est toute la décennie 2000-2010 qui est au-dessus de la moyenne http://climate.rutgers.edu/snowcover/chart_anom.php?ui_set=0&ui_region=nhland&ui_month=12 en revanche, effectivement, il y a des anomalies clairement négatives en été et en automne. a l'oeil, ça fait plus oscillation temporelle cohérente que fluctuations aléatoires.
  10. je ne rappelle que des évidences : Christian peut très bien appliquer son traitement statistique aux données 1900-1940 et voir ensuite ce que donne l'extrapolation de la tendance sur les 30 ans qui suivent , je pense que pour lui c'est de la gnognotte comme boulot. Sinon, bonne année 2011 à tous !
  11. c'est quand même intéressant la méthodologie de cette article. On a une liste d'évènements de nature très variées : la température chaude, la température froide, la pluie, la sécheresse, des tempêtes, la neige, la glace de mer, le soleil, l'absence de soleil, les feux de forêts... . On a des critères également variés d'estimation : l'intensité, la date, la fréquence... Enfin on a un certains nombres de régions : il y a 10 provinces et 3 territoires au canada, mais on peut aussi avoir des régions géographiques plus fines (par exemple une inondation peut etre assez locale).Si on multiplie tous ces nombres, on doit facilement arriver à quelques milliers de combinaisons possibles : la date des pluies au Manitoba, les tempêtes de neige dans la prairie, la fréquence des feux en Colombie Britannique (bon ok peut pas y avoir de feux dans la banquise...). Mais n'empêche : SUPPOSONS (je dis bien SUPPOSONS) que les années soient toutes statistiquement les mêmes avec des fluctuations aléatoires, combien de records de plus de 100 ans seraient battus une année NORMALE , avec 2000 critères ? ben oui .. vingt - puisque évidemment les dates des années ou chaque critère a eu son maximum sur 100 ans sont répartis aléatoirement sur chaque année. Et vingt evènements exceptionnels, on remplit facilement une page de journaux de catastrophes. Evidemment sur le monde entier on a bien plus d'évènements possibles , donc le nombre de records potentiellement battus est encore plus grands. Tout ça pour dire qu'il faut etre extremement prudent quand on fait une liste de records, si on n'a pas soigneusement défini au départ (et pas après avoir connu le résultat comme c'est hélas généralement le cas) l'ensemble de potentialités qu'on étudiait - je vois nulle part ça précisé en liminaire. Ce n'est pas innocent - c'est par exemple bien connu que les soi-disants succès des prédictions astrologiques reposent en réalité sur l'étendue inconnue de l'ensemble des évènements qu'ils sont censés prédire. Je rappelle juste ça en passant.
  12. il faut rappeler , en revanche, qu'il n'existe aucune méthode statistique pour savoir si un trend observé sur une certaine période correspond réellement à une tendance linéaire extrapolable , ou bien une composante physique de basse fréquence dépassant les limites de l'observation. Si on fait l'hypothèse d'un trend , on peut déterminer sa valeur la plus probable, mais l'hypothèse en elle-même n'est pas prouvable statistiquement - il faut l'argumenter par des arguments physiques sur le système qui justifie qu'il ne puisse pas exister de composantes basses fréquences. Ce qui est très très loin d'être démontré pour le climat (à mon sens). Si on fait le traitement statistique fait sur les données post 75 comme Tamino , mais sur les données 1900-1940, il est très probable qu'on trouve pratiquement la même tendance linéaire avec une ARMA machin-truc que vous voulez - n'empeche que l'extrapolation sur les 30 années suivantes ne marche pas du tout à cause du plateau subséquent. On peut l'expliquer par de la physique, des aérosols , la 2e guerre mondiale, ce que vous voulez. Ce que je dis, c'est que la statistique en elle-même n'assure nullement la validité d'une extrapolation.
  13. pour moi c'est typique d'un raisonnement circulaire : l'extrapolation vient d'un modèle qui est justifié par les observations actuelles? donc la seule information pertinente, ce sont les observations actuelles. Si ça suffisait à justifier l'extrapolation, alors toutes les extrapolations seraient toujours justifiées par le fait qu'il existe des modèles reproduisant les données passées. Ton exemple de la chute d'un immeuble est très bon, parce que justement ton extrapolation est uniquement valable parce que tu connais une loi exacte qui a été vérifiée parce que prédictive (histoiquement, première vérification par la comète de Halley). Evidemment si tu attaches ton bonhomme à un élastique ton extrapolation n'est plus valable mais tu as également une autre loi prédictive. Bref la valeur d'une théorie vient de son caractère prédictif, pas du fait qu'elle est ajustée à des données passées connues. Est ce que la climatologie a eu une forte valeur prédictive jusqu'à présent ? bof, bof, y a qu'à regarder les hivers récents pour en douter ... alors maintenant, on voit des tas d'explications sortir que le froid sur l'Europe n'est pas incompatible avec le RCA, bon, ok, mais qui l'avait prédit à l'avance chez les climatologues officiels, avant que ça n'arrive ?
  14. j'ai mal du me faire comprendre, je sais très bien ce que c'est qu'une dérivée et qu'on peut l'exprimer en n'importe quelle unité dimensionnellement correcte de y/x - on a tout à fait le droit de dire que le réchauffement en une matinée est d'un million de °C /siècle. j'ai juste dit que la valeur sur un temps T donné ne signifiait rien d'autre que cette valeur sur le temps T. Il y a un implicite dans toutes les études de "tendances linéaires", c'est qu'au delà d'un certain temps, les composantes périodiques deviennent négligeables et ce qu'on mesure est réellement un tendance linéaire extrapolable. Ce temps caractéristique est semble-t-il fixé à 30 ans par les climatologues. Il est donc tout à fait possible effectivement de mesurer sur des temps plus court des pentes nettement supérieures ou inférieures (qui peuvent etre tout à fait significatives et en dehors des barres d'erreurs), je suis bien d'accord. La seule question qui me turlupine , c'est pourquoi cette limite est fixée à 30 ans, et pourquoi la pente sur 30 ans ne pourrait-elle pas AUSSI contenir des composantes périodiques la rendant significativement supérieure à la tendance sur 100 ans par exemple? j'ai pas encore bien saisi la raison profonde ...
  15. il faut quand même remarquer qu'il n'y a pas de rapport entre la significativité d'une tendance et le fait qu'on puisse l'extrapoler ensuite ! le réchauffement que tu mesures avec un thermomètre sur 6 heures entre 7h du matin et 13 h est absolument significatif et correspond à plusieurs degrés par heure , soit des millions de degrés par siècle ! c'est simplement que c'est en fait une composante périodique qui n'a aucun sens à etre extrapolée.Donc même une tendance significative sur T années n'assure nullement que ça corresponde à une tendance plus longue.
  16. j'ai pas bien compris si c'était prévu par les modèles GCM, ce refroidissement pendant 10 ans ? comment est ce qu'on l'évalue sinon?
  17. tout à fait ! disserter sur des écarts inférieurs aux dispersions entre les différentes mesures, ça n'a de toutes façons aucune signification, et c'est certain qu'on est dans ce cas, y a pas besoin d'attendre pour le vérifier, c'est d'ores et déjà évident d'après les données que tu présentes. Je te félicite donc aussi pour la hauteur scientifique de tes analyse, et surtout pour leur probité !
  18. vu que cette prediction est basée sur le fait que "les émissions de gaz à effet de serre continueront d'augmenter" , elle est totalement conditionnée à la vraisemblance de cette hypothèse. Or il y a des tas de cas où l'extrapolation exponentielle est injustifiée, et que ça ne veut absolument rien dire d'être "sur les rails". Diriez vous qu'un enfant de 10 ans est sur les rails d'atteindre 3 mètres à 50 ans ? ben pourtant c'est aussi vrai que pour les températures !
  19. une remarque : il suffirait de rapporter les écarts d'une année sur l'autre aux incertitudes (ne seraient ce qu'en évaluant l'écart type entre les différentes estimations ramenées à la même baseline), pour que tout ceci n'ait plus aucun interêt : tout le monde concluera qu'il n'y a pas de différence significative entre 1998 et 2010 . Le fait qu'on s'étripe pour savoir si la 2e decimale va etre supérieure ou inférieure est juste la preuve du peu de scientificité du discours médiatique actuel sur le climat.
  20. c'est sur, mais par définition, il est normal qu'il arrive rarement des événements pas normaux (c'est à dire que toute distribution statistique implique l'existence de temps en temps d'évènements nettement en dehors de l'intervalle moyen de probabilité - qui sont rares et donc JUSTEMENT considérés comme anormaux).L'occurence d'évènements rares n'a donc pas de signification précise - encore une fois, ce qui devient significatif, c'est que des évènements auparavant rares deviennent courants. La fonte de la banquise est significativement plus grande depuis 10 ans, qu'il y a 30 ans, c'est certain. Mais là encore, il faudrait prouver que c'est exceptionnel par rapport à une variabilité à 40 ans. Ce qui suppose donc de pouvoir comparer cette évolution à celle qui a pu avoir lieu dans les siècles précédents .... Il faut toujours préciser par rapport à quelle échelle de temps on estime la variabilité de référence, avant de tirer des conclusions.
  21. c'est sûrement une bonne question , oui ! mais en pratique comment on peut y répondre si on n'a pas une bonne précision sur ces phénomènes?
  22. Bon, mais alors quand on se met à vouloir chiffrer les conséquences économiques, par exemple sur l'économie des stations de sports d'hiver de moyenne montagne, en Europe, il faut mettre quoi dans les projections? plus de neige ? moins de neige ? zéro parce qu'on sait pas ?
  23. je pense que c'est simplement le milieu de la période de normalisation (1951+1980 )/2 = 1965,5 /emoticons/smile@2x.png 2x" width="20" height="20"> evidemment l'accord est toujours assuré autour du milieu de la période de normalisation des anomalies ....
  24. ça dépend pour quelles courbes : pour les comparaisons sur le XXe siecle (faite sur la figure FAQ_9-2 fig 1) en particulier , la période de référence est 1901-1950, c'est décrit dans le supplementary material du chapitre 9 (faut fouiller un peu effectivement.. étape 10 de l'appendice 9C pour ceux qui veulent vérifier ). C'est peut être l'origine de la différence, ceci dit, une simple translation de la différence des moyennes suffit à les recentrer sur n'importe quelle période au choix ....
  25. tiens, au fait, Christian, par curiosité : as-tu déjà essayé de faire le lissage à 30 ans sur le résultat des modèles GCM (si ils sont disponibles quelque part ?), pour voir si ils ont une tête comparable aux observations ? (le lissage à 30 ans devrait essentiellement faire disparaitre tous les problemes ENSO etc ... je pense).
×
×
  • Create New...