Jump to content
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

starman

Membre-forum
  • Content Count

    230
  • Joined

  • Last visited

Everything posted by starman

  1. ben c'etait en réponse au fait qu'on disait que la température moyenne n'avait pas excédé 2°C de plus que la moyenne dans le dernier million d'années. Ces 2°C, c'est pas basé sur l'analyse des calottes glaciaires? alors, c'est un bon indicateur de la température moyenne du globe, ou pas ?
  2. Effectivement ça doit pas être le même alors, d'après Judith Curry
  3. tu veux dire , tous les scientifiques alors, j'espère /emoticons/smile@2x.png 2x" width="20" height="20"> ? bien sur que oui. Mais bon si on commence à regarder tous ce qui est publié dans les médias grand publics, faudrait aussi s'occuper de toute l'astrologie !
  4. le graphique est tiré du site climate4you, qui donne les références (données GISP2 utilisées par Alley 2000). Je le rappelle pour poser la question : les données obtenues par les rapports isotopiques dans les glaces sont-elle un indicateur fiable pour mesurer la température moyenne mondiale, et avec quelle incertitude ?
  5. et avec quelle précision les carottes de glace reproduisent-elles la température moyenne ? parce que si tu les crois, alors l'époque actuelle n'a rien de spécial...
  6. OK, mais 2°C, c'est quelle date par rapport à quelle date , quelle précision on a sur la température moyenne de la Terre du dernier interglaciaire (je doute qu'on retrouve des thermomètres et des enregistrements satellites ?), à quelle période actuelle est-elle comparée, d'où vient ce chiffre rond, etc , etc... ? et quelle "bifurcation" a eu lieu vers les températures plus élevées dans le passé, est ce qu'il y a le moindre signe que ça puisse exister physiquement ?
  7. juste pour information, il y a des bilans carbone publiés pour ce genre d'expédition ?
  8. en réalité il y a trois facteurs qui rentrent en compte * les scénarios d'émission qui vont déterminer la quantité de CO2 émis * la sensibilité climatique qui va déterminer l'impact sur la température * les effets sociétaux d'une augmentation de T sur l'humanité aucun de ces facteurs n'est connu à moins qu'un facteur deux, et je suis gentil. Ce qui fait que quand on combine tout ça, on est au moins à un facteur 3 d'incertitude sur l'impact final (je prends la moyenne quadratique du logarithme pour avoir une loi additive, ce qui me donne une incertitude de 10^(racine(3)*log(2)) = 3. Et enco
  9. euh, pour moi, la science, c'est justement réduire les incertitudes par une théorie utilisable pour des prédictions. C'est même la base du concept de théorie scientifique. Si tu te bornes à faire la liste des possibles, y a aucun besoin de scientifique. Si tu dis "dans un an, Mars peut etre là, ou bien là, à moins qu'elle soit là", je ne vois pas en quoi tu peux prouver une théorie scientifique avec çà - la théorie scientifique c'est précisément ce qui te permets de dire qu'elle sera là , et pas ailleurs ! et elle est précisément confirmée par le fait que la réalité suit tes prédictions !
  10. c'est ce qu'ils disent, mais franchement en regardant la figure 12 je reste perplexe .... quand on regarde la reconstruction par proxy , on voit que la chute date de 1900 , pas de 1970, et n'est pas si exceptionnelle que ça par rapport aux variations passées - desolé de reparler encore de nombre de sigmas mais c'est quand meme le B.A. BA de l'analyse de données non ? Et en superposant des courbes précises instrumentales récentes à des reconstructions par proxy, on est potentiellement biaisé par la différence de résolution temporelle et de précision dans la mesure .Autre exemple ici : http://w
  11. voui ben autant citer aussi la légende"Vertical dotted lines separate the three periods for which data sources changed fundamentally: (1) 1870– 1952: observations of varying accuracy/availability; (2) 1953–1971: generally accurate hemispheric observations; (3) 1972 – 2003: satellite period - best accuracy and coverage." les lignes pointillées verticales en question ont mystérieusement disparu de ta figure, qui présente donc des courbes apparemment homogènes alors qu'elles correspondent à des méthodes très différentes de précision variable. Une de ces lignes verticales en 1953 correspond très p
  12. là, il me semble qu'on mélange deux discussions complétement différentes. Dans certains posts, on parle de cette année et de savoir si la situation est particulièrement critique pour la banquise, de savoir si elle va battre le record de minimum, etc .. en se focalisant sur les dernières semaines, et dans d'autres cas on parle de la signification du trend sur 10 , 20 ou 30 ans. Ce sont deux problèmes distincts qui n'appellent pas du tout les mêmes arguments. .Quand je parle du sigma, c'est pour les discussions sur cette année précise : j'ai l'impression qu'on s'affole dès que ça "plonge"
  13. certes, si tu fais un échelon = 1 pour t<0 et = 0 pour t > 0, le trend est à toujours à la baisse, et tend vers - l'infini ... là encore, ça ne me semble pas contradictoire !
  14. des deux sigmas calculés sur la période 1979-2000. En revanche on est toujours dans le sigma de la distribution depuis 2000, et même proche de la moyenne. En fait à l'examen des courbes on a l'impression que quelque chose a changé dans la courbe après 2000, mais que c'est plus ou moins stabilisé depuis à environ -1.5 Mkm^2 par rapport à avant. L'anomalie présente une série de cycles d'amplitude assez grande, ce qui semble indiquer un déphasage par rapport à la courbe pré-2000. la fonte de 2007 semble de plus en plus un évènement extreme , qui met peut etre un certain temps à "cicatriser" -
  15. oui enfin vous avez des manières un peu curieuses de me citer. j'ai pas vraiment changé d'avis : les fluctuations en plus ou en moins ne veulent pas dire grand chose en mars : je disais "plutot bien placé" dans le simple sens d'une numérotation , je n'ai jamais prétendu que l'année dernière était exceptionnelle.
  16. excuse moi mais je ne me sens pas obligé d'avoir une idée claire de l'évolution de la banquise de cette année ! je répondais juste à ceux qui me semblent surinterpréter les variations au jour le jour qu'ils devraient etre un peu plus rigoureux que de dire "ouh là ça fond drolement depuis une semaine". ben non, ni +0.4, ni -1.2 ne sont significatifs de quoi que ce soit ! quel est le problème ? la question n'est pas celle-là : elle est de savoir si justement c'est le paramètre le plus important, ou bien de savoir si c'est la variation d'autres paramètres qui ne sont justement pas similaires
  17. je n'ai aucun problème à télécharger des données et calculer un écart-type. Mais je ne vois pas l'interêt de faire un calcul dont je n'ai pas une interprétation claire. bon ok et quelle probabilité est ce que ça a d'avoir 3 sigmas, quelle est la distribution statistique (pas forcément gaussienne), etc ??? c'est facile en prenant plein d'indicateurs et pleins de régions différentes du monde de trouver des écarts par rapport à la normale : une année on regarde les ouragans en AMérique, une autre la fonte de la banquise, une autre les inondations au Pakistan, encore une autre la sécheresse en A
  18. je ne pense pas qu'il y ait des doutes sur la valeur d'un trend, c'est juste une quantité mathématique. Ma remarque ne portait pas là-dessus. En revanche, tu dis "faire des pieds et des jambes pour faire croire que tout est normal", et c'est là que je te reprends : pour parler de normalité ou pas, il faut que tu aies une référence extérieure. J'ai donné l'exemple de "trends" calculés sur les 6 dernières heures de la journée ou les 6 derniers mois de l'année, là aussi tu as un trend tout à fait significatif et tu trouveras un "déficit" énorme à la fin de la période, en terme d'anomalie par rapp
  19. le sigma par rapport au trend, il est indiqué sur le graphique - apres pour savoir si le trend est inhabituel ou pas, il faudrait des comparaisons sur des périodes précédentes ce qui demanderait des mesures équivalentes sur des siècles - et on ne les a simplement pas. Je dis juste d'être prudent quand on voit des données sans points de comparaison - je ne dis pas que je suis capable de fournir ces points ! c'est toujours pareil : en regardant des chiffres qui varient sans avoir un modèle précis pour les expliquer, on peut dire un peu tout et n'importe quoi. Par exemple qui sait expliquer la f
  20. à part la faute d'orthographe du titre, c'est assez intrigant, cette nouvelle; est ce que ce genre de modification est prévue par les modèles actuels ? (a priori non puisque ça remet en cause les prévisions du GIEC). La circulation océanique est absolument essentielle dans les transport de chaleur à grande échelle en latitude, l'eau transporte bien plus de calories que l'air - et donc les variations de température, même terrestre, sont très dépendantes des courants chauds et froids - et pareil pour l'humidité. Est ce qu'on peut faire des prévisions fiables sans bien les connaitre ?
  21. je ne comprends pas ce que tu veux dire, le graphique 2 ne représente pas l'anomalie mais la variation de l'extent (jour par jour je suppose), la dérivée de la courbe quoi. Ca devient négatif quand ça fond, tout simplement, après le maximum.
  22. ah ben désolé, j'ai pas fait exprès, j'ai loupé ton post dans l'avalanche, c'est des choses qui arrivent ! on est d'accord alors ? n'empêche que "très chaud" transporte quand même une idée de "nettement différent de la moyenne par rapport à d'habitude", donc un écart "à plusieurs sigmas", non ? la différence vient de la fonte exceptionnelle de 2007 qui ne s'est pas encore "rétablie" , mais pas de circonstances particulières de 2011. Vu qu'on est que 3 ans après, il parait un peu tot pour juger si de la glace pluriannuelle ne pourrait pas se reformer - en tout cas les années suivant 2007 n'on
  23. autre remarque : sauf erreur, ces modèles paramétrisent l'epaisseur de la glace suivant son âge. Mais comme je disais, la partie externe a toujours un an d'âge, tous les ans, et donc ça ne change pas. Seule la partie centrale est moins riche en glace multiannuelle, ce qui explique la différence globale en épaisseur. Evidemment, on a tendance à penser qu'une glace plus mince au centre va fondre plus, ce qui devrait accélérer chaque année la fonte .. mais le record de 2007 n'a pas été battu, ce qui montre que ce n'est pas si simple : 2008 a moins fondu que 2007 alors que l'épaisseur de la glace
  24. ce n'est pas un problème de lissage, juste un problème cosmétique du choix des codes de couleurs : sur la première carte, le rouge disparait à 90 % de concentration alors que sur la deuxième, il disparait à 50 % ! la première courbe donne une impression de gruyère mais c'est purement cosmétique, toujours regarder soigneusement les codes de fausses couleurs ! je sais que je me répète, mais vous aussi : ce genre de graphique montrant une portion de courbe avec une pente ne peut etre correctement interprété que par comparaison avec la variabilité naturelle sur des périodes compa
  25. le mien aussi a été effacé .. mais bon comme je disais quand tu regardes en 2006 , tu prends des risques en faisant ce genre de prédictions ! quand à l'épaisseur de la glace, il n'y a que dans la partie centrale multiannuelle que ça fait une différence, toute la partie extérieure n'a jamais que un an d'âge quelle que soit l'année : et le rebond après 2007 montre qu'il est difficile de faire des prédictions meme après une année creuse. pour la neige, je ne vois pas ce que 2011 a d'exceptionnel http://climate.rutgers.edu/snowcover/chart_anom.php?ui_set=1&ui_region=nhland&ui_month=3
×
×
  • Create New...