Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

starman

Membre-forum
  • Compteur de contenus

    230
  • Inscription

  • Dernière visite

Tout ce qui a été posté par starman

  1. là je suis en désaccord, c'est une bonne théorie, peut etre pas forcément parce que ça a une valeur prédictive sur le comportement futur du système, mais au moins parce que ça a une valeur prédictive sur le résultat de mesures, en réduisant l'espace des possibles. Par exemple si je dis "les etres vivants sur Terre ont tous un patrimoine génétique basé sur des acides nucléiques, ADN ou ARN", evidemment ça ne me permet pas de prédire l'évolution future des espèces. Mais ça me permet de prédire que si je trouve une nouvelle bactérie, je suis quasiment sur qu'elle aura aussi on ADN , et qu'elle ne sera pas à base de polymères de silicones ou d'autres horreurs (chose que je ne pouvais pas prédire sans théorie). Une bonne théorie est une théorie qui réduit notre incertitude sur la connaissance du monde. Et ça s'applique tout autant aux maths. Démontrer que racine(2) est irrationnel, ça prédit qu'on ne trouvera jamais un rang où les décimales se répètent. Ce qui n'est absolument pas trivial à démontrer, et ne peut pas se faire par extrapolation des données. Par exemple e commence par 2,718281828 ... mais ça n'autorise pas à continuer avec des 1828 meme si bizarrement ils se répètent au début ! en fait le fait que e soit irrationnel permet d'affirmer avec CERTITUDE (à 100 %) qu'il ne peut pas etre égal à 2,71828182818281828.... (sinon je vous laisse démontrer qu'il serait égal à une certaine fraction...) bref une bonne théorie est une théorie permettant d'extrapoler correctement des observations, ce que n'est pas l'observation d'une séquence finie, ni bien sur un fit correspondant. Les modèles climatiques ont bien cette ambition : restreindre l'intervalle des futurs possibles de la température par exemple. Le fait qu'ils aient raison, ou tort, ça c'est une autre question.
  2. ah ben je suis d'accord, si on extrapole un fit fait sur 30 ans à l'année immédiatement suivante, en rajoutant une barre d'erreur, on a peu de chances de se tromper. Mais généralement, un accord est d'autant plus intéressant et significatif qu'il a moins de chance d'arriver par hasard - en d'autres termes, l'extrapolation à un an est-elle significativement améliorée par l'emploi d'un fit carré, par rapport un fit linéaire, ou de se contenter meme de dire que ça sera la meme valeur que l'année précédente à un sigma près ? j'en doute (meme si l'accord global sur 30 ans bien sur peut lui etre significativement amélioré).
  3. j'ai pas dit qu'il fallait pas faire de test stat sur un modèle, j'ai dit qu'un fit n'est pas un modèle, pour moi. Un modèle c'est une loi donnant une quantité en fonction d'autres connues, ce que n'est pas un fit. Le fit carré indique une courbure , mais on peut fitter aussi avec n'importe quelle fonction courbe comme une sinusoide ou une exponentielle, qui donneraient des comportements différents par extrapolation. Probablement, un fit carré est aussi une bonne approximation des températures de l'après midi ou de l'été, sans que ça indique rien pour la courbe future.
  4. et après ... ben si la fonte récente est due à une configuration particulière du bassin arctique, alors quel lien deterministe peut-on faire avec le RC global ? et l'Antarctique, il a aussi une autre configuration particulière ? je dis pas le contraire, moi aussi je suis joueur des fois /emoticons/smile@2x.png 2x" width="20" height="20"> . D'ailleurs en l'occurence j'avais gagné, la glace de 2 ans s'etait améliorée en 2011 ! on verra si cette fonte lui a donné une baffe à la fin de l'hiver ... globalement elles ne se sont pas déteriorées depuis 4 ans. Je suis bien en peine de faire des pronostics pour la suite moi ! les fractales donnent des prédictions parfaitement précises (par exemple sur la mesure en fonction de l'échelle). Sinon, un fit n'a jamais été une statistique, ni une prédiction. Tu peux aussi bien fitter la courbe par une parabole que par une sinusoïde, AMHA.
  5. euh .. pas trop d'accord.L'anatomie, c'est une connaissance d'un état a priori très peu variable : sauf erreur, les organes se trouvent toujours au même endroit ! la connaissance de l'anatomie permet d'avancer significativement dans la connaissance du corps, et de prévoir à l'avance qu'il faut ouvrir ici pour trouver tel organe, qu'on risque de sectionner telle artère, etc ... C'est certes descriptif, mais c'est une description qui permet d'être utilisée pour le futur. De même, les maths établissent des théorèmes qui , là encore, servent à diminuer les incertitudes sur le futur. Une fois qu'une propriété est démontrée , par exemple sur la factorisation des nombres premiers, on peut l'utiliser avec confiance ! on peut avoir la même confiance dans certains phénomènes climatiques. Par exemple, trivialement, qu'il va faire plus chaud l'été que l'hiver. Ou, un peu plus subtilement, que l'annonce d'un El Niño annonce une température moyenne plus élevée, de l'humidité sur l'Amérique et de la sécheresse en Océanie. Ca fait partie des connaissances utiles car prédictives. Je demande juste en quoi l'observation de la banquise des dernières années est prédictive, et de quoi ? ca va accélérer? se stabiliser? revenir en arrière ? vous êtes sûr de pouvoir faire des prédictions ? Damien : tu me montres des cartes montrant essentiellement que le réchauffement s'est essentiellement produit en 1980-2000. Pourquoi la fonte a eu lieu en 2007 surtout alors ? tu as une explication ?
  6. A l'appui de Barth, on peut remarquer: * que l'épisode de fonte plus prononcée depuis 2007 n'est pas spécialement corrélé à une période particulière de réchauffement global, au contraire la décennie a été plutot calme. Même si ça reste dans les barres d'erreurs du RC, néanmoins, il n'y a pas de causalité particulière entre une fonte accélérée et la température globale, sur l'échelle de quelques années; c'est peut être un effet de retard de la décennie précédente, mais c'est une explication ad hoc qui n'a pas (à ma connaissance en tout cas), de justification physique claire. * que l'ensemble du fil et des fils comparables montrent bien l'aspect "court terme" de la fonte : on fait des paris, on scrute jour après jour, on dit que ça dépend de la météo .. bref aucun pouvoir prédictif clair n'émerge pour le moment, c'est un peu la loterie et on constate à la fin que cette année ça a plus fondu que les autres. Là encore, difficile d'invoquer un lien causal précis quand on reconnait que les fluctuations de quelques centaines de milliers de km^2 à la fin dépendent du hasard du vortex ou de remontées chaudes. * que l'épisode de 2007 n'a pas entraîné de rétroaction positive amplifiant le processus - les années suivantes ont moins fondu et cette année retrouve à peu près les mêmes valeurs. Bon on fait quoi avec ça ? on extrapole comment ? on peut dire que ça va fondre de plus en plus, mais on pourrait tout aussi dire qu'on a eu un "switch" passant d'un régime de 7 ± 1 Mkm^2 à un régime de 5± 1 Mkm^2 - et qu'on pourrait voir un switch en sens inverse après quelques années plus froides. Je ne sais pas si c'est vrai ou pas, bien sûr, mais je ne vois pas en quoi les données des dernières années permettraient d'éliminer ce cas de figure, à la lecture des graphiques. Bon avec tout ça, ça m'étonnerait que quiconque puisse avancer une certitude pour la fonte dans les 5 ans qui viennent - or c'est justement le propre d'une bonne théorie scientifique de permettre de réduire les incertitudes et de s'engager avec confiance dans une prévision. Que seriez vous prêt à engager sur une prévision? à mon avis, pas grand chose pour le moment ...
  7. Il semblerait que Irene commence à être un peu menaçant ...
  8. comment ça? tu veux dire que les mesures avant 1945 ne sont pas fiables ?
  9. J'ai quand même une question : la courbe d'anomalie du volume de glace est une ... anomalie, donc un écart par rapport à la moyenne. L'échelle est recadrée par rapport à la variation, donc une courbe qui décroitrait aurait toujours exactement la même forme, une fois recadrée, meme si l'anomalie était 10 fois plus faible, par exemple (ou 10 fois plus forte). Sur quelle base est ce qu'on juge alors que la baisse est "vertigineuse", où est la quantité absolue à laquelle comparer la variation ? où est le "standard" sur une telle période ? (je rappelle qu'un bout de sinusoide tracé sur un temps plus petit qu'une demi-période peut tout à fait apparaitre temporairement comme une décroissance linéaire par exemple. Je ne dis pas que c'est le cas, mais si c'etait le cas, par exemple avec un grand cycle de 60 ans lié à l'AMO, on verrait pas autre chose que ce qu'on voit sur la courbe). de ce que je comprends, la baisse de volume est juste la traduction de la baisse relative de glace agée plus épaisse par rapport à la glace annuelle. au pire, l'anomalie se stabiliserait à une valeur où il n'y aurait que de la glace annuelle (fonte totale en été), mais si il reste un résidu, elle se stabilisera à la valeur de ce résidu. Mais comment lire la valeur limite sur la courbe ?
  10. oui intéressant, mais ce que les auteurs remettent en cause, c'est l'existence d'une fréquence définie d'oscillation. Leur conclusion est que ça peut etre un artefact de la période d'étude et du lissage, mais ils ne remettent pas en cause l'existence de variabilité multidécennale dans la dynamique des océans : Meme une variabilité stochastique peut faire apparaitre "quelques périodes" dans une courbe, et ça peut avoir un effet non négligeable sur l'estimation de la tendance de fond, étant donné qu'elle est faite sur un temps comparable au temps de variabilité stochastique.
  11. si c'est très approximatif, que signifie la valeur que tu donnes et en quoi est-elle utile pour fixer quelles idées ? je parle de l'effet sur l'albedo de surface, tu peux fondre des paquets de glace au Groenland et en Antarctique sans changer significativement la surface englacée !
  12. mais qu'est ce que tu racontes? les rétroactions ne s"annulent pas du tout, elles amplifient le signal. ça s'explique bien mieux par une simple causalité entre température -> CO2 , pour les paléoclimats. Apres, ta magie des équilibres, ça vient simplement du fait que ton espace des phases est borné , et donc les écarts ne peuvent pas dépasser certaines limites, mais le climat n'arrête pas de varier dans ces limites : il est plus chaotique qu'équilibré.
  13. ben oui , je n'ai pas dit le contraire, j'ai dit qu'on ne pourrait avoir que des réactions positives, mais simplement moins fortes dans le sens d'un réchauffement que d'un refroidissement, ce qui diminuerait la sensibilité actuelle par rapport aux transitions glaciaire-interglaciaire. L'englacement est évidemment une rétroaction positive, mais elle ne joue que si la surface glacée est assez grande (et à basse latitude vu que les régions polaires contribuent peu au flux total). Il se pourrait que les seules rétroactions positives ayant conduit à une forte amplification, voire un "runaway" catastrophique, n'ait joué que dans les transitions glaciaires -interglaciaires , qui semble bien plus brutales que les variation de forçage type Milankovitch, mais ce n'est pas le cas maintenant vu qu'il n'y a quasiment plus de glace à changer.
  14. d'une part il n'y a pas besoin d'une rétroaction puissante, le seul effet radiatif du CO2 sans grosse rétroaction diminue deja nettement la sensibilité, en tout cas la ramène à la limite basse.d'autre part, il y a un mécanisme évident qui peut amplifier plus les variations vers le froid que vers le chaud : la couverture glacée des terres, qui ne joue que dans le sens des glaciations/déglaciation. Plus elles diminuent, moins leur effet est sensible.
  15. ça me parait plus probablement etre du au fait que le CO2 participe au refroidissement de la stratosphère dans les conditions optiquement mince (il est excité par collisions et rayonne dans l'IR). Le refroidissement n'est pas tant du à l'absorption du rayonnement LWR d'en bas qu'à l'augmentation de l'émissivité vers l'espace. Ce qui prouve juste que le CO2 augmente, mais ne dis pas grand chose de son impact sur la température au sol. c'est néanmoins essentiel quand on parle de l'impact du climat sur les populations pauvres africaines .... ce n'est valide que si on est sûr de maitriser toutes les causes connues, et qu'on a juste "à choisir" entre elles. Mais si c'etait le cas, l'accord avec les données passées devrait etre excellent,ce qui n'est pas le cas. Ca laisse donc de la place aux causes "inconnues" comme les oscillations océaniques.
  16. je n'ai utilisé aucun raccourci, j'ai juste rappelé qu'à ma connaissance , le GIEC n'avait émis aucune assertion sur le fait que la majorité du RC du XXe siecle etait anthropique, sauf erreur qu'on voudra bien me corriger.
  17. cet ensemble d'exercices est une comparaison avec des modèles qui n'ont pas en eux même été vraiment validés, à la précision où ils prétendent l'etre en tout cas. Par exemple il est clair que le comportement de la première moitié du XXe siecle n'est pas très bien reproduit, ni la pente moyenne, ni le moment où les températures arrêtent de croitre. C'est plus ou moins masqué par le choix de normaliser les anomalies sur la période 1900-1950, ce qui cache l'écart entre les pentes, et aussi le "truc" de comparer des données à tout un ensemble de modèles hétérogènes, ce qui recouvre forcément à un moment n'importe quelle courbe expérimentale : dans la mesure où on n'a aucune information précise sur la sélection de modèles auxquelles on a comparé les courbes, c'est difficile d'y voir une validation rigoureuse de quoi que ce soit.
  18. ce n'est pas tout à fait ce que dit le GIEC : il ne dit que ce serait la majorité du réchauffement depuis la deuxième moitié du XXe siecle qui serait "à 90 % de probabilité" anthropique - donc en réalité il ne s'engage que sur 25 % du réchauffement environ. Reste que même comme ça, il ne spécifie nulle part clairement, sauf erreur, par quelle méthode il arrive à mesurer quantitativement cette probabilité.
  19. Christian, tes courbes se ramènent toutes à un "best fit" avec certains paramètres fixés. Tu montres qu'il y a une possibilité de reproduire les courbes avec certains choix, dont acte. Ce qu'on fait dans ces cas là, en général, c'est une carte de contour de chi^2 pour determiner la taille de l'ensemble des paramètres qui donnent un fit équivalent. Par exemple là tu rajoutes un "délai" entre le CO2 et la température , ce qui revient à augmenter artificiellement la sensibilité puisque tu compares la température au CO2 20 ans auparavant. On peut suspecter que c'est dégénéré au sens où tu pourrais tout aussi bien choisir un délai nul et une sensibilité plus faible. Pour vraiment justifier d'un délai, il faudrait que tu détermines le meilleur chi^2 en fonction du délai , et que tu montres qu'un certain délai améliore significativement le fit, par un F-test. D'une façon générale, l'information la plus utile n'est pas de montrer qu'une certaine hypothèse peut marcher, mais c'est de montrer que les autres sont exclues. Les données excluent-elles une faible sensibilité ? j'en n'ai pas l'impression. Après, si les barres d'erreurs sont larges, c'est à dire si on peut fitter les mêmes données avec un ensemble de paramètres larges, personne n'y peut rien : ça s'appelle une situation incertaine, c'est la vie. Ca interdit simplement de présenter comme des certitudes (et d'agir comme si ça en était) , ce qui n'est qu'une simple éventualité. Une remarque : si tu commences à rajouter un délai de 20 ans, ça va impacter les projections futures, en particulier dans les scénarios avec un pic fossiles : ça pourrait concrètement avoir la même influence que diminuer la sensibilité.
  20. Sirius, je ne pense pas que Skept ne comprenne pas ça.Simplement, ça veut dire qu'il faut être parfaitement capable de dissocier ce qui est fluctuations naturelles de ce qui est tendance de fond, pour pouvoir être affirmatif sur la valeur réelle de la tendance de fond. Et en particulier l'article que je viens de mettre en référence montre que c'est loin d'être évident. On ne conteste pas du tout le fait qu'il puisse y avoir une tendance de fond superposées à des cycles naturels, on conteste les arguments objectifs qui affirment que les modèles actuels savent parfaitement faire la part de l'un et de l'autre - sinon d'ailleurs pourquoi chercherait-on à les améliorer ? Personnellement par exemple je n'ai toujours pas compris d'où le GIEC avait tiré sa conclusion pour décideurs , de ce qu'il était "très probable que la majorité du réchauffement de la seconde moitié du XXe siecle soit d'origine anthropique" , c'est à dire, traduit en terme scientifique, quelque chose du genre : P (∆Tnaturel_1950-2000 > 0.5 x ∆T total_1950-2000) < 0.1 c'est une affirmation, mais on ne voit nulle part comment elle a été établie, ni même le principe de base de calcul de la probabilité ci-dessus !
  21. Un article intéressant de Wu et al, discuté par Judith Curry sur son blog http://judithcurry.com/2011/07/14/time-varying-trend-in-global-mean-surface-temperature/#more-4080 l'article est payant pour ceux qui ne bénéficient pas d'un abonnement aux journaux scientifiques, mais une présentation est visible ici http://ams.confex.com/ams/91Annual/flvgateway.cgi/id/17273?recordingid=17273
  22. certes mais la question est quand même bien de savoir à quel point la tendance de fond sur 40 ans n'est pas polluée par de variations multidécennales. Un plateau de 10 ans implique quand même une variation cohérente sur cette période, et donc des périodes d'oscillations d'au moins 20 ans - en réalité il existe des signes objectifs d'oscillations à 50 ou 60 ans, par exemple la pente lissée de la température sur les 50 premières années du XXe siecle montrent clairement cette oscillation. Quelle qu'en soit l'explication physique, l'existence d'un phénomène annulant le RC pendant 10 ans interdit de considérer que 30 ans est une période suffisante pour annuler toutes les variations naturelles, selon moi.
  23. donc Lyon est plus chaud que la vallée du Rhône, alors que la Provence commence à Montélimar : ce qui montre bien que assimiler "climat" et "température annuelle moyenne " est totalement abusif : le climat, c'est aussi l'amplitude thermique, la pluviosité, etc .... et on n'a jamais dit que ces paramètres fluctueraient rapidement. Si l'amplitude thermique varie de - 5 à + 25 en 2000, à - 3 à + 27 en 2050, ça fera bien + 2°C de RC, mais ça restera un climat très différent de si ça variait entre + 4 °C et + 20°C avec un climat plus pluvieux. Là où j'habite, dans une vallée, y a plein de gens qui habitent 500 mètres au-dessus de chez moi avec plusieurs °C de différence d'écart, et pourtant, on est tous dans le même climat !
  24. ben le problème, c'est justement de savoir si il va vraiment s'emballer , parce qu'on comprend mal pourquoi il n'y aurait pas eu d'accélération entre 1970 et 2030, ce qui fait quand même 60 ans, et puis que tout à coup ça se mettrait à s'emballer. En tout cas les modèles climatiques prévoyaient une accélération qui devrait commencer à se faire sentir, et on ne la voit pas. Ca semblerait quand même pointer vers une sensibilité basse + des cycles de longue période ayant amplifié la période 1970-2000, mais ça réduit d'autant la pente moyenne. Et à 0,15 °C/décennie, ça semble quand même un peu faible pour s'affoler, surtout quand on considère que les scénarios d'émission sont systématiquement biaisés vers des valeurs hautes par rapport aux réserves prouvées.
×
×
  • Créer...