anecdote Posté(e) 25 avril 2006 Partager Posté(e) 25 avril 2006 Voici la conclusion du récent article de Charles Müller, tapé au coin du bon sens : "La conclusion est simple : les modèles actuels sont extrêmement imparfaits pour ce qui est de l’estimation des forçages radiatifs, donc du bilan radiatif global de la Terre. Il en va de même pour l’estimation du coefficient de sensibilité climatique, second ingrédient nécessaire à la projection des températures au XXIe siècle, que nous examinerons dans un autre article. Et il n’est peut-être pas inutile de rappeler que de semblables incertitudes entachent par nature le troisième ingrédient des scénarios du GIEC, c’est-à-dire la quantification démographique, énergétique et économique du développement entre 2000 et 2100. Que les modèles présentent de tels défauts est chose normale en science. Et les chercheurs sont les premiers à le reconnaître en climatologie, ce qui est tout à leur honneur. Ce qui semble bien plus anormal est que les résultats de modèles aussi défectueux soient désormais considérés comme une quasi-certitude et servent de fondement à la décision publique en ce domaine. En l’état actuel des modèles : - il est illusoire de quantifier, même approximativement, la part des gaz à effet de serre dans le réchauffement passé, présent et à venir ; - il est illusoire de projeter sur cette base et sur un siècle des variations thermiques qui ne sont jamais qu’une combinatoire informatisée d’incertitudes majeures. Mais alors, pourquoi les chercheurs le font-ils ? Depuis la naissance du GIEC, les recherches climatiques ont été abondamment politisées et médiatisées. Les subventions publiques à ces recherches ont été pour leur part massivement augmentées, compte tenu du caractère d’urgence que semblait prendre l’évolution du climat. Il en résulte que les scientifiques ont désormais une sorte d’« obligation de résultats » en la matière. Les décideurs, qui sont aussi les principaux bailleurs de fonds, ne dépensent pas plusieurs milliards de dollars chaque année pour se voir répondre que les incertitudes sont encore trop importantes. Chaque groupe de chercheurs à la tête d’un modèle préfère donc publier des résultats très provisoires et très incertains plutôt que de ne rien publier du tout ou de se contenter de travailler modestement sur la réduction progressive de chaque incertitude. Le mythe du réchauffement climatique a désormais une telle charge émotive que le retour en arrière n’est plus possible. Pourtant, tôt ou tard, les contraintes politico-médiatiques, de plus en plus pressantes et urgentes par nature, ne seront plus du tout compatibles avec la rigueur scientifique, exigeant de la patience et de la précision dans l’étude des phénomènes aussi complexes que le système climatique. Le jour où cette contradiction éclatera, le grand récit édifiant du réchauffement climatique commencera à s'efffondrer rapidement dans la confusion. Avant de sombrer lentement dans l’oubli." source : http://www.climat-sceptique.com/article-2535720.html Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 25 avril 2006 Partager Posté(e) 25 avril 2006 Voici la conclusion du récent article de Charles Müller, tapé au coin du bon sens : "tml Merci de cette citation. J'avais abordé sur ce forum la question du bilan radiatif : /index.php?showtopic=14428'>http://forums.infoclimat.fr/index.php?showtopic=14428 La cascade d'incertitudes des modèles est effarante et plus je m'enfonce dans la littérature, moins je comprends la substance scientifique des prévisions climato. à long terme. A/ Les chercheurs ne savent pas estimer le bilan radiatif global car ils sont dans le flou total concernant les aréosols sulfatés, les variations solaires / nébulosité, l'attribution positive ou négative de certains forçages (combustion de biomasse par exemple). B/ Les chercheurs ne savent pas estimer la sensibilité climatique et les travaux varient désormais de 1 à 8 voire 10 °C/W/m2 (!). C/ Les chercheurs ne savant pas (par définition) ce qui se passera exactement au XXIe siècle pour l'humanité (énergie, technologie, guerre, économie, démographie, maladies) et pour la nature (variation des forçages naturels, variation du stockage C02). Et c'est la combinatoire de AxBxC que l'on présente comme le delta(T) 1990-2100 au dixième de degré (ou même au degré) près. Franchement, cela relève de l'escroquerie intellectuelle. Non pas les travaux eux-mêmes, bien sûr, mais la présentation de ces travaux comme des informations fiables pour les décideurs et pour l'avenir de l'humanité. * Je continue actuellement à travailler sur le volet B/, celui de la sensibilité climatique. Le constat est simple : la situation en termes d'incertitude s'est aggravée depuis GIEC 2001, au lieu de s'améliorer. (Pour mémoire, la sensibilité climatique est la réponse des températures au doublement du CO2 atmosphérique; on sait qu'elle est de 1,1°C en théorie, mais il faut inclure des rétroactions positives pour l'estimer). On a désormais ceux qui la voient forte à très forte (Andronova 2002 par exemple, 50% de prob. > 4,5°C/W/m2), ceux qui la voient faible à très faible (Shaviv 2005 par exemple, env. 1,3°C/W/m2) et les autres qui restent dans la fourchette existante 1,5-4,5 °C/W/m2, avec deux sous-groupes qui la font tendre soit vers les valeurs basses (moins de 2,5°C), soit vers les valeurs hautes (plus de 3°C). Un fait marquant des dernières années a été l'apparition de sensibilités climatiques extrêmes annonçant des prévisions incroyables (Stainforth 2005 par exemple) et donnant des gros titres de presse comme "Une hausse de 11°C à prévoir" ou "Une crise climatique dans 10 ans". Même RealClimate, sous la plume de G. Schmidt et S. Rahmstorf, a été obligé de mettre le hola en reconnaissant que l'on s'enfonçait là dans le catastrophisme non scientifiquement crédible. (A ce sujet, un article vient par exemple tout juste de paraître dans Nature (Hegerl 2006), qui considère les estimations très hautes comme très faiblement probables, donne une sensibilité pré-industrielle de 1,4-6,1 (valeur médiane de 2,6 cependant) pour son propre modèle, une sensibilité de 1,3-3,6 pour les autres estimations pré-industrielles. Mais à quoi bon faire encore ces estimations paléo. de la sensibilité climatique puisque Jouzel affirme dans le Workshop IPCC on Climate Sensitivity 2004 : "Il est important de reconnaître qu'il n'existe aucun analogue satisfaisant dans le passé pour le futur changement climatique", p. 29.)) Un autre fait problématique est que certains n'excluent pas que le sensibilité climatique varie considérablement entre la surface et la tropopause d'une part, qu'elle ne soit pas équivalente pour tous les forçages d'autre part (ce qui était assumé par GIEC 2001), c'est-à-dire par exemple qu'une variation solaire et une variation carbonique équivalentes dans le bilan radiatif n'auraient pas forcément une traduction thermique identique. Bref, tout cela devient tragi-comique et la fameuse "amélioration progressive" des modèles promise depuis près 20 ans n'est pas au rendez-vous. L'augmentation de la puissance informatique ou de la précision des grilles ne change rien au fait que les experts bataillent à la base sur des mesures rares et/ou incertaines et/ou rudimentaires, et que certains domaines sont encore très spéculatifs quoique potentiellement très importants (rayonnement solaire/cosmique + nébulosité/vapeur d'eau). Dans ces conditions, il sera toujours possible de faire co-varier les inputs dans leur marge d'incertitude, de faire tourner un million de fois sa machine, de faire des jolis pdfs sur les outputs et de clamer que tel résultat semble plus probable que les autres. Prendre au sérieux ce résultat dont la validité sera mise en cause quinze jours plus tard par un autre modèle, cinq ans plus tard par des mesures un peu plus précises ou dix ans plus tard par la découverte d'un nouveau mécanisme climatique relève psychologiquement du besoin de croire. Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 25 avril 2006 Partager Posté(e) 25 avril 2006 On a désormais ceux qui la voient forte à très forte (Andronova 2002 par exemple, 50% de prob. > 4,5°C/W/m2), ceux qui la voient faible à très faible (Shaviv 2005 par exemple, env. 1,3°C/W/m2) et les autres qui restent dans la fourchette existante 1,5-4,5 °C/W/m2, avec deux sous-groupes qui la font tendre soit vers les valeurs basses (moins de 2,5°C), soit vers les valeurs hautes (plus de 3°C). je ne comprends pas bien ces chiffres.Où as-tu vu qu'une sensiblité climatique de 1.3°C/W.m-2 était faible à très faible ? Il ne s'agit pas de citer des auteurs les uns après les autres pour démontrer telle ou telle thèse. C'est une méthode de travail extrèmement parcellaire, voire proche de l'anecdotique, qui pourrait paraître partiale et qui surtout ne rend pas compte, par exemple, des indices de confiance entre les valeurs des différents forçages et les différentes sensibilités climatiques. Ce n'est pas comme cela que tu vas convaincre. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 25 avril 2006 Partager Posté(e) 25 avril 2006 je ne comprends pas bien ces chiffres. Où as-tu vu qu'une sensiblité climatique de 1.3°C/W.m-2 était faible à très faible ? Parce que l'on sait que la sensibilité climatique à un doublement CO2 en situation d'équilibre "idéal" est de toute façon de 1,1°C. Si elle est estimée "concrètement" de 1,5 à 10 °C, c'est parce que les modèles ajoutent les effets des fameuses "rétroactions positives" accompagnant le doublement CO2. Que 1,3°C soit très faible n'est mis en doute par personne. (Il faut avoir en tête que la progression de l'effet thermique de cette sensibilité est logarithmique et non linéaire : une fois que l'on a doublé le CO2 / l'ère préindustrielle en atteignant par exemple 540 ppm / 270 ppm, il faudra encore doubler, à 1080 ppm cette fois, pour avoir une amplitude thermique équivalente ; ce qui te ferait une hausse de 2,2°C - sur l'hypothèse sensib. clim = 1,1 - dans les scénaios les plus sombres en termes d'émission, où l'on passerait de 380 ppm aujourd'hui à 1080 ppm en 2100). Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 25 avril 2006 Partager Posté(e) 25 avril 2006 Il ne s'agit pas de citer des auteurs les uns après les autres pour démontrer telle ou telle thèse. C'est une méthode de travail extrèmement parcellaire, voire proche de l'anecdotique, qui pourrait paraître partiale et qui surtout ne rend pas compte, par exemple, des indices de confiance entre les valeurs des différents forçages et les différentes sensibilités climatiques. Ce n'est pas comme cela que tu vas convaincre. Je ne sais pas pourquoi, j'ai été coupé dans la réponse. Sur cette deuxième partie de ton propos : - je citais là en vrac et rapidement quelques chiffres des études que je suis en train de lire, mais je vais volontiers approfondir le sujet puisque cela t'intéresse ; - les chiffres mentionnés sont généralement les fourchettes situées dans un intervalle de 90 ou 95% de confiance selon les études (il va de soi que je ne citais pas les valeurs extrêmes des pdfs dont la probabilité est faible à quasi-nulle). - citer un grand nombre de travaux est encore le meilleur moyen que je connaisse pour faire avancer les connaissances et reféter la diversité de la recherche. Même que le GIEC fait pareil dans chaque partie et sous-partie de sa synthèse scientifique. Cela me paraît plus pertinent que de recopier une estimation lue dans Terre sauvage, le Monde ou Science&Vie (je ne parle pas pour toi spécialement, mais pour bon nombre de posts des forums où les infos alarmistes ne sont jamais référencées sur la publication d'origine, a fortiori sur une synthèse des publications pertinentes sur le sujet) ; - d'après l'édito de J.L. Dufresne dans le dernier n° de La Météorologie (52), les valeurs actuellement retenues pour la fourchette sensibilité climatique dans GIEC 2007 seraient 2,5-5°C (valeur médiane inconnue pour l'instant), "un éventail aussi large aujourd'hui qu'il y a cinq ans", comme le dit JLD. Je fourmille d'impatience de voir comment GIEC 2007 a évacué comme non pertinents les travaux assez nombreux faisant état de fourchette plutôt situées en 1,5-3,5 °C, voire moins. Et je constate en tout cas a minima que les incertitudes ne semblent pas levées malgré les "immmenses progrès des modèles". - je ne doute pas un seul instant que tu sois difficile à convaincre Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 25 avril 2006 Partager Posté(e) 25 avril 2006 PS : je relis GIEC 1990 et je vois que les estimations 2100 pour le scénario busines-as-usual données dès la première page vont de +2 à +5 °C. Sans préjuger de GIEC 2007, s'il y au moins une chose qui n'a objectivement pas changé en près de 20 ans d'existence, ce sont les marges d'incertitude des résultats des modèles. Mais dans ce cas, pourquoi diable prétendre à chaque fois dans le résumé décideurs que les modèles ont nettement progressé ? Un modèle prédictif existe pour donner une estimation fiable : si cette fiabilité patine, le modèle n'est pas substantiellement meilleur. Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 25 avril 2006 Partager Posté(e) 25 avril 2006 Merci de cette citation. J'avais abordé sur ce forum la question du bilan radiatif : /index.php?showtopic=14428'>http://forums.infoclimat.fr/index.php?showtopic=14428 La cascade d'incertitudes des modèles est effarante et plus je m'enfonce dans la littérature, moins je comprends la substance scientifique des prévisions climato. à long terme. A/ Les chercheurs ne savent pas estimer le bilan radiatif global car ils sont dans le flou total concernant les aréosols sulfatés, les variations solaires / nébulosité, l'attribution positive ou négative de certains forçages (combustion de biomasse par exemple). B/ Les chercheurs ne savent pas estimer la sensibilité climatique et les travaux varient désormais de 1 à 8 voire 10 °C/W/m2 (!). C/ Les chercheurs ne savant pas (par définition) ce qui se passera exactement au XXIe siècle pour l'humanité (énergie, technologie, guerre, économie, démographie, maladies) et pour la nature (variation des forçages naturels, variation du stockage C02). Et c'est la combinatoire de AxBxC que l'on présente comme le delta(T) 1990-2100 au dixième de degré (ou même au degré) près. Franchement, cela relève de l'escroquerie intellectuelle. Non pas les travaux eux-mêmes, bien sûr, mais la présentation de ces travaux comme des informations fiables pour les décideurs et pour l'avenir de l'humanité. Il ne faut pas tout mélanger : C/ n'est pas le travail des modélisateurs et les entrées de A/ sont intégrées avec différentes valeurs en relation avec l'incertitude. Il est tenu compte de tout ce dont tu parles au GIEC (même s'il y a encore trop de flottement avec l'évolution de la nébulosité), c'est pour cela que l'on obtient des fourchettes, et il se trouve que celles-ci sont situées nettement dans le domaine positif. Même en faisant une ablation des modèles extrêmes vers le haut, tous les modèles montrent un réchauffement sensible (>1,5°C). Comme on dit en épidémiologie, cette méta-analyse constitue une démonstration... statistique, mais le GIEC n'a jamais dit le contraire. Peut-être qu'il se trompe (j'espère) mais tu n'as pas les moyens de le démontrer. Et vu les enjeux (là ça devient politique), la charge de la preuve incombe aux détracteurs du réchauffement (jusqu'ici rien de convaincant). Pour le B/, si l'on retire les derniers modèles extrêmes, je crois que tu exagères lorsque tu invoques un facteur 8 dans les différentes sensibilités (°C.m^2/W) à entrées constantes. Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 25 avril 2006 Partager Posté(e) 25 avril 2006 PS : je relis GIEC 1990 et je vois que les estimations 2100 pour le scénario busines-as-usual données dès la première page vont de +2 à +5 °C. Sans préjuger de GIEC 2007, s'il y au moins une chose qui n'a objectivement pas changé en près de 20 ans d'existence, ce sont les marges d'incertitude des résultats des modèles. Mais dans ce cas, pourquoi diable prétendre à chaque fois dans le résumé décideurs que les modèles ont nettement progressé ? Un modèle prédictif existe pour donner une estimation fiable : si cette fiabilité patine, le modèle n'est pas substantiellement meilleur. Je crois avoir déjà posté le schéma ci-dessous: ce graphe est issu de l'étude mentionnée qui consiste à contraindre la sensibilité par plusieurs phénomènes climatiques (LGM, volcans, réchauffement XXième, minimum de Maunder,...) La courbe en pointillés rouges représente la prise en compte de 5 contraintes. le (2.0,3.0,4.3) représente l'intervalle de confiance centré sur 3.0°C avec 95% compris entre 2.0 et 4.3°C. Lorsqu'on regarde la courbe, au pifomètre, on peut dire que 70% est compris entre 2.5 et 3.5°C. bon tout cela n'est pas pleinement satisfaisant mais 70% entre 2.5 et 3.5°C c'est pas si mal. Nous avons déjà parlé du rôle des aérosols sulfatés qui n'est pas encore très bien modélisé. Ceci apparaît d'ailleurs dans le mauvais (1,3,10) du XXième siècle( courbe en tirés bleu) Lien à poster Partager sur d’autres sites More sharing options...
miniTAX Posté(e) 25 avril 2006 Partager Posté(e) 25 avril 2006 Et vu les enjeux (là ça devient politique), la charge de la preuve incombe aux détracteurs du réchauffement (jusqu'ici rien de convaincant). Permettez moi de donner un point de vue qui sort un peu du cadre environnemental et climatique un peu hexa-centré pour dire que la charge de preuve dépend du pays dont on parle. Si on prend l'Europe qui a adopté Kyoto sans trop se poser de question et qui d'ailleurs est en train de se retrouver dans un bourbier économique insortable (cf les dépassements de quotas de l'Espagne, de l'Italie, de la GB, de l'Irlande), effectivement, les "sceptiques" sont sur la défensive. Cyniquement, je dirais tant mieux car le RC sert bien les intérêts de la France, premier pays nucléaire du monde. Si on prend les pays qui n'ont pas ratifié Kyoto tel que les EU et l'Australie ou les pays qui s'en soucie comme d'une guigne tel que le Canada, c'est aux alarmistes de démontrer le bien fondé de l'inquiétude qu'ils ont suscité depuis plus de 20 ans. Et pour l'instant, il n'y a aucune chance pour que les alarmistes puissent y arriver, tellement ils se sont discrédités avec des prévisions de hausse révisées... à la baisse au fur et à mesure que la recherche "avance". Et quand l'heure viendre de faire le bilan de Kyoto en 2012 et son coût astronomique à mettre en rapport avec les gains environementaux, ce sera doublement amusant de voir les justifications de tout un chacun. Les histoires de gros sous ont l'avantage d'amener des gens à discuter de choses terre à terre, loins des spéculations climatiques. Notons qu'au passage, lors de la grande messe climatique fin d'année dernière à Montréal qui est sensée préparer la suite de Kyoto, il s'est passé rien. Tout le monde s'est félicité en se quittant en s'accordant sur les quand et quoi pour les prochaines... discussions. Si, il y a eu une avancée majeure : on a réussi à convaincre les EU de ne pas claquer les portes pour de bon. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 25 avril 2006 Partager Posté(e) 25 avril 2006 Je crois avoir déjà posté le schéma ci-dessous: bon tout cela n'est pas pleinement satisfaisant mais 70% entre 2.5 et 3.5°C c'est pas si mal. Nous avons déjà parlé du rôle des aérosols sulfatés qui n'est pas encore très bien modélisé. Ceci apparaît d'ailleurs dans le mauvais (1,3,10) du XXième siècle( courbe en tirés bleu) Certes, mais des pdfs comme celui-là, tu en trouves treize à la douzaine depuis quinze ans. Si je prends le tout dernier en date paru avant-hier dans Nature, dont je parle un peu plus haut et qui est un modèle paléo. pré-industriel, cela nous donne par exemple cela : Tu t'aperçois que l'on est déjà légèrement décalé par rapport au tien, puisque les valeurs les plus probables sont entre 2 et 3 plutôt que 2,5 et 3,5. Si je prend maintenant Shaviv 2005, qui intègre une pondération moins forte du rayonnement dans son modèle, cela va donner cela : On est dans des valeurs encore plus basses. Et ainsi de suite. La question devient donc : comment fait au juste le GIEC pour trancher entre ces différentes reconstructions (et aboutir, semble-t-il à 2,5-5 °C)? Une méta-analyse suivie d'une moyenne? Mais cela suppose que tous les modèles ont également raison, alors que l'intérêt est justement qu'ils partent chacun d'hypothèses différentes qui ne peuvent pas être toutes vraies en même temps. Lien à poster Partager sur d’autres sites More sharing options...
miniTAX Posté(e) 25 avril 2006 Partager Posté(e) 25 avril 2006 Nous avons déjà parlé du rôle des aérosols sulfatés qui n'est pas encore très bien modélisé. Oui, ce sont les données sur les aérosols qui ont planté le programme de simulation climatique sur réseau mis en place sous le parrainage de la BBC : http://www.spiked-online.com/Articles/0000000CB027.htm2 mois de calculs intensifs sur 200.000 PC partis en fumée. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 25 avril 2006 Partager Posté(e) 25 avril 2006 Il ne faut pas tout mélanger : C/ n'est pas le travail des modélisateurs et les entrées de A/ sont intégrées avec différentes valeurs en relation avec l'incertitude. A partir du moment où l'estimation finale des réchauffements 2100 inclut A, B et C, je suis bien obligé de tout mélanger. C'est le GIEC qui le fait, pas moi. Quant aux incertitudes de A/, celle sur les aréosols anthropiques (par exemple) n'est même pas donnée dans GIEC 2001, car les auteurs reconnaissent une diversité trop extrême des approches en la matière. A partir du moment où GIEC 2001 reconnaît que tous les forçages hors GES et ozone ont un niveau bas à très bas de confiance, je ne vois pas comment la confiance deviendrait élevée à très élevée dans le résultat final. Au mieux, si l'on reconnaît cette imprécision généralisée comme une méthode merveilleuse, cela signifie que tous les résultats sont strictement équiprobables, ce qui n'avance pas d'un iota (car 1,5°C de réchauffement en un siècle n'impose pas du tout les mêmes décisions que 4,5°C). Il est tenu compte de tout ce dont tu parles au GIEC (même s'il y a encore trop de flottement avec l'évolution de la nébulosité), c'est pour cela que l'on obtient des fourchettes, et il se trouve que celles-ci sont situées nettement dans le domaine positif. Même en faisant une ablation des modèles extrêmes vers le haut, tous les modèles montrent un réchauffement sensible (>1,5°C). Comme on dit en épidémiologie, cette méta-analyse constitue une démonstration... statistique, mais le GIEC n'a jamais dit le contraire. Peut-être qu'il se trompe (j'espère) mais tu n'as pas les moyens de le démontrer. Et vu les enjeux (là ça devient politique), la charge de la preuve incombe aux détracteurs du réchauffement (jusqu'ici rien de convaincant). Que les fourchettes soient toutes dans le domaine positif n'a rien d'étonnant vu que tout le monde est d'accord pour dire : a/ que les GES augmentent dans l'atmopshère ; b/ qu'ils augmentent la température toutes choses égales par ailleurs. Mais on sait que le vrai débat est de savoir dans quelle proportion ils l'augmentent par rapport à la variabilité naturelle. "Détracteur du réchauffement" ne signifie pas grand chose de ce point de vue. Par ailleurs, tu raisonnes comme si aucune découverte fondamentale en climatologie ne devait émerger dans les 5, 10 ou 20 prochaines années, c'est-à-dire comme si tous les éléments du système étaient désormais bien connus, et que la seule chose à faire était de régler les détails (réduire les incertitudes). Il est absolument impossible de savoir aujourd'hui ce qui résultera demain du débat foisonnant sur le forçage solaire / cosmique, par exemple. Je n'ai pas les moyens de démontrer que le GIEC se trompe dans ses fourchettes. Mais qu'il se trompe lorsqu'il attribue avec une quasi-certitude la part la plus importante du réchauffement récent à l'homme, c'est une évidence : le mot "quasi-certitude" est en trop. Et on m'otera difficielment de l'idée que c'est un choix politique plus que scientifique. Pour le B/, si l'on retire les derniers modèles extrêmes, je crois que tu exagères lorsque tu invoques un facteur 8 dans les différentes sensibilités (°C.m^2/W) à entrées constantes. Je défriche le sujet, donc je posterai les réponses à cette question précise au fur et à mesure que je lirai en détail les différents travaux. Je suis déjà quasi certain qu'Andronova et Schlesinger 2002 sont entre 1 et 9,3 °C à 90% de confiance. Merci de préciser à ce stade ce que tu entends par "entrées constantes", afin qu'il n'y ai pas malentendu. Lien à poster Partager sur d’autres sites More sharing options...
Patricia Régnier Posté(e) 25 avril 2006 Partager Posté(e) 25 avril 2006 Voici la conclusion du récent article de Charles Müller, tapé au coin du bon sens : "La conclusion est simple : les modèles actuels sont extrêmement imparfaits pour ce qui est de l’estimation des forçages radiatifs, donc du bilan radiatif global de la Terre. Il en va de même pour l’estimation du coefficient de sensibilité climatique, second ingrédient nécessaire à la projection des températures au XXIe siècle, que nous examinerons dans un autre article. Et il n’est peut-être pas inutile de rappeler que de semblables incertitudes entachent par nature le troisième ingrédient des scénarios du GIEC, c’est-à-dire la quantification démographique, énergétique et économique du développement entre 2000 et 2100. Que les modèles présentent de tels défauts est chose normale en science. Et les chercheurs sont les premiers à le reconnaître en climatologie, ce qui est tout à leur honneur. Ce qui semble bien plus anormal est que les résultats de modèles aussi défectueux soient désormais considérés comme une quasi-certitude et servent de fondement à la décision publique en ce domaine. En l’état actuel des modèles : - il est illusoire de quantifier, même approximativement, la part des gaz à effet de serre dans le réchauffement passé, présent et à venir ; - il est illusoire de projeter sur cette base et sur un siècle des variations thermiques qui ne sont jamais qu’une combinatoire informatisée d’incertitudes majeures. Mais alors, pourquoi les chercheurs le font-ils ? Depuis la naissance du GIEC, les recherches climatiques ont été abondamment politisées et médiatisées. Les subventions publiques à ces recherches ont été pour leur part massivement augmentées, compte tenu du caractère d’urgence que semblait prendre l’évolution du climat. Il en résulte que les scientifiques ont désormais une sorte d’« obligation de résultats » en la matière. Les décideurs, qui sont aussi les principaux bailleurs de fonds, ne dépensent pas plusieurs milliards de dollars chaque année pour se voir répondre que les incertitudes sont encore trop importantes. Chaque groupe de chercheurs à la tête d’un modèle préfère donc publier des résultats très provisoires et très incertains plutôt que de ne rien publier du tout ou de se contenter de travailler modestement sur la réduction progressive de chaque incertitude. Le mythe du réchauffement climatique a désormais une telle charge émotive que le retour en arrière n’est plus possible. Pourtant, tôt ou tard, les contraintes politico-médiatiques, de plus en plus pressantes et urgentes par nature, ne seront plus du tout compatibles avec la rigueur scientifique, exigeant de la patience et de la précision dans l’étude des phénomènes aussi complexes que le système climatique. Le jour où cette contradiction éclatera, le grand récit édifiant du réchauffement climatique commencera à s'efffondrer rapidement dans la confusion. Avant de sombrer lentement dans l’oubli." source : http://www.climat-sceptique.com/article-2535720.html Nous ne disons pas que les modèles sont parfaits mais perfectibles. Nous sommes tout aussi bien frappés de bons sens Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 25 avril 2006 Partager Posté(e) 25 avril 2006 A partir du moment où l'estimation finale des réchauffements 2100 inclut A, B et C, je suis bien obligé de tout mélanger. C'est le GIEC qui le fait, pas moi. Je m'en tenais exclusivement au titre de ce fil. A partir du moment où GIEC 2001 reconnaît que tous les forçages hors GES et ozone ont un niveau bas à très bas de confiance, je ne vois pas comment la confiance deviendrait élevée à très élevée dans le résultat final. Je ne veux pas être trop affirmatif car cela fait longtemps que je n'ai plus regardé les résumés 2001 mais il me semble qu'ils n'attribuent pas une fourchette de proba à des résultats numériques précis mais à des tendances ou à des minorants (majorants). Ils doivent se placer chaque fois "dans le pire des cas" (ce dont s'accomode bien le calcul des probas). Ceci devrait lever tes doutes. De toutes façons les probas dépendent de nos connaissances actuelles. Mais vu l'état de la science moderne, j'estime qu'il faut s'inquiéter du phénomène de réchauffement. Au mieux, si l'on reconnaît cette imprécision généralisée comme une méthode merveilleuse, cela signifie que tous les résultats sont strictement équiprobables, ce qui n'avance pas d'un iota (car 1,5°C de réchauffement en un siècle n'impose pas du tout les mêmes décisions que 4,5°C). Argument trivialement balayé par ce qui est au-dessus. Que les fourchettes soient toutes dans le domaine positif n'a rien d'étonnant vu que tout le monde est d'accord pour dire : a/ que les GES augmentent dans l'atmopshère ; b/ qu'ils augmentent la température toutes choses égales par ailleurs. La variabilité minimale prévue par les modèles décroche par rapport à la variabilité naturelle (non cataclysmique) par unité de temps (cycles solaires, paramètres astronomiques). L'origine anthropique du CO2 atmosphérique en surplus est attestée par une étude isotopique et l'élévation minimum de la T prévue par les modèles requiert, comme le justifie la phrase précédente, une explication qui integre l'augmentation des taux de GES. Conclusion : a/ Une partie (sinon la totalité) du réchauffement à venir prévu est d'origine anthropique. b/ Vu les niveaux d'augmentation attendue de la T, nous devons rétroactivement essayer de minimiser cette augmentation et ses conséquences. Mais on sait que le vrai débat est de savoir dans quelle proportion ils l'augmentent par rapport à la variabilité naturelle. "Détracteur du réchauffement" ne signifie pas grand chose de ce point de vue. Tu as raison j'aurais dû écrire "Détracteurs du réchauffement anthropique potentiellement très destructeur attendu avec une forte probabilité selon l'immence majorité des experts travaillant dans un domaine qui intéresse les modélisateurs" mais tu avoueras que c'est un peu lourd. Par ailleurs, tu raisonnes comme si aucune découverte fondamentale en climatologie ne devait émerger dans les 5, 10 ou 20 prochaines années, c'est-à-dire comme si tous les éléments du système étaient désormais bien connus, et que la seule chose à faire était de régler les détails (réduire les incertitudes). Il est absolument impossible de savoir aujourd'hui ce qui résultera demain du débat foisonnant sur le forçage solaire / cosmique, par exemple. Remarque très intéressante car tu t'aventures dans le domaine politique voire philosophique : gestion du risque (risque inhérent et dépendant de notre ignorance présente), principe de précaution (je te renvoie à Dupuis et Jonas). Pour ma part, j'estime le risque du réchauffement (danger X proba actuellle) tellement exorbitant que je pense qu'il faudrait mettre en place un protocole de réduction des GES de 8 % tous les 5 ans au niveau mondial jusqu'en 2050 (on est loin de Kyoto et de ses lamentables héritiers potentiels). Je n'ai pas les moyens de démontrer que le GIEC se trompe dans ses fourchettes. Mais qu'il se trompe lorsqu'il attribue avec une quasi-certitude la part la plus importante du réchauffement récent à l'homme, c'est une évidence : le mot "quasi-certitude" est en trop. J'attends une démonstration un peu plus convaincante... Et on m'otera difficielment de l'idée que c'est un choix politique plus que scientifique. Là je suis d'accord avec toi, l'expertise est scientifique et le choix politique. Je défriche le sujet, donc je posterai les réponses à cette question précise au fur et à mesure que je lirai en détail les différents travaux. Je suis déjà quasi certain qu'Andronova et Schlesinger 2002 sont entre 1 et 9,3 °C à 90% de confiance. Merci de préciser à ce stade ce que tu entends par "entrées constantes", afin qu'il n'y ai pas malentendu. Je suis comme toi, j'apprends tous les jours. Il y a plusieurs "entrées" mais ici j'enttendais les émissions des différents GES en fonction du temps. Tu ne te poses jamais la question : "et si j'avais tort ?" Tu te rendras compte que nos positions ne sont pas symétriques. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 25 avril 2006 Partager Posté(e) 25 avril 2006 Oui, ce sont les données sur les aérosols qui ont planté le programme de simulation climatique sur réseau mis en place sous le parrainage de la BBC : http://www.spiked-online.com/Articles/0000000CB027.htm 2 mois de calculs intensifs sur 200.000 PC partis en fumée. Très instructif cette affaire ! Voici ce qu'on lisait sur BBC News, en 2002, à l'annonce du lancement du binz : http://news.bbc.co.uk/1/hi/sci/tech/1958296.stm With a vast range of simulations done, it should be possible to get an idea of the full range of possible changes to global climate over the next 50 years, said Dr Allen. At the moment climatologists had only explored a small fraction of all the possible outcomes and this had inevitably led to disputes about the effects of global warming, he said. "Quantifying the uncertainty is something we cannot do at the moment," he said. * Si je résume ce que disait le Dr Myles Allen (physicien, spécialiste de l'atmosphère) : - les modèles actuels n'explorent qu'une petite fraction de ce qui est possible ; - la quantification des incertitudes est impossible ; - ce modèle va tout changer. Ce modèle a planté par la faute des maudits aérosols sulfatés (on comprend mieux pourquoi le GIEC 2001 ne donnait même pas une estimation de forçage avec marge d'incertitude). Il ne reste donc plus que les propos du Dr Allen concernant la "petite fraction" des possibles et l'immense fraction des incertitudes. Dont acte. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 25 avril 2006 Partager Posté(e) 25 avril 2006 Je m'en tenais exclusivement au titre de ce fil. Je ne veux pas être trop affirmatif car cela fait longtemps que je n'ai plus regardé les résumés 2001 mais il me semble qu'ils n'attribuent pas une fourchette de proba à des résultats numériques précis mais à des tendances ou à des minorants (majorants). Ils doivent se placer chaque fois "dans le pire des cas" (ce dont s'accomode bien le calcul des probas). Ceci devrait lever tes doutes. De toutes façons les probas dépendent de nos connaissances actuelles. Mais vu l'état de la science moderne, j'estime qu'il faut s'inquiéter du phénomène de réchauffement. Argument trivialement balayé par ce qui est au-dessus. Peux-tu repréciser cette partie ? Je ne saisis pas bien en détail. Concernant les incertitudes sur évaluation des modèles couplés, voici un extrait de GIEC 2001 (8.10.1) : Our attempts to evaluate coupled models have been limited by the lack of a more comprehensive and systematic approach to the collection and analysis of model output from well co-ordinated and well designed experiments. Important gaps still remain in our ability to evaluate the natural variability of models over the last several centuries. There are gaps in the specification of the radiative forcing (especially the vertical profile) as well as gaps in proxy palaeo-data necessary for the production of long time series of important variables such as surface air temperature and precipitation. In order to assist future coupled model evaluation exercises, we would strongly encourage substantially expanded international programmes of systematic evaluation and intercomparison of coupled models under standardised experimental conditions. Such programmes should include a much more comprehensive and systematic system of model analysis and diagnosis, and a Monte Carlo approach to model uncertainties associated with parametrizations and initial conditions. The computing power now available to most major modelling centres is such that an ambitious programme that explores the differing direct responses of parametrizations (as well as some indirect effects) is now quite feasible. Further systematic and co-ordinated intercomparison of the impact of physical parametrizations both on the ability to simulate the present climate (and its variability) and on the transient climate response (and its variability) is urgently needed. The systematic analysis of extremes in coupled models remains considerably underdeveloped. Use of systematic analysis techniques would greatly assist future assessments. It is important that in future model intercomparison projects the experimental design and data management takes heed of the detailed requirements of diagnosticians and the impacts community to ensure the widest possible participation in analysing the performance of coupled models. Dommage que le résumé des décideurs n'ait pas mentionné cet état rudimentaire du diagnostic des modèles et de leur comparaison. La variabilité minimale prévue par les modèles décroche par rapport à la variabilité naturelle (non cataclysmique) par unité de temps (cycles solaires, paramètres astronomiques). L'origine anthropique du CO2 atmosphérique en surplus est attestée par une étude isotopique et l'élévation minimum de la T prévue par les modèles requiert, comme le justifie la phrase précédente, une explication qui integre l'augmentation des taux de GES. Conclusion : a/ Une partie (sinon la totalité) du réchauffement à venir prévu est d'origine anthropique. b/ Vu les niveaux d'augmentation attendue de la T, nous devons rétroactivement essayer de minimiser cette augmentation et ses conséquences. Cela tourne en rond comme un modèle saturé par les aérosols ! Si la conclusion est qu'une partie du réchauffement est anthropique, pas besoin de Deep Blue pour y parvenir, Fourier et Arrhenius me l'avait déjà suggéré avec un papier et un crayon. Quant aux niveaux élevés d'augmentation attendus, les voilà qui reviennent comme une certitude par la cheminée. Tu as raison j'aurais dû écrire "Détracteurs du réchauffement anthropique potentiellement très destructeur attendu avec une forte probabilité selon l'immence majorité des experts travaillant dans un domaine qui intéresse les modélisateurs" mais tu avoueras que c'est un peu lourd. Plus lourd mais plus précis. Je ne suis pas d'accord avec ton "immense majorité", argument d'autorité mille fois entendu. Sondage Bray et von Storch 2003 chez les experts du climat : env. 9% des climatologues totalement d'accord avec le réchauffement anthropique tel qu'il est présenté par le GIEC, env. 9 % entièrement en désaccord, le reste au milieu. Rien de tel qu'un sondage individuel et secret pour délier les langues : c'est moins convivial qu'une AG du GIEC ou une réunion sur les crédits de son labo, mais on est bien plus libre de dire ce qu'on pense. Remarque très intéressante car tu t'aventures dans le domaine politique voire philosophique : gestion du risque (risque inhérent et dépendant de notre ignorance présente), principe de précaution (je te renvoie à Dupuis et Jonas). Pour ma part, j'estime le risque du réchauffement (danger X proba actuellle) tellement exorbitant que je pense qu'il faudrait mettre en place un protocole de réduction des GES de 8 % tous les 5 ans au niveau mondial jusqu'en 2050 (on est loin de Kyoto et de ses lamentables héritiers potentiels). Conformément à ta remarque initiale (s'en tenir exclusivement au sujet) et afin d'éviter la dispersion, je ne rentre pas dans ce débat sur ce post (comme je n'avais pas répondu à miniTAX plus haut pour la même raison). Je suggère une discussion autonome sur ces questions de Kyoto du post Kyoto, du risque, etc., dont on ne parle jamais. Je pense que tu parles de Dupuy JP (et non Dupuis), l'individu qui en appelle au catastrophisme éclairé (et qui récemment exige que l'on compte comme victimes réelles de Tchernobyl toutes ses victimes potentielles) ? Et de Hans Jonas, le brave Germain qui envisage calmement une dictature par respect du principe responsabilité ? Si c'est le cas, ouvre vite la discussion car j'ai pas mal de choses à dire à leur sujet... J'attends une démonstration un peu plus convaincante... Eh bien moi aussi. Je constate des modèles qui patinent dans la semoule, des incertitudes qui ne se réduisent pas, des chercheurs qui remettent ouvertement en cause certains choix (Anderson et 6 co-auteurs physiciens d'institutons différentes en 2003 : « Dans la mesure où les modèles climatiques reposent sur le calcul inversé, la possibilité d’un raisonnement circulaire existe – c’est-à-dire, utiliser la mesure des températures pour dériver une donnée clé des modèles climatiques, qui sont ensuite testés selon les températures [...] Les calculs en amont ouvrent la possibilité que le forçage total depuis les temps préindustriels jusqu’au présent ait été faible, voire négatif. Si c’est exact, cela impliquerait que la sensibilité climatique et/ou la variabilité naturelle (c’est-à-dire la variabilité non forcée par les émissions anthropiques) est bien plus importante que ce que les modèles indiquent actuellement ») En face de cela, on s'accroche aux (in)certitudes et on répète toujours la même chose. Je l'ai déjà dit plein de fois sur ce forum : que l'on m'oppose des arguments construits et référencés sur tel ou tel point précis, je réviserai volontiers mon jugement après examen. Mais si au bout d'un moment on me dit : de toute façon c'est réglé, l'immense majorité est d'accord, c'est même plus la peine d'en discuter, etc., je persiste et signe. Tu ne te poses jamais la question : "et si j'avais tort ?" Tu te rendras compte que nos positions ne sont pas symétriques. Si, je me la pose souvent figure-toi. Si je ne le faisais pas, je pense que je n'aurais aucune motivation réelle à fouiller la littérature. Je me contenterais d'une certitude et je répéterais mon catéchisme (sceptique ou alarmiste) sans le mettre à l'épreuve de connaissances nouvelles. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 25 avril 2006 Partager Posté(e) 25 avril 2006 Il y a plusieurs "entrées" mais ici j'enttendais les émissions des différents GES en fonction du temps. C'est bien ce que je pensais et je te confirme donc que plusieurs estimations récentes intoduisent un large facteur d'incertitude (8, et même 9 dans cet exemple) dans l'estimation de la sensibilité climatique. Ci-dessous par l'exemple l'abstract d'Andronova et Schlesinger (2001 et non 2002, désolé de l'erreur), dont le papier se trouve facilement en [pdf]. Ils obtiennent ces résultats en faisant simplement varier les incertitudes de forçage (essentiellement aréosols anthropiques) et non les émissions de GES (présentes ou futures). Andronova, N. and Schlesinger, M. (2001). Objective estimation of the probability density function for climate sensitivity. Journal of Geophysical Research 106(D19): doi: 10.1029/2000JD000259. issn: 0148-0227. The size and impacts of anthropogenically induced climate change (AICC) strongly depend on the climate sensitivity, ΔT2x. If ΔT2x is less than the lower bound given by the Intergovernmental Panel on Climate Change (IPCC), 1.5 °C, then AICC may not be a serious problem for humanity. If ΔT2x is greater than the upper bound given by the IPCC, 4.5 °C, then AICC may be one of the most severe problems of the 21st century. Here we use a simple climate/ocean model, the observed near-surface temperature record, and a bootstrap technique to objectively estimate the probability density function for ΔT2x. We find that as a result of natural variability and uncertainty in the climatic radiative forcing, the 90% confidence interval for ΔT2x is 1.0 °C to 9.3 °C. Consequently, there is a 54% likelihood that ΔT2x lies outside the IPCC range. © 2001 American Geophysical Union *** Sinon, tu trouves pas mal d'infos sur les prévision sd'un sensibilité climatique > 5°C dans : Forest, C. E. et al. Quantifying uncertainties in climate system properties with the use of recent climate observations. Science 295, 113−117 (2002) Allen, M. R., Stott, P. A., Mitchell, J. F. B., Schnur, R. & Delworth, T. L. Quantifying the uncertainty in forecasts of anthropogenic climate change. Nature 417, 617−620 (2000) Stott, P. A. & Kettleborough, J. A. Origins and estimates of uncertainty in predictions of twenty-first century temperature rise. Nature 416, 723−726 (2002) Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 25 avril 2006 Partager Posté(e) 25 avril 2006 Cela tourne en rond comme un modèle saturé par les aérosols ! Si la conclusion est qu'une partie du réchauffement est anthropique, pas besoin de Deep Blue pour y parvenir, Fourier et Arrhenius me l'avait déjà suggéré avec un papier et un crayon. Quant aux niveaux élevés d'augmentation attendus, les voilà qui reviennent comme une certitude par la cheminée. N'est pire sourd que celui qui ne veut pas entendre ou sous entendre. Si tu n'avais pas séparé les deux points de la conclusion tu aurais compris : étant donné les niveaux élevés d'augmentation de la T attendus au regard de ce que la nature est capable faire, il est clair qu'une majeure partie du réchauffement est d'origine anthropique et que celle-ci sera importante et potentiellement très destructrice. J'espère pour toi qu'il est clair qu'Arrhenius n'avait pas encore les outils pour mener ce raisonnement. D'ailleurs, pour la petite histoire, Arrhenius arrive à des conclusions proches de celles du GIEC cru 2001 grâce à l'intuition (ou plutôt le pifomètre). Concernant le programme enrayé par les aerosols soufrés : si la troisième assertion du concepteur du SETI climatique est fausse pourquoi les deux premières ne le seraient-elles pas ? Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 26 avril 2006 Partager Posté(e) 26 avril 2006 C'est bien ce que je pensais et je te confirme donc que plusieurs estimations récentes intoduisent un large facteur d'incertitude (8, et même 9 dans cet exemple) dans l'estimation de la sensibilité climatique. Ci-dessous par l'exemple l'abstract d'Andronova et Schlesinger (2001 et non 2002, désolé de l'erreur), dont le papier se trouve facilement en [pdf]. Ils obtiennent ces résultats en faisant simplement varier les incertitudes de forçage (essentiellement aréosols anthropiques) et non les émissions de GES (présentes ou futures). Andronova, N. and Schlesinger, M. (2001). Objective estimation of the probability density function for climate sensitivity. Journal of Geophysical Research 106(D19): doi: 10.1029/2000JD000259. issn: 0148-0227. The size and impacts of anthropogenically induced climate change (AICC) strongly depend on the climate sensitivity, ΔT2x. If ΔT2x is less than the lower bound given by the Intergovernmental Panel on Climate Change (IPCC), 1.5 °C, then AICC may not be a serious problem for humanity. If ΔT2x is greater than the upper bound given by the IPCC, 4.5 °C, then AICC may be one of the most severe problems of the 21st century. Here we use a simple climate/ocean model, the observed near-surface temperature record, and a bootstrap technique to objectively estimate the probability density function for ΔT2x. We find that as a result of natural variability and uncertainty in the climatic radiative forcing, the 90% confidence interval for ΔT2x is 1.0 °C to 9.3 °C. Consequently, there is a 54% likelihood that ΔT2x lies outside the IPCC range. © 2001 American Geophysical Union *** Sinon, tu trouves pas mal d'infos sur les prévision sd'un sensibilité climatique > 5°C dans : Forest, C. E. et al. Quantifying uncertainties in climate system properties with the use of recent climate observations. Science 295, 113−117 (2002) Allen, M. R., Stott, P. A., Mitchell, J. F. B., Schnur, R. & Delworth, T. L. Quantifying the uncertainty in forecasts of anthropogenic climate change. Nature 417, 617−620 (2000) Stott, P. A. & Kettleborough, J. A. Origins and estimates of uncertainty in predictions of twenty-first century temperature rise. Nature 416, 723−726 (2002) Merci pour l'abstract, c'est effectivement impressionnant. Mais la question qui se pose immédiatement est de savoir si dans le meilleur des cas (bas de la fourchette pour tous les foçages en particulier forçage très négatif des aérosols anthropiques) l'arrêt des émissions anthropiques avec l'éventuel perturbation des puits à cette époque ne vont pas engendrer un réchauffement énorme au 22 ème siècle. Dans les autres cas on serait au moins dans les clous de l'IPCC 2001. Cet article apporte plutôt de l'eau à mon moulin. Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 26 avril 2006 Partager Posté(e) 26 avril 2006 Je pense que tu parles de Dupuy JP (et non Dupuis), l'individu qui en appelle au catastrophisme éclairé (et qui récemment exige que l'on compte comme victimes réelles de Tchernobyl toutes ses victimes potentielles) ? Et de Hans Jonas, le brave Germain qui envisage calmement une dictature par respect du principe responsabilité ? Si c'est le cas, ouvre vite la discussion car j'ai pas mal de choses à dire à leur sujet... Oui, désolé pour l'orthographe. Je te laisse ouvrir ce fil car j'interviens par à coups sur le forum. Belles polémiques en perspectives. Et avec les 20 ans de Tchernobyl... Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 26 avril 2006 Partager Posté(e) 26 avril 2006 N'est pire sourd que celui qui ne veut pas entendre ou sous entendre. Si tu n'avais pas séparé les deux points de la conclusion tu aurais compris : étant donné les niveaux élevés d'augmentation de la T attendus au regard de ce que la nature est capable faire, il est clair qu'une majeure partie du réchauffement est d'origine anthropique et que celle-ci sera importante et potentiellement très destructrice. J'espère pour toi qu'il est clair qu'Arrhenius n'avait pas encore les outils pour mener ce raisonnement. Quand tu parles de "ce que la nature est capable de faire", évoques-tu la variabilité naturelle du climat et des T ? Dans ce cas, tu ne fais que reformuler le dilemme de base sans pour autant le résoudre : c'est précisément les parts variabilité naturelle / variabilité anthropique qui sont en question dans toute cette discussion (et dans le principal débat du GIEC). L'incertitude des modèles n'est pas seulement projective, puisque ces mêmes modèles sont à la base rétrodictifs. Or, leur interprétation du climat passé (1750-2000 ou 1860-2000) repose précisément sur les incertitudes des forçages radiatifs mentionnés dès le départ et sur les incertitudes de la sensibilité climatique développées dans ce post, de sorte que ce que tu poses comme "clair" (la majeure partie du réchauffement est anthropique) n'est en fait pas si clair. Nous avons débattu ici récemment d'autres facteurs pouvant expliquer une partie la hausse récente (insolation effective 1990-2002 : Wild 2005, Pinker 2005) ainsi que de problèmes persistants dans l'hypothèse à dominante anthropique (stagnation/léger refroidissement de 1940-70, mal digéré par les modèles actuels). (Désolé, la fonction recherche est plantée ce soir et je n'ai pas les liens ; tu trouveras facilement en tapant les mots clé "insolation" ou "1940-70" quand elle sera rétabli). Je crois donc que les choses sont ouvertes, dans les deux sens (c'est-à-dire aussi dans l'hypothèse d'une part anthropique importante). Reconnaître cette ouverture des possibles apporterait un bol d'air... frais au débat climatique. Mais il ne semble pas que les auteurs principaux du GIEC ni les équipes modélisatrices soient encore prêts à cette "révolution culturelle". Concernant le programme enrayé par les aerosols soufrés : si la troisième assertion du concepteur du SETI climatique est fausse pourquoi les deux premières ne le seraient-elles pas ? Oui, pourquoi pas. Le meilleur moyen de le savoir serait de vérifier si, à l'époque où il a tenu ces propos sur les limites des modèles, le Dr Myles Allen a été vivement contredit par ses collègues outrés. Ou s'il ne faisait qu'exprimer là une vérité bien connue quoique peu évoquée des modélisateurs. Lien à poster Partager sur d’autres sites More sharing options...
miniTAX Posté(e) 26 avril 2006 Partager Posté(e) 26 avril 2006 ... Cela tourne en rond comme un modèle saturé par les aérosols ! Si la conclusion est qu'une partie du réchauffement est anthropique, pas besoin de Deep Blue pour y parvenir, Fourier et Arrhenius me l'avait déjà suggéré avec un papier et un crayon. Ah non, je ne peux pas te laisser prononcer une telle contre-vérité. Comme tous ceux qui maîtrisent bien les modèles climatiques le savent, un modèle saturé par les aérosols ne tourne pas en rond, il part dans les choux Une pincée de soufre de Dioxyde et c'est ctr+alt+suppr garanti Ca me rappelle d'ailleurs d'autres occasions où notre confiance aveugle et imprudente dans les capacités des ordinateurs a été trahie de manière spectaculaire (je parle avec ma petite expérience de modélisateur, 3 ans en recherche universitaire, plus de 5 ans dans l'industrie). Dans les années 70, 80, le chouchou cybernétique, les systèmes-experts, était sensé remplacer l'humain partout, même dans les tâches les plus complexes. Dans les années 90, ce sont les systèmes neuronaux (qui sont déjà plus crédibles) qui lui volent la vedette. Et à chaque fois, au fur et à mesure que la science "avance", la montagne, avec son lot d'adorateurs béats et de prosélytes zélés, a accouché d'une souris. Mais bon, on me murmure à l'oreille que les bons physiciens sont rares tandis que les modélisateurs sont nombreux. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 26 avril 2006 Partager Posté(e) 26 avril 2006 Ah non, je ne peux pas te laisser prononcer une telle contre-vérité. Comme tous ceux qui maîtrisent bien les modèles climatiques le savent, un modèle saturé par les aérosols ne tourne pas en rond, il part dans les choux Une pincée de soufre de Dioxyde et c'est ctr+alt+suppr garanti Ca me rappelle d'ailleurs d'autres occasions où notre confiance aveugle et imprudente dans les capacités des ordinateurs a été trahie de manière spectaculaire (je parle avec ma petite expérience de modélisateur, 3 ans en recherche universitaire, plus de 5 ans dans l'industrie). Dans les années 70, 80, le chouchou cybernétique, les systèmes-experts, était sensé remplacer l'humain partout, même dans les tâches les plus complexes. Dans les années 90, ce sont les systèmes neuronaux (qui sont déjà plus crédibles) qui lui volent la vedette. Et à chaque fois, au fur et à mesure que la science "avance", la montagne, avec son lot d'adorateurs béats et de prosélytes zélés, a accouché d'une souris. Mais bon, on me murmure à l'oreille que les bons physiciens sont rares tandis que les modélisateurs sont nombreux. Oui, l'IA faible ou forte n'a pas vraiment tenu ses promesses depuis les visions de papys Turing, Wiener, McCulloch et autres prophètes des années 50-60. C'est d'ailleurs dommage, mais j'espère que les approches récentes, plus proches du fonctionnement concret de la machine cérébrale et de ses réseaux neuronaux parallèle/distribués, permettront des progrès. Dans le cas des modèles cependant, et pour en revenir au sujet, je crois que la simple puissance (a fortiori "intelligence") des machines / logiciels n'est pas fondamentalement en cause. C'est ce que disent souvent les modélisateurs, ne serait-ce que pour avoir une nouvelle machine inscrite au budget de l'année suivante (c'est de bonne guerre). A mon avis, le problème de base est la mesure. Le meilleur logiciel du monde paramétré par les meilleurs physiciens du monde ne donnera rien si on ne peut le nourrir à la base par des mesures fiables sur des séries longues (si ce logiciel a pour fonction de prévoir l'évolution d'un système complexe). Or, que savons-nous au juste (par exemple) de la température exacte des océans (et de 70% des terres sans stations météos, et de la troposphère) avant les années 1970 ? Et avant encore, à l'ère préindustrielle ? Et même aujourd'hui, où l'on voit par exemple que les données top-of-the-art des MSU sont toujours l'objet de révisions, controverses ? Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 26 avril 2006 Partager Posté(e) 26 avril 2006 Dans le cas des modèles cependant, et pour en revenir au sujet, je crois que la simple puissance (a fortiori "intelligence") des machines / logiciels n'est pas fondamentalement en cause. C'est ce que disent souvent les modélisateurs, ne serait-ce que pour avoir une nouvelle machine inscrite au budget de l'année suivante (c'est de bonne guerre). A mon avis, le problème de base est la mesure. Le meilleur logiciel du monde paramétré par les meilleurs physiciens du monde ne donnera rien si on ne peut le nourrir à la base par des mesures fiables sur des séries longues (si ce logiciel a pour fonction de prévoir l'évolution d'un système complexe). Or, que savons-nous au juste (par exemple) de la température exacte des océans (et de 70% des terres sans stations météos, et de la troposphère) avant les années 1970 ? Et avant encore, à l'ère préindustrielle ? Et même aujourd'hui, où l'on voit par exemple que les données top-of-the-art des MSU sont toujours l'objet de révisions, controverses ? As-tu des critiques quantifiées de ce que tu appelles "une combinatoire informatisée d’incertitudes majeures", terme récurrent dans tes critiques ? Connais-tu les protocoles statistiques d'intégration des mesures dans les modèles et les probabilités retenues lors de cette phase ? Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 26 avril 2006 Partager Posté(e) 26 avril 2006 Connais-tu les protocoles statistiques d'intégration des mesures dans les modèles et les probabilités retenues lors de cette phase ? j'ai l'impression que les moteurs de recherche vont saturer ce soir. Lien à poster Partager sur d’autres sites More sharing options...
Messages recommandés