charles.muller Posté(e) 8 avril 2006 Partager Posté(e) 8 avril 2006 Salut à tous Je propose une discussion sur la question des forçages radiatifs et de la sensibilité climatique qui en découle (c’est-à-dire, au fond, une discussion sur les modèles en vigueur aujourd’hui). Comme il a été remarqué (à juste titre) que certaines discussions manquaient de pédagogie, je commence par cette introduction très générale visant à définir en gros les concepts et méthodes. Les experts du forum auront l’impression de lire un résumé de cours de première année, mais cela ne s’adresse pas à eux (sauf pour corriger dès le départ des erreurs dommageables). La lucidité m’oblige à envisager que cette discussion n’intéresse absolument personne. Ce serait dommage, car l’essentiel de nos craintes actuelles reposent sur ce qui suit. Et ne pas examiner en détail l’origine de ses craintes conduit tout droit au trouble anxieux généralisé, voir à l’épisode dépressif sévère ! Accessoirement, cela conduit aussi à se tromper. Dernière précision : l'objectif de la discussion n'est évidemment pas de refaire tous les calculs de tous les modèles, exercice vain bien au-delà de nos compétences (sauf si MM Le Treut ou Jouzel passent par là). Il s'agit plutôt d'une tentative de clarification d'un sujet complexe, en même temps qu'un état des lieux des principales conclusions provisores des modèles (donc des chercheurs qui les font). *** Les modèles climatiques sont fondés sur le bilan du transfert radiatif, c’est-à-dire des échanges d’énergie entre la Terre, l’atmosphère et l’espace. Ce bilan est conventionnellement évalué au niveau de la tropopause (couche intermédiaire entre la troposphère et la stratosphère). Il est exprimé en watt par mètre carré (W/m2). On appelle forçage radiatif tout changement instantané du budget radiatif du climat. Un forçage crée donc un déséquilibre positif ou négatif. Par la suite, le climat va retrouver un état d’équilibre en intégrant ce forçage. La variation de température (parmi d’autres facteurs) sera une traduction du forçage et on suppose qu’elle lui est proportionnelle. La différence de température entre le point de départ (forçage) et le point d’arrivée (retour à l’équilibre) se calcule en multipliant le forçage par une constante de proportionnalité que l’on appelle la sensibilité climatique. Celle-ci est exprimée en °C (ou °K) / W / m2. Elle fait donc correspondre à chaque gain ou perte d’énergie lié au forçage un équivalent thermique. Par convention, la sensibilité climatique est évaluée pour un doublement du CO2 et noté deltaT(2xCO2) (différence de température pour deux fois plus de gaz carbonique dans l’atmosphère). On notera que la température est le principal critère climatique retenu (car le plus simple à calculer actuellement), mais que la sensibilité climatique pourrait être exprimée en précipitation, en nébulosité ou en tout autre phénomène du climat qui co-varie proportionnellement au bilan radiatif. A ce stade, il convient de noter que la notion d’équilibre est bien sûr arbitraire : en soi, le climat est toujours en déséquilibre au sens où il subit en permanence des forçages. Les modèles fixent donc un point de référence (temporel) posé comme climat à l’équilibre et examinent l’évolution du climat à partir de ce point, en comptabilisant systématiquement les forçages et en observant les différences de température (ou de précipitation, de nébulosité, etc.). On parle donc de réponse transitoire du climat, c’est-à-dire de réponse du climat au forçage sur un intervalle de temps donné. Par exemple, l’estimation 1,5-4,5°C de hausse pour 2100 est une évaluation transitoire, au sens où un certain nombre de forçages présents et à venir continueront de jouer sur le climat après 2100. Pour fonctionner, un modèle doit d’abord s’efforcer de séparer la variabilité intrinsèque (ou chaotique) du climat de sa variabilité forcée. La première tient au fait que le climat est un système non linéaire chaotique dont on ne peut pas anticiper l’évolution spontanée. C’est la raison pour laquelle les prévisions météorologiques ne sont pas efficaces au-delà de quelques jours, car à leur niveau d’observation (évolution locale et à court terme), la moindre petite variation imprévue dans les conditions initiales modifie rapidement le résultat anticipé.La climatologie utilise des moyennes d’enregistrements météorologiques sur le long terme, ce qui réduit bien sûr l’incertitude et contraint d’autant la variabilité chaotique. On notera cependant que celle-ci reste une inconnue pour les modèles, qui la déduisent a posteriori en calculant la variabilité forcée et en analysant l’écart entre le résultat simulé (forçages seuls) et la réalité observée (forçages + variabilité intrinsèque / chaotique). Quels sont donc les principaux forçages actuellement analysés par les modèles ? - Le forçage des gaz à effet de serre (CO2, CH4, N20 et CFCs principalement). Ils sont parfois notés simplement forçage CO2 (mais ce forçage inclut désormais les autres GES, en équivalent CO2), car le gaz carbonique est celui qui a le plus important ratio quantité/demi-vie (c’est-à-dire qu’il est émis en bien plus grande quantité que tous les autres et qu’il a une demi-vie dans l’atmosphère plus longue que la plupart – 120 ans env., contre 12 ans pour le méthane par exemple). Tous ces forçages sont positifs. Il est à noter que les chercheurs pensent que ces forçages se renforcent mutuellement (et ne s’additionnent pas seulement) dans la mesure où ils se répartissent sur les bandes d’absorption de longueur d’ondes. Une quantité 100 de CO2 seul a un forçage moindre qu’une quantité 100 de cinq GES différents (on parle pour cette raison de « well-mixed greenhouse gases » dans la littérature). - Le forçage de l’ozone (O3), qui présente la particularité d’être positif dans la troposphère mais négatif dans la stratosphère. - Le forçage indirect par la vapeur d’eau (H2O). On sait que la vapeur d’eau est le principal GES sur Terre (entre 50 et 65% de l’ES selon les estimations). Mais le forçage dont nous parlons ici n’est pas ce forçage naturel : il s’agit du surcroît de H2O émis dans l’atmosphère en raison du forçage des GES. En d’autres termes, c’est une rétroaction positive. - Le forçage des aérosols. Il s’agit de particules solides ou liquides en suspension, émises par les activités humaines. Les aérosols possèdent globalement un effet aldébo (ils réfléchissent le rayonnement solaire), donc refroidissant. C’est un forçage négatif. - Le forçage de modification des terres. Comme pour le précédent, certaines pratiques (déforestation et extension des zones agricoles par exemple) augmente l’aldébo. Ce forçage est donc considéré comme négatif dans les modèles. - Le forçage de la nébulosité. Il s'agit, comme le forçage indirect de la vapeur d'eau, d'une rétroaction du réchauffement par les GES et les aérosols, mais celle-ci est négative. La nébulosité est la couverture nuageuse du ciel, qui a des effets contraires selon qu'il s'agit de nuages bas (type status) refroidissant ou nuages d'altitude (type cirrus) réchauffant. Le bilan des deux en situation de réchauffement donne une estimation de forçage négatif. A cette liste des forçages anthropiques s’ajoutent deux principaux forçages naturels que l’on tente d’évaluer : - le forçage solaire, qui traduit les variations d’activité de notre étoile sur des cycles courts. Il est considéré comme positif dans la période actuelle (mais a pu être négatif dans le passé, au petit âge glaciaire par exemple). - le forçage volcanique, dû aux émissions d’aérosols à chaque éruption. Comme pour l’ozone, il est à la fois positif et négatif selon la couche atmosphérique de suspension des particules (mais plutôt négatif dans l’ensemble). Une dernière précision introductive : cette estimation des forçages fait nécessairement appel en amont à un modèle de circulation générale (MCG), c’est-à-dire à une simulation des échanges globaux entre les océans, les terres et l’atmosphère. Ce qui se conçoit aisément : il faut par exemple évaluer la quantité de gaz carbonique qui sera stockée dans les océans pour en déduire celle qui restera active comme GES dans l’atmosphère (ou inversement, il faut anticiper la rétroaction de GES actuellement piégés dans l’océan ou les terres risquant de s’achapper dans l’atmosphère sous l’effet d’un réchauffement). Je m’arrête là, histoire de voir s’il y a des ajouts, précisions ou corrections à apporter à cette présentation générale. Les points à examiner ensuite sont notamment les suivants : - quelles sont les estimations actuelles du bilan radiatif (tous forçages confondus) et de son évolution ? - quelles sont les estimations actuelles de la sensibilité climatique (réponse des températures aux forçages cumulés), avec notamment la question des rétroactions climatiques ? - quelles sont les défauts, manques ou incertitudes majeurs des modèles ? Lien à poster Partager sur d’autres sites More sharing options...
ol_bugs Posté(e) 8 avril 2006 Partager Posté(e) 8 avril 2006 Merci beaucoup pour ces explications qui vont sans doute me permettre de mieux comprendre certains débats de ce forum. Lien à poster Partager sur d’autres sites More sharing options...
Alain Coustou Posté(e) 8 avril 2006 Partager Posté(e) 8 avril 2006 Sur le topic proposé par Charles Muller, voici de larges extraits du premier chapitre de la première édition de "Terre, fin de partie ?" (On en est à la seconde édition et au troisième tirage mais, à part quelques données chiffrées plus récentes, ce chapitre n'a pas été modifié), non compris l'appareillage de notes et de références : Equilibre Ce qui est probablement le plus fragile en ce qui concerne la Terre, et les hommes n'en ont pas toujours conscience, c'est son équilibre. Les écosystèmes terrestres ne perdurent que grâce au maintien de certains équilibres, eux même liés à divers cycles naturels : le cycle de l'eau, celui du carbone, etc. Mais le premier des équilibres est celui qui égalise normalement l'énergie reçue et l'énergie évacuée par la surface terrestre et qui conditionne ainsi la température moyenne de notre planète. Au niveau de l'équilibre thermique, la Terre recevait ou produisait autant d'énergie qu'elle en émettait vers l'espace, du moins jusqu'à ce que les activités humaines changent la donne. L'énergie reçue naturellement vient principalement du Soleil. La chaleur en provenance des profondeurs du globe est en effet environ dix mille fois moins importante que celle qui nous arrive de l'astre du jour et celle qui provient du reste de l'univers est totalement négligeable. L'énergie qui nous vient du Soleil est essentiellement composée de rayonnement infrarouge (50%), visible (40%) et ultraviolet (10%). Cette énergie équivaut en moyenne à 342 watts par mètre carré (soit 342 joules par seconde). Environ 30% de cette énergie est réfléchi vers l'espace et ne contribue donc pas à chauffer la Terre. L'albédo mesure ce taux de réflexion, variable de fait avec les zones : nuages, neiges, glaces, forêts, déserts, océans... L'énergie solaire réellement disponible pour chauffer la Terre est donc limitée à 235 watts/m² Cependant seule une partie de cette énergie arrive réellement à la surface, soit 168 watts/m², le reste (67 watts/m²) étant retenu au passage par l'atmosphère. A cela s'ajoute la part du rayonnement infrarouge émis par l'atmosphère qui est réfléchie vers la Terre, soit 324 watts/m². Au total, l'énergie dont bénéficie réellement la surface de la planète s'élève donc en moyenne à 492 watts par mètre carré, soit l'équivalent du tiers de la chaleur générée par un fer électrique pour chaque mètre de la surface terrestre. A l'équilibre, cette surface évacue normalement son énergie essentiellement par rayonnement infrarouge (390 watts/m² pour une température moyenne de 15 degrés Celsius), par effet de refroidissement dû à l'évaporation (78 watts/m²) et en cédant de la chaleur à l'atmosphère (24 watts/m²). Soit au total, également 492 watts par mètre carré. L'effet de serre L'effet de serre provient de l'écart entre l'énergie infrarouge qui est absorbée et celle qui est émise par la surface terrestre en fonction d'éléments comme l'albédo et les caractéristiques des éléments présents dans l'atmosphère. La surface de notre planète émet en moyenne 390 watts/m² sous forme de rayonnement infrarouge alors que l'énergie solaire absorbée et l'énergie infrarouge renvoyée vers l'espace sont en équilibre à 235 watts/m². L'écart entre ces 235 watts et les 390 watts rayonnés en moyenne pour chaque mètre carré de surface, soit 155 watts/m², permet de mesurer l'importance de l'effet de serre. Celui-ci s'établit normalement à 33 degrés Celsius. Pour aller un peu plus loin : Il est permis de critiquer la formulation selon laquelle la Terre émet 390 watts/m², cette valeur étant celle du rayonnement d'un « corps noir » à 288 K, soit 15 degrés Celsius. En fait, le profil d'émission de la Terre ne ressemble que partiellement à celui d'un corps noir de référence, mais le calcul n'en reste pas moins valable. Un certain effet de serre est non seulement chose naturelle, mais il est nécessaire à la vie : Sans lui, la température moyenne du globe resterait très en dessous du point de congélation : moins dix-huit degrés Celsius en moyenne au lieu de plus quinze et la Terre revêtirait l'aspect mortel d'une gigantesque boule de neige. C'est d'ailleurs ce qui semble s'être produit au moins à deux reprises dans un très lointain passé, à une époque où l'énergie rayonnée par le soleil était un peu plus faible que de nos jours : le taux de gaz carbonique atmosphérique était alors tombé trop bas pour compenser cette faiblesse et la température avait partout chuté au dessous de zéro. Une chape de neige et de glace avait recouvert notre planète jusqu'à ce que l'accumulation des gaz à effet de serre émis par les volcans fasse reculer les glaces. La première fois voici environ 2,4 milliards d'années, la seconde fois entre 800 et 600 millions d'années. Les caractéristiques du rayonnement solaire ont certainement joué un rôle important dans ces épisodes, beaucoup moins par la suite. Ce rayonnement était en effet plus faible que maintenant d'environ 20% aux tout débuts de l'histoire de la Terre et ce déficit était encore égal à 6% voici 800 millions d'années. D'autres éléments ont alors pu exercer également une influence dans les anciennes variations climatiques: les variations cycliques de l'excentricité de l'orbite terrestre et de son inclinaison, ou paramètres de Milankovitch , l'évolution de la répartition des masses continentales et des océans, les aérosols et poussières d'origine volcaniques, les fluctuations du taux de vapeur d'eau atmosphérique et les éventuels impacts météoritiques majeurs, certainement plus nombreux dans les premiers âges de la Terre. Mais la principale raison de ces épisodes glaciaires très anciens parait bien tenir à la réduction de l'abondance du CO2 et du méthane gazeux. Essentiellement sous l'influence des bactéries pour le premier épisode et sous celle de la végétation ( algues unicellulaires et autres ) pour le second en ce qui concerne le gaz carbonique. Il est donc absolument souhaitable que l'atmosphère conserve une certaine proportion de dioxyde de carbone - entre 0,026 et 0,030 pour cent - pour assurer une température moyenne compatible avec la vie, bien que le principal gaz à effet de serre soit normalement la vapeur d'eau et que l'importance du rôle du CO2 soit parfois discutée. La teneur en gaz carbonique était effectivement égale à 0,028% voici deux siècles, aux tout débuts de la première révolution industrielle. La présence de ce gaz est également indispensable pour permettre aux plantes de se développer. Sans CO2, pas de végétaux, pas d'écosystème complexe comme le notre. Un équilibre menacé par les activités humaines Le problème est qu'actuellement, avec 0,037%, la proportion de gaz carbonique est probablement plus élevée qu'elle ne l'a été depuis des dizaines de millions d'années - au moins vingt millions d'années d'après le GIEC - et qu'elle continue à croître de plus de 0,4% par an en raison des activités humaines. Les trois-quarts de cette augmentation sont dus à l'utilisation de combustibles fossiles ( charbon, pétrole, gaz naturel ) et le dernier quart à la déforestation et à certaines pratiques culturales. Ainsi les arbres ne recouvrent plus aujourd'hui que moins de vingt pour cent de la surface des continents terrestres. L'équilibre climatique de la Terre est donc de plus en plus fortement menacé par les activités humaines. Quant aux « puits de carbone » que sont les océans - dont l'inertie thermique contribue à donner l'illusion d'une dérive climatique encore acceptable - et la végétation, ils ne captent ensemble que la moitié des émissions anthropiques de CO2. De plus cette proportion ne pourra que diminuer si, par exemple, les forêts tropicales continuent à disparaître au rythme actuel et si les océans poursuivent leur réchauffement. De plus, d'autres gaz provenant des activités humaines ont une action non négligeable. Il s'agit essentiellement des gaz fluorés, des oxydes nitreux et surtout du méthane, dont la teneur atmosphérique a augmenté de plus de 150% depuis les débuts de l'ère industrielle et qui est déjà responsable de 10% environ de l'effet de serre total hors vapeur d'eau et de prés de 20% du renforcement actuel de ce même effet de serre. Les premiers de ces gaz sont créés par l'industrie et ne constituent potentiellement un danger que depuis quelques dizaines d'années. Par contre le dernier - le méthane - est essentiellement d'origine biologique et a déjà joué un rôle dans le passé de la Terre, particulièrement lors d'une meurtrière extinction de masse survenue voici deux cent cinquante deux millions d'années. Pour aller un peu plus loin : On trouve assez souvent une estimation « à la louche » selon laquelle le CO2 serait responsable d'environ un tiers de l'effet de serre « normal » et la vapeur d'eau des deux autres tiers. Il ne s'agit là bien sûr que d'une approximation. En fait la vapeur d'eau n'est évidemment pas présente partout dans les mêmes proportions. D'une part parce que la pression partielle de H2O atmosphérique correspondant au taux de saturation (point de condensation) varie plus que proportionnellement à la hausse de la température. D'autre part parce que ce l'on est plus ou moins proche de ce point selon les régions du globe, de moins de 20 % au Sahara à 100 % en zone intertropicale pendant la saison des pluies. Pour tout compliquer, la vapeur d'eau n'est pas seulement un gaz à effet de serre mais exerce aussi un rôle régulateur des écarts entre températures diurnes et nocturnes. La preuve en est l'extrême écart observé au Sahara, de + 55°C le jour (à l'ombre, s'il y en a !) à - 5°C la nuit, en raison du très faible taux d'humidité de l'atmosphère. En ce qui concerne le CO2, il est également permis de se poser quelques questions. Tout d'abord, ce gaz étant nettement plus lourd que l'air, les mesures de concentration atmosphérique que l'on nous cite sont-elles réellement valables ? En toute logique, le CO2 devrait former une couche au niveau zéro, sur environ trois mètres d'épaisseur si les calculs de sa pression partielle sont exacts. On ne constate en fait rien de tel, et pour cause : le taux de CO2 est pratiquement le même, quelle que soit l'altitude à laquelle est réalisée la mesure. Ainsi les mesures effectuées à l'observatoire du Mauna Kea à 4000 mètres d'altitude confirment celles qui sont réalisées en plaine. De plus, l'observation par satellite permet de détecter les bandes d'émission-absorption du CO2 (4,3 et 15 micromètres) à toutes les altitudes, y compris dans la haute stratosphère, au dessus de trente mille mètres. Il y a donc brassage efficace et complet des composants atmosphériques, (hormis l'hydrogène et l'hélium, vraiment trop légers et qui se sont depuis longtemps évanouis dans l'espace), quelque soit leur densité. Ce brassage provient bien évidemment des courants ascendants et descendants et des turbulences atmosphériques de toute nature, dues aussi bien aux gradients de température et de pression qu'aux phénomènes météorologiques et à l'influence du relief Quand à l'effet de serre exercé par le CO2, il serait puéril de tenter de le vérifier en en injectant un peu dans une petite serre, alors que la présence des vitrages est alors déterminante, que la pression relative du CO2 dans l'atmosphère correspond à un volume supérieur par m² de surface et que, de toute façon, l'effet de serre additionnel dû à tout accroissement de cette pression relative est heureusement très inférieur à cet accroissement. Il y a effet un phénomène de saturation de l'effet de serre pour tout gaz concerné, toujours caractérisé par une action sur certaines « fenêtres » correspondant à des longueurs d'onde déterminées. Cependant, bien que presque indétectable au niveau d'expériences de laboratoire réalisées à très petite échelle, l'effet de serre du dioxyde de carbone est absolument certain à grande échelle. Ainsi, seule sa présence massive dans l'atmosphère vénusienne permet d'expliquer la température extrêmement élevée - de l'ordre de 450°C, soit plus que la température de fusion du plomb - mesurée au niveau du sol sur cette planète. En effet, la seule prise en compte de la pression atmosphérique et de la proximité relative du soleil suffiraient d'autant moins à expliquer cette situation que l'albédo élevé de la couche nuageuse - environ 0,8 contre 0,4 pour la Terre - renvoie vers l'espace une forte proportion du rayonnement solaire reçu par Vénus. Alain Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 8 avril 2006 Auteur Partager Posté(e) 8 avril 2006 Merci pour cette autre intoduction, avec laquelle je suis globalement d'accord (sauf un détail ci-après). J'en profite pour signaler que j'ai rajouté un forçage oublié dans ma première énumération, mais désormais pris en compte par certains modèles (le forçage de la nébulosité, difficile à estimer puisque la modélisation des variations de la couverture nuageuse est encore ans son enfance, mais important puisque l'effet de serre des nuages d'altitude et l'effet aldébo des nuages bas sont conséquents). D'autres éléments ont alors pu exercer également une influence dans les anciennes variations climatiques: les variations cycliques de l'excentricité de l'orbite terrestre et de son inclinaison, ou paramètres de Milankovitch , l'évolution de la répartition des masses continentales et des océans, les aérosols et poussières d'origine volcaniques, les fluctuations du taux de vapeur d'eau atmosphérique et les éventuels impacts météoritiques majeurs, certainement plus nombreux dans les premiers âges de la Terre. Mais la principale raison de ces épisodes glaciaires très anciens parait bien tenir à la réduction de l'abondance du CO2 et du méthane gazeux. Essentiellement sous l'influence des bactéries pour le premier épisode et sous celle de la végétation ( algues unicellulaires et autres ) pour le second en ce qui concerne le gaz carbonique. C'est plus une précision. Il me semble que le schéma actuellement retenu pour les glaciations du quaternaire donne le rôle principal aux cycles de Milankovitch (excentricité de l'orbite essentiellement), les modifications des GES intervenant en second temps comme accélérateurs ou décélérateurs dans les interglaciaires (rétroaction positive et négative). Pour les oscillations et mutations plus anciennes, on evoque en effet comme tu le dis les modifications du CO2 et du CH4, ainsi que la tectonique des plaques (susceptible de modifier lentement, mais considérablement le fonctionnement du couple océan-atmosphère). Lien à poster Partager sur d’autres sites More sharing options...
Alain Coustou Posté(e) 8 avril 2006 Partager Posté(e) 8 avril 2006 Merci pour cette autre intoduction, avec laquelle je suis globalement d'accord (sauf un détail ci-après). J'en profite pour signaler que j'ai rajouté un forçage oublié dans ma première énumération, mais désormais pris en compte par certains modèles (le forçage de la nébulosité, difficile à estimer puisque la modélisation des variations de la couverture nuageuse est encore ans son enfance, mais important puisque l'effet de serre des nuages d'altitude et l'effet aldébo des nuages bas sont conséquents). C'est plus une précision. Il me semble que le schéma actuellement retenu pour les glaciations du quaternaire donne le rôle principal aux cycles de Milankovitch (excentricité de l'orbite essentiellement), les modifications des GES intervenant en second temps comme accélérateurs ou décélérateurs dans les interglaciaires (rétroaction positive et négative). Pour les oscillations et mutations plus anciennes, on evoque en effet comme tu le dis les modifications du CO2 et du CH4, ainsi que la tectonique des plaques (susceptible de modifier lentement, mais considérablement le fonctionnement du couple océan-atmosphère). Je suis absolument d'accord avec toi la dessus. Le cycle de Milankovitch d'environ 100 000 ans correspond très exactement au caractére cyclique des variations climatiques du quaternaire.J'en parlais ici au passé, parceque nous nous situons à une échelle de temps toute différente et que la prochaine glaciation imputable aux paramètres orbitaux de Milankovitch n'est pas attendue avant quelque 60 000 ans... Alain Lien à poster Partager sur d’autres sites More sharing options...
Patricia Régnier Posté(e) 8 avril 2006 Partager Posté(e) 8 avril 2006 Salut à tous Je propose une discussion sur la question des forçages radiatifs et de la sensibilité climatique qui en découle (c’est-à-dire, au fond, une discussion sur les modèles en vigueur aujourd’hui). Nous vivons décidément une époque merveilleuse. Internet nous permet d'ouvrir tous les débats et ils sont ici aussi intenses que ceux qui surgissent dans la rue ces derniers mois. Si la nature a un mois de retard, le printemps a tout de même un impact aussi trépident sur les comportements des êtres vivants... Je m'imisce peut-être mais après tout il paraît qu'il faut savoir réfléchir par soi-même alors je tente l'exploit...à partir du résultat d'observations récentes dans le prisme des observations anciennes. Tout d'abord je propose à Charles Muller et à tous les lecteurs de ce topic un nouveau modèle qui pourrait apporter une clarté nouvelle dans l'incompréhension de certaines prévisions qui sont au dernier moment faussées par des événements climatiques imprévus comme nous le rappelle Charles Muller. Vous pourrez les mettre à l'épreuve ils fonctionnent. J'ai déjà "testé". Les observations de Jacques Duchâtel fondateur de l'ARFA avec Henri Méméri à Pessac prés de Bordeaux pourraient donner une nouvelle grille de lecture qui n'est pas (encore) validée par la communauté scientifique mais qui je l'espère le sera très prochainement comme l'ont été grands nombres de recherches menées initialement par Albert Nodon. Vous lirez le résumé (difficilement déchiffrable) qui pourra être demandé à notre secrétaire à l'ARFA Jean Martin Meunier. En tapant son nom dans les moteurs de recherches vous retrouverez ses coordonnées à Illzach faute de quoi je serais en mesure de vous communiquer son adresse email. Sur le blog créé rapidement par moi-même j'ai repris le lien menant vers l'article de technoscience car il fait un compte rendu des dernières connaissances sur les effets radiatifs relachés par les protubérances du Soleil. Selon mon analyse ces deux observations (celle de Jacques Duchâtel et celle de l'équipe de l'ISS) doivent être lues en parallèle pour comprendre ce phénomène des champs magnétiques. Maintenant pour alimenter la polémique il semblerait que si les modèles prévoient un retour à une ére glaciaire nous y serions d'autant plus exposés à cause de l'augmentation des GES si j'ai bien compris et ce d'autant plus que cette barrière naturelle aura le même résultat que celui observé dans l'espace par l'équipe de l'ISS... nous nous dirigerions donc vers une ére glaciaire d'autant plus prononcée dans les prochaines décennies lorsque l'activité du soleil sera au maximum ? Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 8 avril 2006 Auteur Partager Posté(e) 8 avril 2006 Tout d'abord je propose à Charles Muller et à tous les lecteurs de ce topic un nouveau modèle qui pourrait apporter une clarté nouvelle dans l'incompréhension de certaines prévisions qui sont au dernier moment faussées par des événements climatiques imprévus comme nous le rappelle Charles Muller. Vous pourrez les mettre à l'épreuve ils fonctionnent. J'ai déjà "testé". Désolé, mais je ne suis pas vraiment parvenu à déchiffrer l'image à l'adresse URL. Il me semble qu'il s'agit d'une étude sur les effets du rayonnement solaire (et de la variation du champ magnétique). Ce n'est donc pas vraiment un "modèle", au sens où le forçage solaire n'est qu'un des éléments du bilan radiatif de la terre. Il se peut que ce forçage soit sous-évalué (on le prend d'ailleurs en compte depuis peu, puisque l'on présumait avant que l'apport énergétique solaire était constant). Mais je doute fortement que le rayonnement solaire ou galactique puissue expliquer toutes les variations climatiques récentes (ni même celles des seules températures), compte-tenu des enregistrements directs ou indirects dont on dispose. Maintenant pour alimenter la polémique il semblerait que si les modèles prévoient un retour à une ére glaciaire nous y serions d'autant plus exposés à cause de l'augmentation des GES si j'ai bien compris et ce d'autant plus que cette barrière naturelle aura le même résultat que celui observé dans l'espace par l'équipe de l'ISS... nous nous dirigerions donc vers une ére glaciaire d'autant plus prononcée dans les prochaines décennies lorsque l'activité du soleil sera au maximum ? Là, je ne comprends plus du tout. La seule hypothèse sérieuse que je connaisse relative à un retour plus rapide vers la prochaine glaciation est le fait de Ruddiman. Mais il conclut bien sûr que les GES nous en protègent (puisqu'ils réchauffent) au lieu de nous y précipiter. Lien à poster Partager sur d’autres sites More sharing options...
Patricia Régnier Posté(e) 9 avril 2006 Partager Posté(e) 9 avril 2006 Désolé, mais je ne suis pas vraiment parvenu à déchiffrer l'image à l'adresse URL. Il me semble qu'il s'agit d'une étude sur les effets du rayonnement solaire (et de la variation du champ magnétique). Ce n'est donc pas vraiment un "modèle", au sens où le forçage solaire n'est qu'un des éléments du bilan radiatif de la terre. Il se peut que ce forçage soit sous-évalué (on le prend d'ailleurs en compte depuis peu, puisque l'on présumait avant que l'apport énergétique solaire était constant). Mais je doute fortement que le rayonnement solaire ou galactique puissue expliquer toutes les variations climatiques récentes (ni même celles des seules températures), compte-tenu des enregistrements directs ou indirects dont on dispose. Là, je ne comprends plus du tout. La seule hypothèse sérieuse que je connaisse relative à un retour plus rapide vers la prochaine glaciation est le fait de Ruddiman. Mais il conclut bien sûr que les GES nous en protègent (puisqu'ils réchauffent) au lieu de nous y précipiter. J'ai dû faire une mauvais lecture de diverses analyses par plusieurs intervenants sur ce formum ou une erreur d'interprétation, mais après tout ...dont celle-ci du 27 mars dernier ? Disons que l'on peut au moins lire ce qu'en disent les "experts de la chose", histoire de se forger une opinion à la source. Le résultat de Mann 1998, 1999 concernant l'absence de variabilité globale importante au cours des 1000 dernières années a été répliqué, mais dans l'ensemble par des personnes travaillant avec des méthodes et des sources semblables (Jones, Briffa, Osborn et leurs étudiants. 2000, 2001, 2005). Il n'a en revanche pas été retrouvé par d'autres chercheurs (Broecker 2001, Esper 2003, Storch 2004, Moberg 2005) et il a été critiqué sur la méthode (McKittrick 2003, 2005). Disons donc que le sujet est encore en débat, mais que la balance penche plutôt du côté de l'existence de l'OM et du PAG à l'échelle globale. Il faudrait aussi citer les études locales hors Hémisphère Nord (Afrique, Australie, Océanie, Amérique latine) qui ont trouvé des indices de réchauffement à l'OM, ce qui plaide en faveur d'un phénomène global, et non seulement Nord-Atlantique. Je suis en train de rassembler une doc spécifique là-dessus pour un papier de synthèse. (Sur ce site, il y a d'ailleurs un intéressant post de mémoire bibliographique discutant spécifiquement les méthodes statistiques d'analyse des proxies : /index.php?showtopic=13476)'>http://forums.infoclimat.fr/index.php?showtopic=13476) Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 9 avril 2006 Auteur Partager Posté(e) 9 avril 2006 J'ai dû faire une mauvais lecture de diverses analyses par plusieurs intervenants sur ce formum ou une erreur d'interprétation, mais après tout ...dont celle-ci du 27 mars dernier ? Euh... je ne comprends pas votre réponse, ni le rapport de la citation avec le rayonnement solaire ou la glaciation. En fait, la discussion lancée ici concerne une présentation des modèles théoriques / informatiques utilisés en climatologie pour analyser et anticiper l'évolution du climat, notamment celle des températures à partir du bilan radiatif. Je pense que le mieux est de fragmenter les sujets pour éviter de disperser le contenu chacun d'entre eux. S'il existe une hypothèse sur l'influence récente du rayonnement solaire ou une hypothèse sur une glaciation imminente, je suggère d'en faire des sujets à part entière et de commencer ces posts par une présentation précise desdites hypothèses. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 10 avril 2006 Auteur Partager Posté(e) 10 avril 2006 Après l’introduction théorique, voici quelques données. Le schéma ci-dessous est extrait du troisième rapport du GIEC, dernière synthèse disponible. Il s’agit des différents forçages évoqués plus haut, entre la période pré-industrielle (1750) et la fin du XXe siècle. J’ai ajouté en rouge (forçages positifs) ou en bleu (forçages négatifs) les valeurs exactes concernées (en W/m2). Ce qui est frappant, c’est l’incertitude extrême du GIEC. Les mentions L et VL en bas signalent « low » et « very low level of understanding ». On s’aperçoit qu’à l’exception des forçages des GES et de l’ozone (bien et moyennement connus), tous les autres sont incertains à très incertains. Ce qui est évidemment problématique, car la part relative des GES dans le réchauffement (objet principal de l’inquiétude populaire et du Protocole de Kyoto) ne peut être évaluée qu’en fonction des autres forçages. Le cas le plus critique concerne les effets indirects des aérosols (par baisse de la taille moyenne des gouttelettes des nuages augmentant leur aldébo et leur durée) évalués… entre 0 et -2 W/m2. Soit un effet allant de nul à quasiment équivalent (en sens inverse) à celui des GES. On pourrait se dire que les incertitudes ici mentionnées et reconnues tiennent au fait que le GIEC synthétise sur une période très longue (250 ans), où les enregistrements plus précis ne sont arrivés que dans les vingt ou trente dernières années. Hélas, il n’en est rien. Le National Research Council of National Academies (USA) a fait paraître en 2005 un bilan d’étape : Radiative forcing of climate change. On peut le lire page à page sur le net (c’est fastidieux, on peut aussi télécharger les 200 pages en [pdf] pour 20$). Il en ressort que les améliorations apportées par 20-30 années d’enregistrement plus précis n’ont fait qu’ajouter aux incertitudes. On s’est par exemple aperçu que la sensibilité climatique d’un forçage donné varie selon qu’on le mesure en tropopause (TOA = top of atmopshere) ou au sol (autrement dit que l’effet thermique du forçage est souvent disproportionné entre la surface et l’atmosphère). C’est le cas pour les aérosols absorbants (type suies carbone noir) par exemple, qui modifient la distribution de la chaleur dans les couches de l’atmosphère. D’où la création récente du concept « forçage efficient », qui est le ratio entre la sensibilité climatique réelle de chaque forçage et celle (standard) d’un doublement du CO2. Le modèle INDOEX (océan Indien) a par exemple analysé quatre années d’aérosols (1996-1999) : il en résulte que le forçage (direct+indirect) en surface est de -20 W/m2, alors qu’il est de +15W/m2 en atmosphère. Conclusion : les données valables ne sont pas celles de la tropopause, mais celle de la moyenne surface-atmosphère. Et cela en tenant compte des propriétés de distribution thermique de chaque type de forçage. (Voir ici la plus récente synthèse de Hansen et al 2005, mais sur la base de leur seul modèle du GISS, un parmi vingt autres). Le rapport du NRC mentionne aussi les autres inconnues des méthodes actuelles du forçage radiatif : cycle de la vapeur d’eau, modifications de la nébulosité, effets régional et global des modifications d’usage du sol, mesures régionales de l’effet thermique du bilan radiatif (qui sont en fait les seules mesures intéressantes en terme de vulnérabilité / adaptabilité des sociétés, mais que les modèles ne savent pas donner pour l’instant). Et il faudrait bien sûr faire des synthèses (ce qui impossible ici) de la littérature récente sur chaque forçage, montrant des variations allant parfois du simple au double, voire inversant les évaluations du GIEC (un seul exemple : Jacobson 2004 considère que la combustion de la biomasse, notée BB dans le schéma ci-dessus et évaluée à -0,20 W/m2 par le GIEC, doit plutôt être compté comme forçage positif sur les long intervalles, car l’effet aldébo de la combustion est vite supplanté par le surcroît de GES atmosphérique). ** La conclusion provisoire est simple : les modèles sont très imparfaits et très perfectibles pour ce qui est de l’estimation du forçage radiatif (nous verrons après l’estimation du coefficient de sensibilité climatique, second ingrédient nécessaire à la projection des températures au XXIe siècle.) Que les modèles présentent de tels défauts est chose normale en science. Et les chercheurs sont les premiers à le reconnaître en climatologie, ce qui est tout à leur honneur. Ce que je ne comprends pas très bien, c'est la raison pour laquelle les résultats de ces modèles imparfaits sont considérés comme une quasi-certitude et servent de fondement à la décision publique en ce domaine. Lien à poster Partager sur d’autres sites More sharing options...
Alain Coustou Posté(e) 10 avril 2006 Partager Posté(e) 10 avril 2006 Après l’introduction théorique, voici quelques données. Le schéma ci-dessous est extrait du troisième rapport du GIEC, dernière synthèse disponible. Il s’agit des différents forçages évoqués plus haut, entre la période pré-industrielle (1750) et la fin du XXe siècle. J’ai ajouté en rouge (forçages positifs) ou en bleu (forçages négatifs) les valeurs exactes concernées (en W/m2). Ce qui est frappant, c’est l’incertitude extrême du GIEC. Les mentions L et VL en bas signalent « low » et « very low level of understanding ». On s’aperçoit qu’à l’exception des forçages des GES et de l’ozone (bien et moyennement connus), tous les autres sont incertains à très incertains. Ce qui est évidemment problématique, car la part relative des GES dans le réchauffement (objet principal de l’inquiétude populaire et du Protocole de Kyoto) ne peut être évaluée qu’en fonction des autres forçages. Le cas le plus critique concerne les effets indirects des aérosols (par baisse de la taille moyenne des gouttelettes des nuages augmentant leur aldébo et leur durée) évalués… entre 0 et -2 W/m2. Soit un effet allant de nul à quasiment équivalent (en sens inverse) à celui des GES. On pourrait se dire que les incertitudes ici mentionnées et reconnues tiennent au fait que le GIEC synthétise sur une période très longue (250 ans), où les enregistrements plus précis ne sont arrivés que dans les vingt ou trente dernières années. Hélas, il n’en est rien. Le National Research Council of National Academies (USA) a fait paraître en 2005 un bilan d’étape : Radiative forcing of climate change. On peut le lire page à page sur le net (c’est fastidieux, on peut aussi télécharger les 200 pages en [pdf] pour 20$). Il en ressort que les améliorations apportées par 20-30 années d’enregistrement plus précis n’ont fait qu’ajouter aux incertitudes. On s’est par exemple aperçu que la sensibilité climatique d’un forçage donné varie selon qu’on le mesure en tropopause (TOA = top of atmopshere) ou au sol (autrement dit que l’effet thermique du forçage est souvent disproportionné entre la surface et l’atmosphère). C’est le cas pour les aérosols absorbants (type suies carbone noir) par exemple, qui modifient la distribution de la chaleur dans les couches de l’atmosphère. D’où la création récente du concept « forçage efficient », qui est le ratio entre la sensibilité climatique réelle de chaque forçage et celle (standard) d’un doublement du CO2. Le modèle INDOEX (océan Indien) a par exemple analysé quatre années d’aérosols (1996-1999) : il en résulte que le forçage (direct+indirect) en surface est de -20 W/m2, alors qu’il est de +15W/m2 en atmosphère. Conclusion : les données valables ne sont pas celles de la tropopause, mais celle de la moyenne surface-atmosphère. Et cela en tenant compte des propriétés de distribution thermique de chaque type de forçage. (Voir ici la plus récente synthèse de Hansen et al 2005, mais sur la base de leur seul modèle du GISS, un parmi vingt autres). Le rapport du NRC mentionne aussi les autres inconnues des méthodes actuelles du forçage radiatif : cycle de la vapeur d’eau, modifications de la nébulosité, effets régional et global des modifications d’usage du sol, mesures régionales de l’effet thermique du bilan radiatif (qui sont en fait les seules mesures intéressantes en terme de vulnérabilité / adaptabilité des sociétés, mais que les modèles ne savent pas donner pour l’instant). Et il faudrait bien sûr faire des synthèses (ce qui impossible ici) de la littérature récente sur chaque forçage, montrant des variations allant parfois du simple au double, voire inversant les évaluations du GIEC (un seul exemple : Jacobson 2004 considère que la combustion de la biomasse, notée BB dans le schéma ci-dessus et évaluée à -0,20 W/m2 par le GIEC, doit plutôt être compté comme forçage positif sur les long intervalles, car l’effet aldébo de la combustion est vite supplanté par le surcroît de GES atmosphérique). ** La conclusion provisoire est simple : les modèles sont très imparfaits et très perfectibles pour ce qui est de l’estimation du forçage radiatif (nous verrons après l’estimation du coefficient de sensibilité climatique, second ingrédient nécessaire à la projection des températures au XXIe siècle.) Que les modèles présentent de tels défauts est chose normale en science. Et les chercheurs sont les premiers à le reconnaître en climatologie, ce qui est tout à leur honneur. Ce que je ne comprends pas très bien, c'est la raison pour laquelle les résultats de ces modèles imparfaits sont considérés comme une quasi-certitude et servent de fondement à la décision publique en ce domaine. Je suis parti de la critique raisonnée de ce même document pour élaborer mon propre modèle semi-global d'évolution de l'équilibre radiatif.J'ai apporté les corrections suivantes pour l'avenir (je résume en ne donnant ici que les correctifs essentiels) : - Prise en compte des conséquences de la réduction, puis de la disparition estivale de la banquise arctique et du recul des glaciers (en tenant compte d'une probable -selon moi - accélération, sur l'albédo terrestre. - Prise en compte de l'affaiblissement également probable de l'efficacité des puits de carbone océanique et végétal sur l'évolution de la concentration en CO2. - Prise en compte des conséquences de l'industrialisation à marche forcée de la Chine, de l'Inde et des autres NPI sur les émissions de GES et d'une croissance démographique qui (sauf catastrophe humanitaire majeure) devrait se poursuivre - tout en ralentissant de plus en plus - pendant la majeure partie du 21ème siècle (je suis à la base économiste et démographe). - Prise en compte de l'accroissement considérable de l'utilisation des dispositifs réfrigérants que l'on peut envisager, et donc des fuites de gaz fluorés dans l'atmosphère. - Prise en compte du dégel accéléré du permafrost à partir de 2005 et du début de déstabilisation des gisements de clathrates à partir des années 2020-2025, et donc de l'accroissement exponentiel de la présence de CH4 dans l'atmosphère. (en tenant également compte de la durée de vie moyenne des mollécules de CH4 : j'ai conservé l'estimation moyenne de 12 ans avant leur oxydation donnant principalement du CO2 et de la vapeur d'eau) - Prise en compte du fait que la capacité de l'atmosphère à retenir de la vapeur d'eau (qui est un efficace GES) s'accroit avec le réchauffement. - Prise en compte de la variabilité météorologique, de l'activité solaire et des incertitudes d'évolution des activités humaines dans la marge d'incertitude du modèle (ce qui m'a amené à ne pas aller au delà de 2050 dans mes prévisions). - Au point de vue méthodologique, prise en compte du caractére non linéaire des évolutions, des effets de rétroaction (positive ou négative), des effets de synergie et des deux notions d'effet de seuil et de point de non-retour (que je distingue soigneusement). - Enfin, j'ai considéré comme globalement neutre l'incidence de l'hémisphère sud, à la fois parcequ'il n'est à l'origine que d'une très faible part des GES d'origine anthropique et parceque l'inertie thermique de l'Antarctique est considérable, contrairement à l'Arctique. - Inversement, considération que les contrails (de même que les cirrus) exercent un (léger) effet négatif sur l'effet de serre par accroissement de l'albedo. Je travaille à affiner mon modèle (notamment pour tenir compte d'une accélération du dégel en profondeur du permafrost plus rapide qu'initialement envisagé et d'un ralentissement également apparemment plus important que prévu du Gulf Stream), mais l'essentiel, utilisé dans "Terre, fin de partie?" et illustré par un schéma intitulé "le scénario du cauchemar" reste toujours valable. Je n'ai pas tenu compte des phénomènes cycliques comme el Niño ou la Niña dans mon schéma car je pense en première estimation - mais je suis ouvert à la discussion à leur sujet - qu'il n'ont pas d'incidence sur la tendance à long terme. Alain Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 10 avril 2006 Partager Posté(e) 10 avril 2006 Que les modèles présentent de tels défauts est chose normale en science. Et les chercheurs sont les premiers à le reconnaître en climatologie, ce qui est tout à leur honneur. Ce que je ne comprends pas très bien, c'est la raison pour laquelle les résultats de ces modèles imparfaits sont considérés comme une quasi-certitude et servent de fondement à la décision publique en ce domaine. fondement à la décision publique... Je suis sceptique à ce sujet. La décision publique de qui exactement? Si cela concerne les pays signataires de Kyoto on ne peut pas dire que des objectifs de réduction de quelques % des émissions de GES soient d'une ambition démesurée. C'est plutôt le signe d'une grande prudence. Quant aux "plans multi-décennaux" de certains pays comme la France, ils sont très ambitieux (réduction d'un facteur 3 ou 4 des émissions de GES en 50 ans, si je me souviens bien) mais ils ont déjà pris du retard et on sent une volonté très molle de les mettre en application. Je considère donc pour ma part qu'il n'y a pas d'effort de réduction des GES supérieur à l'épaisseur du trait au niveau global. Alors que les rapports du GIEC avertissent depuis plus de 10 ans maintenant. D'un point de vue plus technique, présenter des résultats sur les aérosols tropo de 0 à -2W/m2 concernant leur forçage radiatif est un peu imprécis de mon point de vue. Il en serait autrement si on donnait l'intervalle de confiance en indiquant, par exemple, forçage radiatif = -1+-0.2 W/m2 avec 80% de confiance, ... Je ne sais pas si une telle présentation est possible. D'un point de vue plus général les prévisions d'évolution climatiques ne peuvent se faire qu'en fonction des connaissances du moment et pas en fonction des conditions futures. Sur ce que l'on connait actuellement relativement bien, le forçage radiatif global est plutôt largement positif. La courbe d'évolution récente des températures peut permettre également de se faire une idée des importances relatives des divers forçages. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 10 avril 2006 Auteur Partager Posté(e) 10 avril 2006 fondement à la décision publique... Je suis sceptique à ce sujet. La décision publique de qui exactement? Si cela concerne les pays signataires de Kyoto on ne peut pas dire que des objectifs de réduction de quelques % des émissions de GES soient d'une ambition démesurée. C'est plutôt le signe d'une grande prudence. Je ne porte ici aucun jugement de valeur sur la convention-cadre sur le changement climatique de l'ONU ni sur le protocole de Kyoto. Mais il me paraît difficile de nier que le GIEC en est (partiellement) à l'origine puisqu'il a été créé à cette fin par l'ONU (évaluer les risques pour aider à la décision). Ou alors je n'ai rien compris à ce qui se passe depuis 1988. Quant aux "plans multi-décennaux" de certains pays comme la France, ils sont très ambitieux (réduction d'un facteur 3 ou 4 des émissions de GES en 50 ans, si je me souviens bien) mais ils ont déjà pris du retard et on sent une volonté très molle de les mettre en application. Je considère donc pour ma part qu'il n'y a pas d'effort de réduction des GES supérieur à l'épaisseur du trait au niveau global. Alors que les rapports du GIEC avertissent depuis plus de 10 ans maintenant. Pour les effet concrets de Kyoto et autres, on verra bien. L'Europe est censée être en pointe dans ce domaine. Dans la dernière synthèse de l'UE que j'avais lue (2005), l'Europe des 15 n'avait atteint que le cinquième de ses objectifs concernant les réductions de GES (5% de réduction entre 1990 et 2010), alors même qu'une croissance économique médiocre créait un terrain plutôt favorable. L'essentiel des réductions était dû à la fermeture / délocalisation des industries polluantes, alors que les émissions par transport avait augmenté de 25%. Cela laisse en effet dubitatif pour la suite. Quant à la France, elle n'était pas particulièrement bien placée dans ce peloton européen (0,8% > 1990). Faire des "plans ambitieux" quand on ne donne pas l'exemple hic et nunc n'est pas très cohérent (mais sur l'incohérence de la France, il y aurait tant à dire...). D'un point de vue plus technique, présenter des résultats sur les aérosols tropo de 0 à -2W/m2 concernant leur forçage radiatif est un peu imprécis de mon point de vue. Il en serait autrement si on donnait l'intervalle de confiance en indiquant, par exemple, forçage radiatif = -1+-0.2 W/m2 avec 80% de confiance, ... Je ne sais pas si une telle présentation est possible. De mon point de vue aussi ! Le GIEC présente 18 études sur les effets indirects des aérosols (p. 376 du TAR 2001) dont aucune n'aboutit aux mêmes résultats. Les auteurs précisent aussi que "ces études ne peuvent être considérées comme totalement indépendantes car les plupart d'entre elles utilisent les mêmes méthodes et les mêmes relations entre sulfates et nuage" (377). Raison pour laquelle ils renoncent à donner un intervalle de confiance et une moyenne des estimations avec marge d'erreur. D'un point de vue plus général les prévisions d'évolution climatiques ne peuvent se faire qu'en fonction des connaissances du moment et pas en fonction des conditions futures. Sur ce que l'on connait actuellement relativement bien, le forçage radiatif global est plutôt largement positif. La courbe d'évolution récente des températures peut permettre également de se faire une idée des importances relatives des divers forçages. Je n'ai même pas mentionné ici les incertitudes liées aux scénarios (évolutions énergétique, démographique, économique entre 2000 et 2100), qui se combinent à celles-ci. La discussion porte ici sur les conditions présentes et non futures. Quand tu dis "sur ce que l'on connait actuellement relativement bien, le forçage radiatif global est plutôt largement positif.", c'est comme si les faits exposés plus haut ne signifiaient rien. Un forçage radiatif global sans la décomposition de son contenu n'apporte pas grand chose : si les forçages négatifs sont surestimés, le réchauffement actuel et futur dû au GES n'est pas très grave ; s'ils sont sous-estimés, ce réchauffement pourrait être pire que la plus pessimiste des prévisions. Le pb est aussi que bien peu d'auteurs publient des "states of the art" complets de leurs modèles (ou alors, je cherche aux mauvais endroits) et que cette opacité n'est pas de nature à permettre un suivi précis (il serait simple de publier chaque année des benchmark de chaque forçage pour les équipes qui y travaillent). Hansen et son équipe du GISS est l'un des rares à le faire très régulièrement et avec bcp de précision. On en avait parlé, je crois. Dans sa dernière estimation en date (Hansen et al. 2005, Earth’s energy imbalance: confirmation and implications, Science 308, 1431-1434), il obtient un bilan radiatif positif actuel de 0,85 W/m2 représentant un potentiel de réchauffement de 0,6°C. Sans préjuger de ce qui se passera en 2000-2050 en termes d'émissions de GES et d'aérosols. J'avoue que ce bilan d'étape sur les 100 dernières années de forçage me semble bien moins alarmant que ce que l'on entend habituellement. Lien à poster Partager sur d’autres sites More sharing options...
williams Posté(e) 10 avril 2006 Partager Posté(e) 10 avril 2006 Maintenant pour alimenter la polémique il semblerait que si les modèles prévoient un retour à une ére glaciaire nous y serions d'autant plus exposés à cause de l'augmentation des GES si j'ai bien compris et ce d'autant plus que cette barrière naturelle aura le même résultat que celui observé dans l'espace par l'équipe de l'ISS... nous nous dirigerions donc vers une ére glaciaire d'autant plus prononcée dans les prochaines décennies lorsque l'activité du soleil sera au maximum ? Si comme prevu et comme je le pense d'apres mes analyse du barycentre ci-dessous, dans les annees 2030 l'activite du soleil devrait baisser les temperatures devrait baisser. Si l'homme aurait peu d'effet su climat comme c'etait le cas avant, c'est meme une mini glaciation comme celle maunder qu'on aurait comme les glaciations de ces 1000 dernieres annees : Norman, Lamb, Wolf Spoerer, Maunder, Dalton, tombent quand l'evolution de la distance minimum et maximum du barycentre est rapide comme ca l'etre vers 2020-2030 puis apres cela 2200. Bien sur comme le dit Alain Coustou il faut tenir compte de tout. Et donc des effets naturelle ou pas (eruptions, ou...) peuvent causer des effets inverses ou augmenter l'effet ! Williams Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 10 avril 2006 Auteur Partager Posté(e) 10 avril 2006 Si comme prevu et comme je le pense d'apres mes analyse du barycentre ci-dessous, dans les annees 2030 l'activite du soleil devrait baisser les temperatures devrait baisser. Si l'homme aurait peu d'effet su climat comme c'etait le cas avant, c'est meme une mini glaciation comme celle maunder qu'on aurait comme les glaciations de ces 1000 dernieres annees : Norman, Lamb, Wolf Spoerer, Maunder, Dalton, tombent quand l'evolution de la distance minimum et maximum du barycentre est rapide comme ca l'etre vers 2020-2030 puis apres cela 2200. Bien sur comme le dit Alain Coustou il faut tenir compte de tout. Et donc des effets naturelle ou pas (eruptions, ou...) peuvent causer des effets inverses ou augmenter l'effet ! Williams A propos du forçage solaire, une étude vient juste de paraître concluant qu'il est responsable de 50% du réchauffement du XXe siècle et de 10-30% du réchauffement 1980-2002 : Scafetta, N. and West B. J. 2005. Estimated solar contribution to the global surface warming using the ACRIM TSI satellite composite. GRL (32), L18713, doi:10.1029/2005GL023849, 2005. Je dois faire un entretien avec les auteurs, mais je ne sais pas trop si ce résultat est solide (je connais mal pour l'instant la question). Aucune idée à ce sujet ? Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 10 avril 2006 Auteur Partager Posté(e) 10 avril 2006 Je suis parti de la critique raisonnée de ce même document pour élaborer mon propre modèle semi-global d'évolution de l'équilibre radiatif. J'ai apporté les corrections suivantes pour l'avenir (je résume en ne donnant ici que les correctifs essentiels) : - Prise en compte des conséquences de la réduction, puis de la disparition estivale de la banquise arctique et du recul des glaciers (en tenant compte d'une probable -selon moi - accélération, sur l'albédo terrestre. - Prise en compte de l'affaiblissement également probable de l'efficacité des puits de carbone océanique et végétal sur l'évolution de la concentration en CO2. - Prise en compte des conséquences de l'industrialisation à marche forcée de la Chine, de l'Inde et des autres NPI sur les émissions de GES et d'une croissance démographique qui (sauf catastrophe humanitaire majeure) devrait se poursuivre - tout en ralentissant de plus en plus - pendant la majeure partie du 21ème siècle (je suis à la base économiste et démographe). - Prise en compte de l'accroissement considérable de l'utilisation des dispositifs réfrigérants que l'on peut envisager, et donc des fuites de gaz fluorés dans l'atmosphère. - Prise en compte du dégel accéléré du permafrost à partir de 2005 et du début de déstabilisation des gisements de clathrates à partir des années 2020-2025, et donc de l'accroissement exponentiel de la présence de CH4 dans l'atmosphère. (en tenant également compte de la durée de vie moyenne des mollécules de CH4 : j'ai conservé l'estimation moyenne de 12 ans avant leur oxydation donnant principalement du CO2 et de la vapeur d'eau) - Prise en compte du fait que la capacité de l'atmosphère à retenir de la vapeur d'eau (qui est un efficace GES) s'accroit avec le réchauffement. - Prise en compte de la variabilité météorologique, de l'activité solaire et des incertitudes d'évolution des activités humaines dans la marge d'incertitude du modèle (ce qui m'a amené à ne pas aller au delà de 2050 dans mes prévisions). - Au point de vue méthodologique, prise en compte du caractére non linéaire des évolutions, des effets de rétroaction (positive ou négative), des effets de synergie et des deux notions d'effet de seuil et de point de non-retour (que je distingue soigneusement). - Enfin, j'ai considéré comme globalement neutre l'incidence de l'hémisphère sud, à la fois parcequ'il n'est à l'origine que d'une très faible part des GES d'origine anthropique et parceque l'inertie thermique de l'Antarctique est considérable, contrairement à l'Arctique. - Inversement, considération que les contrails (de même que les cirrus) exercent un (léger) effet négatif sur l'effet de serre par accroissement de l'albedo. Je travaille à affiner mon modèle (notamment pour tenir compte d'une accélération du dégel en profondeur du permafrost plus rapide qu'initialement envisagé et d'un ralentissement également apparemment plus important que prévu du Gulf Stream), mais l'essentiel, utilisé dans "Terre, fin de partie?" et illustré par un schéma intitulé "le scénario du cauchemar" reste toujours valable. Je n'ai pas tenu compte des phénomènes cycliques comme el Niño ou la Niña dans mon schéma car je pense en première estimation - mais je suis ouvert à la discussion à leur sujet - qu'il n'ont pas d'incidence sur la tendance à long terme. Alain Donc, l'essentiel des correctifs apportés dans ton propre modèle vont plutôt dans le sens d'une hausse directe ou indirecte des forçages positifs. Je commence à mieux comprendre ton pessismisme Mais pourquoi pas, il faut bien envisager tous les possibles. J'imagine qu'un modèle intégrant des correctifs inverses (réduction plus rapide des taux d'émissions de GES, réévaluation des forçages négatifs, choix d'une sensibilité climatique faible, tendance à la baisse dans les variations courtes de la constante solaire, absence de seuils, etc.) abourtirait au contraire à une conclusion plus optimiste. Lien à poster Partager sur d’autres sites More sharing options...
marco_p Posté(e) 10 avril 2006 Partager Posté(e) 10 avril 2006 Je dois faire un entretien avec les auteurs, mais je ne sais pas trop si ce résultat est solide (je connais mal pour l'instant la question). Aucune idée à ce sujet ? Ce n'est pas la révolution... ce chiffre, ou plutôt ce type de chiffres, trainent dans la littérature depuis un bout de temps. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 10 avril 2006 Auteur Partager Posté(e) 10 avril 2006 Ce n'est pas la révolution... ce chiffre, ou plutôt ce type de chiffres, trainent dans la littérature depuis un bout de temps. Ah bon ? En tout cas pas dans la littérature du GIEC Pour l'instant, je n'avais jamais lu que la moitié des 0,6°C du XXe siècle pouvait être ainsi attribuée au soleil, ce qui ne laisse vraiment plus grand chose aux GES. Cela signifierait que 0,3°C / siècle est le maximum attribuable à l'homme (toutes causes confondues) pour l'instant, chiffre dont il faudrait encore soustraire la variabilité non solaire et non humaine : pas vraiment de quoi soulever une émotion intense dans l'opinion publique mondiale. Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 10 avril 2006 Partager Posté(e) 10 avril 2006 Je n'ai même pas mentionné ici les incertitudes liées aux scénarios (évolutions énergétique, démographique, économique entre 2000 et 2100), qui se combinent à celles-ci. La discussion porte ici sur les conditions présentes et non futures. Quand tu dis "sur ce que l'on connait actuellement relativement bien, le forçage radiatif global est plutôt largement positif.", c'est comme si les faits exposés plus haut ne signifiaient rien. Un forçage radiatif global sans la décomposition de son contenu n'apporte pas grand chose : si les forçages négatifs sont surestimés, le réchauffement actuel et futur dû au GES n'est pas très grave ; s'ils sont sous-estimés, ce réchauffement pourrait être pire que la plus pessimiste des prévisions. Je me suis mal exprimé. Je ne voulais pas dire "conditions futures" mais "connaissances futures". Je précise donc ma pensée. On sait calculer avec une assez bonne précision le forçage radiatif des GES. Par contre la grosse incertitude réside dans les aérosols sulfatés d'origine anthropique et notamment sur leur effet indirect. Comme nous l'avons vu dans le graphique édité par le GIEC (dont le moins qu'on puisse dire c'est qu'il joue cartes sur table) on ne sais pas calculer ni théoriquement ni empiriquement l'effet indirect des aérosols sulfatés avec précision. On sait par contre qu'il se peut qu'il y ait un effet négatif et les estimations actuelles situent cet effet dans la tranche 0/-2W/m2. Lorsque je parle d'effet de forçage radiatif global largement positif je fais allusion à la courbe d'évolution de la température. Le fait qu'il y ait augmentation de température de 0.75°C depuis 1850 prouve qu'il y a bien forçage positif. Bien sûr cela suppose qu'on croit à cette évolution. Sous cette condition, et avec les simulations des modèles sur le climat passé et actuel, le forçage radiatif actuel des aérosols sulfatés a été calculé égal à -0.8W/m2. Il y a donc un calcul indirect de ce forçage. Calcul qui, à mon avis, ne se résume pas à quelques additions et soustractions. Mais un point, à mon sens important, est la durée de vie des aérosols sulfatés. Celle-ci est, dans la troposphère, extrèmement faible (quelques jours) Dans l'hypothèse d'une stagnation puis d'une réduction des émissions fossiles à partir de 2050, la teneur en CO2, bien qu'infléchissant sa courbe, continuera à augmenter au moins jusqu'en 2100, voire au-delà. Mais la teneur en aérosols sulfatés suivant la courbe des émissions de CO2 la somme des forçages (GES + aérosols) penchera plus nettement encore côté GES. Les aérosols auront ainsi, et dans cette hypothèse de réduction des émissions de CO2, retardé le gros du réchauffage. Concernant le solaire , on sait que depuis 50 ans environ, l'activité solaire, corrélée, entr'autres, au nombre de tâches, est remarquablement stable.(en dehors du cycle de 11 ans) Il serait un peu bizarre qu'il y ait augmentation rapide de la température à partir des années 70, dans une période correspondant justement à cette stabilité et même décalée par rapport à son début. Lien à poster Partager sur d’autres sites More sharing options...
Alain Coustou Posté(e) 10 avril 2006 Partager Posté(e) 10 avril 2006 Donc, l'essentiel des correctifs apportés dans ton propre modèle vont plutôt dans le sens d'une hausse directe ou indirecte des forçages positifs. Je commence à mieux comprendre ton pessismisme Mais pourquoi pas, il faut bien envisager tous les possibles. J'imagine qu'un modèle intégrant des correctifs inverses (réduction plus rapide des taux d'émissions de GES, réévaluation des forçages négatifs, choix d'une sensibilité climatique faible, tendance à la baisse dans les variations courtes de la constante solaire, absence de seuils, etc.) abourtirait au contraire à une conclusion plus optimiste. Tout à fait. J'espére d'ailleurs (et j'y travaille moi-même activement, voir les sites sur les tours aérogénératrices) qu'une prise de conscience aménera à une réduction plus importante du rejet des GES. Des technologies existent ou sont envisageables qui devraient sérieusement permettre de limiter les dégats. Paul Alary et moi suggérons aussi, en cas de dérapage de la situation, d'avoir recours à la génération de cirrus artificiels destinés à accroitre légérement l'albédo terrestre (un dispositif inspiré du projet de tour aérogénératrices serait utilisé). D'autre part, il est effectif qu'un baisse plus importante de la constante solaire, peut-être en relation avec l'évolution du barycentre du système solaire chére à Williams, pourrait nous faire gagner du temps. Enfin, une surestimation de l'amincissement de la banquise pourrait m'amener à revoir le timing prévisionnel des événements. Etant donné la courte vie moyenne du méthane, celà changerait effectivement beaucoup de choses si les délais étaient doublés ou triplés (je peux reprendre mes calculs dans cette hypothèse, ne serait ce que pour "voir" et disposer d'un modèle alternatif. Cependant, il faut dire aussi que certains éléments se dégradent plus vite que prévu (ainsi du dégel en profondeur du permafrost). Il est donc possible que l'apparente vérification de mon modèle l'an passé provienne tout simplement de la compensation réciproque d'erreurs à la hausse comme à la baisse... Encore du travail en perspective pour tenter de préciser tout ça... Enfin, l'estimation à 30% maxi de l'incidence de la variabilité solaire sur l'évolution climatique depuis une vingtaine d'années est mise en avant non seulement par des climatologues, mais aussi par des astronomes. J'ai lu voici quelques mois un interview d'un astronome reprenant ce pourcentage. Mais bien sûr, une variabilité plus importante de la "constante" solaire remettrait cela aussi en cause et par contre, si tout le monde reprend la même estimation sans en refaire les calculs, cette quasi unanimité ne prouve rien... En tout cas, merci pour ta critique positive et les infos dont tu nous fais bénéficier. C'est très constructif. Alain Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 10 avril 2006 Partager Posté(e) 10 avril 2006 Enfin, l'estimation à 30% maxi de l'incidence de la variabilité solaire sur l'évolution climatique depuis une vingtaine d'années est mise en avant non seulement par des climatologues, mais aussi par des astronomes. J'ai lu voici quelques mois un interview d'un astronome reprenant ce pourcentage. Mais bien sûr, une variabilité plus importante de la "constante" solaire remettrait cela aussi en cause et par contre, si tout le monde reprend la même estimation sans en refaire les calculs, cette quasi unanimité ne prouve rien... Pourrais-tu expliciter? Quelle est donc cette variation de flux solaire depuis une vingtaine d'années? Les mesures de constante solaire effectuées par satellites, si elles présentent des décalages entr'elles, ne laissent pas apparaître une telle variation lorsqu'on les examine individuellement. A moins qu'il y ait d'autres éléments plus précis, j'ai bien du mal à comprendre. Lien à poster Partager sur d’autres sites More sharing options...
Alain Coustou Posté(e) 10 avril 2006 Partager Posté(e) 10 avril 2006 Pourrais-tu expliciter? Quelle est donc cette variation de flux solaire depuis une vingtaine d'années? Les mesures de constante solaire effectuées par satellites, si elles présentent des décalages entr'elles, ne laissent pas apparaître une telle variation lorsqu'on les examine individuellement. A moins qu'il y ait d'autres éléments plus précis, j'ai bien du mal à comprendre. Je me suis mal exprimé en écrivant trop vite. 30% (si cette estimation est exacte), c'est l'influence éventuelle maximale d'une possible variation de l'activité solaire, par rapport à l'influence des GES d'origine anthropique. Ce n'est donc pas l'influence observée, seulement l'influence relative possible. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 10 avril 2006 Auteur Partager Posté(e) 10 avril 2006 Toujours dans le registre des forçages et de leur attribution (naturelle ou anthropique), les modèles doivent aussi intégrer les récentes découvertes. Deux exemples sur le méthane : on a montré pour la première fois en janvier dernier que les plantes en émettent lors de leur croissance (d'où une présence + importante au-dessus de l'Amazonie par exemple) et on vient de signaler qu'il en va de même pour les volcans de boues sous-marins (cf. ci-dessous une dépêche AFP). Bien sûr, cela ne change pas les estimations des évolutions ppb du méthane dans l'atmosphère et de leur forçage. En revanche, cela peut changer les projections (la réduction des émissions humaines aura un effet moindre qu'attendu). *** CLIMAT : LES VOLCANS DE BOUE JOUERAIENT UN ROLE DANS LE RECHAUFFEMENT AFP-PARIS - Les volcans de boue sous-marins jouent un rôle plus important que ce qui était admis jusqu'ici dans le réchauffement climatique, en raison de l'importance de leurs rejets de méthane, selon une étude publiée le 3 mars par l'Institut Alfred Wegener (Allemagne). Les volcans de boue sont des cônes formés d'eau, de gaz et d'argiles, qui sont susceptibles de connaître des éruptions (de boue) et d'où émane du méthane. On en recense plusieurs milliers sur les fonds marins. Le méthane, gaz qui compose majoritairement le gaz naturel domestique, est vingt fois plus "efficace" que le gaz carbonique pour piéger dans l'atmosphère terrestre la chaleur en provenance du soleil. Les scientifiques estimaient jusqu'ici que ce gaz était rapidement décomposé par les micro-organismes dans les fonds marins, sans parvenir à la surface. L'étude du volcan de boue actif Hakon Mosby, situé à forte profondeur, entre la Norvège et l'archipel du Svalbard, a montré qu'il n'en était rien. Les scientifiques travaillent actuellement à une méthode pour quantifier les quantités de méthane ainsi relâchées dans l'atmosphère. D'ores et déjà, Eberhard Sauter, géochimiste à l'Institut Alfred Wegener, estime que la contribution des volcans de boue aux volumes de méthane produit sur la planète pourrait être "importante". L'Institut Alfred Wegener est l'organisme scientifique allemand chargé de la recherche polaire et maritime. Son étude, réalisée en partenariat avec l'Institut Français de Recherche pour l'Exploitation de la Mer (IFREMER) et l'Académie des Sciences de Nijny Novgorod, est publiée dans la dernière édition des Earth and Planetary Science Letters. Lien à poster Partager sur d’autres sites More sharing options...
Alain Coustou Posté(e) 11 avril 2006 Partager Posté(e) 11 avril 2006 Toujours dans le registre des forçages et de leur attribution (naturelle ou anthropique), les modèles doivent aussi intégrer les récentes découvertes. Deux exemples sur le méthane : on a montré pour la première fois en janvier dernier que les plantes en émettent lors de leur croissance (d'où une présence + importante au-dessus de l'Amazonie par exemple) et on vient de signaler qu'il en va de même pour les volcans de boues sous-marins (cf. ci-dessous une dépêche AFP). Bien sûr, cela ne change pas les estimations des évolutions ppb du méthane dans l'atmosphère et de leur forçage. En revanche, cela peut changer les projections (la réduction des émissions humaines aura un effet moindre qu'attendu). *** CLIMAT : LES VOLCANS DE BOUE JOUERAIENT UN ROLE DANS LE RECHAUFFEMENT AFP-PARIS - Les volcans de boue sous-marins jouent un rôle plus important que ce qui était admis jusqu'ici dans le réchauffement climatique, en raison de l'importance de leurs rejets de méthane, selon une étude publiée le 3 mars par l'Institut Alfred Wegener (Allemagne). Les volcans de boue sont des cônes formés d'eau, de gaz et d'argiles, qui sont susceptibles de connaître des éruptions (de boue) et d'où émane du méthane. On en recense plusieurs milliers sur les fonds marins. Le méthane, gaz qui compose majoritairement le gaz naturel domestique, est vingt fois plus "efficace" que le gaz carbonique pour piéger dans l'atmosphère terrestre la chaleur en provenance du soleil. Les scientifiques estimaient jusqu'ici que ce gaz était rapidement décomposé par les micro-organismes dans les fonds marins, sans parvenir à la surface. L'étude du volcan de boue actif Hakon Mosby, situé à forte profondeur, entre la Norvège et l'archipel du Svalbard, a montré qu'il n'en était rien. Les scientifiques travaillent actuellement à une méthode pour quantifier les quantités de méthane ainsi relâchées dans l'atmosphère. D'ores et déjà, Eberhard Sauter, géochimiste à l'Institut Alfred Wegener, estime que la contribution des volcans de boue aux volumes de méthane produit sur la planète pourrait être "importante". L'Institut Alfred Wegener est l'organisme scientifique allemand chargé de la recherche polaire et maritime. Son étude, réalisée en partenariat avec l'Institut Français de Recherche pour l'Exploitation de la Mer (IFREMER) et l'Académie des Sciences de Nijny Novgorod, est publiée dans la dernière édition des Earth and Planetary Science Letters. Il serait intéressant d'étudier la relation entre "volcans de boue" et hydrates de méthane (clathrates de méthane). Possible que certains de ces pseudo-volcans ne soient pas autre chose que la forme prise par le dégazage de certains gisements. Ce dégazage n'aurait cependant rien à voir avec un quelconque réchauffement, étant donné la profondeur à laquelle ont été détectés ces phénoménes. Une source chaude, ou une remontée de gaz d'origine volcanique pourraient en être l'agent déclencheur (j'emets une hypothèse). Quand un tel processus démarre, il déstabiliserait le gisement de proche en proche et les sédiments mélés aux clathrates constitueraient un cone très étalé, mélangé à l'eau (de la boue, quoi). Par contre, sur des terrains en pente (les talus continentaux, par exemple), au lieu de voir se constituer un cône, on aurait un glissement de terrain : une avalanche sous-marine, pouvant se propager sur des centaines de Km et générer un tsunami. En tout cas, amusant comme certains journalistes aiment évoquer "les scientifiques" sans plus de précision et comme si il y a avait unanimité parmis les chercheurs, pour étayer leurs papiers. Alain Lien à poster Partager sur d’autres sites More sharing options...
Messages recommandés