Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

charles.muller

Membres
  • Compteur de contenus

    2597
  • Inscription

  • Dernière visite

Tout ce qui a été posté par charles.muller

  1. Personne ou presque personne à ma connaissance ne nie le réchauffement de [1910-1940] ou [1975-2006]. Bon nombre s'interrogent sur la mesure exacte, la portée exacte et les causes exactes de ce réchauffement. Nuance.
  2. Je ne peux que te répondre en mon nom sur certains points. Si tu veux mon avis personnel, il est très simple : je me félicite de l'abandon du fossile (pour des raisons environnementales et géopolitiques), j'espère qu'il sera le plus rapide possible et je soutiens activement toutes les alternatives existantes, de l'éolien à l'hydrogène, en passant par la géothermie, le photovoltaïque, la trigénération, le nucléaire et tout ce que tu veux. Je pense de toute façon que les réserves (hors charbon) s'éteindront avant 2100 et surtout que leur coût relatif sera bcp plus tôt sans intérêt pour les acteurs du marché. Pour autant, et d'un point de vue éthique, je refuse de soutenir mes choix et mes convictions par ce ce que je crois être une erreur ou un mensonge. Je n'accepte donc pas les arguments pragmatiques mais antidémocratiques du genre : "au moins, si les masses ont peur, elles seront un peu moins c*nnes ; autant qu'elles flippent avec le climat pour arrêter d'acheter des 4x4 diesel". Mon "intérêt" pour les affaires climatiques n'a donc rien à avoir avec des arrière-pensées énergétiques ou politiques. Comme je l'ai expliqué ailleurs sur ces forums, c'est la disproportion entre le devoir de prudence, de précision et de vérité de la science d'une part, le discours globalement orienté, excessif et imprécis sur le réchauffement d'autre part qui motive mon agacement et mon engagement. Contrairement à toi, je ne pense pas que la transition vers le post-fossile sera douloureuse et que l'homme occidental moyen fera le sacrifice de son consumérisme sur l'autel d'une vie simple et frugale. Les nouvelles énergies seront un peu plus chères pour le porte-monnaie sans doute, dans un premier temps, mais c'est tout. A sa manière, le remplacement du fossile sera une des fortes sourcs de croissance dans les décennies à venir (et non une obligation de décroissance). PS : une précision. Le "mensonge" est un cas extrême et il n'est pas le fait des chercheurs. Exemple (cité dans cette discussion) : un fonctionnaire de l'ONU qui affirme que les habitants de l'île Tegua sont chassés en 2005 par la hausse du niveau des mers due au réchauffement global. Quand je vois que cette info est reprise partout, y compris par des médias réputés sérieux comme Le Monde, alors qu'il suffit de vérifier pour constater qu'il n'y a pas de hausse sensible depuis 10 ans dans cette région, je peux te dire que cela alimente sacrément mon scepticisme !
  3. Sûrement (et idem si l'on remplace sceptique par alarmiste dans cette phrase). Sans doute un pb de rhétorique. Je n'avais pas fait attention à la courbe des moyennes sur 20 ans (elle commence à 19,5 vers 2000 et s'arrête à 23 °C vers 2080). Voici une carte de l'évolution des Tm estivale en France sur la période [1951-2000] - moyenne sur les séries homogénéisées, je précise. Source IMFREX-Cnrs (http://medias.dsi.cnrs.fr/IMFREX/) Tu remarques des gains de 3 à 4 °C en cinquante ans (et non 100 ans) sont la norme. Je n'ai pas souvenir d'hécatombes sans précédents ni de forêts transformées en cimetières. Si tu es objectif (et non sceptique ou alarmiste) et si cette carte est exacte, tu en conclues que les Français devront s'habituer en 100 ans à une hausse comparable à celle qu'ils ont connue en 50 ans. Et cela selon un scénario A2 prévoyant des hausses plus fortes que la moyenne des autres scénarios actuels. La question est donc : nous avons supporté un passage de 16 à 19,5 °C entre 1950 et 2001, pourrons-nous supporter un hypothétique passage de 19,5°C à 23°C entre 2001 et 2100 ? Abandonnons le pessimisme, qui était juste un clin d'oeil pour ne pas dire alarmiste. A 3,8°C d'estimation dans une fourchette 1,5-4,5 °C, le scénario A2 est objectivement dans la fourchette haute, d'autant que la moyenne des résultats des scénarios n'est pas à 3°C, mais en dessous (pas encore retrouvé le chiffre précis, merci qq l'a). Tous les scénarios sont supposés également réalistes, y compris celui qui aboutit à 1,5°C. Je dis "supposé" car dans l'autre discussion sur les modèles, j'ai expliqué assez précisément pourquoi aucun d'entre eux ne me semble scientifiquement mûr, en l'état de nos connaissances sur les forçages et la sensibilité climatique, pour prédire quoique ce soit de fiable d'ici 100 ans.
  4. Tout à fait exact. Le Kilimandjaro avait déjà perdu 45% de ses glaces entre 1912 et 1953 (en phase de réchauffement faible et sans doute pas dû à l'homme) et il en a encore perdu 21% entre 1953 et 1976, en phase de refroidissement global. Il faut donc plutôt chercher du côté des conditions locales. Cf. référence ci-dessous. Thompson L.G. et al. (2002), Kilimanjaro Ice Core Records: Evidence of Holocene Climate Change in Tropical Africa, Science, 298, 588-593
  5. Si tu entends par "alarmiste inversé" le fait d'avoir les mêmes défauts, mais en sens inverse (sélectionner arbitrairement tout ce qui "ne colle pas" avec un réchauffement global), je ne suis pas d'accord, en tout cas pour ma pomme. Ceux que je désigne comme alarmistes défendent une hypothèse centrale (en gros) : le réchauffement global est essentiellement dû à l'homme et va s'aggraver considérablement au XXIe siècle si rien n'est fat pour diminuer les GES. Les sceptiques, qui n'ont pas d'hypothèse générale de cette sorte, se contentent de souligner les incertitudes de ce discours (sur la part anthropogénique du réchauffement, sur la part exacte des GES, sur la validité des modèles prédictifs, sur la dimension exceptionnelle du réchauffement présent et à venir, etc.) et le caractère illusoire du "consensus scientifique" sur chaque élément précis du même discours. A cela s'ajoute, bien sûr, la nécessité de corriger les excès (allant de l'extrapolation hasardeuse au mensonge pur et simple) accompagnant la vulgarisation - surtout médiatique - de cette hypothèse. J'essaie tout comme toi d'être objectif - si tant est qu'un cerveau humain puisse l'être vraiment et échapper au biais cognitif de sélection arbitraire des données pertinentes, de consolidation des corrélations illusoires en socles de jugement, etc. En tout cas, mon scepticisme s'adresse aussi à certains travaux sceptiques dont les arguments ou les méthodes me paraissent parfois faibles, faux ou de mauvaise foi. Je pense pour conclure sur ce point que des éléments très subjectifs (tempéraments, croyances, préjugés) jouent également, à un degré ou à un autre, sur notre approche de ces questions. D'où l'intérêt de se reporter systématiquement aux faits comme nous le faisons ici. Disons que les résultats du scénario A2 (+3,8°C en moyenne globale pour 2100) sont situés dans la fourchette haute des 1,5-4,5 °C. (D'autant que de mémoire, la majeure partie des résultats de ces modèles couplés à des scénarios se situe entre 1,5 et 3,5 °C). Dans ce scénario... "pessimiste", la Tm des étés français risquerait donc de passer d'approx. 20 °C aujourd'hui à approx. 23°C. Cela paraît impressionnant sur une courbe. On peut aussi se poser la question de ce que cela signifierait en terme d'adaptation dans la vie courante - si l'on a en tête l'épisode dramatique de la canicule qui motivait cette partie de la discussion, et pas d'autres effets secondaires d'un surcroît de chaleur. Les Tm estivale du sud de la France sont aujourd'hui bien plus élevées que cela, sans mortalité particulière puisque les populations, l'habitat, le mode de vie, etc. sont adaptés. Au débat sur la mesure et l'anticipation précises du réchauffement se superpose donc un autre débat possible sur la gravité de ses effets concrets en termes sanitaires, sociaux, économiques, etc.
  6. Eh bien c'est intéressant de le dire, non ? Un des points permanents de débat entre sceptiques et alarmistes est l'attribution exacte de causalité aux phénomènes observés. (Exemple récent : la canicule 2003 est-elle la signature classique d'une variation météo. estivale ou le signe avant-coureur d'une modification climato. induite par le réchauffement global). Le seul moyen de trancher est de vérifier (ou de faire confiance à ceux qui vérifient) sur des longues séries. Après tout, les sécheresses évoquées auraient pu être de plus en plus décalées ou excessives par rapport aux variations ENSO, ce qui aurait fortement plaider en faveur du RG comme causalité principale. Une telle analyse détaillée est extensible à la plupart des "modifiations récentes dans divers milieux" formant l'objet initial de ce post.
  7. En effet, rien d'anormal en soi (cf Jones et Moberg 2003 pour le bilan révisé du XXe avec la grille CRU). Il n'y rien à comprendre au-delà de ce qui est écrit - c'est-à-dire au-delà d'un simple chiffrage des rythmes du réchauffement en France. Cela rappelle simplement que la France (comme l'Europe) connaît une accentuation particulièrement forte par rapport à d'autres zones du globe. Jones et Moberg donnent par exemple ces valeurs (tendance linéaire) pour la période 1977-2001 en C°/décennie : Europe 0,425 Arctique : 0,364 Amérique du Nord : 0,289 Afrique : 0,284 Asie : 0,283 Amérique du Sud : 0,125 Antarctique : 0,080 Australie : 0,055 Tu as aussi raison de rappeler que cette partie récente de la courbe est essentielle à la validation des modèles, et notamment à la part anthropogénique du réchauffement. Jusqu'aux années 1980, il est en fait difficile de distinguer l'évolution climatique de sa simple variabilité naturelle. (Et pour 1980-2000, c'est l'HN qui pousse la moyenne globale vers une hausse très significative).
  8. Précision : en tendance (régression linéaire pour les courbes ci-dessus), on obient +0,22 pour Tm[1901-1980], mais +0,90 pour Tm[1901-2000]. Alain a raison : un gisement secret de clathrate a dû remonter à la surface dans notre pays au début des années 1980 ! /emoticons/wink@2x.png 2x" width="20" height="20">
  9. Toujours dans le registre des forçages et de leur attribution (naturelle ou anthropique), les modèles doivent aussi intégrer les récentes découvertes. Deux exemples sur le méthane : on a montré pour la première fois en janvier dernier que les plantes en émettent lors de leur croissance (d'où une présence + importante au-dessus de l'Amazonie par exemple) et on vient de signaler qu'il en va de même pour les volcans de boues sous-marins (cf. ci-dessous une dépêche AFP). Bien sûr, cela ne change pas les estimations des évolutions ppb du méthane dans l'atmosphère et de leur forçage. En revanche, cela peut changer les projections (la réduction des émissions humaines aura un effet moindre qu'attendu). *** CLIMAT : LES VOLCANS DE BOUE JOUERAIENT UN ROLE DANS LE RECHAUFFEMENT AFP-PARIS - Les volcans de boue sous-marins jouent un rôle plus important que ce qui était admis jusqu'ici dans le réchauffement climatique, en raison de l'importance de leurs rejets de méthane, selon une étude publiée le 3 mars par l'Institut Alfred Wegener (Allemagne). Les volcans de boue sont des cônes formés d'eau, de gaz et d'argiles, qui sont susceptibles de connaître des éruptions (de boue) et d'où émane du méthane. On en recense plusieurs milliers sur les fonds marins. Le méthane, gaz qui compose majoritairement le gaz naturel domestique, est vingt fois plus "efficace" que le gaz carbonique pour piéger dans l'atmosphère terrestre la chaleur en provenance du soleil. Les scientifiques estimaient jusqu'ici que ce gaz était rapidement décomposé par les micro-organismes dans les fonds marins, sans parvenir à la surface. L'étude du volcan de boue actif Hakon Mosby, situé à forte profondeur, entre la Norvège et l'archipel du Svalbard, a montré qu'il n'en était rien. Les scientifiques travaillent actuellement à une méthode pour quantifier les quantités de méthane ainsi relâchées dans l'atmosphère. D'ores et déjà, Eberhard Sauter, géochimiste à l'Institut Alfred Wegener, estime que la contribution des volcans de boue aux volumes de méthane produit sur la planète pourrait être "importante". L'Institut Alfred Wegener est l'organisme scientifique allemand chargé de la recherche polaire et maritime. Son étude, réalisée en partenariat avec l'Institut Français de Recherche pour l'Exploitation de la Mer (IFREMER) et l'Académie des Sciences de Nijny Novgorod, est publiée dans la dernière édition des Earth and Planetary Science Letters.
  10. Non, je n'ai pas liste complète hélas. Merci pour ces moyennes sur 66 stations. Rapidement fait sur Excel, cela donne [1901-1980 vs 1901-2000] : En comparant les courbes de tendance, on voit le poids très important des vingt dernières années sur l'ensemble du siècle.
  11. Merci beaucoup Christian pour tous ces éléments très précis. Ayant réfléchi, je me doutais que le pb principal venait des T anciennes (en général trop chaudes), auquel s'ajoute le déplacement des postes. Et c'est dommage que MF n'ait pas encore un équivalent du matériel américain. Et sur l'autre question existe-t-il des infos (les Tm 1900-1980, avant la forte hausse 1980-2000 que l'on voit sur pas mal de courbes) ?
  12. Ah bon ? En tout cas pas dans la littérature du GIEC Pour l'instant, je n'avais jamais lu que la moitié des 0,6°C du XXe siècle pouvait être ainsi attribuée au soleil, ce qui ne laisse vraiment plus grand chose aux GES. Cela signifierait que 0,3°C / siècle est le maximum attribuable à l'homme (toutes causes confondues) pour l'instant, chiffre dont il faudrait encore soustraire la variabilité non solaire et non humaine : pas vraiment de quoi soulever une émotion intense dans l'opinion publique mondiale.
  13. Concernant les corrections / homogénéisation, je suggère une explication plausible qui m'est venue en réfléchissant au sujet. Dans l'ensemble, les enregistrements météo se sont améliorés au cours du dernier siècle, à mesure de l'OMM fixait des critères plus rigoureux et que les réseaux nationaux s'y adaptaient. Dans une longue série, ce sont donc les mesures du début du siècle qui sont sans doute les plus problématiques, et cela plutôt à la hausse (stations en pleine ville, entourées de bâtiments, etc.). La correction consiste alors à revoir ces premiers enregistrements à la baisse, ce qui élimine du coup le différentiel négatif (puisque le T plus récentes et plus correctes ne bougent pas ou bougent moins). Cette explication suppose que la première hypothèse (les enregistrements se sont globalement améliorés) est vrai. Les pros de la météo auront peut-être leur avis là-dessus. Une autre question que je me pose dans la foulée est : y a-t-il eu des grandes ruptures de méthode ou de matériel dans l'enregistrement des T au cours du XXe siècle et quand se situent-elles ? Sinon, j'en reviens à un constat déjà fait. L'accès à la liste des 70 stations homogénéisées permet de constater que les trois stations pouvant être considérées comme rurales (Ouessant, Mont-Aigoual, Pointe de La Hague) sont malhereusement non pertinentes pour évaluer les ICU (zones côtières ou d'altitude). Il est qd même dommage que les 9/1Oe des données proviennent de villes moyennes à très grandes ayant toutes connu une évolution démographique assez forte (pop x2 à x5), alors qu'il aurait suffi de 5 ou 6 stations en terres, pleinement rurales et sans modification d'environnement pour vérifier un éventuel différentiel dû à l'urbanisation dans les régions françaises.
  14. Donc, l'essentiel des correctifs apportés dans ton propre modèle vont plutôt dans le sens d'une hausse directe ou indirecte des forçages positifs. Je commence à mieux comprendre ton pessismisme Mais pourquoi pas, il faut bien envisager tous les possibles. J'imagine qu'un modèle intégrant des correctifs inverses (réduction plus rapide des taux d'émissions de GES, réévaluation des forçages négatifs, choix d'une sensibilité climatique faible, tendance à la baisse dans les variations courtes de la constante solaire, absence de seuils, etc.) abourtirait au contraire à une conclusion plus optimiste.
  15. A propos du forçage solaire, une étude vient juste de paraître concluant qu'il est responsable de 50% du réchauffement du XXe siècle et de 10-30% du réchauffement 1980-2002 : Scafetta, N. and West B. J. 2005. Estimated solar contribution to the global surface warming using the ACRIM TSI satellite composite. GRL (32), L18713, doi:10.1029/2005GL023849, 2005. Je dois faire un entretien avec les auteurs, mais je ne sais pas trop si ce résultat est solide (je connais mal pour l'instant la question). Aucune idée à ce sujet ?
  16. OK avec certaines conséquences négatives... mais je suggérais que l'on envisage pour une fois les positives ! - C3/C4 et CO2. La distinction C3/C4 (+ les CAM) concerne surtout la manière dont le CO2 est métabolisé (enzyme RuBPc pour C3, PEPc pour C4). Mais il me semble que les C3 comme les C4 tirent leur source principale de carbone du CO2. Il faut aussi rappeler que 95% des végétaux sont C3. Les modèles biologiques de croissance que j'ai pu lire montrent qu'avec un accroissement de CO2 (et sans variations extrêmes à la hausse ou à la baisse des T), les plantes augmentent la photosynthèse et la production de biomasse. (Quant à l'augmentation de surface de la vapeur d'eau ambiante, présentée comme une conséquence du réchauffement, il ne faut pas être grand clerc pour considérer qu'elle n'est pas néfaste à la végétation.) - Les sécheresses ont plutôt augmenté ces trente dernières années dans certains zones (Sahel, sud de l'Afrique, est de l'Asie), mais la tendance séculaire reste une faible amplitude et les disparités régionales sont la règle. Et d'après ce que j'ai lu (Dai 2004), on trouve une meilleure corrélation des épisodes de sécheresse avec l'ENSO qu'avec l'évaporation due au réchauffement. - Les canicules peuvent en effet devenir plus fréquentes... mais on n'en sait pas grand chose. Je n'ai lu nulle part que les canicules aient augmenté entre 1970 et 2006, malgré la forte hausse des T°. Les épisodes européen de 2003 ou américain de 2005 s'inscrivent pour l'instant dans les amplitudes météo. de l'été, pas dans une tendance climato. de long terme. - Idem sans doute pour les parasites. La température n'est qu'un des éléments du cycle de vie des microbes (et en tout état de cause, on ne s'attend tout de même pas à une tropicalisation du monde !).
  17. Je ne porte ici aucun jugement de valeur sur la convention-cadre sur le changement climatique de l'ONU ni sur le protocole de Kyoto. Mais il me paraît difficile de nier que le GIEC en est (partiellement) à l'origine puisqu'il a été créé à cette fin par l'ONU (évaluer les risques pour aider à la décision). Ou alors je n'ai rien compris à ce qui se passe depuis 1988. Pour les effet concrets de Kyoto et autres, on verra bien. L'Europe est censée être en pointe dans ce domaine. Dans la dernière synthèse de l'UE que j'avais lue (2005), l'Europe des 15 n'avait atteint que le cinquième de ses objectifs concernant les réductions de GES (5% de réduction entre 1990 et 2010), alors même qu'une croissance économique médiocre créait un terrain plutôt favorable. L'essentiel des réductions était dû à la fermeture / délocalisation des industries polluantes, alors que les émissions par transport avait augmenté de 25%. Cela laisse en effet dubitatif pour la suite. Quant à la France, elle n'était pas particulièrement bien placée dans ce peloton européen (0,8% > 1990). Faire des "plans ambitieux" quand on ne donne pas l'exemple hic et nunc n'est pas très cohérent (mais sur l'incohérence de la France, il y aurait tant à dire...). De mon point de vue aussi ! Le GIEC présente 18 études sur les effets indirects des aérosols (p. 376 du TAR 2001) dont aucune n'aboutit aux mêmes résultats. Les auteurs précisent aussi que "ces études ne peuvent être considérées comme totalement indépendantes car les plupart d'entre elles utilisent les mêmes méthodes et les mêmes relations entre sulfates et nuage" (377). Raison pour laquelle ils renoncent à donner un intervalle de confiance et une moyenne des estimations avec marge d'erreur. Je n'ai même pas mentionné ici les incertitudes liées aux scénarios (évolutions énergétique, démographique, économique entre 2000 et 2100), qui se combinent à celles-ci. La discussion porte ici sur les conditions présentes et non futures. Quand tu dis "sur ce que l'on connait actuellement relativement bien, le forçage radiatif global est plutôt largement positif.", c'est comme si les faits exposés plus haut ne signifiaient rien. Un forçage radiatif global sans la décomposition de son contenu n'apporte pas grand chose : si les forçages négatifs sont surestimés, le réchauffement actuel et futur dû au GES n'est pas très grave ; s'ils sont sous-estimés, ce réchauffement pourrait être pire que la plus pessimiste des prévisions. Le pb est aussi que bien peu d'auteurs publient des "states of the art" complets de leurs modèles (ou alors, je cherche aux mauvais endroits) et que cette opacité n'est pas de nature à permettre un suivi précis (il serait simple de publier chaque année des benchmark de chaque forçage pour les équipes qui y travaillent). Hansen et son équipe du GISS est l'un des rares à le faire très régulièrement et avec bcp de précision. On en avait parlé, je crois. Dans sa dernière estimation en date (Hansen et al. 2005, Earth’s energy imbalance: confirmation and implications, Science 308, 1431-1434), il obtient un bilan radiatif positif actuel de 0,85 W/m2 représentant un potentiel de réchauffement de 0,6°C. Sans préjuger de ce qui se passera en 2000-2050 en termes d'émissions de GES et d'aérosols. J'avoue que ce bilan d'étape sur les 100 dernières années de forçage me semble bien moins alarmant que ce que l'on entend habituellement.
  18. En effet. Mais cela ne répond pas à mes deux questions : - connaît-on la tendance des Tm françaises sur la période [1900-1980] ? - pourquoi les enregistrements bruts sont-ils plus souvent biaisés à la baisse qu'à la hausse ?
  19. Merci pour la précision. Concernant l'estimation d'une diminution estivale de 40% de l'épaisseur de la couverture glaciaire de l'Arctique à la fin du XXe, elle provient pour l'essentiel d'une étude publiée en 1999 par D.A.Rothrock et al. (Rothrock 1999), confirmée l'année suivante (Wadhams 2000). Mais ce chiffre a été contesté par la suite. (Ci-dessous, un copier-collé d'une synthèse de quelques travaux 2000-2004, qui pouront t'être utiles. La plupart sont dispo. en [pdf]) Peter Winsor a utilisé les données de six sous-marins naviguant sous le pôle Nord et dans la mer de Beaufort entre les années 1991 et 1997. L'analyse des séries de données montre un léger épaississement de la glace dans le premier cas, une diminution tout aussi légère dans le second cas. Winsor remarque : "En combinant les présents résultats avec ceux d'une précédente étude, je conclus que l'épaisseur moyenne de la glace de mer est restée à un niveau à peu près constant au Pôle Nord entre 1986 et 1997" (Winsor 2001). La même année, Walter Tucker et son équipe confirme une réduction de l'épaisseur de la glace dans l'Arctique occidental, au large de l'Alaska, entre les années 1980 et les années 1990. Mais ils ne retrouvent pas eux non plus le même résultat au Pôle Nord. Ils attribuent les différences constatées aux effets dynamiques locaux de la glace, et non au réchauffement (Tucker 2001). Greg Holloway et Tessa Sou (2002) ont souligné un problème d'échantillonnage dans l'étude de Rothrock. Les données proviennent d'expéditions sous-marines ; elles sont de nature limitée (29 points) et locale. Ces données ne reflètent pas nécessairement l'état de la glace mer dans son ensemble. Surtout, cette glace qui recouvre l'Océan arctique est mobile et dépend étroitement du forçage des vents, qui n'était pas pris en compte dans l'étude Rothrock et al. Les vents dominants soufflant sur l'Arctique, et les courants océaniques en découlant, peuvent ainsi déplacer les gains et les pertes de glace du centre vers la périphérie. En utilisant leur propre modèle, Holloway et Sue parviennent à une réduction de la glace de 12 à 16 % seulement pour l'ensemble du domaine arctique. Igor Polyakov et son équipe ont pour leur part étudié l'épaisseur de la glace (1936-2000) et son extension (1900-2000) dans les mers de Kara, Laptev, Sibérie orientale et Chukchi, qui bordent toutes l'Océan Arctique au nord de la Sibérie (Polykov 2003). Ils ont bénéficié pour cela de la déclassification de données russes, permettant une évaluation sur le long terme. Concernant l'épaisseur de la glace, les auteurs constaté des tendances positives dans les mers de Kara et Chukchi, négative dans la mer de Sibérie orientale et de Laptev. En tout état de cause, les variations étaient faibles (environ 1 cm par décennie). Ils en concluent : "L'examen des données [...] indique que les tendances à long terme sont faibles et généralement insignifiantes d'un point de vue statistique, et que les tendances à court terme ne sont pas représentatives". Dans Nature, Seymour Laxon et ses collègues ont récemment souligné la "variabilité internannuelle forte" de l'épaisseur des glaces en Arctique, sur la base de huit années de données satellitaires (ERS1 et ERS2). En hiver, l'épaisseur moyenne de la banquise s'établit selon eux à 2,73 m, avec 24,5 cm (en plus ou moins) de variation chaque année (soit une amplitude de 16%, une demi-fois supérieure aux paramètres actuels des modèles climatiques). Considérant pour leur part que le risque d'amincissement de la glace de mer est réel, ils remarquent néanmoins : 'tant que les modèles ne reproduiront pas correctement la variabilité de l'épaisseur de la glace de mer, fréquente et thermodynamiquement régulée, les changements dans la couverture glaciaire de l'Arctique resteront une question ouverte" (Laxon 2004). Réf. Holloway G., T. Sou (2002), Has Arctic Sea Ice Rapidly Thinned? Journal of Climate, 15, 1691-1701. Laxon S. et al. (2004), High interannual variability of sea ice thickness in the Arctic region, Nature, 425, 947-950. Polyakov I. et al. (2003), Long-term ice variability in Arctic marginal seas, Journal of Climate, 16, 2078-2085. Rothrock D.A. et al. (1999), Thinning of the Arctic sea-ice cover, Geophysical Research Letters, 26, 3469-3472. Tucker W.B. et al. (2001), Evidence for rapid thinning of sea ice in the western Arctic Ocean at the end of the 1980s, Geophysical Research Letters, 28, 2851-2854. Wadhams P. et al. (2000), Further evidence of ice thinning in the Artic Ocean, Geophysical Research Letters, 27, 3973-3975. Winsor P. (2001), Arctic sea ice thickness remained constant during the 1990s, Geophysical Research Letters, 28, 1039-1041.
  20. Alain J'en profite que tu reviennes qur la banquise pour te reposer plusieurs questions que j'avais postées voici une semaine (mais tu étais sans doute absent et à ton retour, elle avait filé en page 2). Dans une autre discussion (pression de bush...), tu as posté des données sur l'extension de la banquise arctique : Les responsables de la base de l'Université de l'Illinois (Walsh et Chapman) soulignent qu'elle fait intervenir deux types de données assez différents : avant 1972, des relevés ponctuels par navire ou mission météo ; depuis 1972, une couverture globale par satellite. On remarque que la tendance plus nette à la baisse commence vers cette période. Y a-t-il selon toi un biais de mesure ou est-ce uniquement dû au rebond des temp. depuis cette date (voir ci-dessous) ? Deuxième chose : pourquoi le comportement de la banquise ne suit apparemment pas directement celui des températures ? Si l'on voit la carte ci-dessous (de : Variability and trends of air temperature and pressure in the maritime Arctic, 1875 - 2000, Igor V. Polyakov et al.), qui concerne la zone 62°N-pole, on constate un réchauffement élevé entre 1910 et 1940, un refroidissement 1950-1972 et une nette hausse depuis 1972. (Les temp. sont en haut, en bas c'est la pression au niveau de la mer ; désolé pour la résolution assez médiocre, mais on voit quand même bien les tendaces). La tendance 1910-40 était de +0,3°C / décennie, celle de 1980-2003 est de + 0,4 °C/ décennie (par rapport à la moyenne 1961-1990). Or, dans le premier graphe, les banquises n'ont pas vraiment fondue pendant le réchauffement 1910-40 ni franchement augmenté pendant le refroidissement 1950-72. Y a-t-il d'autres facteurs ?
  21. Après l’introduction théorique, voici quelques données. Le schéma ci-dessous est extrait du troisième rapport du GIEC, dernière synthèse disponible. Il s’agit des différents forçages évoqués plus haut, entre la période pré-industrielle (1750) et la fin du XXe siècle. J’ai ajouté en rouge (forçages positifs) ou en bleu (forçages négatifs) les valeurs exactes concernées (en W/m2). Ce qui est frappant, c’est l’incertitude extrême du GIEC. Les mentions L et VL en bas signalent « low » et « very low level of understanding ». On s’aperçoit qu’à l’exception des forçages des GES et de l’ozone (bien et moyennement connus), tous les autres sont incertains à très incertains. Ce qui est évidemment problématique, car la part relative des GES dans le réchauffement (objet principal de l’inquiétude populaire et du Protocole de Kyoto) ne peut être évaluée qu’en fonction des autres forçages. Le cas le plus critique concerne les effets indirects des aérosols (par baisse de la taille moyenne des gouttelettes des nuages augmentant leur aldébo et leur durée) évalués… entre 0 et -2 W/m2. Soit un effet allant de nul à quasiment équivalent (en sens inverse) à celui des GES. On pourrait se dire que les incertitudes ici mentionnées et reconnues tiennent au fait que le GIEC synthétise sur une période très longue (250 ans), où les enregistrements plus précis ne sont arrivés que dans les vingt ou trente dernières années. Hélas, il n’en est rien. Le National Research Council of National Academies (USA) a fait paraître en 2005 un bilan d’étape : Radiative forcing of climate change. On peut le lire page à page sur le net (c’est fastidieux, on peut aussi télécharger les 200 pages en [pdf] pour 20$). Il en ressort que les améliorations apportées par 20-30 années d’enregistrement plus précis n’ont fait qu’ajouter aux incertitudes. On s’est par exemple aperçu que la sensibilité climatique d’un forçage donné varie selon qu’on le mesure en tropopause (TOA = top of atmopshere) ou au sol (autrement dit que l’effet thermique du forçage est souvent disproportionné entre la surface et l’atmosphère). C’est le cas pour les aérosols absorbants (type suies carbone noir) par exemple, qui modifient la distribution de la chaleur dans les couches de l’atmosphère. D’où la création récente du concept « forçage efficient », qui est le ratio entre la sensibilité climatique réelle de chaque forçage et celle (standard) d’un doublement du CO2. Le modèle INDOEX (océan Indien) a par exemple analysé quatre années d’aérosols (1996-1999) : il en résulte que le forçage (direct+indirect) en surface est de -20 W/m2, alors qu’il est de +15W/m2 en atmosphère. Conclusion : les données valables ne sont pas celles de la tropopause, mais celle de la moyenne surface-atmosphère. Et cela en tenant compte des propriétés de distribution thermique de chaque type de forçage. (Voir ici la plus récente synthèse de Hansen et al 2005, mais sur la base de leur seul modèle du GISS, un parmi vingt autres). Le rapport du NRC mentionne aussi les autres inconnues des méthodes actuelles du forçage radiatif : cycle de la vapeur d’eau, modifications de la nébulosité, effets régional et global des modifications d’usage du sol, mesures régionales de l’effet thermique du bilan radiatif (qui sont en fait les seules mesures intéressantes en terme de vulnérabilité / adaptabilité des sociétés, mais que les modèles ne savent pas donner pour l’instant). Et il faudrait bien sûr faire des synthèses (ce qui impossible ici) de la littérature récente sur chaque forçage, montrant des variations allant parfois du simple au double, voire inversant les évaluations du GIEC (un seul exemple : Jacobson 2004 considère que la combustion de la biomasse, notée BB dans le schéma ci-dessus et évaluée à -0,20 W/m2 par le GIEC, doit plutôt être compté comme forçage positif sur les long intervalles, car l’effet aldébo de la combustion est vite supplanté par le surcroît de GES atmosphérique). ** La conclusion provisoire est simple : les modèles sont très imparfaits et très perfectibles pour ce qui est de l’estimation du forçage radiatif (nous verrons après l’estimation du coefficient de sensibilité climatique, second ingrédient nécessaire à la projection des températures au XXIe siècle.) Que les modèles présentent de tels défauts est chose normale en science. Et les chercheurs sont les premiers à le reconnaître en climatologie, ce qui est tout à leur honneur. Ce que je ne comprends pas très bien, c'est la raison pour laquelle les résultats de ces modèles imparfaits sont considérés comme une quasi-certitude et servent de fondement à la décision publique en ce domaine.
  22. J'ai une autre question, purement technique cette fois, toujours relative au premier post de Jean. On a vu que l'homogénéisation des données de Châteauroux fait passer cette station d'une baisse des Tm (ou d'évolution non significative) à une hausse. Il semble que c'est très souvent le cas. Dans une thèse qu'on avait eu l'amabilité de me signaler ici (Méthodes statistiques pour l'homogénéisation des séries climatiques), Olivier Mestre donne cet exemple de synthèse de correction des Tn sur plusieurs stations (p. 156) : On voit que tous les enregistrements "froids" (vert clair, vert foncé, bleu, bleu foncé) ont disparu et sont devenus "chauds". Dans cette même thèse, Olivier Mestre signale que la principale source d'erreur en données brutes pour les Tn/Tx (et donc Tm) est l'emplacement de la station et son exposition (p. 92). Si l'homogénéisation aboutit en moyenne à des corrections à la hausse, cela signifie que les enregistrements bruts étaient biaisés vers la baisse. Ce que j'ai lu à ce sujet jusqu'à présent (constructions, haies, abri trop petit ou pas assez ventilé, etc.) me semblait plutôt suggérer l'inverse (enregistrement brut à la hausse, laissant attendre une correction à la baisse). Or, les facteurs de baisse sont au contraire globalement plus importants. D'où ma question : quels sont les différentes erreurs d'emplacement et d'exposition qui aboutissent à des résultats trop froids dans la mesure des T ?
  23. Grâce à l'URL donnée par Jean, j'ai pu trouver pas mal de cartes de tendances des stations françaises. Un point intéressant est que dans la plupart on remarque le phénomène signalé plus haut à Châteauroux, à savoir que la décennie 1980-2000 est celle qui pèse le plus nettement sur la tendance séculaire au réchauffement (plus précisément les années 1985-2000, cf. carte ci-dessous où l'on voit dans les trois cas vers 1985-1988 l'amorce du réchauffement récent dont l'amplitude dépasse nettement les précédentes variations). Voici trois autres exemples de Rothau, Belfort et Strabourg (villes petite, moyenne, grande donc - je n'ai pas trouvé Hegeney, qui est un hameau rural mais dont les données sont sur 1912-2000). Quelqu'un connaît-il un travail de synthèse sur l'évolution des Tm [1900-1980] en France ? Il serait intéressant de voir le poids exact des deux dernières décennies dans la tendance du siècle passé.
  24. Merci pour ces cartes. De fait, l'homogénéisation des données contraint à la hausse (cas similaire aux EU, où les données brutes des stations rurales donnent un redroissement de -0,05°C, qui devient approx. +0,20°C après homogénéisation). Ce qui est intéressant à observer sur Châteauroux et Ouessant (et en lien avec la remarque d'Alain) est que l'on n'observe aucune tendance claire (en tout cas forte) sur ces deux cartes entre 1900 et 1985-90 (à vue d'oeil, il faudrait faire une droite de régression sur cette tranche si vous avez les données). En revanche, et dans les deux cas, il semble que ce sont les fortes hausses 1985-2000 qui imposent la tendance nettement positive à l'ensemble. En est-il de même pour d'autres stations françaises ? Autre point : il serait intéressant de comparer ces courbes homogénéisées avec celles d'autres villes plus peuplées ou ayant connu une plus forte croissance (Châteauroux : env. 25.000 hab en 1900, env. 50.000 aujourd'hui ; la tendance à la hausse est-elle de même amplitude à Toulouse Paris, etc. ?). * Sinon, je souhaite acquérir de telles données homogénéisées sur d'autres stations (70 disponibles pour les T°) afin de faire précisément des études plus détaillées. Malhereusement, le devis reçu de MF est à 200 euros HT pour chaque station, ce qui freine mon ardeur...
  25. Euh... je ne comprends pas votre réponse, ni le rapport de la citation avec le rayonnement solaire ou la glaciation. En fait, la discussion lancée ici concerne une présentation des modèles théoriques / informatiques utilisés en climatologie pour analyser et anticiper l'évolution du climat, notamment celle des températures à partir du bilan radiatif. Je pense que le mieux est de fragmenter les sujets pour éviter de disperser le contenu chacun d'entre eux. S'il existe une hypothèse sur l'influence récente du rayonnement solaire ou une hypothèse sur une glaciation imminente, je suggère d'en faire des sujets à part entière et de commencer ces posts par une présentation précise desdites hypothèses.
×
×
  • Créer...