Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

skept

Membres
  • Compteur de contenus

    142
  • Inscription

  • Dernière visite

Tout ce qui a été posté par skept

  1. Tu m'as mal lu ou je me suis mal exprimé : les "hésitations" viennent d'abord de cette évidence que nous ne pouvons pas maintenir notre niveau de développement matériel – ni y accéder pour les nombreux autres – avec un mix énergétique garantissant 450 ppm au maximum (environ 80% de réduction des émissions d'ici 2050, c'est-à-dire demain en termes énergétiques). Donc nous n'accepterons de nous tirer une balle dans le pied, c'est-à-dire nous priver des énergies les plus faciles d'accès et de transport sur lesquelles fonctionnent la plupart de nos infrastructures en place, que s'il y a une raison forte de le faire, en clair s'il devient évident que la sensibilité est élevée et si les événements extrêmes commencent à peser de leur poids. Faire passer l'éolien à 10 ou 15% de l'électricité, c'est assez "facile" ; passer à 80% renouvelable, ce n'est pas crédible dans l'état des technologies. J'ai quand même avancé quelques arguments chiffré sur l'énergie auxquels tu ne réponds pas : je me trompe peut-être, il suffit de me démontrer que la transition post-fossile est aisée, que des pays y parviennent sans douleur ou que des experts la modélisent sans difficulté (le SRREN 2011 du GIEC n'y parvient pas, malgré les effets d'annonce de son communiqué). Tu peux croire de ton côté que ce sont les méchants sceptiques ou les affreux conservateurs américains qui bloquent tout, mais cette analyse est peu crédible. Les conservateurs américains maintiennent à bout de bras un modèle énergivore en phase d'échec manifeste, mais ce n'est pas eux qui font bondir les émissions depuis 2000, ce sont les émergents. En Europe, où l'opinion est massivement non-sceptique, où les décideurs sont acquis au RCA, où nous supportons un haut niveau de taxe, notamment sur l'énergie, où nos libéraux ressemblent plutôt aux démocrates américains qu'aux républicains tant ils acceptent un niveau élevé de prélèvement, en Europe donc je te rappelle que nous n'avons pas tenu les (maigres) engagements de Kyoto si l'on inclut l'énergie grise de nos importations (un peu facile de décarboner quand on importe des BRIC), voir Davis et Caldeira 2010, Peters 2011. Et tu crois que cette Europe aujourd'hui exsangue, surendettée publiquement, ayant à peine raté Kyoto qu'elle doit converger vers le plan énergie-climat 20-20-20 en 2020, va pouvoir concrètement passer à la vitesse supérieure? Tu crois que c'est juste le problème des "arrangements politiques"? Eh bien tu as une drôle d'idée de la politique... La politique n'est pas du "yaka fokon", et ce ne sont pas les modèles climatiques qui changeront cette réalité.
  2. Je ne crois pas (voir aussi mon autre message, posté à retardement). C'est une caricature de dire que seuls les financiers font du calcul coût-bénéfice : nous le faisons tous dans notre vie quotidienne (quand nous consommons, épargnons, planifions nos activités, etc.), et le gouvernement démocratique depuis un bon siècle consiste à faire cela (la statistique, comme son nom l'indique, est une science d'Etat ; du moins elle s'est développée comme telle à partir du XIXe siècle, quand il est apparu évident que les décisions politiques affectaient des masses de plus en plus importantes et qu'il fallait bien calculer les effets de ces décisions, et avant cela évaluer les situations qui appelaient ces décisions). Connais-tu un seul programme politique qui consiste à dire : "contrairement aux financiers, nous n'évaluons absolument pas les coûts et bénéfices de nos mesures, chers concitoyens" ? Mais ce qui est aussi important, c'est que nous ne mettons pas la même chose dans la catégorie coût ou bénéfice. Et la démocratie intervient aussi sur ce plan là, celui des fondements de nos valorisations. Si je te dis que le destin de l'ours blanc ne pèse pas très lourd dans mon appréciation des coûts, tu peux t'en plaindre, t'en offusquer ou m'opposer tes propres vues. Mais tu ne peux pas me démontrer scientifiquement que mon empathie pour l'ours blanc est bonne ou mauvaise en soi : c'est un désaccord philosophique, esthétique et politique entre nous, il faut l'accepter comme tel. (Si l'on accepte la démocratie, on peut aussi interdire les idées que l'on n'aime pas mais ce n'est plus démocratique). Note bien que je n'ai rien contre l'ours blanc, on va le prendre comme une métaphore. Par exemple si nous pouvons démontrer que l'on peut améliorer de 15% l'IDH d'ici 2100, mais que cela fera disparaître 15% des espèces : eh bien des gens diraient qu'il faut améliorer l'IDH et accepter des pertes en biodiversité, d'autres qu'il faut préserver les espèces et accepter une limitation du bien-être humain. Ce désaccord-là n'est pas soluble dans la rationalité sccientidique, ce sont deux visions antagonistes de l'Anthropocène.
  3. Un point soulevé par paix et par Sirius demande réflexion, je n’ai fait que l’aborder dans le message précédent. C’est celui de la rationalité face au risque. Dupuy (comme dans une certaine mesure paix) pose que nous avons une rationalité limitée face au risque : quand il est lointain, avec éventuellement des probabilités faibles, nous n’en tenons pas compte ou nous préférons le nier pour assurer notre confort mental (éviter la dissonance cognitive). C’est un fait connu (par la psychologie expérimentale) que nous avons tendance à préférer un gain immédiat à un gain lointain, et cela même si le gain lointain est un peu plus élevé. Ou, dans le même domaine, que l’aversion à la perte est plus forte que l’appétit du gain, ce qui maintient plutôt le statu quo. Il faut tout de même pondérer cela par d’autres observations. Prenons un exemple réel : le tabac et l’alcool tuent ensemble une dizaine de millions de personnes par ans dans le monde, et indirectement augmentent la morbidité pour des dizaines de millions d’autres. Ce sont des risques immédiats, visibles, palpables (et non pas lointains, incertains, abstraits), touchant nos proches, ainsi que des coûts énormes pour les systèmes de santé publique. Il n’empêche que nous ne prenons aucune mesure radicale (et finalement simple) comme l’interdit du tabac et de l’alcool. Il n’y a pas proportionnalité entre la réalité du risque et la radicalité de la mesure – on interdit certaines substances dont le risque est beaucoup plus faible. Les mesures que nous prenons (informer et taxer les produits) n’ont qu’un effet limité sur la consommation (qui ne disparaît pas). On peut dire que cette situation n’est pas rationnelle, mais on perçoit la possibilité d’un excès inverse : au nom d’une chasse systématique au risque, paralyser l’action humaine par peur de la moindre conséquence négative. Et arriver à une solution qui, rationnellement motivée, deviendrait collectivement irrationnelle. Autre exemple concret, montrant l’approche complexe du risque : près d’un milliard de personne souffrent de dénutrition ou de malnutrition, ce qui est une des premières causes de mortalité ou de morbidité (handicaps du développement physiologique et cognitif). Pourtant, alors que c’est manifestement le problème n°1 si l’on s’en tient à la rationalité du chiffre et des souffrances évitables qu’il implique, la faim dans le monde n’est quasiment pas présente dans les programmes des partis politiques de pays ayant la possibilité d’agir (voir le dernier essai de Jean Ziegler à ce sujet). En business as usual, cela signifie que l’on accepte froidement la mort prématurée de milliards de gens d’ici 2100. Mais dans ce cas, il faut supposer que le réchauffement climatique sera considéré comme « sérieux » s’il parvient à son tour à affecter encore plus de gens que la faim aujourd'hui (ce qui place la barre très haut...). Il n’est pas particulièrement « rationnel » de parler de l’un (qui est un risque futur) en tolérant le silence sur l’autre (qui est un problème présent). Et il n’est pas évident du tout de hiérarchiser les actions pour affronter ensemble ces deux problèmes (dois-je faciliter les engrais et la mécanisation, ce qui est une des premières réponses à la sous-productivité dramatique de l’agriculture en Afrique et en Asie du Sud, mais ce qui va globalement dans le mauvais sens pour les équilibres climatiques et environnementaux ?) Il est intéressant d’observer que Jean-Pierre Dupuy a développé son hypothèse du « catastrophisme éclairé » (titre de son essai) dans le cadre d’une réflexion hostile au nucléaire, commencée chez lui après les 20 ans de Tchernobyl. A partir du moment où l’on ne peut pas prédire l’issue d’un cœur entré en fusion (ce qui est exact), on doit considérer toute centrale comme une bombe en puissance (prendre la pire des hypothèses d’accident), donc finalement sortir du nucléaire (il n’est pas raisonnable de construire des bombes en puissance dans des zones peuplées). Mais comme Dupuy élargit son raisonnement (sortir du fossile en prenant la pire hypothèse climatique), il ne reste plus que le renouvelable. On en arrive à mon avis à une contradiction : sortir à la fois du fossile et du nucléaire est un choix qui présente à son tour des risques, et notamment des trajectoires de risque élevé (on ne peut pas exclure un clash économique suivi de toutes sortes de conséquences odieuses, comme après 1929 mais à l’échelle du globe et non plus de l’Europe). Dès lors, ce qui était censé faciliter la décision (le qualificatif « éclairé » dans catastrophisme éclairé) finit par l’obscurcir, car il est toujours possible de trouver un risque très élevé à probabilité très faible dans la trajectoire d’un système complexe ou chaotique. En clair, si l’on fait un raisonnement probabiliste, aucune décision dans un sens ou dans un autre ne peut absolument garantir à 100% qu’elle ne produira pas de catastrophe. La « rationalité » se trouve alors dans une impasse. Pour en sortir, on en revient à des raisonnements moins maximalistes que celui de Dupuy (ou des partisans d’une interprétation forte de principe de précaution) : faire un calcul coût-bénéfice en prenant les probabilités centrales et en excluant les trajectoires les plus improbables des modèles (que ces modèles soient climatiques ou économiques). C’est insatisfaisant, mais il est difficile de faire autrement : nous serons toujours sous-informés sur le futur, nous ne prenons pas les meilleures décisions à la lumière de la vérité absolue, mais dans ce que nous estimons la moins mauvaise connaissance des conséquences probables de nos actes. Et c’est à mon avis sur ce point que l’on attend des précisions dans le débat public : essayer de préciser les probabilités du réchauffement attendu, mais aussi celles concernant les conséquences économiques et sociales de scénarios énergétiques. De toute façon, comme Copenhague et Cancun ont acté l’objectif de 2K, il devient inévitable que l’on explique aux populations ce que cela signifie.
  4. Bonjour Très intéressants développements. Je vois les choses ainsi. Le débat public (et non pas le débat scientifique, c’est un autre problème) a été rapidement « pourri » par des positions assez extrémistes, plus aux Etats-Unis qu’en Europe (mais c’est vrai dans les deux sociétés). Dans le camp sceptique, on a voulu nier à tout prix certaines évidences, par des moyens rarement honnêtes intellectuellement comme celui consistant à remettre en cause l’intégrité de toute une communauté de chercheurs ou celui revenant à monter en épingle des détails peu significatifs ou des hypothèses totalement marginales. Dans le camp alarmiste, certains ont saisi l’opportunité du climat pour alimenter un vieux fonds de commerce idéologique consistant à remettre en cause le capitalisme, le progrès, la technique, la modernité, l’industrie, etc. Là, la manipulation a consisté à nier toute incertitude dans les résultats actuels de la recherche et à sélectionner les hypothèses les plus graves, pour « vendre » de la catastrophe. Chacun de ces camps a pu bénéficier de la complaisance des industriels intéressés par l’enjeu – il est notoire que les pétroliers ont financé des sceptiques, mais aussi que les partisans du nucléaire ou certains lobbies du renouvelable ont usé du réchauffement dans leur communication commerciale visant à convaincre les décideurs et gagner des parts de marché énergétique. Le problème est le suivant : • On ne sait pas encore si le réchauffement climatique posera un problème modéré, grave ou très grave, sachant que ces estimations de risques sont en partie subjectives. Certains pensent qu’une hausse de 3K à l’équilibre serait déjà très grave, notamment pour l’environnement, d’autres pensent que l’humanité arriverait à la gérer et que c’est le problème essentiel, l’environnement étant secondaire dans les choix politiques humains. De façon générale, il existe dans de nombreux domaines des probabilités très faibles de risques très élevés, mais on les prend pas en compte dans la décision car cela interdirait de faire quoi que ce soit ou cela aurait des conséquences démesurées. Par exemple à chaque épidémie de grippe, vu que les modèles épidémiologiques donnent des trajectoire peu probables mais très graves avec des centaines de millions de morts, il faudrait si l’on intégrait systématiquement la pire trajectoire possible arrêter tout voyage humain et trafic commercial pendant quelques mois, vacciner de force les populations, etc. Nous ne le faisons pas parce que le rapport coût-bénéfice paraît défavorable au regard des faibles probabilités du scénario le plus noir ; • On n’a pas encore de solution évidente, quelle que soit la gravité finalement reconnue du problème. Si, comme pour l’ozone et les CFC, il suffisait d’une réforme assez mineure de nos process industriels pour éviter un changement climatique dangereux, il n’y aurait même pas de débat et la réforme en question aurait déjà été adoptée. Mais voilà, l’énergie est un fondement (une condition nécessaire) de l’activité humaine moderne, en commerce, agriculture ou industrie, elle est solidement corrélée au bien-être au sens de l’indice de développement humain, et cela fait déjà plus d’un siècle que cette énergie est à 80% fossile dans le mix global. Cela fait aussi un siècle que l’on entend des promesses radieuses – les débats sur l’hydrogène ou la voiture électrique existaient déjà en 1900, les partisans du nucléaire pensaient en 1950 que cette énergie serait trop abondante pour être mesurée, et serait donc gratuite, le choc pétrolier des années 1970 avait déjà réveillé les ardeurs sur la révolution des énergies douces et décentralisée, non accomplie dans les décennies suivantes, etc. La réalité est que si nous voulions vraiment limiter à 450 ppm (a fortiori 350 ppm comme le soutient Hansen 2008), cela demanderait un effort constant et assez extraordinaire. Le fait de diviser cet effort en petites parts dans un triangle de stabilisation (Pacala et Solow) ne suffit pas à masquer les problèmes que l’on rencontre dans chacune de ces parts : les gains d’efficience ont une croissance modérée, surtout dans les technologies matures comme le moteur à combustion ou les turbines ; on ne sait pas efficacement stocker l’électricité quand elle a une source fatale et intermittente, et les régions les plus venteuses ne sont généralement pas les plus consommatrices (besoin de changer la grille et le réseau haute tension) ; les biocarburants trop rapidement célébrés au début des années 2000 se révèlent sources de problèmes environnementaux (monoculture intensive), économiques (très peu d’intérêt en climat tempéré, l’éthanol dérivé du maïs américain est subventionné et dépense parfois plus d’énergie qu’il en apporte) et humanitaire (forte pression sur les surfaces et donc sur les prix des cultures alimentaire au détriment des plus fragiles) ; le nucléaire rencontre de fortes oppositions dans les populations, a des coûts cachés, pose divers problèmes géopolitiques et est scotché autour de 5% de l’énergie primaire depuis assez longtemps ; la capture carbone (CCS) reste expérimentale, oblige à produire plus d’électricité pour avoir la même consommation finale, pose le problème de stabilité du stockage dans la durée ; le solaire PV ou à concentration a un rendement surfacique encore faible et les régions les plus ensoleillées ne sont pas toujours les plus consommatrices. Et ainsi de suite. Donc chacune des parts du triangle de stabilisation de Pacala et Solow court le risque d’une estimation trop optimiste sur ce qu’il est possible de faire, sachant que les transitions énergétiques connues se font en générations, pas en années (il faut en moyenne une cinquantaine d’années pour qu’une source d’énergie nouvelle atteigne 15-20% du mix total après sa première exploitation commerciale à grande échelle ; et l’on voit au succès persistant du charbon depuis 1820 que ce domaine est très conservateur). Pour simplifier, les solutions alternatives sont partielles et dans l’ensemble, elles sont presque toujours plus coûteuses que les solutions fossiles en place, au moins dans la manière dont le système en place évalue les coûts. Or, le gros de la hausse des émissions attendue d’ici 2100 vient des émergents, c’est-à-dire de pays nettement moins riches que les développés et n’ayant pas de grandes marges de manœuvre : quand il faut construire la base d’un pays (des routes, des bâtiments, des systèmes d’épuration et d’irrigation, etc.), choisir la solution la plus chère devient vite ruineux et se traduit en vies humaines perdues, ou en qualité de vie amoindrie. Si 9 milliards d’humains avaient chacun 100GJ/an en 2050, ce qui est un chiffre permettant un bon score dans la plupart des items de l’IDH (éducation, santé, revenu, qualité de vie), il faudrait produire 900 EJ à cette date, près du double d’aujourd’hui. Même si les Occidentaux se serraient la ceinture pour faire de la place aux émergents et aux plus pauvres, même si les gains d’efficience permettaient de limiter à 700 EJ/an, parvenir à ce chiffre sans fossile ou avec peu de fossile paraît largement hors de portée. Dans le dernier rapport GIEC sur le renouvelable (SRREN 2011), la médiane des 164 scénarios les plus optimistes donnent environ 248 EJ/an en 2050. Le plus optimiste de tous donne 428 EJ/an (le fait que scénario particulier soit produit par Greenpeace et l’EREC, c’est-à-dire un lobby politique et un lobby industriel, incite quand même à la prudence sur la validité du chiffre). Donc on voit qu’en dehors d’une remise en cause assez large de notre développement (et non de mesurettes inoffensives), il sera difficile de ne pas produire plusieurs centaines d’EJ/an avec du fossile en 2050, comme nous le faisons aujourd'hui. Pour moi, ce sont ces réalités qui expliquent en partie la forte pression sur le débat climatique : pour prendre des décisions assez graves qui affectent la vie des gens, nous avons besoin de certitudes assez robustes sur les dangers que ces décisions veulent éviter, et de certitudes assez transparentes sur leur méthode de construction et de communication. Malgré cela, je pense que l’on peut parvenir un consensus raisonnable de base sur la nécessité de diversifier les sources d’énergie – par sécurité climatique, géologique et géopolitique –, sur le grand besoin de R&D pour rendre le renouvelable compétitif et moins gourmand en surface, sur la nécessité de procurer l’électricité aux 1,5 milliards d’humains qui en sont totalement dépourvus avec des solutions les moins carbonées possible, soutenues par l’aide au développement, sur le besoin de ne pas dogmatiquement rejeter des technologies (nucléaire, OGM) qui seront très certainement utiles pour ne pas alourdir le bilan carbone. Et bien sûr sur la nécessité d’améliorer notre compréhension physique du climat, avant cela notre mesure du climat (on tire la sonnette d’alarme en ce moment sur le risque de « trous » dans la couverture satellite, car les programmes ne sont pas prêts en temps et en heure). PS : J’ai vu un papier de Sandrine Bony et al sur le fait que le CMIP 5 aura la même fourchette de sensibilité que le CMIP3, c’est-à-dire grosso modo que le rapport Charney. Les chercheurs insistaient sur la nécessité de travailler la physique de base sur les points incertains (meilleures observations, meilleures théories, meilleur contrôle du couple observation-théorie par modélisation), et non pas de penser ou laisser penser que l’augmentation de la puissance de calcul finira par donner des résultats de plus en plus précis dans les projections, ce qui est maintenant contredit par trente ans de données empiriques. Cela semble une évidence, mais c’est quand même bon de le rappeler. Mais là c’est un autre point de la question climatique : non plus le débat politique (débat de société), mais le débat scientifique et la manière dont il est communiqué au public depuis une quinzaine d’années). Ce qui me paraît sûr, mais Sirius me contredira peut-être, c'est que le débat politique aura encore pour un certain temps comme arrière-plan une fourchette assez large d'incertitude, il ne faut as espérer qu'en 2020 on soit fixé sur la ensibilité à la décimale près, ni même à l'unité près je le crains. http://conference2011.wcrp-climate.org/orals/A4/Bony_A4.pdf
  5. Bonjour, Pour reprendre cette discussion, mon point de vue est le suivant : si les sociétés humaines ont assez d’énergie et de ressources pour changer de manière importante et durable le climat, elles ont probablement assez d’énergie et de ressources pour s’adapter aux changements climatiques ainsi produits. Je vais donc tâcher de déployer un peu d’optimisme ;-) Les scénarios du GIEC les plus intensifs en termes d’émission sont aussi ceux qui prévoient la plus forte croissance économique de l’humanité. Le scénario A1 est impressionnant de ce point de vue… (de mémoire c’est 5% par an du PIB mondial, ce qui est énorme en intégrale sur un siècle). L’essentiel de cette croissance au cours du siècle est prévue, non dans l’OCDE, mais dans le rattrapage des pays émergents et des pays dits les moins avancés. C’est ce qui se passe depuis une quinzaine d’années. On ne doit donc pas imaginer le Bangladesh à son niveau socio-économique actuel face à un climat réchauffé en 2100 : mais bien le Bangladesh avec le niveau actuel d’un pays européen. Ou alors il fait revoir les scénarios, donc le forçage, donc le réchauffement. Outre la croissance économique, et le changement technologique qui lui est associé depuis deux siècles, le facteur le plus important pour l’adaptation climatique (et pas seulement elle) est de nature sociopolitique. On vit mieux en démocratie qu’en dictature, il y a moins de famine, plus d’espérance de vie et moins d’inégalité (en moyenne). On vit mieux avec un Etat redistributeur que dans la loi de la jungle. On vit mieux dans la concertation et la négociation que dans le rapport de force et la prédation. Etc. Cela concerne les sciences humaines et sociales, pas les sciences physiques, mais c’est de première importance quand on réfléchit à l’avenir de l’humanité face au climat. On peut être pessimiste et dire que le climat va forcément exacerber toutes les tensions. Mais est-ce vérifié dans les faits ? Les catastrophes accélèrent aussi bien la recherche de solution concertée à des problèmes communs – on a parfois vu les plus vieux ennemis du monde se tendre la main à l’occasion d’un séisme, d’une famine, etc. Et de façon générale, avec le développement extrême des moyens de communication, on assite surtout à la mondialisation des problèmes et des prises de conscience : on ne peut plus faire une mocheté ou vivre un drame dans son coin sans que l’opinion et la communauté mondiales soient alertés. On vit vraiment sur la même planète car on a les moyens de faire circuler en temps réel des textes, des images, des témoignages. Homo sapiens adapte peu à peu son comportement à son information, s’il ne connaît que son village il ne peut pas penser au-delà, par définition. Je suis assez confiant dans la prise de conscience globale, planétaire, qui va marquer les générations à venir. Enfin, il existe déjà une grande vulnérabilité aux changements climatiques non forcés : dans un pays pauvre et désorganisé, un cyclone de même intensité fait bien plus de morts que dans un pays riche ; idem pour une crue, une sécheresse, etc. Regardez le bilan des typhons en Asie, leur bilan change d’un facteur 10 selon le coin touché, et c’est énorme en mortalité. Pareillement en ce qui concerne les événements extrêmes, quand 50 à 80% de la population dépend encore d’une agriculture peu productive, la situation est la même que chez nos ancêtres. Rappelons que la grande famine du petit âge glaciaire a fait 1,4 million de mort en France seulement, soit 7% de la population de l’époque (1693-1695). Donc il est clair pour moi que la réponse à cette variabilité naturelle est prioritaire (et de toute façon préparatoire) par rapport à une variabilité forcée future. La Somalie n’a pas besoin d’un climat stable en 2100, elle a besoin en 2011 face aux sécheresse à répétition qu’elle conaît depuis plusieurs décennies déjà d’un système moderne de distribution d’eau, d’une paix sociale plutot qu’une guerre civile, et d’une agriculture plus productive que le pastoralisme d’un autre âge, peut-être adapté quand il y avait dix fois moins de Somaliens à nourrir (et donc de bétail avant), mais aujourd’hui dépassé. A mon sens, si ces scénarios économiquement optimistes se réalisent, une question de plus en plus importante sera le non-humain (faune, flore, milieux) : la préservation de la biodiversité déjà menacée par l’économie et le climat passera forcément par les choix les moins dégradants dans notre développement. C’est-à-dire que si l’humanité devient riche, il faudra qu’elle accepte de l’être un peu moins en s’imposant des normes environnementales de plus en plus contraignantes, en cherchant des technologies toujours plus prpres pour le même service rendu. Ce qui est déjà un peu la tendance chez les développés (nous protégeons notre forêt, nous créons des parcs naturels, nous avons des lois sur la qualité de l’air, nous restreignons l’urbanisme, etc.) , mais les autres n’en sont pas là (ils ont encore en phase de sortie de la pauvreté, ce n’est pas leur priorité). Voilà ce que je voulais dire. Maintenant, on peut faire un scénario plus optimiste pour le climat, mais beaucoup moins pour l’homme : que l’on manque d’énergie plus tôt que prévu et sans alternative au fossile. Là, le forçage serait plus proche du scénario B2, mais l’état de l’économie, de la société et de la politique humaines serait peut-être beaucoup, beaucoup plus sombre…
  6. Elle est implicite et essentielle dans cette définition, parce les 3,7 W/m2 de forçage CO2 (doublement) ne produirait qu'environ 1 K de ∆T à l'équilibre toutes choses égales par ailleurs. Ce sont les rétroactions qui vont faire varier cette valeur d'équilibre et, dans l'ensemble, elles ne s'annulent pas selon les modèles (les positives l'emportent sur les négatives). Tout le monde reconnaît qu'une des incertitudes mal contraintes de ces rétroactions, c'est par exemple l'ensemble vapeur d'eau, gradient thermique et nuage en zone tropicale. Sur le carbone, il y a encore beaucoup de progrès à faire pour estimer les rétroactions en couplant en routine des AOGCM avec des modèles du cycle carbonique. Etc. Le débat est en fait un débat technique sur la bonne estimation de ces rétroactions (plutôt que sur d'hypothétiques mécanismes inconnus, qu'il faudrait découvrir et qui auraient une grande influence au cours de ce siècle). Le rapport de synthèse l'exprime ainsi dans le chapitre "Climate sensitivity and feedbacks" :
  7. Je suis d'accord avec l'observation de "paix" ci-dessus. Il me semble que c'est une des raisons pour lesquelles certains suggèrent la valeur de 2 K / préindus comme un objectif à ne pas dépasser : non pas que ce seuil soit dangereux en soi (personne ne l'a jamais démontré et pour l'instant, les modèles ne suggèrent pas d'effets de seuil particulier à 2 K), mais parce qu'il serait inédit pour un interglaciaire d'avoir une T supérieure à cela, donc on n'a aucun indication empirique sur ce que cela pourrait donner au-delà. Les incertitudes sont liées ici au cycle du carbone et au comportement des glaces (Groenland, Antarctique) plutôt qu'à tel ou tel changement brutal de la circulation A-O. Mais pour revenir à la remarque de Starman (aussi finalement à l'objection de paix), c'est une question que je me suis souvent posée : si la sensibilité est la T d'équilibre après rétroaction à un forçage dans un système donné, pourquoi la sensibilité d'une transition interglaciaire et la sensibilité d'un interglaciaire tempéré seraient les mêmes? Vu ce que je lis, on les compare comme étant différents moyens d'estimer la même grandeur (voir Knutti Hegerl 2008 ou le sous-chapitre sensibilité de l'AR4 2007). Or, les deux systèmes (un glaciaire et un interglaciaire) n'ont pas les mêmes conditions initiales. Pour prendre un exemple simpliste (désolé), si je double le CO2 au-dessus d'une plaine glacée et au-dessus d'une forêt tropicale, je ne m'attends pas à avoir les mêmes effets dans le cycle du carbone, le budget énergétique de surface ou la colonne d'air, donc finalement le même ∆T à l'équilibre. Ou alors si, il y a des raisons physiques pour lesquelles on arrivera toujours au même ∆T, quels que soient l'état initial du système et la diversité des rétroactions conséquentes au même forçage ? Cela m'intéresserait de comprendre ce point.
  8. Oui, de même que l'on évite aussi de spéculer sur les seules rétroactions terribles. Moi, je n'ai aucune croyance, je n'attends pas d'un modèle qu'il me sauve ou qu'il me perde, mais qu'il progresse sur les glaces, la vapeur d'eau, le gradient adiabatique, les nuages, les puits et source carbone, etc. A dire vrai, la valeur centrale de sensibilité d'un AR du GIEC me semble la valeur provisoire à retenir, puisque par définition elle est le produit de toutes les connaissances intégrées dans les modèles et d'une plus forte densité de probabilité (même si l'on peut discuter ce dernier point, j'ai encore des doutes sur le fait que cette probabilité ait une valeur quelconque). C'est juste le mot "provisoire" qui me semble important, et ce qu'il implique d'ouverture d'esprit dans le débat comme dans la recherche. Je ne sais pas si la nouvelle sensibilité moyenne intermodèles de l'AR5 sera toujours à 3,2 K, ou à 3,5 K, ou à 2,7 K, etc. Elle a un peu changé, elle changera un peu. Mais il n'y a aucune raison de penser qu'elle change brusquement d'un AR l'autre, et au fond il y a assez peu de raisons d'attendre qu'elle s'échappe largement de la fourchette 2-4 K.
  9. Ben, quand Hegerl et Knutti ont fait leur review sur la sensibilité climatique dans Nature Geoscience (le lien que tu m'avais donné chez Meteor), j'ai bien noté que pour eux, l'analyse du climat actuel était le moyen le plus robuste d'estimer la sensibilité. Comme celle-ci se définit basiquement comme l'évolution des températures de surface par rapport au forçage et à ses rétroactions, c'est quand même bizarre de s'entendre dire que non, cette évolution ne signifie pas grand chose. Mais au fond, je suis d'accord avec toi, c'est la conclusion à laquelle je suis personnellement arrivé : on ne peut exclure aucune des valeurs de sensibilité physiquement compatibles avec les observations, et finalement le spectre est très large. L'affectation de probabilité est assez illusoire puisqu'on ne connaît pas les forçages et que l'on n'a pas de recul (tes remarques). Là où l'on a du recul (paléoclimats), les climatologies sont trop bruitées pour trancher, on ne sait pas avec beaucoup de précision ce qu'il en est des températures, des glaces, des aérosols naturels, de la végétation, de la circulation AO, de l'effet relatif de l'insolation, du CH4 ou du CO2, etc. Tu trouves que l'équilibre radiatif est simple à calculer? Ben pas moi. Ce n'est pas parce que l'on sait ce qu'ajoute radiativement 2xCO2 que l'on sait ce que rajoutent radiativement l'ensemble des rétroactions, ni ce qui va en résulter sur la couche de surface en particulier (celle où les T nous intéressent). Or, en terme de budget énergétique, ce sont surtout les rétroactions qui pèsent et on le sait depuis le début. Moi, je croyais que les AOGCM servaient justement à évaluer si les rétroactions se tenaient comme prévu en zone tropicale, aux pôles, dans la colonne atmosphérique, etc. Et aussi à intégrer peu à peu des données qui sont importantes pour l'équilibre radiatif au-delà des seuls GES anthropiques (le cycle du carbone, le cycle de la végétation, la distribution de chaleur océanique, etc.).
  10. Paix : merci des explications, certains choses sont déjà plus claires. En effet, certains traits du réchauffement observé ne sont compatibles qu'avec le forçage anthropique. Je n'ai pas trop de problème avec cela. Pour le calcul matriciel, je vois un peu à quoi cela correspond (mais bon, aucune pratique). Ma question, c'est plutôt comment la composante variabilité naturelle est isolée du reste dans la décomposition des facteurs nécessaires à ce calcul. Par exemple, je vois que Lean et Rind 2008 prennent l'ENSO sur 1896-2006, mais je me demande pourquoi et comment. D'abord l'ENSO n'a pas de raison d'être isolé du reste (on peut imaginer que l'ENSO varie selon le soleil ou le CO2 ou leur combinatoire, donc que ce n'est pas un facteur indépendant) et ensuite, l'ENSO n'est pas le seul mode de variabilité, il faudrait plutôt un indice qui couple l'ensemble des oscillations connues (il se peut par exemple que le mode de variabilité ne soit pas telle oscillation, mais le phasage de plusieurs oscillations). Mais de toute façon, Lean et Rind font plutôt de l'analyse statistique et empirique de climatologies NCEP. C'est l'autre aspect qui m'intéresse, celui du calcul physique à partir des grilles et de certaines conditions initiales : quand un chercheur lance un run 1900-2000 en forçages naturels seulement sur son modèle, comment sait-il qu'il obtient la bonne base de variabilité intrinsèque, une représentation réaliste du climat, et pas un truc faussé au départ ? Quels sont ses moyens de contrôle ? C'est là où je comprends mal pourquoi il n'est pas important de bien simuler des PDO, des AMO, l'ICTZ et la mousson, etc. Le raisonnement intuitif paraît : si je veux connaître l'influence du facteur X sur le système S, je simule d'abord S de façon réaliste, et ensuite j'applique X pour voir ce qui change. Ce que vous me dites en fait avec Sirius, c'est que le réalisme actuel de S (dans les runs des modèles) suffit très largement pour repérer l'influence de X. A partir du moment ou on a le jour et la nuit, l'hiver et l'été, la basse et haute atmosphère, le mouvement de l'équateur vers les pôles, des choses dans ce genre, cela suffit, on peut considérer que le détail des couplages internes océan-atmosphère sont négligeables pour la grandeur concernée (les T sur plusieurs décennies)?
  11. Désolé d'être emm*** à essayer de comprendre. Non, je ne connais la limite de prévisibilité qu'en météo sur quelques jours, mais pas en climato sur les échelles de temps des modèles. Cela correspond à quoi dans ce dernier cas? Cela dit, je ne parle pas de prévision, uniquement de simulation des tendances observées 1900-2005 dans l'AR4 et, dans cette simulation, de détection-attribution. Sirius semble dire que l'on repère la marque des GES sur des évolutions à petite échelle concordantes (dans l'espace et le temps), pas seulement sur une grande échelle (moyenne globale séculaire). Je le cite C'est en réponse à cela que je soulignais que les modèles reconnaissent à plus petite échelle des problèmes de réalisme assez importants, ou du moins qui paraissent assez importants au non-spécialiste. En gros, le point que je soulevais, c'est d'essayer de comprendre cette page de l'AR4 sur la détection-attribution et plus particulièrement quelle place joue la variabilité naturelle dans le mode de calcul qui est présenté. C'est un peu compliqué pour moi, d'abord je ne vois pas à quelles échelles spatiales et temporelles s'appliquent le calcul décrit (le point ci-dessus), ensuite je ne comprends pas le rôle et l'estimation de la variabilité naturelle, qui est d'abord décrite dans ce texte comme u (dans la première équation y = Xa + u) puis ensuite comme la covariance de C (dans le troisième paragraphe) : http://www.ipcc.ch/publications_and_data/ar4/wg1/en/ch9s9.html Si quelqu'un pouvait traduire cela en français non matheux, je comprendrais sans doute mieux ce qui est fait concrètement dans une détection-attribution d'un signal au milieu du bruit. Christian : merci des précisions. Peut-être que la réponse à ma question est dans le texte de Le Treut, que je vais essayer de trouver.
  12. Ben oui mais là, c'est le problème du chapitre 11 de l'AR4 où, avant de donner ses prévis régionales pour 2100, le GIEC commence par rappeler comment il simule les T et les pluvios sur chaque région. Or, tu t'aperçois quand même que ce n'est pas correct du tout. Je cite la première région, l'Afrique et les premiers paragraphes : Les autres régions, c'est grosso modo le même topo, sauf que souvent l'accord sur les T n'y est pas non plus. Si les modèles reconnaissent ainsi qu'ils diffèrent des climatologies et de leur évolution, qu'il leur manque pas mal de précision voire certains phénomènes de base, on en revient au même problème, "l'empreinte digitale" du CO2 à la surface est déduite de simulations incorrectes.
  13. Non, je lis simplement l'AR4. Si les chercheurs éprouvent le besoin de préciser leur niveau actuel de compréhension, je suppose que cela a un sens. Il n'y a aucune raison de douter que les équipes de chercheurs de chaque modèle font de leur mieux, donc que leurs prévis du moment sont les plus correctes en l'état de leur connaissance du climat. C'est leur boulot. Ensuite, si tu veux me faire croire qu'il est scientifique de dire "nous savons déjà tout et nos prévisions ne changeront pas d'un iota ou alors de broutilles sans conséquence dans les 50 prochaines années", eh bien là, oui, j'aurai des doutes sur ce genre de "science". Mais ce n'est absolument pas ce que disent les chercheurs. Ils disent simplement qu'en l'état des connaissances (dont les sorties de modèle font en quelque sorte la synthèse), la plus grande part du réchauffement depuis 1950 vient des GES. Le degré de confiance dans ce résultat résulte du degré d'avancement du modèle et je n'arrive pas comprendre que cette évidence soit remise en question. C'est un peu comme si une assemblée d'oncologues en 1975 disait : "cela fait trente ans que nous faisons de l'oncologie, notre modèle du cancer n'est pas complet, il y a des mécanismes connus mais mal évalués, il y a deux ou trois choses à implémenter encore, mais nous savons déjà l'essentiel sur cette maladie et les avancées ne changeront désormais pas cette base". Même chose s'ils le déclaraient en 2011 avec 30 ans de travaux en plus (qui auraient démenti le propos de 1975). Pourquoi ils ne le disent pas ? Pourquoi ils disent plus modestement que bien des choses restent à élucider et que plus on avance, plus on découvre la complexité de l'ADN, de la cellule et du vivant en général ? Et pourquoi serait-il scientifique de poser que jamais ô grand jamais la réponse du climat au CO2 sera différente d'un best estimate contemporain, alors que les modèles climatiques comme tous les modèles scientifiques sont des work in progress (et que ce best estimate s'inscrit dans une assez large fenêtre d'incertitude en tout état de cause)?
  14. Christian : merci des précisions. Pourquoi y-a-t-il un lag de 20 ans dans la courbe violette rapportée au forçage? J'ai l'impression que tu construis cette courbe avec la valeur de sensibilité à l'équilibre (0,75K/W/m2), mais dans ce cas, 20 ans me paraît un temps de relaxation assez court (?). Ne vaudrait-il pas mieux prendre la moyenne des sensibilités transitoires des 20 modèles (données dans l'AR4), mais pour le coup sans aucun "lag" puisque c'est la réponse rapide attendue? Je serais curieux de voir ce que cela donnerait. Euh non, pas du tout, je suis persuadé que le progrès des connaissances va continuer. C'est le fameux level of understanding : par définition, on comprendre mieux le climat quand on aura avancé sur ce qui est toujours en medium, low ou very low level.
  15. Sirius : en effet, je ne pige pas tes réponses. Un AOGCM, j'ai compris que cela reproduit la circulation générale océan-atmosphère du climat terrestre. Ce n'est pas censé être un simple modèle de balance énergétique où j'ajoute une couche de forçage pour voir ce que cela donne sur une version très simplifiée du système. Ni un modèle de complexité intermédiaire où je reproduis tel trait du climat. Si les AOGCM (la vingtaine du GIEC) sont mauvais pour la fréquence, l'intensité et le phasage des grandes oscillations connues, eh bien c'est qu'ils sont mauvais tout simplement, puisque ces oscillations résultent de la circulation océan-atmosphère qu'ils sont censés modéliser. Si certains sont bons et d'autres mauvais, il serait temps de les classer selon leurs performances, je suppose. Tu opposes simulation et prévis court ou long termes, mais comme Christian évoque des oscillations sur 60 ans, je ne vois pas où tu veux en venir. Sur 1900-2010, y a-t-il oui ou non des oscillations quasi-trentenaires qui modulent le signal de fond provenant des forçages? C'est cela qui me semble en discussion dans certains articles récents de la littérature, dont Wu 2011 cité ci-dessus par Starman. Si demain on dit que 51% de l'évolution des T observée entre 1950 et 2005 provient du phasage déphasage AMO-PDO et des émissions d'aérosols, eh bien une autre (et célèbre) proposition qui attribuait 51% (ou plus) de cette évolution aux seuls GES sera fausse. Or la question que je me pose est : une telle perspective est-elle physiquement insensée aujourd'hui? Et comment puis-je dire qu'elle est peu ou très peu probable si j'admets que de toute façon, mon modèle ne sait pas reproduire l'AMO-PDO (donc qu'il ne peut détecter-attribuer quoi que ce soit concernant l'effet de ces phénomènes sur les Ts)?
  16. Sirius : Mon observation est en fait assez simple : qu'il s'agisse de l'évolution spatio-temporelle locale ou de la moyenne globale, un modèle est correct s'il reproduit correctement les causes des évolutions observées. Soit il existe des oscillations périodiques, et les modèles doivent les reproduire (implémenter la physique de ces oscillations). Soit elles n'existent pas (simple bruit interannuel ou variations chaotiques), et les modèles peuvent continuer à analyser toute tendance supérieure à quelques années comme la traduction d'un forçage naturel ou anthropique. D'après la figure 9.5 de l'AR4 (courbe bleue des simulations en forçages naturels seuls), il semble que les modèles ne produisent rien qui ressemble à de telles oscillations : http://www.ipcc.ch/publications_and_data/ar4/wg1/en/ch9s9-4-1-2.html Le GIEC conclut que la majeure partie du réchauffement observé 1950-2005 est due aux GES. OK, mais il n'est pas indifférent de savoir si cette "majeure partie" représente 51% ou 91% de la hausse des T sur cette période précise où la proposition est énoncée comme valide. Parce que selon la bonne proportion, les modèles à faible/haute sensibilité transitoire sont corrects/incorrects. Or, pour parvenir à cela, il me semble important de savoir les parts respectives des forçages et de la variabilité (puis, les parts respectives des forçages anthropiques et naturels, puis les parts respectives des forçages anthropiques). Sinon, ben on en reste à ce qui est connu depuis longtemps déjà, mais c'est devenu intellectuellement insatisfaisant (et décisionnellement approximatif). Christian : La tendance de fond est forcément au réchauffement, sauf si l'on découvrait des fortes rétro-actions négatives aux GES ayant échappé à l'observation pour le moment (douteux). En revanche, je ne sais pas pourquoi tu dis que cette tendance de fond serait de 0,2K/dec : déjà, cela dépend des scénarios d'émission ; ensuite, cela dépend des modèles (qui varient encore du simple au double sur les sensibilités). Si je regarde les évolutions par décennie relevées par le GIEC (1950-2005, 1901-2005, 1979-2005), je ne sais pas bien où il faut situer cette tendance de fond : http://www.ipcc.ch/publications_and_data/ar4/wg1/en/ch3s3-2-2.html Prends-tu les 60 ±5 dernières années, comme représentatives d'une sorte de cycle complet incluant toutes les formes significatives de variabilité naturelle?
  17. Bonjour Christian, Je ne pense pas que la "pause" récente change grand chose, comme tu le montres. Ce qui est ennuyeux, c'est que l'on ne soit toujours pas capable de prédire de telles pauses : cela rappelle que les modèles sont incomplets, et du coup on se demande jusqu'où au juste ils le sont. Les modèles reproduisent-ils les cycles dont tu parles, AMO, PDO et autres, quand ils simulent les T du XXe siècle? Il me semble que non, ou très imparfaitement, d'après ce que j'ai lu dans l'AR4 (chapitre 8.4). Il y a eu des progrès, mais il n'y a toujours pas convergence solide entre les modèles sur les mécanismes d'émergence de ces cycles, leur fréquence, leur intensité, leur phasage et leur déphasage (ce dernier point étant le plus important quand on attribue une hausse, baisse ou pause sur 30 ans). Basiquement, j'ai l'impression que les modèles ne savent pas encore simuler et donc contraindre efficacement la dynamique multi-annuelle, mutidécennale ou multiséculaire de la circulation thermo-haline. Ce n'est pas très grave si l'on se contente de dire que les GES sont le principal candidat causal de la hausse des T observée sur 50 ans (cela paraît le cas, même si ce n'est pas le seul facteur). Cela me paraît plus ennuyeux quand on commence à faire de la détection-attribution et de l'estimation fine de sensibilité climatique sur la base de ces données récentes, qui se trouvent être les mieux connues. Une reconstruction séculaire des T qui n'intègre pas tous les mécanismes physiques causalement associés aux T moyennes globales est inexacte / incomplète. Et la prolongation de cette courbe le sera aussi. On peut de sire : "bof, c'est un chouïa, cela fera 2,7 K ou 3,3 K au lieu de 3 K de hausse en 2100". Mais c'est juste du wishful thinking, il faut démontrer que c'est un chouïa et que l'on n'aura pas plutôt 1,5 ou 4,5 K en 2100 (des valeurs physiquement possibles, mais simplement moins probables en l'état des connaissances). Judy Curry publiait hier un lien vers une tribune d'Oppenheimer et al 2007, dans Science, où les chercheurs arrivaient à cette conclusion : on n'attend plus des modèles qu'ils établissent un consensus sur les facteurs déterminants du climat (c'est fait ou peu s'en faut), mais bien désormais qu'ils réduisent les incertitudes trop larges sur l'importance relative de ces facteurs, donc in fine de la hausse attendue. On peut espérer que la pause actuelle, avec sa moisson d'observations, va y contribuer.
×
×
  • Créer...