Aller au contenu
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

4ème Rapport du GIEC-IPCC


Alain Coustou
 Partager

Messages recommandés

J'ouvre ce topic pour présenter et discuter le 4ème rapport de l'IPCC-GIEC.

La présentation en français de ce rapport est annoncée pour le 2 février 2007 par la dépêche d'agence dont le texte suit :

OSLO (Reuters) - La poursuite du réchauffement climatique va provoquer davantage de phénomènes extrêmes tels qu'inondations et sécheresses au XXIe siècle, mais les effets des émissions de gaz à effet de serre se feront ressentir pendant au moins un millénaire, conclut un projet de rapport sur le climat, confirmant la responsabilité de l'homme dans cette évolution.

Le Groupe intergouvernemental d'experts sur l'évolution du climat (GIEC), parrainé par l'Onu, doit présenter le 2 février à Paris son nouveau rapport effectuant la synthèse des travaux de 2.500 chercheurs de plus de 130 pays. Sa rédaction a pris six ans.

Selon des sources scientifiques, ce document affine la fourchette de prévision de la hausse des températures au XXIe siècle. Il table désormais sur une hausse comprise entre 2 et 4,5 degrés Celsius par rapport aux niveaux préindustriels, l'estimation privilégiée étant de 3 degrés en se fondant sur une hypothèse de stabilisation des niveaux de dioxyde de carbone à un seuil de 45% supérieur aux niveaux actuels.

Le précédent rapport du GIEC, rendu en 2001, évoquait une hausse comprise entre 1,4 degré et 8 degrés, sans préciser quelle extrémité de la fourchette était privilégiée.

En se poursuivant, le réchauffement climatique devrait provoquer au XXIe siècle davantage de sécheresses et d'inondations et une fonte de la calotte glacière et des glaciers.

INCERTITUDES

En outre, l'élévation du niveau des mers devrait être comprise entre 28 et 43 cm (contre 9 à 88 cm dans le précédent rapport) et elle devrait se poursuivre pendant au moins un millénaire, même si les gouvernements parviennent à freiner la concentration dans l'atmosphère des gaz à effet de serre, responsable du réchauffement climatique.

"Les émissions anthropiques (ndlr, d'origine humaine) de dioxyde de carbone au XXIe siècle vont contribuer au réchauffement et à l'élévation du niveau des mers pendant plus d'un millénaire, en raison des délais nécessaires à la dilution de ce gaz", est-il écrit dans le rapport, selon les mêmes sources scientifiques.

La hausse du niveau des mers a été de 17 cm au XXe siècle. Cette élévation menace de nombreuses régions du monde, des îles du Pacifique aux côtes du Bangladesh ou de Floride en passant par des villes telles que Shanghai ou Buenos Aires.

Ce rapport insiste en outre sur les certitudes de plus en plus affirmées de la communauté scientifique sur la responsabilité de l'homme dans le réchauffement climatique.

Il juge "très probable" - soit une probabilité de plus de 90% - que les activités humaines, notamment l'utilisation de combustibles fossiles, soient responsables du réchauffement observé depuis 1950.

Le précédent rapport utilisait uniquement l'adjectif "probable".

Le GIEC souligne cependant que des incertitudes demeurent sur le phénomène du réchauffement climatique.

Ainsi, la pollution atmosphérique et la poussière dégagée par les éruptions volcaniques semblent avoir freiné le réchauffement en reflétant vers l'espace une partie de la lumière solaire.

De même, une hausse des températures pourrait favoriser la formation de nuages, dont le sommet rejette lui aussi la chaleur vers l'espace.

Enfin, le Gulf Stream, courant chaud de l'océan Atlantique, pourrait faiblir mais pas suffisamment toutefois pour inverser la tendance globale au réchauffement.

Lien à poster
Partager sur d’autres sites

  • Réponses 351
  • Créé
  • Dernière réponse

Les plus actifs

Bonjour Alain,

Un résumé rédigé par des politiques pour des politiques, dont le contenu est notoirement alarmiste et présenté AVANT le contenu scientifique de ce qu'il est sensé résumer, je trouve ça totalement ridicule. Et toi ?

Charles s'est fendu d'un billet sur le sujet dans son blog: http://www.climat-sceptique.com/article-5385171.html

Lien à poster
Partager sur d’autres sites

Bonjour Alain,

Un résumé rédigé par des politiques pour des politiques, dont le contenu est notoirement alarmiste et présenté AVANT le contenu scientifique de ce qu'il est sensé résumer, je trouve ça totalement ridicule. Et toi ?

Charles s'est fendu d'un billet sur le sujet dans son blog: http://www.climat-sceptique.com/article-5385171.html

Je me suis abstenu de tout commentaire sur le texte de l'agence Reuters. Je suppose qu'il reprend les éléments d'un communiqué du GIEC annonçant la date de publication des éléments scientifiques, éventuellement complété par les avis glanés ici ou là par le journaliste.J'attends avec impatience le 2 février (date de publication de la version française du rapport), tout en sachant que le contenu du rapport sera discutable, peut-être au moins autant (à mon avis) par ce qu'il ne dira pas (j'en ai une idée) que par ce qu'il dira.

Alain

Lien à poster
Partager sur d’autres sites

(...)

J'attends avec impatience le 2 février (date de publication de la version française du rapport), tout en sachant que le contenu du rapport sera discutable, peut-être au moins autant (à mon avis) par ce qu'il ne dira pas (j'en ai une idée) que par ce qu'il dira.

(...)

Apparemment, c'est mai qu'il faut attendre pour le publication (anglaise) du rapport complet, et non du seul Résumé pour décideurs. On voit d'ailleurs que les choses sont confuses pour le moment en comparant la dépêche Reuters et le Second Draft (chapitre 10) : voir la page 10:3 pour ceux qui ont le draft, les valeurs avancées par Reuters sont celle de la sensibilité climatique, pas des estimations deltaT B1, A1B et A2 pour la fin du siècle. Ce serait un peu étrange que les runs des modèles aient été changés entre le Second Draft et la version finale.
Lien à poster
Partager sur d’autres sites

Posté(e)
La-Chapelle-Saint-Florent - 49 (proche 44, bord Loire)

Juste pour info.

Le 3ème rapport du GIEC était sorti quand déjà ?

Merci...

Lien à poster
Partager sur d’autres sites

Juste pour info.

Le 3ème rapport du GIEC était sorti quand déjà ?

Merci...

c'était en 2001, mais je ne connais pas les dates exactes de sortie des différents résumés, traductions,...
Lien à poster
Partager sur d’autres sites

(...)

"Les émissions anthropiques (ndlr, d'origine humaine) de dioxyde de carbone au XXIe siècle vont contribuer au réchauffement et à l'élévation du niveau des mers pendant plus d'un millénaire, en raison des délais nécessaires à la dilution de ce gaz", est-il écrit dans le rapport, selon les mêmes sources scientifiques.

(...)

Au passage, qui comprend cette citation ?
Lien à poster
Partager sur d’autres sites

Au passage, qui comprend cette citation ?

ce que je comprends c'est :

les effets des émissions anthropiques de CO2 au XXI ème siècle vont perdurer pendant plus d'un millénaire , en raison de la durée de vie de ce gaz dans l'atmosphère .

Lien à poster
Partager sur d’autres sites

ce que je comprends c'est :

les effets des émissions anthropiques de CO2 au XXI ème siècle vont perdurer pendant plus d'un millénaire , en raison de la durée de vie de ce gaz dans l'atmosphère .

C'est aussi ce que je comprenais, mais c'est un peu mystérieux pour moi. Le temps de vie d'une molécule de CO2 dépend de la modélisation du cycle du carbone, c'est-à-dire de l'interaction entre le réservoir atmosphérique et les stocks sol-biosphère-océans. Dire que telle proportion des émissions 2000 sera encore effective à +1000 ans me paraît spéculatif - apparemment, cela revient d'après la citation à supposer que les océans continueront de se réchauffer (d'absorber relativement moins) pendant plusieurs siècles, voire plus. Et surtout de se réchauffer dans les premières centaines de mètres, puisque c'est là me semble-t-il que la solubilité est effective (que la couche profonde océanique se réchauffe de 1°C en 1000 ans aura sûrement un effet sur le niveau des mers, mais pas trop sur l'échange carbone dans la couche surface-thermocline, si ?). Or, si les GES atmosphériques commencent à se stabiliser, puis à décroître, le forçage radiatif suit, la couche supérieure des océans n'a pas de raison de se réchauffer encore, mais a plutôt tendance à refroidir, etc. Mais bon, c'est déjà HS par rapport au thème choisi par Alain pour cette discussion, centrée sur la publication tant attendue de la semaine prochaine. On avait déjà parlé de cela, mais je ne retrouve plus la bonne discussion.
Lien à poster
Partager sur d’autres sites

«La menace d'un changement climatique dangereux se confirme»

Edouard Bard climatologue, explique comment les outils scientifiques les plus performants font craindre une dérive climatique d'une ampleur et d'une rapidité dangereuses pour les sociétés humaines, dès la seconde moitié du siècle. Pour atténuer ce risque, une mutation technologique et économique s'impose.

Par Sylvestre HUET

QUOTIDIEN : samedi 27 janvier 2007

Professeur au Collège de France depuis 2001, Edouard Bard, 45 ans, y occupe la chaire d'évolution du climat et des océans. Océanographe, paléoclimatolo-gue et géochimiste, il dirige une équipe au Centre européen de recherche et d'enseignement en géosciences de l'environnement (Cerege), à Aix-en-Provence. Ses recherches ont donné lieu à plus de cent articles scientifiques. Multimédaillé par l'European Union of Geosciences, l'American Geophysical Union, French citation laureate (1981-1998) de l'Institute of Scientific Information, il vient de recevoir le premier prix Gérard Mégie du CNRS et de l'Académie des sciences.

Les scientifiques sont à l'origine de la convention des Nations unies sur le climat, signée en 1992. L'opinion publique a souvent l'impression qu'ils se répètent depuis lors. Est-ce le cas ?

C'est une impression vraie... et fausse ! Les scientifiques donnent le sentiment de se répéter, car, par une sorte d'ironie de la nature, l'estimation de l'ordre de grandeur de la perturbation du climat par l'homme a été bonne avant même que l'on puisse l'étudier de manière quantitative. On peut même remonter jusqu'aux travaux du chimiste suédois Svante Arrhenius : dès 1896, il prévoit l'augmentation de la température moyenne de la Terre comme conséquence de l'utilisation des combustibles fossiles. Arrhenius estimait qu'un doublement de la teneur en gaz carbonique de l'air se traduirait par un réchauffement de la planète de l'ordre de 5 à 6 °C. Il est assez stupéfiant de constater que cette prévision n'est pas très éloignée de celles publiées aujourd'hui. Cet accord est quasiment miraculeux, car Arrhenius ne disposait pas de données très fiables sur les gaz à effet de serre et n'avait pas envisagé la multitude de rétroactions climatiques. Le peu d'écart apparent entre les résultats des premières, et rudimentaires, simulations informatiques du climat futur dans les années 80 et celles d'aujourd'hui, beaucoup plus réalistes, s'explique de même. Cette apparente continuité cache un énorme effort de recherches et de nombreuses découvertes scientifiques.

L'alerte lancée à la fin des années 80 était fondée sur des simulations informatiques. Comment ont évolué ces simulations et leurs résultats ?

Il y a vingt ans, les modèles numériques ne prenaient en compte que la dynamique de l'atmosphère. De plus, les simulations se limitaient à un calcul du climat «à l'équilibre» pour un doublement de la teneur atmosphérique en gaz carbonique (environ 550 parties par million). Aujourd'hui, les capacités des ordinateurs autorisent des représentations beaucoup plus complètes et ces modèles ont fait d'immenses progrès. L'océan mondial, avec sa circulation profonde, est mieux représenté. Des interactions plus réalistes s'instaurent entre l'atmosphère, l'océan, les glaces, les cycles géochimiques et la biosphère, qui constituent d'ailleurs de nouvelles sources d'incertitudes. Des points délicats, comme l'action multiple et complexe des aérosols et des nuages, ont fait l'objet d'intenses recherches. Notre compréhension des phénomènes physico-chimiques et biologiques ainsi que leur représentation mathématique ont aussi fait des progrès significatifs. Même s'il demeure des simplifications et l'impossibilité de représenter de manière explicite les processus se déroulant à petites échelles spatiales. En outre, de nombreuses équipes, notamment en France ou en Chine, ont réalisé des simulations complètes avec des modèles différents. Si l'ordre de grandeur du changement climatique prévu n'a pas changé ­ un réchauffement d'entre 2 et 6 °C en moyenne planétaire en fonction des scénarios d'émissions et de la sensibilité plus ou moins grande du climat à cette perturbation ­, cette conclusion est donc bien plus solide qu'à l'époque. La menace d'un bouleversement climatique, au cours de la seconde moitié du siècle, d'une ampleur et d'une rapidité dangereuses pour les sociétés humaines, a donc été confirmée.

L'évolution du climat mesurée depuis 1990 a-t-elle conforté ou réduit la confiance que vous placez dans les simulations informatiques ?

Il s'est passé plus de quinze ans depuis le premier rapport du GIEC (le Groupe d'experts intergouvernemental sur l'évolution du climat) qui a débouché sur la signature de la convention de l'ONU. C'est une durée significative. Durant cette période, la croissance des émissions de gaz carbonique issu du charbon, du pétrole et du gaz naturel a suivi les scénarios les plus élevés, avec plus de 3 % par an entre 2000 et 2005, contre moins de 1 % entre 1990 et 1999. Si l'on y ajoute la déforestation, on atteint 9 milliards de tonnes de carbone par an, contre moins de huit dans les années 90. En conséquence, la teneur en gaz carbonique de l'atmosphère atteint aujourd'hui 383 parties par millions, mesurée à Hawaii, contre 280 avant la révolution industrielle, un niveau sans précédent depuis un million d'années. Les températures moyennes ont continué d'augmenter, sur un rythme proche de ce qui est prévu par les modèles, toutes les années 2000 sont nettement au-dessus de la moyenne 1960-1990. Le niveau marin global poursuit sa progression de 3,1 millimètres par an depuis 1993, selon les satellites, un phénomène lié à sa dilatation thermique et à la fonte des glaces continentales. La réponse de la flore et de la faune au changement climatique devient plus nette : allongement des durées de croissance végétale, déplacement des animaux sauvages. Si l'amplitude de ces changements reste encore petite par rapport à celle que nous craignons pour la seconde moitié du siècle, ils plaident tous en faveur de la fiabilité des modèles.

Des éléments naturels (volcans, Soleil) pourraient-ils compenser l'influence humaine ?

L'astronomie et la géologie nous renseignent sur la probabilité et l'ampleur des variations possibles de ces forçages. Une éruption majeure comme celle du Pinatubo (Philippines) en 1991 peut entraîner un refroidissement mondial de l'ordre d'un demi-degré. L'effet climatique ne dure que quelques années et il faudrait subir une éruption majeure presque tous les ans pour contrecarrer le réchauffement anthropique. Le forçage solaire peut fluctuer dans le temps. Les données des satellites montrent des variations très faibles depuis trente ans. Des séries plus longues, mais moins précises, permettent de conclure que le Soleil était moins actif qu'aujourd'hui, mais l'impact climatique de ces fluctuations semble limité. Néanmoins, ces variations irrégulières semblent responsables de tendances climatiques à l'échelle de quelques siècles. Si l'activité solaire augmentait à l'avenir, ceci viendrait amplifier, et non compenser, un réchauffement dominé par les gaz à effet de serre d'origine anthropique.

Faut-il craindre le risque de changements catastrophiques à brève échéance ?

Cette perception erronée est liée à deux événements médiatisés à l'échelle mondiale. Le film le Jour d'après, qui met en scène la survenue dramatique d'une glaciation. Et le rapport commandé par le Pentagone pour un wargame de généraux sur le thème d'une crise climatique provoquée par un arrêt du Gulf Stream. Dans les deux cas, l'ampleur et l'imminence des changements climatiques sont totalement exagérés. L'idée d'un coup de froid glaciaire sur l'Europe provient d'une déformation spectaculaire de nos résultats. Le réchauffement devrait intensifier le cycle de l'eau, augmenter les précipitations aux hautes latitudes, ainsi que les flux d'eau douce via les fleuves, la fonte des glaces continentales et du Groenland. Tout ceci diminuera la salinité et donc encore plus la densité des masses d'eau de l'Atlantique Nord, déstabilisant des zones de plongée d'eau de surface vers les fonds océaniques. Cette circulation profonde qui s'accompagne d'un réchauffement au-dessus et autour de l'Atlantique Nord devrait donc diminuer en intensité, de 10 à 50 % d'ici à 2150 selon les simulations climatiques. D'ici à 2100, l'effet sera un moindre réchauffement dans la région du nord de l'Atlantique. Au pire, si la perturbation passe un seuil, à un refroidissement localisé sur l'Atlantique Nord. Mais en aucun cas à une glaciation, même régionale.

Les événements météo (canicule de 2003, cyclones) sont souvent utilisés comme preuves du changement climatique, est-ce justifié ?

Il faut éviter d'entretenir une confusion entre la variabilité météorologique naturelle et le changement climatique. Et se garder de commentaires simplistes qui suivent chaque événement extrême, une tempête, un ouragan, une vague de chaleur estivale, une pluie intense suivie de crues et d'inondations. Indépendamment de l'action de l'homme, le climat peut se révéler cruel et destructeur. En outre, il est impossible d'évaluer l'influence du réchauffement en cours sur la genèse de ces événements singuliers, elle peut très bien ne pas être en cause. Toutefois, ces exemples illustrent la sensibilité des sociétés humaines aux aléas du climat. Par ailleurs, certains événements, qualifiés d'extrêmes actuellement en raison de leur rareté, pourraient ne plus l'être dans le climat que nous léguerons aux générations futures. La canicule de 2003 en Europe pourrait représenter un été moyen à la fin du siècle.

N'êtes-vous pas tenté de dramatiser la situation pour mieux financer vos labos ?

Le vocabulaire catastrophiste n'est généralement pas utilisé par les climatologues. Les slogans un peu simplistes ­ «sauvons la planète et les ours polaires» ­ sont plutôt le fait d'ONG, de militants dont la bonne foi est réelle et qui espèrent ainsi mobiliser l'opinion publique, mais sans toujours se soucier de l'exactitude ou de la rigueur du propos. On peut déjà noter que les recherches sur l'atmosphère, l'océan, les sédiments marins et les glaces polaires, qui ont mis en évidence la menace climatique, ont été financées à partir des années 70... avant que cette menace ne soit reconnue par les scientifiques. Votre question peut toutefois s'éclairer à l'aide d'un paradoxe qui provient de la comparaison des situations en Europe et aux Etats-Unis. En Europe, les scientifiques ont réussi à convaincre leur classe politique. A tel point que la recherche de la variabilité climatique naturelle ou l'amélioration des performances des modèles ne sont plus prioritaires, alors que des crédits importants sont attribués pour limiter les émissions de gaz à effet de serre, prévoir l'impact local du réchauffement mondial et rechercher des solutions industrielles afin de s'y adapter. Outre-Atlantique, c'est presque l'inverse. Bien que les conclusions du rapport publié en 2001 par l'Académie des sciences des Etats-Unis soient similaires à celles du GIEC, la Maison Blanche refuse de s'engager dans la voie de la réduction des émissions. Pour tenir cette position, délicate au plan diplomatique, le gouvernement américain avance qu'il augmente le financement de la recherche, en prétendant qu'il faudrait d'abord mieux comprendre et réduire les sources d'incertitudes avant d'agir. La conséquence, paradoxale, est que le financement de la recherche fondamentale sur le climat se porte mieux aux Etats-Unis qu'en Europe.

Maintenez-vous votre recommandation de limiter les émissions de gaz à effet de serre ?

Bien sûr, mais il faudrait aller bien au-delà de la chasse au gaspi. Pour stabiliser avant la fin du siècle la concentration atmosphérique en gaz carbonique, nous devrions réduire notre consommation d'énergie fossile de façon drastique. Selon nos calculs, il faudrait diviser par deux les émissions mondiales d'ici 2050, pour les réduire au niveau de la capacité de pompage par les océans et la biosphère. Un tel objectif, s'il veut rester compatible avec l'objectif de conditions de vie meilleures pour les milliards d'êtres humains qui souffrent aujourd'hui d'une pauvreté inacceptable, et n'utilisent encore que très peu d'énergie fossile, suppose une action continue, de grande ampleur, coordonnée au plan international. Certes, économiser l'énergie fossile, comme l'exemple simple de l'isolation des bâtiments le montre. Mais aussi développer des technologies alternatives de production d'électricité et de transport. Décourager la division mondiale du travail fondée sur le transport massif à longue distance. Mettre en cause des modes de vie et de consommation fondés sur le pétrole bon marché. Revoir l'urbanisme extensif. Développer le stockage géologique du gaz carbonique issu de centrales électriques au charbon et au gaz... Ces pistes, parmi celles avancées par mes collègues des sciences humaines et sociales, suffisent pour prendre conscience du caractère volontariste de la mutation nécessaire, si nous voulons atténuer le risque climatique majeur que nous faisons courir à nos descendants.

Source : http://www.liberation.fr/transversales/weekend/231235.FR.php

Florent.

Lien à poster
Partager sur d’autres sites

Je crois que je vais publier un Manuel de la langue de bois à usage des commentaires climatiques, indispensable en ces temps de publication des rapports GIEC. default_blink.png

Il comprendra par exemple les phrases suivantes :

- Les mécanismes du climat sont désormais bien maîtrisés dans les grandes lignes, même s'il reste beaucoup de détails à améliorer.

- Les modèles progressent considérablement, bien que certains phénomènes soient très complexes à évaluer.

- Nos conclusions sont bien plus robustes aujourd'hui qu'hier.

Sinon, Bard est toujours assez mesuré dans ses déclarations. Ce qu'il signale sur le financement de la recherche fondamentale Europe / Etats-Unis est intéressant, ainsi que l'indifférence relative pour la variabilité naturelle du climat.

De même la continuité "quasi-miraculeuse" d'Arrhenius aux 19 modèles GIEC 2007. Mais là-dessus, il manque un peu de précision. Arrhenius était à 5-6°C pour un doublement CO2, le GIEC 1995 à 3,8°C (moyenne tous modèles), le GIEC 2001 à 3,5°C, le GIEC 2007 à 3,2°C. Donc, pour le moment, les progrès de la recherche sur un siècle / quinze ans amènent à réduire progressivement la sensibilité climatique. C'est tellement progressif que lorsqu'elle sera à 1,7°C dans 25 ans, Edouard Bard dira que le progrès des modèles a confirmé les intuitions initiales default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20">

Lien à poster
Partager sur d’autres sites

C'est tellement progressif que lorsqu'elle sera à 1,7°C dans 25 ans, Edouard Bard dira que le progrès des modèles a confirmé les intuitions initiales default_blink.png

pourquoi s'arrêter en si bon chemin?

Je vais donc poursuivre ce raisonnement subtil:

dans 90 ans à raison de 0.3°C de moins tous les 6 ans on devrait être à une sensiblilité de 3.2-15*0.3 =-1.3°C

c'est pas beau çà? default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20">

Lien à poster
Partager sur d’autres sites

Pourquoi s'arrêter en si bon chemin?

Je vais donc poursuivre ce raisonnement subtil:

dans 90 ans à raison de 0.3°C de moins tous les 6 ans on devrait être à une sensiblilité de 3.2-15*0.3 =-1.3°C

C'est pas beau çà? default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20">

Eh, charles ! Reconnais que tu l'as un peu cherché ! default_blink.png
Lien à poster
Partager sur d’autres sites

pourquoi s'arrêter en si bon chemin?

(...)

Mais pour une raison très simple, cher Meteor : dans 90 ans, le GIEC n'existera plus default_blink.pngBlague à part, cette sensibilité climatique 2xCO2 est quand le point nodal du débat, et cela ne progresse pas vraiment dans les fourchettes, malgré les assertions de Bard et autres. On est à 2-4,5°C, et voir ce que dit le GIEC-IPCC lui-même pour l'interprétation de la valeur médiane 3,2 °C (10-73, lignes 36-37).
Lien à poster
Partager sur d’autres sites

Eh, charles ! Reconnais que tu l'as un peu cherché ! default_blink.png

Enfin mon but était de le charrier un peu, ce n'était pas très subtil non plus je dois dire mais disons que j'étais dans le même registre. default_shaun.gif

plus sérieusement, on peut avoir une autre approche de l'évolution de cette sensibilité climatique.

Si je regarde les fourchettes, au lieu de valeurs médianes:

SAR: 1.9-5.2

TAR: 2.0-5.1

AR4: 2.0-4.5

Je constate une consolidation de la borne inférieure à 2°C pour des points médians qui baissent effectivement.

Il semble donc de plus en plus improbable d'avoir des sensibilités inférieures à 2°C.

Pour ceci:

cette sensibilité climatique 2xCO2 est quand le point nodal du débat, et cela ne progresse pas vraiment dans les fourchettes, malgré les assertions de Bard et autres. On est à 2-4,5°C, et voir ce que dit le GIEC-IPCC lui-même pour l'interprétation de la valeur médiane 3,2 °C (10-73, lignes 36-37).

oui ok pour la valeur médiane.

d'ailleurs honnêtement je finis par m'y perdre dans les explications emberlificotées de l'AR4 à ce sujet.

Si je reprends par contre les valeurs de fourchettes en supposant que c'est la même définition je constate également une diminution de leur "largeur", puisqu'on passe de 3.3 à 3.1 puis 2.5°C.

C'est aussi à considérer pour apprécier la progression des modèles, ne serait-ce que dans l'expression de leurs résultats, avec le fait que la borne inférieure semble d'avantage constante.

Si on ose faire une approche tendancielle on devrait avoir intersection des droites de tendance de borne inf et sup à 2.34°C.

Mais c'est sans tenir compte des probabilités.

Mais pour une raison très simple, cher Meteor : dans 90 ans, le GIEC n'existera plus

Pas sûr!

la mauvaise herbe est particulièrement résistante. default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20">

Lien à poster
Partager sur d’autres sites

Pas trop d'accord avec toi. Dans la référence que je donnais, l'AR4 dit que les modèles GCM sont équivalents (ne sont pas "plus probablement vrai" les uns que les autres) et que la valeur médiane de 3,2°C n'est apparemment pas une approche "ensembliste" (au sens où l'on ferait tourner tous les modèles dans une expérience commune avec strictement les mêmes variations de paramètres). Donc, un modèle qui donne sa probabilité maximale à 2°C pour 2xCO2 est aussi "probable" que celui qui la donne à 4,5°C. Mais celui qui donne son PDFmax à 2°C a lui-même une fourchette plus large (par exemple 1,3-4°C), laquelle est donc pour le moment équiprobable avec d'autres fourchettes. C'est le cas des modèles INM-CM 3.0 ou PCM (2,1°C). D'ailleurs, le GIEC conclut que les valeurs inférieures à 1,5°C sont très peu probables, ce qui signifie que la tranche 1,5-2°C reste envisageable (quoiqu'exclue de la fourchette et au même titre que les valeurs > à 4,5°C).

A noter : d'après le tableau 8-8-1, la valeur exacte de la fourchette GCMs est 2,1-4,4 °C.

A noter aussi : la réponse climatique transitoire va de 1,2 à 2,6°C pour 2xCO2, j'ignore en revanche le délai du transitoire vers l'équilibre.

Lien à poster
Partager sur d’autres sites

D'ailleurs, le GIEC conclut que les valeurs inférieures à 1,5°C sont très peu probables, ce qui signifie que la tranche 1,5-2°C reste envisageable (quoiqu'exclue de la fourchette et au même titre que les valeurs > à 4,5°C).

tu vois bien qu'on parle de probabilité puisqu'on parle de "probables".Il est clair que l'on ne peut exclure 1.5 à 2°C ainsi d'ailleurs que ce qui est < 1.5 ou > 5°C.

Il ne s'agit pas d'écarter un modèle par rapport à un autre mais il faut considérer l'ensemble des modèles et l'ensemble des pdf de chacun des modèles.

Cet ensemble donne lui-même un pdf à partir du "mixage" pdf des 18 modèles.

Nous avons déjà eu une discussion de ce genre je crois.

Lien à poster
Partager sur d’autres sites

tu vois bien qu'on parle de probabilité puisqu'on parle de "probables".

Il est clair que l'on ne peut exclure 1.5 à 2°C ainsi d'ailleurs que ce qui est < 1.5 ou > 5°C.

Il ne s'agit pas d'écarter un modèle par rapport à un autre mais il faut considérer l'ensemble des modèles et l'ensemble des pdf de chacun des modèles.

Cet ensemble donne lui-même un pdf à partir du "mixage" pdf des 18 modèles.

Nous avons déjà eu une discussion de ce genre je crois.

Oui on en a parlé, mais j'en suis toujours au même point. Si les résultats des 19 modèles sont indépendants et équiprobables, extraire une valeur médiane n'a pas de sens à mes yeux et induit le lecteur en erreur sur la "précision accrue des modèles". 2 est aussi probable que 4,5, et la fourchette autour de 2 aussi probable que celle autour de 4,5. Sur FS, Yves m'avait dit que c'était plutôt des prévisions d'ensemble, mais il semble à lire la Box 10.2 que ce n'est pas le cas. Murphy 2004 et Pinai 2005 ont fait en revanche ce genre de travail, en faisant varier plusieurs dizaines de paramètres et en faisant tourner à chaque fois jusqu'à l'équilibre 2xCO2. Mais ils l'ont fait sur un seul modèle (version simplifiée de HadAM3 ou HadSM3).
Lien à poster
Partager sur d’autres sites

Oui on en a parlé, mais j'en suis toujours au même point. Si les résultats des 19 modèles sont indépendants et équiprobables, extraire une valeur médiane n'a pas de sens à mes yeux et induit le lecteur en erreur sur la "précision accrue des modèles". 2 est aussi probable que 4,5, et la fourchette autour de 2 aussi probable que celle autour de 4,5. Sur FS, Yves m'avait dit que c'était plutôt des prévisions d'ensemble, mais il semble à lire la Box 10.2 que ce n'est pas le cas. Murphy 2004 et Pinai 2005 ont fait en revanche ce genre de travail, en faisant varier plusieurs dizaines de paramètres et en faisant tourner à chaque fois jusqu'à l'équilibre 2xCO2. Mais ils l'ont fait sur un seul modèle (version simplifiée de HadAM3 ou HadSM3).

Je suis pas assez au fait du truc pour pouvoir m'exprimer bp plus loin sans dire de bêtises et je trouve les explications dans l'AR4 assez indigestes.Pour le moment j'aurais tendance à considérer le domaine commun au plus grand nombre de modèles possible.

Ou alors à faire la moyenne des températures pondérées de leur probabilité (ou degré de confiance) données par chacun des modèles.

Voilà où j'en suis.

Mais je pense qu'on doit trouver une partie de la solution dans les fig 1 et 2 de la box 10.2.

en particulier le e/f de la fig 1 où manquent les points bleu représentant les résultats des AOGCM individuels.

Il ne semble pas qu'il y ait des pdf par modèle effectivement.

Je ne sais pas bien comment tout celà se calcule et s'articule.

Les "scientific basis" c'est bien, mais à condition de connaître les vrais bases théoriques.

C'est pareil pour la théorie de l'effet de serre, il n'y a rien.

Et ces rapports du GIEC sont tout à fait insuffisants pour aller au fond des choses.

En tous cas sur cette figure 1 on voit 3 figures qui représentent chacune des méthodes différentes d'évaluation de pdf global.

la première par les évènements passés style Pinatubo, la deuxième par la climatologie (?) et la troisième qui se réfère à ce dont on parle plus haut.

La valeur médiane se situe bien vers 3°C pour les différentes méthodes et c'est ce qui détermine le GIEC à se fixer là-dessus (voir la conclusion de la box 10.2)

Maintenant...

Lien à poster
Partager sur d’autres sites

La discussion est engagée de manière très intéressante sur les modèles du GIEC. J'espére que la publication du 4ème rapport sera accompagnées de données scientifiques suffisamment précises à ce sujet.

En attendant, voici une autre dépêche d'agence, celle de l'AFP:

Les scientifiques mondiaux réunis à Paris sur la bombe climatique

(AFP, 27 janvier 2007)

Près de 500 scientifiques du monde entier se réunissent lundi à Paris pour livrer leur diagnostic sur la "bombe climatique": le réchauffement planétaire déjà à l'œuvre et, surtout, à venir.

Le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC), mandaté par l'ONU, va plancher 4 jours à l'Unesco pour publier vendredi 2 février le chapitre scientifique de son quatrième rapport, véritable "bible" des connaissances climatiques qui servira de référence pour les cinq prochaines années.

Ce nouveau rapport, en cours d'élaboration depuis deux ans, ne devrait réserver "aucune bonne nouvelle": "C'est une confirmation de tout ce qu'on a dit depuis longtemps, mais avec des risques supplémentaires", selon le climatologue français Hervé Le Treut.

Fonte des glaces de mer et des sols gelés en profondeur (permafrost ou pergélisol), diminution de la couverture neigeuse, recul des glaciers, dilatation des océans réchauffés, sont autant de conséquences du réchauffement qui peuvent aussi, par "rétroaction", jouer les accélérateurs du processus.

Les climatologues redoutent en effet qu'au delà "d'effets de seuil", ces phénomènes pourraient amplifier le réchauffement, sans qu'il soit possible pour l'heure "de déterminer les limites à ne pas franchir", explique Edouard Bard du Collège de France.

La dernière livraison du GIEC, en 2001, estimait que les températures moyennes mondiales pourraient augmenter de 1,4 à 5,8°C d'ici la fin du siècle par rapport à 1990. Une amplitude de fourchette qui traduit moins les incertitudes de la science que celles liées à l'évolution des sociétés et des économies, plus ou moins énergivores.

"Par rapport à 2001, l'exercice sera plus large et plus complet et fera l'effort de présenter les résultats sous forme probabiliste: c'est à dire le degré de confiance accordé aux termes d'une fourchette donnée", indique Serge Planton, qui dirige la recherche climatologique à Météo-France.

Le thermomètre planétaire a déjà gagné 0,8°C en un siècle, pour moitié au cours des trente dernières années. "Hormis 1996, toutes les années depuis 1995 sont plus chaudes que n'importe quelle année depuis plus de 140 ans", note le climatologue français Jean Jouzel, membre du bureau du GIEC.

Et pour la communauté scientifique, cette accélération du réchauffement constaté dans les dernières décennies ne peut s'expliquer par la seule variation naturelle du climat. Une bonne part des gaz à effet de serre lâchés dans l'atmosphère le sont par les activités humaines, ce qui impose une réaction de la part des dirigeants du monde.

C'est à eux que s'adresse le "résumé à l'intention des décideurs" que leur concocteront les experts réunis à Paris. Un résumé en dix pages du rapport de synthèse, qui dira l'essentiel et le plus clairement possible, mais qui va nécessiter d'ardents débats et un marchandage "ligne par ligne", selon Jean Jouzel.

Ce résumé sert de socle à l'action internationale en faveur de la réduction des émissions de GES dans le monde, cadrée par le protocole de Kyoto.

"A l'heure actuelle, le réchauffement moyen tel que montré par les simulations est de l'ordre de +3°C en 2100. Mais tout dépendra des scénarios de réduction des émissions de GES", qui varient selon les choix économiques, la démographie mais aussi la diplomatie, indique Edouard Bard.

L'Union européenne a déjà fait sienne la conviction d'experts réunis en 2005 à Exeter, au Royaume-Uni: au delà de 2°C supplémentaires, la planète aura du mal à s'adapter.

Lien à poster
Partager sur d’autres sites

...En attendant, voici une autre dépêche d'agence, celle de l'AFP:

Les scientifiques mondiaux réunis à Paris sur la bombe climatique

(AFP, 27 janvier 2007)

Près de 500 scientifiques du monde entier se réunissent lundi à Paris pour livrer leur diagnostic sur la "bombe climatique": le réchauffement planétaire déjà à l'œuvre et, surtout, à venir.

Le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC), mandaté par l'ONU, va plancher 4 jours à l'Unesco pour publier vendredi 2 février le chapitre scientifique de son quatrième rapport, véritable "bible" des connaissances climatiques qui servira de référence pour les cinq prochaines années.

Ce nouveau rapport, en cours d'élaboration depuis deux ans, ne devrait réserver "aucune bonne nouvelle": "C'est une confirmation de tout ce qu'on a dit depuis longtemps, mais avec des risques supplémentaires", selon le climatologue français Hervé Le Treut.

Fonte des glaces de mer et des sols gelés en profondeur (permafrost ou pergélisol), diminution de la couverture neigeuse, recul des glaciers, dilatation des océans réchauffés, sont autant de conséquences du réchauffement qui peuvent aussi, par "rétroaction", jouer les accélérateurs du processus.

Les climatologues redoutent en effet qu'au delà "d'effets de seuil", ces phénomènes pourraient amplifier le réchauffement, sans qu'il soit possible pour l'heure "de déterminer les limites à ne pas franchir", explique Edouard Bard du Collège de France.

La dernière livraison du GIEC, en 2001, estimait que les températures moyennes mondiales pourraient augmenter de 1,4 à 5,8°C d'ici la fin du siècle par rapport à 1990. Une amplitude de fourchette qui traduit moins les incertitudes de la science que celles liées à l'évolution des sociétés et des économies, plus ou moins énergivores.

"Par rapport à 2001, l'exercice sera plus large et plus complet et fera l'effort de présenter les résultats sous forme probabiliste: c'est à dire le degré de confiance accordé aux termes d'une fourchette donnée", indique Serge Planton, qui dirige la recherche climatologique à Météo-France.

Le thermomètre planétaire a déjà gagné 0,8°C en un siècle, pour moitié au cours des trente dernières années. "Hormis 1996, toutes les années depuis 1995 sont plus chaudes que n'importe quelle année depuis plus de 140 ans", note le climatologue français Jean Jouzel, membre du bureau du GIEC.

Et pour la communauté scientifique, cette accélération du réchauffement constaté dans les dernières décennies ne peut s'expliquer par la seule variation naturelle du climat. Une bonne part des gaz à effet de serre lâchés dans l'atmosphère le sont par les activités humaines, ce qui impose une réaction de la part des dirigeants du monde.

C'est à eux que s'adresse le "résumé à l'intention des décideurs" que leur concocteront les experts réunis à Paris. Un résumé en dix pages du rapport de synthèse, qui dira l'essentiel et le plus clairement possible, mais qui va nécessiter d'ardents débats et un marchandage "ligne par ligne", selon Jean Jouzel.

Ce résumé sert de socle à l'action internationale en faveur de la réduction des émissions de GES dans le monde, cadrée par le protocole de Kyoto.

"A l'heure actuelle, le réchauffement moyen tel que montré par les simulations est de l'ordre de +3°C en 2100. Mais tout dépendra des scénarios de réduction des émissions de GES", qui varient selon les choix économiques, la démographie mais aussi la diplomatie, indique Edouard Bard.

L'Union européenne a déjà fait sienne la conviction d'experts réunis en 2005 à Exeter, au Royaume-Uni: au delà de 2°C supplémentaires, la planète aura du mal à s'adapter.

Je sais bien que je ne vais pas faire beaucoup avancer le shmilblic mais tout de même...

Je m'interroge sur l'intérêt d'une d'une dépêche non factuelle.

Chacun sait que le ton général est celui du journaliste qui doit "vendre" son papier en concurrence avec les autres agences. Le journaliste est au final jugé sur la diffusion de ses papiers.

Il est donc normal de lire un mélange d'apparence de sérieux pour sopn renom et de ton catastrophiste pour la vente. Le reste importe peu.

Le ton est clairement affiché par la bombe climatique.

Les citations, nous le savons tous, sont tirées de contextes inconnus et sont parfois profondément modifiées.

Nombreux sont ceux qui disent ensuite : «Je n'ai pas dit cela».

Le texte lui-même est plus que sujet à caution.

publier vendredi 2 février le chapitre scientifique alors que C. M. dit explicitement que la partie scientifique ne sera publiée qu'en mai.

À l'heure actuelle, le réchauffement moyen tel que montré par les simulations est de l'ordre de +3°C en 2100.

Cette heure actuelle en 2100 suivi par est au lieu de sera est d'une plume qui dérape.

Enfin un marchandage "ligne par ligne" mérite à lui seul une mention spéciale.

Lien à poster
Partager sur d’autres sites

(...)

Les scientifiques mondiaux réunis à Paris sur la bombe climatique

(AFP, 27 janvier 2007)

Une bombe... à retardement default_clover.gif
Ce nouveau rapport, en cours d'élaboration depuis deux ans, ne devrait réserver "aucune bonne nouvelle": "C'est une confirmation de tout ce qu'on a dit depuis longtemps, mais avec des risques supplémentaires", selon le climatologue français Hervé Le Treut.

Ah ? J'ai dû mal lire le Second Draft, je trouve que l'évacuation des valeurs hautes des scénarios irréalistes, la hausse limitée du niveau des mers ou l'incertitude sur la variabilité naturelle du dernier millénaire sont des "bonnes nouvelles".
Fonte des glaces de mer et des sols gelés en profondeur (permafrost ou pergélisol), diminution de la couverture neigeuse, recul des glaciers, dilatation des océans réchauffés, sont autant de conséquences du réchauffement qui peuvent aussi, par "rétroaction", jouer les accélérateurs du processus.

Les climatologues redoutent en effet qu'au delà "d'effets de seuil", ces phénomènes pourraient amplifier le réchauffement, sans qu'il soit possible pour l'heure "de déterminer les limites à ne pas franchir", explique Edouard Bard du Collège de France.

A nouveau, le Second Draft parle très peu de ces effets de seuil - et pour cause, ils n'apparaissent pas dans les 19 modèles GCM du GIEC dont le comportement est linéaire en 2000-2100. Donc, on redoute maintenant un phénomène que les modèles n'annoncent pas. On redoute en fait que les modèles soient médiocres, ce qui est ma foi assez légitime.
La dernière livraison du GIEC, en 2001, estimait que les températures moyennes mondiales pourraient augmenter de 1,4 à 5,8°C d'ici la fin du siècle par rapport à 1990. Une amplitude de fourchette qui traduit moins les incertitudes de la science que celles liées à l'évolution des sociétés et des économies, plus ou moins énergivores.

Le grand classique journalistique (et parfois scientifique hélas) : on met l'amplitude de la fourchette sur le dos des seules émissions humaines, alors même qu'elle dépend tout autant de la sensibilité climatique (de l'incapacité des modèles à amélioer leur estimation sur ce sujet purement climatique, indépendant des émissions).Exemple : la sensibilité climatique transitoire des modèles va de 0,32 à 0,70 K / W/m2. Le forçage moyen attendu en 2100 va de 4,19 W/m2 (B1) à 8,07 W/m2 (A2). Donc, le facteur d'incertitude de la sensibilité transitoire (2,19) est supérieur au facteur d'incertitude du forçage anthropique (1,93).

"Par rapport à 2001, l'exercice sera plus large et plus complet et fera l'effort de présenter les résultats sous forme probabiliste: c'est à dire le degré de confiance accordé aux termes d'une fourchette donnée", indique Serge Planton, qui dirige la recherche climatologique à Météo-France.

On a vu que ce n'était pas clair pour la sensibilité cimatique. Quant aux scénarios, l'impression que j'ai retirée de la lecture est que A1FI est discrètement relégué. (Scénarios qui sont tous déjà faux, rappelons-le, sur le CH4).
Le thermomètre planétaire a déjà gagné 0,8°C en un siècle, pour moitié au cours des trente dernières années. "Hormis 1996, toutes les années depuis 1995 sont plus chaudes que n'importe quelle année depuis plus de 140 ans", note le climatologue français Jean Jouzel, membre du bureau du GIEC.

A ce sujet, un calcul de Steve McIntyre :http://www.climateaudit.org/?p=1106#more-1106

Je ne sais pas comment les estimations sont passées de 0,6°C 1901-2000 à 0,8°C 1906-2005. Les 0,2°C ne se retrouvent pas dans la pente du réchauffement 2001-2005.

Et pour la communauté scientifique, cette accélération du réchauffement constaté dans les dernières décennies ne peut s'expliquer par la seule variation naturelle du climat. Une bonne part des gaz à effet de serre lâchés dans l'atmosphère le sont par les activités humaines, ce qui impose une réaction de la part des dirigeants du monde.

Il serait utile se savoir par quoi cette "accélération" s'explique exactement. Les cycles 21 et 22 du soleil ont été apparemment les 2e et 3e plus élevés du XXe siècle, les aérosols sulfatés anthropiques ont baissé entre 1979 et 2007, la nébulosité semble avoir évolué en faveur d'un réchauffement depuis une quinzaine d'années, l'humanité a gagné 2 milliards d'humains et modifié les usages des sols... les GES sont un co-facteur, mais l'estimation de leur poids exact sur les T régionales ou globales serait utile pour les "dirigeants du monde".
C'est à eux que s'adresse le "résumé à l'intention des décideurs" que leur concocteront les experts réunis à Paris. Un résumé en dix pages du rapport de synthèse, qui dira l'essentiel et le plus clairement possible, mais qui va nécessiter d'ardents débats et un marchandage "ligne par ligne", selon Jean Jouzel.

Ce résumé sert de socle à l'action internationale en faveur de la réduction des émissions de GES dans le monde, cadrée par le protocole de Kyoto.

Ce résumé est nul de l'avis de tout le monde : les uns se plaignent de la pression des politiques, les autres disent que les chercheurs minimisent leurs incertitudes, tout le monde reconnaît qu'il est stérile de passer trois heures à chipoter une virgule... Pourquoi donc centrer sa communication sur un texte aussi peu fiable? Pourquoi attendre mai pour mettre en ligne le rapport WG1 complet ? A ce sujet, je me permets de renvoyer vers une étrange précision de méthode dans les statuts du GIEC, où il apparaît que la partie I du rapport peut être légèrement modifiée pour se conformer au Résumé (et non l'inverse) :http://www.climat-sceptique.com/article-5414655.html

"A l'heure actuelle, le réchauffement moyen tel que montré par les simulations est de l'ordre de +3°C en 2100. Mais tout dépendra des scénarios de réduction des émissions de GES", qui varient selon les choix économiques, la démographie mais aussi la diplomatie, indique Edouard Bard. L'Union européenne a déjà fait sienne la conviction d'experts réunis en 2005 à Exeter, au Royaume-Uni: au delà de 2°C supplémentaires, la planète aura du mal à s'adapter.

Réchauffement moyen vide de sens, comme d'habitude, puisque ni les scénarios ni les sensibilités climatiques ne peuvent être tous vrais en même temps, et que les GCM du GIEC ne peuvent pas prendre en compte la variabilité naturelle soleil+volcan des décennies à venir. Environ 70% des médias se contentent de recopier les dépêches AFP (ou AP ou Reuters) car ils n'ont pas de rédacteurs scientifiques spécialisés. Cela nous promet encore une couverture précise et objective des progrès des sciences climatiques...
Lien à poster
Partager sur d’autres sites

(...)

A nouveau, le Second Draft parle très peu de ces effets de seuil - et pour cause, ils n'apparaissent pas dans les 19 modèles GCM du GIEC dont le comportement est linéaire en 2000-2100. Donc, on redoute maintenant un phénomène que les modèles n'annoncent pas. On redoute en fait que les modèles soient médiocres, ce qui est ma foi assez légitime.

Le grand classique journalistique (et parfois scientifique hélas) : on met l'amplitude de la fourchette sur le dos des seules émissions humaines, alors même qu'elle dépend tout autant de la sensibilité climatique (de l'incapacité des modèles à amélioer leur estimation sur ce sujet purement climatique, indépendant des émissions).

Exemple : la sensibilité climatique transitoire des modèles va de 0,32 à 0,70 K / W/m2. Le forçage moyen attendu en 2100 va de 4,19 W/m2 (B1) à 8,07 W/m2 (A2). Donc, le facteur d'incertitude de la sensibilité transitoire (2,19) est supérieur au facteur d'incertitude du forçage anthropique (1,93).

On a vu que ce n'était pas clair pour la sensibilité cimatique. Quant aux scénarios, l'impression que j'ai retirée de la lecture est que A1FI est discrètement relégué. (Scénarios qui sont tous déjà faux, rappelons-le, sur le CH4).

Je ne sais pas comment les estimations sont passées de 0,6°C 1901-2000 à 0,8°C 1906-2005. Les 0,2°C ne se retrouvent pas dans la pente du réchauffement 2001-2005.

Il serait utile se savoir par quoi cette "accélération" s'explique exactement. Les cycles 21 et 22 du soleil ont été apparemment les 2e et 3e plus élevés du XXe siècle, les aérosols sulfatés anthropiques ont baissé entre 1979 et 2007, la nébulosité semble avoir évolué en faveur d'un réchauffement depuis une quinzaine d'années, l'humanité a gagné 2 milliards d'humains et modifié les usages des sols... les GES sont un co-facteur, mais l'estimation de leur poids exact sur les T régionales ou globales serait utile pour les "dirigeants du monde".

Réchauffement moyen vide de sens, comme d'habitude, puisque ni les scénarios ni les sensibilités climatiques ne peuvent être tous vrais en même temps, et que les GCM du GIEC ne peuvent pas prendre en compte la variabilité naturelle soleil+volcan des décennies à venir.

D'accord pour dire que calculer une moyenne entre des scénarios (dont au mieux un seul se vérifiera) n'a scientifiquement aucun sens . Mieux vaudrait en citer 3 (ou plus) en précisant leurs différences.D'accord également pour dire qu'il n'y a pas que les GES à prendre en compte et que les incertitudes des prévisions (en admettant qu'elles soient vraisemblables) proviennent au moins autant des facteurs naturels (el Niño, volcans, activité solaire...) que des facteurs anthropiques.

D'accord aussi pour reprocher l'absence de prise en compte des possibles (probables selon moi) effets de seuil (Edouard Bard le remarque à juste titre).

Imagine une seconde que j'aie raison (ce que je ne souhaite pas, mais que je redoute) : après le 2ème seuil de 2005, marqué par l'accélération du dégel profond du permafrost sur de larges superficies, un nouveau seuil climatique apparaitrait avec la disparition estivale quasi compléte de la banquise dans deux décennies environ, après une accélération du processus au cours des années précédentes. Quelques années plus tard, un quatrième seuil découlerait du début de la déstabilisation massive des gisements de clathrates.

Ce n'est alors plus un accroissement de l'ordre de 3°C qu'il faudrait redouter pour la fin du siècle, mais beaucoup plus encore et bien plus rapidement. Les modèles 2007 de l'IPCC ne seraient alors plus que des exemples catastrophiques (c'est là que l'adjectif serait justifié) d'erreur par ommission...

Alain

Lien à poster
Partager sur d’autres sites

D'accord pour dire que calculer une moyenne entre des scénarios (dont au mieux un seul se vérifiera) n'a scientifiquement aucun sens . Mieux vaudrait en citer 3 (ou plus) en précisant leurs différences.

D'accord également pour dire qu'il n'y a pas que les GES à prendre en compte et que les incertitudes des prévisions (en admettant qu'elles soient vraisemblables) proviennent au moins autant des facteurs naturels (el Niño, volcans, activité solaire...) que des facteurs anthropiques.

D'accord aussi pour reprocher l'absence de prise en compte des possibles (probables selon moi) effets de seuil (Edouard Bard le remarque à juste titre).

Bonjour Alain, Je pense que l'histoire des scénarios, c'est pour cacher les lacunes énormes des modèles en faisant croire que l'incertitude est due à l'imprévisibilité des émissions humaines.

En effet, si tu lis bien le rapport scientifique, voire même le Résumé pour Décideurs (mais pour le deuxième document il faut savoir décoder un langage totalement abscon destiné justement à noyer le poisson), tu verras que la fourchette de température, c'est pour un doublement de CO2 (passage de 280 ppm à 560 ppm). Si la fourchette large, c'est à cause du flou total dans le modèle, pas à cause de l'imprévisibilité des émissions humaines, volcans, el Nino ou autres.

D'ailleurs, je te rappelle que tu as toi même dit sur ce forum qu'El Nino fait partie de la variabilité interannuelle qui est "intégrée" dans la climatologie (sous entendu, ne devrait pas influer sur les prévisions climatologique à assez long terme). A moins que je t'ai mal compris, ça me semble en contradiction avec ce que tu affirmes ici.

Lien à poster
Partager sur d’autres sites

La discussion est engagée de manière très intéressante sur les modèles du GIEC. J'espére que la publication du 4ème rapport sera accompagnées de données scientifiques suffisamment précises à ce sujet.

En attendant, voici une autre dépêche d'agence, celle de l'AFP:

Les scientifiques mondiaux réunis à Paris sur la bombe climatique

(AFP, 27 janvier 2007)

Près de 500 scientifiques du monde entier se réunissent lundi à Paris pour livrer leur diagnostic sur la "bombe climatique": le réchauffement planétaire déjà à l'œuvre et, surtout, à venir.

***modéré***

"Ce nouveau rapport, en cours d'élaboration depuis deux ans, ne devrait réserver "aucune bonne nouvelle":... selon le climatologue français Hervé Le Treut."

M. Le Treut ***modéré***

oublie de dire qu'on va réviser à la baisse

1)la hausse des océans d'au moins 20%,

2)l'influence anthropique dans le RC de 25 à 50% et

3)l'ESTIMATION des dégâts d'une quantité inconnue qui se "discutée ligne à ligne" par des politiciens.

"La dernière livraison du GIEC, en 2001, estimait que les températures moyennes mondiales pourraient augmenter de 1,4 à 5,8°C d'ici la fin du siècle par rapport à 1990. Une amplitude de fourchette qui traduit moins les incertitudes de la science que celles liées à l'évolution des sociétés"

Messieurs de l'AFP, la fourchette de températures annoncée correspond à un doublement du CO2 par rapport à l'ère préindustrielle (la fameuse "sensibilité", càd l'hypothèse du passage de 280ppm à 560ppm) et si elle est d'amplitude aussi monstrueusement "ample", ce n'est pas dû à l'incertitude sur l'évolution des émissions mais bien dû à l'abîme d'incertitude de la "science" climatique.

Lien à poster
Partager sur d’autres sites

Invité
Ce sujet ne peut plus recevoir de nouvelles réponses.
 Partager

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...