Aller au contenu
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

4ème Rapport du GIEC-IPCC


Alain Coustou
 Partager

Messages recommandés

...

Lorsque Galilée a conclu que la Terre était ronde, le consensus unanime était contre lui,

...

Serge Galam, physicien au CNRS, membre du Centre de recherche en épistémologie appliquée (CREA) de l'Ecole polytechnique.

Moi qui pensais que Galilée était surtout défenseur de la théorie héliocentrique et que tous ses contemporains voire l'Eglise savaient déjà depuis longtemps que la Terre était ronde puisque même la grosse majorité des érudits médiévaux le savait déjà. default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20">
Lien à poster
Partager sur d’autres sites

  • Réponses 351
  • Créé
  • Dernière réponse

Les plus actifs

- sur la fiabilité des modèles climatiques, on n'en sait rien d'un point de vue empirique. Un modèle météo a sa sanction au bout de trois ou quatre jours, un modèle climato, il faut attendre trois ou quatre décennies minimum. De toute façon, on ne peut considérer les valeurs 2100 que comme des valeurs provisoires, vu que le couplage avec les cycles du carbone ne fait que commencer, que les SRES évolueront, que la sensiblité climatique moyenne évolue d'un rapport GIEC sur l'autre, etc.

J'ai une question:

Il me semble que des comparaisons entre les modélisations et les observations des températures ont été faites pour vérifier le forçage anthropique (à partir de 1860). Le cumul du forçage naturel et anthropique modélise une courbe quasi identique aux observations.

N'est ce pas la une validation de modèle climatique pour ce qui concerne les températures ?

Lien à poster
Partager sur d’autres sites

J'ai une question:

Il me semble que des comparaisons entre les modélisations et les observations des températures ont été faites pour vérifier le forçage anthropique (à partir de 1860). Le cumul du forçage naturel et anthropique modélise une courbe quasi identique aux observations.

N'est ce pas la une validation de modèle climatique pour ce qui concerne les températures ?

Il y a un petit problème cependant.

Si on connait assez bien le forçage des GES, on connait moins bien le forçage des aérosols, puisque l'estimation de ce dernier varie du simple au triple.

C'est un peu pareil pour la sensibilité climatique qui comprend la rétroaction de la vapeur d'eau, puisqu'elle varie du simple au double.

Ce qu'on peut faire c'est donc se servir d'une partie de la réalité mesurée pour déterminer le reste de cette réalité.

Ou alors se servir d'évènements climatiques pour paramétriser la sensibilité climatique (ex Pinatubo, phase glaciaire,...)

Sinon comment faire?

Lien à poster
Partager sur d’autres sites

Il y a un petit problème cependant.

Si on connait assez bien le forçage des GES, on connait moins bien le forçage des aérosols, puisque l'estimation de ce dernier varie du simple au triple.

C'est un peu pareil pour la sensibilité climatique qui comprend la rétroaction de la vapeur d'eau, puisqu'elle varie du simple au double.

Ce qu'on peut faire c'est donc se servir d'une partie de la réalité mesurée pour déterminer le reste de cette réalité.

Ou alors se servir d'évènements climatiques pour paramétriser la sensibilité climatique (ex Pinatubo, phase glaciaire,...)

Sinon comment faire?

Les courbes simulées me semblent assez proches des observations, il y a une différences mais l'allure générale est bien conforme à la réalité. Cela sous entend en effet qu'il reste des inconnues mais la forte croissance des températures depuis 1970 ne peut pas s'expliquer autrement que par une action anthropique il me semble non ?

Qu'en pensez vous ? voyez vous de quelles courbes je parle ?

Lien à poster
Partager sur d’autres sites

Les courbes simulées me semblent assez proches des observations, il y a une différences mais l'allure générale est bien conforme à la réalité. Cela sous entend en effet qu'il reste des inconnues mais la forte croissance des températures depuis 1970 ne peut pas s'expliquer autrement que par une action anthropique il me semble non ?

Qu'en pensez vous ? voyez vous de quelles courbes je parle ?

Oui je vois de quelles courbes il s'agit.

Et il n'y a pas, à ma connaissance, de phénomène naturel pouvant expliquer le delta entre réalité constatée et reconstruction à partir des forçages naturels connus ou supposés connus.

Mais la détermination de ce fameux delta alors qu'il existe des inconnues comme, j'y reviens, le forçage des aérosols, me pose un problème.

En fait ce qui manque, comme je m'en suis déjà exprimé avec Charles Muller, c'est le pdf des différents forçages.

Si par exemple on dit que RF direct et indirect actuel des aérosols est égal à -1.5W/m2 à 80% je ne trouverais pas anormal d'utiliser ce genre d'info pour reconstruire la température.

Mais on n'a pas cette info.

Bon c'est du pinaillage peut-être, mais ce genre de problème m'intéresse.

Un autre problème est le manque de réponses précises vis à vis de nombreuses hypothèses émises par ceux que l'on appelle les "sceptiques".

Par exemple, certains auteurs signalent une augmentation forte du flux solaire direct au sol au cours de la décennie 1990-2000.

Cette augmentation est importante et plus importante que le RF du CO2.

Je n'ai pas personnellement les moyens de répondre à ce genre d'arguments.

Bon moi c'est pas très grave, mais où çà l'est plus, c'est que la réponse des scientifiques experts de ces choses est loin d'être claire et souvent évasive.

Tout celà est un peu embêtant et finit par créer bp de confusion.

Lien à poster
Partager sur d’autres sites

Achazare, Meteor

Quand on prend le temps de lire, le Rapport complet (pas le Résumé) est assez clair. Je cite des extraits de la section 9.1.2 sur l'attribtion-détection des changements climatiques :

Model and forcing uncertainties are important considerations in attribution research. Ideally, the assessment of model uncertainty should include uncertainties in model parameters (for example, as explored by multi-model ensembles, Chapter 10), and in the representation of physical processes in models (structural uncertainty). Such an assessment is not yet available, although research with that goal in mind is underway and model intercomparison studies (see Chapter 8) continue to improve our appreciation of these uncertainties. The effects of forcing uncertainties, which can be considerable for some forcing agents, such as solar and aerosol forcing (see Section 9.2), also remain difficult to evaluate, despite advances in research.

(...)

The approaches used in detection and attribution research described above can not fully account for all uncertainties, and thus ultimately expert judgement is used to estimate the likelihood that a specific cause is responsible for a given climate change.

En clair, on ne sait pas aujourd'hui réduire les incertitudes structurelles des modèles ni les incertitudes d'évaluation des forçages. En dernier ressort, la vraisemblance d'une conclusion relève de l'avis des experts, pas d'une analyse quantitative.

Donc, on peut toujours faire des courbes montrant la variabilité naturelle (supposée) et la variabilité forcée au XXe siècle, ces courbes reposent en dernier ressort sur des incertitudes grevant toute estimation quantifiée de ce que l'on met en avant.

Quant on connaît la variabilité des modèles sur les flux d'énergie surface-troposphère (ordre de grandeur : plusieurs dizaines de W/m2), et quand on sait l'absence de mesures fiables sur cinquante ans d'un grand nombre de facteurs (aérosols, nuages, insolation, contenu de chaleur océans, etc.), l'idée d'attribuer de manière exacte la part de 0,6-2,4W/m2 de forçage anthropique dans 0,4-0,6°C sur les trois dernières décennies apparaît comme assez farfelue.

Un faisceau d'indices montre avec quasi-certitude que les facteurs anthropiques expliquent une partie des tendances observées. Cela ne va pas au-delà à mon avis.

Lien à poster
Partager sur d’autres sites

Quand on prend le temps de lire, le Rapport complet (pas le Résumé) est assez clair. Je cite des extraits de la section 9.1.2 sur l'attribtion-détection des changements climatiques :

oui il faudrait aussi prendre le temps de lire ce que j'écris default_blink.png

tant qu'à faire.

à savoir:

Mais la détermination de ce fameux delta alors qu'il existe des inconnues comme, j'y reviens, le forçage des aérosols, me pose un problème

Mais on n'a pas cette info

ou encore

Un autre problème est le manque de réponses précises vis à vis de nombreuses hypothèses émises par ceux que l'on appelle les "sceptiques".

Par exemple, certains auteurs signalent une augmentation forte du flux solaire direct au sol au cours de la décennie 1990-2000.

Cette augmentation est importante et plus importante que le RF du CO2.

Je n'ai pas personnellement les moyens de répondre à ce genre d'arguments.

Bon moi c'est pas très grave, mais où çà l'est plus, c'est que la réponse des scientifiques experts de ces choses est loin d'être claire et souvent évasive.

Tout celà est un peu embêtant et finit par créer bp de confusion.

donc je veux bien continuer à discuter de façon aimable mais à condition qu'on prenne la peine de me lire.

c'est clair?

Lien à poster
Partager sur d’autres sites

(...)

c'est clair?

Non pas trop default_blink.png . Je répondais aux derniers échanges en général, j'apporte une précision émanant du GIEC lui-même. Cette précision confirme en effet tes propos (comme les miens). A dire vrai, je pensais plus à Achazare qu'à toi en rédigeant ma réponse : je suppose que le fait de citer directement le GIEC est de nature à le convaincre plus efficacement que tous les arguments de la terre que je pourrais dénicher.

Sinon, à mesure que je lis ici ou là les réactions, j'ai un peu l'impression "à chaud"" que ce rapport GIEC marque les limites de l'exercice. AR4 ne fait finalement que répéter AR3 sur bien des points, avec seulement un peu plus de mesures dans l'intervalle. Rien de neuf sur la physique, rien de décisif sur les incertitudes, rien de convaincant sur les progrès.

Et puis en un sens, la messe est dite : les experts sont convaincus que les GES anthropiques représentent la majeure part du réchauffement aujourd'hui et plus encore demain ; ils n'excluent pas des conséquences dommageables si rien n'est fait pour limiter les émissions. Ils ont donc répondu à la question posée par la CCNU sur le changement climatique voici une vingtaine d'années. A mon sens, il est temps de liquider le gros bidule et de le remplacer par des rapports plus circonstanciés sur les avancées des sciences climatiques.

Lien à poster
Partager sur d’autres sites

Non pas trop default_flowers.gif .

mais si, mais si default_blink.png

y a quand même un truc, et je reviens à ce qui me préoccupe, à savoir les aérosols.

je me permets de rappeler ces graphes que tu nous avais montrés:

aerosolsmissionsbn3.jpg

on voit, pour les aérosols sulfatés, une baisse de 113 Mt/an à 83Mt/an.

Il semble que ce soit stabilisé hors Asie de l'Est.

Il n'est pas trop invraisemblable de supposer une hausse de cette production d'aérosols en Chine et en Inde.

Je dirais donc que 90 à 100Mt/an de S sont tout à fait possibles.

Dans le même temps les émissions de BC ont également diminué.

C'est pourquoi finalement je ne pense pas trop idiot de considérer, in fine, que l'effet aérosols est resté quasi-constant depuis 1990.

Autrement dit, considérer la période 1990(+-qqchose)/2006 comme une période à aérosols constant nous libèrerait, si cette hypothèse est valable, d'une incertitude bien embêtante.

si on regarde la tendance 1990-2005 on a 0.232°C par décennie d'augmentation, soit 0.37°C, pour un delta forçage de 0.465W/m2 concernant les GES uniquement.

bon je laisse tomber le solaire qui de toute façon a baissé en activité puisque 2005 est proche du mini solaire et 1990 proche d'un maxi.

Je laisse tomber aussi la variabilité naturelle, ne la connaissant pas.

Je suis bien obligé aussi de tenir compte d'une durée de 16 ans pas très recommandée climatologiquement parlant.

D'où les limites de l'exercice mais, si je poursuis, celà me donne 0.8°C.m2/W de sensibilité au forçage.

C'est un peu élevé surtout si l'on tient compte de l'inertie thermique.

il est donc possible qu'un autre phénomène agisse surtout que la période en question comprend Pinatubo et El Nino 98.

Faudra que j'essaie de "gommer" ces 2 évènements.

Lien à poster
Partager sur d’autres sites

Météor,

Pour les aérosols, il faudrait connaître la marge d'erreur des courbes de tes graphiques. Autant pour les émissions humaines de CO2, on peut avoir une bonne estimation, autant pour les aérosols, c'est très très difficile! Je prends l'exemple du soufre. Entre une chaufferie moderne équipé de scrubber et une ancienne techno telle qu'on trouve dans les pays pauvres ou de l'ex bloc sovietique, le taux d'émission de soufre n'est pas du tout le même. Comment alors connaître ce qui est dans l'air même si on connait précisément la quantité brûlée (ce qui n'est même pas vrai). D'autant plus que les aérosols étant des composés à durée de vie courte, leur concentration est hautement dépendant de la météo.

Bref l'incertitude doit être énorme (à vérifier), un peu comme pour les émissions d'émission de méthane.

Lien à poster
Partager sur d’autres sites

Le pb avec les aérosols, c'est leur répartition spatiale dure à cerner. On sait par exemple qu'ils ont de l'influence au-dessus de l'Arctique alors qu'il y a peut d'industries là-bas. Mais grosso modo, vu leur faible durée de vie (quelques heures à quelques jours), on peut penser que l'influence est plutôt locale et régionale, à un ou deux milliers de km autour de l'émission. (C'est d'ailleurs l'échelle donnée dans le tableau de synthèse radiative forcing du SPM).

Il faudrait donc observer zone / zone pour analyser l'effet sur les T, plutôt que de ramener au global terre+océan.

Pour 1980-2000, en arrondi "de vue" :

Europe 24 > 14 (-41%)

Etats-Unis 23 > 17 (-26%)

Europe Est 14 > 11 (-21%)

URSS 29 > 13 (-56%)

Japon 2 > 1 (-50%)

Asie Est 20 > 30 (+50%)

(Je pense que East Asia c'est Chine + Inde dans cette classification, mais je n'ai pas vérifié).

Pour la suie de carbone, la problématique est la même. Dans le tableau RF du SPM, il est indiqué +0,1 W/m2 pour les dépôts de BC sol et neige (réduction de l'albedo de surface), mais leur effet atmosphérique n'est malheureusement pas isolé et quantifié parmi les aérosols.

Sinon, comme tu le soulignes toi-même, le problème de ces exercices sur des durées courtes est la validité du signal sur une courte période, surtout avec les deux événements "forts" Pinatubo 91 et El Nino 98, en sens opposé d'ailleurs.

PS : en y pensant, si l'on regarde juste la hausse des T constatée en 2006 et rapportée à la hausse du forçage, il faut analyser en terme de réponse transitoire, pas de sensibilité à l'équilibre. Or, la réponse transitoire à un doublement CO2 se situe entre 1,3 et 2,6 °C dans les 18 modèles AR4. Donc, rapporté à 3,7 W/m2 de doublement, cela fait à peu près 0,35 à 0,49 °C.W/m2. Mais c'est sans doute périlleux de raisonner ainsi, puisque le climat 1990-2006 ne fait pas que répondre aux variations directes de forçages sur la période.

Lien à poster
Partager sur d’autres sites

Concernant les émissions de soufre ce sont des estimations dont il faudrait en effet avoir la marge d'erreur.

Elles sont basées probablement sur la teneur en soufre des différents combustibles, qui ont subi des désulfurations à des degrés divers et sur une estimation des dispositif placés sur les circuits de fumées des différentes chaudières.

Si ce n'est pas trop difficile d'avoir ces estimations pour les pays développés (enquêtes AIE par exemple) c'est par contre plus difficile pour les pays émergents.

Le but de l'exercice ultra-simpliste auquel je me livrais était justement de mettre en évidence la difficulté d'attribution du réchauffement observé.

Même en tenant compte de la variabilité naturelle (dont Pinatubo et El Nino) on voit bien que l'attribution aux seuls GES du RC sur une période aussi courte ne semble pas aussi sûre que celà.

Lien à poster
Partager sur d’autres sites

"Pour la publication du résumé à l’intention des décideurs, du Groupe de travail I de son quatrième Rapport d’évaluation, le Groupe d’experts Intergouvernemental sur l’Evolution du Climat (GIEC) s’est réuni sur invitation de la France, à Paris, du 29 janvier au 1er février 2007.

Cette traduction provisoire du résumé n’engage en rien la version officielle anglaise du GIEC. Elle a pour but d’offrir rapidement une version française accessible au plus grand nombre."

http://www.mediaterre.org/doc/2006/resume_g1_giec_2007.pdf

L'intention est salutaire.

Par contre, il est dommage, et symptomatique, que la seule partie non traduite de ce document est le tableau de la page 10/25, qui montre que le GIEC lui-même est bien loin d'être certain de la responsabilité humaine sur plusieurs tendances, n'en déplaise aux alarmistes.

De plus, les commentaires importants associés au tableau n'apparaissent pas du tout dans cette traduction. Ce n'était pourtant pas bien difficile, tant qu'à faire, de traduire ce tableau et ses commentaires...gênants pour les thèses personnelles des traducteurs ?

Je rappelle ces tendances envisagées pour le XXIème siècle, avec la probabilité DE LA RESPONSABILITE HUMAINE pour chacune d'entre elles (et non la probabilité d'occurence):

___________

Des jours et des nuits froids moins fréquents et plus doux sur la plupart des régions: PROBABLE

Des jours et des nuits chauds plus fréquents et plus chauds sur la plupart des régions: PROBABLE POUR LES NUITS [rien d'indiqué pour les jours]

Des vagues de chaleur plus fréquentes sur la plupart des régions: MOINS QUE PROBABLE

Des évenements de précipitations intenses plus fréquents (ou des % plus élevés des fortes précipitations sur le total des précipitations) sur la plupart des régions: MOINS QUE PROBABLE

Des régions davantage affectées par des sécheresses: MOINS QUE PROBABLE

Des cyclones plus intenses: MOINS QUE PROBABLE

Une augmentation de l'apparition de niveaux de la mer élevés extrêmes (à l'exclusion des tsunamis): MOINS QUE PROBABLE.

___________

Lien à poster
Partager sur d’autres sites

Ci-joint, lien vers un papier de Wong et al. 2006 sur le budget au sommet de l'atmosphère des années 1980 et 1990, aux Tropiques 20°N-20°S, avec comparaison des différentes bases disponibles (ERBS, HIRS, AVHRR, ISCCP-FD).

Je note que la tendance la plus marquée au cours de cette période est la baisse du rayonnement ondes courtes (-2,1 W/m2), ce qui signifie une baisse de l'albedo (moins de rayonnement solaire entrant renvoyé au sommet de l'atmosphère), donc une baisse de la nébulosité et une hausse conséquente du contenu de chaleur des océans. Il est dommage que les données 1995-2005 ne soient pas disponibles. La tendance pour l'IR lointain est de 0,7 W/m2 (trois fois moins prononcé donc que les ondes courtes).

Reste à savoir dans quelle mesure ces changements de nébulosité tropicale sont eux-mêmes associés au réchauffement. Sur la période considérée, les observations ne plaident pas en faveur de l'effet Iris de Lindzen.

Lien, pdf, anglais :

http://asd-www.larc.nasa.gov/~tak/wong/f20.pdf

Lien à poster
Partager sur d’autres sites

Ci-dessous, la réponse de Treiner à Galam (plus haut), dans Le Monde. Réponse que je trouve correcte (vis-à-vis des arguments précis développés par Galam), mais discutable (sur certains aspects développés par Treiner).

Dire que nous sommes "certain" de l'origine anthropique du réchauffement trois lignes après avoir dit que l'on ne savait pas ou mal quantifier les nuages (cf. Wong ci-dessus), c'est une manière curieuse de raisonner pour un physicien.

> On sait qu'un réchauffement peut avoir plusieurs causes (dont une tendance décennale de la nébulosité)

> On sait qu'une des causes possibles est mal connue

> On conclue néanmoins qu'une autre cause est certaine

***

Point de vue

La climatologie n'est pas la météo, par Jacques Treiner

LE MONDE | 14.02.07 | 14h42 • Mis à jour le 14.02.07 | 14h54

Serge Galam, physicien et épistémologue, nous livre dans Le Monde du 7 février un navrant article de méthodologie scientifique à propos du réchauffement climatique. Sous le titre "Pas de certitude scientifique sur le climat", il développe une argumentation en trois points : la corrélation constatée entre réchauffement et augmentation de la teneur en gaz carbonique ne vaut pas causalité ; les météorologues sont incapables de prévoir le temps à deux semaines, comment peuvent-ils prétendre prévoir le climat à cent ans ? ; le consensus des spécialistes ne prouve rien, ils peuvent se tromper tous ensemble.

A l'appui de ce dernier point, Serge Galam en appelle à l'histoire des sciences : Galilée, affirme-t-il, avait raison de penser la Terre ronde quand le consensus la voyait plate. Mais ce qui s'est joué à l'époque n'était nullement la sphéricité de la Terre, dont tout le monde était convaincu depuis jolie lurette, mais sa rotation autour du Soleil ! C'est peut-être un détail (encore que, pour un épistémologue...), mais il indique tout de même un certain relâchement intellectuel chez notre collègue, relâchement présent aussi dans les deux autres points de l'argumentation. N'est pas Galilée qui veut.

Corrélation ne vaut pas causalité, certes. Le nombre de visiteurs de la tour Eiffel augmente au cours du temps, le prix des ordinateurs diminue : un graphique montrant l'une des quantités en fonction de l'autre montrera une relation linéaire parfaite. Cela ne prouve pas que la croissance des visites de notre monument national soit causée par le développement de la technologie informatique ! Mais prétendre que l'étude du climat en est là revient à nier que les spécialistes réunis dans le Groupe intergouvernemental d'experts sur l'évolution du climat (GIEC) utilisent non seulement des données empiriques, mais également des lois et théories physiques à l'appui de leur argumentation.

Une théorie physique permet d'établir des causalités, là où des mesures brutes sont indispensables mais muettes sur cet aspect. Lorsque les climatologues affirment que, sans atmosphère, la température moyenne de surface de la Terre serait de - 18 °C, et que c'est l'effet de serre naturel qui fait passer cette température à + 15 °C, c'est au nom de lois physiques établies depuis plus de cent ans concernant l'interaction entre lumière et matière. Ces lois gouvernent le fonctionnement de milliers d'appareils de notre vie quotidienne, elles sont testées par une pratique sociale devenue banale.

Lorsque ces climatologues projettent à l'échelle de cinquante ou cent ans les conséquences des émissions anthropiques (liées à l'activité humaine) de gaz à effet de serre, ils utilisent les mêmes théories, ils ne se contentent pas de faire des relevés de température ou de concentration en traçant des courbes à main levée. Ces théories fonctionnent dans les deux sens : pour faire des projections vers le futur, mais aussi pour tenter de reproduire les variations passées du climat. On peut constater, sur le site du GIEC, que ces variations sont bien reproduites si l'on tient compte à la fois de l'effet de serre naturel et de l'effet de serre anthropique, et ne sont pas reproduites dans le cas contraire. Cela constitue une validation essentielle des modèles utilisés, qui va bien au-delà de l'établissement de simples corrélations.

Abordons la prévision à quinze jours et à cinquante ou cent ans. Demander une prévision du temps qu'il fera à quinze jours, c'est exiger de reproduire des fluctuations, c'est-à-dire de petites variations, à la fois temporelles et spatiales, du temps. C'est techniquement très difficile, et la difficulté augmente exponentiellement avec le temps de prévision.

Mais les prévisions à long terme ne sont pas le prolongement de la météorologie, c'est d'une autre physique qu'il s'agit : celle qui, par exemple, permet d'affirmer que, dans l'hémisphère Nord, il fait froid en hiver, et chaud en été, en raison de l'inclinaison des rayons du Soleil sur la surface de la Terre. Et pourtant, il se peut très bien qu'une fluctuation de température en hiver soit du même ordre de grandeur que la différence de température moyenne entre l'été et l'hiver. La météorologie s'occupe de données moyennées sur un jour, voire moins, alors que la climatologie considère des moyennes sur plusieurs années. Dans ces moyennes, les fluctuations disparaissent, restent les tendances de fond, plus faciles à prévoir.

Les scientifiques ont développé dans tous les domaines des méthodes pour faire surgir une tendance moyenne de données présentant des fluctuations. En ce qui concerne le climat, la différence de température moyenne entre une période glaciaire et une période interglaciaire est de l'ordre de 5 degrés, ce qui est plus petit que la différence de température moyenne, en France, entre l'été et l'hiver. Mais on sait relier l'occurrence d'une période glaciaire à des variations des caractéristiques de l'orbite terrestre. De façon tout à fait analogue, on sait relier l'évolution à long terme du climat de la Terre à la concentration en gaz à effets de serre de l'atmosphère.

Qu'en est-il de la "certitude scientifique" ? Lors de la conférence de presse qui a accompagné la publication du dernier rapport du GIEC, le 2 février, un journaliste a demandé : "Comment pouvez-vous être sûrs de ce que vous dites ?", à quoi il fut répondu fort justement : "Si vous devez voyager dans un pays où sévit la malaria, il n'est pas certain que vous aller contracter la maladie, mais ne prenez-vous pas tout de même des mesures pour être sûr d'éviter cette possibilité ?" Il faut bien s'y faire : il n'y a de certitude qu'en mathématique, mais elle porte sur des structures abstraites.

Les autres sciences cherchent à quantifier le probable, et cela, d'ailleurs, elles savent le faire avec beaucoup de précision. Lorsque la probabilité est proche de 100 %, on a un sentiment de certitude, mais on agit le plus souvent en fonction de probabilités bien plus faibles. Allons-nous monter dans un avion dont on nous dit qu'il y a une chance sur trois pour que son train d'atterrissage ne fonctionne pas ?

Lorsque le GIEC anticipe un réchauffement moyen entre 2 et 6 degrés en 2100, c'est en intégrant divers types d'incertitudes : objectives (le rôle des nuages, par exemple, est difficile à quantifier avec précision) et subjectives (les décisions que l'humanité va prendre concernant les sources d'énergie fossile et la consommation d'énergie). Mais ne nous y trompons pas : le réchauffement est certain (probabilité très proche de 100 %), ainsi que son origine anthropique. Les incertitudes portent sur l'ampleur du phénomène. L'enjeu environnemental du siècle est d'influer sur le rythme de la dérive climatique.

Les conséquences climatiques de l'activité humaine ne sont localisées ni dans l'espace ni dans le temps : elles affectent le monde entier, et pour longtemps. C'est la première fois dans l'histoire de l'humanité qu'une nuisance possède ce caractère universel. Qui pourra imposer à un Etat puissant (Etats-Unis, Chine ou même France) de limiter ses émissions s'il ne le désire pas ? Il n'y a pas, actuellement, d'instance ou de mécanisme de décision mondiale ; l'humanité sera-t-elle capable de s'en doter ?

Jacques Treiner, physicien à l'université Pierre-et-Marie-Curie-Paris-VI

Lien à poster
Partager sur d’autres sites

Plus de sécheresses et d'inondations en Europe avec le réchauffement

14.02.07 | 17h12

Le changement climatique se traduira en Europe par davantage de sécheresses et d'inondations catastrophiques, selon un rapport de l'Agence européenne de l'environnement qui engage les pays européens à "agir maintenant".

Le rapport, mis en ligne mercredi, table sur une hausse de température moyenne de 2,1 à 4,4 degrés pour l'Europe d'ici 2080, avec des températures plus élevées encore dans l'Est et le Sud.

Les précipitations annuelles augmenteraient de 1 à 2% par décennie dans le nord de l'Europe, mais se feraient plus rares l'été. Le sud du continent aurait encore plus soif, surtout l'été, avec une baisse de 5% des précipitations.

Dans le sud de l'Europe, la sécheresse pourrait même intervenir "à toutes les saisons", note le rapport. Dans l'ensemble du continent, les vagues de chaleur augmenteront en fréquence comme en intensité, tandis que les événements pluvieux violents frapperont plus fréquemment.

L'Europe, sur les 5 dernières années, a connu plus de 100 inondations causant des dégâts, observe le rapport qui souligne que toutes ne peuvent être attribuées au changement climatique. Mais, selon le texte, "les événements récents comme les inondations au Royaume Uni en 2000/2001 et en Europe centrale pendant l'été 2002 sont considérés comme de bons exemples de ce qui risque de se produire avec le changement climatique".

A l'opposé, les sécheresses répétées, surtout l'été dans le sud de l'Europe, auront de graves conséquences sur l'agriculture, l'énergie et la ressource en eau, met en garde le rapport. L'impact économique des sécheresses des 30 dernières années dans l'UE a été estimé à 85 milliards d'euros, avec une moyenne de 5,3 milliards d'euros par an entre 1991 et 2003.

Face à ces menaces, des "changements majeurs" sont nécessaires, souligne le rapport, notamment dans les pratiques agricoles, la gestion de l'eau, l'information des populations, l'habitat et les infrastructures.

Source : http://www.lemonde.fr/web/depeches/0,14-0,...21@7-347,0.html

Florent.

Lien à poster
Partager sur d’autres sites

pour les thèses personnelles des traducteurs ?

Je rappelle ces tendances envisagées pour le XXIème siècle, avec la probabilité DE LA RESPONSABILITE HUMAINE pour chacune d'entre elles (et non la probabilité d'occurence):

___________

Des jours et des nuits froids moins fréquents et plus doux sur la plupart des régions: PROBABLE

Des jours et des nuits chauds plus fréquents et plus chauds sur la plupart des régions: PROBABLE POUR LES NUITS [rien d'indiqué pour les jours]

Des vagues de chaleur plus fréquentes sur la plupart des régions: MOINS QUE PROBABLE

Des évenements de précipitations intenses plus fréquents (ou des % plus élevés des fortes précipitations sur le total des précipitations) sur la plupart des régions: MOINS QUE PROBABLE

Des régions davantage affectées par des sécheresses: MOINS QUE PROBABLE

Des cyclones plus intenses: MOINS QUE PROBABLE

Une augmentation de l'apparition de niveaux de la mer élevés extrêmes (à l'exclusion des tsunamis): MOINS QUE PROBABLE.

___________

Est-ce que " More likely than not " veut dire "moins que probable" ?
Lien à poster
Partager sur d’autres sites

Est-ce que " More likely than not " veut dire "moins que probable" ?

Oui, j'aurais vu le contraire ou du moins : plus vraisemblable que non (50-60% de mémoire).Le problème de ces phénomènes extrêmes, ce n'est pas tant l'attribution à l'homme avec un supposé degré de vraisemblance (totalement fantaisiste en l'état de précision régionale / hydrologique des modèles) : le GIEC n'est même pas certain de leur existence! On atteint là un sommet de la pataphysique climatique, où nos savants docteurs dissertent gravement sur l'attribution causale d'une observation qui n'est pas elle-même certifiée. Ainsi, il est plus vraisemblable que non qu'il y ait eu des pluies intenses régionales dont l'homme est plus vraisemblablement que non en partie responsable. Merci le GIEC, à vous les décideurs...

Une des nombreuses absurdités de ce Résumé pour décideurs 2007 (pas le rapport), qui marque de plus en plus clairement les limites de l'exercice. Les sciences climatiques n'ont pas fait de progrès fondamentaux entre 2001 et 2007 (Pierrehumbert le reconnaît sur RC), la foule médiatique réclame toujours du neuf, alors on brode sur la vraisemblance, qui est en l'occurrence l'avis subjectif d'une poignée d'experts, et non la convergence quantitative des modèles sur des observations.

Lien à poster
Partager sur d’autres sites

Hervé Le Treut : "Le plus grave est pour après"

Actualisé le 20-02-2007 02:18

Hervé Le Treut, climatologue, directeur de recherche au CNRS, membre de l’Académie des Sciences, raconte le climat dans cinq ans.

Pour en savoir plus : Hervé Le Treut

Peut-on s’attendre à de réels changements climatiques d’ici cinq ans ?

Cinq ans est la périodicité entre chaque rapport du Giec (le Groupe d'experts intergouvernemental sur l'évolution du climat), mais c’est une période un peu courte pour mesurer des ruptures fortes. On fera probablement des diagnostics plus affirmés sur le réchauffement et on observera une continuité globale du phénomène. Si on constate un recul accru de la banquise, par exemple, cela donnera une force supplémentaire à nos diagnostics actuels. Mais le plus grave est sans doute pour après.

Les mesures qui sont ou vont être prises dès maintenant auront-elles un effet mesurable ?

Pour l’essentiel, le réchauffement est un phénomène de très longue durée, puisque les gaz à effet de serre restent près d’un siècle dans l’athmosphère. Quand aux mesures, comme elles sont avant tout destinées à faire que les choses ne se passent pas, leurs conséquences ne seront à priori pas visibles. Le signal qu’on pourra avoir dans cinq ans sera l’évolution du niveau de CO2 dans l’athmosphère : on pourra analyser s’il augmente plus vite, aussi vite ou moins vite qu’aujourd’hui. Mais encore une fois, les conséquences climatiques seront pour plus tard.

La climatologie va-t-elle faire des progrès qui permettraient de mettre fin aux polémiques sur la réalité ou non du phénomène ?

La réponse est « potentiellement, oui ». Dans les facteurs climatiques majeurs figure le rôle des nuages. Or des programmes de recherche récents et surtout la mise en orbite de satellites spécialisés dans l’observation des nuages vont nous permettre de progresser. Ces programmes et ces satellites ont été décidés il y a une quinzaine d’années, et on entre dans la phase où ces instruments vont devenir utiles. Cela montre que la recherche scientifique est un processus continu dont le grand public ne comprend pas toujours la nature et la longueur. Aujourd’hui, on peut donc miser sur des progrès, mais qui s’inscrivent dans la durée.

François Bourboulon

Metrofrance.com

Source : http://www.metrofrance.com/fr/article/2007...28-34/index.xml

Florent.

Lien à poster
Partager sur d’autres sites

Je viens de découvrir également un rapport à ce sujet du programme de MF... Je te poste le point presse ci-dessous.

Climat : livre blanc des nouvelles simulations climatiques françaises

le 05-02-2007 17:31 | émis par : CEA

La communauté climatique française a publié le 31 janvier 2007 un Livre blanc sur de nouvelles analyses des simulations climatiques françaises dont une partie a contribué à la préparation du prochain rapport du Groupe d'experts Intergouvernemental sur l'Evolution du Climat (GIEC).

Le nouveau rapport du GIEC sur les bases scientifiques du changement climatique va être rendu public le 2 février 2007. A la demande de la Mission Interministérielle sur l'Effet de Serre (MIES) et avec le soutien des organismes de recherche (CNRS/INSU, CEA, Météo-France), la communauté climatique française a participé pour la première fois à la réalisation d'un ensemble important de simulations recommandées par le GIEC pour servir de base à l'évaluation des changements climatiques futurs.

Pour analyser ces simulations, les chercheurs de Météo-France/CNRM*, du CERFACS**, de l'IPSL*** et du LGGE**** se sont ralliés sous la bannière du projet ESCRIME (Etude des Simulations Climatiques Réalisées par l'IPSL et MEtéo-France). Prochainement édité, un Livre blanc rassemblant l'essentiel des analyses menées est accessible sur Internet. Une partie de ces analyses a pu être incluse dans les travaux de synthèse conduits par les rédacteurs du rapport du GIEC.

Le sommaire du Livre blanc est présenté dans un résumé. Les principaux résultats issus de l'ensemble des analyses du projet ESCRIME y sont synthétisés et classés en trois grandes thématiques : modélisation globale et évolution du climat, rétroactions et variabilité climatique, régionalisation et détection-attribution du changement climatique.

*Centre National de Recherches Météorologiques

**Centre Européen de Recherche et de Formation Avancée en Calcul Scientifique

***Institut Pierre Simon Laplace

****Laboratoire de Glaciologie et Géophysique de l'Environnement

Résumé du livre blanc :

http://www.cea.fr/UserFiles/File/pdf/Livre...imat_300107.pdf

Source : http://www.tv5.org/TV5Site/info/communique...p?NPID=FR184259

Florent.

Et là le rapport complet ESCRIME des travaux de MeteoFrance de l'institut Paul Laplace préparé dans la perspective du 4° rapport du GIEC :

Quelques points que j'ai retenu concernant l'Europe mais déjà plus ou moins connus via le rapport du GIEC

- Plus de pluies et innondations au nord du 50°N mais plus de sécheresse sur le bassin méditerranéen

- c'est plus les étés que les hivers qui se réchauffent

- C'est surtout les tn qui se réchauffent plus que les tx.

Globalement, cela parait assez consensuel mais avec des gants sur les raisons anthropiques du réchauffement.

Pourtant, un truc m'interpelle pour avoir rencontré un thesard passé 3 ans au CRMN, que les sceptiques étaient courants à MeteoFrance. Comment font-ils pour vivre avec 2 discours ?

Quelqu'un de MeteoFrance pourrait-il confirmer ou pas ?

Lien à poster
Partager sur d’autres sites

Et là le rapport complet ESCRIME des travaux de MeteoFrance de l'institut Paul Laplace préparé dans la perspective du 4° rapport du GIEC

Il ne faut pas déshabiller Pierre-Simon pour habiller Paul default_wink.png/emoticons/wink@2x.png 2x" width="20" height="20">
Pourtant, un truc m'interpelle pour avoir rencontré un thesard passé 3 ans au CRMN, que les sceptiques étaient courants à MeteoFrance. Comment font-ils pour vivre avec 2 discours ?

Quelqu'un de MeteoFrance pourrait-il confirmer ou pas ?

C'est bien l'impression que j'ai eu en regardant la rubrique Climatologie de meteo.fr où ils ont eu l'outrecuidance de d'afficher un graphique qui montre que le nombre de tempête a baissé par rapport aux années 60.Il paraît même qu'ils ont commencé à introduire en douce la notion d'APM de Marcel Leroux. http://lcre.univ-lyon3.fr/climato/ampmeteo.htm

Ca montre qu'il y a des scientifiques sérieux chez MF. Mais bon, difficile de demander plus de fonds pour la recherche et des ordinateurs toujours plus puissants si on avoue les limites des modèles climato.

Voir cet article qui traduit bien ce dilemne de la part d'un météorologue de métier:

Réflexions d’un sceptique par Hendrik Tennekes, traduction par Jean Ranchin

Lien à poster
Partager sur d’autres sites

Coup de chaud sur le toit du monde

Communiqué du CNRS

Paris, 22 février 2007

Le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) vient de rendre les conclusions de son 4e rapport, réaffirmant l'existence d'un réchauffement climatique moyen de 0,74°C depuis un siècle. Toutefois, certaines régions du globe, comme l'Asie centrale, demeurent très peu documentées. Une nouvelle étude menée par des chercheurs français du laboratoire de glaciologie et géophysique de l'environnement (LGGE, CNRS / Université Joseph Fourier, Grenoble) et du laboratoire des sciences du climat et de l'environnement (LSCE / IPSL, CEA / CNRS / Université de Versailles Saint-Quentin), en collaboration avec des chercheurs chinois, russes et américains, apporte des preuves que ce réchauffement récent a aussi affecté les neiges éternelles du Mont Everest, au cœur de l'Himalaya. Ce résultat a été publié le 7 février 2007 dans le journal européen Climate of the Past.

L'Himalaya et le plateau tibétain constituent deux régions dont l'évolution climatique est très mal documentée : les stations météorologiques y sont fort peu nombreuses et les archives climatiques prélevées dans les glaciers, les lacs ou les cernes d'arbres sont rares et souvent difficiles à interpréter. Néanmoins, des scientifiques chinois ont réussi en 2001 et 2002 à forer trois carottes de glace au sommet du glacier East Rongbuk recouvrant le col nord du Mont Everest, à 6518 m d'altitude. Réalisée en collaboration avec le LGGE et le LSCE, l'analyse de ces carottes a permis de mettre en évidence l'existence d'un nouveau traceur climatique, la teneur en gaz de la glace, et ainsi de retracer l'évolution des températures d'été sur ce site de très haute altitude.

À ces altitudes, la neige de surface fond en partie durant l'été et l'eau de fonte percole (1) à travers le manteau neigeux pour regeler en profondeur. Ce processus affecte la densité et la taille des bulles d'air contenues dans la glace, c'est-à-dire sa teneur en gaz. Cette dernière dépend donc directement de l'intensité du phénomène de fonte estivale.

En mesurant avec précision la teneur en gaz le long de deux des trois carottes de glace prélevées sur l'Everest, les chercheurs ont pu suivre son évolution au cours du temps, en remontant jusqu'à 2 000 ans dans le passé. Ils ont alors pu observer une diminution très prononcée de la quantité de gaz piégée dans la glace du 20e siècle, par rapport à celle contenue dans de la glace plus ancienne, un résultat qui reflète une intensification récente des épisodes de fonte estivale à la surface du glacier. En effet, même si une quantification précise de l'évolution associée des températures au cours du temps n'a pas encore pu être réalisée à partir de ce nouveau traceur (le gaz piégé), ces travaux indiquent clairement que le réchauffement climatique a aussi affecté les neiges éternelles du toit du monde.

Ce travail a bénéficié en France du soutien du programme international de coopération scientifique franco-chinois du CNRS (dans le cadre du projet « CLEAH (2) ») et en Chine de celui de l'ambassade de France.

photo_everest.jpg

Notes :

(1)L'eau de fonte circule à travers le manteau neigeux sous l'effet de la gravité.

(2)CLimat et Environnement en Antarctique et en Himalaya

Références :

Summer temperature trend over the past two millennia using air content in Himalayan ice. Hou S., Chappellaz J., Jouzel J., Chu P.C., Masson-Delmotte V., Qin D., Raynaud D., Mayewski P.A., Lipenkov V.Y. et Kang S., Climate of the Past 3, 89-95, 2007.

En ligne sur : Consulter le site web

Source : http://www2.cnrs.fr/presse/communique/1038.htm

Florent.

Lien à poster
Partager sur d’autres sites

Oui, c'est assez curieux la courbe obtenue :

image3af6.png

Il s'agit de la courbe à points rouges "Cores 2001 et 2002". On voit que cette courbe donne une croissance quasi continue sur les 2000 dernières années, avec des variations bien plus amples depuis 200 ans environ, en hausse et en baisse. Un effet de l'altitude (le forage est au-dessus de 6000 mètres) et de la localisation du masif, peut-être épargné des fluctuations anciennes que l'on repère ailleurs, dans les glaciers tempérés ou tropicaux ? Ou un effet de la nouvelle méthode d'analyse choisie et décrite dans le communiqué ?

Lien à poster
Partager sur d’autres sites

Coup de chaud sur le toit du monde

Communiqué du CNRS

Paris, 22 février 2007

A lire également :La fonte des glaciers himalayens observée depuis l’espace

Les glaciers himalayens fondent sous l’effet du réchauffement climatique. Cependant, l’ampleur de cette fonte reste difficile à estimer par des relevés de terrains en raison du grand nombre de glaciers, de leur difficulté d’accès et de l’étendue de la chaîne de montagne.

Source : IRD, Fiche n°258 - Février 2007

http://www.ird.fr/fr/actualites/fiches/2007/fas258.pdf

Florent.

Lien à poster
Partager sur d’autres sites

Invité
Ce sujet ne peut plus recevoir de nouvelles réponses.
 Partager

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...