Aller au contenu
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

La Terre pourrait déjà avoir dépassé le seuil dangereux de CO2


ol_bugs
 Partager

Messages recommandés

Bonjour,

Voici un article paru dans le monde. Voici le lien : Article

La Terre pourrait déjà avoir dépassé le seuil dangereux de CO2

LE MONDE | 10.04.08 | 14h54 • Mis à jour le 10.04.08 | 14h54

Comment évaluer la limite à ne pas dépasser ? Pour éviter une "interférence humaine dangereuse" avec le système climatique, le seuil limite de dioxyde de carbone (CO2) atmosphérique est généralement fixé à 550 parties par million (ppm). C'est par exemple l'objectif - déjà ambitieux - que s'est fixé l'Union européenne (UE). Pour James Hansen, un des chercheurs les plus influents de la communauté des climatologues, ce seuil a été estimé avec trop, beaucoup trop, d'optimisme.

Dans des travaux non encore publiés mais dont une version de travail a été mise en ligne, lundi 7 avril, sur le serveur ArXiv, le directeur du Goddard Institute for Space Studies (GISS) et ses coauteurs évaluent le seuil de danger à 350 ppm environ. Or ce niveau a été atteint en 1990. Il se situe aujourd'hui à 385 ppm. Et il augmente à raison d'une à deux unités chaque année.

Le dépassement du seuil de 350 ppm n'est, bien sûr, pas immédiatement dangereux. Selon les auteurs, il l'est sur le long terme. "Si le CO2 est maintenu pendant une longue période à un niveau supérieur à cette limite, il y a un risque de se placer sur une trajectoire menant à un dérèglement climatique dangereux et irréversible", décrypte la climatologue Valérie Masson-Delmotte (Commissariat à l'énergie atomique, CEA), coauteur de ces travaux. "Il est possible de revenir à un taux de 350 ppm, assure M. Hansen. Il faut un moratoire sur les centrales à charbon puis supprimer progressivement tous les usages de la houille d'ici à 2020-2030. Il faut aussi revoir nos pratiques agricoles et forestières de façon à séquestrer du carbone."

Pour parvenir à ces conclusions, les scientifiques ont analysé les séries de données retraçant les grandes évolutions climatiques de la planète sur plus de 50 millions d'années. Pour déterminer un seuil limite, "nous avons examiné la vitesse de déplacement des isothermes, le retrait des glaciers - qui sont très importants pour l'alimentation en eau -, la vitesse d'élévation du niveau des mers, la déstabilisation des calottes glaciaires et la réaction des récifs coralliens", précise Valérie Masson-Delmotte.

Les chercheurs ont également recalculé la "sensibilité du climat" au gaz carbonique. Celle-ci se traduit par le réchauffement moyen que provoquerait un doublement du CO2 par rapport à son niveau préindustriel (entre 270 et 280 ppm). Les modèles utilisés par le Groupe intergouvernemental d'experts sur l'évolution du climat (GIEC) la situent autour de 3 °C. Mais ces calculs ne tiennent pas compte de ce que les climatologues appellent les "rétroactions lentes".

Comme, par exemple, la réduction progressive des calottes glaciaires. Lorsque l'effet de serre augmente, la température augmente : les calottes de glace se réduisent. La Terre perd donc progressivement une part de sa capacité à réfléchir le rayonnement solaire : elle absorbe plus d'énergie lumineuse. Les températures croissent donc plus vite, ce qui accélère la réduction des calottes glaciaires, etc.

"En tenant compte de ce type de rétroactions, la sensibilité climatique n'est plus de 3 °C, comme l'estiment les modèles utilisés par le GIEC : elle est de 6 °C, dit M. Hansen. Mais la question de savoir combien de temps ces rétroactions mettront pour entrer en action demeure ouverte." Pour voir ces "cercles vicieux" se mettre en place et emballer la machine climatique, faudra-t-il attendre la fin de ce siècle ? La fin du suivant ?

Les incertitudes des modèles sont importantes. Ainsi, de récentes analyses sédimentaires publiées par une équipe allemande ont montré qu'une calotte glaciaire antarctique importante (estimée à environ 60 % de la calotte actuelle) avait pu subsister, même brièvement, au cours du crétacé, une période très chaude où la température de l'océan tropical était de plus de 10 °C supérieure à la valeur actuelle.

James Hansen, 67 ans, est un habitué des controverses. Il est le premier scientifique à avoir attiré, en 1988, l'attention des médias et des politiques sur le climat. Très engagé, il a lancé en 2007 une campagne pour demander aux gouvernements allemand et britannique d'interrompre tout programme de construction de centrales à charbon.

Au-delà de ces questions, ses travaux ouvrent une question profonde sans rapport avec la science ou la politique : jusqu'où les hommes du XXIe siècle doivent-ils chercher à prévoir les conséquences de leurs actions ? Evoquer le futur de la planète bien après 2100, comme le font M. Hansen et ses coauteurs, c'est devoir imaginer ce que le climatologue Stephen Pacala appelle "les monstres derrière la porte".

Stéphane Foucart

Article paru dans l'édition du 11.04.08.

Lien à poster
Partager sur d’autres sites

  • Réponses 50
  • Créé
  • Dernière réponse

Il y a plusieurs autres "monstres derrière la porte", et de taille : le méthane qui pourrait surgir des clathrates sous-marins en cas d'un réchauffement même modéré des 1000 premiers mêtres d'eau; le CO2 et le CH4 qui pourraient provenir massivement du dégel du pergélisol de Sibérie, d'Alaska, etc...; la montée des océans qui pourrait être bien plus rapide et importante que les estimations hélas beaucoup trop optimistes du GIEC; d'énormes changements dans la pluviométrie; et quelques autres à peine moins terrifiants.

Techniquement, il est encore possible d'éviter (ou de très fortement limiter) le pire. Mais les mesures à prendre doivent être bien plus drastiques que les timides engagements du protocole de Kyoto et le temps nous est compté...

En tout cas, nous enfouir la tête dans le sable pour ne pas voir le risque ne nous sauvera pas, même si l'actuelle faiblesse de l'activité solaire peut nous procurer un sursis de quelques années.

Alain

Lien à poster
Partager sur d’autres sites

Posté(e)
Merry la vallée 280m d'alt.

Les incertitudes des modèles sont importantes. Ainsi, de récentes analyses sédimentaires publiées par une équipe allemande ont montré qu'une calotte glaciaire antarctique importante (estimée à environ 60 % de la calotte actuelle) avait pu subsister, même brièvement, au cours du crétacé, une période très chaude où la température de l'océan tropical était de plus de 10 °C supérieure à la valeur actuelle.

Un océan à 40°c! default_wink.png/emoticons/wink@2x.png 2x" width="20" height="20"> C'est pas un peu chaud comme estimation? default_tongue.png/emoticons/tongue@2x.png 2x" width="20" height="20">
Lien à poster
Partager sur d’autres sites

Posté(e)
La-Chapelle-Saint-Florent - 49 (proche 44, bord Loire)

que les timides engagements du protocole de Kyoto

Encore faudrait-il en plus que ces "timides engagements" soient respectés.
Lien à poster
Partager sur d’autres sites

Il y a tout de même quelque chose à prendre en compte... Ces taux de CO2 relevés dans le passé et supérieurs à 350 ppm, ils sont apparus comment ??? Ils ne seraient pas dûs à une activité biologique plus intense causée par un soleil plus énergétique à ces périodes de l'histoire de la Terre, que ce soit à cause du soleil directement ou indirectement à cause des propres mouvements de la Terre (précession, écliptique...) ???

Dans ce cas, ils seraient une conséquence et peut-être bien plus qu'une cause de réchauffement et le fait d'injecter actuellement du CO2 si cela a en effet un impact non négligeable serait à revisiter du point de vue des liens de cause à effets...

Florent.

Lien à poster
Partager sur d’autres sites

Oui, Hansen semble en "tournée" pour exhorter les gouvernements à limiter les émissions de CO2, en particulier en bloquant les projets de centrales à charbon.

Son papier, excellente synthèse de l'état des connaissances sur le réchauffement (dont les effets du CO2), est sur http://arxiv.org/abs/0804.1126 , avec le pdf ici : http://arxiv.org/pdf/0804.1126v1 ; des tableaux et données complémentaires sont sur http://arxiv.org/abs/0804.1135 . Pour une fois qu'un papier est dispo en libre accès !

Il fait la distinction entre "tipping points" et "points de non retour", et distingue également entre les rétroactions rapides (que nous constatons aujourd'hui) et lentes (ainsi la masse énorme des océans ralentit la montée des températures). Le CO2 déjà émis correspond à une augmentation de température totale de 2°C, dont 0,6 constatés et 1,4 "dans les tuyaux", amortis par la lenteur de la fonte des glaces et de l'évolution de la végétation. Son cri d'alerte concerne l'approche de points de non retour... car pour lui (et les co-auteurs), les prévisions du GIEC n'ont pas pris en compte les rétroactions lentes.

Mais quand je mets ce message en relation avec ce papier du NY Times http://dotearth.blogs.nytimes.com/2008/04/...lants-approved/ qui annonce que l'Inde va mettre en service une méga centrale à charbon, financée par le FMI: 4 milliards de $, 4 GW, émettant 23 millions de tonnes de CO2 par an; que néanmoins cette centrale représente un progrès de réduction de 40% des émissions contre une production selon les standard habituels en Inde ; que la centrale va être construite et opérée par Tata Power, du même groupe que Tata Motors, qui a récemment annoncé une voiture peu chère, très accessible pour quelques dizaines de millions d'Indiens; et qu'enfin le Président du GIEC, Rajendra Pachauri, est également DG du Tata Energy Research Institute... je me demande vraiment si les industriels et politiques sont prêts à écouter, entendre et appliquer les mesures proposées par le GIEC, voire par Hansen, encore plus contraignantes....

Enfin, pour une fois, le Monde n'a pas écrit n'importe quoi... Mais je répète, la vraie info est dans le papier de Hansen. Si l'un des lecteur de ce forum a un contact avec Valérie Masson Delmotte du Labo des Sciences du Climat et l’Environnement/Institut Pierre Simon Laplace (CEA-CNRS-Université Versailles Saint-Quentin en Yvelines, Gif-sur-Yvette) pour avoir une éventuelle traduction en français... ça serait drôlement bien.

Lien à poster
Partager sur d’autres sites

Si l'un des lecteur de ce forum a un contact avec Valérie Masson Delmotte du Labo des Sciences du Climat et l’Environnement/Institut Pierre Simon Laplace (CEA-CNRS-Université Versailles Saint-Quentin en Yvelines, Gif-sur-Yvette) pour avoir une éventuelle traduction en français... ça serait drôlement bien.

Je ne comprends pas: il me semble qu'elle a bien autre chose à faire que de traduire ce papier en français.

Pour en revenir au papier en question: sur le fond, l'idée que les réactions lentes ou les bifurcations éventuelles qui ont eu lieu dans le passé ne sont pas prises en compte dans les prévisions, c'est évident et on l'a dit et redit.

C'est d'ailleurs noir sur blanc dans le rapport du GIEC.

Ce qui n'est pas clair, c'est la manière dont ils ont estimé la sensibilité long terme. Il me semble que l'idée utilisée est que le forçage initial est la variation de concentration des GES (liée à la tectonique, j'imagine mais ce n'est pas la question). Ceci dit, cela donne une première estimation de ce que pourrait être cette sensibilité et ça permet de fixer les idées.

Lien à poster
Partager sur d’autres sites

Un peu de méthodologie générale en rapport avec ce topic :

Pour ceux qui ont l'habitude de la modélisation, je dirai qu'il existe des modèles essentiellement systèmiques (ce qui ne veut pas dire systématiques) et des modèles essentiellement statistiques, bien qu'aucun modèle sérieux ne soit exclusivement l'un ou l'autre.

Les modèles dits statistiques ont tendance à extrapoler - et trop souvent de manière linéaire et mécanique - à partir de séries statistiques, alors que les modèles dits systèmiques se fondent sur le raisonnement, aussi complet et synthétique que possible.

Je dirai aussi que les modèles du GIEC penchent plutôt vers la première catégorie, alors que la modélisation de Hansen et son équipe est très systémique, faisant largement appel aux notions de rétroaction (rapide ou lente), d'effets de seuil et de point de non-retour.

Pour ma part, ma révision critique de la modélisation du GIEC est également du type systèmique.

Alain

Lien à poster
Partager sur d’autres sites

Un océan à 40°c! default_wink.png/emoticons/wink@2x.png 2x" width="20" height="20"> C'est pas un peu chaud comme estimation? default_tongue.png/emoticons/tongue@2x.png 2x" width="20" height="20">

10°C de plus c'est une moyenne , et pas une valeur nécessairement appliquée aux extrêmes; les tillites antarctiques du Crétacé sont connues depuis longtemps.
Lien à poster
Partager sur d’autres sites

Posté(e)
COLMAR OUEST (Haut-Rhin) Alt 192m

Il y a plusieurs autres "monstres derrière la porte", et de taille : le méthane qui pourrait surgir des clathrates sous-marins en cas d'un réchauffement même modéré des 1000 premiers mêtres d'eau; le CO2 et le CH4 qui pourraient provenir massivement du dégel du pergélisol de Sibérie, d'Alaska, etc...; la montée des océans qui pourrait être bien plus rapide et importante que les estimations hélas beaucoup trop optimistes du GIEC; d'énormes changements dans la pluviométrie; et quelques autres à peine moins terrifiants.

Techniquement, il est encore possible d'éviter (ou de très fortement limiter) le pire. Mais les mesures à prendre doivent être bien plus drastiques que les timides engagements du protocole de Kyoto et le temps nous est compté...

En tout cas, nous enfouir la tête dans le sable pour ne pas voir le risque ne nous sauvera pas, même si l'actuelle faiblesse de l'activité solaire peut nous procurer un sursis de quelques années.

Alain

Bonjour Alain,

Il y a une chose qui m'échappe, dans le passé géologique il y a également eu des périodes très douce qui ont eues raison des glaces sur nos pôles, le permafrost a donc déjà fondu... Le CH4 existait également et c'est par pour autant qu'on trouve des traces cataclismique liès à ce type de déréglement...

Ju

Lien à poster
Partager sur d’autres sites

Un peu de méthodologie générale en rapport avec ce topic :

Pour ceux qui ont l'habitude de la modélisation, je dirai qu'il existe des modèles essentiellement systèmiques (ce qui ne veut pas dire systématiques) et des modèles essentiellement statistiques, bien qu'aucun modèle sérieux ne soit exclusivement l'un ou l'autre.

Les modèles dits statistiques ont tendance à extrapoler - et trop souvent de manière linéaire et mécanique - à partir de séries statistiques, alors que les modèles dits systèmiques se fondent sur le raisonnement, aussi complet et synthétique que possible.

Je dirai aussi que les modèles du GIEC penchent plutôt vers la première catégorie, alors que la modélisation de Hansen et son équipe est très systémique, faisant largement appel aux notions de rétroaction (rapide ou lente), d'effets de seuil et de point de non-retour.

Pour ma part, ma révision critique de la modélisation du GIEC est également du type systèmique.

Alain

Euh, les modèles du GIEC n'ont rien de statistiques.

Ce sont des AOGCM

cad des modèles couplés océan _atmosphère.

Il y a deux modèles français qui y participent et je les connais fort bien

celui du LMD/IPSL

et ARPEGE Climat

l'un et l'autre sont basés sur les équations primitives pour l'atmosphère et pour l'océan

le couplage entre les deux est une interface commune crée au CERFACS

Ils comportent des sous programmes qui modélisent les échanges sol - atmosphère, océan - cryosphère - atmosphère, formation des nuages etc...

Ca ce sont les versions de base. Ils comportent aussi un transport des aérosols (IPSL), une chimie stratosphérique (ARPEGE) et j'en oublie.

Ils ne se différencient pas , sur le fond, du modèle du GISS qui ne comprend pas non plus (à ma connaissance) de représentation des phénomènes brusques , genre dislocation des calottes car ça, c'est pas très au point.

En tout cas, les modèles du GIEC n'extrapolent pas du tout des séries statistiques.

EDIT: voir ch8 AR4 p599 par exemple

Tu ne confondrais pas avec autre chose?

Lien à poster
Partager sur d’autres sites

Je ne comprends pas: il me semble qu'elle a bien autre chose à faire que de traduire ce papier en français.

Oui, certainement, tu as raison ! mais j'ai oublié de préciser qu'elle est un des co-auteurs avec Hansen, et donc elle a peut-être déjà une traduction en français sous la main - histoire de toucher plus de lecteurs... Sinon il faudrait que quelqu'un se tape la traduction, pour qu'on puisse en discuter, non ? Et ça serait aussi certainement une bonne référence pour expliquer ces phénomènes aux... dubitatifs...
Lien à poster
Partager sur d’autres sites

Oui, certainement, tu as raison ! mais j'ai oublié de préciser qu'elle est un des co-auteurs avec Hansen, et donc elle a peut-être déjà une traduction en français sous la main - histoire de toucher plus de lecteurs... Sinon il faudrait que quelqu'un se tape la traduction, pour qu'on puisse en discuter, non ? Et ça serait aussi certainement une bonne référence pour expliquer ces phénomènes aux... dubitatifs...

Franchement ça m'étonnerait: je ne connais aucun chercheur qui traduise en français les articles qu'il publie en anglais

Quant à traduire l'article...

Lien à poster
Partager sur d’autres sites

"Pour parvenir à ces conclusions, les scientifiques ont analysé les séries de données retraçant les grandes évolutions climatiques de la planète sur plus de 50 millions d'années. Pour déterminer un seuil limite, "nous avons examiné la vitesse de déplacement des isothermes, le retrait des glaciers - qui sont très importants pour l'alimentation en eau -, la vitesse d'élévation du niveau des mers, la déstabilisation des calottes glaciaires et la réaction des récifs coralliens", précise Valérie Masson-Delmotte."

Je savais pas qu'avec une simple carotte de glace, on pouvait remonter à 50 millons d'années en arrière... 1000 ans ou 2000 ans à la limite, je veux bien le croire mais 50 millions d'années d'évolution... ça me paraît dans ma tête impossible de voir avec un morceau de glace ce qu'il s'est passé. default_sleep.png/emoticons/sleep@2x.png 2x" width="20" height="20">

Et aussi, comment peut-on voir des vitesses de déplacement des isothermes avec une carotte de glace, ainsi qu'imaginer le retrait des glaces mentalement (ça me paraît plutôt subjectif comme démarche "scientifique")?

Je rajouterais aussi, comment peut-on voir avec une carotte de glace la vitesse d'élévation du niveau de la mer y'a 50 millions d'années, la destabilisation des carottes glacière et la réaction des récifs coraliens, précise Valérie-Delmotte??

Y'a 50 millions d'années en plus, l'homme n'existait pas je pense donc aller dans des détails de ce qu'il s'est passé à cette époque, je trouve ça un peu abusé pour ma part.... default_wink.png/emoticons/wink@2x.png 2x" width="20" height="20">default_huh.png

Lien à poster
Partager sur d’autres sites

"Je savais pas qu'avec une simple carotte de glace, on pouvait remonter à 50 millons d'années en arrière... 1000 ans ou 2000 ans à la limite, je veux bien le croire mais 50 millions d'années d'évolution... ça me paraît dans ma tête impossible de voir avec un morceau de glace ce qu'il s'est passé. default_sleep.png/emoticons/sleep@2x.png 2x" width="20" height="20">

On analyse les sédiments marins
Lien à poster
Partager sur d’autres sites

Euh, les modèles du GIEC n'ont rien de statistiques.

Ce sont des AOGCM

cad des modèles couplés océan _atmosphère.

Il y a deux modèles français qui y participent et je les connais fort bien

celui du LMD/IPSL

et ARPEGE Climat

l'un et l'autre sont basés sur les équations primitives pour l'atmosphère et pour l'océan

le couplage entre les deux est une interface commune crée au CERFACS

Ils comportent des sous programmes qui modélisent les échanges sol - atmosphère, océan - cryosphère - atmosphère, formation des nuages etc...

Ca ce sont les versions de base. Ils comportent aussi un transport des aérosols (IPSL), une chimie stratosphérique (ARPEGE) et j'en oublie.

Ils ne se différencient pas , sur le fond, du modèle du GISS qui ne comprend pas non plus (à ma connaissance) de représentation des phénomènes brusques , genre dislocation des calottes car ça, c'est pas très au point.

En tout cas, les modèles du GIEC n'extrapolent pas du tout des séries statistiques.

EDIT: voir ch8 AR4 p599 par exemple

Tu ne confondrais pas avec autre chose?

J'ai été rapide dans ma distinction.De manière plus précise, les équations primitives aboutissant aux sous-programmes modélisant les divers échanges à la base des modèles du GIEC sont bien calées sur des observations statistiques. Plus exactement, en faisant fonctionner les modèles sur des périodes dont les données sont statistiquement mesurées, on cale les équations de manière à ce que la modélisation donne des résultats aussi proches que possibles de la réalité déjà observée. C'est en celà que l'on peut parler - à mon sens - de modèles essentiellement statistiques.

Et je maintiens que le fait de ne pas intégrer les points de rupture (effets de seuil, points de non retour...), alors que les conditions de survenue de ces points sont identifiables (ils découlent de lois physiques ou d'évolutions technico-économiques) me parait constituer une énorme faiblesse, dès lors que l'horizon de la modélisation est de quelques décennies. Bien sûr, les incertitudes concernant les évolutions technico-économiques obligent à relativiser les prévisions sur le long et le très long terme, mais c'est mieux que de ne pas en tenir compte.

Alain

Lien à poster
Partager sur d’autres sites

J'ai été rapide dans ma distinction.

De manière plus précise, les équations primitives aboutissant aux sous-programmes modélisant les divers échanges à la base des modèles du GIEC sont bien calées sur des observations statistiques. Plus exactement, en faisant fonctionner les modèles sur des périodes dont les données sont statistiquement mesurées, on cale les équations de manière à ce que la modélisation donne des résultats aussi proches que possibles de la réalité déjà observée. C'est en celà que l'on peut parler - à mon sens - de modèles essentiellement statistiques.

Et je maintiens que le fait de ne pas intégrer les points de rupture (effets de seuil, points de non retour...), alors que les conditions de survenue de ces points sont identifiables (ils découlent de lois physiques ou d'évolutions technico-économiques) me parait constituer une énorme faiblesse, dès lors que l'horizon de la modélisation est de quelques décennies. Bien sûr, les incertitudes concernant les évolutions technico-économiques obligent à relativiser les prévisions sur le long et le très long terme, mais c'est mieux que de ne pas en tenir compte.

Alain

Puisque tu veux parler méthodologie, eh bien parlons en mais tâchons d'être clair.

1 tout d'abord, il n'y a aucune différence méthodologique entre le modèle du GISS et les autres

2 la physique étant une science expérimentale, il est hors de question de fabriquer un modèle qui ne fasse pas intervenir qq part des observations et qui ne soit pas validé sur des observations.

3 chaque sous programme est basé sur de la physique , les paramètres pertinents sont précisés par rapport à des observations détaillées.

4 le fonctionnement interactif du sous programme est testé et validé en faisant fonctionner le modèle et en vérifiant, en particulier, que les grand équilibres sont maintenus

5 la validation à grande échelle du sous programme (ou de la parmétrisation) se fait via les observations globales

les simulations du climat du 20e s par exemple, n'entrent pas dans le processus de mise au point mais dans celui du test des modèles: les choses sont bien séparées

Si le résultat est trop mauvais, on retourne aux diverses paramétisations et on cherche à voir ce qui cloche ou ce qui manque. C'est d'ailleurs la raison des différents programmes d'intercomparaison;

Un exemple: les nuages

DAns les tout premiers modèles (années 70) les nuages étaient fixés et leur propriétés aussi , on ajustait la quantité de façon à ce que l'équilibre radiatif soit obtenu

Dans les années 80 , on a commencé à générer les nuages à partir de l'humidité relative puis on a introduit une variable supplémentaire dans le modèle: la variable eau condensée et on a calculé ce qui lui advenant

Ca a permis de calculer l'albédo des nuages et leur émissivité de façon cohérente

On a ajusté les paramètres pertinents sur des expériences locales ou régionales et on a testé le comportement d'ensemble par rapport à ISCCP

On a ensuite introduit de la microphysique ce qui a permis de prendre en compte l'effet indirect des aérosols. Là encore on a utilisé des expériences (ACE, FIRE etc..) et on , à nouveau , testé par rapport aux observations satelite (POLDER, MODIS..)

C'est la même chose dans chaque domaine: on pourrait aussi prendre l'interface sol _ atmosphère.

Alors, parler de statistiques à ce propos est très "misleading" : c'est une expression qui prête à confusion et même qui conduit forcément à une interpretation erronée

Lien à poster
Partager sur d’autres sites

"Si le CO2 est maintenu pendant une longue période à un niveau supérieur à cette limite, il y a un risque de se placer sur une trajectoire menant à un dérèglement climatique dangereux et irréversible", décrypte la climatologue Valérie Masson-Delmotte (Commissariat à l'énergie atomique, CEA), coauteur de ces travaux. "Il est possible de revenir à un taux de 350 ppm, assure M. Hansen. Il faut un moratoire sur les centrales à charbon puis supprimer progressivement tous les usages de la houille d'ici à 2020-2030.

***modéré***

De toute façon, c'est pour l'instant publié dans aucune revue à comité de lecture. Donc ça relève de la spéculation basée sur des modèles non-falsifiables. Ca n'a donc rien à voir avec la science.

Lien à poster
Partager sur d’autres sites

Bonjour à tous !

Je ne suis pas un scientifique, (du moins pas en climatologie) et je me pose au moins deux questions :

— Comment peut-on accorder de la fiabilité à une "mesure MOYENNE" de la planète ?

J'entend partout : la planète se réchauffe…

Si je dis "la planète s'enrichit", je vais me faire prendre à partie, à juste raison… Cela serait stupide de proférer une telle assertion, de faire la "moyenne " entre les pays hyper riches qui ont plein de pauvres et des pays hyper pauvres qui possèdent quelques riches…

Et je trouve que dire "en moyenne" la terre se réchauffe est, pour le moins, sujet à âpres discutions…

Comment peut-on faire une "moyenne entre les océans, les déserts et les pôles ? Et surtout qu'elle peut en être l'utilité ?

— La deuxième question est la suivante : comment peut-on apporter de la crédibilité aux affirmations médiatiques sur les effets catastrophiques (?) du CO2 d'origines humaines ???

J'ai parcouru plusieurs sites et je suis tombé sur le réflexions de ce monsieur : Augie Auer qui me semble, Dieu ait son âme, un homme digne de foi.

Donc, d'après les études du professeur Augie Auer, un grand Chef Météorologiste de l'Organisation Mondiale de la Météorologie, qui était aussi professeur de sciences atmosphériques de l'université du Wyoming (USA). (Décédé en mai 2007) :

«La planète est constituée aux trois quarts par des océans et que 95% de l'effet de serre vient de la vapeur d'eau.

"Des 5% restants, seulement environ 3,6% vient du CO2 et quand vous voulez en savoir plus, vous trouvez que les études ont montré que la contribution anthropogénique (venant de l'activité humaine) n'est que de 3,2% par rapport au CO2 naturel."

"Ainsi, si vous multipliez la part de contribution totale de 3,6% du CO2 par la fraction due à l'homme, vous trouvez que la contribution anthropogénique à l'effet de serre est de 0,117 %." C'est comme 12 cents dans 100 $.

"C'est minuscule, pratiquement rien "»

Le taux de CO2 est actuellement de 379 PPM (partie par million) dans l'atmosphère. La part de l'homme, "la contribution anthropogénique" serait de 0,117 % de 379 PPM soit 44 PPM de CO2 dans l'atmosphère du aux activités humaines.

Comment les activités humaines peuvent-elles "réchauffer une planète" avec 44 PPM de CO2 ???

Ou alors le professeur Auer disait-il des énormités…???

Merci de vos réponses.

Lien à poster
Partager sur d’autres sites

Le taux de CO2 est actuellement de 379 PPM (partie par million) dans l'atmosphère. La part de l'homme, "la contribution anthropogénique" serait de 0,117 % de 379 PPM soit 44 PPM de CO2 dans l'atmosphère du aux activités humaines.

dejà il ya une erreur... 44ppm de 379 ca fait 11% et pas 0,117%

pour le reste je sais que les spécialistes de la question seront plus utiles que moi default_tongue.png/emoticons/tongue@2x.png 2x" width="20" height="20">

Lien à poster
Partager sur d’autres sites

dejà il ya une erreur... 44ppm de 379 ca fait 11% et pas 0,117%

pour le reste je sais que les spécialistes de la question seront plus utiles que moi default_tongue.png/emoticons/tongue@2x.png 2x" width="20" height="20">

Exact !

Je suis aussi fort en calcul que le ministre de l'éducation...!

Donc les humains relâcheraient encore moins de CO2 dans l'atmosphère...?

Lien à poster
Partager sur d’autres sites

Bonjour à tous !

Je ne suis pas un scientifique, (du moins pas en climatologie) et je me pose au moins deux questions :

— Comment peut-on accorder de la fiabilité à une "mesure MOYENNE" de la planète ?

J'entend partout : la planète se réchauffe…

Si je dis "la planète s'enrichit", je vais me faire prendre à partie, à juste raison… Cela serait stupide de proférer une telle assertion, de faire la "moyenne " entre les pays hyper riches qui ont plein de pauvres et des pays hyper pauvres qui possèdent quelques riches…

Et je trouve que dire "en moyenne" la terre se réchauffe est, pour le moins, sujet à âpres discutions…

Comment peut-on faire une "moyenne entre les océans, les déserts et les pôles ? Et surtout qu'elle peut en être l'utilité ?

— La deuxième question est la suivante : comment peut-on apporter de la crédibilité aux affirmations médiatiques sur les effets catastrophiques (?) du CO2 d'origines humaines ???

J'ai parcouru plusieurs sites et je suis tombé sur le réflexions de ce monsieur : Augie Auer qui me semble, Dieu ait son âme, un homme digne de foi.

Donc, d'après les études du professeur Augie Auer, un grand Chef Météorologiste de l'Organisation Mondiale de la Météorologie, qui était aussi professeur de sciences atmosphériques de l'université du Wyoming (USA). (Décédé en mai 2007) :

«La planète est constituée aux trois quarts par des océans et que 95% de l'effet de serre vient de la vapeur d'eau.

"Des 5% restants, seulement environ 3,6% vient du CO2 et quand vous voulez en savoir plus, vous trouvez que les études ont montré que la contribution anthropogénique (venant de l'activité humaine) n'est que de 3,2% par rapport au CO2 naturel."

"Ainsi, si vous multipliez la part de contribution totale de 3,6% du CO2 par la fraction due à l'homme, vous trouvez que la contribution anthropogénique à l'effet de serre est de 0,117 %." C'est comme 12 cents dans 100 $.

"C'est minuscule, pratiquement rien "»

Le taux de CO2 est actuellement de 379 PPM (partie par million) dans l'atmosphère. La part de l'homme, "la contribution anthropogénique" serait de 0,117 % de 379 PPM soit 44 PPM de CO2 dans l'atmosphère du aux activités humaines.

Comment les activités humaines peuvent-elles "réchauffer une planète" avec 44 PPM de CO2 ???

Ou alors le professeur Auer disait-il des énormités…???

Merci de vos réponses.

Si ce texte est réellement dû à Auer, c'est qu'il a effectivement dit d'invraisemblables énormités. Ses affirmations de base sont totalement fausses, au point de sombrer dans le ridicule.Premièrement, il est faux d'affirmer que la vapeur d'eau représente 95 % de l'effet de serre normal, alors que toutes les estimations varient entre 60 et 70 %, ce qui n'est déjà pas mal, sans avoir besoin d'en rajouter. Et que, d'ailleurs, la présence atmosphérique de H2O est très variable en fonction des tempétatures et du degré hygrométrique.

Deuxièmement, il est totalement stupide d'affirmer que la part du CO2 anthropique dans l'effet de serre est égale à 0,117 % (admirez la précision, en plus ! default_laugh.png ), alors que les activités humaines l'ont fait passer en un siècle de moins de 280PPM à 380 PPM, soit un accroissement de plus de 100 PPM, soit sensiblement plus d'un tiers de la proportion initiale (et pas seulement + 44PPM) !

Conclusion évidente : à moins que les énormités de ce "document" ne soient pas de lui (et nous aurions peut-être affaire à un faux d'origine "sceptique" comme il en circule souvent), ce monsieur parait avoir été encore plus incompétent et ignorant en matière de climatologie que le pauvre Allègre. Ce qui est une espèce de record toutes catégories, surtout pour un professeur des sciences atmosphériques...

Alain

Lien à poster
Partager sur d’autres sites

Je viens d'opérer une vérification de sources. Le texte dâte du 25 septembre 2007 et est dû à un très vieux journaliste du nom de Phillip Brennan. Il est visible sur le site "Nexsmax.com

http://209.85.135.104/search?q=cache:ZUeyD...;cd=7&gl=fr

Brenan a repris les pseudo "informations" données par feu Auer lors d'un interview paru dans un journal néozélandais local "Timaru herald Newspaper" en dâte du 19 mai 2007.

Rien à voir avec un vrai article, encore moins avec un article scientifique qui serait paru dans une revue à comité de lecture ou même dans une simple revue de vlgarisation scientifique.

En fait, à part les affirmations délirantes relatée sans compétence aucune ni vérification par Brennan, Augie Auer etait quasiment un inconnu sur le plan scientifique, hormi ses anciennes fonction d'enseignant et de chef météoroligiste. On ne lui doit ni études sérieuses, ni travaux scientifiques, ni recherches originales dans le domaine du climat.

A très vite oublier, donc...

Alain

Lien à poster
Partager sur d’autres sites

Je viens d'opérer une vérification de sources...

En fait, à part les affirmations délirantes relatée sans compétence aucune ni vérification par Brennan, Augie Auer etait quasiment un inconnu sur le plan scientifique, hormi ses anciennes fonction d'enseignant et de chef météoroligiste. On ne lui doit ni études sérieuses, ni travaux scientifiques, ni recherches originales dans le domaine du climat.

A très vite oublier, donc...

Alain

Celui qui n'a «pas fait d'études sérieuses», le «quasiment inconnu» a environ huit pages de publications recensées dans Google scholar.On lui doit beaucoup et tout le monde n'a pas un tel palmarès.

***Modéré***

Lien à poster
Partager sur d’autres sites

Celui qui n'a «pas fait d'études sérieuses», le «quasiment inconnu» a environ huit pages de publications recensées dans Google scholar.

On lui doit beaucoup et tout le monde n'a pas un tel palmarès.

***Modéré***

Eh bien, le caractère délirant du texte en cause ici est d'autant plus incompréhensible !Mais Allègre a lui de bien plus nombreuses références, alors...

Et vérification faite sur Scholar Google, on trouve effectivement 8 citations de Augie Auer, dont la majorité (6 sur 8 à première vue) ne concernent ni la météo ni le climat (probablement un homonyme ?). En cherchant par auteur, toujours sur Scholar Google, on ne trouve aucun texte signé de Augie Auer. Et les quelques textes signés A Auer sont apparemment d'un homonyme.

Si Marot me visait dans sa remarque, je lui signale que Scholar Google me référence 4 fois comme auteur sous le nom Alain Coustou et autant sous le nom A Coustou (En fait, j'ai beaucoup plus publié que ça). Sans compter les 9500 références sur Google, non compris un homonyme vivant en Lozère et cité quelques dizaines de fois ... C'est une recherche que je n'avais pas encore faite me concernant, mais Marot m'a piqué au vif...

Alain

Lien à poster
Partager sur d’autres sites

Invité
Ce sujet ne peut plus recevoir de nouvelles réponses.
 Partager

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...