florent76 Posté(e) 23 février 2007 Partager Posté(e) 23 février 2007 Le changement climatique influe déjà sur les mers européennes, déclare le CCR [Date: 2007-02-15] Selon un nouveau rapport du Centre commun de recherche (CCR) de la Commission européenne, le changement climatique présente déjà un impact significatif sur les mers et les côtes européennes, et toute politique prévue pour atténuer ces effets devra également aborder le problème de l'exploitation plus vaste des mers et des côtes par les êtres humains. Le rapport intitulé «La dimension maritime et côtière du changement climatique en Europe: Un rapport aux directeurs européens de l'eau», a été présenté lors d'un symposium sur le changement climatique et l'eau organisé par la présidence allemande du Conseil de l'UE. Les recherches montrent que le changement climatique n'a pas la même influence sur toutes les eaux européennes; alors que les températures de l'eau aux abords de l'Écosse ont augmenté d'environ 1 degré Celsius au cours des 20 dernières années, les températures dans la Méditerranée ne se sont accrues que d'un demi degré Celsius. De même, les taux d'augmentation du niveau de la mer autour de l'Europe varient entre 0,8 mm et 3 mm par an. Dans le même temps, des phénomènes météorologiques catastrophiques tels que pluies torrentielles, ondes de tempêtes et inondations, semblent également avoir lieu plus fréquemment. Les changements du niveau de la mer ont de sérieuses répercussions sur d'autres aspects de l'environnement côtier, étant donné leur influence sur la marée, les conditions et l'évaporation de la glace de mer. D'autres aspects de l'environnement marin présentent déjà les effets dus au changement climatique, comme, par exemple, les modèles de circulation et le cycle du carbone, rendant les mers de plus en plus acides en raison de l'absorption accrue de dioxyde de carbone. Les changements de température ont également forcé les espèces d¿eaux à température élevée à se diriger vers le Nord, ce qui a conduit à un déclin des espèces d'eaux froides. Depuis les années 1960, une baisse brutale du niveau des espèces de zooplancton dominant a conduit à des changements dans la structure d'assemblage des poissons de la mer du Nord. Ajoutée à la surpêche, cette situation a abouti à la disparition quasi totale de la population économiquement importante de morue. Comme le montre ce dernier point, les activités humaines telles que la sylviculture, la production d'énergie, le commerce et le tourisme peuvent aggraver les effets du changement climatique. Du point de vue de la recherche, le rapport précise qu'«un financement prolongé est nécessaire pour permettre la collecte et l'analyse de rapports à long terme afin d'évaluer et de découpler les impacts du changement climatique provenant d'une autre variabilité anthropogénique et naturelle dans les océans et les mers, et de bâtir des capacités de surveillance et d'évaluation durables.» La recherche fondamentale concernant les effets du réchauffement de la planète sur l'acidité des eaux, les interactions sur le réseau trophique et le cycle du carbone doit être augmentée, et le développement d'un réseau européen d'observation maritime et côtière fournissant un accès non restreint à des données en temps réel est également nécessaire. À l'échelle mondiale, la coopération internationale avec des pays tiers est essentielle afin d'éviter des situations de conflit lors de la mise en oeuvre de plans d'atténuation ou d'adaptation des ressources maritimes. Le rapport souligne également le besoin d'un mécanisme pour s'assurer que les données et informations découlant de la recherche atteignent les décideurs et utilisateurs de l'écosystème marin. Les auteurs notent que toutes les politiques européennes axées sur l'eau, telles que la directive-cadre dans le domaine de l'eau, doivent être entièrement mises en oeuvre à travers l'Europe. «Mais plus important encore, la Stratégie européenne maritime, en tant que pilier environnemental du Livre vert sur la politique maritime de l'UE, devrait représenter un outil unique intégré en faveur de la protection de l'environnement marin en Europe en abordant les questions de façon holistique, y compris les effets des changements climatiques présents et futurs», affirme le rapport. Pour de plus amples informations, veuillez consulter le site: http://ies.jrc.ec.europa.eu/ Recherche sur l'environnement et les changements climatiques au titre du 7e PC: http://cordis.europa.eu/fp7/cooperation/environment_en.html Catégorie: Divers Source des informations: Centre commun de recherche (CCR) Référence du Document: Institut pour l'environnement et la viabilité, «La dimension maritime et côtière du changement climatique en Europe: Un rapport aux directeurs européens de l'eau». Communautés européennes, 2006. Acronyme du Programme: FUTURE RESEARCH Codes de Classification de l'Index des Sujets: Sciences de la terre; Aspects économiques; Protection de l'environnement; Développement régional; Recherche scientifique; Ressources de la mer, pêche; Aspects sociaux Source : http://cordis.europa.eu/fetch?CALLER=FR_NE...=&RCN=27141 Florent. Lien à poster Partager sur d’autres sites More sharing options...
florent76 Posté(e) 24 février 2007 Partager Posté(e) 24 février 2007 Suisse : certains glaciers pourraient disparaître d'ici 2050 23.02.07 | 18h13 Certains des quelque 1.800 glaciers suisses pourraient fondre totalement d'ici 2050 du fait du réchauffement climatique qui frappe durement les Alpes, a estimé vendredi un chercheur helvétique. "Entre 1850 et l'an 2000, les glaciers ont reculé de 50%, dont 15% dans les quinze dernières années. A ce rythme, on peut s'attendre à ce que certains d'entre eux aient tout simplement disparu en 2050", a averti le professeur Wilfried Haeberli, du département de géographie et de glaciologie de l'Université de Berne. Les chercheurs tablent sur une hausse des températures de 2 à 5 degrés dans les cent ans à venir, avec un impact catastrophique au niveau de l'enneigement, et réclament des mesures rapides pour réduire les émissions de gaz à effet de serre responsables du réchauffement. "Il faut prendre conscience de la gravité de la situation", a déclaré le professeur Haeberli lors d'une conférence de presse, tout en estimant que "si des mesures sont prises au plus vite, on peut encore sauver une partie des glaciers". Parmi ses nombreux glaciers de toutes tailles, la Suisse compte le glacier d'Altesch, le plus grand d'Europe avec ses 23 kilomètres de long. Cette montagne de glace a reculé de 66 mètres durant la seule année 2005, selon une étude publiée il y a un an. Selon une étude de l'Université de Zurich de 2004, la fonte des glaciers s'est beaucoup accélérée en trente ans. Par rapport à la période 1850-1973, le rythme de fonte a été multiplié par trois entre 1973 et 2000 et même par sept entre 1985 et 2000. Source : http://www.lemonde.fr/web/depeches/0,14-0,...46@7-347,0.html FLorent. Lien à poster Partager sur d’autres sites More sharing options...
florent76 Posté(e) 24 février 2007 Partager Posté(e) 24 février 2007 Les réalités et les risques d’un climat déboussolé Planète précieuse, vivante et fragile Un " clair de terre " vu de la lune : voici ce que découvre l’humanité en juillet 1969 pour la première fois. Cette image a sans doute mieux fait prendre conscience à ses habitants que leur planète était précieuse, vivante et ...fragile. Cela n’empêche pourtant pas les activités des six milliards d’êtres humains qui la peuplent de mettre son écosystème en danger. Nous polluons la terre, les airs, l’eau, et les énormes quantités de gaz à effet de serre que nous émettons risquent de dérégler de plus en plus la délicate et complexe "machine" climatique. Les activités humaines en renforçant l’effet de serre naturel pourraient fortement perturber le climat et entraîner notamment une élévation de la température moyenne et du niveau des océans. Les conséquences sont imprévisibles sur la biodiversité, les humains, la faune, la flore. La communauté internationale s’emploie à prendre des mesures pour mieux gérer la planète et notamment lutter contre le réchauffement climatique. Chaque pays est désormais invité à faire des choix pour réduire ses émissions de gaz à effet de serre. Le protocole de Kyoto lancé en 1997 donne lieu a une âpre bataille politique. Trois questions sont soulevées : peut-on prévenir les risques liés aux changements climatiques ? Est-il possible de s’y adapter ? Comment en réparer les effets ? Le défi est collectif autant qu’individuel. Chaque terrien est appelé à repenser son mode de vie et élargir sa perception du monde, pour une humanité plus écologique, solidaire et humaine. Comme le dit Dostoïevski : "Chacun de nous est responsable de tout devant tous". Pourquoi dit-on que la planète se réchauffe ? Imaginons un lac de montagne. Lorsque tout est à l’équilibre, il reçoit autant d’eau de l’amont qu’il en déverse vers l’aval. Au moment de la fonte des neiges, le débit entrant va augmenter. Le lac va réagir en montant son niveau jusqu’à ce que le débit sortant (qui augmente avec la hauteur d’eau) devienne égal au débit entrant, puis va se stabiliser à ce niveau. Si, à l’inverse, le débit entrant diminue (par exemple l’été), le lac va baisser jusqu’à ce que le débit sortant devienne faible (l’eau va tout juste affleurer la retenue de sortie) puis il va se stabiliser à ce niveau. On peut aussi modifier l’écoulement de sortie : si des enfants font un barrage, le niveau va monter jusqu’à ce que, l’eau passant suffisamment par dessus (ou par les trous) le débit sortant équilibre de nouveau le débit entrant. Dans tous les cas de figure, une modification du débit entrant ou sortant a pour effet de stabiliser le lac à un niveau différent. Il en va de notre atmosphère comme de notre lac de montagne. En effet, tout corps isolé dans l’espace (isolé dans l’espace veut dire "qui ne touche rien d’autre" : c’est bien le cas de notre planète !) et dont la composition ne varie pas a tendance à aller vers un état stable où il émet exactement autant de rayonnement qu’il en reçoit de l’extérieur (comme notre lac a tendance à recevoir autant d’eau qu’il en déverse). La Terre reçoit son énergie uniquement du soleil (les étoiles ne nous chauffent pas beaucoup !). En première approximation, ce rayonnement solaire ne varie pas au cours du temps, du moins pas sur quelques siècles. La Terre émet aussi de l’énergie, uniquement sous forme de rayonnement infrarouge (sur le même principe que les radiateurs du même nom dans certaines salles de bains). De même que notre lac de montagne, la Terre (avec son atmosphère) a naturellement tendance à rayonner autant d’énergie sous forme d’infrarouges qu’elle reçoit d’énergie du soleil, pour équilibrer les échanges. Comme le rayonnement solaire ne varie pas, cela veut dire que les infrarouges qui quittent l’atmosphère vers l’espace ont tendance à rester à un niveau constant eux aussi. Les activités modernes de l’homme ont pour conséquence d’augmenter la teneur de l’atmosphère en gaz à effet de serre , qui ne laissent pas bien passer les infrarouges. L’atmosphère devient donc plus opaque aux infrarouges, qui ont plus de mal à partir vers l’espace (c’est l’élévation du niveau du barrage dans l’analogie avec notre lac, ou l’augmentation de l’épaisseur des vitres dans l’analogie avec la serre). L’énergie de ces infrarouges retenus prisonniers va chauffer le système atmosphérique et la surface terrestre. De ce fait, la Terre va rayonner de plus en plus d’énergie (la quantié d’énergie rayonnée augmente avec la température : un four froid rayonne moins d’énergie qu’un four chaud, ce que tout le monde peut facilement constater !), jusqu’à ce que la partie qui arrive à quitter l’atmosphère soit devenue la même que ce qu’elle était avant l’augmentation de l’effet de serre (figure ci-dessus). Un nouvel état d’équilibre est atteint (il met quand même quelques siècles après modification de l’atmosphère), mais dans l’intervalle la surface et l’atmosphère se sont réchauffées. C’est exactement ce qui est en train de se passer aujourd’hui. C’est pour cela que l’on dit que la planète se réchauffe. Savons nous où est le seuil de danger ? Un processus est dit "à effet de seuil" quand il existe un certain niveau de perturbation - qualifié de seuil - en dessous duquel la conséquence est proportionnelle à la perturbation, et au-delà duquel les choses se mettent à évoluer de manière totalement différente. Un bon exemple de phénomène à effet de seuil est l’élastique : tirons le un peu, il s’allonge. Tirons le un peu plus, il s’allongera un peu plus. A chaque effort de traction supplémentaire, il s’allongera encore, jusqu’au moment où....il cassera. Nous aurons alors franchi un seul : une petite perturbation supplémentaire aura engendré un changement d’ampleur et de nature de la conséquence (cassure au lieu de l’allongement), et en outre, dans l’exemple choisi, la conséquence ne sera pas réversible (nous ne pouvons pas ressouder l’élastique). Notre climat est rempli de tels processus à effet de seuil, et nous ne connaissons pas précisément - voire pas du tout, parfois - les niveaux de perturbation auxquels telle ou telle des composantes peut "casser", c’est à dire se mettre à se comporter de manière très différente de ce qui s’est passé jusqu’à maintenant. Nous commençons par exemple à savoir que de tels seuils existent pour les courants océaniques, pour la température maximale que supportent les coraux, ou encore l’élévation de température maximale que le Groenland peut supporter sans fondre. Mais pour l’essentiel des processus climatiques les seuils ne sont pas nécessairement connus, et quand ils le sont qualitativement ils sont loin de l’être toujours quantitativement. En outre certaines élévations de température peuvent être sans grande conséquence à l’horizon d’un siècle, mais avoir des répercussions majeures à plus long terme : pour savoir si, pour telle ou telle composante du climat, nous avons franchi un seuil ou pas, il faut aussi savoir à quel horizon de temps nous allons au résultat. En conséquence de ce qui précède, il n’est pas possible, aujourd’hui, de dire qu’il existe une élévation de température en des sous de laquelle nous sommes garantis à tout jamais contre tout ennui majeur, mais au-delà de laquelle nous nous mettons à courir tout d’un coup des risques considérables . Aucun scientifique ne peut dire qu’il est raisonnable de ne pas dépasser une hausse de 1,63 °C sur 98 ans, qu’en dessous de ce seuil nous sommes garantis contre toute catastrophe et qu’au-dessus l’Apocalypse est pour demain, ou encore qu’un plafond de 435 ppmv de gaz carbonique dans l’atmosphère peut être atteint sans risque, mais pas de 436 ppmv. Ensuite, ce que l’on appelle un risque ne résulte pas seulement de la modification des conditions environnantes, mais dépend aussi de notre aptitude - ou pas - à faire face à ladite modification. Une pierre qui chute sur notre tête ne présente pas le même risque selon que nous portons un casque ou pas. Et pour en revenir au climat, une diminution limitée du rendement de l’agriculture - causée par un changement climatique - n’est pas un "risque" majeur pour la France, qui produit bien plus que sa propre consommation, mais méritera éventuellement d’être qualifié comme tel en Inde ou en Chine si elle y survenait aujourd’hui. Plus généralement, si nous tentons de qualifier les risques liés à d’éventuelles modifications climatiques pouvant survenir dans 50 ou 200 ans, il nous faut non seulement pouvoir décrire les modifications climatiques en question (parlons nous du niveau de la mer ? Des courants marins ? des maladies ?) mais aussi connaître les moyens qui seront à la disposition de la société à ce moment là (que restera-t-il de la présente abondance énergétique ? Y aura-t-il encore des forêts ou d’autres ressources naturelles qui seraient alors utiles pour s’adapter ? etc), et cette prospective n’est pas nécessairement plus facile que la prospective climatique ! En particulier, ce qui gouverne notre aptitude à changer le monde, aujourd’hui comme demain, et donc notre aptitude à faire face à une évolution donnée, est l’énergie abondante. C’est elle qui nous permet de construire des infrastructures de transport et de faire rouler des camions pour importer de la nourriture des zones propices à l’agriculture, c’est elle qui nous permet de résister au froid ou au chaud, c’est elle qui nous permet de produire médicaments, vaccins, outils, qui nous rend mobiles..... Et toutes ces choses concourrent à une capacité de résistance forte à l’alea. Or que l’énergie soit encore abondante dans 50 ans est un vaste sujet de débat ! Pour l’énergie fossile, par exemple, la prolongation des tendances sur 50 ans nous conduit à consommer tout ce que nous avons comme réserves aujourd’hui connues (charbon compris), sans parler du problème climatique associé au largage dans l’atmosphère du CO 2correspondant. Revenons à l’exemple de l’agriculture, indispensable à la survie de quelques milliards d’hommes. Si plus rien ne pousse sur place, la gravité de la situation n’est pas la même selon qu’il reste ou non de l’énergie abondante pour transporter massivement de quoi manger en provenance d’un autre endroit propice à l’agriculture. De même, la capacité de résistance aux nouvelles maladies ne sera pas le même dans un pays doté d’infrastructures sanitaires et prophylactiques avancées que dans un pays qui n’en est pas doté, etc. Enfin la catastrophe est une notion à géométrie variable : le seuil n’est pas mis au même endroit par tout le monde ! Un "franchissement de seuil" s’appelle souvent, dans le langage courant, une catastrophe. Ainsi, un glissement de terrain faisant des morts (franchissement d’un seuil dans la capacité de cohésion du terrain) est une catastrophe, une épidémie (franchissement d’un seuil dans l’exposition aux agents pathogènes) est une catastrophe, une tempête (franchissement d’un seuil dans la vitesse du vent) est une catastrophe, etc. A supposer que nous soyons capable de discerner toutes les conséquences possibles d’un changement climatique donné (ce qui n’est pas le cas), pour savoir si nous avons ou pas dépassé le seuil de danger il reste à définir ce que nous estimons être une catastrophe. Si nous parvenons à cette définition, nous pouvons considérer que tant que nous n’avons pas de catastrophe, c’est que nous sommes en dessous du seuil de danger, et si nous avons des catastrophes plus tard, nous sommes déjà au-delà. Or la notion de catastrophe n’est pas objective : tout dépend de qui parle. Prenons un cas de figure concret : la possible disparition des coraux si la température moyenne monte de plus de 2 °C. Est-ce une catastrophe ? La réponse ne sera probablement pas la même selon que l’on demande à un pêcheur Norvégien ou à un agent de voyages spécialisé dans les plongées des mers chaudes, pour ne prendre que deux Occidentaux en exemple. Admettons que le changement climatique amène 3 ouragans par hiver en France, du même type que celui que nous avons connu en 1999. Est-ce une catastrophe ? Pour moi peut-être, pour un couvreur français surement pas, et pour un Chilien assurément pas. Admettons que le changement climatique fasse mourir de faim 2 milliards d’individus. Est-ce une catastrophe ? Là encore, la réponse variera surement selon la localisation des morts, les répercussion possibles "ailleurs", et l’auteur de la réponse.... En guise de conclusion... Savoir si nous avons dépassé le seuil de danger nécessite donc d’avoir de la visibilité : Sur l’évolution future du système climatique pour chaque scénario d’émission de gaz à effet de serre, Sur les moyens de "résistance" qui seront encore à notre disposition à l’horizon de temps qui nous intéresse, Sur ce qui est personnellement ou collectivement acceptable et ce qui ne l’est pas dans les conséquences possibles. De ce fait, compte tenu de l’imprecision sur ce que sera notre faculté d’adaptation dans quelques décennies (ou quelques siècles), de l’appréciation nécessairement subjective de ce qu’est une conséquence intolérable, et de l’inertie des processus en cause, il n’est pas possible de dire à quel moment nous aurons éventuellement "dépassé le seuil de risque tolérable", ni même de dire si nous ne l’avons pas déjà dépassé . Quels sont les objectifs des négociations internationales ? Des négociations internationales sur les émissions de gaz à effet de serre ont pris place depuis la Convention de Rio sur le climat, signée en 1992. L’une des conclusions de cette convention était qu’il fallait " stabiliser les concentrations de gaz à effet de serre dans l’atmosphère à un niveau qui empêche toute perturbation anthropique dangereuse du système climatique ". (dit autrement : ne pas franchir le seuil au-delà duquel les dommages deviennent irréparables, mais décider de la limite est un problème ardu !). Cette convention de Rio a été ratifiée par 175 Etats et la Communauté européenne. Dans le cadre de cette convention, il a été prévu que les pays signataires se réuniraient périodiquement pour faire le point et, éventuellement, adopter des protocoles qui pourraient ne pas être signés par tous les pays. Le protocole de Kyoto est l’un de ces protocoles. Les pays signataires de la convention de Rio sont regroupés en deux catégories : - Ceux qui sont - au moins officiellement - prêts à s’engager à réduire leurs émissions font partie de "annexe 1" ; il s’agit essentiellement des pays développés. - Ceux qui ne sont pas prêts à s’engager à réduire leurs émissions font partie de "annexe 2" ; il s’agit essentiellement de pays "en voie de développement". La conférence de La Haye est une réunion de toutes les parties signataires de la convention de Rio, comme à Kyoto. Ses objectifs devraient être de se mettre d’accord sur les outils utilisables pour parvenir à réduire les émissions, et notamment les fameux " permis d’émission ". Un objectif quantitatif fixé "faute de mieux" Comme la convention de Rio n’avait pas fixé d’objectif quantitatif pour la concentration de gaz à effet de serre à ne pas dépasser, les négociations internationales tournent actuellement autour de l’objectif de stabiliser le CO 2 à deux fois sa concentration préindustrielle (soit 500 ppmv). Sans vouloir polémiquer de manière abusive, on relèvera que : Personne ne sait quelle est la concentration de gaz à effet de serre "qui empêche toute perturbation anthropique dangereuse du système climatique" Les niveaux auxquels nous sommes déjà sont sans précédent dans l’histoire humaine , Il est donc strictement impossible de s’inspirer du passé pour savoir où est le seuil en dessous duquel nous ne courons aucun danger, Vu "l’effet retard" du réchauffement par rapport aux concentrations en gaz à effet de serre , nous avons peut-être déjà largement dépassé la cote d’alerte pour éviter des catastrophes majeures dans un futur plus ou moins lointain. Le danger ne provient pas seulement du niveau de CO 2auquel nous parviendrons (il y a déjà eu des concentrations fortes avant l’apparition de l’homme), mais surtout de la vitesse à laquelle nous y allons : en forçant le système climatique à un rythme inconnu dans le cadre des évolutions naturelles récentes, nous risquons d’enclencher des déplacements d’équilibre violents et incontrôlables . En conséquence de ce qui précède, les engagements annoncés à Kyoto de diminuer d’ici à 2010 les émissions des pays développés de 5,8% ne constituent pas une réponse élaborée scientifiquement pour se couvrir d’un risque dûment identifié ; il s’agit simplement du résultat de négociations politiques sur la base du constat "qu’il faut faire quelque chose", C’est donc un premier pas qui a l’avantage de donner une impulsion incontournable (il est en effet difficile de diviser par deux avant d’avoir réduit de 5% !) mais qui reste insuffisant en regard de ce à quoi il faudra parvenir un jour . Source : http://www.lopinion.ma/spip.php?article15066 Florent. Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 24 février 2007 Partager Posté(e) 24 février 2007 J'aime bien ce texte. En particulier les notions de risque, de danger, d'adaptation et comment elles s'imbriquent dans un futur incertain. L'introduction du paramètre "ressource énergétique" dans la faculté d'adaptation est assez nouvelle pour moi (bien qu'évidente pourtant) et enrichit la problématique sur l'adaptabilité humaine. Ca donne à réfléchir en tous cas, et celà prouve que le travail de recherche sur les conséquences globales et régionales du changement climatique a encore de beaux jours devant lui. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 4 mars 2007 Partager Posté(e) 4 mars 2007 (...) A côté, les 2.500 scientifiques du GIEC, sensés represénter le "consensus" climatologique, c'est de la gnognote. (...) Détail, mais quand je lis l'AR4, je vois plutôt 500 chercheurs environ cités dans les équipes d'auteurs, coordinateurs, examinateurs des chapitres. Les reviewers, plus nombreux, ne peuvent être intégrés dans le "consensus" (les chercheurs sceptiques envoient des reviews, si elles ne sont pas intégrées le contenu final ne reflète pas l'avis de ces chercheurs ; or, les auteurs principaux n'ont aucune obligation vis-à-vis des reviews). Quant à savoir si ces 500 chercheurs reflètent le "consensus" de leur propre discipline, il faut examiner au cas par cas. Dans le domaine solaire par exemple (chapitre 2 sur les forçages radiatifs), je constate la présence de Lean (auteur principal) et Wang (examinateur) dans l'équipe restreinte du GIEC, co-auteurs d'une récente réévaluation à la baisse de l'activité solaire, mais pas d'autres chercheurs ayant d'autres modèles solaires moins "conservateurs" (Solanki, Krivova, Forster, etc.). Peut-être l'avis de ces derniers a-t-il été pleinement pris en considération, mais je n'en ai aucune garantie particulière. Il se trouve que le SD du chapitre GIEC critique la reconstruction de Solanki-Krivova au bénéfice de celle de Lean-Wang (2-55). Au-delà se pose la question de la validité du consensus global au regard de la spécialisation des chercheurs, déjà évoquée ici, compte tenu de la très grande diversité des compétences mobilisées par les sciences du climat. Une physicienne du soleil ne me garantit pas que l'évaluation du contenu de chaleur des océans est correcte, et inversement, un océanographe ne me garantit pas que l'irradiance totale est bien analysée. Comme d'habitude, il faut lire chaque sous-partie de l'AR4, comparer avec les conclusions actuelles de la littérature scientifique sur le thème précis, évaluer si l'AR4 donne un reflet correct ou biaisé, neutre ou orienté. PS : je place ma réponse dans cette discussion, car elle concerne directement le GIEC et pas spécialement le "mouvement négateur" (où se situait le post initial de miniTAX). Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 4 mars 2007 Partager Posté(e) 4 mars 2007 Une physicienne du soleil ne me garantit pas que l'évaluation du contenu de chaleur des océans est correcte, et inversement, un océanographe ne me garantit pas que l'irradiance totale est bien analysée. Comme d'habitude, il faut lire chaque sous-partie de l'AR4, comparer avec les conclusions actuelles de la littérature scientifique sur le thème précis, évaluer si l'AR4 donne un reflet correct ou biaisé, neutre ou orienté. De même qu'un Charles Muller totalement orienté et non formé scientifiquement ne me garantit pas du tout une critique objective et scientifiquement exhaustive et fondée des travaux du GIEC. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 4 mars 2007 Partager Posté(e) 4 mars 2007 De même qu'un Charles Muller totalement orienté et non formé scientifiquement ne me garantit pas du tout une critique objective et scientifiquement exhaustive et fondée des travaux du GIEC. Tu progresses dans le scepticisme, heureux de le constater. Lien à poster Partager sur d’autres sites More sharing options...
david3 Posté(e) 4 mars 2007 Partager Posté(e) 4 mars 2007 Tu progresses dans le scepticisme, heureux de le constater. Tous les scientifiques sont par définition sceptiques. Dommage que ce mot soit aujourd'hui galvaudé dans le domaine climatique. Lien à poster Partager sur d’autres sites More sharing options...
miniTAX Posté(e) 4 mars 2007 Partager Posté(e) 4 mars 2007 Tous les scientifiques sont par définition sceptiques. Dommage que ce mot soit aujourd'hui galvaudé dans le domaine climatique. Oui, même Al Gore est sceptique sur la nécessité d'économiser et de réduire les émissions de CO2. C'est pour dire ! Lien à poster Partager sur d’autres sites More sharing options...
Marot Posté(e) 4 mars 2007 Partager Posté(e) 4 mars 2007 De même qu'un Charles Muller totalement orienté et non formé scientifiquement ne me garantit pas du tout une critique objective et scientifiquement exhaustive et fondée des travaux du GIEC. Le jour où des scientifiques isolés ou en troupe produiront une «critique objective et scientifiquement exhaustive et fondée» n'est pas levé.Il faut ignorer ce qui existe en fait de courants, de chapelles, d'intérêts et de désintérêts divers pour espérer l'objectivité. Je nomme intérêts tout ce qui peut favoriser l'individu dans son laboratoire et son laboratoire parmi les autres. Cela commence commence par la soif de notoriété personnelle ou du groupe, cela continue par la possibilité d'avancement individuel et cela aboutit à la condition de survie du groupe, savoir le financement même hors toute augmentation de salaire ou de prime. Je nomme désintérêts ce qui au mieux n'apportera rien, au pire desservira l'auteur ou le groupe dans l'esprit de ceux qui ont la capacité de le juger ou de faire savoir hautement leur opinion sur lui. L'objectivité est un idéal que l'on poursuit, pas un état. Pour l'exhaustivité, elle est quasiment impossible en l'état de la production scientifique. Le nombre, la variété, la redondance des articles la rend impossible et son espoir illusoire. C'est déjà vrai dans les sciences les plus dures, strictement hypothético-déductives. Ce l'est d'autant plus dans les sciences où l'observation est reine, où les équations sont hors d'état d'être maîtrisées pratiquement, où les interactions sont tout sauf connues et où le comportement chaotique guette derrière la moindre non-linéarité. Les publications partent dans tous les sens et c'est normal. Chaque directeur de recherche doit se singulariser par rapport à ses confrères-concurrents. Chaque thésard doit faire son chemin sur un sujet. Je ne parle même pas du premier étage de l'observation scientifique qu'est le protocole, mot quasiment absent en climatologie. S'il existait vraiment, il n'y aurait pas de discussions sur les valeurs observées mais sur la validité du protocole et son bon usage. En terme d'épistémologie, le RC est pour moi une belle illustration de la science normale, du paradigme installé au sens de Kuhn. Le RC est en situation de consensus majoritaire dans une science d'observation. Lien à poster Partager sur d’autres sites More sharing options...
zazou Posté(e) 4 mars 2007 Partager Posté(e) 4 mars 2007 Je ne parle même pas du premier étage de l'observation scientifique qu'est le protocole, mot quasiment absent en climatologie. Tu bases cette affirmation sur quoi exactement ? Que sais-tu de l'observation en climatologie ? Je te propose dans un premier temps de parcourir le site web des Observatoires de Recherche en Environnement et de regarder les protocoles appliqués pour chacune des observables du système. Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 4 mars 2007 Partager Posté(e) 4 mars 2007 Je nomme désintérêts ce qui au mieux n'apportera rien, au pire desservira l'auteur ou le groupe dans l'esprit de ceux qui ont la capacité de le juger ou de faire savoir hautement leur opinion sur lui. Tu as une vision du scientifique objectif qui est trop proche du martyr en théologie. Il ne faut pas exagérer.Pour l'exhaustivité, elle est quasiment impossible en l'état de la production scientifique. Le nombre, la variété, la redondance des articles la rend impossible et son espoir illusoire. L'état de l'art, même dans une discipline comme la climato, devrait être cerné dans ses grandes lignes par tout thésard ou chercheur. C'est déjà vrai dans les sciences les plus dures, strictement hypothético-déductives. Ce l'est d'autant plus dans les sciences où l'observation est reine, où les équations sont hors d'état d'être maîtrisées pratiquement, où les interactions sont tout sauf connues et où le comportement chaotique guette derrière la moindre non-linéarité. Les publications partent dans tous les sens et c'est normal. Chaque directeur de recherche doit se singulariser par rapport à ses confrères-concurrents. Chaque thésard doit faire son chemin sur un sujet. Cette vision non intégrée de la communauté des climatologues est très exagérée et peu convaincante.Je ne parle même pas du premier étage de l'observation scientifique qu'est le protocole, mot quasiment absent en climatologie. S'il existait vraiment, il n'y aurait pas de discussions sur les valeurs observées mais sur la validité du protocole et son bon usage. Ces affirmations sont à la limite de la provocation. Il s ne faut pas prendre les responsables d'observations et de leur interprétation pour des béotiens. Le calibrage et l'outil statistique sont parfaitement maitrisés dans ce milieu. En terme d'épistémologie, le RC est pour moi une belle illustration de la science normale, du paradigme installé au sens de Kuhn. Le RC est en situation de consensus majoritaire dans une science d'observation. L'épistémologie a aussi ses limites : les généralisations inter-sciences. La climatologie ne se limite plus à l'observation.Il y a trop de choses qui concordent en climato. Le nier relève maintenant d'un entêtement stupide ou pathologique ou intéressé. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 5 mars 2007 Partager Posté(e) 5 mars 2007 (...) Il y a trop de choses qui concordent en climato. Le nier relève maintenant d'un entêtement stupide ou pathologique ou intéressé. Intéressant. Puisque tu n'es ni stupide, ni fou ni intéressé, et que tu sembles au fait des avancées de la "climato", explique-moi ce qui "concorde" au juste et ce que l'on peut en déduire de robuste. Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 5 mars 2007 Partager Posté(e) 5 mars 2007 ...explique-moi ce qui "concorde" au juste et ce que l'on peut en déduire de robuste. En ce qui concerne les conclusions robustes, tout ce qui est affublé par le GIEC d'une proba au moins égale à 0,9. Les observations concordent bien avec les modèles. Les problèmes de circularité observations-modèles (encore une rétroaction anthropique /emoticons/smile@2x.png 2x" width="20" height="20"> ) sont en partie maitrisés. Comme je le disais à Marot, il ne faut pas simplifier à outrance en disant que la communauté scientifique ne tient pas compte de certains phénomènes complexes. Même le "hasard", dans certains cas, se modélise. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 5 mars 2007 Partager Posté(e) 5 mars 2007 En ce qui concerne les conclusions robustes, tout ce qui est affublé par le GIEC d'une proba au moins égale à 0,9. (...) Mais alors, il n'y a presque rien de robuste. De plus, les qualificatifs de "très vraisemblable" (>90%) ou "haut niveau de confiance" (> 9 chances sur 10) utilisés par le GIEC ne relèvent que rarement d'analyses quantitatives. Par exemple, le GIEC juge très vraisemblable (>90%) que le CO2 est la cause principale de hausse des T 1950-2005. Mais quand on va regarder les travaux d'attribution-détection, ceux-ci donnent au mieux des intervalles de confiance de 90% pour une certaine fourchette de réchauffement attribuable à chaque forçage (et le CO2 n'est presque jamais isolé des GES). Les observations concordent bien avec les modèles. Cela dépend et des modèles et des observations. La lecture des intercomparaisons en vogue depuis quelques années montre des résultats très variables :http://www-pcmdi.llnl.gov/ipcc/subproject_publications.php Les problèmes de circularité observations-modèles (encore une rétroaction anthropique tongue.gif ) sont en partie maitrisés. Qu'entends-tu par là? Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 5 mars 2007 Partager Posté(e) 5 mars 2007 Mais alors, il n'y a presque rien de robuste. De plus, les qualificatifs de "très vraisemblable" (>90%) ou "haut niveau de confiance" (> 9 chances sur 10) utilisés par le GIEC ne relèvent que rarement d'analyses quantitatives. Par exemple, le GIEC juge très vraisemblable (>90%) que le CO2 est la cause principale de hausse des T 1950-2005. Mais quand on va regarder les travaux d'attribution-détection, ceux-ci donnent au mieux des intervalles de confiance de 90% pour une certaine fourchette de réchauffement attribuable à chaque forçage (et le CO2 n'est presque jamais isolé des GES). Un peu compliqué comme phrase. Ne parlons plus de réchauffement mais de forçage. Pour le réchauffement, on fait le bilan algébrique des forçages que l'on multiplie par la sensibilité.Exemple : si on peut minorer (à 90% de chances) la part du forçage des GES par 75% alors celle du CO2 sera minorée (tjrs à 90%) par 50% (avec l'hypothèse d'un facteur 2 entre le forçage du CO2 et celui des autres GES). Autre explication (sémantique) : cause principale peut signifier "la plus importante" ou "qui majore la somme de toutes les autres". Comme majorité relative/majorité absolue. Je pense que les cervaux qui ont pondu le rapport 2007 sont au courant de ces trivialités. Qu'entends-tu par là? Des corrections apportées aux modèles pour qu'ils expriment les observations. Ceci, loin de discréditer les modèles les rend plus performants. Lien à poster Partager sur d’autres sites More sharing options...
Marot Posté(e) 5 mars 2007 Partager Posté(e) 5 mars 2007 Tu bases cette affirmation sur quoi exactement ? Que sais-tu de l'observation en climatologie ? Je te propose dans un premier temps de parcourir le site web des Observatoires de Recherche en Environnement et de regarder les protocoles appliqués pour chacune des observables du système. J'ai fait la recherche sur la totalité du site.Il est exact que le mot protocole y apparaît, deux fois : L'observatoire H+ permet de développer les expérimentations, d’assurer la cohérence des protocoles... Ceci a été établi à condition que l’acquisition de ces mesures supplémentaires ne remette en cause ni la stratégie d’échantillonnage ni les protocoles choisis pour les mesures communes. Lien à poster Partager sur d’autres sites More sharing options...
Marot Posté(e) 5 mars 2007 Partager Posté(e) 5 mars 2007 ... Ces affirmations sont à la limite de la provocation. Il s ne faut pas prendre les responsables d'observations et de leur interprétation pour des béotiens. Le calibrage et l'outil statistique sont parfaitement maitrisés dans ce milieu.... Pour moi, les protocoles portent sur les recueils de données, y compris le calibrage des instruments.L'outil statistique n'en fait pas partie car il est utilisé dans la phase d'interprétation. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 5 mars 2007 Partager Posté(e) 5 mars 2007 Un peu compliqué comme phrase. Ne parlons plus de réchauffement mais de forçage. Pour le réchauffement, on fait le bilan algébrique des forçages que l'on multiplie par la sensibilité. (...) A condition que le forçage TOA soit l'outil le plus pertinent pour analyser des températures de surface sur des périodes courtes de quelques décennies (dans ce cas, ce n'est d'ailleurs pas la sensibilité climatique qui est impliquée, car elle se calcule à l'équilibre, mais la réponse transitoire). Or, les modèles contraignent mal la variabilité naturelle (on ne sait pas aujourd'hui si l'accélération et l'intensification des El Nino observée dans la seconde moitié du XXe siècle ou la longue phase NAO+ sont naturelles ou forcées)A condition aussi que cet outil de forçage TOA soit bien calibré - tous les forçages hors GES longue durée sont encore en niveau faible à moyen de compréhension scientifique. Et la valeur même du forçage GES-LD 1860-2000 implémenté varie encore de 1,5 à 2,7 W/m2 dans les modèles de l'AR4 (Collins 2006), c'est dire si un "haut" niveau de compréhension scientifique n'est pas une garantie de grande précision. A condition enfin que les modèles servant à l'attribution-détection reproduisent assez fidèlement l'ensemble des traits du climat. Ce qui n'est pas le cas (ils sont toujours aussi médiocres sur la nébulosité, par exemple). J'oublie sûrement d'autres conditions pour que cet exercice d'attribution de 0,5 °C +/-0,1°C soit crédible. Celles-là me suffisent pour suspendre mon jugement. Des corrections apportées aux modèles pour qu'ils expriment les observations. Ceci, loin de discréditer les modèles les rend plus performants. En effet, il est préférable que les modèles expriment les observations. Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 5 mars 2007 Partager Posté(e) 5 mars 2007 Pour moi, les protocoles portent sur les recueils de données, y compris le calibrage des instruments. Bien sûr on sait à peu près tous celà, tout au moins ceux qui ont fait un peu de "paillasse". Mais en quoi, par conséquent, les protocoles seraient-ils, selon ton affirmation, quasi-inexistants en climatologie? Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 5 mars 2007 Partager Posté(e) 5 mars 2007 A condition que le forçage TOA soit l'outil le plus pertinent pour analyser des températures de surface sur des périodes courtes de quelques décennies (dans ce cas, ce n'est d'ailleurs pas la sensibilité climatique qui est impliquée, car elle se calcule à l'équilibre, mais la réponse transitoire). Disons que la sensibilité climatique nous donne, à scénario fixé, l'intensité de la claque climatique maximale, pas la génération de notre descendance qui la recevra. C'est donc un bon marqueur, même si la vitesse de changement n'est pas spécifiée.Or, les modèles contraignent mal la variabilité naturelle (on ne sait pas aujourd'hui si l'accélération et l'intensification des El Nino observée dans la seconde moitié du XXe siècle ou la longue phase NAO+ sont naturelles ou forcées) Il y a des moyens de "contraindre" l'aléatoire dans une certaine mesure.Comme disait Thom "Prédire n'est pas expliquer", à contrario, on peut avoir un certain succès dans la prévision sans "décomposer" parfaitement l'ensemble des phénomènes. A condition aussi que cet outil de forçage TOA soit bien calibré - tous les forçages hors GES longue durée sont encore en niveau faible à moyen de compréhension scientifique. Et la valeur même du forçage GES-LD 1860-2000 implémenté varie encore de 1,5 à 2,7 W/m2 dans les modèles de l'AR4 (Collins 2006), c'est dire si un "haut" niveau de compréhension scientifique n'est pas une garantie de grande précision. Tu veux toujours saper le crédit des résultats en climato en insistant sur les incertitudes. C'est peine perdue. Les incertitudes se retrouvent à la sortie des modèles, et malgré cela, le futur est inquiétant. Donc on cherche à agir sur nos comportements (tu peux même t'associer aux gens de bonne volonté ), c'est pas plus compliqué que cela. A condition enfin que les modèles servant à l'attribution-détection reproduisent assez fidèlement l'ensemble des traits du climat. Ce qui n'est pas le cas (ils sont toujours aussi médiocres sur la nébulosité, par exemple). Des chiffres !La nébulosité c'est du pain béni pour les négateurs. Lien à poster Partager sur d’autres sites More sharing options...
miniTAX Posté(e) 5 mars 2007 Partager Posté(e) 5 mars 2007 Comme disait Thom "Prédire n'est pas expliquer", à contrario, on peut avoir un certain succès dans la prévision sans "décomposer" parfaitement l'ensemble des phénomènes. Dans ce cas, comme dirait Mas, le hasard fait bien les choses.P.S c'est qui "Thom", un marabout qui a "un certain succès" à prévoir le beau temps et à guérir les peines de coeur ? Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 5 mars 2007 Partager Posté(e) 5 mars 2007 A condition aussi que cet outil de forçage TOA soit bien calibré - tous les forçages hors GES longue durée sont encore en niveau faible à moyen de compréhension scientifique. Et la valeur même du forçage GES-LD 1860-2000 implémenté varie encore de 1,5 à 2,7 W/m2 dans les modèles de l'AR4 (Collins 2006), c'est dire si un "haut" niveau de compréhension scientifique n'est pas une garantie de grande précision. Je n'intreprète pas la note que tu as citée en lien de cette façon. Les forçages radiatifs des GES en question sont calculés de façon purement radiative, par les modèles LBL , avec une bonne précision. Où cela marche moins bien c'est pour les modèles AOGCM . Il est précisé que d'une certaine façon , le critère d'appréciation des AOGCM sera de donner un forçage des GES identique à celui calculé par les LBL. extrait de l'abstract: In some cases this is because the AOGCMs neglect particular absorbers, in particular the near-infrared effects of CH4 and N2O, while in others it is due to the methods for modeling the radiative processes. The biases in the AOGCM forcings are generally largest at the surface level. extrait de la conclusion : 4. Discussion and Conclusions [31] This paper discusses the findings from the Radiative Transfer Model Intercomparison Project (RTMIP). The basic goal of RTMIP is to compare the radiative forcings computed with AOGCMs in the IPCC AR4 against calculations with LBL models. The radiatively active species included in RTMIP are the primary well-mixed greenhouse gases CO2, CH4, N2O, CFC-11, and CFC-12. In the current generation of AOGCMs, the forcings by these species are combined with forcings by a wide variety of other agents including tropospheric and stratospheric ozone, direct and indirect effects of aerosols, solar variability, land use change, and urbanization [iPCC, 2001]. The participants in RTMIP have focused on WMGHGs since these collectively represent the most important positive forcing on climate [boucher and Haywood, 2001] and there are minimal uncertainties in the benchmark LBL calculations. Intercomparisons of forcing by other radiatively active species, for example aerosols, are complicated by significant uncertainties in the representations of aerosol chemical composition and microphysical properties. In some sense, an essential criterion for the realism of simulations of climate change with an AOGCM is the fidelity of its calculation of radiative forcing by WMGHGs. En résumé le forçage TOA des GES est bien connu avec une bonne précision et ce par les codes de calcul LBL. Par contre les modèles AOCGM utilisés pour simuler le climat sont moins spécialisés que les LBL tout en traitant apparemment bien plus de paramètres. Ils donnent donc des résultats moins précis quoique la valeur médiane de la fourchette, 2.1W/m2, n'est pas si mauvaise. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 5 mars 2007 Partager Posté(e) 5 mars 2007 Donc on cherche à agir sur nos comportements (tu peux même t'associer aux gens de bonne volonté /emoticons/sad@2x.png 2x" width="20" height="20"> ), c'est pas plus compliqué que cela. "On", c'est qui ? Des chiffres ! La nébulosité c'est du pain béni pour les négateurs. /emoticons/sad@2x.png 2x" width="20" height="20"> Tu considères que l'incertitude des modèles est très acceptable. Comme tu es sensé, tu considères aussi sans doute que les évolutions de la nébulosité sont un facteur important du climat terrestre. Montre-moi donc les simulations de nébulosité 1950, 1975 et 2000 des 19 modèles AR4. Ce doit être facile à trouver, les "cerveaux" du GIEC n'iraient quand même attribuer des changements de température sans être capables de simuler les nuages et leurs évolutions pluridécennales. Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 5 mars 2007 Partager Posté(e) 5 mars 2007 Montre-moi donc les simulations de nébulosité 1950, 1975 et 2000 des 19 modèles AR4. Ce doit être facile à trouver, les "cerveaux" du GIEC n'iraient quand même attribuer des changements de température sans être capables de simuler les nuages et leurs évolutions pluridécennales. Les modèles AOGCM, à ma connaissance, simulent la rétroaction vapeur d'eau dont fait partie la rétroaction nébulosité. En conséquence leur application à la reconstruction du climat fait intervenir la nébulosité. Lien à poster Partager sur d’autres sites More sharing options...
Messages recommandés