Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

charles.muller

Membres
  • Compteur de contenus

    2597
  • Inscription

  • Dernière visite

Tout ce qui a été posté par charles.muller

  1. Oui, à ce propos je signale comme plus bas dans la rubrique livre ce bon bouquin qui vient de paraître, pour ceux qui cherchent une intro : Jacques Merle, Océan et climat, IRD Editions, 222 p., 32 euros. On y comprend les bases (notamment Coriolis et les vents sur les courants marins) et l'histoire des découvertes (notamment l'étonnante mesure au tritium dont parle sirius, grâce aux essais de la bombe atomique). Il reste (pour revenir au débat) que le mélange bien réel par la circulation océanique doit être assez faible à mesure que l'on descend, vu le froid (et la relative homogénéité) des très basses couches. Il est quand même à noter d'après le graphe des T potentielles reproduit plus bas qu'il existe malgré tout une différence de T selon les latitudes, même au-delà de 3000 ou 4000 m. En fait, existe-il des estimations paléoclimatiques sur l'évolution aux temps géologiques et/ou historiques des grands fonds ?
  2. Bien d'accord avec ces remarques évidemment. Pour en revenir au sujet, je pense qu'il n'y a pas vraiment contradiction dans le texte du GIEC, tel que tu l'as reproduit. Si je lis bien, le GIEC ne dit pas que toute la chaleur de la couche mélangée supérieure va se diffuser vers le fond, simplement que la part de chaleur qui s'y diffuse a un effet plus important sur le volume à mesure que la densité croît. Ton idée d'un système à l'équilibre avec "travail minimum" n'empêche pas qu'il y ait tout de même une part de diffusion (empiriquement, Levitus le constate), due j'imagine aux mécanisme de circulation de la THC. Même si seulement 10% de la chaleur de la couche sup. part en profondeur, on peut s'attendre à un léger effet différé sur le volume, non ?
  3. Merci de cette contribution magistrale au débat de fond. Je comprends mieux pourquoi la valeur de 0,1 W/m2 a été retenue par Judith Lean pour IPCC 2007.
  4. Si je résume sur Lyman 2006 en rapport avec l'objet de ce post : - les précédents de 1965-67 et 1980-83 ajoutés à la précision théoriquement meilleure du réseau ARGO indiquent que l'anomalie froide 2003-2005 n'est sans doute pas un biais ; - on n'a pas d'anomalies SST 2003-2005 susceptible d'expliquer la perte par un surcroît d'émission IR; - on n'a pas d'anomalie de niveau des mers 2003-2005 susceptible de corroborer la perte par upwelling / downwelling (dans ce cas, le réchauffement des eaux profondes denses aurait entraîné un gain de volume plus important) ; - l'explication la plus plausible reste des variations régionales de nébulosité entraînant plus de rayonnement vers l'espace en ciel clair ; - la confirmation de Lyman 2006 impliquerait qu'il ne reste plus que l'équivalent de 0,25°C "dans le pipe line", selon la sensibilité climatique et le mode de calcul Nasa Giss / Hansen et al. - l'inertie thermique des océans, qui supposent que ceux-ci conservent longtemps leur chaleur accumulée par l'effet pluridécennal d'un forçage positif, est à modéliser de manière plus fine, en prenant en compte ces variabilités assez brusques et importantes du contenu de chaleur de l'océan supérieur.
  5. En cherchant, sans succès pour le moment, des données chiffrées sur les variations régionales du forçage solaire pour cette discussion, je suis tombé sur ce papier de Hengyi Cheng. Cela peut intéresser Williams ou Torrent : il s'agit de la mise en évidence du signal solaire sur les SST (globale, nord-atlantique, el nino). L'auteur a analyé des données sur 1870-2004. Il en conclut que la variabilité naturelle (de la saison au siècle) est dominée par les variations solaires et que le signal de notre étoile se retrouve notamment sur 77-88 ans, soit le cycle de Gleissberg, pour le régime El Nino. Une modification de 0,04% de l'irradiance suffit à déclencher des réponses significatives dans son modèle. Comme dit (de manière critique) Robert Kandel, les corrélations ne manquent pas dans l'étude des liens soleil-climat. Mais les hypothèses "unificatrices" de ces corrélations sont hélas plus rares ! La plupart des travaux que je rencontre concluent que les changements les plus significatifs (en réponse à une variation solaire) ont souvent une signature régionale. C'est ainsi par exemple que Schindell et al. 2001 expliquent le PAG (voir /index.php?showtopic=17412&pid=356764&st=60'>cette autre discussion en cours), avec une amplification du signal solaire dans l'HN à cause de la NAO. (Ce qui est un peu étonnant d'ailleurs, car G. Schmidt et M. Mann - co-auteurs de ce papier sur le PAG - expliquent maintenant sur Real Climate que l'Atlantique Nord, et le Groenland, auront la plus faible réponse au XXIe siècle pour le forçage GES. Il faut croire que les mêmes régions ne répondent pas de la même manière selon que les forçages sont négatifs ou positifs. Mais sur RC, voir aujourd'hui le nouveau papier concernant le lien Gulf Stream / PAG). Lien : http://ff.org/centers/csspp/library/co2wee.../previously.htm INFLUENCE OF THE 11-YEAR SOLAR CYCLE MORE SIGNIFICANT THAN PREVIOUSLY THOUGHT Journal of Atmospheric and Solar-Terrestrial Physics. Volume 67, Issues 8-9 , May-June 2005, Pages 793-805 (Solar and Heliospheric Influences on the Earth's Weather and Climate) http://tinyurl.com/94dtf The influence of the 11 yr solar cycle on the interannual-centennial climate variability Hengyi Weng a), b- a) LASG, Institute of Atmospheric Physics, Chinese Academy of Sciences, Beijing 100029, China b- National Marine Data and Information Service, State Oceanic Administration, Tianjin 300171, China Abstract The monthly sunspot number (SSN) for January 1749-August 2004, the global sea-surface temperature (gmSST) and the regional SSTs in the northern N. Pacific (npSST) and the Nino3.4 (ninoSST) areas for the winters of 1870-2004 are analyzed by a wavelet transform to show their multi-scale nature. On the interdecadal timescales, both gmSST and npSST have similar variation tendencies with that of the intensity and cycle-length of the 11 yr SSN, with slight phase differences. The npSST and ninoSST are often out of phase on the decadal-interdecadal timescales. The ninoSST is predominated by the interannual timescales peaking around 3.8 yr. Moreover, the ninoSST exhibits an apparent 80-90 yr signal that is almost out of phase with that observed in SSN. Numerical experiments using a simple nonlinear system illustrate that the intensity of the seasonal forcing, modulated by the 11 yr solar activity, is likely an important factor causing different dominant timescales in regional SSTs. Even a small change in the "solar constant" by 0.04% on the 11 yr timescale may result in a regime change in the response (e.g. SST) with various dominant timescales, including the 77 and 88 yr signals that are similar to those of the "Gleissberg cycle" in observed SSN. The results show that part of the energy of the internal variability of the system is transferred to the forced variability that may have richer timescales than those in the forcing itself due to nonlinear resonance. This suggests that observed interannual-centennial climate signals are not purely internal, but also external because of the existence of the 11 yr solar activity cycle, which has changed the "solar constant" in the past and will continue doing so in the future. It also suggests that if the solar "Gleissberg cycle" is included in the forcing term, the 77 and 88 yr interdecadal signals and their subharmonics on centennial timescales may be more significant than what is shown here, which might have some implication to "global warming" research.
  6. Ce que l'on appelle adaptation en biologie évolutive, c'est simplement la résultante a posteriori de la sélection naturelle (ie la survie/reproduction différentielle des individus d'une même population, sur la durée). Elle ne procède donc pas d'une "anticipation" quelconque. Un animal ou un végétal ne se dit pas : "tiens, je vais être plus adapté que mon voisin." Il ne transmet que ses gènes à la génération suivante, et ce sont les traits / comportements à base génétique qui définiront l'adaptation. Comme il a été dit, les organismes réagissent à leur environnement et la manière dont ils réagissent est la cible de cette sélection naturelle. Le système nerveux est l'une des interfaces les plus efficaces pour cela, c'est-à-dire qu'il donne bcp d'informations sur le milieu. Comment veux-tu qu'un organisme réagisse à ce que va se passer dans 2, 10 ou 20 jours ? Et si cette miraculeuse "prescience" existait, comment veux-tu qu'elle ne soit pas très répandue dans le vivant (y compris l'homme) étant donné l'avantage évident qu'elle aurait conféré à ses porteurs par rapport aux autres ? Au mieux, tu as par exemple des insectes qui sont plaqués en basse altitude par la ligne de grain d'un orage qui approche, et les oiseaux qui les suivent pour les bouffer. Mais ni les insectes ni les oiseaux ne "prévoient" l'orage : ils réagissent l'un à une pression physique, l'autre à une stratégie alimentaire. Et cela sur un temps très court.
  7. Post scriptum (à mon précédent message) Concernant l'estimtion du forçage solaire 1750-2000, la note technique du Hadley Center précise à l'attention du 4e rapport GIEC 2007 : Specifically, we recommend the reconstruction of the Solanki and Krivova (2003, SK) which uses (i) solar cycle amplitude for secular variation with (ii) a 2 Wm-2 increase since the Maunder Minimum and (iii) the Fröhlich and Lean reconstruction for the satellite era. Leur avis n'a pas été suivi, semble-t-il. Il est à noter que 2W/m2 par rapport au minimum de Maunder représente en fait le minimum de la fourchette de Solanki 2003, qui est en réalité 2-4 W/m2. On est dans ce cas à un forçage TOA d'environ 0,36-0,72 W/m2, avec une valeur médiane à 0,54W/m2. Un autre point de cette note est le suivant : Top-of-atmosphere (TOA) solar radiative forcing (RF) may be deduced from anomalies in total solar irradiance using a scaling factor of 0.18 to take account of reduction by global albedo and by global averaging. Thus a 1.7Wm-2 increase in TSI since 1750 (as suggested by the LBB and HS reconstructions) translates into a TOA RF of 0.3 Wm-2. In this context the apparently increasing uncertainty in TSI reconstructions, discussed in section 2, means that solar radiative forcing may be less well known now than was perceived during the writing of the IPCC TAR. We note in passing that the solar value included in the wellknown IPCC (2001) RF bar chart might be considerably larger or smaller if a different year were assumed for the pre-industrial start-date. Je trouve cette précision (en gras) très étrange. Il me semblait que l'estimation du forçage solaire dans le bilan GIEC était faite sur la moyenne du XVIIIe siècle. Or, les auteurs de la note semblent suggérer que l'année 1750 est vraiment prise comme référénce pour l'évaluation. Ce serait assez bizarre : quand on regarde la construction de Muscheler au début de ce post, on voit que prendre 1700 ou 1780 comme année de référence pour le soleil ferait en effet varier considérablement son forçage le bilan radiatif, et même son signe (sans doute de +0,5 W/m2 à -0,1W/m2 si l'on prend les valeurs indiquées ci-dessus). Enfin, si le draft n'a pas changé suite à la phase actuelle de critiques, on sera encore plus bas, à 0,1 W/m2 pour le soleil. On aura ainsi quasiment réduit aux seuls GES l'explication de la hausse des T depuis 250 ans. C'est quand même gros à avaler. Cela semble surtout incompatible avec la conclusion de bon nombre de chercheurs que les variations des T modernes sont correctement corrélées aux variations solaire jusqu'au milieu du XXe siècle, de sorte que le réchauffement 1750-1950 doit sans doute sa majeure part au soleil.
  8. Le fait est que les profils de T océaniques (ci-dessous, site de Fritz) montrent que le gradient est rapide dans les 1000 premiers mètres (jusqu'à la thermocline), puis très faible en-dessous. Il n'y a que les zones froides où la différence surface-fond est faible. S'il existait une diffusion "uniforme" de la chaleur vers le fond, j'imagine que l'on ne pourrait pas expliquer l'existence de cette "frontière" qu'est la thermocline, qui se confond à peu près avec la pycnocline. Inversement, d'un point de vue théorique, quelles sont les lois physiques expliquant ce que tu avances (c'est-à-dire, sur quelles propriétés de l'eau / de la chaleur pourrait-on appuyer l'hypothèse que la chaleur n'atteint jamais une certaine profondeur) ?
  9. - Le rapport Stern n'a justement pas de véritable analyse coût-bénéfice et a été critiqué sur ce point. Si l'on ne met que les coûts dans un bilan, il n'est pas étonnant que l'on conclut à la faillite. - Il ne s'agit pas de "rien faire". Le problème est comparer les coûts de la prévention (taxe carbone et autres) et ceux de l'adaptation au changement climatique. Il est évident que cette adaptation a elle aussi des coûts, mais qu'elle est elle aussi pourvoyeuse d'emplois, d'innovations, etc. - La grande différence est que l'adaptation est souple et progressive, parce qu'elle répond d'abord aux évolutions du réel (et non aux prévisions incertaines des modèles). Si l'on s'aperçoit en 2020 ou en 2050 que les estimations les plus basses du RC 2100 étaient les plus correctes, c'est tout bénef, comme tu dis. Si en revanche on se dirige en 2020 ou en 2050 vers les estimations hautes, on peut toujours prendre des mesures plus radicales (diviser par deux le CO2 en 20 ans au lieu de 50 ans). - Les mesures "radicales" sont censées diviser par deux les émissions de CO2 en cinquante ans. Concrètement, on émet aujourd'hui entre 1,5 et 2 ppm / an. Admettons que cela monte à 4 ppm / an d'ici 2050 si l'on ne fait rien. Et que l'objectif soit donc 1 ppm / an en 2050 (la moitié de l'émission actuelle). Le gain attendu par une mesure "radicale" sera compris (pifomètre, faites un calcul précis si vous le souhaitez avec différentes hypothèses pour la pente de hausse d'émission) entre 70 et 130 ppm en 2050. Mettons une valeur moyenne de 100 ppm. 100 ppm, c'est à peu près ce qui nous sépare de l'époque pré-industrielle, donc on a constaté en direct que cela fait environ 0,8°C. Sur ces 0,8°C, environ 30% à 40% sont attribuables au CO2 selon G. Schmidt (25% selon Pielke). Ce calcul à la louche indique que la "mesure radicale" sur le CO2 évite au maximum 0,3°C en transitoire, et une valeur inconnue à l'équilibre (cf. débat Hansen sur ce qu'il reste vraiment dans le "pipe line" aujourd'hui). Je me suis peut-être complètement gouré dans mon calcul. Mais si ce n'est pas le cas, prendre une mesure radicale pour éviter 3 dixièmes de degré avec des modèles encore très incertains me paraît un choix peu raisonnable. Il est évident que le gain attendu par la réduction à 1 ppm / an en 2050 se prolonge par la suite. Mais comme indiqué ci-dessus, si les valeurs hautes de la sensibilité climatique tendent à se confirmer d'ici 2050, on peut toujours prendre des mesures plus radicales encore d'ici là. On prendra simplement ces mesures en meilleure connaissance de cause et une telle décision éclairée me paraît une bonne définition de la prudence politique.
  10. Merci des explications. Si je te suis bien, tu penses en quelque sorte que l'océan a tendance à rester assez stratifié, de sorte que les échanges d'énergie se passent surtout dans la couche supérieure, avec une diffusion de chaleur vers le fond qui reste marginale à l'échelle des temps climatiques / géologiques (des décennies aux millions d'années). Pour ce qui est des échelles climatiques, c'est assez cohérent avec les estimations de Levitus ou Lyman. Chez Levitus, la couche 1000-3000 m ne représente que 9% de la variation sur 50 ans. Et il faudrait analyser en détail le profil des T sur ces profondeurs, le signal à 3000 m doit être minime, évidemment. Bien sûr, cela ne dit pas ce qui se passe après 500 ans ou 5000 ans. Mais dans un tel laps de temps, il est probable que le bilan radiatif redevienne favorable à des pertes IR importantes (de la surface vers l'espace), donc que la chaleur se dissipe en partie avant d'avoir atteint le fond. Je note par ailleurs, à la lumière de ton post, que l'hypothèse d'une diffusion de la chaleur vers le fond pour expliquer la perte Lyman 2003-2005 aurait dû se traduire par une nette hausse du niveau des mers (puisque l'effet sur le volume est prop. à la densité). Je ne crois pas que cela soit le cas.
  11. Je fais partie de ceux qui considèrent que les variations de CO2 depuis 10.000 ans (Vostok : entre 260 et 280 ppm avant l'ère industrielle) n'expliquent pas l'optimum du Holocène, l'optimum médiéval, le petit âge glaciaire et le début du réchauffement moderne. Pas plus qu'elles n'expliquent les innombrables variations locales, enregistrées notamment dans le comportement des glaciers (les Alpes suisses par trois fois moins englacées qu'ajourd'hui au cours du Holocène par exemple). C'est une évidence. Bien sûr, c'est un forçage volcanique dont l'effet n'excède pas quelques mois (de mémoire, maximum du signal refroidissant 6-7 mois après l'éruption, mais à vérifier). Une baisse de l'irradiance solaire du type PAG est étalée sur plusieurs décennies. Tes amis Mann et Schmidt et al. (ci-dessous) estimaient son signal à 0,3-0,4 °C en global, avec des pertes jusqu'à 1-2 °C en hiver dans l'HN ("relatively small solar forcing may play a significant role in century-scale Northern Hemisphere winter climate change").Shindell, D.T., Schmidt, G.A., Mann, M.E., Rind, D. and Waple, A. 2001. Solar forcing of regional climate change during the Maunder Minimum. Science 294: 2149-2152. We examine the climate response to solar irradiance changes between the late 17th-century Maunder Minimum and the late 18th century. Global average temperature changes are small (about 0.3° to 0.4°C) in both a climate model and empirical reconstructions. However, regional temperature changes are quite large. In the model, these occur primarily through a forced shift toward the low index state of the Arctic Oscillation/North Atlantic Oscillation as solar irradiance decreases. This leads to colder temperatures over the Northern Hemisphere continents, especially in winter (1° to 2°C), in agreement with historical records and proxy data for surface temperatures. Je ne fais pas de prévis. Si l'on avait un équivalent du PAG en terme d'activité solaire, il faudrait appremment s'attendre à une baisse minimale de 0,3-0,4°C (cf. ci-dessus) étalée sur plusieurs décennies (un peu plus de 50 ans de mémoire pour le minimum de Maunder). Je dis "minimale" parce que les reconstructions de Mann et al. sont réputées pour aplanir la variance. De fait, d'autres courbes trouvent des valeurs plus basses pour le PAG. Mais je n'ai pas été dans le détail de teur travail sur le PAG cité ci-dessus, donc il est possible que leur estimation soit correcte. Je pense cependant que les modèles actuels sous-estiment la sensibilité climatique aux variations solaires, ce qui est clairement indiqué dans la note technique de synthèse du Hadley Center sur la question (Harrison 2005). Je n'exclus donc pas qu'un équivalent de Maunder puisse provoquer un refroidissement global plus important, de l'ordre de 0,5-1°C. Avec la sensibilité Lohmann 2004, il faudrait une variation d'irradiance de 0,5-1 W/m2 TOA. C'est important, mais pas inimaginable. Sur la courbe Be10 de Muscheler en début de ce post, la différence entre le maximum du XXe et le minimum de Maunder dépasse les 1000 MeV. Je ne connais pas le rapport d'équivalence avec les W/m2 TOA. Mais si l'on prend 0,3 W/m2 (GIEC 2001) pour 1750-2000, on doit pas être loin du double pour 1700-2000. Evidemment, GIEC 2007 baisse le forçage solaire 1750-2000 à 0,1 W/m2. Mais on sait que le GIEC fait parfois des erreurs sur ses estimations et retient des reconstructions qui tiennent mal la route dans les années suivantes...
  12. Je pense en effet qu'un scientifique qui n'est pas à la retraite ou qui n'est pas enseignant perd globalement son temps quand il fait autre chose que de la recherche dans son labo ou sur le terrain. Qu'il participe à la vulgarisation du savoir par des livres, des articles, des débats ou des conférences, c'est tout à son honneur. Qu'il s'engage dans des joutes comme celles que tu décris, cela me semble plus secondaire. Le point important du débat, si j'ai bien compris, c'est de savoir si les GES entrent dans la compétence d'une loi, le Clean Air Act. Cette loi a originellement été votée contre les "polluants de l'air", ce qui n'inclut pas a priori le CO2. Mais la même loi précise qu'un "polluant" désigne tout ce qui porte atteinte "à la santé et au bien-être humain". D'où l'argument des 12 états plaignants : les GES provoquent le réchauffement, le réchauffement porte (portera) atteinte à la santé et au bien-être, les GES sont donc des "polluants". Je ne comprends pas très bien pourquoi on passe par la case "climat", en l'occurrence. Il est clair que les échappements de véhicule en général (pas directement leur CO2) nuisent à la santé en milieu urbain et qu'ils doivent être réduits dans une logique sanitaire. Inversement, il est probable que le bilan du réchauffement serait plutôt positif pour la santé aux Etats-Unis si on l'examinait en détail (gains en mortalité hivernale par le moindre froid supérieur aux pertes en mortalité estivale par le surcroît de chaud). A ce propos, je signale que le documentaire d'Al Gore se fait flinguer dans le dernier numéro de La Recherche, notamment sur ce point (quand Gore prétend que l'épidémio. de 30 maladies a été modifiée par le réchauffement). PS : n'oublie pas ton "calumet de la paix" d'il y a deux jours, restons-en à des échanges d'arguments sur le sujet plutôt qu'à la qualification généralisante de nos approches respectives. Si je devais faire une "belle synthèse de ton approche du sujet", cela serait censuré
  13. Pas tellement de compétences pour aller au fond du débat. Il me semble que le GIEC dit qu'une même quanité de chaleur entraîne une expansion de volume plus importante en eau dense (profonde) que peu dense (superficielle). De sorte qu'un transfert vertical de chaleur va se traduire pas une perte de volume X en haut et un gain de volume Y en bas, mais avec Y > X IPCC : Water at higher temperature or under greater pressure (i.e., at greater depth) expands more for a given heat input, so the global average expansion is affected by the distribution of heat within the ocean.
  14. Il existe des estimations quantifiées sur le rapport dégazage / profondeur / dissolution ? Soit des données empiriques, soit des modèles théoriques ?
  15. En effet. C'est pourquoi il faut en revenir à la question de départ, c'est-à-dire pas des généralités généreuses sur l'environnement, mais des décisions précises sur le climat. Si j'ai bien compris, il conviendrait de réduire de moitié les émissions mondiales de CO2 d'ici 2050. Quelle méthode ? Quel résultat attendu pour chaque mesure de cette méthode ? Quel coût-bénéfice pour chaque mesure ? Et quel coût-bénéfice (second bilan nécessaire) de l'adaptation au changement que l'on pense ainsi éviter ? Soit on répond clairement, soit on se paie de mots.
  16. Au moins, on voit les scientifiques qui ont du temps à perdre dans des conflits médiatico-juridico-politiques. Pas étonnant que certains modèles ne soient pas à jour pour les aérosols, si la patron palabre tout le temps /emoticons/wink@2x.png 2x" width="20" height="20">/emoticons/smile@2x.png 2x" width="20" height="20">
  17. Et inversement, ton remarquable esprit critique (pour les questions solaires) devrait se pencher sur les très piètres corrélations du CO2 et des variations climatiques au Holocène (entre 10.000 BP et 1800 AD). Le climat a beaucoup varié au cours des derniers millénaires, sur le plan régional et parfois global, mais les GES n'en étaient guère responsables semble-t-il. Les températures de surface ont bien baissé dans les 18 mois qui ont suivi le Pinatubo (1991). Pourtant, son forçage n'était pas du tout supérieur à celui des GES accumulés. Pour que les températures baissent, il ne faut donc pas que la variation d'irradiance dépasse le total des GES accumulés depuis 1750 (3 W/m2 selon le bilan radiatif GIEC), il suffit que sur la période considérée, la baisse solaire (ou volcanique, ou les deux) soit supérieure à la hausse GES. Aux dernières nouvelles du réel (Lyman 2006), 0,33 W/m2 de délai dans la réponse au forçages, soit l'équivalent de 0,25°C dans le modèle Hansen Nasa Giss. Car nous sommes bien d'accord, toute la chaleur océanique ne va pas par miracle se transférer dans l'atmosphère. Sinon, nous serions cuits au sens propre du terme.
  18. Ce n'est pas du "tout ou rien", bien sûr. L'excès inverse : si on interdit l'automobile, on aura zéro mort sur les routes et ce sera une victoire mémorable de la sécurité routière. C'est donc une question de balance entre la fin et les moyens. Mettre des radars sur les routes, cela ne me dérange pas, au contraire. Interdire par principe de construire des voitures roulant à plus de 130 km/h, cela me dérange.Le fait de se référer à "la loi" est un simple formalisme, qui ne me dit pas si la loi en question est bonne ou mauvaise. Après tout, les lois démocratiques interdisaient aux femmes de voter, permettaient aux enfants de travailler, pénalisaient l'homosexualité, etc. Sinon, c'est en effet une question de philosophie personnelle et de hiérarchie de valeurs. Je ne cache pas que j'ai souvent des réflexes anarchistes Tu décris là un gain de compétitivité / productivité. Pourquoi pas, tu connais mieux le sujet. Mais entre la situation T sans norme et la situation T+1 avec une norme, est-on sûr que le coût de revient du bien ou du service aura baissé ou sera resté stable? Dans ce cas, je crains que ce soit au détriment de l'emploi (la variable la plus coûteuse et la plus facile à ajuster). Si la stratégie est : on doit rester au même coût, donc on vire du personnel et/ou on sous-traite tout ce qu'on peut, il est difficile de dire que c'est un bénéfice pour l'emploi. Les emplois sous-qualifiés sont simplement délocalisés, au bénéfice des emplois qualifiés.Quant aux taxes diverses envisagées face au climat, elles sont par définition coûteuses pour les taxés, individus ou entreprises. Sauf si elles se substituent à d'autres taxes, mais il faut annoncer la couleur aux électeurs et dire les postes qui ne seront plus couverts.
  19. La courbe proposée par williams a l'air convaincante. Mais, ce n'est pas peer-review, donc je n'ai pas de "contrôle de qualité" a- sur le choix de reconstruction des T ; b- sur la reconstruction des évolutions solaires autour du barycentre. Un certain nombre de papiers dont les abstracts ont été publiés récemment ici montrent que cette hypothèse du barycentre a été ou est examinée par des chercheurs. Je n'ai pas approfondi au-delà, c'est-à-dire pas lu ces travaux. Pour l'objection sur l'arrêt en 1970 ou 1980, je pense que ce n'est pas bien grave, dans la mesure où c'est un phénomène pluridécennal et où le réchauffement récent (depuis vingt ou trente ans) n'a de toute façon pas le soleil pour seule cause (l'irradiance sans doute pas, mais l'insolation certainement). Je persiste néanmoins à penser que le soleil est encore influent (cf. les deux papiers Scafetta et West 2006). Ne serait-ce qu'en raison de la fameuse inertie océanique : si l'activité solaire depuis le XIXe siècle est bien élevée par rapport aux époques précédentes (un peu élevée pour Muscheler, très élevée pour Solanki ou Usoskin), son signal met du temps à se diffuser au-delà de la réponse immédiate de l'armosphère aux variations des cycles et aux variations intercycles.
  20. En théorie non (une corrélation positive ou négative, répétée sur un nombre suffisant d'événements, signale justement que l'on s'écarte de la simple coïncidence et qu'il existe un lien entre les événements que l'on a corrélés).
  21. Je mets quand même un bémol personnel à ton propos, sa lettre plus que son esprit à mon avis. La "volonté politique" de prendre des "mesures coercitives" à l'encontre d'une population, ce n'est pas ma définition du bon gouvernement. Plutôt tout le contraire. Autant je suis favorable aux mesures incitatives, autant les restrictions de principe des libertés au nom de l'état d'urgence (sécuritaire ou climatique) n'auront jamais mon aval. Un autre point, et cela répond aussi à Lolox : le point faible de l'argumentation est quand même celui de l'économie. A mon avis, la plupart des mesures ont un coût en dernier ressort, il me paraît difficile de le cacher ou le minimiser en disant vaguement que cela a aussi des aspects positifs. Exemple de Lolox. Si l'Etat embauche des ingénieurs de l'environnement, cela se répercute sur les impôts des particuliers (il faut bien payer ces agents, ou alors ils remplacent d'autres fonctionnaires mais dans ce cas, ce n'est pas un bénéfice pour l'emploi). Si ce sont des entreprises qui les embauchent (pour satisfaire le respect d'une norme par exemple), cela se répercute sur le prix du bien ou du service de cette entreprise, puisqu'elle à une masse salariale plus importante pour la même production. Dans tous les cas, il faut faire une analyse coût-bénéfice (une vraie, pas comme le rapport Stern ) en termes purement économiques (c'est-à-dire en ne confondant pas les bénéfices environnementaux, évidents, avec des bénéfices économiques, moins évidents).
  22. Le rapport en lien semble limité à l'Atlantique Nord. Et la question est vaste, non ? S'il faut faire des synthèses sur l'évolution récente du phytoplancton, des coraux, de la faune euphotique, etc., on n'est pas sorti de l'auberge J'avais déjà publié ici des données régionales sur la chlo montrant une augmentation de la photosynthèse sur plusieurs décennies. Il y a un paquet d'études sur les Porites (coraux) montrant également une augmentation du taux de calcification malgré le -0,1 pH (sur plusieurs décennies à nouveau, voire plusieurs siècles dans certaines zones, hors épisodes traumatiques genre ENSO 98). Mais on doit trouver d'autres études locales montrant des variations négatives. C'est un peu le problème : pour statuer sur l'effet du RC sur l'environnement marin, il faut un monitoring global sur un assez long terme (sinon, on note des variations étant simplement des dynamiques de population, ou résultant d'oscillations décennales sans rapport avec le RC).
  23. Oui elle est bizarre cette carte, on ne voit pas le signal ENSO 1998 ni spécialement Pinatubo 1991. Ce sont bien les T surface terrestre ? Peut-être les T partielles enregistrées en ciel clair ? Quand je regarde sur Gistemp les anomalies océans seul 2003-2005 par rapport à 2000-2002, c'est stable (0,08), mais avez des zones froides qui correspondent assez bien à Lyman.
  24. Merci des autres précisions. Un point me faisant penser que Lyman et al. n'est pas un biais de mesure, c'est que les courbes plus anciennes, comme celle de Levitus et al., montrent que des phénomènes semblables se sont déjà produits au début des années 1960 (un peu moins) et au début des années 1980 (un peu plus). Cela ressemble assez à des variations interdécennales dont le climat est coutumier.
  25. Je ne suis pas du tout la météo, ce que je dis va donc être peut-être aberrant. Mais si on un blocage anticyclonique au centre de l'Europe qui nous amène les flux chauds du sud à l'ouest, j'imagine que le même phénomène amène des flux froids du nord de l'autre côté (en Eurasie), non ?
×
×
  • Créer...