Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

1998-2007


charles.muller
 Partager

Messages recommandés

Je pense que cela se réfère à la récente publication dans Science cet été et qui a été discutée de-ci de-là. A noter que le journaliste se goure encore en parlant de "résistance au réchauffement dans l'océan Arctique" (le pauvre résiste mal), c'est océan Austral qu'il faut lire ("the appearance of cooler water in the tropical Pacific and a resistance to warming in the Southern Ocean" dans le comment d'origine; d'ailleurs la citation de Doug Smith conredit le propos du journaliste, puisque le chercheur parle bien de l'Antarctique).

Ma foi, je suis joueur de nature et prêt à prendre les paris. default_shifty.gif Je ne pense pas que la méthode, consistant en gros à intégrer 20 ans préalables de données réelles comme conditions initiales du run, soit de nature à contraindre suffisamment la variabilité intrinsèque pour faire des prédictions fiables. Pour être cohérent avec mes opinions du moment, je pense pour ma part que l'on ne battra 1998 qu'en cas de El Nino d'ampleur comparable ou en cas de cycle solaire 24 très actif. Au mieux, on aura une ou deux années comparables à 1998 entre 2010 et 2020, et non pas une année sur deux.

Pour le dire autrement, si une année sur deux est plus chaude que 1998 après 2009, sans variation solaire significative, sans phase ENSO+ et NAO+ comme on en a connu entre 1980 et 2000, cela érodera significativement mon scepticisme sur l'importance de la sensibilité climatique au CO2. (Si l'on a des phases ENSO+ et NAO+ persistantes, il faudra quand même s'interroger sur la part forcée de cette configuration dominante des oscillations naturelles).

http://www.sciencemag.org/cgi/content/abst...ci;317/5839/796

Science 10 August 2007:

Vol. 317. no. 5839, pp. 796 - 799

DOI: 10.1126/science.1139540

Improved Surface Temperature Prediction for the Coming Decade from a Global Climate Model

Doug M. Smith,* Stephen Cusack, Andrew W. Colman, Chris K. Folland, Glen R. Harris, James M. Murphy

Previous climate model projections of climate change accounted for external forcing from natural and anthropogenic sources but did not attempt to predict internally generated natural variability. We present a new modeling system that predicts both internal variability and externally forced changes and hence forecasts surface temperature with substantially improved skill throughout a decade, both globally and in many regions. Our system predicts that internal variability will partially offset the anthropogenic global warming signal for the next few years. However, climate will continue to warm, with at least half of the years after 2009 predicted to exceed the warmest year currently on record.

On a parlé de cela, il y a déjà un certain temps.

Il est vrai qu'il y a une idée sous jacente qui n'est pas focément juste: c'est que les oscillations du système couple océan - atmosphère ne sont pas totalement chaotiques. ou qu'elles relèvent d'un chaos déterministe cad que si les infos initiales sont suffisamment précises, il y a possibilité de prévision.

C'est quand mêm sur cette hypothèse que se base la prévi à moyen et à long terme.

De toute manière, c'est par là que ça passe (si ça passe) et c'est pour ça que ce travail est intéressant m^me si l'idée n'est pas neuve.

Lien à poster
Partager sur d’autres sites

  • Réponses 464
  • Créé
  • Dernière réponse

Les plus actifs

Si en 2014, les températures mondiales seront 0.3°C au dessus de 2004, il est automatique que la moitié des années soient plus chaudes que 1998.

Pas forcément, en théorie tout le réchauffement peut se faire sur une seule année.

Pour être précis, le pari avance que:

- parmi les années 2010, 2011, 2012, 2013, 2014, on peut en cocher au moins 3 qui seraient au moins aussi chaudes que 1998.

- le réchauffement de 2004 à 2014 serait de +0.3°C.

Je n'avais pas vu qu'un fil avait été créé cet été à ce sujet:

/lofiversion/index.php/t21797.html'>http://forums.infoclimat.fr/lofiversion/in...php/t21797.html

Lien à poster
Partager sur d’autres sites

A propos des incertitudes sur les mesures des températures, j'ai trouvé sur le forum Instrumentation d'Infoclimat ce document intéressant de Meteo France:

http://www.smf.asso.fr/Ressources/Leroy39.pdf

Taille: 133 ko

Il apparaît que même dans des contextes de mesures professionnelles, les stations ne peuvent descendre en-dessous de certaines incertitudes:

- "Toutes les stations automatiques sont pourvues de thermorésistances à fil de platine, dont l’usage est extrêmement répandu et, par conséquent,

normalisé. (...) Une incertitude de mesure de seulement 0,15 °C est courante pour un capteur de ce type avec son système d’acquisition.

- "L’incertitude principale de la mesure de la température de l’air provient donc de l’abri et de l’emplacement sur lequel il est implanté.(...) Les

bons abris à ventilation naturelle permettent de mesurer la température de l’air avec une erreur inférieure à 1 °C. Une telle erreur, qui peut paraître importante, se produit dans des circonstances particulières : fort rayonnement

solaire sans vent, variations rapides de température. Les erreurs peuvent être

doublées ou triplées (2 à 3 °C) avec des abris mal conçus. Ce fut le cas des abris utilisés en France jusqu’aux années 1920-1930 lorsque furent introduits les abris de type Stevenson. Heureusement, les températures moyennes quotidiennes présentent moins d’erreur et les différences d’un abri à l’autre sont alors de l’ordre de quelques dixièmes."

Ainsi, des incertitudes de quelques dixièmes de °C, si elles ne posent aucun problème pratique en météo de tous les jours, deviennent gênantes quand il s'agit d'évolution des températures à long terme.

Du coup, l'incertitude sur la Température globale moyenne annuelle de 1900 à 2005 ( Met Office Britannique ) n'est pas étonnante:

lindzen2_02_ann_surf_tmp_dg.jpg

On voit que la barre d'erreur est proche de 0.3°C.

Dans ces conditions, pourquoi les bases annoncent des températures jusqu'à 0.0001°C près ?...En fait, même le record de l'année 1998 n'est pas significatif.

Source du graphique: article de R. Lindzen "Quelques graphiques utiles au sujet de l’évolution actuelle de la température moyenne de surface", en plein coeur du sujet, à voir sur:

http://skyfall.free.fr/?p=55

Lien à poster
Partager sur d’autres sites

Posté(e)
Agde (34) littoral ouest Hérault

Le lien du graphique mène vers une étude de Prof. Richard Lindzen. Une partie de l'article permet de compléter un peu ton post précédent :

"Nous n'avons pas jusqu'à présent fait beaucoup attention aux erreurs systématiques dues aux changements d'instruments. Deux doivent être mentionnées. Dans la plupart des cas dans le monde, les thermomètres traditionnels ont été remplacés par des thermomètres électroniques qui ont des temps de réponse bien plus courts. Cela semble avoir contribué un peu au réchauffement récent. Sans doute y a-t-il des problèmes plus sérieux avec les mesures datant d'avant la Première Guerre Mondiale pour l'océan. Notons que 70% de la surface du globe est constitué par l'océan. Pour parler cru, avant la PGM, les températures sont mesurées en recueillant l'eau de mer dans un seau d'eau et en mesurant la température. Après cette période, la température est prise en mesurant la température à l'entrée de la prise d'eau de refroidissement des moteurs.

A la fin des années 1980, il y avait eu un programme coopératif entre feu Prof. Reginald Newell au MIT et le Met Office britannique pour intercalibrer ces 2 méthodes. La publication qui en a résulté montre une température d'avant la PGM d'environ 0,2°C plus chaude que la vraie température. Le Professeur Newel était très perturbé par le changement car il ne trouvait pas d'explication à cela. Un tel changement compte pour environ 0,14°C dans l'évolution long terme sur le siècle de la hausse de température couramment citée."

Lien à poster
Partager sur d’autres sites

Il apparaît que même dans des contextes de mesures professionnelles, les stations ne peuvent descendre en-dessous de certaines incertitudes:

- "Toutes les stations automatiques sont pourvues de thermorésistances à fil de platine, dont l’usage est extrêmement répandu et, par conséquent,

normalisé. (...) Une incertitude de mesure de seulement 0,15 °C est courante pour un capteur de ce type avec son système d’acquisition.

- "L’incertitude principale de la mesure de la température de l’air provient donc de l’abri et de l’emplacement sur lequel il est implanté.(...) Les

bons abris à ventilation naturelle permettent de mesurer la température de l’air avec une erreur inférieure à 1 °C. Une telle erreur, qui peut paraître importante, se produit dans des circonstances particulières : fort rayonnement

solaire sans vent, variations rapides de température. Les erreurs peuvent être

doublées ou triplées (2 à 3 °C) avec des abris mal conçus. Ce fut le cas des abris utilisés en France jusqu’aux années 1920-1930 lorsque furent introduits les abris de type Stevenson. Heureusement, les températures moyennes quotidiennes présentent moins d’erreur et les différences d’un abri à l’autre sont alors de l’ordre de quelques dixièmes."

Ainsi, des incertitudes de quelques dixièmes de °C, si elles ne posent aucun problème pratique en météo de tous les jours, deviennent gênantes quand il s'agit d'évolution des températures à long terme.

Du coup, l'incertitude sur la Température globale moyenne annuelle de 1900 à 2005 ( Met Office Britannique ) n'est pas étonnante:

Avant les mesures automatiques, il faut savoir qu'on ne dispose PAS de la température moyenne d'une journée (ce qui suppose de lire régulièrement la température à intervalle suffisamment proche (par exemple toutes les heures), ce qui est totalement inimaginable pour une station météo normale ! Le réseau USHCN par exemple qui couvre le territoire américain et qui constitue la moitié des capteurs utilisés par la base GHCN qui sert à compiler la température mondiale est géré par des volotaires qui sont sensés faire des relevés journalières à heure fixe TOUS les jours, on imagine facilement les contraintes sur l'opérateur et les erreurs humaines dans les mesures.Pour en revenir au mesurage, on dispose donc d'une température à heure fixe corrigé du temps d'observation (car la température à 9h ne donne pas la même chose qu'à 9h30, avec le soleil qui commence à taper). C'est la fameuse correction TOBS qui peut ajouter plusieurs dixième de degrés à une température annuelle et dont l'algorithme fait l'objet d'âpres débats.

Pour des stations un peu plus sophistiquées avant l'ère électronique, on dispose des températures maximale et minimale grâce des dispositifs mécaniques (qu'il faut réinitialiser chaque jour). Et on suppose que la température moyenne est (Tmax+Tmin)/2. Mais là encore, ça ne représente pas une température moyenne car faire une moyenne de juste 2 valeurs intensives, c'est une faute scientifique. Ces températures qui n'ont pas la précision requise pour l'utilisation en climatologie, sont destinées à la météo où l'on observe couramment des amplitudes journalières de plus de 10°C voire de 20°C mais dans le cadre climatologique où l'on cherche à détecter des hausses de 0,7°C/siècle, c'est une aberration sur le plan de l'instrumentation & mesure. Ceux qui s'y commettent font de la mauvaise science.

Bref, compte tenu des incertitudes, comparer les années 30 aux années 90, c'est comme comparer pomme et poire.

Lien à poster
Partager sur d’autres sites

La NOAA a publié son estimation, avec une anomalie 0,4819°C pour octobre 2007 contre 0,4261°C pour octobre 1998. J'attends le Hadley, qui tarde, pour republier le tableau mis à jour.

On se dirige peu à peu vers le même cas de figure que 2005 : Giss et NOAA vont sans doute trouver 1998, 2005 et 2007 très proche, alors que Hadley, RSS et UAH la mettront assez clairement en dessous, dans la norme des années 2001-2006 (entre 0,40 et 0,45°C d'anomalie pour le Hadley, sans tendance). Si cela se confirme, on sera quand même à sept années consécutives de stagnation, ce qui devient intéressant.

***

Par ailleurs, je me suis penché plus en détail sur la base Nasa Giss et j'ai extrait les valeurs interpolées (rayon de lissage 1200 km) des valeurs mesurées (rayon de lissage 250 km, pas de données si pas de stations dans ce périmètre).

Il en ressort le tableau suivant.

image2yd8.png

On constate que 2007 est plus chaude que 1998 par interpolation, mais moins chaude par mesure (ou interpolation limitée pour être précis).

On constate aussi que l'interpolation 1998 est plus proche de la mesure 1998 que dans le cas de 2007 : 0,019 de différence en 1998, 0,102 en 2007, soit un facteur 5. Mais on parle là en centièmes de degré, ce n'est de toute façon pas significatif.

Je retiens quand même que la Nasa Giss semble établir ses "records" sur la base d'algorithmes d'interpolation n'ayant pas le même effet sur les données primaires d'une année sur l'autre.

Lien à poster
Partager sur d’autres sites

J'attends le Hadley, qui tarde, pour republier le tableau mis à jour.

c'est toujours en fin de mois vers le 27 en moyenne.

Sinon la NASA c'est vers le 10, NOAA vers le 15.

Je retiens quand même que la Nasa Giss semble établir ses "records" sur la base d'algorithmes d'interpolation n'ayant pas le même effet sur les données primaires d'une année sur l'autre.

Le nombre de points de mesure doit être différent pour les 2 années.

Il faudrait surtout connaître, dans le détail, les algorithmes en question.

Lien à poster
Partager sur d’autres sites

Avant les mesures automatiques, il faut savoir qu'on ne dispose PAS de la température moyenne d'une journée (ce qui suppose de lire régulièrement la température à intervalle suffisamment proche (par exemple toutes les heures), ce qui est totalement inimaginable pour une station météo normale ! Le réseau USHCN par exemple qui couvre le territoire américain et qui constitue la moitié des capteurs utilisés par la base GHCN qui sert à compiler la température mondiale est géré par des volotaires qui sont sensés faire des relevés journalières à heure fixe TOUS les jours, on imagine facilement les contraintes sur l'opérateur et les erreurs humaines dans les mesures.

Pour en revenir au mesurage, on dispose donc d'une température à heure fixe corrigé du temps d'observation (car la température à 9h ne donne pas la même chose qu'à 9h30, avec le soleil qui commence à taper). C'est la fameuse correction TOBS qui peut ajouter plusieurs dixième de degrés à une température annuelle et dont l'algorithme fait l'objet d'âpres débats.

Pour des stations un peu plus sophistiquées avant l'ère électronique, on dispose des températures maximale et minimale grâce des dispositifs mécaniques (qu'il faut réinitialiser chaque jour). Et on suppose que la température moyenne est (Tmax+Tmin)/2. Mais là encore, ça ne représente pas une température moyenne car faire une moyenne de juste 2 valeurs intensives, c'est une faute scientifique. Ces températures qui n'ont pas la précision requise pour l'utilisation en climatologie, sont destinées à la météo où l'on observe couramment des amplitudes journalières de plus de 10°C voire de 20°C mais dans le cadre climatologique où l'on cherche à détecter des hausses de 0,7°C/siècle, c'est une aberration sur le plan de l'instrumentation & mesure. Ceux qui s'y commettent font de la mauvaise science.

100% d'accord avec ces derniers propos, j'en suis maintenant persuadé. On utilise des thermomètres bien adaptés à des fins météorologiques, pour des usages climatologiques. Mais ça n'a aucun sens de donner des températures à 0.0001°C près, ou même à 0.01°C près comme le font NOAA/GISS/HAdley center...En omettant de préciser les incertitudes...

Même l'indicateur "température globale" en lui-même n'a guère de sens: c'est une moyenne de moyennes de moyennes, qui peut traduite une infinité de situations différentes.

Par exemple, l'été pourri de 2007 sur la plupart des régions françaises ne s'est pas traduit par une température moyenne si basse que ça: le couvert nuageux important a permis de conserver davantage de chaleur durant les nuits. Une même température moyenne aurait ainsi très bien pu traduire une météo plus sêche et ensoleillée, alors que ça n'a évidemment pas du tout la même signification pour l'agriculture, le tourisme, etc.

La température globale est une température virtuelle, une température de papier, qui n'a de sens physique pour aucune espèce vivante et même pour aucune structure géologique. Pourquoi donc se focaliser sur cet indicateur ? Parce que certains sont persuadés que si cette température augmente, c'est "mal", et que soit-disant "ça va augmenter les évènements extrêmes" (on attend toujours les preuves). C'est un discours qu'ils ont intériorisé à partir d'une certaine propagande, c'est un rôle de perroquets...Comme si à partir d'une valeur unidimensionnelle, on était capable de retrouver les extrêmes et plus généralement toute la complexité du climat.

Si l'on veut connaître l'évolution des évènements extrêmes, pourquoi ne pas suivre des indicateurs qui donnent plus directement l'état des évènements extrêmes ? Par exemple, l'étendue des surfaces terrestres touchée annuellement par des températures très au-dessus de la normale (ex: >5°C); un autre indicateur pour les grands froids (<5°C); un autre pour les sécheresses, un autre pour les précipitations...

De plus, de telles mesures auront alors un certain sens: +5.7°C +-0.2°C est significatif, tandis que les +0.02°C +-0.15°C en température globale sont absurdes.

Merci pour ton post Minitax, j'ai appris des choses.

Lien à poster
Partager sur d’autres sites

100% d'accord avec ces derniers propos, j'en suis maintenant persuadé. On utilise des thermomètres bien adaptés à des fins météorologiques, pour des usages climatologiques. Mais ça n'a aucun sens de donner des températures à 0.0001°C près, ou même à 0.01°C près comme le font NOAA/GISS/HAdley center...En omettant de préciser les incertitudes...

Même l'indicateur "température globale" en lui-même n'a guère de sens: c'est une moyenne de moyennes de moyennes, qui peut traduite une infinité de situations différentes.

Par exemple, l'été pourri de 2007 sur la plupart des régions françaises ne s'est pas traduit par une température moyenne si basse que ça: le couvert nuageux important a permis de conserver davantage de chaleur durant les nuits. Une même température moyenne aurait ainsi très bien pu traduire une météo plus sêche et ensoleillée, alors que ça n'a évidemment pas du tout la même signification pour l'agriculture, le tourisme, etc.

La température globale est une température virtuelle, une température de papier, qui n'a de sens physique pour aucune espèce vivante et même pour aucune structure géologique. Pourquoi donc se focaliser sur cet indicateur ? Parce que certains sont persuadés que si cette température augmente, c'est "mal", et que soit-disant "ça va augmenter les évènements extrêmes" (on attend toujours les preuves). C'est un discours qu'ils ont intériorisé à partir d'une certaine propagande, c'est un rôle de perroquets...Comme si à partir d'une valeur unidimensionnelle, on était capable de retrouver les extrêmes et plus généralement toute la complexité du climat.

Si l'on veut connaître l'évolution des évènements extrêmes, pourquoi ne pas suivre des indicateurs qui donnent plus directement l'état des évènements extrêmes ? Par exemple, l'étendue des surfaces terrestres touchée annuellement par des températures très au-dessus de la normale (ex: >5°C); un autre indicateur pour les grands froids (<5°C); un autre pour les sécheresses, un autre pour les précipitations...

De plus, de telles mesures auront alors un certain sens: +5.7°C +-0.2°C est significatif, tandis que les +0.02°C +-0.15°C en température globale sont absurdes.

Merci pour ton post Minitax, j'ai appris des choses.

de toute façon ce ne sont pas les moyennes qui font les climats mais les extrêmes; posez donc la question à la végétation!

Et il y a des questions subsidiaires: pourquoi toutes ces instabilités et variabilités alors que l'Arctique se réchauffe? Personnellement je pense que l'atmosphère a pris le relais de l'océan dans le transfert de chaleur entre pôle et tropique; si les stations de moyenne montagne manque de neige, ce n'est pas à cause de la température, mais parce que ce qui tombe un jour, fond le lendemain; mais bon tout cela semble être entrain de se remettre en place ; si cela à un sens , parce que une position moyenne de l'AMO n'a pas plus de sens et de durabilité que lorsqu'elle est positive ou négative

Lien à poster
Partager sur d’autres sites

de toute façon ce ne sont pas les moyennes qui font les climats mais les extrêmes; posez donc la question à la végétation!

Et il y a des questions subsidiaires: pourquoi toutes ces instabilités et variabilités alors que l'Arctique se réchauffe? Personnellement je pense que l'atmosphère a pris le relais de l'océan dans le transfert de chaleur entre pôle et tropique; si les stations de moyenne montagne manque de neige, ce n'est pas à cause de la température, mais parce que ce qui tombe un jour, fond le lendemain; mais bon tout cela semble être entrain de se remettre en place ; si cela à un sens , parce que une position moyenne de l'AMO n'a pas plus de sens et de durabilité que lorsqu'elle est positive ou négative

Le fait que l'AMO a ete et est toujours positive soit une anomalie positive de la SST dans l'Atlantique Nord et inverse dans l'Atlantique Sud, est une des causes que l'Arctique fond plus rapidemement et que la banquise de l'Antarctique remonte. Ce qui montre que l'effet de serre n'est pas la seul cause de l'evolution des temperatures et du climat.

Williams

Lien à poster
Partager sur d’autres sites

Le fait que l'AMO a ete et est toujours positive soit une anomalie positive de la SST dans l'Atlantique Nord et inverse dans l'Atlantique Sud, est une des causes que l'Arctique fond plus rapidemement et que la banquise de l'Antarctique remonte. Ce qui montre que l'effet de serre n'est pas la seul cause de l'evolution des temperatures et du climat.

Williams

CQFD, un des paramètre mal intégré étant les echanges thermiques entre basse troposphère, océan surtout profond dont on ne controle rien et cryosphère touti quanti ( à lire les publi controverses)
Lien à poster
Partager sur d’autres sites

Le fait que l'AMO a ete et est toujours positive soit une anomalie positive de la SST dans l'Atlantique Nord et inverse dans l'Atlantique Sud, est une des causes que l'Arctique fond plus rapidemement et que la banquise de l'Antarctique remonte. Ce qui montre que l'effet de serre n'est pas la seul cause de l'evolution des temperatures et du climat.

Williams

Sauf que la banquise de l'Antartique remonte très peu contrairement à la débacle de l'arctique.

L'équilibre est donc très loin d'être maintenu.

Lien à poster
Partager sur d’autres sites

Sauf que la banquise de l'Antartique remonte très peu contrairement à la débacle de l'arctique.

L'équilibre est donc très loin d'être maintenu.

Oui ca c'est sur.

C'est pour cela que lorsqu'on a soit un AMO+ ou - donc une anomalie positive ou négative de l'Atl. nord et inverse a l'Atl sud que cela ne veut pas dire qu'il y a un equilibre entre ces 2 anomalies de SST comme une personne l'avait suposé. Car leur consequences peuvent etre differentes sur plusieurs domaines.

Williams

Lien à poster
Partager sur d’autres sites

La NOAA a publié son estimation, avec une anomalie 0,4819°C pour octobre 2007 contre 0,4261°C pour octobre 1998. J'attends le Hadley, qui tarde, pour republier le tableau mis à jour.

On se dirige peu à peu vers le même cas de figure que 2005 : Giss et NOAA vont sans doute trouver 1998, 2005 et 2007 très proche, alors que Hadley, RSS et UAH la mettront assez clairement en dessous, dans la norme des années 2001-2006 (entre 0,40 et 0,45°C d'anomalie pour le Hadley, sans tendance). Si cela se confirme, on sera quand même à sept années consécutives de stagnation, ce qui devient intéressant.

Certes mais en prenant une position réchauffiste (très momentanée default_smile.png/emoticons/smile@2x.png 2x" width="20" height="20"> ):

Avec l'hypothèse d'une hausse de +3°C à horizon 2100, la progression annuelle moyenne serait de +0.03°C sur le siècle, ou +0.21°C sur 7 ans. Mais compte-tenu de la barre d'erreur réelle voisine de 0.3°C, la "stagnation" peut très bien être une augmentation noyée dans les incertitudes...Ou une diminution du même ordre, d'ailleurs.

Plus généralement, on peut jouer au même jeu que les alarmistes, mais c'est le jeu lui-même qui est absurde. A commencer par l'obsession sur l'indicateur "température globale", sensé tenir lieu de tableau de bord à lui tout seul ou presque.

Lien à poster
Partager sur d’autres sites

bonjour et bon retour sur ce forum.

Il semble exclus que l'on puisse avoir une telle anomalie chaude.

Nous sommes actuellement en plein dans un épisode La Nina dont le Hadley center avait sous-estimé la précocité du retour (ou surestimé le Nino précédent?).

Le Hadley a donc raté sa prévision qu'il avait établie en fonction de sa propre base.

Quant aux autres organismes ils donneront probablement des résultats voisins pour les deux années.

Nous avons déjà parlé des mesures satellitaires qui ne peuvent que donner 1998, année à fort El Nino, supérieure à 2007 (à mon sens pour des problèmes de convection renforcée lors d'un El Nino)

Il n'en reste pas moins que la base RSS ne suit pas très bien l'évolution des températures de surface au cours de cette année 2007.

C'est moins vrai pour UAH, une fois n'est pas coutume.

Hello,

Je reprends des éléments de discussion plus haut.

Au delà de l'anecdotique (battera-t-on ou non l'année record 1998 en 2007 ?), on peut se poser la question d'une stagnation du réchauffement ces dernière années.

Comme dit plus haut, ce qui est frappant c'est

- la résistance des océans au réchauffement

- la dissymétrie du réchauffement des 2 hémisphères (lié au précédent bien sur).

- les émissions de GES qui continuent de croître très fortement, alors que les mesures de concentration atmosphérique en GES ne montrent pas une telle accélération

(je ne reprends pas la question des mesures de T troposphériques, où je rejoindrais météor pour l'impact du Niño sur la convection tropicale)

Il y a qqs semaines, on avait évoqué l'effet des aérosols (recrudescence possible / croissance chinoise), qui pourrait impacter d'avantage les océans et l'hémisphère sud que par le passé.

Deux points supplémentaires

- le cycle solaire... eh oui encore... Un papier récent vient de réévaluer son effet global, il serait de environ 0.2°C (désolé si ça a déjà été discuté/mentionné ici, pas trop le temps de décortiquer le forum)

http://www.amath.washington.edu/~cdcamp/Pu...g_GRL_2007b.pdf

- les SST qui plafonnent voir baissent en tendance sur une très courte période, + la Niña actuelle, n'est-ce pas là une explication aux taux de GES qui augmentent finalement plutôt sur un pente basse (plus de GES dissous dans l'eau froide) ? Et donc en feed-back ce qui limite aussi l'augmentation des T globales.

Avec tout ça, on peut comprendre un schéma actuel limitant le réchauffement et qui se traduit pas des évolutions contrastées avec les terres de l'HN qui se réchauffent toujours fortement et d'autres qui stagnent voir se refroidissent.

Ce qu'on peut souligner aussi, c'est que ces paramètres limitant la hausse des T globales sont temporaires, cycliques (sauf les aérosols si c'est avéré).

- le minimum solaire, bien installé depuis près de 2 ans (il est assez long - ce qui doit en accentuer l'effet notamment pour les SST), va toucher à sa fin courant 2008

- la Niña, elle aussi va laisser place à une situation plus neutre voir à un Niño. On commence à en voir les prémices avec l'accumulation des eaux chaudes dans l'ouest du Pacifique équatorial (http://www.cpc.noaa.gov/products/analysis_monitoring/enso_update/sstxz.gif), et aussi un début de déstabilisation de thermocline (http://www.cpc.noaa.gov/products/analysis_monitoring/enso_update/155lonta.gif). Cette tentative d'onde Kelvin va peut-être avorter, mais cela se déclenchera tout ou tard dans l'année qui vient.

Donc, bilan d'ici 2009/2010. Sauf accident (émission volcanique type Pinatubo), on devrait voir reprendre la hausse des T globales. Si ce n'est pas le cas, on pourra vraiment se poser des questions sur nos modèles.

Lien à poster
Partager sur d’autres sites

Merci Tomar;

100% d'accord avec ton analyse; je crois que tu as résumé l'ensemble de la problématique du RC.

D'ici à 2 ans, on pourra répondre avec une précision beaucoup plus forte qu'aujourd'hui sur la pente globale du RC , et donc de l'impact général à en attendre.

Lien à poster
Partager sur d’autres sites

Hello,

Je reprends des éléments de discussion plus haut.

Au delà de l'anecdotique (battera-t-on ou non l'année record 1998 en 2007 ?), on peut se poser la question d'une stagnation du réchauffement ces dernière années.

Comme dit plus haut, ce qui est frappant c'est

- la résistance des océans au réchauffement

- la dissymétrie du réchauffement des 2 hémisphères (lié au précédent bien sur).

- les émissions de GES qui continuent de croître très fortement, alors que les mesures de concentration atmosphérique en GES ne montrent pas une telle accélération

(je ne reprends pas la question des mesures de T troposphériques, où je rejoindrais météor pour l'impact du Niño sur la convection tropicale)

Il y a qqs semaines, on avait évoqué l'effet des aérosols (recrudescence possible / croissance chinoise), qui pourrait impacter d'avantage les océans et l'hémisphère sud que par le passé.

Deux points supplémentaires

- le cycle solaire... eh oui encore... Un papier récent vient de réévaluer son effet global, il serait de environ 0.2°C (désolé si ça a déjà été discuté/mentionné ici, pas trop le temps de décortiquer le forum)

http://www.amath.washington.edu/~cdcamp/Pu...g_GRL_2007b.pdf

- les SST qui plafonnent voir baissent en tendance sur une très courte période, + la Niña actuelle, n'est-ce pas là une explication aux taux de GES qui augmentent finalement plutôt sur un pente basse (plus de GES dissous dans l'eau froide) ? Et donc en feed-back ce qui limite aussi l'augmentation des T globales.

Avec tout ça, on peut comprendre un schéma actuel limitant le réchauffement et qui se traduit pas des évolutions contrastées avec les terres de l'HN qui se réchauffent toujours fortement et d'autres qui stagnent voir se refroidissent.

Ce qu'on peut souligner aussi, c'est que ces paramètres limitant la hausse des T globales sont temporaires, cycliques (sauf les aérosols si c'est avéré).

- le minimum solaire, bien installé depuis près de 2 ans (il est assez long - ce qui doit en accentuer l'effet notamment pour les SST), va toucher à sa fin courant 2008

- la Niña, elle aussi va laisser place à une situation plus neutre voir à un Niño. On commence à en voir les prémices avec l'accumulation des eaux chaudes dans l'ouest du Pacifique équatorial (http://www.cpc.noaa.gov/products/analysis_monitoring/enso_update/sstxz.gif), et aussi un début de déstabilisation de thermocline (http://www.cpc.noaa.gov/products/analysis_monitoring/enso_update/155lonta.gif). Cette tentative d'onde Kelvin va peut-être avorter, mais cela se déclenchera tout ou tard dans l'année qui vient.

Donc, bilan d'ici 2009/2010. Sauf accident (émission volcanique type Pinatubo), on devrait voir reprendre la hausse des T globales. Si ce n'est pas le cas, on pourra vraiment se poser des questions sur nos modèles.

Je me pose aussi pas mal de questions et il me semble que tu as bien fait le tour de l'essentiel.En fait, ce qui me surprend (agréablement, je dois dire), c'est la relative stagnation de la concentration atmosphérique en GES, particulièrement en CO2, alors que les émissions anthropiques semblent accélérer.

Il me semble que l'explication pourrait être trouvée dans l'une (voire les deux) directions suivantes :

1) Une efficacité plus grande que prévue d'un des puits de carbone. Je pense en particulier au puits de carbone végétal, car les plantes fixent souvent mieux le CO2 avec un léger accroissement de température.

De plus, si de larges portions d'océan voient leur température se stabiliser, voire reculer (notamment dans l'HS, où les océans occupent la plus grande superficie), ils peuvent être un puits de carbone plus efficace que s'ils se réchauffaient.

2) Une réduction des émissions naturelles de carbone. On a ainsi souligné que l'assêchement de zones humides tropicales peut réduire les émissions de CH4.

Reste à savoir combien de temps va durer ce répit relatif.

Jusque vers 2009-2010 comme tu l'écris de manière argumentée ? Ou jusque vers 2011-2012 comme je l'ai précédemment suggéré à partir de prévisions concernant le cycle solaire ?

Alain

Lien à poster
Partager sur d’autres sites

- le minimum solaire, bien installé depuis près de 2 ans (il est assez long - ce qui doit en accentuer l'effet notamment pour les SST), va toucher à sa fin courant 2008

- la Niña, elle aussi va laisser place à une situation plus neutre voir à un Niño. On commence à en voir les prémices avec l'accumulation des eaux chaudes dans l'ouest du Pacifique équatorial (http://www.cpc.noaa.gov/products/analysis_monitoring/enso_update/sstxz.gif), et aussi un début de déstabilisation de thermocline (http://www.cpc.noaa.gov/products/analysis_monitoring/enso_update/155lonta.gif). Cette tentative d'onde Kelvin va peut-être avorter, mais cela se déclenchera tout ou tard dans l'année qui vient.

Le minimum du minimum du cycle solaire devrait etre atteind en mars 2008. Donc tout 2008 l'activite solaire sera proche de 2007 soit bien basse et en 2009 proche de 2005 soit encore assez bas. C'est des 2010 que l'activite solaire sera a une activite moyenne. Et donc le maximum sera a 1 ans pres vers 2012-13 car c'est 5 ans apres le minimum que le maximum est atteind environs suivant l'importance du maximum car les cycles importants sont plus courts que les cycles plus faibles.

Pour l'ENSO, en janvier 2009 je pense pas qu'on aura un El Nino alors qu'on viens d'avoir El Nino en hiver 2007 et La Nina en hiver 2006.

Williams

Lien à poster
Partager sur d’autres sites

(...)

Il y a qqs semaines, on avait évoqué l'effet des aérosols (recrudescence possible / croissance chinoise), qui pourrait impacter d'avantage les océans et l'hémisphère sud que par le passé.

(...)

Merci pour ce poste dense et riche.Sur ce point précis, j'ai des doutes. Les effets des aérosols restent très localisés compte tenu de leur lessivage rapide. Dans Ohmura 2006, on voit par exemple que le sud-est de la Chine connaît déjà un global brightening depuis 1985-90, tandis que la nord-est est toujours en global dimming. Je doute que les océans de l'HS ou de l'HN puissent être très affectés, surtout qu'il y a déjà bcp de noyaux de condensation naturels, donc que les effets indirects doivent être assez modérés.

Il y a aussi un facteur dont on parle peu : la stagnation du CH4. Elle est peut-être compensée par la hausse de concentration du CO2 des dix dernières années (1,9 ppm/an 1995-2005 contre 1,4 ppm/an 1960-2005), il faudrait voir les GWP de chaque gaz et les évolutions 1980-2000 / 2001-2007.

Lien à poster
Partager sur d’autres sites

Sur ce point précis, j'ai des doutes. Les effets des aérosols restent très localisés compte tenu de leur lessivage rapide.

Charles, je t'oriente vers un article de synthèse en français sur l'expérience INDOEX, qui devrait nuancer ce point de vue : INDOEX : L’aérosol anthropique piégé dans le panache de mousson d’hiver au-dessus de l’Océan Indien

Extrait :

L’effet radiatif direct de l’aérosol présent dans le panache de mousson est évalué à deux niveaux : au sommet de l’atmosphère et au niveau du sol.

Au sommet de l’atmosphère, dans la partie centrale du panache (épaisseur optique moyenne de l'ordre de 0,6 à 532 nm), il est de –17 ± 5 W m-2. En d’autres termes, cela signifie que par suite de la présence de l’aérosol, la quantité d’énergie solaire «renvoyée» par l’atmosphère a augmenté de 17 W m-2, (voir encart «bilan d’énergie» de l’article précédent; cela concerne l’augmentation du terme default_happy.png/emoticons/happy@2x.png 2x" width="20" height="20">. En conséquence la quantité servant au «chauffage» de la planète (terme C dans l’encart précédent) a diminué de la même quantité (effet radiatif direct négatif).

A la surface, le forçage radiatif a été calculé comme étant 2,5 à 4,5 fois supérieur à celui évalué au sommet de l'atmosphère (soit entre -40 à -75 W m-2).

(...)

En partant des résultats de Oberhuber (1988), qui montrent qu’environ 80% du réchauffement radiatif net est contrebalancé par l’évaporation des eaux de surface, le refroidissement radiatif de la surface océanique liée aux aérosols du panache "indien" entraîne une baisse de -15% de l’évaporation à la surface de l’océan sur la période de la mousson d’hiver (février/mars) et de 5% en moyenne annuelle (Ramanathan et al., 2001). On a donc une perturbation majeure du cycle de l’eau et une possible diminution des précipitations sur la partie nord de l’Océan Indien. Le transport de chaleur latente dans la moyenne et haute troposphère est donc perturbé, ce qui modifie significativement les circulations de Hadley (circulation méridienne) et de Walker (circulation zonale).

Lien à poster
Partager sur d’autres sites

A propos de la précision des mesures de températures de surface, je viens de trouver sur le forum Instrumentation d'Infoclimat ce témoignage éclairant de Dann17 (14/11/2007) qui cherche le meilleur endroit où implanter une station météo sur son terrain au Québec:

chaque année (et je l'ai vérifié moi aussi) lors de la fonte des neiges vers la fin avril, seul, je dis bien seul mon terrain est déneigé 3 ou 4 jours avant tous les environs ! Si vous passez de l'autre côté de la route, la différence est flagrante, voyez plutôt : http://img339.imageshack.us/my.php?image=photo1862om5.jpg (et je peux vous dire que de l'autre côté de la route, c'est pas 2cm de neige qu'il restait, non c'etait une bonne dizaine de cm !)

Je vous assure que le problème ne vient pas vraiment de la faible pente (là vous avez raison), mais il vient de ce "mur" d'épinettes qui agissent comme un radiateur infrarouge, de même qu'un énorme abri des vents froids (secteurs ouest à nord)...

Bon, Dann17 n'aura donc pas idée d'extrapoler sans discernement ses mesures météo aux terrains de ses voisins à moins de 100 m. Il mesure le "climat" de chez lui, ce qui est

d'ailleurs tout l'intérêt d'une station personnelle par rapport aux annonces météo et aux statistiques climatiques régionales ou nationales.

Alors imaginez maintenant ce que donnent les interpolations sur quelques centaines de milliers de km2 autour d'une base NASA/GISS, comme on a pu le voir il y a quelques posts...

Pour octobre 2007, la NOAA annonce une anomalie de la température globale de...

0,4819°C ! Ca fait très "brut de calculatrice", ça laisse rêveur.

Comme je l'ai signalé (PDF de Michel Leroy, de Météo France), la précision des mesures ne peut apparemment pas descendre en-dessous de +-0.15°C, et encore il ne s'agit que de l'incertitude due au capteur en platine, c'est-à-dire sans compter l'impact de l'abri, et encore moins les corrections algorithmiques ultérieures (prise en compte des îlots de chaleur,interpolations, etc.)

Comment peut-on alors descendre en-dessous de cette plage d'incertitudes, quand il n'y a aucune possibilité de répéter la mesure ? (par exemple quand on fait une mesure un jour à 9h sur telle station, on ne pourra plus jamais la refaire.) Un bon spécialiste des méthodes statistiques saurait-il répondre ? Sinon, les chiffres donnés au 1/10000e n'ont pas de sens. Les NOAA, GISS et Hadley Center ne peuvent pas même prétendre donner des valeurs de température globale à 0.05°C près.

Lien à poster
Partager sur d’autres sites

Charles, je t'oriente vers un article de synthèse en français sur l'expérience INDOEX, qui devrait nuancer ce point de vue : INDOEX : L’aérosol anthropique piégé dans le panache de mousson d’hiver au-dessus de l’Océan Indien

(...)

Merci, ce sont en effet des quantités plus importantes que je ne le pensais, je vais creuser cela.
Lien à poster
Partager sur d’autres sites

By Alister Doyle, Environment Correspondent

OSLO, Nov 28 (Reuters) - This year is set to be the sixth warmest since records began 150 years ago, cooler than earlier predicted which means a slight respite for European ski resorts or bears trying to hibernate. "2007 will likely be near equal with 2006, so joint sixth warmest year," Phil Jones, head of the Climatic Research Unit at Britain's University of East Anglia, told Reuters.

The unit, which provides global data for the World Meteorological Organization (WMO), had predicted a year ago that 2007 could be the warmest worldwide since reliable records began in the 1860s. It cut the prediction to number 2 in mid-year.

SourceRien de bien neuf donc, sauf que

1) c'est une deuxième rectification.

2) Le record n'est donc pas battu (sous-titre du fil).

Lien à poster
Partager sur d’autres sites

Source

1) c'est une deuxième rectification.

Oui, ils ont sans doute rectifié le tir en constatant la transition rapide Nino > Nina, alors que le Nino était in facteur de premier ordre dans la hausse attendue pour cette année.
2) Le record n'est donc pas battu (sous-titre du fil).

Bon alors qui m'offre une coupe de champagne? default_rolleyes.gif
Lien à poster
Partager sur d’autres sites

Posté(e)
Agde (34) littoral ouest Hérault

Bon alors qui m'offre une coupe de champagne? default_flowers.gif

WMO ? Le GIEC ? Al Gore ? ou..... Alain Coustou ? default_rolleyes.gifAttention à ne pas devenir alcoolique default_sorcerer.gif
Lien à poster
Partager sur d’autres sites

Invité
Ce sujet ne peut plus recevoir de nouvelles réponses.
 Partager

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...