Aller au contenu
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

1998-2007


charles.muller
 Partager

Messages recommandés

Avec une carte pareille, comment peut on espérer un hiver glacial:

il n'y a plus un seul endroit sur la planete présentant une anomalie négative supérieur à 3 degrés !

Même s'il y a une anomalie positive de 5°C en Sibérie, l'hiver y sera glacial je peux te l'assurer !Comme quoi, une présentation visuelle est très utile, même pour induire en erreur.
Lien à poster
Partager sur d’autres sites

  • Réponses 464
  • Créé
  • Dernière réponse

Les plus actifs

Salut à tous

Après une longue pause (forcée), je reviens au climat, et à ces chers forums. J'aurai toutefois un peu moins de temps et d'énergie que jadis - une bonne raison pour éviter les polémiques stériles.

Voici la récap des données surface et troposphère 1998-2007. (Pour Nasa Giss, j'ai utilisé 1961-90 comme période de référence sur leur interface, d'où des valeurs différentes de celles de Météor ; sinon, j'ai intégré les qques modifs opérées par les bases sur les valeurs des premiers mois, sauf oubli ou faute d'inattention ; je conserve les décimales / centimales selon le choix des bases dans leurs serveurs).

On voit que le Hadley Center, qui avait lancé le pronostic sur 2007 plus chaude que 1998, trouve les huit derniers mois de 2007 plus frais que ceux de 1998. Idem pour les deux bases satellite en basse troposphère (les neuf mois cette fois) - il est intéressant de noter que RSS, habituellement plus proche des résultats des modèles, donne une tendance froide plus clairement prononcée pour 2007 / 1998.

NOAA et Nasa Giss donnent en revanche les deux années très proches, la seconde étant un peu plus "chaude" que la première. Même phénomène que pour 2005 : à l'époque, Hadley, OMM et satellites l'avaient trouvée plus fraiche que 1998, contrairement à Nasa Giss et NOAA. Pour ces dernières, les mois OND vont être décisifs ; pour les autres, il faudrait une forte anomalie chaude pour placer 2007 en tête.

recap19982007kc4.jpg

Lien à poster
Partager sur d’autres sites

Pour ces dernières, les mois OND vont être décisifs ; pour les autres, il faudrait une forte anomalie chaude pour placer 2007 en tête.

bonjour et bon retour sur ce forum.

Il semble exclus que l'on puisse avoir une telle anomalie chaude.

Nous sommes actuellement en plein dans un épisode La Nina dont le Hadley center avait sous-estimé la précocité du retour (ou surestimé le Nino précédent?).

Le Hadley a donc raté sa prévision qu'il avait établie en fonction de sa propre base.

Quant aux autres organismes ils donneront probablement des résultats voisins pour les deux années.

Nous avons déjà parlé des mesures satellitaires qui ne peuvent que donner 1998, année à fort El Nino, supérieure à 2007 (à mon sens pour des problèmes de convection renforcée lors d'un El Nino)

Il n'en reste pas moins que la base RSS ne suit pas très bien l'évolution des températures de surface au cours de cette année 2007.

C'est moins vrai pour UAH, une fois n'est pas coutume.

Lien à poster
Partager sur d’autres sites

Pour la période janvier-septembre, 2007 comporte une anomalie des températures de +0,58° (HN et HS confondus, océans et continents de même).

Ce qui la place au 4ème rang des années les plus chaudes depuis 1880. Sur cette même période, c'est 1998 qui détient le record avec +0,63° d'anomalie.

Pour le moment, 2007 est l'année la plus chaude sur l'ensembles des continents (+1,04°), et aussi sur les continents de l'HN (+1,23°).

L'année la plus chaude depuis 1880 est 2005, avec une anomalie de +0,61° sur l'ensemble du globe, et sur l'ensemble de l'année.

Le mois de Septembre 2007 comporte lui une anomalie des températures de +0,51°, ce qui le place au 5ème rang des mois de Septembre les plus chauds depuis 1880.

Le mois de Septembre qui détient le record est celui de 2005, avec une anomalie de +0,64°.

Lien à poster
Partager sur d’autres sites

  • 2 weeks later...

Pour la période janvier-septembre, 2007 comporte une anomalie des températures de +0,58° (HN et HS confondus, océans et continents de même).

Ce qui la place au 4ème rang des années les plus chaudes depuis 1880. Sur cette même période, c'est 1998 qui détient le record avec +0,63° d'anomalie.

Pour le moment, 2007 est l'année la plus chaude sur l'ensembles des continents (+1,04°), et aussi sur les continents de l'HN (+1,23°).

L'année la plus chaude depuis 1880 est 2005, avec une anomalie de +0,61° sur l'ensemble du globe, et sur l'ensemble de l'année.

Le mois de Septembre 2007 comporte lui une anomalie des températures de +0,51°, ce qui le place au 5ème rang des mois de Septembre les plus chauds depuis 1880.

Le mois de Septembre qui détient le record est celui de 2005, avec une anomalie de +0,64°.

Je crois qu'il ne faut pas attacher une importance trop grande à ce type de comparaison :

En effet, le résultat dépend de la façon par laquelle le chiffre de l'anomalie est obtenu.

Déjà, il paraît un peu curieux de faire la moyenne des températures entre Le Caire (Egypte) et la Station Dumont d'Urville (Pôle sud). Ces 2 températures n'ont pas de rapport entre elles. (C'est un peu comme si on faisait la moyenne des températures entre Mars et Vénus pour en déduire celle du système solaire).

Ensuite, tout dépend des sources utilisées (stations, satellites, etc...) qui ont toutes leur légitimité, mais donnent des résultats divergents.

Enfin, tout change en fonction de l'algorithme de calcul utilisé pour la moyenne. Doit-on faire une moyenne en prenant une température unique par maille surfacique unitaire, comment doit-on prendre en compte l'altitude des stations, utilise-t-on un algoritme particulier pour traiter les grandes surfaces homogènes, fait-on la moyenne des stations voisines lorsqu'il n'y a aucune station dans la maille, s'il y en a une, doit-on utiliser un coefficient correcteur si elle n'est pas centrée... etc.. (Je ne parle pas de la station qui existait l'an dernier et qui n'existe plus aujourd'hui, ou vice-versa).

Sélection du Reader Digest citait un spécialiste (américain) de la statistique qui s'était noyé en traversant une rivière dont la profondeur moyenne n'était pourtant que de 1 m (Mais il ne savait pas nager).

En tout cas, quand on cite des anomalies de température, il faut aussi citer la source.

Lien à poster
Partager sur d’autres sites

Suite du comparatif, avec la mise à jour de toutes les bases pour septembre, et une première valeur pour octobre (RSS).

Pour septembre et les bases de surface, on a pour une fois une bonne concordance avec des valeurs situées à +/-0,0°C et ne divergeant qu'au centième. Les deux bases satellite sont elles aussi convergentes avec une basse troposphère plus fraiche en 2007 qu'en 1998, comme pour le reste de l'année.

La première valeur d'octobre en basse troposphère indique une quasi-stabilité par rapport à la moyenne mobile 1979-présent (à 0,091°C), on verra si cela se retrouve en surface.

oct19982007is4.jpg

Lien à poster
Partager sur d’autres sites

oct19982007is4.jpg

Cette synthèse des données des différents centres est tout à fait intéressante, mais il manque un élément essentiel: les incertitudes. Sur des températures données au millième près, c'est quand même vital pour savoir si les écarts entre les 2 années sont significatifs. Les bases ne donnent-ils pas ces incertitudes ?

Ci-dessous le graphique sur l'écart de température 2007-1998 pour les 3 bases de mesures des températures en surface. On voit sans difficulté que les écarts entre les 3 bases sont du même ordre de grandeur que les écarts entre les 2 années. Ils sont même souvent supérieurs et ça suscite des questions sur le caractère significatif de l'écart entre ces 2 années, et de toutes les années en général.

dt20071998hadleynasanoaua3.gif

(courbe en rouge: différence entre le maximum et le minimum de l'écart de température 2007-1998 sur l'ensemble des 3 bases.)

Lien à poster
Partager sur d’autres sites

Cette synthèse des données des différents centres est tout à fait intéressante, mais il manque un élément essentiel: les incertitudes. Sur des températures données au millième près, c'est quand même vital pour savoir si les écarts entre les 2 années sont significatifs. Les bases ne donnent-ils pas ces incertitudes ?

Ci-dessous le graphique sur l'écart de température 2007-1998 pour les 3 bases de mesures des températures en surface. On voit sans difficulté que les écarts entre les 3 bases sont du même ordre de grandeur que les écarts entre les 2 années. Ils sont même souvent supérieurs et ça suscite des questions sur le caractère significatif de l'écart entre ces 2 années, et de toutes les années en général.

(courbe en rouge: différence entre le maximum et le minimum de l'écart de température 2007-1998 sur l'ensemble des 3 bases.)

Bien d'accord avec tes remarques. En fait, ce post est né d'un pari lorsque le Hadley Center a publié sa prévision annuelle et annoncé une probabilité de 60% (de mémoire) pour que 2007 soit plus chaude que 1998. Comme les médias traduisaient cela à leur manière habituelle ("2007 s'annonce comme caniculaire", "Alarme des chercheurs : la fournaise à nos portes" et autres billevesées), je m'étais amusé à poser la prévision inverse et à suggérer que l'on suive pour une fois l'affaire de près.

Mais en soi, c'est climatologiquement inintéressant de comparer de la sorte deux années isolées. Disons que cela permet cependant de constater combien les bases de surface terrestre divergent encore (mais il faudrait en effet rappeler l'incertitude pour chacune d'elles) et d'observer comment la surface et la basse troposphère évoluent ou non de concert.

Au-delà du pari, et si l'on veut tout de même essayer de rendre "actuelle" une évolution du climat toujours très lente, il serait sans doute plus judicieux à l'avenir d'observer l'anomalie et le classement de chaque nouveau mois dans les trente années précédentes (disons par rapport à 1971-2000 pour la moyenne de référence et avec tous les mois concernés sur 1971-2007), et d'essayer d'approfondir la question des divergences inter-bases (où et pourquoi elles varient dans un sens ou dans l'autre). On verra cela en janvier 2008.

Lien à poster
Partager sur d’autres sites

Voici Nasa Giss pour octobre / 1961-1990 :

0,50°C pour 2007, 0,35°C pour 1998

ghcngisshr2sst1200kmanopd6.gif

ghcngisshr2sst1200kmanomk5.gif

Mais comme miniTAX l'avait suggéré, j'ai fait les mêmes cartes avec un rayon de lissage de 250 km seulement. Et là double surprise :

- l'anomalie devient 0,37°C pour 2007 et 0,33°C pour 1998

- on constate l'importance des zones grises où les données sont manquantes (je ne sais plus sur quelle base elles sont interpolées à 1200 km, mais si je comprends bien, l'essentiel de la différence 1998/2007 vient de l'interpolation, pas des données disponibles).

ghcngisshr2sst250kmanomnc4.gif

ghcngisshr2sst250kmanomzw0.gif

Lien à poster
Partager sur d’autres sites

En ce qui concerne la représentation des anomalies, il me semble qu'il n'y a pas photo entre ces deux cartes:

Exemple pour septembre 2007:

Nasa en polaire, Smoothing Radius 1200 km et normale 1971-2000:

ghcngisshr2sst1200kmanopg3.gif

Cryosphère:

september2007airtempanoah7.png

Sur cryosphère au nord-ouest du Grand Nord canadien, on y distingue très bien et c'est la moindre des choses, la frontière entre la banquise persistante ( en blanc donc très proche de la normale en température) et la zone libre de glace ( en rouge foncé à environ 6 degrés au dessus de la normale).

Lien à poster
Partager sur d’autres sites

- on constate l'importance des zones grises où les données sont manquantes (je ne sais plus sur quelle base elles sont interpolées à 1200 km, mais si je comprends bien, l'essentiel de la différence 1998/2007 vient de l'interpolation, pas des données disponibles).

Tu remarqueras aussi qu'en 10 ans, la surface grise a augmenté, surtout en Afrique, mais aussi ... en France. En gros, il y a encore MOINS de stations terrestres dans la compilation de la température mondiale du GISS maintenant qu'en 1998 (mais ça, les sceptiques le savent depuis longtemps).La désertification de la campagne française, ce n'est donc pas un mythe, c'est bien d'origine anthropique default_ermm.gif
Lien à poster
Partager sur d’autres sites

Dans l'hémisphère nord, il n'y a plus grand chose d'espace inférieur à la normale sur les continents...

Ces 4 derniers mois inférieurs aux normales en Europe occidentale font vraiment figure d'exeption.

Amateurs du froid, profitez-en ! default_ohmy.png/emoticons/ohmy@2x.png 2x" width="20" height="20">

Lien à poster
Partager sur d’autres sites

Bien d'accord avec tes remarques. En fait, ce post est né d'un pari lorsque le Hadley Center a publié sa prévision annuelle et annoncé une probabilité de 60% (de mémoire) pour que 2007 soit plus chaude que 1998. Comme les médias traduisaient cela à leur manière habituelle ("2007 s'annonce comme caniculaire", "Alarme des chercheurs : la fournaise à nos portes" et autres billevesées), je m'étais amusé à poser la prévision inverse et à suggérer que l'on suive pour une fois l'affaire de près.

Oui, ce fil est une excellente idée. Moins pour l'enjeu du pari de l'Hadley Center que pour le suivi des données sur ton tableau de bord, et leur discussion.

Que 2007 soit plus ou moins chaud que 1998 sera en effet assez anecdotique sur le plan statistique. Il vaudrait suivre les tendances que les records. En revanche, l'enjeu en matière de communication est toujours considérable, si ça permet aux médias de claironner qu'un nouveau record a été battu. Et le pari est un bon support pour discuter des méthodes de mesures et d'homogénéisation. Même sur les données récentes, ce n'est pas forcément si fiable que ça.

(précision: je sais que tu es journaliste, mais journaliste scientifique, qui cite systématiquement ses références, entre autres caractéristiques. A mon sens, ça n'a rien à voir avec les médias à sensation de tous les jours, c'est un autre métier.)

Pour les incertitudes, j'ai trouvé des indications dans le chapitre 3 du dernier rapport du GIEC Groupe 1 (tableau 3.3 §3.2.2.4). Pour la variation décennale de la température globale entre 1979 et 2005, ça donne:

CRU/UKMO (Brohan et al., 2006) : +0.163 ± 0.046

NCDC (Smith and Reynolds, 2005) : +0.174 ± 0.051

GISS (Hansen et al., 2001) : +0.170 ± 0.047

Donc l'incertitude est aux alentours de ± 0.05°C pour les 3 bases (avec un intervalle de confiance de 90%). On peut raisonnablement retenir la même valeur entre 2007 et 1998.

Maintenant, si on reconsidère l'effet d'annonce de début 2007, par exemple dans cet article:

***************************

http://laposte.lci.fr/infos/sciences/envir...leur-2007-.html

Vers un record de chaleur en 2007 ?

"L'année qui débute pourrait être la plus chaude jamais enregistrée. Les météorologues du Hadley Centre, dépendant de l'agence météorologique britannique (Met Office), ont effectué leur prévision annuelle : le thermomètre pourrait afficher une hausse de 0,54 degrés Celsius par rapport à la température globale moyenne de 14°C.

Le précédent record de chaleur avait été enregistré en 1998, avec une hausse de 0,52° C par rapport à la normale."

***************************

...donc le Hadley Center aurait envisagé une hausse de 0.54 - 0.52 = 0.02°C. C'est-à-dire un écart inférieur à leur incertitude, voisine de 0.05°C.

...C'est savoir dès le départ que cette hausse, si elle avait lieu, n'aurait pas vraiment de caractère significatif.

Donc ce genre d'annonce est surtout du pipeau destiné à faire parler de soi dans les médias, comme trop souvent.

PS: McIntyre a trouvé en août 2007 une erreur dans l'homogénéisation des températures de la base NASA/GISS pour les Etats-Unis, ce que la NASA a aussitôt reconnu. Ceci a eu pour effet important de revaloriser les températures pour les années 1930, et faire de 1934 l'année la plus chaude aux Etats-Unis au lieu de 1998.

Compte-tenu du poids important des bases US dans l'estimation de la température globale, cette rectification doit avoir un impact sur certaines courbes du dernier rapport du GIEC, et peut-être également sur ton tableau de bord. As-tu remarqué une rectification des données NASA/GISS après le mois d'août ?

Lien à poster
Partager sur d’autres sites

CRU/UKMO (Brohan et al., 2006) : +0.163 ± 0.046

NCDC (Smith and Reynolds, 2005) : +0.174 ± 0.051

GISS (Hansen et al., 2001) : +0.170 ± 0.047

Donc l'incertitude est aux alentours de ± 0.05°C pour les 3 bases (avec un intervalle de confiance de 90%). On peut raisonnablement retenir la même valeur entre 2007 et 1998.

Attention il ne s'agit pas d'incertitude expérimentale mais d'estimation REML (Restricted Maximum Likelihood) sur une droite de régression. D'ailleurs, quand on donne des intervalles +- 2sigma, il s'agit d'intervalles de confiance de 5-95% et non 90%.De toute façon, aucun de ces 3 fournisseurs officiels de température ne fournissent leur méthode d'homogéinisation et leurs algos (le GISS avait publié soit disant ses codes sources en Septembre dernier mais avec des méthodes préhistorique de suivi de versions). Le CRU ne publie même pas les données de ses stations, ni brutes, ni corrigées et il a tout juste communiqué la liste (uniquement la liste) des stations utilisées il y a 2 mois, liste sur laquelle on constate qu'il n'y a PAS UNE SEULE station rurale utilisée pour la France. Donc ils peuvent raconter ce qu'il veulent sur "l'incertitude", personne n'est capable de la vérifier et encore moins de la reproduire. Donner des valeurs de 0,05°C alors que rien qu'en changeant la distance d'interpolation, on aboutit à des écarts supérieur à 0,2°C (cf graphiques du GISS postés par Charles plus haut), ça n'a pas beaucoup de sens.
Lien à poster
Partager sur d’autres sites

(...)

(précision: je sais que tu es journaliste, mais journaliste scientifique, qui cite systématiquement ses références, entre autres caractéristiques. A mon sens, ça n'a rien à voir avec les médias à sensation de tous les jours, c'est un autre métier.)

(...)

C'est un détail, mais ce n'est même pas une question de "presse à sensation", ou alors tous les journaux un peu importants sont devenus à sensation. Dans les domaines où j'écris de façon "alimentaire" (bio et médecine), on ne donne aucune référence précise (le lecteur est supposé s'en f**tre), on privilégie aussi l'effet d'annonce, et les aspects les plus intéressants des entretiens avec les chercheurs / les médecins sont souvent "off" (parce qu'il y a telle tutelle, telle politique ou tel actionnaire de labo, telle conformisme d'opinion sur tel sujet, tel sponsor ou tel publicitaire, etc.), on doit faire toujours plus court même sur des sujets complexes, on doit mettre de belles images plutôt que du texte, etc. Une des raisons pour lesquelles j'ai toujours minimisé la part journalistique de mes activités d'écriture, car sauf à avoir un support indépendant ou spécialisé, c'est très désagréable de devoir s'autocensurer ou s'autolimiter en permanence.

Pour revenir à nos moutons, les mêmes qui avaient jugé bon de faire une brève sur l'annonce du Hadley ne jugeront évidemment pas bon d'en faire une autre pour se dédire, si cela s'avère nécessaire en janvier. Non, ils reprendront d'autres éléments du bilan 2007 plus conformes à leur stratégie de captation de l'intérêt à tout prix. En même temps, cela peut très bien se retourner du jour au lendemain, qu'il y ait quelques années fraîches, un ou deux hivers rigoureux / étés pourris, et le grand pitch des mêmes médias sera de titrer : "Climat : et si l'on s'était trompé". Bref, une pratique de girouette dénuée de tout intérêt si l'on a un minimum de curiosité et d'esprit critique.

Pour Nasa Giss, il y a eu quelques ajustements (par exemple anomalie janvier passé de 0,80 à 0,79, etc.), mais j'ai constaté que c'est le cas pour d'autres bases, je vais d'ailleurs tout revérifier à la prochaine mise à jour complète pour octobre.

Les discussions que nous avons ici montre l'intérêt qu'il y aura à commencer en janvier 2008 une analyse mois à mois, mais plus approfondie (pas limitée à 1998 comme référence), ce qui sera l'occasion de parler plus en détail des différentes bases. McIntyre fait un gros boulot là-dessus. Et il se heurte évidemment à l'hostilité des institutions qu'il se permet de "corriger"... même quand la correction est justifiée. Les reproductions d'échange sur son site sont parfois ahurissantes, les bases (parfois les chercheurs) protègent leurs méthodes et leurs données comme s'il s'agissait de secret d'Etat, et non de service public (en l'occurrence, il s'agit aussi des données primaires de ce qui est présenté comme l'un des plus grands problèmes de l'humanité au XXIe siècle, ce qui exige une transparence totale).

Lien à poster
Partager sur d’autres sites

je profite de ce topic pour rebondir sur les mesures satellites de la basse tropo.

Bon globalement les tendances RSS et UAH (pas loin de 0.18°C/décennie et 0.14°C/décennie respectivement) confirment assez bien les mesures de Ts bien qu'il est sûr que les différents organismes doivent jouer, un maximum, cartes sur table.

Pour comparer une année sur l'autre je me pose cependant des questions.

Par exemple 1998 était caractérisée par un El Nino très important alors que 2007 semble caractérisé par un épisode La Nina de moyenne importance.

Ces épisodes n'affectent-ils pas dans une certaine mesure la convection humide dans l'atmosphère?

Cette dernière affectant donc le gradient thermique, le diminuant dans le cas El Nino et l'augmentant dans le cas La Nina.

Rappelons qu'un seul % de gradient modifie la température de 0.12°C tout de même à 2000m.

Lien à poster
Partager sur d’autres sites

Pour comparer une année sur l'autre je me pose cependant des questions.

Par exemple 1998 était caractérisée par un El Nino très important alors que 2007 semble caractérisé par un épisode La Nina de moyenne importance.

Ces épisodes n'affectent-ils pas dans une certaine mesure la convection humide dans l'atmosphère?

Cette dernière affectant donc le gradient thermique, le diminuant dans le cas El Nino et l'augmentant dans le cas La Nina.

Rappelons qu'un seul % de gradient modifie la température de 0.12°C tout de même à 2000m.

Je pense que tu as raison et c'est en effet une autre manière de souligner la limite des comparaisons année à année.

Sur les tendances des bases satellites / bases surface, le dernier point qui semble problématique par rapport aux prévisions des modèles, ce sont les tropiques. J'ignore l'évolution récente depuis le récent rapport de synthèse sur ces questions, qui avait aplani la plupart des divergences. Mais j'ai vu passer des extraits d'un travail à paraître de Lee, Suarez et al. (dans une conf' de Lindzen) semblant indiquer que le problème persiste (c'est-à-dire que l'on ne retrouve pas la baisse du gradient thermique et le fort réchauffement attendu par tous les modèles à 500-100 hPa).

Lien à poster
Partager sur d’autres sites

Sur les tendances des bases satellites / bases surface, le dernier point qui semble problématique par rapport aux prévisions des modèles, ce sont les tropiques. J'ignore l'évolution récente depuis le récent rapport de synthèse sur ces questions, qui avait aplani la plupart des divergences. Mais j'ai vu passer des extraits d'un travail à paraître de Lee, Suarez et al. (dans une conf' de Lindzen) semblant indiquer que le problème persiste (c'est-à-dire que l'on ne retrouve pas la baisse du gradient thermique et le fort réchauffement attendu par tous les modèles à 500-100 hPa).

Je ne connais pas bien l'évolution des températures de surface y compris les SST au niveau des tropiques, mais si on ne constate pas de diminution du gradient dans la tropo à ce niveau, on devrait, selon ma logique (qui n'est sans doute pas la meilleure), observer une augmentation plus importante de ces mêmes températures de surface.

A moins que d'autres phénomènes rentrent en jeu comme par exemple une évacuation thermique vers les plus hautes latitudes (plutôt vers le nord) ou alors, comme le préconise Lindzen, un rayonnement vers l'espace.

Lien à poster
Partager sur d’autres sites

Mais comme miniTAX l'avait suggéré, j'ai fait les mêmes cartes avec un rayon de lissage de 250 km seulement. Et là double surprise :

- l'anomalie devient 0,37°C pour 2007 et 0,33°C pour 1998

- on constate l'importance des zones grises où les données sont manquantes (je ne sais plus sur quelle base elles sont interpolées à 1200 km, mais si je comprends bien, l'essentiel de la différence 1998/2007 vient de l'interpolation, pas des données disponibles).

ghcngisshr2sst250kmanomnc4.gif

ghcngisshr2sst250kmanomzw0.gif

Oui, on voit très nettement la diminution des points de mesures entre ces 2 cartes 1998 et 2007, par exemple dans l'Arctique canadien...Là où les variations de températures sont généralement les plus importantes...

Moi qui croyait naïvement qu'au contraire il y avait de plus en plus de centres de mesures pour gagner en fiabilité...

La NASA GISS a peut-être de bonnes raisons de simplifier, en ayant observé que ça ne changeait pas grand chose. Or on peut voir que les évolutions de ses stations arctiques sont loin d'être identiques.

http://data.giss.nasa.gov/gistemp/station_data/

Si la NASA GISS simplifie et interpole à outrance, on a ici un exemple de ce que peuvent donner les bidouillages numériques. Et ici, c'est sur les mesures du présent, les plus précises. Dès lors, je n'ose pas imaginer la fiabilité des restitutions du passé ou des modélisations du futur.

Lien à poster
Partager sur d’autres sites

Attention il ne s'agit pas d'incertitude expérimentale mais d'estimation REML (Restricted Maximum Likelihood) sur une droite de régression. D'ailleurs, quand on donne des intervalles +- 2sigma, il s'agit d'intervalles de confiance de 5-95% et non 90%.

Pour moi, intervalle de confiance de 90% = probabilité d'être dans le vrai = 95% - 5%. C'est vraiment un abus d'écriture ?

Sinon, je ne comprends pas ta remarque sur la distinction entre incertitude expérimentale et estimation REML. Je pense bien qu'il ne s'agit pas de données brutes mais homogénéisées, non ?

Dans tous les cas, je suis d'accord avec ton paragraphe suivant, et je ne demande pas mieux que d'avoir des indications sur les incertitudes en question. On ne devrait d'ailleurs même pas avoir à les chercher, elles devraient être fournies d'amblée, y compris par les médias qui les reprennent.

Ex: "le thermomètre [sic] pourrait afficher une hausse de 0,54 +-0.05°C en 2007, contre 0,52 +-0.04°C en 1998."

Il est vrai que ça casserait alors souvent les petits effets alarmistes.

Lien à poster
Partager sur d’autres sites

Pour revenir à nos moutons, les mêmes qui avaient jugé bon de faire une brève sur l'annonce du Hadley ne jugeront évidemment pas bon d'en faire une autre pour se dédire, si cela s'avère nécessaire en janvier. Non, ils reprendront d'autres éléments du bilan 2007 plus conformes à leur stratégie de captation de l'intérêt à tout prix. En même temps, cela peut très bien se retourner du jour au lendemain, qu'il y ait quelques années fraîches, un ou deux hivers rigoureux / étés pourris, et le grand pitch des mêmes médias sera de titrer : "Climat : et si l'on s'était trompé". Bref, une pratique de girouette dénuée de tout intérêt si l'on a un minimum de curiosité et d'esprit critique.

Il semble que l'Hadley Center ait déjà changé son fusil d'épaule, et qu'au pays des bookmakers, un nouveau pari soit lancé:

http://blog.choc.fr/index.php/2007/08/10/1...-partir-de-2009

10/08/2007

Le réchauffement climatique, dont les effets ont été compensés ces deux dernières années par des phénomènes naturels, se fera sérieusement sentir à partir de 2009 avec des températures record, selon des simulations informatiques de chercheurs britanniques.

Sur les dix années à venir, le climat va se réchauffer, et 2014 devrait afficher une température moyenne supérieure de 0,3 degrés par rapport à 2004, selon le nouveau modèle réalisé par les chercheurs du bureau météorologique britannique de Hadley (sud-ouest de l'Angleterre).

Le réchauffement se fera le plus sentir après 2009, puisque après cette date, au moins la moitié des années seront plus chaudes que les records annuels de chaleur actuellement enregistrés, indiquent les chercheurs dans un article paru vendredi dans le journal Science.

Les chercheurs du bureau météorologique britannique, peu satisfaits des simulations informatiques du climat existantes, se sont mis à l'ouvrage pour intégrer dans leur propre programme l'effet des températures à la surface de la mer, des émissions de gaz à effet de serre dues aux humains, des changements dans l'activité solaire et l'effet des éruptions volcaniques passées.

Ils ont ensuite procédé à une simulation sur une période de dix ans (2005-2014) et ont conclu qu'à court terme le refroidissement dans une partie du Pacifique et la résistance au réchauffement de l'océan Arctique, compensaient la hausse des températures provoquée par les gaz à effet de serre.

Mais cet effet compensateur sera seulement passager et les météorologistes prédisent que sur la période 2009-2014, les températures éclipseront le record de 1998, jusque-là l'année la plus chaude, avec une moyenne mondiale de 14,54 degrés.

Doug Smith, un chercheur de la météo nationale britannique, et ses collègues ont testé leur nouveau modèle sur les années 1982 à 2001 afin de pouvoir comparer les résultats à la réalité dûment enregistrée par les services météorologiques à travers le monde.

Selon Doug Smith, la validité du nouveau modèle a été prouvée parce qu'il a donné des résultats bien plus précis pour les températures que des simulations informatiques précédentes.

"Les observations d'un refroidissement relatif dans l'Antarctique et la zone tropicale du Pacifique ces dernières années ont été prédites correctement avec le nouveau système, ce qui nous donne confiance en l'efficacité du modèle", a observé M. Smith.

Les chercheurs observent que ces prévisions à plus court terme que les études précédentes devraient aider le monde des affaires et les responsables politiques dans leurs prises de décision.

Ils soulignent aussi que ces résultats devraient couper l'herbe sous le pied des sceptiques qui mettent en cause l'idée de réchauffement climatique en apportant pour preuve un refroidissement relatif observé depuis 1998.

Encore une fois, l'effet d'annonce prévaut sur les résultats. "Le Hadley Center prévoit que" est assimilé à "ça va arriver", et c'est plus important que "le Hadley Center a observé que."

Et les phénomènes naturels sont, une fois de plus, de simples facteurs correctifs appelés pour expliquer que le modèle a été pris à défaut. "Et pourtant sans les phénomènes naturels, c'est sûr, l'explication anthropique marcherait bien." default_dry.png

Je pense que le Hadley Center a du être un peu plus prudent que l'auteur de cet article: déjà, les phénomènes sporadiques comme le volcanisme ne peuvent être pris en compte dans les modèles, alors qu'ils pourront intervenir jusqu'en 2014.

Lien à poster
Partager sur d’autres sites

Ils ont ensuite procédé à une simulation sur une période de dix ans (2005-2014) et ont conclu qu'à court terme le refroidissement dans une partie du Pacifique et la résistance au réchauffement de l'océan Arctique, compensaient la hausse des températures provoquée par les gaz à effet de serre.

ceci est particulièrement intéressant et rejoint en partie ma préoccupation maintes fois formulée quant à cette "résistance" relativement nouvelle de l'océan au réchauffement.

Maintes fois formulée jusque et y compris sur Realclimate, mais sans réponse jusqu'à maintenant.

Enfin ce n'est pas le sujet mais ce serait intéressant d'avoir au moins un début d'explication.

mais je vois plus loin que:

"Les observations d'un refroidissement relatif dans l'Antarctique et la zone tropicale du Pacifique ces dernières années ont été prédites correctement avec le nouveau système, ce qui nous donne confiance en l'efficacité du modèle"

il semble donc que l'on arrive à modéliser ce pb de refroidissement et donc que l'on pourrait avoir une explication plus qualitative un de ces jours.
Lien à poster
Partager sur d’autres sites

Il semble que l'Hadley Center ait déjà changé son fusil d'épaule, et qu'au pays des bookmakers, un nouveau pari soit lancé:

(...)

Encore une fois, l'effet d'annonce prévaut sur les résultats. "Le Hadley Center prévoit que" est assimilé à "ça va arriver", et c'est plus important que "le Hadley Center a observé que."

Et les phénomènes naturels sont, une fois de plus, de simples facteurs correctifs appelés pour expliquer que le modèle a été pris à défaut. "Et pourtant sans les phénomènes naturels, c'est sûr, l'explication anthropique marcherait bien." default_ohmy.png/emoticons/ohmy@2x.png 2x" width="20" height="20">

Je pense que le Hadley Center a du être un peu plus prudent que l'auteur de cet article: déjà, les phénomènes sporadiques comme le volcanisme ne peuvent être pris en compte dans les modèles, alors qu'ils pourront intervenir jusqu'en 2014.

Je pense que cela se réfère à la récente publication dans Science cet été et qui a été discutée de-ci de-là. A noter que le journaliste se goure encore en parlant de "résistance au réchauffement dans l'océan Arctique" (le pauvre résiste mal), c'est océan Austral qu'il faut lire ("the appearance of cooler water in the tropical Pacific and a resistance to warming in the Southern Ocean" dans le comment d'origine; d'ailleurs la citation de Doug Smith conredit le propos du journaliste, puisque le chercheur parle bien de l'Antarctique).

Ma foi, je suis joueur de nature et prêt à prendre les paris. default_ohmy.png/emoticons/ohmy@2x.png 2x" width="20" height="20"> Je ne pense pas que la méthode, consistant en gros à intégrer 20 ans préalables de données réelles comme conditions initiales du run, soit de nature à contraindre suffisamment la variabilité intrinsèque pour faire des prédictions fiables. Pour être cohérent avec mes opinions du moment, je pense pour ma part que l'on ne battra 1998 qu'en cas de El Nino d'ampleur comparable ou en cas de cycle solaire 24 très actif. Au mieux, on aura une ou deux années comparables à 1998 entre 2010 et 2020, et non pas une année sur deux.

Pour le dire autrement, si une année sur deux est plus chaude que 1998 après 2009, sans variation solaire significative, sans phase ENSO+ et NAO+ comme on en a connu entre 1980 et 2000, cela érodera significativement mon scepticisme sur l'importance de la sensibilité climatique au CO2. (Si l'on a des phases ENSO+ et NAO+ persistantes, il faudra quand même s'interroger sur la part forcée de cette configuration dominante des oscillations naturelles).

http://www.sciencemag.org/cgi/content/abst...ci;317/5839/796

Science 10 August 2007:

Vol. 317. no. 5839, pp. 796 - 799

DOI: 10.1126/science.1139540

Improved Surface Temperature Prediction for the Coming Decade from a Global Climate Model

Doug M. Smith,* Stephen Cusack, Andrew W. Colman, Chris K. Folland, Glen R. Harris, James M. Murphy

Previous climate model projections of climate change accounted for external forcing from natural and anthropogenic sources but did not attempt to predict internally generated natural variability. We present a new modeling system that predicts both internal variability and externally forced changes and hence forecasts surface temperature with substantially improved skill throughout a decade, both globally and in many regions. Our system predicts that internal variability will partially offset the anthropogenic global warming signal for the next few years. However, climate will continue to warm, with at least half of the years after 2009 predicted to exceed the warmest year currently on record.

Lien à poster
Partager sur d’autres sites

Si en 2014, les températures mondiales seront 0.3°C au dessus de 2004, il est automatique que la moitié des années soient plus chaudes que 1998.

Mais on ne va plus tarder pour savoir où va le RC: d'ici 1 ou 2 ans, on saura ce qu'il en est de la relative stabilisation des températures actuelles, et d'autre part, la situation de l'artique apportera des réponses aux questions posées cette année par la fonte record de la banquise: variabilité, ou disparition à court terme.

Lien à poster
Partager sur d’autres sites

(extrait de l'article)

Ils ont ensuite procédé à une simulation sur une période de dix ans (2005-2014) et ont conclu qu'à court terme le refroidissement dans une partie du Pacifique et la résistance au réchauffement de l'océan Arctique, compensaient la hausse des températures provoquée par les gaz à effet de serre.

Je trouve cette formulation bancale, et dans l'esprit, elle revient très souvent dans les commentaires, y compris ceux des météorologues et des climatologues.

Dire par exemple "c'est la faute à El Nino" pour expliquer la météo n'a pas de sens. El Nino/La Nina, la NAO, l'anticyclone des Acores, "la résistance de l'Océan Arctique", etc, ne sont pas des causes réelles, mais des phénomènes concomitants aux phénomènes météos en question (concomitants ou en léger décalage, ce qui en ferait tout l'intérêt pour les prévisions.) Même s'il peut y avoir des rétroactions.

Les vraies causes sont les variations de la composition de l'atmosphère, l'activité solaire, etc. Elles génèrent à la fois des oscillations ENSO/NAO et des cyclones, des tempêtes, des sécheresses, etc.

Mais poser sur un même plan un "refroidissement dans une partie du Pacifique" (sous-entendu: d'origine naturelle) et une "hausse des températures provoquée par les gaz à effet de serre" n'a guère de sens.

Lien à poster
Partager sur d’autres sites

Invité
Ce sujet ne peut plus recevoir de nouvelles réponses.
 Partager

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...