Aller au contenu
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

D'où proviennent les donnés qui sont prises en compte dans le calcul de la moyenne mondiale de température ?


Messages recommandés

Bonsoir,

 

Je me pose cette question depuis un certain temps à savoir à partir de quelles données la moyenne mondiale de température est réalisée ? 

S'agit il de données de sol (et quelle répartition) de données satellitaires, des bouées ? 

En effet c'est assez obscure du côté des organismes la méthode de calcul ou les données prises en compte. 

 

Ensuite concernant les stations au sol, quelle est la qualité des données prises en compte ? En effet on peut se demander si les stations météo sont toutes aux normes (la réponse est bien sur non mais quelle est la répartition par classe). Quand on voit que 35 % des stations françaises sont classe 4 (synoptiques uniquement) 2% en 5 et 25% en 3 on peut se demander si dans les autres pays c'est respecté. 

Aux États unis alors que le nombre de station représente 20% des stations mondiales (au nombre de 6000 environ d'après ce que j'ai trouvé) 54% des stations sont en classe 4 15% en classe 5 et 20 % en 3. Donc 70% des stations ont des relevés dont l'incertitude est très élevée et se dégrade de plus en plus (la principale raison étant les sources de chaleur les stations étant placées proches de climatiseurs au beau milieu de la route entre 2 buildings alors qu'il y a 100 ans ce n'était sûrement pas pareil. Ces stations nombreuses accusent une hausse de 3/4 degrés en 100 ans tandis que les rurales bien positionnées n'ont pas de réelle augmentation en 100 ans tout au plus quelques dixièmes. 

 

Existe il une banque de metadonnees sur la même classification pour tout le monde réalisée scrupuleusement dans toutes les stations mondiales ? En effet ce serait un minimum d'informations sur les données utilisées. Et surtout de les rendre publiques. 

 

D'autre part les changements d'environnement de lieu l'urbanisation le changement de matériel. Comment s'y retrouver dans un tel amas de données qui probablement n'ont pas été inscrites sir tous les postes c'est impossible. Le nombre et la réparation de stations ne sont pas les mêmes au cours du temps.

 

Je n'ai pas trouvé de sujet sur le forum bizarre car ce sont des questions essentielles. A toute mesure est associée une incertitude c'est la base de la science. 

 

Merci par avance bonne soirée

Lien à poster
Partager sur d’autres sites

  • Responsable Technique

Ça dépend des organismes qui produisent ces sets de données, les méthodes diffèrent. À ma connaissance, il n'y a pas de normalisation à ce sujet là et chaque organise fait un peu à sa sauce...

Par exemple, pour le GHCN de la NOAA en pièce jointe.

lawrimore2011.pdf

Lien à poster
Partager sur d’autres sites

Merci bien même si c'est en anglais c'est intéressant. On voit bien qu'il y a énormément de stations aux États unis ! C'est très très inégal sur la surface de la terre. J'ai l'impression  que les usa sont un peu chauvins en mettant toutes leurs stations (dont une grande partie pourries) dans le calcul et le reste ensuite. 

 

C'est étonnant de voir le nombre de stations baisser à l'heure du numérique ou on a plus besoin de gens qui vint relever on peut mettre des stations partout ! Mais ça baisse quand même. C'est dommage. 

 

Donc dans ce cas qu'est ce qu'ils font ? Ils extrapolent des données absentes ? Ou enlèvent les stations plus présentes ? 

Lien à poster
Partager sur d’autres sites

  • Responsable Technique

Il y a 13 heures, adri34 a dit :

Merci bien même si c'est en anglais c'est intéressant. On voit bien qu'il y a énormément de stations aux États unis ! C'est très très inégal sur la surface de la terre. J'ai l'impression  que les usa sont un peu chauvins en mettant toutes leurs stations (dont une grande partie pourries) dans le calcul et le reste ensuite. 

 

C'est étonnant de voir le nombre de stations baisser à l'heure du numérique ou on a plus besoin de gens qui vint relever on peut mettre des stations partout ! Mais ça baisse quand même. C'est dommage. 

 

Donc dans ce cas qu'est ce qu'ils font ? Ils extrapolent des données absentes ? Ou enlèvent les stations plus présentes ? 

 

Ben, la NOAA a tendance à affiner le maillage sur son territoire, et les organismes européens font probablement de même sur leurs territoires ! Malheureusement, il y a peu d'initiatives plus "globales", mais avec les démarches "Open Data" en cours, ça s'améliorera probablement dans le futur.

Dans le cas du GHCN, une station qui ne transmet plus est interpolée (géographiquement), je ne pense pas que les techniques d'extrapolation (temporelle) soient utilisées pour ce genre de cas.

Lien à poster
Partager sur d’autres sites

Ok ça à l'air comme tu dis chacun à sa sauce. Ils prennent les données qu'ils veulent et hop dans la machine.

 

Mais quand à la qualité des données rentrées on ne sait absolument rien ?

Lien à poster
Partager sur d’autres sites

Sur un autre ton je te prie !

 

Tes deux documents n'apportent presque rien, ils racontent vaguement ce qu'ils font mais finalement on n'en sait pas plus. Comment à partir de stations différentes dans des lieux différents ils arrivent à donne rune évolution précise à 0.1 près. C'est difficilement imaginable.

 

Fred a dit que les données sont interpolées spatialement, mais ça mène à des erreurs une station ne représente pas forcément une grande surface (encore moins si elle est mal placée) susceptible de remplacer une autre station. Si en 1900 il y avait 1000 stations et qu'ensuite il y en avait 5000 en 2000 par exemple, comment remplacer les 4000 stations manquantes en 1900 pour comparer à 2000 ? Et encore si les stations sont les mêmes ce qui est très rare. Le matériel est aussi différent, les emplacement pareil et je doute qu'il y ait beaucoup de métadonnées à cette époque. De plus beaucoup de stations ont aussi subie la croissance des habitations et de la végétation autour se dégradant au fur et à mesure les exemples sont nombreux en France.

Dans ce flot d'incertitudes et d'inconnues concevoir une climatologie précise est fort compliqué.

 

Ce que je cherche ce sont des métadonnées précises (ce qu'il n'y a pas même en France ou du moins pas publiques peut être, car on en a depuis 1999 uniquement avec Météo France) des études montrant l'évolution dans le monde entier des stations (c'est assez utopique je le conçois, pas sûr que ce genre de données existe réellement et ce serait un problème)

Lien à poster
Partager sur d’autres sites

  • Responsable Technique

Il y a 3 heures, adri34 a dit :

Ok ça à l'air comme tu dis chacun à sa sauce. Ils prennent les données qu'ils veulent et hop dans la machine.

 

Mais quand à la qualité des données rentrées on ne sait absolument rien ?

 

Il y a des contrôles qualité effectués, c'est détaillé dans l'article que j'ai posté (dans les références il y a des articles qui en parlent plus en détails).

 

il y a 58 minutes, adri34 a dit :

Sur un autre ton je te prie !

 

Tes deux documents n'apportent presque rien, ils racontent vaguement ce qu'ils font mais finalement on n'en sait pas plus. Comment à partir de stations différentes dans des lieux différents ils arrivent à donne rune évolution précise à 0.1 près. C'est difficilement imaginable.

 

Fred a dit que les données sont interpolées spatialement, mais ça mène à des erreurs une station ne représente pas forcément une grande surface (encore moins si elle est mal placée) susceptible de remplacer une autre station. Si en 1900 il y avait 1000 stations et qu'ensuite il y en avait 5000 en 2000 par exemple, comment remplacer les 4000 stations manquantes en 1900 pour comparer à 2000 ? Et encore si les stations sont les mêmes ce qui est très rare. Le matériel est aussi différent, les emplacement pareil et je doute qu'il y ait beaucoup de métadonnées à cette époque. De plus beaucoup de stations ont aussi subie la croissance des habitations et de la végétation autour se dégradant au fur et à mesure les exemples sont nombreux en France.

Dans ce flot d'incertitudes et d'inconnues concevoir une climatologie précise est fort compliqué.

 

Ce que je cherche ce sont des métadonnées précises (ce qu'il n'y a pas même en France ou du moins pas publiques peut être, car on en a depuis 1999 uniquement avec Météo France) des études montrant l'évolution dans le monde entier des stations (c'est assez utopique je le conçois, pas sûr que ce genre de données existe réellement et ce serait un problème)

 

Attention, quand je dis "interpolation spatiale", c'est de l'interpolation "intelligente", pas un simple truc linéaire. Certes donc, une station en bas d'une montagne ne représentera pas le climat du haut, mais avec une connaissance de certains facteurs on arrive à retrouver des résultats intéressants (sur le même principe que l'analyse faite par un modèle météo à H+0h par exemple, ou des méthodes statistiques plus "simples").

 

Pour les problèmes dont tu parles (stations moins bien entretenues, évolution de l'environnement,...), c'est un problème compliqué mais très probablement pris en compte dans le (difficile!) travail d'harmonisation des séries de données climatologiques, qui est fait en amont.

Lien à poster
Partager sur d’autres sites

Il y a 5 heures, adri34 a dit :

...

 

Bonjour,

Les données prises en compte sont les observations au sol et à distance du sol et de la basse atmosphère.

Il n'est pas du tout facile de combiner toutes ces observations, mais les groupes qui ont travaillé chacun de leur côté aboutissent aux mêmes résultats, ce qui est une preuve de fiabilité.

Néanmoins, on parle de fiabilité sur la partie principale du signal (forme des oscillations et tendance de fond).

La partie secondaire a des incertitudes. Elle est peu importante pour l'approche à long terme et les discussions politiques, mais elle explique que différentes sources donnent différentes courbes.

Lien à poster
Partager sur d’autres sites

Les observations (stations météo) climatiques d'Europe sont disponibles ici :

http://eca.knmi.nl/

 

Exemple : Montpellier

http://www.ecad.eu/utils/showindices.php?nq6otqo5atv0hi4nrgahtmsq06

Le diagnostic est rouge, ce qui veut dire qu'il faut des études complémentaires pour savoir si la série est fiable ou pas.

 

Lorsque le diagnostic est vert, on aboutit à des cartes comme celles-là

http://www.ecad.eu/utils/mapserver/trend.php?indexcat=**&indexid=TG&periodidselect=1951-2015&seasonid=0&minx=-2516666.6666667&miny=-6600000&maxx=4416666.6666667&maxy=-1400000&MapSize=560%2C420&imagewidth=560&imageheight=420&CMD=ZOOM_IN&CMD=ZOOM_IN#bottom

Lien à poster
Partager sur d’autres sites

Merci cotissois.

Je ne suis pas d'accord avec toi sur le fait que ça ne touche pas la courbe d'évolution. Bien sur au contraire des mauvaises données (très souvent tirant vers le chaud) entraîne une courbe fausse. Les bonnes données sur une longue période sont rares. Il faut pas qu'elles aient de trous de changement d'environnement de lieu de matériel qui causerait une rupture. 

 

Dans le lien que tu donnes pour montpellier j'obtiens ça (photo pièce jointe). Est ce bien ce qu'il faut obtenir ? Donc il semblerait que les données avant guerre soient douteuses. Pourtant j'ai de bonnes données relevées dans un stevenson depuis 1914. De 1890 à 1913 ok les données sont pourries (je dispose de 3 séries de période chacune différente se recoupant dans la majorité des cas).

Ensuite c'est gris alors qu'il y a bien des données. Donc je ne comprends pas.

 

Pour répondre à Fred : ok pour l'interpolation spatiale mais il est quasi impossible d'homogénéiser certaines séries qui ne disposent que d'un point de relevé et pas plusieurs séries de comparaison. Il sera alors difficile de différencier augmentation naturelle et réelle rupture. Et donc à partir de cette série il faut interpoler d'autres séries absentes à une époque. 

 

 

Screenshot_2016-06-25-08-03-50.thumb.png.6db03898e13fb14ba831650d37223e23.png

Lien à poster
Partager sur d’autres sites

Différentes sources donnent différentes courbes à cause des incertitudes sur la partie secondaire du signal.

Pour ECA&D, le lien direct ne tient pas la durée. Mais il suffit de remonter à http://www.ecad.eu/indicesextremes/customquerytimeseriesplots.php

et ensuite choisir ce que l'on veut.

Les données de Montpellier ne commencent qu'à 1951 dans cette base.

Une série douteuse veut dire qu'elle n'a pas passé le test. Les cartes ne présentent que les séries qui ont passé le texte.

 

Ce n'est pas un site qui calcule la température globale mais :

- les données ne sont pas cachées

- c'est un exemple comme quoi on n'ingère pas n'importe quelle série si on cherche à faire une synthèse réaliste.

Lien à poster
Partager sur d’autres sites

Montpellier en 1951 c'est bizarre Fréjorgues commence en 1946. Et une station à Montpellier même est présente sans discontinuité depuis 1873 au même endroit , bien sur le lieu s'est métamorphosé ^^

 

Merci pour le lien

Lien à poster
Partager sur d’autres sites

Voici un site regroupant la classification des stations américaines qui représentent 20% des stations mondiales dans le calcul de la température mondiale. On se rend compte que c'est un mauvais réseau encore plus que le réseau français. 

 

http://www.surfacestations.org/

 

En résumé : 

 

 

Screenshot_2016-06-28-21-01-17.thumb.png.4bbbc8d45c2aab1fed0210fa38b2f85c.png

Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
 Partager

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...