Aller au contenu
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Statistiques et anomalies climatiques globales


sirius

Messages recommandés

Posté(e)
Beauvoir (Manche/Mt st Michel

Si j'ai mis cet article sans commentaire (y compris le titre litigieux) c'est parce que mon niveau ne le permet pas, mon but était justement de susciter une relecture un peu critique tant de la présentation de l'article que du fond de l'affaire par des gens rompus à ces questions, merci!

Lien à poster
Partager sur d’autres sites

  • Réponses 5k
  • Créé
  • Dernière réponse

Les plus actifs

Les plus actifs

Messages populaires

Je reviens sur ce sujet mal placé dans le national car c'est global. "Le réchauffement climatique en pause : records de chaleur mondiaux, c'est fini !" http://www.lameteo.org/index.php/news/2822

Beaucoup d'erreurs élémentaires et incroyables pour des pro dans tout ce que je viens de lire, que ce soit dans l'édito de Fred sur "Où en est le RC", https://www.lameteo.org/index.php/news/3149-ou-en

Autre vision...les dernières 12000 années..   

Images postées

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Pour les amateurs de bruit, voici un papier intéressant sur l'efficacité de l'absorption de la chaleur par l'océan et le plateau de T actuel :

http://onlinelibrary.wiley.com/doi/10.1002/grl.50541/full

A noter pour les amateurs de bruit solaire, un fait sans importance, le 30 mai dernier, Sorce a relevé la plus forte TSI sur 24h depuis sa mise en service en 2003 ( 1362,1916 W/m2).

Rcaman, tant que tu n'auras pas fait de progrès en compréhension de texte au point de confondre des analyses de l'observation avec des prévis, ça ne sert à rien de t'expliquer quoique ce soit.

On n'a pas que la tendance à partir des données annuelles comme info, pour vérifier si le réchauffement du climat a continué, on a la valeur de notre échantillon de climat en cours.

Depuis fin 98 notre échantillon de climat s'est réchauffé de 0.23° (GISS), ce n'est pas une prévis, c'est un fait que n'importe quel collégien peut vérifier en comparant la valeur de la moyenne /30 ans fin 98 à celle calculée fin 2012. Donc sur ces 14 ans, de fait on a une vitesse de réchauffement du climat de 0.23 / 14 *10 = 0.16°/déc.

Une tendance de fond nulle aurait affiché une progression nulle ( 0.00° de réchauffement +- l'incertitude) de notre échantillon de climat depuis fin 98, comme on l'a observé dans le passé quand ça été le cas et comme ce sera le cas si ça se reproduit ( par ex si le plateau devait continuer bien plus longtemps et/ou si les valeurs annuelles devenaient plus faibles)

Lien à poster
Partager sur d’autres sites

Posté(e)
Beauvoir (Manche/Mt st Michel

Je reviens à la carte des anomalies chaudes de mai 2013: le journaliste du "Monde" qui l'a publiée a reçu un courrier très intéressant dans l'optique de ce topic (à savoir comment lire et interpréter des données relatives à l'évolution du climat, et une de ses consoeurs a rebondi sur la controverse:

3434408_7_0359_temperatures-de-mai-2013-des-records-de-froid_38cd5cc26a16df977b9410b08e8e160e.pngLes cartes de températures, "une grosse arnaque" ?Post de blog

Lien à poster
Partager sur d’autres sites

"L'article publié vendredi 21 juin sur Le Monde.fr, évoquant le bilan climatique du mois de mai 2013, a suscité un certain nombre de courriers de lecteurs. Certains s'interrogent, à bon droit, sur la carte des températures établie par le National Climatic Data Center (NCDC) américain, choisie pour accompagner l'article en question. L'un des messages reçus était sobrement intitulé "la grosse arnaque des cartes de températures". Voyons en quoi consiste cette fameuse "arnaque"."

Avis perso :

Non, ne voyons pas. Il ne faut surtout pas se justifier face à des gens qui n'attendent que çà. Il faut faire comme si ils n'existaient pas. Tout ce qu'on dit peut être retenu contre nous quand on est face à des procéduriers. Alors ok c'est intéressant pour un public curieux, mais c'est fatiguant pour les autres.

Bref, dans l'histoire, ces polémiques ça arrange tout le monde : ceux qui les posent et ceux qui y répondent (les journalistes scientifiques qui ont alors du boulot), ça devient triste tout çà.

Lien à poster
Partager sur d’autres sites

Posté(e)
Malmedy ( Province de Liége ) 342m

dans le même sens et selon le NCEP et en se basant sur les moyennes 1981-2010 , le mois de Mai était plutôt en dessous des Normes au niveau Mondial avec une température Moyenne de 15°,332 C .

en conclusion ce mois de Mai n'était pas le plus chaud au moins pour ces 30 dernières années .

U4fcDGL.png

Lien à poster
Partager sur d’autres sites

en conclusion ce mois de Mai n'était pas le plus chaud au moins pour ces 30 dernières années .

La conclusion c'est surtout qu'il doit y avoir un problème dans ces réanalyses (qui ne sont pas issues à la base d'observations, mais seulement de modélisations).

Rien que pour l'exemple de la France, selon cette carte les deux tiers sud du pays afficheraient un déficit dépassant les -3.0° par rapport aux normales 1981-2010. Sauf que l'on a eu "que" -2,3° à Bourges, -2,2° à Brive, -2,7° à Agen, -1.6° à Perpignan, -2,4° au Puy en Velay, -2,6° à Montélimar, -2,4° à Bourg St Maurice ou encore -1,9° à Saint Auban, donc manifestement très loin d'anomalies dépassant les -3.0° généralisées. En regardant les données d'autres pays (j'ai regardé les USA et l'Australie), on dirait que sur cette carte les anomalies sont minorées d'environ un demi-degré quasiment partout.

Lien à poster
Partager sur d’autres sites

Posté(e)
Malmedy ( Province de Liége ) 342m

Selon Quelles moyennes ? car ici selon les moyennes Ncep 81-2010 il ya pas beaucoup de différence entre les deux cartes . pour la 1ére carte on ne peux pas zoomer ou choisir l'Europe pour y voir de prés mais il me semble qu'il ya du bleu dans le Vert ( anomalies au dessus de -2°C )

1ctan1.gif

Edit : j'ai pas encore vérifier mais je crois que ces données se basent sur les modélisations ( 4 fois par jour ) wink.png

LIEN : http://cfs.ncep.noaa.gov/cfsr/

Lien à poster
Partager sur d’autres sites

Selon Quelles moyennes ? car ici selon les moyennes Ncep 81-2010 il ya pas beaucoup de différence entre les deux cartes

C'est bien marqué sur la première carte que tu as posté : 1981 - 2010 Climatology.

Or, je maintiens que les anomalies négatives sur cette carte sont exagérées ; si tu zoomes sur la France pour exemple :

[align=center]francemai.png[/align]

Sur cette carte quasiment toutes les régions au sud d'une ligne Vendée - Vosges sont colorées en vert, ce qui selon la légende indique des anomalies inférieures à -3° par rapport à la moyenne 1981-2010. Or, on est loin d'afficher de telles valeurs sur les deux tiers de notre pays, ce qui implique que les anomalies présentées sur cette carte sont erronées.

D'ailleurs sur la seconde carte que tu as postée et qui elle est bien réalisée à partir d'observations et non de modélisations, on a bien une zone correspondant à des anomalies de -3° mais limitée à la seule région Midi-Pyrénées (ce qui la est juste, on a -3,2° à Millau et -3,1° à Tarbes).

Entre les deux tiers de la France à -3.0° et seulement Midi-Pyrénées, la différence est quand même importante...

Lien à poster
Partager sur d’autres sites

Posté(e)
Nord du Gard - Saint-Ambroix - Alt: 151 m

En fait, j'ai tout lu, et le plateau des 15 dernières années commence à ce faire sentir lorsqu'on prend en reference les 30 dernières années .... c'est logique, et si ça continu encore 15 ans, les couleurs rosées vont devenir bien rares et les bleutées fleurir... c'est embetant.

Le mieux c'est de dire la normale climatique c'est la période 1950-1980 comme ça il y aura plein de rouge et rosé foncé sur la carte ...

Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Que nous montrent nos calculs de collégiens (qu' Ardèche07 pourtant bien informé, refuse toujours de réaliser, préférant son pifomètre légendaire ) :

ano5mensetatmoy052013.png

Et bien rien de nouveau, la moyenne mensuelle des 5 séries de données n'est pas passée sous la dernière moyenne/30 ans, notre échantillon de climat en cours (à jour chaque mois, un mois avant l'anomalie mensuelle concernée, donc autrement plus à jour que sur la base 1981-2010 déjà dépassée, vu qu'elle s'est réchauffée depuis, y compris avec l'anomalie de mai 2013), après janvier 2012 et bien plus rarement depuis janvier 99 qu'entre 75 à fin 1998, ou personne ne parlait de stagnation pour un moindre réchauffement du climat (pas de façon significative, c'est le même):

ano5mensetatmoy121998.png

Pour comparer avec la période de 14 ans et 5 mois avec une stabilité réelle du climat après le changement significatif de tendance pour une réelle stabilité de fond en tendance, voilà ce que ça donne :

ano5mensetatmoy466005.png

C'est quand même autre chose que ce soit du nb et de l'importance d'anomalies mensuelles sous la courbe rouge, ou en chiffres !

La carte des centiles de la NOAA, n'a rien à voir avec une carte d'anomalies sur une référence comme 1951-1980. C'est le genre de carte que je demande depuis toujours, équivalente aux cartes de nb d'écart-type , en mieux avec les centiles, vu qu'on n'a pas à se préoccuper de la normalité de la distribution, on est certain de mettre en évidence les véritables anormalités chaudes ou froides pour le lieu donné.

Ca n'a pas de sens (par rapport à l'anormalité) de coller une même couleur pour -3° d'anomalie en pleine mer au large d'Ouessant et -3° à Strasbourg, vu que c'est bien plus difficile (à cause de la variabilité différente) et donc moins probable d'observer -3° d'anomalie au large d'Ouessant .

Edit : Voici la liste et la classification des dernières anomalies.

classeano5.png

La classification : http://meteo.besse83.free.fr/imfix/echeldistri5anoglob.png

Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

dans le même sens et selon le NCEP et en se basant sur les moyennes 1981-2010 , le mois de Mai était plutôt en dessous des Normes au niveau Mondial avec une température Moyenne de 15°,332 C .

en conclusion ce mois de Mai n'était pas le plus chaud au moins pour ces 30 dernières années .

NCEP c'est plutôt ça et à première vue c'est la 7 ème plus chaude :

http://www.esrl.noaa.gov/psd/cgi-bin/data/timeseries/timeseries.pl?ntype=1&var=Air+Temperature&level=2000&lat1=90&lat2=-90&lon1=-180&lon2=180&iseas=1&mon1=4&mon2=4&iarea=1&typeout=2&Submit=Create+Timeseries

(En regardant de près 0.28° d'anomalie / 1981-2010)

http://www.esrl.noaa.gov/psd/cgi-bin/data/timeseries/timeseries.pl?ntype=1&var=Air+Temperature&level=2000&lat1=90&lat2=-90&lon1=-180&lon2=180&iseas=1&mon1=4&mon2=4&iarea=1&typeout=1&Submit=Create+Timeseries

Weatherbell models même avec des données NCEP CFS, il faut voir comment elles sont brassées avec J. Bastardi et J. D'Aleo dans l'équipe...

Edit du 30/06 :

J'ai modifié dans le message précédent le tableau en ajoutant la série NCEP et en corrigeant un bug mineur.

Les classes de l'échelle pour le tableau sont déterminées avec les 360 anomalies mensuelles des 30 dernières années. Dans ce cas ça sert à mettre en évidence un éventuel changement (une stagnation par ex, ça se verrait avec pas mal de valeurs bleues aussi fréquentes et d'intensité aussi marquée que les valeurs de couleur jaune/orange/rose pour compenser et donc pour éviter que l'échantillon de climat en cours continue de se réchauffer comme il le fait actuellement)

Si on utilisait toutes les anomalies mensuelles depuis 1880 pour la même échelle, ce serait pour mettre en évidence le RC et ça donne ça :

classeano6tous.png

Lien à poster
Partager sur d’autres sites

  • 2 weeks later...
Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Je reviens sur les problèmes de stats concernant la prévis saisonnière, suite à l'édito de Frédéric Decker qui en contient probablement encore en plein mea culpa qui aurait dû concerner surtout ce point essentiel: Ne pas faire dire aux stats ce qu'elles ne disent pas en prévis saisonnière, plutôt que sur les erreurs de prévis saisonnières tout à fait normales avec les possibilités limitées des modèles et les connaissances actuelles dans ce domaine.

Il n'y a que ceux qui ne font rien, qui ne se trompent jamais.

(Edito sur le mea culpa, chercher dans les archives quand il ne sera plus en direct )

http://www.lameteo.org/index.php/l-edito

Le problème en prévis saisonnière médiatique ou commerciale (hors organismes scientifiques comme MF ou autres) ou chez certains amateurs avertis, c'est qu'à l'inverse des publications scientifiques, de nombreux prévis ne communiquent pas assez de détails indispensables sur la méthodologie statistique suivie et sur les données utilisées, donc il n'est pas possible de vérifier objectivement les probabilités avancées (même chez Fred qui essaie d'être rigoureux et qui n'a rien à voir avec des prévis qui font du sensationnel) qui sont en contradiction avec les résultats des travaux scientifiques, car il existe une confusion courante entre les proba extraites et basées sur une loi donnée (utilisée de fait par les prévis sans même que certains s'en rendent compte et/ou sans qu'ils vérifient que les conditions d'application sont respectées) et de simples pourcentages d'observations passées qui ne peuvent indiquer des proba correctes, vu que ces anomalies ne suivent justement pas cette loi permettant de déduire des proba sans un traitement des données (pour le cas présent, quand la série concernée n'est pas stationnaire, contient une tendance, un signal sous-jacent significatif et/ou des données non assez identiquement distribuées )

Faute d'éléments indispensables, il n'est d'ailleurs même pas possible d'évaluer la véritable significativité/validité des scores de réussites ou d'échecs, communiqués par les prévis, car il est certain à vue d'oeil et de chiffres que des classes choisies ne sont pas équiprobables (donc dans ce cas comme dans le tableau sur le site de Fred, il faut des infos pour obligatoirement recaler les scores en fonction des biais de probabilités introduits (que le prévis est sensé calculer quand il choisit ce genre de classes non équiprobable et/ou de données contaminées par une tendance))

L'erreur ou la justesse de prévis n'est donc pas le fond du problème dans la prévis saisonnière de ce type en s'appuyant sur des stats. Avant même d'aborder le fond de la prévis, c'est le plus souvent la méthodologie mathématique sur laquelle on s'appuie d'un point de vue purement scolaire, qui peut l'être.

Donc pour moi le mea culpa nécessaire n'est vraiment pas le bon, au contraire, là dans l'édito, jusqu'à preuves mathématiques du contraire (c'est à dire que ces chiffres de proba sont obtenus à partir de données "détrendées" sur une durée suffisante pour extraire un signal ayant un sens réel, assez identiquement distribuées et de classes équiprobables ou avec des proba recalées pour différences d'équiproba, + test de significativité), on continue dans le même sens, vu qu'on a encore ce type de phrases et des chiffres toujours aussi symptomatiques d'une utilisation inappropriée des méthodes des statistiques mathématiques, au point que maintenant c'est carrément le ciel qui adorerait contredire les stats biggrin.png :

FD : "Je l'ai dit et répété à plusieurs reprises dans cet édito : statistiquement, après des mois "pourris" comme ceux que nous avions connus, l'été risquait d'être frais à 56%... mais chaud à 36% tout de même (rien à voir avec les -2 à -3 degrés de déficit saisonniers prévus sur trois mois - de juin à août - par une certaine chaîne dédiée aux caprices du temps) !

Et comme je vous le disais également, le ciel adore contrarier les statistiques, faisant d'ailleurs référence lors d'un précédent édito aux printemps 2007 et 2011, anormalement chauds, qui furent suivis d'étés... frais. Alors que les statistiques indiquaient un risque d'été chaud à près de 80% après de tels excédents printaniers !"

Par exemple ici dans divers tableaux de données climato de pourcentages (à ne pas confondre avec des proba !)

33toutetsoncontraire.png

réalisés avec les mêmes données MF depuis 1900, utilisées dans le sujet sur les erreurs courantes sur ce sujet précédent dans le même forum, /topic/40167-statistiques-et-anomalies-climatiques-globales/#entry2150453'>http://forums.infoclimat.fr/topic/40167-statistiques-et-anomalies-climatiques-globales/#entry2150453

Comme Fred, dans une des nombreuses possibilités de présenter le passé en pourcentages, je peux vous produire les 80% (FS = surplus faussement significatif pour les proba), mais aussi tout et son contraire (je pourrais multiplier les exemples à l'infini), qui ne peuvent donner de bonnes proba sans d'autres traitements, mais de simples pourcentages, qui là varient au grès des différentes normales choisies en présence d'une tendance et de données non assez identiquement distribuées selon les classes choisies et même quand elles semblent équiprobables avec des centiles, elles ne le sont pas à cause de la tendance de fond toujours en place dans les données.

Si on tient compte de la distribution réelle, quelque soit la période de référence choisie, si la méthodologie statistique est assez juste, on trouvera significativement les mêmes proba et non pas tout et son contraire comme dans mes tableaux (pour quelqu'un qui voudrait déduire des proba, on peut se contenter de faire de la climato avec ces obs). C'est d'ailleurs un moyen de vérifier qu'on ne s'est pas trop planté en établissant des proba (que quelque soit la normale de référence choisie pour établir des proba, on retombe significativement sur les mêmes proba).

La météo et le bruit aléatoire saisonniers qu'on cherche à prévoir, ne sont pas du tout dépendants des conventions et des choix des normales de référence, ni de la classification choisie, étant donné qui si on choisit des classes non équiprobables, on est sensé recadrer les proba, des biais introduits et donc retomber sur les proba que l'on trouvera en choisissant des classes réellement équiprobables avec des données détrendées assez correctement (c'est clair que si on détrende qu'avec les données depuis 1950, à l'échelle de la France ça fait court pour la variabilité donnée, avec les données depuis 1900 je suis déjà limite pour faire ressortir un signal de fond assez correct ).

Les stats d'anomalies de T sur la France ne peuvent donc pas être contredites par le ciel dans ce cas, étant donné que les stats des x mois précédents à l'échelle de la France ne nous donnent aucune indication significative (les pro l'ont démontré) pour le sens de l'anomalie de la saison suivante avec les données homogénéisées disponibles (ça ne veut pas dire qu'on ne pourrait pas en trouver avec 300 ans de données ou plus ou à d'autres échelles bien plus grandes que la France et/ou à d'autres niveaux d'altitude)

Revenons à mes tableaux d'obs qui montrent tout et son contraire si on voulait déduire des proba, pour voir quelques cas.

Regardez par exemple pour les 2 cas où j'ai utilisé le seuil de +- 0.5°, courant en prévis saisonnière (celui de MF par ex) pour définir une prévis d'anomalie dans la "normale", selon que la période de référence du calcul des anomalies est /1900-2012 ou /1981-2010.

Ca change tout, les printemps chauds suivis d'étés chauds se détachaient, puis avec le changement de référence ce sont les printemps froids/étés froids, alors que les données de Tm de ces saisons sont pourtant les mêmes.

Ce sont les normales de référence qui changent les pourcentages en présence de la tendance de fond non extraite, et non pas l'influence significative de la T d'une saison sur une autre qui serait présente d'un coup et qui deviendrait meilleure par le Saint-Esprit de la nouvelle normale de référence ! On voit bien le glissement d' anomalies qui se refroidissent mécaniquement en modifiant la moyenne de référence.

Par exemple les étés chauds sont passés de 37 à 11 cas (-26), les étés normaux ont diminué de 4 et les étés froids ont augmenté artificiellement de +30 , d'où un total d'étés froids de 69/113 qui peuvent donc bien plus facilement tomber sur les printemps froids disponibles.

Le summum de vouloir absolument déduire des proba fausses à partir de pourcentages sans se préoccuper des distributions réelles des données et de la présence d'une tendance dans une série chronologique, est présent dans le tableau à la fin, en utilisant les anomalies sur 81-2010 et les centiles d'après le seule distribution de la période /81-2010. Avec cette autre vision du passé parfaitement juste pour de l'obs, 84.3% de printemps froids sont suivis d' un été froid. Ce qui n'a rien à voir avec des proba utiles en prévis météo saisonnières.

J'espère que c'est clair pour tout le monde et au moins pour ceux qui réalisent des prévis saisonnières en déterminant des proba à partir d'obs sans les traiter correctement, qu'avec une normale récente limitée à 30 ans et une série de plus en plus longue au fil du temps en présence d'un signal de réchauffement, on produit artificiellement du froid à gogo dans les données, sans que ce froid virtuel influence la saison suivante et les proba utiles à la prévis météo saisonnière.

Dans ce cas là, c'est le chaud du passé qui se fait laminer mécaniquement en utilisant une normale restreinte plus récente (restreinte tout comme la période pour établir la classification), il ne reste plus que 15 étés chauds /113 et que 11 printemps chauds. La profusion d' étés froids (79) peut donc maintenant suivre facilement une majorité des 70 printemps froids (que les printemps y soient ou non pour quelque chose, on ne pourra pas le détecter sans justement supprimer ce genre de distorsions dû à une vision déséquilibrée du passé non conçue pour extraire des proba, mais faite pour observer, comparer les données par rapport à une référence, faire de la climato de base)

Donc que les prévis saisonniers concernés fassent plutôt leur mea culpa sur la confusion entretenue année après année, entre de simples pourcentages d'obs passées (extraits de données non stationnaires, pas assez identiquement distribuées et non désaisonnalisées si le cas se présente) et des proba calculées correctement par les scientifiques à partir des même obs et qu'ils trouvent non significatives et donc pas plus utiles que le hasard pour prévoir le sens de la saison suivante à l'échelle de la France (ce qui ne veut pas dire que les obs de T, d'humidité et autres ne sont pas très utiles dans les modèles dynamiques et/ou physico-statistiques de prévis saisonnière, là je parle bien des pourcentages à partir des obs passées sur la France, présentées comme proba dans les médias)

Lien à poster
Partager sur d’autres sites

Les dernieres données de la Nasa , concernant la temperature moyenne de l' air à la surface des terres et oceans , pour ce moi de juin , sont sorties .

Selon La Nasa , le mois de Juin 2013 est le second moi de juin le plus chaud , apres celui de Juin 1998 a n' avoir jamais été enregistré depuis le début des mesures .

A voir , ce qu' indiqueront , les analyses des autres organismes .

Lien à poster
Partager sur d’autres sites

Bonsoir ChristianP,

Merci pour vos dernières interventions sur les statistiques très intéressantes. J'ai cependant quelques questions.

Vous avez dit que vous avez utilisé les données de 30 stations de 1900 jusqu'à aujourd'hui. Où est-il possible de retrouver ces données ? (ne pas le prendre de façon suspicieuse mais je ne savais pas qu'on pouvait revenir jusqu'en 1900 dans 30 stations).

Vous évoquez à plusieurs reprises les "centiles" mais de quoi s'agit-il blushing.gif ?

Comment jugez-vous qu'une probabilité est non significative ? Par quels calculs ? (de même, ne pas prendre de façon suspicieuse).

Même si j'ai bien compris qu'il ne fallait pas faire la confusion entre observations passées et probabilités, peut-on assimiler ces deux "notions" si le nombre d'échantillons devient très important (tend vers "l'infini" (à définir)) ?

Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Salut Thomas,

Pour les données MF utilisées, je l'ai pourtant indiqué dans le message principal récent sur ce sujet et dans le dernier j'ai communiqué encore le lien vers lui où on pouvait lire que j'avais récupéré la majorité des anomalies à partir des pixels des graphes de MF (ces graphes saisonniers du panel MF /1900-2010 et les données depuis, sont toujours disponibles dans certains bilans saisonniers de MF sur le site MF ou ailleurs sur le Net)

1 centile = 1% de la population donnée.

Pour l'anomalie de T par ex, avec le 1 er centile on a donc la limite des 1% des valeurs les plus basses et pour le dernier centile c'est la limite des 1% de valeurs les plus élevées. La médiane = 50 centiles, valeur centrale qui ne correspondra justement pas toujours à la moyenne. Tu as la fonction "centile" dans Excel pour regarder ça de près concrètement avec des données.

Quand je parle de proba non significatives à tester, c'est en fait du nb de cas ou de pourcentages, une fois les données traitées (série rendue stationnaire, classes équiprobables à l'aide des centiles quand les données ne sont pas assez bien distribuées), c'est donc quand le pourcentage d'un tableau correspond assez bien à une proba (la proba gardera une incertitude, vu qu'elle dépend de la qualité de l'identification du signal de fond qu'on doit retirer, c'est la principale incertitude. Avec les données depuis 1950, ce serait trop juste à l'échelle de la France, c'est encore limite avec les données depuis 1900)

Pour tester la significativité de ce comptage de moutons, j'ai utilisé R (voir test binomial "exact" à partir du nombre de cas, ou test du Chi2 à partir des pourcentages)

http://www.info.univ-angers.fr/~gh/tuteurs/r_pour_les_statophobes.pdf

mais comme indiqué ce n'est pas nécessaire de le vérifier, car le fait que la corrélation entre la T du printemps et celle de l'été n'est pas significative, rend inutile cette compta, c'était juste pour montrer la démarche au cas où des personnes s'embarquaient dans le comptage de moutons pour d'autres occasions où c'est utile.

Avant de traiter les données, ça n'a pas de sens de tester, car les conditions mathématiques d'applications ne sont pas respectées, les résultats des tests sont de fait biaisés.

On pourrait récolter des échantillons à l'infini, si une tendance est présente, si les données ne respectent pas assez la loi sur laquelle on s'appuie de fait, les pourcentages visibles sans traitement, sont pipés par la tendance et/ou par les déséquilibres de la distribution des données.

Après traitement, dans ce cas simple seulement, les anomalies de T triées en 2 ou 3 classes, ce n'est pas un problème d'échantillons, vu que le nb de cas théoriques pour chaque classe dépasse 30 cas / classe (pour les 3 classes équiprobables et plus de 55 échantillons/classe pour 2 seules classes) et qu'on est loin de la significativité.

Pour la T seule en 3 classes, la non significativité peut venir d'un problème de nb d'échantillons, si on utilisait que les données à partir de 1950 comme on le voit souvent (mais bon on sait que c'est peu probable, vu qu'on dispose des données depuis 1900)

Par contre on peut très bien ne pas observer de significativité, sans savoir si c'est par manque d'échantillons ou à cause de la réalité malgré les données depuis 1900, si on multiplie les conditions à remplir et donc le nombre de classes qui vont diluer le nb de cas théorique dans une classe.

Par exemple si on utilisait l'anomalie de T et l'anomalie de RR sur la France (printemps froid et sec, froid et pluvieux, froid et RR normales, ...), pour une saison au lieu de 3 classes, on se retrouve avec 9 classes ! Donc trop peu d'échantillons disponibles pour chaque classe et dans ce cas on aura tendance à récupérer plus facilement de gros pourcentages sans aucun sens (même après traitement des données pour extraire des proba)

Mathématiquement on verra donc que ce n'est pas significatif, mais en fait la puissance du test est faible, on ne pourrait pas savoir si c'est à cause du manque d'échantillons ou de la réalité, ça laisserait donc un espoir que la significativité ressorte avec plus de données.

Mais l'espoir est faible, vu que les spécialistes ont déjà déterminé que les RR du printemps à l'échelle de la France, ne jouent significativement que sur l'anomalie de T du mois suivant et pas sur celle de la saison suivante.

Ca se verrait déjà avec les RR seules si c'était le cas, vu l'insignifiance de l'influence de la T seule sur la saison suivante. Justement si on avait observé une significativité avec les RR, la démarche suivante en stats, c'est de chercher le poids réel des RR seules en étudiant des corrélations partielles à l 'aide d'autres variables de contrôles (comme la T) qui peuvent avoir une influence, pour vérifier si ces autres paramètres dopent la significativité des RR.

Là vu que l'influence des RR à l'échelle de la France n'est pas significative pour la saison suivante, c'est inutile (même s'il y avait dopage par d'autres paramètres comme la T, le fait est que les RR ne sont pas significatives, malgré la présence d'un éventuel dopage par la T et tout ce que vous voulez)

Il faut bien voir que la France c'est très petit et donc les paramètres observés chez nous, dépendent beaucoup de ce qui naît et de ce qu'on observe hors de France et à d'autres altitudes (il faudrait vraiment que la situation synoptique saisonnière de l'Europe de l'Ouest se décide le plus souvent principalement à cause des paramètres observés sur la France pour que ces paramètres sur cette petite échelle aient une influence significative sur la saison suivante. Il faudrait que ce soit une zone déterminante pour la prévis saisonnière, un peu comme il existe des zones assez restreintes qui sont déterminantes et où il est plus intéressant de placer des capteurs pour mieux prévoir les tempêtes. Donc c'est aux passionnés de prévis saisonnières, de chercher ces zones + efficaces pour prévoir les tendances saisonnières sur la France)

Lien à poster
Partager sur d’autres sites

Salut Thomas,

Pour les données MF utilisées, je l'ai pourtant indiqué dans le message principal récent sur ce sujet et dans le dernier j'ai communiqué encore le lien vers lui où on pouvait lire que j'avais récupéré la majorité des anomalies à partir des pixels des graphes de MF (ces graphes saisonniers du panel MF /1900-2010 et les données depuis, sont toujours disponibles dans certains bilans saisonniers de MF sur le site MF ou ailleurs sur le Net)

1 centile = 1% de la population donnée.

Pour l'anomalie de T par ex, avec le 1 er centile on a donc la limite des 1% des valeurs les plus basses et pour le dernier centile c'est la limite des 1% de valeurs les plus élevées. La médiane = 50 centiles, valeur centrale qui ne correspondra justement pas toujours à la moyenne. Tu as la fonction "centile" dans Excel pour regarder ça de près concrètement avec des données.

Quand je parle de proba non significatives à tester, c'est en fait du nb de cas ou de pourcentages, une fois les données traitées (série rendue stationnaire, classes équiprobables à l'aide des centiles quand les données ne sont pas assez bien distribuées), c'est donc quand le pourcentage d'un tableau correspond assez bien à une proba (la proba gardera une incertitude, vu qu'elle dépend de la qualité de l'identification du signal de fond qu'on doit retirer, c'est la principale incertitude. Avec les données depuis 1950, ce serait trop juste à l'échelle de la France, c'est encore limite avec les données depuis 1900)

Pour tester la significativité de ce comptage de moutons, j'ai utilisé R (voir test binomial "exact" à partir du nombre de cas, ou test du Chi2 à partir des pourcentages)

http://www.info.univ-angers.fr/~gh/tuteurs/r_pour_les_statophobes.pdf

mais comme indiqué ce n'est pas nécessaire de le vérifier, car le fait que la corrélation entre la T du printemps et celle de l'été n'est pas significative, rend inutile cette compta, c'était juste pour montrer la démarche au cas où des personnes s'embarquaient dans le comptage de moutons pour d'autres occasions où c'est utile.

Avant de traiter les données, ça n'a pas de sens de tester, car les conditions mathématiques d'applications ne sont pas respectées, les résultats des tests sont de fait biaisés.

On pourrait récolter des échantillons à l'infini, si une tendance est présente, si les données ne respectent pas assez la loi sur laquelle on s'appuie de fait, les pourcentages visibles sans traitement, sont pipés par la tendance et/ou par les déséquilibres de la distribution des données.

Après traitement, dans ce cas simple seulement, les anomalies de T triées en 2 ou 3 classes, ce n'est pas un problème d'échantillons, vu que le nb de cas théoriques pour chaque classe dépasse 30 cas / classe (pour les 3 classes équiprobables et plus de 55 échantillons/classe pour 2 seules classes) et qu'on est loin de la significativité.

Pour la T seule en 3 classes, la non significativité peut venir d'un problème de nb d'échantillons, si on utilisait que les données à partir de 1950 comme on le voit souvent (mais bon on sait que c'est peu probable, vu qu'on dispose des données depuis 1900)

Par contre on peut très bien ne pas observer de significativité, sans savoir si c'est par manque d'échantillons ou à cause de la réalité malgré les données depuis 1900, si on multiplie les conditions à remplir et donc le nombre de classes qui vont diluer le nb de cas théorique dans une classe.

Par exemple si on utilisait l'anomalie de T et l'anomalie de RR sur la France (printemps froid et sec, froid et pluvieux, froid et RR normales, ...), pour une saison au lieu de 3 classes, on se retrouve avec 9 classes ! Donc trop peu d'échantillons disponibles pour chaque classe et dans ce cas on aura tendance à récupérer plus facilement de gros pourcentages sans aucun sens (même après traitement des données pour extraire des proba)

Mathématiquement on verra donc que ce n'est pas significatif, mais en fait la puissance du test est faible, on ne pourrait pas savoir si c'est à cause du manque d'échantillons ou de la réalité, ça laisserait donc un espoir que la significativité ressorte avec plus de données.

Mais l'espoir est faible, vu que les spécialistes ont déjà déterminé que les RR du printemps à l'échelle de la France, ne jouent significativement que sur l'anomalie de T du mois suivant et pas sur celle de la saison suivante.

Ca se verrait déjà avec les RR seules si c'était le cas, vu l'insignifiance de l'influence de la T seule sur la saison suivante. Justement si on avait observé une significativité avec les RR, la démarche suivante en stats, c'est de chercher le poids réel des RR seules en étudiant des corrélations partielles à l 'aide d'autres variables de contrôles (comme la T) qui peuvent avoir une influence, pour vérifier si ces autres paramètres dopent la significativité des RR.

Là vu que l'influence des RR à l'échelle de la France n'est pas significative pour la saison suivante, c'est inutile (même s'il y avait dopage par d'autres paramètres comme la T, le fait est que les RR ne sont pas significatives, malgré la présence d'un éventuel dopage par la T et tout ce que vous voulez)

Il faut bien voir que la France c'est très petit et donc les paramètres observés chez nous, dépendent beaucoup de ce qui naît et de ce qu'on observe hors de France et à d'autres altitudes (il faudrait vraiment que la situation synoptique saisonnière de l'Europe de l'Ouest se décide le plus souvent principalement à cause des paramètres observés sur la France pour que ces paramètres sur cette petite échelle aient une influence significative sur la saison suivante. Il faudrait que ce soit une zone déterminante pour la prévis saisonnière, un peu comme il existe des zones assez restreintes qui sont déterminantes et où il est plus intéressant de placer des capteurs pour mieux prévoir les tempêtes. Donc c'est aux passionnés de prévis saisonnières, de chercher ces zones + efficaces pour prévoir les tendances saisonnières sur la France)

Merci Christian, c'est une explication vraiment complète et claire default_smile.png/emoticons/smile@2x.png 2x" width="20" height="20"> du coup je n'ai même plus de questions !
Lien à poster
Partager sur d’autres sites

Les derniers chiffres de la Noaa , au sujet de la temperature moyenne de l' air global en surface , pour Juin dernier ,sont sorties . Selon la Noaa , le moi de Juin 2013 se place , en 5 eme position des mois de Juin les plus chauds jamais observé depuis le début des Mesures . Ce qui va donc , aussi , dans le sens du Giss . Ainsi ,les anomalies des mois de Mai et Juin dernier signent , peut etre , l' amorce d' un nouveau coup de chaud , ceci alors que l' indicateur des conditions de l' enso sont à zero .

Lien à poster
Partager sur d’autres sites

Les derniers chiffres de la Noaa , au sujet de la temperature moyenne de l' air global en surface , pour Juin dernier ,sont sorties . Selon la Noaa , le moi de Juin 2013 se place , en 5 eme position des mois de Juin les plus chauds jamais observé depuis le début des Mesures . Ce qui va donc , aussi , dans le sens du Giss . Ainsi ,les anomalies des mois de Mai et Juin dernier signent , peut etre , l' amorce d' un nouveau coup de chaud , ceci alors que l' indicateur des conditions de l' enso sont à zero .

Les conditions ENSO sont officiellement neutres, mais penchent quand même bien plus dans le négatif que le positif. En zone de référence Niño 3.4, on a replongé vers une anomalie de surface de l'ordre de -0,5° après avoir approché les -0,1° fin juin, et on n'a eu en tout et pour tout qu'une seule semaine avec anomalie non négative depuis le début de l'année dans la zone. Les modèles tendent dans leur grande majorité sur la poursuite de conditions neutres, mais vu qu'ils ont été systématiquement dans les choux côté positif depuis deux ans (et qu'ils n'avaient pas vu d'ailleurs le nouveau refroidissement qui s'est opéré ce printemps) on peut se demander si une nouvelle Niña ne risque pas de se mettre en place les prochains mois. La seule chose qui peut encore mettre le doute c'est que les températures de la couche 0-300 mètres s'est fortement relevée même si la surface reste froide.

Pour le reste, pour se donner une idée générale des anomalies actuelles, on peut toujours se faire la petite comparaison habituelle entre les anomalies de températures globales et l'indice MEI (ENSO) :

[align=center]post-2200-0-86968500-1374427874_thumb.png[/align]

Bon ici j'ai lissé les valeurs sur un an afin que le rendu visuel soit correct (en pas d'un mois on ne voit rien), et ayez bien à l'idée que cela permet juste de se donner une idée générale de la situation. A priori, anomalies actuelles restant dans la lignée du réchauffement eu égard aux conditions ENSO, sans être ni particulièrement chaudes ni particulièrement fraîches.

GISSMEI.png.44cc20695e32dc5d28477ac97d95

Lien à poster
Partager sur d’autres sites

Remarque CP3 tu as peut-être il doit y avoir une amorce de coup de chaleur, quand on voit que des sceptiques comme Joe Bastardi en viennent à être obligés d'utiliser des données truquées de températures pour annoncer qu'il n'y a pas de réchauffement. La grande information du moment, c'est ainsi que l'anomalie globale des 20 premiers jours de ce mois de juillet aurait été négative (ils l'ont dans le baba, hein, les méchants réchauffistes), carte à l'appui :

[align=center]July-2013-Temperature.gif[/align]

-0,131° d'anomalie globale. Bon, cette carte n'est pas très propre, mais on distingue une petite tâche bleue sur l'est de la France, et de l'orange léger à l'ouest, assez difficile de bien y voir cependant avec cette projection qui coupe notre pays en deux (typique des sites américains qui aiment se voir au centre du monde, quitte à couper en deux l'Europe et l'Afrique, parce que ces cartes habituelles qui passent au milieu du Pacifique sans couper aucun continent c'est quand même nul - je précise que c'est de l'humour noir hein). Mais ça tombe bien, on peut faire un zoom sur l'Europe, cette carte avait déjà été présentée dans le topic de prévisions saisonnières de l'été :

[align=center]yyCPp4E.png[/align]

Le premier qui arrive à me trouver à quoi correspondent les anomalies froides sur cette période du 1er au 20 juillet vers la Haute Loire ou dans tout l'intérieur de la Provence, où comment les stations des Pays de Loire qui pointent à plus de 2° d'anomalie positive on pu rentrer dans la plage de couleurs d'anomalies comprises entre 1,0 et 1,5°, moi je veux bien lui payer un coup à boire. Et on retrouve ces biais sur tous les pays (la Pologne par exemple est en (faible) anomalie positive en réalité sur cette période, c'est vrai que sur cette carte vous l'aviez deviné du premier coup d'oeil je parie).

Alors oui, effectivement, la planète a connu un début juillet avec une anomalie globale négative, et nos sites sceptiques ont bien eu raison de sauter sur l'occasion. Il est juste bon de rappeler que pour arriver à ce résultat, il leur aura juste fallu truquer les anomalies froides (voire parfois en inventer purement et simplement, cf l'intérieur de la Provence tapant dans les -1°), et faire subir une cure amaigrissante aux anomalies chaudes.

Lien à poster
Partager sur d’autres sites

Attention toutefois, on ne peut pas comparer ces réanalyses avec les relevés des stations météorologiques. Leur but est d'offrir une image globale pour servir de conditions initiales aux modèles saisonniers de la NOAA.

Qui plus est, elles ont un biais frais sur les T2M : http://www.ecmwf.int/newsevents/meetings/annual_seminar/2012/presentations/Saha.pdf (on voit également les améliorations de cette V2 par rapport à la V1)

post-1967-0-73522500-1374942558_thumb.jpg

3.jpg.dc29db243a5baedd736ea9f5a95a1f93.j

Lien à poster
Partager sur d’autres sites

Remarque CP3 tu as peut-être il doit y avoir une amorce de coup de chaleur, quand on voit que des sceptiques comme Joe Bastardi en viennent à être obligés d'utiliser des données truquées de températures pour annoncer qu'il n'y a pas de réchauffement. La grande information du moment, c'est ainsi que l'anomalie globale des 20 premiers jours de ce mois de juillet aurait été négative (ils l'ont dans le baba, hein, les méchants réchauffistes), carte à l'appui :

[align=center]July-2013-Temperature.gif[/align]

-0,131° d'anomalie globale. Bon, cette carte n'est pas très propre, mais on distingue une petite tâche bleue sur l'est de la France, et de l'orange léger à l'ouest, assez difficile de bien y voir cependant avec cette projection qui coupe notre pays en deux (typique des sites américains qui aiment se voir au centre du monde, quitte à couper en deux l'Europe et l'Afrique, parce que ces cartes habituelles qui passent au milieu du Pacifique sans couper aucun continent c'est quand même nul - je précise que c'est de l'humour noir hein). Mais ça tombe bien, on peut faire un zoom sur l'Europe, cette carte avait déjà été présentée dans le topic de prévisions saisonnières de l'été :

[align=center]yyCPp4E.png[/align]

Le premier qui arrive à me trouver à quoi correspondent les anomalies froides sur cette période du 1er au 20 juillet vers la Haute Loire ou dans tout l'intérieur de la Provence, où comment les stations des Pays de Loire qui pointent à plus de 2° d'anomalie positive on pu rentrer dans la plage de couleurs d'anomalies comprises entre 1,0 et 1,5°, moi je veux bien lui payer un coup à boire. Et on retrouve ces biais sur tous les pays (la Pologne par exemple est en (faible) anomalie positive en réalité sur cette période, c'est vrai que sur cette carte vous l'aviez deviné du premier coup d'oeil je parie).

Alors oui, effectivement, la planète a connu un début juillet avec une anomalie globale négative, et nos sites sceptiques ont bien eu raison de sauter sur l'occasion. Il est juste bon de rappeler que pour arriver à ce résultat, il leur aura juste fallu truquer les anomalies froides (voire parfois en inventer purement et simplement, cf l'intérieur de la Provence tapant dans les -1°), et faire subir une cure amaigrissante aux anomalies chaudes.

Je comprends pas bien , le NCEP , truquerait-il ses propres relevées ? Où serait -ce la carte qui aurait été retouché après coup ?

Pour ma part , je suis assez etonné de voir toute cette carte en bleu . Je regarde régulièrement les températures sur la zone correspondant à celle representé par ce cadran , hors , pour le mois de juillet ( d' après les T 850 hp ) , il m' avait l' air plutôt chaud .

Existerait -il des cartes d' anomalies de temperature potentielle equivalente ?

Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Pour l'anomalie de la température de la carte tu n'as pas tort Treizevent ,vue l'anomalie en France et ses pays voisins sur la carte malgré qu'il a fait chaud. Mais tout ceci ne regarde que NCEP puisque ce sont eux qui font ces cartes... Quand je vois cela et bien d'autres choses encore c'est à se demander si les données climatiques sont encore correctes et voir si ce n'est pas trafiqué comme CP3 le dit aussi.

A noter que la première personne à avoir fait état de cette carte, est Momo4850 sur infoclimat : /topic/81643-tendance-ete-2013/page-33'>http://forums.infoclimat.fr/topic/81643-tendance-ete-2013/page-33 Et quand tu as réagis sur la carte à ce moment là, tu n'as pas fait allusion aux sceptiques ou aux réchauffistes.

Williams

Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...