Aller au contenu
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Statistiques et anomalies climatiques globales


sirius

Messages recommandés

Mais noooon on n'est pas mal barré.... Même avec +2 ou +6C entre 2000 et 2100 il ne s'agit que de transformation de l'environnement. Ce serait un accident géologique mais l'homme ne va pas voir le niveau des océans monter de 1 m en 2h. Juste qu'il faudrait s'adapter à des statistiques différentes. Rien que çà c'est dur (psychologiquement) mais c'est très loin de la notion de cataclysme !

Ce sera surtout le système économique aussi qui risque de prendre un coup... Déjà rien que quand on a une vague de chaleur et de sécheresse importante en Amérique ( et pas que ) ça se fait lourdement sentir sur l'économie.
Lien à poster
Partager sur d’autres sites

  • Réponses 5k
  • Créé
  • Dernière réponse

Les plus actifs

Les plus actifs

Messages populaires

Je reviens sur ce sujet mal placé dans le national car c'est global. "Le réchauffement climatique en pause : records de chaleur mondiaux, c'est fini !" http://www.lameteo.org/index.php/news/2822

Beaucoup d'erreurs élémentaires et incroyables pour des pro dans tout ce que je viens de lire, que ce soit dans l'édito de Fred sur "Où en est le RC", https://www.lameteo.org/index.php/news/3149-ou-en

Autre vision...les dernières 12000 années..   

Images postées

Ce sera surtout le système économique aussi qui risque de prendre un coup... Déjà rien que quand on a une vague de chaleur et de sécheresse importante en Amérique ( et pas que ) ça se fait lourdement sentir sur l'économie.

En effet ce serait un bouleversement climatique.

Le problème est que la Terre a déjà observer des réchauffement et des refroidissement mais celui ci risque d'être anormalement rapide ce qui pourrait nous prendre de cours.

Cependant on est moins bête qu'avant, jamais nous avons autant progressé en science que lors de ces dernières décennies.

On pourra s'adapter sans aucun doute car nous avons un potentiel incroyable que peu de personne apprécie à sa juste valeur.

Lien à poster
Partager sur d’autres sites

En effet ce serait un bouleversement climatique.

Le problème est que la Terre a déjà observer des réchauffement et des refroidissement mais celui ci risque d'être anormalement rapide ce qui pourrait nous prendre de cours.

Cependant on est moins bête qu'avant, jamais nous avons autant progressé en science que lors de ces dernières décennies.

On pourra s'adapter sans aucun doute car nous avons un potentiel incroyable que peu de personne apprécie à sa juste valeur.

Oui je suis d'accord default_wink.png/emoticons/wink@2x.png 2x" width="20" height="20"> Mais on se pose quand même des question desfois quand on voit certaines déductions et affirmations douteuse sur ce sujet ici et ailleurs ...

En effet le système économique s'est forgé dans un climat relativement stable quand on regarde les évolutions aux échelles géologiques. Actuellement la vitesse du changement actuel pête le plancher. Sur les évolutions de la température depuis plusieurs milliers d'années, lorsque l'on fait un zoom vers la fin, la courbe devient pratiquement verticale...

Il y'a fort à parier qu'on ne s'adaptera pas sans passer par des problèmes loin d'être négligeables.Et encore, quand on voit comment on réagit quand on a des problèmes locaux, ça serais étonnant de bien s'entendre pour un phénomène planétaire default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20"> Enfin après cela sort du domaine de la climatologie et par plutôt dans la politique, je vais donc m'arrêter ici.

Lien à poster
Partager sur d’autres sites

Cependant on est moins bête qu'avant, jamais nous avons autant progressé en science que lors de ces dernières décennies.

On pourra s'adapter sans aucun doute car nous avons un potentiel incroyable que peu de personne apprécie à sa juste valeur.

Ah ???

Pourquoi on n'arrive même plus à créer de la richesse, à éradiquer le chômage, à remettre la société d'aplomb...etc...pourquoi on n'arrive pas à s'adapter aux nouveaux équilibres économiques ?

Alors un bouleversement climatique....

Lien à poster
Partager sur d’autres sites

Ah ???

Pourquoi on n'arrive même plus à créer de la richesse, à éradiquer le chômage, à remettre la société d'aplomb...etc...pourquoi on n'arrive pas à s'adapter aux nouveaux équilibres économiques ?

Alors un bouleversement climatique....

Tous ces problèmes sont extrêmement facile à régler seulement ils ne veulent pas le faire tous simplement.

Je ne vais pas faire un cour de politique, il y a les puissants et les autres, nous faisons partis des autres.

Si on veut régler le problème de RC, il va falloir mettre les moyens financiers adéquat mais c'est un autre sujet.

Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Un avis récent du spécialiste K. Trenberth sur les paliers et autres :

http://thinkprogress.org/climate/2013/05/25/2061891/trenberth-global-warming-is-here-to-stay-whichever-way-you-look-at-it/

Attention Crazyfroggy, Williams se débrouille quand même bien en orthographe, vu que le français n'est pas sa langue d'origine. Il vaudrait largement mieux que son message soit juste sur le fond avec plus de fautes d'ortho, que l'inverse (que 0 faute avec un fond faux)

Si je te suit Christian tu penses que la stagnation n'a aucun lieu d'être mentionné tant que nous améliorons la moyenne trentenaire, c'est à dire que nous sommes excédentaire par rapport à la moyenne des 30 dernières année. Donc pour toi le phénomène que nous vivons depuis 15 ans n'est qu'un ralentissement dût à la variabilité climatique et que l'on a pas assez de recul pour en tirer des conclusions qui serait trop hâtive.

Mais retournons la question dans l'autre sens. Est ce que même 130 ans d'archives sont suffisant pour établir une tendance à 20/30/40 ans voir plus avec précision. Évidemment il y a des incertitudes, c'est le but des statistiques mais est ce que ceux qui calcule ces tendances limite catastrophique pour la fin du siècle du genre +1.4°c à + 6.5 °c en 90 ans en fonction du taux de CO2 prennent également en compte divers accident qu'il y a eu ces derniers siècle ( activité solaire en berne, risque d'une activité volcanique accrue, une moindre fréquence d'el nino....) qui peuvent tout autant nous concerner ces prochaines décennies.

Phoenix, ce n'est pas comme ça que j'aborde ce problème. Je n'en sais rien si c'est la variabilité qui crée ou non le palier.

Avec les méthodes stats et sans physique, même s'il y a certaines corrélations évidentes, on ne peut pas démontrer dans l'absolu que le palier est créé par la variabilité habituelle.

Les calculs stats montrent simplement que ce palier n'a rien d'étonnant et est tout à fait conforme à ce qu'on est en droit d'attendre avec la variabilité habituelle de la T annuelle globale autour d'une tendance de 0.15°C/déc, ceci avec une confiance à 95%. Ca n'a rien à voir avec ce que je pense ou non.

Les résultats sont ce qu'ils sont, mathématiquement il n'y a rien qui sort des bornes de la variabilité, même si la cause du palier n'était pas complètement la variabilité habituelle (par exemple si ce surplus de Nina est une rétroaction négative, ce ne serait pas courant, mais l'effet sera indétectable du bruit de fond, tant que ce surplus ne dépasse pas la variabilité habituelle de l'ENSO et du bruit de fond détectables avec les stats)

Il n'y a que la physique qui peut réaliser vraiment le tri entre toutes les causes réelles d'un palier ou d'autres variations, même si l'ENSO, les volcans laissent une signature statistique, il y a des incertitudes sur la façon de les traiter et de retirer leur influence le plus proprement possible, mais ça c'est du détail. L'important c'est qu'on peut vérifier objectivement si le palier est compatible ou non avec le bruit de fond global habituel + la tendance donnée (là du RC moderne), même si certains des bruits n'étaient pas identiques dans les détails.

La variabilité depuis 75 n'est pas significativement différente de celle observée pendant le RC vers 1916 à 1945 pour une même tendance de 0.15°/déc, pourtant le bruit dû aux aérosols anthropiques, aux volcans ou à l'ENSO par ex, ne sont pas exactement les mêmes, mais le fait est que le mélange de tous ces bruits donne l'apparence du "même" bruit de fond, qui laisse une signature statistique globale identique. Pour notre tendance, il masquera plus ou moins le signal de fond à certaines périodes courtes de cette façon (palier, accélération, baisse, des changements uniquement visuels, mais pas sur le fond tant qu'ils ne sont pas significatifs)

L'important à retenir, c'est qu'en analysant les valeurs annuelles avec les méthodes que je rabâche depuis des années, un changement pour une stabilité se détectera mathématiquement dans les données et quand ce sera le cas on pourra courber objectivement le signal de fond au bon endroit.

Tu peux le vérifier avec le changement significatif vers 1945 pour une réelle stagnation (J'ai déjà traité ce cas avec des graphes et calculs, qui montrent les différences évidentes avec la période actuelle. Voir certains anciens messages dans ce forum)

Les modèles climatiques de prévis dont tu parles ne sont pas statistiques, ils ne sont pas basés sur 130 ans de données, mais sur la physique. Personne ne peut prévoir un accident comme un super-volcan, un gros astéroïde ou autres, qui impacteront l'échelle climatique. Mais bon les proba pour que ça arrive pile dans ces 100 ans, même si elles ne sont pas nulles, sont autrement plus faibles que la valeur centrale des prévis. Si on raisonne sur tout ce qui peut arriver de moins probable, on ne s'en sort pas, même en restant cloîtré chez soi sans bouger, il y a un risque d'accident non nul.

Pour une panne des taches solaires, comme un Maunder, ça été simulé. L'influence sur l'évolution de fond de la T globale est pour le moment estimée peu importante par rapport au forçage des GES qui lui augmente au fil du temps, même si localement ce type de panne semble agir beaucoup plus.

Là le problème principal, c'est de parvenir à savoir avec quels délais et comment l'océan va relâcher la chaleur accumulée dans les profondeurs (pourquoi il ne la relâcherait plus de la même façon ou aussi "rapidement" qu'avant le RC).

Qu'est ce qui ressortira des débats des spécialistes à propos de divers travaux qui trouvent une sensibilité revue à la baisse ?

La tendance dont je te parle est celle linéaire du RC moderne. Ce type de tendance n'est valable que pour des périodes relativement courtes tant qu'elle ne change pas. Donc là elle n'est valide que depuis environ 1975 jusqu'au prochain changement significatif, vu que la précédente tendance linéaire avant 75 était réellement "nulle" et que l'évolution depuis 130 ans n'est pas linéaire.

La tendance linéaire n'est pas utile pour prévoir l'évolution du climat, mais elle est assez efficace pour détecter un changement significatif quand il existe et si la physique ne l'a pas détecté avant. Quand c'est le cas, un jour où l'autre les données sortent des limites de la variabilité autour de la tendance donnée, puis la moyenne/30 ans finit par atteindre un palier et cette fois c'est bien le climat qui ne se réchauffe plus ( la T/30 ans stagne ou se refroidit).

Lien à poster
Partager sur d’autres sites

Déjà pourquoi comparé des observations aux prévisions dans notre cas ? Cotissois a parlé d'une courbe d'observations, et ce qu'il a dit est cohérent quand on sait comment est fait un lissage. Et deuxièmement ton graphique vient d'un site douteux : http://www.pensee-unique.fr/

Il n'y a pas de site douteux il y a les faits, je critiquais juste les projections de la courbe Loess/38ans du message #1070 qui répliquait en quelque sorte a la courbe du message #1041

Des lignes droites dans des statistiques ça ne fait pas sérieux sur des phénomènes naturels chaotiques.

Tout le monde voit qu'il y a un "plateau" ( whistling.gif je me contredis sur la phrase précédente !) , je citerais alors la courbe de la revue "La recherche" n°472 voir la page 11 du lien suivant: http://issuu.com/larecherche/docs/feuilletage_n__472

Le constat est là il y a un plateau peut être que c'est du bruit mais ça ne colle plus avec la corrélation C02/température c'est juste cela que je faisais remarquer,

maintenant je cherche juste des explications à ce décrochage.

Le calcul loess est expliqué ici: http://www.math.wpi.edu/saspdf/stat/chap38.pdf

mais expliquez moi pourquoi 38 ans ? car comme on le voit sur le message, 38 ans est pile poil pratique pour le départ en 1974, le choix est parfait mais qu'est ce qu'il le détermine ?

Lien à poster
Partager sur d’autres sites

Le constat est là il y a un plateau peut être que c'est du bruit mais ça ne colle plus avec la corrélation C02/température c'est juste cela que je faisais remarquer,

Mais il n'y a pas que ces 2 choses dans le climat. Y'en a d'autres qui se superposent par dessus, pouvant perturbé le signal si l'on ne fait pas le ménage ( actuellement la variabilité naturelle qui a tendance à tirer vers le bas ). Lorsque l'on enlève le bruit ( inintéressant pour évaluer des tendances de fond ) la corrélation est toujours d'actualité. Voir le graphique de treize vents, on va pas réécrire un post complet alors que ça a déjà été fait plus haut.

Et puis il y'a peut aussi y'avoir des "hiatus decade" dans l'évolution de la T globale. Cela ne signifie pas que le processus de réchauffement s'arrête, l'excès d'énergie va alors en grande partie dans l'océan , plutôt que dans l'atmosphère. Le principal est que cette énergie supplémentaire liée au GES reste dans le système climatique, ce qui est le cas.

Lien à poster
Partager sur d’autres sites

j'ai une question .. mais elle est de béotien... bon j'enseigne les maths mais collège lycée et le genre de calcul qui est peut être fait là je ne l'ai jamais abordé dans mes études...

mais par contre si parle moyenne, pour que celle-ci soit un peu plus parlante, on par le aussi d'écarts type, d'étendue, de médiane, de dispersion... un écart-type resserré ne veut pas dire la même chose qu'un écart-type large...

voili, voilou... peut-on éclairer ma lanterne d'une part et m'orienter sur une lecture sur les maths qui sont utilisés là de préférence in french... bécause my english fout le camp... enfin je voudrais pas comprendre de travers surtout...

Lien à poster
Partager sur d’autres sites

Voir le graphique de treize vents, on va pas réécrire un post complet alors que ça a déjà été fait plus haut.

Exactement, 13vents er ChristianP ont suffisamment passé la période à la moulinette sans que l'on soit obligé encore de relire les mêmes interrogations..
Lien à poster
Partager sur d’autres sites

Exactement, 13vents er ChristianP ont suffisamment passé la période à la moulinette sans que l'on soit obligé encore de relire les mêmes interrogations..

Disons que 13vents aime le bleu et que moi j'aime le vert ! shifty.gif
Lien à poster
Partager sur d’autres sites

Pourquoi ne pas essayer de comprendre les bases, avant de poursuivre dans la réflexion ?

Expliquez moi alors le choix de 38 ans pour la courbe loess ?

Je plaisantais quand a sa forme quasi rectiligne, mais je n'ai pas d'explication sur le choix de 38 ans et ce départ choisi en 1974 tombe plutôt bien du coup.

Lien à poster
Partager sur d’autres sites

...
Merci pour cette réponse très intéressante qui à le mérite d'éclairer toutes les zones d'ombres.

En effet on s'en sortirait pas à prendre tous les paramètres physiques en compte en même temps que la probabilité d'une super catastrophe ou en ancitipant l'ENSO ce qui peut s'averer très compliqué.

La physique ne peut en effet pas se résumé à 130 ans et se mélanger au mathématique et au statistique qui évalue le RC depuis ce temps là.

Par contre pour l'océan tu soulèves un point intéressant.

A moins que je n'ai pas suivis le topic, les océans ont une belles capacités d'aborption du CO2, celui-ci entre donc en ligne de compte dans la corrélation entre le CO2 et le RC.

Certains article font états que l'océan pourrait contribuer à ralentir le RC. Possible ou pas ?

Lien à poster
Partager sur d’autres sites

En espérant que certain n'interviendront pas de la façon dont ils font parfois voici une info qui pourrait intéresser certain.

La vapeur d'eau stratosphérique aurait variée d'une certaine façon à 10 km d'altitudes qui montrerait que ça serrait la cause de la variation de l'évolution de la température de ces 30 dernières années suivant des sources fiables (NOAA...). Car la NOAA nous dit ici http://www.noaanews.noaa.gov/stories2010/20100128_watervapor.html qu'une baisse de 10 % de la vapeur d'eau à 10 km au-dessus de la surface de la Terre a eu un grand impact sur le réchauffement climatique, affirment des chercheurs dans une étude publiée en ligne le 28 Janvier 2010 dans la revue scientifique. Les résultats pourraient aider à expliquer pourquoi les températures de surface n'ont pas augmenté aussi rapidement au cours des dix dernières années, comme ils le faisaient dans les années 1980 et 1990. Les observations des satellites et des ballons montrent que la vapeur d'eau stratosphérique a connu des hauts et des bas ces derniers temps, augmentant dans les années 1980 et 1990, puis a baissé après 2000. Les auteurs montrent que ces changements ont eu lieu précisément dans une région d'altitude étroite de la stratosphère où cela auraient les plus grandes conséquences sur le climat.

Puis voici un autre lien ici du Laboratoire de Météorologie Dynamique (LMD) qui a des relations étroites avec le Centre Nationale d'Etudes Spatiales (CNES) : http://www.lmd.ens.fr/wavacs/Lectures/Rosenlof-3.pdf Ce lien que j'ai regardé rapidement par manque de temps semble donner des infos intéressantes qui avec ceux de la NOAA disent bien que depuis 2000 l'évolution du climat a varié et montre que si la température n'évolue plus comme lors des années 80 et 90 que ceci viendrait de la variation de la vapeur d'eau stratosphérique lors de cette dernière décennie.

Williams

Lien à poster
Partager sur d’autres sites

Certains article font états que l'océan pourrait contribuer à ralentir le RC. Possible ou pas ?

Oui, de manière ponctuelle wink.png

Il y'a des périodes ou l'océan absorbe plus le trop plein d’énergie que l'atmosphère. Cela a été appelé des "hiatus decade" d'ailleurs comme je l'avais expliqué plus haut. Mais ce n'est pas forcément mieux, quand on regarde les courbes qui montrent ce que l'océan absorbe comme sur-énergie ( pauvre faune aquatique sick.gif )... Enfin bref.

PS : Pour le lien de williams je rajouterais celui ci du CNRS, histoire d'avoir une vision plus complète :

http://www.cnrs.fr/cw/dossiers/dosclim1/biblio/pigb17/08_vapeur.htm

Lien à poster
Partager sur d’autres sites

Expliquez moi alors le choix de 38 ans pour la courbe loess ?

Je plaisantais quand a sa forme quasi rectiligne, mais je n'ai pas d'explication sur le choix de 38 ans et ce départ choisi en 1974 tombe plutôt bien du coup.

Perso, je vois une approx loess qui démarre en 1880.

Pour ce qui est du choix de la largeur de plage de lissage, prendre 38 ans pour le loess relève de la même logique que choisir 30 ans pour la moyenne mobile.

Si 30 ans ne vous gêne pas pour la moyenne mobile, parce que ça tombe rond en base 10, raisonnez en base 19, et ça tombera aussi rond pour le loess.

Ça va comme explication, ou il faut détailler ?

Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Rcaman, tant que tu n'auras pas compris et admis que pour suivre l'évolution du climat, on doit fuir le chaos, les bruits et autres influences de trop courtes échelles qui ne sortent pas des bornes du bruit de fond habituel, tu ne comprendras pas la différence fondamentale entre un graphe de l'évolution de la T au pas annuel (comme le lissage du graphe de La Recherche, de la NOAA ou autres) par rapport à un graphe de l'évolution du réchauffement moderne, comme celui avec mon lissage moyenne mobile/30 ans et Loess/38 ans.

Le Loess est justement conçu pour suivre les évolutions non linéaires. C'est bien pour cette raison qu'il montre des variations même au pas climatique (avec une tendance linéaire tu n'aurais eu qu'une seule droite depuis 1880 même quand les données ne respectent plus le modèle linéaire !), mais là où un changement est assez significatif avec un choix de lissage assez correct. Je n'y peux rien si les données autour de la dernière pente respecte encore le même modèle linéaire depuis les environs de 1975. C'est pour cette raison que ça correspond assez bien à la moyenne mobile/ 30 ans (qui affiche aussi une pente linéaire, une moyenne mobile n'est pas linéaire par définition, ce sont aussi tes données chaotiques moyennées avec la tendance de fond qui représentent le climat qui lui donnent cette pente assez linéaire !) et à la tendance linéaire depuis environ 1975, dernier changement significatif de tendance linéaire, qui représente l'évolution moyenne de tous tes chaos et bruits préférés avec la tendance de fond sur cette période.

Il est d'ailleurs conseillé dans l'utilisation d'un Loess, de choisir assez de données (25 à 50% des données, donc là plus de 33 ans) pour que le lissage ait un sens, afin d'éviter d'être contaminé par les bruits aléatoires et autres. Mais bon plus que le pourcentage, il faut surtout voir ce qu'on cherche à représenter pour le cas concerné. Comme je l'ai indiqué, si c'est de la variabilité de courte échelle, non climatique, pas de probs, mais pour chercher des corrélations avec le CO2 sur des périodes non climatiques, ca n'a aucun sens, c'est un gag au mieux, comme ça le serait aussi si on cherchait une corrélation entre la pente négative du CO2 dans la partie de l'année (partie du cycle annuel du CO2) par rapport à l'évolution de la T de la partie de l'année concernée !

Pour le choix du Loess/38 ans, il faudrait quand même lire ou relire le message concerné, je l'ai déjà expliqué. De plus j'avais donné une longue explication technique sur les lissages et les erreurs à éviter quelques années auparavant à l'aide d'un post de Tamino ( le prof de stats qui publie sur le climat).

Donc je vais radoter à nouveau. J'ai choisi 38 ans, car la dernière tendance significative la plus courte au pas annuel est sur 19 ans ( pour cette série au pas annuel) et comme un lissage Loess/19 ans affichera parfois des variations non significatives vers le milieu des 19 ans (voir le dernier graphe avec ce lissage), donc des variations sur environ 10 ans sans aucun sens pour l'évolution du climat, qui ne correspondent à aucun changement significatif, par expérience du Loess, j'ai doublé la valeur des 19 ans, pour n'afficher que des changements proches de la significativité la plus récente sur 19 ans. Je savais que ça collerait assez avec le lissage par moyenne mobile/30 ans et avec la tendance linéaire depuis 75 (75 car c'est vers cette année qu'on relève le dernier changement significatif de tendance).

Mais bon très naturellement, si je n'avais pas recherché la dernière tendance significative pour faire plaisir aux personnes qui passent leur temps à utiliser un microscope pour essayer de regarder l'espace, d'entrée j'aurais lissé plutôt sur au moins 60 ans pour suivre l'évolution du climat et non celle des variations qui ne sont pas d'échelle climatique (que ce soit du vrai bruit ou non, je veux éviter d'afficher tout ce qui ne sort pas encore des bornes de la variabilité habituelle et tout ce qui ne produit toujours pas un changement significatif au niveau climatique.)

NOAA1880_201260.png

Avec un Loess/30 ans avec les pentes actuelles ça aide à trouver par itération (afin que les droites linéaires s'articulent bien vers les zones de changements principaux mis en évidence par le Loess) les 4 points de changement significatifs. J'avais communiqué quelque part dans ce forum la méthode de Tamino. Je reposte ses graphes utiles :

gissloess30trd4.png

gissic4trd.png

Là on voit bien les changements significatifs et la période qui précède 1975 avec une véritable tendance nulle (c'est une stabilité, ce n'est pas un refroidissement car l'IC sup n'est pas passé sous 0. On voit aussi que le réchauffement précédent n'est pas significativement plus rapide que l'actuel , les IC se croisent avec les IC de la tendance actuelle)

Quand on a un changement significatif, on pourrait aussi chercher à déterminer l'équation de la courbure simple localisée et bien ajustée aux données aux alentours du point de changement et chercher le point le plus précis avec la dérivée seconde.

Ici je n'ai pas utilisé un Loess /30 ans vu que la tendance/15 ans n'est plus significative et que je ne cherche pas un point de changement, tant qu'il n'y a pas de changement significatif (Il y a maintenant le calculateur de SKS qui simplifie bien les choses à ce niveau, car il gère l'auto-corrélation dans les données, enfin il faut activer cette fonctionnalité).

Il faut bien voir que plus tu affiches des pentes et variations courtes et plus tu auras du mal à distinguer l'évolution du climat (et oui plus tu utilises ton microscope pour observer l'espace et moins tu le vois, on ne peut voir l'ensemble de 2 climats, en zoomant sur de petites échelles !) vu que ta pente a moins de chance de montrer la véritable évolution de fond, car une courte pente/variation est trop incertaine. l'IC du Loess/19 ans est large et sur 60 ans plus petit et ils se croisent (donc très probablement pas de différence dans le fond, ton palier incertain entre dans les bornes habituelles, rien de nouveau sous le soleil)

NOAA1880_20126019IC.png

Pour le suivi du réchauffement de fond de la période moderne depuis 75, on n'a pas à afficher le palier, vu que le changement sur le fond est improbable pour le moment avec une confiance à 95%. Après tu peux être irrationnel comme d'autres et ne pas raisonner sur des bases scientifiques et choisir de traverser les yeux fermés une route assez passante où les stats montrent que tu te feras écraser avec une confiance à 95% .

(Et oui certains se permettent de remettre en cause la tendance de fond de façon non scientifique et irrationnelle, c'est bien parce qu'ils n'ont aucun risque à le faire assis devant un ordi ! 95% des variations de courbes observées qui restent dans les bornes du bruit de fond, n'indiquent aucun changement significatif. Les 5% correspondent aux survivants ayant traversé la route les yeux fermés sans problèmes et donc aux 5% de cas où les courbes bruitées comme le palier, ont effectivement indiqué un réel changement, alors que ce n'était pas jugé significatif en raisonnant correctement. La science ce n 'est pas compter sur la plus faible proba de gagner au loto.

Pour suivre l'évolution du climat, qui est un état moyen, on a besoin de suivre la moyenne sur au moins 30 ans pour la T . Pour les spécialistes, c'est mieux sur 100 ans d'un point de vue physique et statistique. Dans les cours de stats de l'ENM , une série n'est pas considérée longue avec 30 échantillons, comme c'est le cas dans les cours classiques de stats, mais avec une série > 100. Pour le moment, il n'y a que la NOAA qui donne un référence à une normale climatique/100 ans, mais bon ce n'est pas encore très utile pour faire des comparaisons, car on ne dispose malheureusement pas de x séries indépendantes de 100 ans, donc faute de mieux on a des périodes de 30 ans.

Est ce pour analyser l'évolution de la T d'un mois donné par rapport aux autres même mois des années précédentes, tu as déjà eu l'idée de fouiller dans les tendances journalières dans un mois en cours ? Pour produire un graphe et nous dire :

"Mais regardez ce beau palier au pas journalier, ça ne colle plus par rapport à la puissance solaire, qui elle monte toujours, en sous-entendant, que la corrélation n'est plus valide (car visuellement absente), que ce n'est pas le soleil qui réchauffe la T sur le fond, d'autant plus qu'on va vers l'été. Ca c'est juste un fait que je veux montrer..."

Non, personne d'informé sur les échelle en jeu pour chaque paramètre, ne pratique de cette façon, vu que tout le monde sait que ça n'a pas de sens, mais bizarrement dès qu'on passe au pas climatique, allez on plonge à fond, on mélange les échelles temporelles nécessaire pour les paramètres donnés, en confondant le pas annuel avec le pas climatique ( 1 échantillon de climat contient 30 ans au moins, comme 1 échantillon d'un mois compte une trentaine de jours)

Au niveau de l'échelle, il faut raisonner de la même façon que lorsque tu regardes un palier dans les T journalières dans un mois. Ca ne te donnera pas l'évolution du mois concerné par rapport au même mois des années précédentes, tu ne pourras pas diagnostiquer avec ton palier trop court, si le réchauffement du mois considéré se poursuit ou non (surtout sans t'intéresser à la moyenne globale du mois en cours et aux autres mois entiers), car ta variation qui affiche le palier est interne à un seul mois et elle est inutile pour analyser l'évolution de la T du mois entier par rapport aux autres mêmes mois des années précédentes.

Si tu ne n'admets pas ce raisonnement fondamental, alors pourquoi ne te préoccupes-tu pas de sortir un graphe de la tendance négative (et là ce n'était pas un plat !) des T journalières dans le mois d'août 2003 pour nous faire croire qu'il se refroidit par rapport aux autres mois d'août ? (ou inversement pourquoi ne montres-tu pas une tendance fortement à la hausse dans un mois froid par rapport aux autres mêmes mois les années précédentes, pour nous dire qu'il se réchauffe ?)

C'est le météorologue qui a besoin de rentrer dans le détail de l'évolution au pas journalier afin de décortiquer cette variation interne pour chercher à expliquer ce qui a fait varié la T au pas journalier dans le mois, mais il ne va pas chercher à sortir un graphe absurde pour chercher une présence/absence de corrélation (sur de courtes périodes) avec l'évolution de fond dues aux saisons.

Idem pour le palier annuel interne, il intéresse les spécialistes vu que c'est fondamental pour prévoir la T annuellement et à l'échelle décennale. Il faut tenter d'identifier le vrai signal climatique sur de plus courte périodes à l'aide de la physique. Il faut scruter le moindre bruit et dans ce cas lisser fin ou pas du tout, mais ils ne vont pas perdre leur temps à chercher des non-corrélations sans aucun sens avec le CO2 et ce genre de nano-palier ou pentes inverses (vu qu'ils injectent le forçage des GES en permanence, c'est qu'ils intègrent de fait son action permanente sur le fond, même quand elle n'est pas visible avec ton genre de graphe absurde, mais bon tu es encore excusable, vu qu'à priori tu es intoxiqué par l'une des nombreuses poubelles de non-science du Net. Pour info les faits scientifiques, ne se trouvent pas ici ou là-bas, mais dans les résultats décantés par les scientifiques qui débattent et font vérifier et valider leurs travaux)

Pour résumer, si on veut voir l'influence de fond des GES et autres (AMO, oscillation de 60 ans) qui agissent et qui sont visibles essentiellement à l'échelle climatique, c'est avec des moyennes, des lissages longs qu'on le verra et si on veut voir l'influence des autres bruits naturel ou non, de courtes échelles, malgré les influences de fond au niveau climatique, c'est avec le lissage plus fin ( NOAA, La Recherche, moyennes mobiles courtes, Loess courts...)

L'important c'est de ne pas confondre les 2 échelles. On ne peut pas diagnostiquer l'évolution du climat avec de courtes périodes, si la variation ne sort pas des bornes habituelles du bruit de fond, c'est le point essentiel à retenir.

Seule les spécialistes de la physique du domaine pourront nous indiquer si une rétroaction ou autre qui ne ressort pas pour le moment du bruit habituel, aura un effet assez permanent pour contre-carrer le signal de fond à l'échelle climatique (et non pas nous les bidochons sur le Net !)

Phili2pe, je suis loin d'avoir ton niveau de fond en mathématiques. Si c'est du calcul du Loess dont tu parles, il est impossible à réaliser sans informatique (c'est du calcul intensif qui prendrait bien trop de temps à la main). Il existe sur le Net des addins gratuits pour Excel, on peut le calculer avec R, le logiciel gratuit bien plus puissant (pour le Loess je l'utilise uniquement si j'ai besoin de calculer les IC, c'est bien plus rapide que de rentrer les formules dans Excel), mais d'abord plus rugueux, il est plus paramétrable que le Loess que l'addin d'Excel ici où je ne peux utiliser qu'un Loess de degrés 1, mais bon pour le climat c'est celui-là qu'il faut utiliser (par défaut il est sur 2 dans R il me semble, je le paramètre à 1).

R fait vraiment tout, mais si c'est juste pour effectuer certains tests statistiques comme Spearman, Kendall et autres bricoles, il y a le logiciel Tanagra gratuit en français qui s'intègre à Excel.

Lien à poster
Partager sur d’autres sites

Puisque vous mentionnez la moyenne mobile à 30 ans et le loess60, ça pourrait être sympa de visualiser aussi le loess 30 sur la même courbe, et le loess 38, puisque un lissage sur 38 ans vous parait aussi important.

Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Pour ceux qui cherchent des changements significatifs, des durées efficaces, il existe une autre méthode intéressante d'estimation de l'incertitude des tendances de fond de la T globale, qui avait été exposée par un physicien dans un blog quelconque et que j'avais relevée (donc à prendre avec des pincettes, car pas revu par les pairs, mais bon j'ai vu que c'était assez cohérent par rapport à la méthode habituelle et elle est très utile quand on veut tester rapidement les tendances sans se préoccuper des époques hors du modèle linéaire depuis 75, car il n'est pas nécessaire de recalculer un modèle de bruit pour la période donnée)

Il avait déterminé l'incertitude des tendances à l'aide de simulations en injectant le spectre de puissance ( http://dl.dropboxusercontent.com/u/4520911/Climate/giss_spec.jpg ) + bruits aléatoires observés sur toute la série de données GISS depuis 1880.

L'avantage de cette technique, c'est qu'elle utilise de fait toutes les oscillations, donc des plus longues hors du modèle linéaire depuis 75 et même de minuscules oscillations non significatives. On a donc moins de possibilités de rater du bruit qu'en s'occupant uniquement des données depuis 75 à cause du modèle linéaire qui limite la période de calcul du modèle.

Je la trouve plus complète que celles des IC déterminés à partir du modèle de bruit de Tamino ( formules en annexe ici : http://iopscience.iop.org/1748-9326/6/4/044022 , ce modèle est efficace tant que la tendance ne change pas, mais elle est plus limitée, car par exemple elle ne peut pas prendre en compte l'influence d'une éventuelle oscillation de 60 ans ou autres, hors de cette courte période linéaire sans changements significatifs depuis 75 ou depuis 80)

Donc d'après le modèle de bruit du physicien, surtout à cause du spectre de puissance depuis 1880, l'estimation de l'incertitude de la tendance séculaire dans les données GISS suit une loi de puissance :

ET = 15.6 X f^-1.14

(f = fréquence en années, ET= écart-type de la tendance en °C/siècle)

Donc à diviser par 10 pour obtenir l'ET décennal, puis pour récupérer l'incertitude de la tendance décennale à 95%, à multiplier (dans Excel par exemple ) par (loi.student.inverse (proba : 0.05; degrés de liberté : n-1))

n : est la longueur en années de la tendance dont on cherche l'incertitude.

Par exemple sur 75-98, la tendance GISS est de 0.184°C/déc.

Le modèle de bruit de Tamino mis à jour avec les données de 75-2012 donne un IC 95% = +- 0.081°/déc

Le modèle de bruit du physicien renvoie un IC à 95% = +-0.086°/déc

A partir de ces données, on voudrait estimer la durée approximative à partir de laquelle une tendance nulle depuis 1999 peut devenir significativement différente et indiquer une véritable stagnation.

Il nous faut donc une tendance strictement nulle (pile à 0) qui n'affiche pas un IC à 95% supérieur >= 0.184 - 0.086 = 0.098°/déc

En cherchant avec la formule donnée, c'est une tendance de 22 ans qui est la plus proche tout en étant inférieure au niveau de l'IC sup (car IC à 95% = +-0.096° ).

Donc il faudrait attendre début 2021 pour qu'une tendance strictement nulle sur 1999-2020 soit capable de sortir des oscillations (du moins celles visibles et détectables depuis 1880, s'il y en a une de 500 ou 1000 ans par ex, c'est clair qu'on la zappera) et du bruit et de montrer un changement significatif vers une véritable stabilité.

Mais bon comme dans les faits une tendance est rarement pile à 0, on va chercher le cas opposé extrême. Si la tendance depuis 1999 était "nulle" (négative mais pas significativement), à la limite de le devenir significativement négative (donc pour tendance "nulle" de -0.097°/déc depuis 1999), il faudrait au moins 13 ans de données (Donc si la tendance sur 1999-2012 avait été aussi négative, on aurait déjà vu un vrai changement, mais là elle est de +0.088°C (IC 95% large : +-0.166°) pour GISS, donc très loin d'indiquer un changement vers une stabilité).

Si on souhaite calculer la durée de la tendance nécessaire pour obtenir une précision donnée, ça donne donc :

f = e(ln(ET/15.6))/-1.14)

Exemple, si je veux connaître la durée nécessaire pour obtenir une tendance précise avec un ET qui représente 10% de la tendance de 1.5°/siècle soit à +-0.15° près donc à +-0.3° près en gros à 95% (donc pour 0.15°/déc à +- 0.015° près, à +-0.03° à 95%) , il me faudrait environ 59 ans de données (53 ans de données pour la tendance actuelle de GISS de 0.169°/déc de 75 au mois à jour en 2013)

Attention de ne pas utiliser le modèle pour d'autres séries, car il y a quelques différences dans le spectre et le bruit. Celui ci a été calibré sur GISS qui est un peu moins bruitée que d'autres séries (donc avec les autres séries les IC seront plus larges).

Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

Je ne vais pas parler des anomalies globales mais de purs problèmes élémentaires de stats.

Tout le monde a dû entendre parler de l'histoire des prévis saisonnières et des stats de printemps "froids ou sous la normale" en France qui seraient très souvent suivis d'étés froids/sous la moyenne en France.

Je profite donc de ce cas typique pour montrer les classiques grosses erreurs rencontrées même parfois chez des pro, quand on calcule un peu trop vite des proba et des pourcentages pourtant très simples en apparence, en ne respectant pas des règles statistiques de base en présence d'une série chronologique.

Pour le cas qui nous concerne, j'ai utilisé les anomalies estivales et printanières sur 1900-2012 (2013 pour certaines stats du printemps) du panel MF de 30 stations homogénéisées que j'ai extrait à partir des pixels de leurs graphes (à part les quelques dernières anomalies récentes), donc il est possible qu'il y ait 0.1° de différence sur certaines anomalies pour des histoires d'arrondis et d'éventuelles dernières corrections de MF depuis 2010 (dernière année des graphes), mais sauf grosses erreurs de clavier et de relecture, ça ne changera pas le sens et le fond des résultats.

L'erreur la plus classique et la plus grossière quand on est pressé de sortir vite fait des pourcentages et des classes d'anomalies froides, chaudes et/ou normales, c'est qu'on traite d'entrée le problème par rapport à la période de référence en cours (donc actuellement sur 1981-2010) sans se préoccuper de ce qu'elle représente pour toute la série complète et sans chercher à savoir si la distribution réelle sensée nous renseigner sur les possibilités/proba réelles, correspond à la courbe théorique (de Gauss) sur laquelle on s'appuie de fait sans y penser, en utilisant des seuils du genre +-0.5° , pour définir la zone de saison "normale" quand il y a au moins 3 classes (ou pour 2 classes avec 50% de valeurs négatives et 50% de valeurs positives autour de zéro), sans savoir si cette zone est équiprobable avec celles du "froid" et du "chaud" et si elle a un sens pour l'ensemble de la série.

Voici ce que donne la distribution des anomalies estivales depuis 1900 par rapport à la normale 1981-2010, comparée la distribution théorique :

anobrute812010etefr.png

Dans ce cas le zéro et/ou la zone "normale" dont on se sert par erreur, concernent la distribution théorique bleue, pas la réalité. La zone épaisse de la courbe bleue correspond aux 33.3% de valeurs "normales" centrées" autour du 0 théorique de la moyenne et de la médiane d'une distribution classique (les zones fines bleues de chaque côté, concernent les 33.3% de données "froides" et 33.3% de données "chaudes")

Pas besoin de tests dans ce cas pour constater que la distribution réelle rouge n'est pas gaussienne (on dit aussi pas "normale". C'est pour cette raison qu'on cherche à "normaliser" les données afin de les rendre conforme avec la loi normale, pour obtenir la possibilité de les analyser selon la loi pour cette distribution, alors qu'à l'origine les données ne le sont pas ( la loi ne peut s'y s'appliquer en l'état sans prendre le risque de générer de grosses erreurs dans tous les calculs, même les plus élémentaires, par ex pour le calcul du plus simple pourcentage afin d'extraire une proba)

La courbe rouge et sa zone normale (33.3%) des données brutes, ne correspondent vraiment pas à la courbe théorique. La zone "normale" rouge tombe dans la zone "froide" de la théorique, donc pas étonnant que certains puissent trouver des pourcentages de "froid" à gogo avec ce genre d'erreur (c'est plus facile de trouver plus de 70 % d'étés froids avec une classe pipée d'entrée qui ratissent déjà très large avec près de 66% d'anomalies froides juste à cause du non respect des règles mathématiques en statistiques !)

Certains pensent qu'en utilisant que 2 classes, 50%/ 50%, pas de problèmes, mais ce n'est pas mieux, car la médiane de la courbe rouge est de -0.93° (qui délimite le vrai 0 entre les 50% de valeurs négatives et positives), loin du 0 de la médiane associée à la moyenne à 0 de la courbe bleue théorique.

Donc là si on persiste dans cette erreur, on va classer à tord comme "négatives ou froides" toutes les valeurs entre 0 et -0.93 alors qu'elles sont chaudes et positives en terme de proba (vu qu'elles sont dans les 50% les plus chaudes) et on déduira donc de faux pourcentages et de fausses proba . Là aussi un bon gros coup d'hormones pour atteindre et dépasser les 70%.

Donc là on pourrait se dire, c'est simple, on va régler tous les problèmes en calculant la période de référence sur toute la série disponible, donc avec une moyenne sur 1900-2012, surtout que graphiquement la distribution se recentre :

anoetefr19002012dens.png

Il y a du mieux, les moyennes sont confondues, mais pas la médiane qui est de -0.10° pour la rouge.

On voit encore graphiquement que la distribution n'est pas normale, de plus aucun des 4 tests statistiques prévus pour, n'ont trouvé la distribution rouge conforme à la courbe théorique bleue.

Le seuil théorique +-0.43 n'est pourtant pas significativement différent de +-0.5° , mais c'est un piège classique de s’arrêter là, car les anomalies brutes sont pipées par autres choses qu'on se doit de vérifier dans toutes séries chronologiques quelque soit le problème à résoudre.

La base en stats dans tous les cas avant de se lancer dans les calculs de proba, c'est de vérifier que les dés ne sont pas pipés, en cherchant s'il n'y a pas de tendance de fond significative qui influence le niveau des anomalies.

Là avec le RC qu'il soit dû à n'importe quoi (même s'il était dû à 100% à l' ICU ou au soleil, ça ne change rien au raisonnement statistique pour les proba), tout le monde envisage de trouver une tendance positive dans les données actuelles depuis 1900, mais bizarrement, beaucoup zappe ce point, alors qu'on est sensé obligatoirement en chercher avant d'avancer plus dans les calculs.

Il faut bien se rendre compte que c'est une règle essentielle à respecter, il faut identifier et traiter les tendances de fond s'il y en a.

Là c'est clair que les dès pour établir des proba sont particulièrement pipés par l'évolution de fond :

estivalesbrutesfr19002012.png

En général une autre erreur classique est commise, on ne cherche et ne traite que la tendance linéaire même si elle ne l'est pas sur toute la période alors qu'il faut chercher toutes formes de tendances et vérifier leur significativité.

Là pour l'exemple, je n'ai retiré que la tendance linéaire, on obtient donc des résidus ( nos nouvelles anomalies estivales sans la tendance linéaire). On voit que la tendance linéaire est nulle, mais avec le loess calibré pour montrer où pourrait se trouver des variations significatives et non linéaires, on se doute déjà qu'il peut rester un signal de fond significatif. Avec le loess je cherche donc à nouveau dans les résidus, ce qu'il reste :

anodetrendlin19002012etefr.png

J'ai testé avec Spearman et Kendall (efficaces quand il n'y a pas d'auto-corrélation) si les tendances résiduelles sont significatives; elles le sont. Donc ces anomalies pourtant sans la tendance linéaire sont encore trop biaisées pour établir des pourcentages/proba.

En fait en retirant directement le signal loess/50 ans visible dans le graphe avec la moyenne/30 ans sans passer par le retrait de la tendance linéaire (montrée pour l'exemple), on traite de fait la tendance linéaire et les autres variations significatives :

anoestivalesdetrend19002012.png

Donc on a nettoyé les données de variations de fond significatives. Il reste le bruit météo et aléatoire utile et capable (ou non) d'impacter le bruit météo et aléatoire (même le bruit en apparence aléatoire qui pourrait être expliqué physiquement, qui n'est pas encore prévisible, mais qui est classé comme aléatoire, car il a une signature statistique aléatoire) de la saison suivante, mais on voit à l'oeil qu'il existe un déséquilibre avec des données plus fortement positives que fortement négatives et donc inversement plus souvent faiblement négative que faiblement positives. C'est dû pour cette saison au rayonnement solaire puissant et à l'accumulation d'énergie. L'hiver c'est l'inverse, avec un faible rayonnement solaire et un stock d'énergie faible, ce sont les fortes anomalies négatives qui deviennent les plus probables (on n'observera jamais une anomalie positive du genre août ou juin 2003 dans un mois d'hiver et une anomalie négative de type février 56 ou déc 1879 en mois d'été sans signal de fond; avec le RC , l'ICU ou autres et des données brutes, on peut tout voir !)

J'avais calculé les anomalies sur 1900-2012, uniquement pour montrer le type d'erreur rencontrée, mais en fait ce n'est pas nécessaire, car en retirant le signal de fond ou pouvait rester sur 1981-2010, on récupère exactement les mêmes résultats au final.

C'est le signal de fond significatif non nul, qui biaise les anomalies et non la période de référence, qui elle n'influence les résultats de mon premier exemple d'erreur, que parce qu'on gardait le signal de fond qui pipe l'ensemble !

Les graphes avec les anomalies sur 81-2010

le signal de fond L

estivalesbrutesfr19812010.png

Les nouvelles anomalies sans ce signal (résidus)

anoestivalesdetrend19812010.png

J'obtiens enfin ma véritable distribution rouge utile pour établir des stats et proba afin de vérifier la présence ou l'absence d'influence de la T du printemps sur celle de l'été :

anodetrend812010etefr.png

Donc comme là aussi en partie pour des raisons physiques évoquées plus haut, la distribution de cette saison n'est pas gaussienne, y compris avec les tests de normalité :

testsnormetedtrd.png

la médiane est de -0.18°, j'ai le choix entre transformer les données pour les rendre conforme à la loi normale afin d'appliquer les seuils selon cette distribution, ou bien d'utiliser les centiles (33.3%, 50%... ou autres seuils pour obtenir des classes équiprobables, au choix de l'utilisateur selon l'objectif) pour contourner les déséquilibres visibles afin de coller aux proba les plus proches de la réalité (il y a des IC bien entendu autour d'une valeur estimée, m^me quand je donne un seuil au centième, d'après mes calculs il faut compter pas loin de +-0.15° d'incertitude statistique à 95%)

J'ai choisi les centiles, car après le même long traitement effectué pour le printemps (retrait de la tendance au RC), les données sans RC du printemps sont assez conformes à la loi normale (visuellement ainsi que pour les 4 tests de normalité):

printbrutesfr19812010.png

anoprintdetrend19812010.png

On remarquera en bas à droite que le printemps 2013 sans le signal du RC est en fait le plus anormal côté froid (on ne voyait pas sa véritable anormalité à cause de la présence du signal de fond), mais bon il ne faut pas oublier que la fin d'un lissage qui va jusqu'au bout des données est plus incertain qu'un point de la courbe Loess plus à l'intérieur, donc le retrait du signal est moins précis à ce niveau, mais d'un autre côté avec les analyses synoptiques en altitude, on a vu dans dans d'autres forums des anomalies de géopotentiels par exemple, remarquables sur la France, donc c'est assez cohérent avec la performance (je dirais plutôt une arnaque, un hold-up de printemps) de ce printemps 2013.)

Les anomalies du printemps sans tendance, sont prêtes pour l'analyse afin d'extraire des pourcentages/proba:

anodetrend812010prtfr.png

Là on constate que les centiles correspondent bien aux seuils de loi normale, dans ce cas la médiane réelle rouge est à 0 tout comme la moyenne, ce qui est logique, la courbe rouge est asez conforme à la loi normale. La courbe bleue est parfaite, car j'ai injecté 1 000 000 d'échantillons biggrin.png , la rouge l'est moins vu qu'on dispose de 114 printemps.

Donc on retiendra comme seuils de l'été pour les 3 classes équiprobables : -0.47° + 0.20° ("normal" >= -0.47 et <= 0.20, pour le "froid" <-0.47 et le "chaud" >0.20 )

Pour le seuil estival en 2 classes à 50%, c'est la médiane -0.18° notre 0 de référence (donc positif au-dessus de -0.18°, négatif en dessous, j'ai quand même récupéré 2 valeurs piles sur la médiane ! )

Pour le printemps c'est précisément -0.32 et 0.28 pour les 3 classes à 33.3% (malgré le fait que la loi normale et les centiles indiquent le même seuil +-0.3° arrondis)

(0 de seuil pour les 2 classes à 50%, j'ai récupéré une valeur pile sur le seuil à 0)

Bon voilà tout le travail de fond avant de commencer les calculs des pourcentages et d'en tirer des proba , idem pour ceux qui voudraient analyser les scores des prévis ! (et on pourrait discuter des jours, mois, années, avec les physiciens afin de déterminer au mieux le signal de fond à retirer : Physiquement quel est le meilleur signal de fond à extraire à l'échelle de la France en fonction des données disponibles et des connaissances actuelles ?)

Nous voilà enfin aux résultats pour les 3 classes à 33.3%

(un pourcentage représente la fraction pour une classe donnée de printemps. 26.3% par ex à la première ligne, ça signifie que 10 des 38 printemps froids, ont été suivis d'un été froid):

prtetefr33detrend.png

Rien de statistiquement significatif (là aussi ça se teste), on est très loin des limites des possibilités du hasard, malgré une série fournissant assez d'échantillons pour les 3 classes de printemps. Il n'y a aucune influence visible de la T du printemps en France sur la T de l'été en France.

Pour la classification à 2 classes, c'est pire, c'est vraiment du 50% /50 %, au point que j'ai passé un temps monstre à chercher où j'avais pu commettre une erreur pour obtenir ces scores.

prtetefr50detrend.png

Enfin il n'était vraiment pas nécessaire d'effectuer ces comptages de moutons, c'était juste pour illustrer l'exemple. L'absence de corrélation significative entre les anomalies printanières et estivales (anomalies sans signal de fond significatif) suffisait pour ne pas se casser la tête.

Lien à poster
Partager sur d’autres sites

Merci Christian, ça c'est vraiment du lourd, tu as vraiment poussé la démonstration à un haut niveau, très intéressant de te lire default_flowers.gif

Finalement, même si les démonstrations que j'avais produites étaient beaucoup moins élaborées, finalement on tombe sur les mêmes conclusions. Mais autant moi c'était des petits calculs sur un coin de table, autant là tu donnes une vraie leçon de statistiques aux soit disant "experts" du 70% de probabilités d'avoir un été maussade après un printemps pourri...

Lien à poster
Partager sur d’autres sites

Merci Christian, ça c'est vraiment du lourd, tu as vraiment poussé la démonstration à un haut niveau, très intéressant de te lire flowers.gif

Finalement, même si les démonstrations que j'avais produites étaient beaucoup moins élaborées, finalement on tombe sur les mêmes conclusions. Mais autant moi c'était des petits calculs sur un coin de table, autant là tu donnes une vraie leçon de statistiques aux soit disant "experts" du 70% de probabilités d'avoir un été maussade après un printemps pourri...

En effet une vrai leçon de statistique (analyse très compliqué à comprendre pour ceux qui n'ont jamais touché au statistique), déjà Christian montre qu'il y a aucune corrélation entre les 2 mais il parvient également à démontré les erreurs à ne surtout pas commettre en statistique ce qui déjoue tout raisonnement simpliste de ces soit-disant experts.

Cabrol est envoyé dans les choux dès le 1er paragraphe car comme tous les "spécialistes", il va utiliser des classes non équiprobable pour retourner la situation à son avantage alors que son analyse est méthodiquement fausse.

Bravo Christian.

Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...