Aller au contenu
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

calcul des previsions


alain78
 Partager

Messages recommandés

Pour le reste de ta démonstration, je suis tout à fait d’accord.

Je n’ai absolument pas dit qu’un résultat inférieur à 50% n’était pas possible.

Et quand tu dis que ce n'est pas "applicable",c'est simplement que tu n'as pas compris ce que ça voulait dire.

[...]

(*) Il est extrêmement difficile d’être absolument sûr qu’un phénomène est aléatoire.

La meilleure façon c’est de le faire mathématiquement, le calcul est très complexe et encore la résultat « n’est pas fiable à 100% » (voir courbe jaune ci-dessus).

Très beau cours de Maths ! C'est en parlant avec ma prof l'an dernier que j'ai arreté de faire ces stats car comme tu l'as et elle me l'avait souligné, quoi qu'il arrive, on finira proche des 50% (loi du hasard) ! Comme pour une pièce, on a en théorie 1 chance sur 2 d'obtenir FACE et 1 chance sur 2 d'obtenir PILE !

Néanmoins, je suppose que sur de petites periodes ( maximum 1 trimestre), on doit pouvoir evaluer plus efficacement les stations non ?

Lien à poster
Partager sur d’autres sites

  • Réponses 96
  • Créé
  • Dernière réponse

Les plus actifs

Ici, si l’on trouve une fiabilité de prévision inférieure à 50%, cela est tout à fait possible et tout à fait « applicable » (on ne l’ « applique » pas, on le mesure !). Cela veut dire que la fiabilité est inférieure à une prévision au hasard (je sais , je me répète).

Donc si j'ai bien compris ton raisonnement Michel, le seuil du hasard est toujours à 50%. Personnellement je ne suis pas daccord. Je bouffe pas mal de stats en prépa et si tu as raison alors je suis dans la m**** pour mes exam! default_ohmy.png/emoticons/ohmy@2x.png 2x" width="20" height="20">

Le seuil du hasard n'est pas toujours 50%, il dépend des issues possible à un évènement.

Pour une pièce lancée, on a à l'arrivé soit pile soit face (les ptits malin me diront "la tranche aussi"), donc 2 issue possible. Ce qui fait une chance sur deux d'obtenir face et une chance sur deux d'obtenir pile soit 50%.

Mais pour nos stations c'est différent. Il y a plus de 2 prévisions possible et donc ce seuil du hasard n'est pas de 50%.

Changeons de point de vue.

Prenons une station qui donne 4 type de prévisions (pluie, soleil...).

Maintenant, admettons que la station fasse une prévision au hasard.

Alors on a 1 chance sur 4 que la prévisons s'avère exacte. Ce qui fait qu'au final si une station prédit le temps au hasard (avec 4 prévisions différente), il y a 25 % de chance que ces prévisions s'avère exacte.

En conséquence, si par une étude (comparaions des prévisions au temps réel) on trouve une fiabilité de prévision de 50%, oui on a une chance sur deux que la station nous donne la bonne prévision mais non ce n'est pas comme si c'était une prévision au hasard.

Lien à poster
Partager sur d’autres sites

-

> Comme pour une pièce, on a en théorie 1 chance sur 2 d'obtenir FACE et 1 chance sur 2 d'obtenir PILE !

Mais dans notre cas, ce n'est pas une pièce à 2 faces, c'est une pièce à 5 faces, 10 faces ou 20 faces suivant le type de station que l'on a. Donc tu auras 1 chance sur N de tomber sur la bonne.

C'est exactement ce que Chriss explique.

Et comme tu n'as pas expliqué à ta prof qu'il y avait plus de 2 résultats possibles, elle t'a répondu très logiquement ! Comme à pile ou face !

Il faudrait que vous vouliez bien raisonner en vous sortant cette idée-là de la tête. default_wink.png/emoticons/wink@2x.png 2x" width="20" height="20">

Merci Chriss d'avoir expliqué mieux que moi ! default_smile.png/emoticons/smile@2x.png 2x" width="20" height="20">

-

Lien à poster
Partager sur d’autres sites

Posté(e)
Gif sur Yvette (plateau, alt. 163 m). NO Essonne. 30 Km SO de Paris.

Très beau cours de Maths ! C'est en parlant avec ma prof l'an dernier que j'ai arreté de faire ces stats car comme tu l'as et elle me l'avait souligné, quoi qu'il arrive, on finira proche des 50% (loi du hasard) ! Comme pour une pièce, on a en théorie 1 chance sur 2 d'obtenir FACE et 1 chance sur 2 d'obtenir PILE !

Néanmoins, je suppose que sur de petites periodes ( maximum 1 trimestre), on doit pouvoir evaluer plus efficacement les stations non ?

Bel exemple d’incompréhension !En quatre lignes tu sembles vouloir contre dire ce que j’ai dis en disant la même chose !

Mais puisque tu poses une question, la réponse est non : il faut faire des mesures (comparaison prévisions / observation) sur des longues périodes.

Sur une courte période c’est du hasard (voir les fluctuations au début des graphiques), sur une longue période c’est de la statistique.

Tu mélanges un peu les deux je pense, non ?

Lien à poster
Partager sur d’autres sites

Merci pour cette comparaison.

D'après ce que j'ai compris, tu as fait tes statistiques sur la base des îcones de prévision affichées par les stations.

As-tu aussi quelques statistiques sur la justesse des messages complets des prévisions données par la Vantage ?

Par exemple, en ce moment, l'icône de ma console indique très nuageux et neige et le message complet des prévisions de la console indique "Plus souvent nuageux, température en baisse. Précipitations possibles dans les prochaines 12 heures, possibles souvent fortes. Vent."

Oui en effet, mes stats portent uniquement sur l'icône de prévision affichée par la station et non par le message du bandeau défilant.

Mais comme je voulais faire une comparaison entre la VP2 et la WMR918 en terme de prévisions, et la station Orégon ne disposant que d'une icône, j'ai été obligé de le faire de la sorte default_innocent.gif

Cependant, bien que ton idée me paraîsse tout à fait intéressante, j'ai du mal a voir comment je pourrais évaluer une citation telle que "Plus souvent nuageux, température en baisse. Précipitations possibles dans les prochaines 12 heures, possibles souvent fortes. Vent". Cela fait beaucoup de faits à vérifier: couverture nuageuse, température, pluviométrie et vent selon ton exemple.

Imaginons que la prévision soit juste pour la couverture et la température, mais fausses pour la pluviométrie et le vent. Ou l'inverse. Ou d'autres combinaisons d'ailleurs default_ermm.gif Quel taux de réussite attribué?? default_ermm.gif

Je ne dis pas que cela serait impossible à faire, mais pour avoir fait l'expérience sur un an en étudiant simplement 4 icones à 4 intervalles de temps différents et 2 fois par jours, je peux t'assurer que l'exercice serait vraiment très difficile, enfin c'est mon avis default_biggrin.png/emoticons/biggrin@2x.png 2x" width="20" height="20">

default_flowers.gif

Lien à poster
Partager sur d’autres sites

Posté(e)
Gif sur Yvette (plateau, alt. 163 m). NO Essonne. 30 Km SO de Paris.

S’il y a 4 possibilités au lieu de deux (au hasard), il faudra beaucoup plus de mesures pour tendre vers 50%

Dans les deux cas la probabilité générale de tomber sur l’une des quatre possibilités reste de 50%.

Je pense que la où nos raisonnement sont différent c’est :

Il y a une chance sur quatre qu’une des prévisions annoncées soit bonne.

Il y a une chance sur deux que l’ensemble des prévisions annoncées soient bonnes.

(pour des prévisions au hasard)

Mais ce sont deux choses différentes, pour le premier cas la manip ne serait pas la même

(il faudrait faire des mesures pour un cas à la fois)

Si tu prends un dé au lieu d’une pièce :

Tu as une chance sur 6 de tomber sur un as

Tu as une chance sur deux de tomber sur une valeur quelconque que tu auras prévu à l’avance (c’est ça l’objet de cette étude)

Lien à poster
Partager sur d’autres sites

Cependant, bien que ton idée me paraîsse tout à fait intéressante, j'ai du mal a voir comment je pourrais évaluer une citation telle que "Plus souvent nuageux, température en baisse. Précipitations possibles dans les prochaines 12 heures, possibles souvent fortes. Vent". Cela fait beaucoup de faits à vérifier: couverture nuageuse, température, pluviométrie et vent selon ton exemple.

Tout à fait d'accord avec toi, ce n'est pas simple.... c'était juste pour savoir si tu avais investigué de ce côté....

Pour revenir à la remarque très pertinente de Chriss : la Vantage a 4 icônes de prévisions (si tu ne comptes pas l'icône "neige" qui est séparé). La WMR918 en a aussi 4?

Lien à poster
Partager sur d’autres sites

...

Tu as une chance sur deux de tomber sur une valeur quelconque que tu auras prévu à l'avance (c'est ça l'objet de cette étude)

non... je ne pense pas.A chaque "tirage" de ton dé , la probabilité de tomber sur une valeur prévue sera de 1 /6...Que tu fasses un ou 1'000'000 tirages.

Et ce n'est pas en augmentant le nombre de tirages que la probabilité augmente.... sinon on serait tous millionnaires au loto... default_smile.png/emoticons/smile@2x.png 2x" width="20" height="20">

Lien à poster
Partager sur d’autres sites

Posté(e)
Gif sur Yvette (plateau, alt. 163 m). NO Essonne. 30 Km SO de Paris.

non... je ne pense pas.

A chaque "tirage" de ton dé , la probabilité de tomber sur une valeur prévue sera de 1 /6...Que tu fasses un ou 1'000'000 tirages.

Et ce n'est pas en augmentant le nombre de tirages que la probabilité augmente.... sinon on serait tous millionnaires au loto... default_smile.png/emoticons/smile@2x.png 2x" width="20" height="20">

Aux dés : une chance sur six de tomber sur une valeur prévue à l’avance : c’est ce que j’ai dit.En augmentant le nombre de coups on reste à une chance sur six, je suis d’accord et je n’ai pas dit autre chose.

J’ai dis : une chance sur deux de tomber sur une valeur quelconque prévue à l’avance.

(cette valeur étant bien entendu prise au hasard)

Si plus de deux possibilités il faut augmenter le nombre de coup pour que le résultat soit valable (pour tendre vers la vraie probabilité), mais ça ne change pas ce résultat (je suis toujours d'accord), c'est la précision du résultat qui change.

Pour en revenir aux prévisions au hasard avec quatre icônes :

S’il est prévu de la pluie : une chance sur quatre que le résultat soit bon (probabilité = 25%)

(une prévision = quatre observations possibles ou une observation = quatre prévisions possibles)

Pour l’ensemble des prévisions : une chance sur deux qu’elles soient bonnes (50%) (c'est la définition du hasard)

(quatre prévisions possibles = quatre observations possibles ou quatre observations possibles = quatre prévisions possibles)

Il me semble que quand on parle de la fiabilité des prévisions, on parle de l'ensemble des prévisions

C'est moi qui ai proposé la méthode, si vous l'utilisez pour autre chose je ne réponds plus de rien !

On arrivera à s’entendre quand on parlera de la même chose.

edit:

Pour le loto dont tu parles :

Si tu augmentes le nombre de tirage tu n’augmentes pas la probabilité de tomber sur ton numéro, puisque c’est la définition d’une probabilité (il faut un très grand nombre de tirages)

Mais si tu augmente le nombre de tirages tu augmente la probabilité de gagner.

Vois-tu bien la différence ?

Lien à poster
Partager sur d’autres sites

Pour l’ensemble des prévisions : une chance sur deux qu’elles soient bonnes (50%) (c'est la définition du hasard)

Extrait d'une critique scientifique sur une "thèse" présenté à la sorbonne:

Ainsi, dans un chapitre intitulé « La résistible hégémonie de l’idéologie scientiste », l’astrologue s’attache à réfuter les critiques scientifiques de sa pratique. « Il faut préciser que leur conclusion [aux opposants à l’astrologie] consistait à dire que les ressources prévisionneles de l’astrologie ne dépassaient pas le hasard, à savoir une chance sur deux. Comme notre expérience nous avait donné des résultats très différents (environ 4 prévisions sur 5 avérées), nous n’étions pas prête à laisser l’astrologie malmenée ». (p. 760). Le hasard, ce n’est pas une chance sur deux…

C'est ta définition du hasard qui n'est pas bonne. Pourquoi le hasard serait 1 chance sur 2 et pas sur 3, sur 4... ou tout simple 1 chance sur 1.

Si je j'essai de trouver ton âge au hasard, je n'est pas une chance sur deux de le trouver mais bien moins.

En statistique, on ne parle pas de hasard mais de variables aléatoires (cf wikipédia). Et à ces variables on associe une probabilitée, mais qui n'est pas forcément 1/2.

Je vais essayer de bien démontrer ce que je veux dire.

De façon intuitive:

Prenons 2 stations. Une n'ayant que 2 prévisions différentes (soleil ou pluie) et l'autre 4 prévisions différentes (Soleil, partiellement nuageux, très nuageux, pluie).

Admettons que suite a une étude des prévisions on trouve une fiabilité de 50% pour les deux stations.

On est déccord sur le fait qu'on a une chance sur deux qu'elle nous donne la bonne prévisions.

Mais si on suit ta logique, alors c'est comme si c'est 2 stations faisait des prévisions au hasard.

Alors que c'est faux. La première, oui c'est comme une prévision au hasard mais pas la deuxième.

La première station à une fiabilité de prévisions de 50% parmit 2 prévisions possibles alors que l'autre à une prévisions de 50% parmit 4 prévisions possibles. Et c'est là la différence, car la deuxième station nous donne des prévisions plus précises, et plus on cherche à être précis plus il est dûr de faire de bonne prévisions.

Autrement dis quand la première station va nous annoncer de la pluie, la deuxième elle fera la différence entre pluie et très nuageux (que ne fais pas la première). Et si dans notre étude théorique on regroupait les prévisions de la console "très nuageux" et "pluie" dans une seul et même prévision (comme le fait la première) et qu'on associe un temps tres nuageux et la pluie a cette prévision alors le taux de fiabilité augmenterais au delà des 50% trouvé.

Je sais pas si je me suis bien fais comprendre mais c'est intuitif de penser que la première station parmit ses 2 prévisions on a une chance sur 2 d'avoir la bonne alors que pour la deuxième station parmit ses 4 prévisions on a aussi une chance sur 2 d'avoir la bonne mais la prévisions sera meilleurs au niveau de la précision (pluie ou très nuageux) ! Et si on avait une station a 50 prévisions et une fiabilité de 50%, celà voudrait dire que parmit les 50 prévisions qu'elle pourrait nous afficher, on a une chance sur deux d'avoir la bonne, sachant que plus y a de prévisions plus elle sont précises dans ce qu'il y a d'annoncé (ex: pluie, faible pluie,brouillard...) et moins il y a d'écart entre elle (on passe pas de pluie a soleil d'un coup comme pour la première station).

Maintenant par la méthode mathématique:

Ce même raisonnement peut être montré mathématiquement en raisonnant par l'absurde pour se rendre compte de l'éfficacité de la station.

Admettons que toutes nos stations ici présente affichent les prévisions au hasard.

La première station a 2 prévisions possible. Si on compare au temps qu'il fera on a 1 chance sur 2 de tombé sur la bonne prévision. Son seuil de prévision au hasard est donc de 50%. En vrai via une étude du temps on obtient un taux de 50% alors c'est comme si cette station prévoyait le temps au hasard, comme si moi je disais "Demain il fait beau" sans rien savoir.

La deuxième station à 4 prévisions possible. Il y a donc 1 chance sur 4 qu'elle nous donne la bonne prévisions soit un seuil de hasard de 25%. Or en vrai on obtient 50% de bonne prévision. Ceci montre bien qu'avec ses 50% de fiabilité cette station est "loin" de prévoir le temps au hasard.

Maintenant une station à 50 prévisions. On 1 chance sur 50 d'obtenir la bonne prévisions. soit un seuil de hasard de 0,02%. Et en vrai on obtient 50% de taux de fiabilité là on est carrément loin de prédir au hasard ! PArmit 50 prévisions d'une précision incroyable on a une chance sur deux d'avoir la bonne !

Ainsi si vous avez compris mon raisonnement, une station a 2 prévision à 50% de fiabilité équivaut a une station à 4 prévisions à 25% de fiabilité qui équivaut à une station à 50 prévisions à 0,02% de fiabilité.

Lien à poster
Partager sur d’autres sites

Posté(e)
Gif sur Yvette (plateau, alt. 163 m). NO Essonne. 30 Km SO de Paris.

Cependant, bien que ton idée me paraîsse tout à fait intéressante, j'ai du mal a voir comment je pourrais évaluer une citation telle que "Plus souvent nuageux, température en baisse. Précipitations possibles dans les prochaines 12 heures, possibles souvent fortes. Vent". Cela fait beaucoup de faits à vérifier: couverture nuageuse, température, pluviométrie et vent selon ton exemple.

C’est bien là la limite de cette méthode (et des autres !)Tous ceux qui ont commencé à remplir un tableau se sont aperçus, même avec seulement quatre icônes, de la difficulté à mettre un pourcentage.

Si la prévision est « soleil » et que l’observation est « peu nuageux », je mets combien ? 50%, 20%, 0% ??

Dès que la précision de la prévision augmente, ça devient très vite impossible à faire.

D’ailleurs j’ai lu que tu avais commencé à faire le même tableau avec les prévisions de MF, tu as du vite abandonner à cause de ça je suppose ?

Je vais même plus loin : si MF prévoit 20°C pour demain et qu’il fait 23°C qu’est ce qu’on met comme résultat ? la prévision était-elle bonne ou mauvaise ?

Le résultat et beaucoup trop subjectif.

On pourrait peut-être imaginer compenser cette subjectivité par un nombre de mesures encore plus grand en disant que les erreurs d’interprétation se moyennent. C’est sûrement un peu vrai.

On pourrait penser également qu’en prenant exactement les même critères de jugement, la méthode serait valable pour faire des comparaisons (par exemple comparer les prévis de TFI et de A2), mais la forme de leur prévis sont trop différentes et pas assez comparables.

Ces questions restent donc sans réponses :

Qu’appelle-t-on une prévision juste ?

Comment faire une étude statistique de la fiabilité des prévisions de MF ou autres ?

Si quelqu’un a quelques éléments de réponse ??

Je crois que ce sujet de conversation « au bar du coin pendant l’apéro » n’est pas prêt de s’épuiser !

Lien à poster
Partager sur d’autres sites

Posté(e)
Gif sur Yvette (plateau, alt. 163 m). NO Essonne. 30 Km SO de Paris.

Chriss,Dans la méthode que j’ai proposée, la colonne « % de réussite cumulé » est la moyenne de tous les « taux de réussite ».

Si je mets 50% dans chaque « taux de réussite » le « % de réussite cumulée » est exactement de 50%

S’il y avait 30 icônes ce serait pareil.

L’essai est très facile à faire chez toi puisque mon tableau Excel s’ouvre chez toi sur ton PC (si tu as Excel)

(tu peux y lire les formules et modifier tout ce que tu veux)

Je veux bien (et je souhaite) que tu critiques ma méthode (c’est encore mieux si tu en proposes une autre !)

Mais avant de commenter un résultat c’est quand même mieux de savoir comment il a été obtenu !

Reste à savoir si Boudu34 et Bofix utilisent bien la même méthode et font bien le même calcul ?

Lien à poster
Partager sur d’autres sites

Bel exemple d’incompréhension !

En quatre lignes tu sembles vouloir contre dire ce que j’ai dis en disant la même chose !

Mais puisque tu poses une question, la réponse est non : il faut faire des mesures (comparaison prévisions / observation) sur des longues périodes.

Sur une courte période c’est du hasard (voir les fluctuations au début des graphiques), sur une longue période c’est de la statistique.

Tu mélanges un peu les deux je pense, non ?

Je crois que je n'ai pas le niveau en maths default_laugh.png !

En tout cas merci d'avoir rééxpliqué tout ça, même si je n'ai pas du tout saisir !

Lien à poster
Partager sur d’autres sites

Si je mets 50% dans chaque « taux de réussite » le « % de réussite cumulée » est exactement de 50%

S’il y avait 30 icônes ce serait pareil.

Oui je suis daccord mais c'est exactement ce que je te démontre en haut, on aurait un même taux mais qui n'a pas du tout la même signification. En ayant 50% partout cela voudrait dire que la station a une chance sur deux d'afficher la bonne prévisions parmit les 30 ! Et non pas parmit où là c'est du hasard.
Je veux bien (et je souhaite) que tu critiques ma méthode (c’est encore mieux si tu en proposes une autre !)

Mais avant de commenter un résultat c’est quand même mieux de savoir comment il a été obtenu !

J'ai très bien compris comment tu obtient les résultats et je ne critique en aucun cas ta méthode. Ce que je critique c'est ta façon d'interpréter les résultats en disant que le hasard c'est 50% de chance et d'en conclure ensuite que 2 stations, aux nombre de prévisions différentes (ex: 2 et 4) et avec un taux de 50%, alors les deux ont la même fiabilité de prévisions au final (le taux est le même mais sa signification suivant le nombre de prévsions est différente) et de plus c'est comme si elles prévoyaient au hasard.
Lien à poster
Partager sur d’autres sites

Posté(e)
Gif sur Yvette (plateau, alt. 163 m). NO Essonne. 30 Km SO de Paris.

En fait je pense que j’ai peut-être une explication qui nous concilie:Quand je remplie une case de la colonne « taux de réussite » :

1/

Si la prévision était au hasard effectivement il faudrait mettre 25% dans cette colonne (avec 4 icônes) puisque j’aurai une chance sur quatre de tomber sur la bonne icône d’observation et au total on aurait bien 25% de « % de réussite cumulée ».

Mais il faudrait que je mette 0% dans tous les cas où l’icône d’observation n’est pas strictement identique à l’icône de prévision.

Et dans ce cas effectivement le résultat va dépendre du nombre de possibilités offertes.

Mais ce n’est pas comme cela que je procède.

2/

Quand je rempli cette colonne je ne tiens absolument pas compte du nombre de possibilité offertes, je met le chiffre (en %) uniquement en comparaison de la prévision par rapport à l'observation que je constate en regardant dehors.

Si la prévision est « soleil » et que le temps est à moitié ensoleillé, je mets 50%.

En procédant ainsi je pense que globalement (en moyenne au bout d’un grand nombre de mesures), si la prévision était au hasard ce chiffre serait bien de 50%.

En tous cas il est indépendant du nombre d’icônes puisque je n’en tiens pas compte pour mettre mon chiffre.

Les deux façons de procéder sont logiques, mais il se trouve que c’est la deuxième que j’utilise (comme je l'avais expliqué ici: http://icare.cinq.free.fr/meteo/previsions_observations.htm )

Quelle méthode ont utilisé Boudu et Bofix 1 ou 2 ????

Lien à poster
Partager sur d’autres sites

Posté(e)
Gif sur Yvette (plateau, alt. 163 m). NO Essonne. 30 Km SO de Paris.

Je crois que je n'ai pas le niveau en maths default_laugh.png !

En tout cas merci d'avoir rééxpliqué tout ça, même si je n'ai pas du tout saisir !

Mais justement, c'est très intéressant car ton jugement n'est pas orienté à l'avance par les théories.Et si tu arrives à comprendre ce que l'on explique (sans aucune formule mathématique), ton avis (et celui d'autres personnes) nous intéresse.

Et si tu ne comprends pas cela vient en très grande partie parce que nous l'avons mal expliqué.

Lien à poster
Partager sur d’autres sites

2/

Quand je rempli cette colonne je ne tiens absolument pas compte du nombre de possibilité offertes, je met le chiffre (en %) uniquement en comparaison de la prévision par rapport à l'observation que je constate en regardant dehors.

Si la prévision est « soleil » et que le temps est à moitié ensoleillé, je mets 50%.

En procédant ainsi je pense que globalement (en moyenne au bout d’un grand nombre de mesures), si la prévision était au hasard ce chiffre serait bien de 50%.

En tous cas il est indépendant du nombre d’icônes puisque je n’en tiens pas compte pour mettre mon chiffre.

Là je ne suis pas daccord. Plus il y aura d'icône plus on aura des prévisions détaillées.

Si je reprend ton exemple avec le soleil. La station prévoie du soleil mais le temps au final est à moitié ensoleillé ou partiellement nuageux. Si cette icône existe sur la station (nuage + soleil) alors tu doit mettre 0% à la prévison car elle aurait du afficher l'îcone nuage plus soleil.

Bien sûr pour une station à 2 prévisions (soleil ou pluie) là on peut (et on doit!) y attribuer une certaine valeur suivant le temps qu'il fait, s'il le temps est partiellement ensoleillé alors que la station prévoyait du soleil alors on peut mettre 50% ou autres choses.

Mais lorsqu'on augmente le nombre de prévisions possible, cela veut dire qu'on cherche à être le plus précis possible dans la prévision alors on ne peut pas attribué une valeur (50% par exemple) à une prévision si justement la station possède l'icône du temps réel qu'il fait.

Lien à poster
Partager sur d’autres sites

Posté(e)
Gif sur Yvette (plateau, alt. 163 m). NO Essonne. 30 Km SO de Paris.

Là je ne suis pas daccord. Plus il y aura d'icône plus on aura des prévisions détaillées.

Si je reprend ton exemple avec le soleil. La station prévoie du soleil mais le temps au final est à moitié ensoleillé ou partiellement nuageux. Si cette icône existe sur la station (nuage + soleil) alors tu doit mettre 0% à la prévison car elle aurait du afficher l'îcone nuage plus soleil.

Bien sûr pour une station à 2 prévisions (soleil ou pluie) là on peut (et on doit!) y attribuer une certaine valeur suivant le temps qu'il fait, s'il le temps est partiellement ensoleillé alors que la station prévoyait du soleil alors on peut mettre 50% ou autres choses.

Mais lorsqu'on augmente le nombre de prévisions possible, cela veut dire qu'on cherche à être le plus précis possible dans la prévision alors on ne peut pas attribué une valeur (50% par exemple) à une prévision si justement la station possède l'icône du temps réel qu'il fait.

Mais maintenant le problème n’est plus de savoir quelle est la bonne méthode (1 ou 2), mais de savoir quelle méthode ont appliqué Boudu et Bofix ?(en espérant qu’ils aient bien compris la question)
Lien à poster
Partager sur d’autres sites

Quelle méthode ont utilisé Boudu et Bofix 1 ou 2 ????

Méthode n°2 pour ma part default_happy.png/emoticons/happy@2x.png 2x" width="20" height="20">

J'indiquais le taux de réussite en fonction de la prévision et de l'observation du ciel à l'intervalle de temps donné.

Prévision soleil / Observation peu nuageux: 50% ; Couvert: 0% etc

default_flowers.gif

PS: et pour répondre à jackT, oui la WMR918 à également 4 icônes mais pas celui de la neige. Je n'ai donc pas tenu compte de cette icône sur ma VP2 dans ce test.

default_flowers.gif

Lien à poster
Partager sur d’autres sites

PS: et pour répondre à jackT, oui la WMR918 à également 4 icônes mais pas celui de la neige. Je n'ai donc pas tenu compte de cette icône sur ma VP2 dans ce test.

Merci Bofix pour la réponse. Je pense personnellement que l'évaluation et surtout la comparaison de statistiques de prévision données par les consoles de nos station météo reste très hasardeux.

Les méthodes utilisées par ces stations ne sont pas forcément connues mais restent essentiellement basées sur les changements (et leur rapidité) de pression atmosphérique.

De plus, sur certaines stations (la plupart des stations Lacrosse en tout cas) les paramètres de sensibilité de variation de pression sont réglables, ce qui veut dire par exemple que deux WS2300 configurées différemment ne donneront pas les même prévisions pour les mêmes données mesurées...

Pas facile donc à s'y retrouver!

En ce qui me concerne, je préfère nettement consulter les ressouces amplement disponibles sur Internet et basées sur des méthodes bien plus robustes pour avoir une idée du temps qu'il fera dans les prochains jours...

Lien à poster
Partager sur d’autres sites

Posté(e)
Gif sur Yvette (plateau, alt. 163 m). NO Essonne. 30 Km SO de Paris.

Merci Bofix pour la réponse.

Je pense personnellement que l'évaluation et surtout la comparaison de statistiques de prévision données par les consoles de nos station météo reste très hasardeux.

Les méthodes utilisées par ces stations ne sont pas forcément connues mais restent essentiellement basées sur les changements (et leur rapidité) de pression atmosphérique.

De plus, sur certaines stations (la plupart des stations Lacrosse en tout cas) les paramètres de sensibilité de variation de pression sont réglables, ce qui veut dire par exemple que deux WS2300 configurées différemment ne donneront pas les même prévisions pour les mêmes données mesurées...

Pas facile donc à s'y retrouver!

En ce qui me concerne, je préfère nettement consulter les ressouces amplement disponibles sur Internet et basées sur des méthodes bien plus robustes pour avoir une idée du temps qu'il fera dans les prochains jours...

Là, JackT, je suis un peu déçu par ta « conclusion »Tu n’as pas dû suivre le fil de ce post.

Tes affirmations sont justes, et moi même ne m’occupe pas de ma station pour savoir le temps qu’il va faire.

Mais le but de toute cette dicussion (que tu viens pratiquement de remettre à zéro !) était justement d’essayer de progresser en proposant une méthode d’évaluation statistique de la fiabilité de ces prévisions.

Quand tu affirmes que ces prévisions sont hasardeuses, n’est-il pas logique de chercher à « mesurer » ce hasard ?

C’est ce que nous avons essayé de faire.

Et comment le faire autrement qu’en comparant, sur un grand nombre de cas, l’observation et la prévision ?

En partant de la méthode objet de ce post, nous sommes tombés sur un choix :

Faut-il

1/ porter un jugement absolu sur la prévision :

exemple : prévision =soleil, observation=un peu ensoleillé : on met 50%

2/ porter un jugement relatif sur la prévision en fonction des icônes proposés :

exemple : prévision=soleil, observation ne correspond pas à l’icône soleil : on met 0%

le cas 1/ à l’inconvénient d’être assez subjectif, mais l’erreur éventuelle se moyenne sur un grand nombre de cas, si l’on fait l’effort d’être objectif.

Une prévision au hasard donnerait une probabilité de réussite (/échec) de 50%

Le cas2/ est plus simple puisque on a simplement à répondre oui ou non, mais il a le gros inconvénient que le résultat sera fonction du nombre d’icônes proposées (donc de la précision des prévisions)

Une prévision au hasard donnerait une probabilité de réussite qui est fonction du nombre d’icônes.

Nous avons choisi (Bofix et moi) le cas 1/.

Je veux bien admettre que c’est un choix arbitraire, mais il est impératif d’en tenir compte pour la conclusion de l’étude (et, entre autre, qu’une prévision au hasard donnerait une probabilité de 50% et non 25%).

De toute façon la question principale n’est pas là.

Contrairement à ce que tu dis une méthode permet surtout de faire des comparaisons.

Car, quelque soit cette méthode, en utilisant toujours la même méthode, les erreurs sont statistiquement identiques (en moyenne sur un grand nombre de cas).

Moi je n’ai fait l’étude que sur une station (ou plutôt sur Wswin32), je trouve comme résultat :

54% de réussite à 6 heures.

Je ne suis pas très avancé si je ne peux pas comparer ce chiffre à autre chose.

Les études de Bofix et Boudu sont, en ce sens, bien plus intéressantes.

Comme il y a une part de subjectif, c’est bien mieux que la comparaison soit faite par la même personne, car deux personnes différentes riquent d'avoir un jugement différent.

D'ailleurs c'est certainement parceque j'ai un jugement trop sévère que je trouve des valeurs très faibles (54% à 6 heures)

Tu as raison, bien entendu, quand tu dis que la fiabilité va dépendre du réglage de sensibilité de la variation de pression.

Et bien justement, cette méthode permet de trouver le bon réglage.

(la manip va être longue, il faut faire au moins six mois de mesures pour chaque réglage !)

Mais tu connaîtras le réglage optimum, adapté à ta situation géographique, qui te donne la meilleure fiabilité.

Il serait encore bien plus intéressant d’avoir un chiffre pour des prévisions « classiques », MF par exemple. Ce qui permettrait de comparer la fiabilité de nos stations avec la fiabilité de MF

(je veux bien parier qu’on trouverait un chiffre supérieur ! Mais à condition d'avoir des chiffres, pas un jugement au pif)

D’ailleurs dans ce cas, seule la méthode 1/ est utilisable :

On regarde les prévisions sur TFI, et le lendemain on met une note de réussite entre 0 et 100.

C’est très subjectif, mais c’est sûrement mieux que de ne rien faire et continuer à dire « ils se trompent tout le temps » !

Remarque :

Une preuve que ma méthode est significative :

Je pense que tout le monde comprend qu’une prévision ne se basant que sur le baromètre n’est « valable » (supérieure à 50%) que pour une échéance assez courte (12-24 heures).

Or on constate bien sur nos courbes que pour une échéance courte la courbe stabilisée (pour un grand nombre de mesures) est toujours au dessus de la courbe d’une échéance longue (36-48 heures)

On peut même constater, sur les courbes de Bofix pour la WMR 918 (ici : /index.php?s=&showtopic=19210&view=findpost&p=686544'>http://forums.infoclimat.fr/index.php?s=&a...st&p=686544 )

que l’échéance à 24 heures (en vert) est plus fiable que l’échéance à 12 heures (en rouge), ce qui n’est pas du tout illogique.

Lien à poster
Partager sur d’autres sites

Quand tu affirmes que ces prévisions sont hasardeuses, n’est-il pas logique de chercher à « mesurer » ce hasard ?

C’est ce que nous avons essayé de faire.

Ce n'est pas les prévisions que j'affirme hasardeuses, mais l'évaluation et la comparaison de statistiques sur les prévisions "calculées" par les stations météo.
Contrairement à ce que tu dis une méthode permet surtout de faire des comparaisons.

Car, quelque soit cette méthode, en utilisant toujours la même méthode, les erreurs sont statistiquement identiques (en moyenne sur un grand nombre de cas).

Moi je n’ai fait l’étude que sur une station (ou plutôt sur Wswin32), je trouve comme résultat :

54% de réussite à 6 heures.

Je ne suis pas très avancé si je ne peux pas comparer ce chiffre à autre chose.

Les études de Bofix et Boudu sont, en ce sens, bien plus intéressantes.

Comme il y a une part de subjectif, c’est bien mieux que la comparaison soit faite par la même personne, car deux personnes différentes riquent d'avoir un jugement différent.

D'ailleurs c'est certainement parce que j'ai un jugement trop sévère que je trouve des valeurs très faibles (54% à 6 heures)

C'est justement la comparaison qui me pose problème ... Votre méthode 1/ qui consiste à évaluer de 0 à 100% la performance d'une prévision reste assez subjective et comme tu le dis toi même "en te trouvant trop sévère", le résultat final et calculé sur un grand nombre de mesures va dépendre de cette subjectivité.

Tu trouves par exemple une fiabilité de 54% avec ton analyse, mais si Bofix ou Boudu avaient utilisé exactement la même méthode avec les prévisions de ta station et en les comparant avec le temps observé chez toi , il n'auraient peut-être pas trouvé 54%...

Je ne critique pas la méthode, et si tu utilises cette méthode comme tu l'as mentionné pour évaluer différents réglages de ta station sur la fiabilité de ses prévision, la comparaison des résultats est alors tout à fait valable, puisque dans ce cas on peut assumer que tu auras le même niveau de subjectivité dans l'évaluation des performances.

Par contre, je doute sur la valeur d'une comparaison lorsque cette méthode est appliquée à des endroits différents, par des personnes différentes et en utilisant des stations différentes ( le nombre d'icônes disponibles pour indiquer une prévision peut aussi jouer sur la subjectivité du score).

Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
 Partager

  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...