Bonsoir à tous,
Cela fait longtemps maintenant que je vous suis attentivement vos débats tout en n'y ayant que rarement pris part. Je ne suis ni météorologue ni climatologue, mais à force de vous suivre et par intérêt je souhaite apporter un petit éclairage de 'statisticien' sur ce poste (essai louable, qui revient régulièrement d'un point de vue méthodologique, mais extrêmement discutable dans l'application).
La technique employée ici est de faire un mix entre différentes prévisions : en langage statistique plus formel, on parlerait de mélange (mixture) de modèle, technique bien formalisée, quoiqu'encore assez méconnue (mais vraisemblablement déjà routinière en météorologie et climatologie). Cette technique permet i) de tirer profit des particularités de chaque modèle tout en ii) de lissant pas trop les effets de chaque modèle : en termes plus pratiques "on espère que l'évènement bien vue par un modèle compensera d'autres modèles qui n'auront pas capté l'évènement (le coût de cela est que l'on risque un peu de noyer l'évènement bien vu dans la masse (loi des grands nombres s'appliquant aux moyennes en statistique en gros)".
Pour faire cela, un certain nombre de conditions doivent être réunies, la première d'entre elles, et ici la plus problématique, étant l'indépendance des sources. En effet, toutes ces prévisions (14) se fondent sur les quelques (et peu nombreux) modèles de prévision saisonnières. Certes l'expérience du prévisionniste et son interprétation des modèles jouent, mais il est tout de même normal (souhaitable) que la plupart des prévisionnistes aillent dans le même sens dès lors qu'ils consultent les même modèles (mêmes règles sous-jacentes de décision). Au final il y a donc un risque énorme entre dire "9 des 12 prévisionnistes vont dans le même sens" et "3 des 4 modèles vont dans le même sens": on pense gagner beaucoup de puissance (12 ça fait beaucoup...ils ne peuvent pas avoir tors ! 4, c'est peu...ils peuvent se planter !)
J'évoquerai un deuxième point, (limite à la démarche ou piste d'une amélioration ?) qui est le suivant : il serait très interessant de 'pondérer' les prévisionnistes (sources) en fonction de leur pourcentage de réussite passé; en effet, dans le décompte actuel, un prévisionniste qui se serait (presque)toujours trompé pèse autant qu'un prévsionniste qui a (presque) toujours raison ! Pourquoi ne pas accorder plus de confiance à ceux qui historiquement on plus raison ?
Et pour finir, en revenant à la méthode statistique, le mélange de modèle a plus de sens pour des variables type température (variable continue, une grandeur mesurable) que pour une variable avec un nombre limité de modalités ("chaud", "normal", "froid"). Si le cas avait été "7 prévisionnistes disent chaud et 7 autres disent froid, est ce que le résultat de l'analyse aurait été normal ?...j'en doute !". Aussi j'accorde beaucoup plus de crédit à une conclusion fondée sur "anomalie moyenne de 0.6°C (écart type associé à cette moyenne ?) => plutôt frais" que "9 prévisions/14 d'anomalies négative =>froid".
Cela étant dit, si cela inspire certain tant mieux (une piste pour augmenter la fiabilité des prévisions saisonnières ?), pour ma part ce sera toujours un plaisir de vous lire, d'autant plus lorsque cela ne vire pas en querelles HS/HT...