Bonjour à tous !
Je viens à peine de débarquer sur ce forum de passionnés de météo & de climat que j'ai déjà été témoin de nombreuses données climatiques relevées par des stations météo à travers le monde qui me laissent perplexe. Le point que je voulais aborder est lié à la durée de l'insolation effective, ou plus communément la durée de l'ensoleillement en h/an. Il s'agit de la nébulosité et ça concerne notamment les Etats-Unis.
Je constate d'abord quelques incohérences frappantes quand je vois que la ville de Yuma en Arizona enregistrerait une durée moyenne de l'insolation effective de 4 015 h/an sur la période 1961-1990 - soit une fraction moyenne de l'insolation effective s'élevant à près de 91 % - alors que dans le même temps la fréquence moyenne de ciels clairs relevée par sa station météo sur la période 2000-2017 est de 68,7 % sachant qu'un ciel est dit clair lorsque la nébulosité est inférieure ou égale à 2 octas soit 2,5 dixièmes. Et dans le même temps je vois qu'à Assouan en Égypte, on enregistre 3 864 h/an sur la même période qu'à Yuma - soit une fraction proche de 88 % - bien que la fréquence moyenne de ciels clairs là aussi enregistrée sur la même période qu'à Yuma soit de 92,3 %.
Comment est-ce possible que le soleil brille moins souvent à Assouan qu'à Yuma alors que le ciel est bien plus clair en moyenne au-dessus de la ville égyptienne ? Ça m'a paru très étrange et j'ai constaté ce type de contradiction pour nombre de stations météo américaines où les durées de l'insolation effective me semblent anormalement élevées au vu de le la nébulosité rencontrée, notamment dans les villes du désert dans le Sud-Ouest américain, que ce soit Yuma (AZ), Phoenix (AZ), Las Vegas (NV), Albuquerque (NM) etc...