Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

miniTAX

Membres
  • Compteur de contenus

    804
  • Inscription

  • Dernière visite

Tout ce qui a été posté par miniTAX

  1. "En général" oui mais très général alors. Parce que les 6 stations RCS en France sont toutes, à l'exception du Mont-Aigoual, situées à côtés des aéroports (normal ça fournit les données météos essentielles à l'aviation civile). Ce qui veut dire une surface bétonnée énorme qui réduit de manière indéterminée l'évapotranspiration et augmente le stockage de chaleur et le rérayonnement IR la nuit, tous des facteurs introduisant des biais de micro-site positif impossibles à corriger et indépendemment de la bulle de chaleur urbaine (qui est corrigé très empiriquement par des corrélations avec la population). Même Mont Aigoual, avec son parking bétonné à 150m des capteurs peut subir un effet de micro-site. Tout ça n'a aucune importance pour les mesures météos et une importance capitale dès qu'il s'agit de climato où l'on cherche à détecter des tendances de l'ordre du 0.1°C par décennie.Quant au réseau GHCN aux USA, où est planté la moitié des capteurs mondiaux qui servent à la compilation de la température globale, une évaluation photographique récente (surfacestations.org) montre que sur le tiers des stations sondées, seul environ 5% des sites est de classe 1 (qualité site de référence). Une grosse majorité (85%) fournit une précision entre 1 et 5°C, càd inutilisable dans le cadre d'un suivi climatologique. C'est incompréhensible d'utiliser la température de surface pour un suivi climatologique global alors que le nombre de stations a été divisé par 3 depuis 20 ans avec les satellites et l'effondrement du bloc de l'Est (il n'y a qu'à voir les aberrations dans les températures des pays de l'ex Urss ces dernières années pour savoir que la température de surface n'est plus fiable).
  2. Pour ce que ça vaut, voici le nombre de jours froids par an pour les 3 stations en question (en utilisant tn journalière) Les seuils ont été fixé en fonction de la température moyenne, Paris = 2°C plus chaud que Lyon et 6°C plus chaud qu'Aigoual. C'est juste pour avoir une idée de l'évolution du nombres de jours froids en fonction des années. La décennie 90 a inconstablement moins de jours froids la moyenne, surtout pour les villes. Bon les années 90 sont chaudes, ce n'est pas nouveau, on le voit bien avec les températures moyennes. Mais ce sera bien hasardeux d'en tirer des conclusions pour le futur vu qu'on n'a PAS de stations rurales qui remontent à assez loin, notamment entre 1900 et 1940 où il y avait un réchauffement global très rapide. D'ailleurs, je signale que le réchauffement de ces 2 dernières décennies ne s'est pas fait progressivement mais par un saut brusque autour du milieu de 1986 (que je surnomme effet "Tchernobyl") puis par une relative stabilisation depuis 10 ans. Les modèles arrivent ils à s'expliquer cet événement climatologique bien visible par les stations de surface sur l'Europe de l'Ouest? J'en doute. En tout cas, si quelqu'un a une explication, je suis preneur.
  3. miniTAX

    1998-2007

    Statistiquement, si on regarde le détail de l'indice Enso, la probabilité que l'indice repasse en positif (fin prématurée de la Nina) en fin d'année est très très faible. Donc pas de saut de température en vue pour "sauver" 2007 (mais bon, qui sait, le GISS ou la NOAA sont bien capables de nous pondre un "record mondial" comme pour 2005).De toute façon, les archives des prédictions montrent que les modèles dynamiques ne savent pas prévoir à 6 mois el Nino (les modèles statistiques non plus d'ailleurs). Les prédictions de température sur la même échéance tiennent donc de la boule de cristal.
  4. C'est plus exactement Tn <= -12°C Mais on a les mêmes données, c'est déjà ça ( 2005 est vraiment très froid)1921 1921 3 1922 1922 3 1923 1923 4 1924 1924 6 1925 1925 5 1926 1926 6 1927 1927 2 1929 1929 14 1931 1931 10 1932 1932 4 1933 1933 9 1934 1934 4 1935 1935 9 1936 1936 1 1937 1937 1 1938 1938 12 1940 1940 17 1941 1941 6 1942 1942 9 1944 1944 12 1945 1945 16 1946 1946 5 1947 1947 7 1948 1948 5 1949 1949 3 1950 1950 8 1952 1952 5 1953 1953 7 1954 1954 13 1956 1956 20 1957 1957 1 1958 1958 5 1960 1960 8 1962 1962 10 1963 1963 23 1964 1964 5 1965 1965 6 1966 1966 3 1967 1967 5 1968 1968 8 1969 1969 12 1970 1970 6 1971 1971 7 1973 1973 5 1975 1975 1 1976 1976 2 1978 1978 2 1979 1979 4 1980 1980 5 1981 1981 3 1983 1983 2 1984 1984 2 1985 1985 16 1986 1986 9 1987 1987 9 1988 1988 4 1990 1990 1 1991 1991 7 1993 1993 2 1996 1996 4 1999 1999 6 2001 2001 4 2003 2003 4 2005 2005 14 2006 2006 1 2007 2007 1
  5. Pour Mont Aigoual, les données en nombre de jours/an sous un seuil sont dans ces graphiques. J'ai calculé en utilisant Tn du site de KNMI (données les plus récentes que j'ai pu trouver). A première vue, beaucoup de jours froids dans les années 40, des froids intenses mais peu de jour froid entre 50 et 60, décennie 90 chaude (qui se voit très bien sur la Tm), refroid après 2000, très froid en 2005. Quant à l'évolution climatologique, tout ce qu'on peut dire, c'est qu'on ne peut pas dire grande chose. C'est un peu le cas de toutes les stations rurales de qualité, non contaminées par les aéroports, parking, bouche d'aération de clim voire barbecue
  6. Je ne vois pas en quoi un changement de température ou de précipitation peuvent permettre de prendre conscience de quoi que ce soit. Entre Nimes et Montbéliard, il y a une différence de 2°C de moyenne, entre la Floride et la France, il y a une différence de 10°C, qu'est ce qu'on peut en déduire? RIEN, à part que où que l'on soit, en cas d'aléas climatique - qui a existé depuis que la Terre existe - il vaut mieux être riche et bien portant que pauvre et malade, avoir une maison solide et bien rénovée plutôt qu'une vieille bicoque mal entretenue. Mais pour ça, pas besoin de superordinateurs pour le deviner. Le jour où les gens croiront à ces CAO (catastrophes assistées par ordinateur), il y aura plus qui achèteront des résidences secondaires à Lille qu'à Marakech ou à Agadir, on est loin du compte. Si déjà, les modèles pouvaient reproduire le climat présent, notamment le pourquoi et comment de/index.php?s=&showtopic=22311&view=findpost&p=561351'> l'effet "tchernobyl" sur l'Europe de l'Ouest, ce serait déjà bien. Mais c'est même pas le cas. /emoticons/wink@2x.png 2x" width="20" height="20">
  7. Déjà, "consensus total", c'est faux ne serait ce que parce qu'il y a Jaworosky qui n'est pas d'accord sur la précision et la résolution des mesures par proxy glaciaire.Ensuite, consensus certes, mais sur quoi ? - Le graphique de PE montre bien qu'il y a aucun "consensus" entre les forages de Byrd ou Camp Century et ceux de Grip ou Eurocore. Qui est en mesure de décider que Grip serait mieux que Byrd ou Dye 3 et sur quel critère ? - Consensus sur l'accord entre proxy et mesures instrumentales ? Certainement pas puisque les mesures directes de N2O ne sont disponibles que depuis les années 80 et que les proxies glaciaires s'arrêtent dans les années 70 puisque les glaciologues considèrent qu'il y a environ 50 ans (!) de décalage entre une bulle d'air scellée dans la glace et l'air atmosphérique: c'est en tout cas l'hypothèse qu'on fait pour le proxy glaciaire du CO2 par exemple, c'est pouquoi on ne trouvera pas une reconstitution par forage glaciaire du CO2 atmosphérique des années 90. En gros, mesures instrumentales et par proxy du N2O ne se recouvrent pas, donc impossible de valider les modèles de diffusions qui donnent l'estimation du NO2 à partir du dosage de gaz glaciaires donc impossible de savoir qui de Law Dome ou de Dye3 a raison, (alors que leurs écarts dépassent la hausse instrumentale mesurée sur 20 ans). - Consensus sur l'origine humaine de la hausse de N2O atmosphérique actuelle (de l'ordre de 2%/décennie): source, références, publi ? - Consensus sur l'évolution future du N2O ? Même en supposant que ça existe, on a vu ce que ça a donné avec le "consensus" sur le CH4 il y a encore 10 ans. Résultat, ça fait depuis 10 ans que la concentration de méthane n'augmente plus et personne n'est d'accord sur le pourquoi du comment. Quand on commence à parler de "consensus", on peut déjà être sûr qu'il s'agit de tout sauf de science. La science ne fonctionne PAS par consensus. /emoticons/wink@2x.png 2x" width="20" height="20">
  8. miniTAX

    1998-2007

    Les anomalies sont calculées par rapport à une moyenne climatologique annuelle (pour le Hadley Centre, c'est 1961-90) et NON mensuelle. Par exemple si octobre fait 10°C, la moyenne climatologique annuelle 15°C, la moyenne climatologique mensuelle (on prend tous les mois d'octobre et on en fait la moyenne) 9°C, l'anomalie pour octobre sera -5°C et non +1°C.Donc les derniers mois ont tendance (même si ce n'est pas systématique) à faire baisser la T globale à cause de la disymétrie en surface continentale entre HN et HS.
  9. Le communiqué de Jeudi est ici : http://nsidc.org/news/press/2007_seaicemin...0810_index.htmlConcernant "la cause humaine", le NSIDC n'a rien dit de tel. Il dit plutôt des phrases comme : "la variabilité naturelle a déjoué fréquemment les efforts de prévision des humains", ce que le journaliste se garde bien de citer.
  10. miniTAX

    1998-2007

    Tes courbes présentent des valeurs annuelles. Donc la moyenne pour les terres pour 2007 telle que calculée devrait encore baisser d'ici fin d'année puisqu'elle ne compte pas encore les mois froids du dernier trimestre (c'est en général vrai pour les continents, principalement réparties dans l'HN). Pour les satellites de toute façon, 2007 n'a aucune chance de dépasser 1998. Si on compare les températures sur les 6 premiers mois de ces 2 années (zones entre pointillés), il n'y a aucun doute. Contraiement au Hadley Centre, 2007 est plus froide que 98 non seulement pour les océans (graph 3, en rouge) mais aussi pour les continents (graph 2).
  11. miniTAX

    1998-2007

    Dans ce cas alors pourquoi avoir affirmé, je te cite, "comme le fait remarquer meteor, le refroidissement stratosphérique est lui une signature de l'augmentation de l'effet de serre par le CO2" pour finir par dire que le canal TLT ne permet PAS de détecter le refroidissement ? D'ailleurs, ta dernière affirmation est fausse voire trompeuse. Le canal TLT n'est pas assez fin d'accord mais sa plage 10-25km avec le max d'intégration à 18km soit 60 hPa correspond bien à une zone qui est sensée se refroidir au total, si l'on en croit les modèles (cf graphique du GIEC 2007, fig f, déjà posté page précédente). Ce canal s'est bien refroidi jusqu'en 1995 mais depuis plus de 10 ans, il n'y a plus de refroidissement. C'est bien en accord avec les canaux troposphériques qui montrent qu'il n'y a plus de réchauffement ces dernières années. Quand la théorie ne colle plus avec les observation, tu ne peux pas te contenter de dire "il y a trop d'incertitude, il n'y a pas assez de résolution". C'est une ligne de défense qui peut faire illusion un certain temps mais à un moment, il faut quand même se résoudre à réviser la théorie. Là ça fait 10 ans que les mesures satellites contredisent la théorie. Si on ne peut soi-disant pas s'y fier alors qu'on dépense des milliards pour lancer des satellites tout en fermant les 2/3 des stations terrestres ces 20 dernières années, ça voudrait dire a contrario qu'on ne peut pas non plus se fier au réchauffement qu'on nous annonce alors. Ca c'est toi qui l'affirme gratuitement parce que les observations ne t'arrangent PAS. Pour l'instant, à part une affirmation fausse sur le manque de résolution du canal TLT, tu n'as fourni aucun contre-argument crédible, aucun chiffre, aucun calcul, aucun tableau, aucune référence, aucun graphique, rien.
  12. miniTAX

    1998-2007

    Le 2 pic en 1991 correspondent au Pinatubo. Or depuis Pinatubo, il n'y a plus d'éruption massive, rien. Donc on devrait avoir un refroidissement long terme de la strato en dehors de chaque pic. Or à chaque fois, il y a réchauffement (graphes 2 et 3), sur 84-91 et après 1995 (les droites de corrélation sont calculées pour l'intervalle entre 2 verticales en pointillés)Il y a une première moitié du temps où la strato se refroidit (quoique on ne sait pas à cause des perturbations massives des volcans) et la seconde moitié où ça ne se refroidit PLUS. Si tu ne voit pas le motif, va chez Afflelou mais tu ne peux pas sucer et cracher en même temps. Donc si (je dis si) le refroidissement de la stratosphère devait être le signe du réchauffement par l'effet de serre, bah il n'y PLUS de réchauffement après 1995. CQFD. ***modéré***
  13. D'ailleurs, "l'effet Tchernobyl" se retrouve bien en Ukraine et en Russie. Plus "l'effet Vodka" où la température se met à vaciller dangereusement après la chute du Mur. Quand on sait que la Russie est plus grande que l'Europe, allez au bas mot 10% des surfaces terrestre, il y a de quoi se poser des questions sur la fiabilité de la température globale.
  14. Certes mais quelles sont les causes des gfs, des gros étés et des hivers sévères? Si c'est dû à la variabilité, qui dit que le bond d'après 1986 n'est pas aussi du à la variabilité naturelle. Pourquoi ce ne serait d'ailleurs pas dû à Tchernobyl (avril même année). Les explications doivent être cohérentes avec le tout, pas seulement avec les faits qui nous arrangent.
  15. miniTAX

    1998-2007

    J'ai interverti TTS et TLS dans mes annotations des figures et j'ai parlé de l'absence de refroidissement ces 10 dernières années et non sur 30 ans comme les valeurs que tu montres. Comme d'habitude, tu évites soigneusement de discuter du fond des choses, comme pourquoi depuis 10 ans, la strato ne se refroidit plus, pourquoi la troposphère ne se réchauffe plus alors que les émissions de CO2 continuent de plus belle, pourquoi les modèles prévoient une hausse de température plus importante avec l'altitude au niveau des tropiques alors qu'on n'observe rien de tel, etc, etc... Si tes arguments se résument à "tu n'a pas utilisé le mot juste pour ceci ou celà", je ne vois personnellement pas trop l'intérêt de tes interventions là. ***modéré***
  16. cette réflexion est grotesque à moins qu'elle se veuille drôle.Il n'est aucunement question de disparition complète de la banquise "moyenne" mais bien de la banquise d'été. A ce rythme (si tant est que ce terme ait un sens quelconque), il ne nous reste "que" 500 ans avant qu'il n'y ait plus... de banquise en été. Sinon... ça sera comme la banquise estivale antarctique depuis toujours, à savoir très faible, donc très faible albédo, donc plus d'absorption solaire, donc plus de fonte donc encore plus d'absorption solaire... bref, le scénario d'emballement catastrophiste classique qu'on nous rabache avec l'Arctique. Sauf que la banquise d'été antarctique a toujours été faible sans qu'il y ait emballement thermique, à se demander pourquoi la réalité ne veut pas fonctionner comme l'on s'y attend.
  17. Un phénomène physique est découvert par l'observation ou par une hypothèse initiale qu'on intègre APRRIORI dans un modèle. Il n'est pas identifié GRACE au modèle. L'analyse de l'erreur entre une simulation et les observations n'a jamais permis d'identifier un phénomène physique, il ne faut pas délirer là ! Le premier souci des modélisateurs dès qu'il s'agit de phénomènes complexes et dont le calcul est itératif (le cas des modèles climatiques), c'est de faire en sorte que les erreurs de discrétisation ne deviennent incontrôlable et que les simulations ne divergent pas, choses qui occupent 95% de leur temps. Pourtant, c'est exactement ce que fait le GIEC :- les modèles ne permettent pas de reproduire le réchauffement de ces dernières décennies, hop, en ajoutant l'effet de serre dû au CO2 avec le bon paramétrage sur l'amplifcation par la vapeur, ça le fait. On aurait très bien pu remplacer le CO2 par les rayons cosmiques ou les oscillations océaniques, ça le fait aussi (manque de pot pour ceux-ci qui ratent le premier rôle dans le film d'Al Gore, on ne peut pas les mettre sur le dos des humains). - Les modèles ne permettent pas de reproduire le refroidissement entre 1945 et 1975 ? Hop, on ajoute une courbe de concentration variable d'aérosols (dont on a que des supputations sur la concentration dans les années 50, 60, 70 voire 80) et voilà le refroidissement simulé "avec robustesse". Certains auront beau protester que ce serait dû à une hausse des rayons cosmiques (donc hausse des nuages bas donc refroidissement), personne ne peut contredire la courbe d'aérosol puisqu'aucune donnée existe pour prouver le contraire. Bref, à part les pouvoirs surnaturels mais inexistants que tu prêtes aux modèles (il n'y a qu'à voir la différence de résultats d'un modèle à l'autre pour s'en rendre compte) et des généralités parfois fausses, je ne vois aucune critique crédible dans ce que tu dis. Si tu as l'intention de montrer que tu t'y connais mieux en modèles que d'autres, pourquoi ne pas simplement et précisément démontrer que ce que j'ai dit sur les modèles (et j'en ai dit, contrairement à toi) est faux au lieu de faire de grandes exclamations googlesques ?
  18. Juste un détail, le sigma qu'on utilise pour avoir l'intervalle de confiance de 95% à +-2sigma, c'est racine carré de variance/(n-1) et non racine carré de var/n comme tu le fais.Le sigma "officiel" de (1,2,3,4) c'est donc 1,29 Concrètement, ça veut dire que si on a une distribution aléatoire gaussienne (ce qui n'est PAS le cas de résultats différents générés par différents modèles venant de différentes équipes faisant des hypothèses différentes pour une MEME variable), et qu'on obtient 4 valeurs 1,2,3,4, les prochaines valeurs auront 95% de chance d'être dans l'intervalle [moyenne-2sigma ; moyenne+2sigma], càd [-0,08;5,08] (intervalle de confiance). Pour répondre à Yves Sciama, la stardard deviation tel qu'utilisé par le GIEC est sensé représenter la dispersion (d'où le terme de "deviation") entre modèles. Si le sigma est petit par rapport à la moyenne, le GIEC dit que les différents modèles des différentes équipes sont d'accord entre eux, ce qui sous-entend qu'on simule correctement le phénomène en question (!). Bref, le consensus a atteint les modèles aussi. Un peu comme si pour calculer 10+10, on a 4 modèles différents qui donnent 1,2,3 et 4, le GIEC dit que ça fait 2,5 (moyenne des modèles) avec un standard deviation de 1,29 ce qui laisse croire qu'il y a 95% de chance que 10+10 donne un résultat entre -0,08 et 5,08. On nage en plein virtuel mais l'apparence est sauve, les modèles sont d'accord entre eux La (vraie) question qui tue, c'est : mais quel le est sigma pour le résultat de CHAQUE modèle, est ce que ce sigma existe, est ce que ça a un lien quelconque avec la probabilité que la simulation tombe juste, que signifie la "prévision d'ensemble"... on peut en parler car le GIEC se garde bien d'insister là-dessus mais ça risque d'être carrément HS. Edit: première phrase à corriger en "racine carré de variance*n/(n-1) et non racine carré de variance comme tu le fais".
  19. J'ai lancé le calcul pour les autres pays Européens, on retrouve le même "seuil" de début de hausse vers 1986 un peu partout en Europe de l'Ouest. Vraiment bizarre! Les images sont stockées ici, pour ceux qui sont intéressés.
  20. A ce rythme (si tant est que ce terme ait un sens quelconque), il ne nous reste "que" 500 ans avant qu'il n'y en ait plus.
  21. Par "bulle", j'entends la ville qui entoure la station. On ne peut pas voir son évolution avec Google map, c'est plutôt l'évolution de la population, de la conso d'énergie (voiture+clim+chauffage) et le bétonnage qu'il faut étudier. A vue de nez comme ça, je dirai que la station est de classe 2 voire 3 : http://meteo.besse83.free.fr/Divers/Classite.htmL'autre station sur Marseille est à 2 pas de l'aéroport, donc encore moins bonne.
  22. En affichant Marseille, j'ai trouvé un saut bizarre en température. Alors j'ai chargé les données du site KMNI ci-dessus pour les stations française. On retrouve presque systématiquement certaines caractéristiques : - les données anciennes sont étonamment absentes (ces séries sont les mêmes que celles dans la base GHCN qui sert à compiler la température mondiale) - les données pendant la 2nde guerre ne sont pas terribles (mais bon nos parents avaient d'autres chats à fouetter) -il y a un plateau de température voire un léger refroidissement entre 1950 et 1986,5 - après 1986,5 il y a une montée brutale qui dure environ jusqu'en 2000 (les températures sont des moyennes mobiles sur 5 ans) Donc quand on nous parle d'une hausse sur 50 ans, on aurait pensé à une hausse relativement régulière (comme par exemple celle du CO2 ) mais en fait, ça se passe par variations assez brutales. Si quelqu'un a une explication pour le "seuil" de 1986,5, je suis preneur (et qu'on ne me dise pas que c'est l'effet de serre ).
  23. miniTAX

    1998-2007

    Oui mais justement la stratosphère ne se refroidit PLUS depuis plus de 10 ans. Encore une autre réalité qui a la fâcheuse manie de ne pas réagir come le "prévoient les modèles" /emoticons/wink@2x.png 2x" width="20" height="20"> Basse stratosphère Haute stratosphère
  24. miniTAX

    1998-2007

    Belle phrase d'anthologie Un peu comme si Catherine Laborde annonce à la fin du 20h : "la météo observée aujourd'hui n'a pas été parfaitement en accord avec les prévisions de MF" (et non l'inverse).
  25. miniTAX

    1998-2007

    J'ai dit que les températures satellites sont meilleures que les températures de surface, je n'ai pas dit que les premières sont sans défaut. Je ne vois donc pas ce qu'il y a de choquant là dedans. De toute façon, les 2/3 de la surface est faite d'océans et d'après toi, la NOAA détermine la température des océans ces 3 dernières décennies à partir de quoi ?
×
×
  • Créer...