Jump to content
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

ChristianP

Adhérent Infoclimat
  • Content Count

    2860
  • Joined

  • Last visited

  • Days Won

    1

Everything posted by ChristianP

  1. Jour le plus chaud de l'année avec brise de mer habituelle. En classe 2 Abri Stevenson : thermo MF 33.6°, Pt 1000 33.3°, Elitech 33.1°, SHT75 33.6° Abri Socrima Pt 1000 : 33.1° Abri Young ventilé méca SHT75 : mesure de référence normes USCRN 32.4° (en instantané 33.7°) Abri Davis méca SHT 31 : 32.7° Abri Davis méca ventilo coupé SHT 31 : 33.2° En classe 4 secteur SW: Socrima Pt 1000 : 35.5° Cimel Pt 1000 : 36.6° En classe 4 potager secteur Est Abri Vue 10 coupelles Pt 1000 : 35.6°
  2. Jour le plus chaud de l'année. En classe 2 Abri Stevenson : thermo MF 33.0°, Pt 1000 32.6°, Elitech 32.4°, SHT75 33.0° Abri Socrima Pt 1000 : 32.4° Abri Young ventilé méca SHT75 : mesure de référence normes USCRN 31.7° (en instantané 33.9°) Abri Davis méca SHT 31 : 32.4° Abri Davis méca ventilo coupé SHT 31 : 32.7° En classe 4 secteur SW: Socrima Pt 1000 : 34.6° Cimel Pt 1000 : 35.6° En classe 4 potager secteur Est Abri Vue 10 coupelles Pt 1000 : 36.7° (bien avant la Tx dans l'autre classe 4 car avant la brise habituelle de SW, elle était anormalement pour ici d'E/SE) A noter que la station MF des Arcs a changé de station le 6 juin 2017, d'abri (Un Socrima à la place du Cimel) et d'emplacement. Elle est maintenant en plein champ de vignes pas loin de l'ancien emplacement trop cloisonné du NNW au SE (Classe 2 contre classe 4 pour moi à l'époque, MF la classait 3, mais en ne tenant pas compte des cloisonnements, ni de la végétation courte trop haute pour les Tx. MF regarde malheureusement que les ombres portées quand ce sont des végétaux, comme si ça n'avait aucune importance et qu'ils ne coupaient pas le vent et ne pouvaient pas être une source de chaleur) https://donneespubliques.meteofrance.fr/metadonnees_publiques/fiches/fiche_83004004.pdf
  3. Regarde aujourd'hui vers 11h40 en classe 2 avec de la paille d'herbe sans terre visible avec une émissivité à 0.95 : Et sur une bonne touffe d'herbe sèche dense de 10 cm de hauteur près du Socrima en classe 2 peu de temps après (avec vent faible à 5 km/h de moyenne à 16 m avec une T d'environ 30° sous abri , donc peu de vent perceptible au sol dans les deux mesures) En fait il y a de la paille d'herbe plus chaude encore entre les touffes, car cette paille est abritée du vent par les touffes et à d'autres endroits du parc où la terre est visible, la T de surface est bien plus chaude encore à plus de 80°, il y a quelques résidus verts bien plus froids, mais en moyenne du parc à instrument, alors que ce n'est que le début de la saison et que la terre a encore un stock d'eau. Le sol est déjà nettement plus chaud que le goudron pour les Tx à conditions de vent égales. Et là pourtant ce n'est pas à l'heure de la Tx juste avant le levée de la brise souvent au plus fort du rayonnement. Pour ton arbre, le sol au soleil dans la saison concernée le jour de ton écart (vers mars il me semble), n'est pas obligatoirement en surface plus chaud que l'air malgré le rayonnement solaire, à cause de la température de surface de la verdure et de l'humidité du sol et c'est le problème même en dehors de l'ombre portée plus grande avec l'arbre. Le sapin à 5 m est plus froid que l'air selon la Tx dans la saison concernée aussi pour ton capteur qui cherche à atteindre l'équilibre avec sa T de surface. Les rayonnements réfléchis sont bien moins importants avec de la verdure au sol, un sol humide, dans ces cas sans sol clair, c'est surtout à cause de l'IR que la T est plus basse hors abri (ou plus haute quand le sol et l'arbre deviennent plus chauds que l'air). Un abri à ouvertures latérales qui reste trop lumineux évite même plus l'IR que le réfléchi, c'est pour cette raison que le noir est efficace dans les abris à simples persiennes comme celui du KNMI équivalent (légèrement meilleur de façon non significative de quelques pouièmes) au Socrima. Actu 31.8° au SHT75 dans le Stevenson, 30.9° au SHT31 dans le Davis ventilé méca. La T à 10 cm de la paille + herbe sèche avec une sonde inox est à 47° donc logique que la T de surface soit bien plus chaude que cette sonde pas aussi apte à s'échauffer au soleil et encore moins à cette hauteur que posée au sol.
  4. Pas vu ces émissivités de l'herbe à l'INRA, ni chez les topoclimatotogues. Ta route et ton herbe sont-elles comparées au même endroit avec le même vent, le même site avec de mêmes dégagements, car ta route a une T comparable à celles d'ici, mais pas à l'herbe sèche coupée ou non. Les T de surfaces sont encore plus difficilement comparables que les T abri, car le vent joue beaucoup plus et l'humidité aussi . (D'ailleurs c'est pour cette raison que tu as fait une erreur en ayant dit un jour que le Socrima surchauffait par rapport à ta mesure à l'ombre dans un arbre. Ta mesure ombre est biaisée par l'ETR de l'arbre et les T de surface des feuilles refroidies par ETR et/ou par le sol dans la saison concernée plus froid que l'air, aucun rapport avec le moindre vent, une Tx ombre sous un Stevenson l'été par beau temps qui lui n'évapotranspire pas pour biaiser la T de l'air dans l'abri et la T IR, reste toujours plus chaude hors tempête que dans l'abri, sans sol (et/ou obstacles/ abris) plus froids que l'air. Dès que l'environnement est assez plus froid que l'air au niveau de l'IR, le capteur hors abri perd de l'énergie, c'est un biais que l'abri évite pour les cas où la T de l'air et le vent sont insuffisants pour compenser l'écart donné, très souvent, dans un sens ou dans l'autre, pas que du côté chaud comme le fait croire ton observation à l'époque : 1.3° de plus dans le Socrima de mémoire que ta T à l'ombre de l'arbre. Un arbre pour porter une ombre donne une T moins comparable dans le temps qu'un bon isolant épais qui ne stocke jamais l'eau. Ce stock dans cet abri virtuel est trop variable dans le temps et d'une année sur l'autre et quand il est assez sec il produit aussi de la chaleur comme je l'avais vérifié ici l'été quand j'avais un pommier isolé sur mon terrain. ) Ex d'écart entre la T dans l'abri et T ombre sous l'abri Stevenson capteur bien exposé aux vents : http://meteo.besse83.free.fr/imfix/tombreabri.gif J'ai déjà répondu en détail à tes questions pour les écarts entre les sondes dans le Stevenson vers le début du mois ici, fouille un peu plus haut :-). 32.1° pour le Stevenson contre 32.0° pour le Socrima, on ne peut pas appeler ça une grande surchauffe avec de mêmes Pt 1000 vérifiées l'une sur l'autre. D'habitude c'est plutôt 0.2° d'écart en Tx. Le Stevenson est plus sensible au rayonnement latéral que le Socrima, ici les Tx ayant lieu tôt avec le soleil au plus haut, les écarts seront moindre ici que dans les sites dans les terres et régions où elles se produisent très tard. Le Stevenson est trop lumineux dans ces conditions, je vois bien les écarts en temps réel grimper. 31.3° pour la Tx aux normes USCRN aujourd'hui.
  5. Certaines émissivités sont bizarres dont l'herbe qui pour mon capteur sont sur la bande des 8-14 micromètres des thermo IR courants. http://jepelet.free.fr/studies/MST/TRAVAUX/INRA/Maquette_7/sol/pdf/radiotherm_Prot.PDF Dans la table de mon appareil de mesure pour les tuiles j'ai de 0.93 à 0.96, pour la terre, l'humus de 0.92 à 0.96. Asphalte 0.9 à 0.98 (béton 0.94). Ton herbe coupée c'est plutôt au dessus de 0.95. Il est recommandé d'utiliser 0.95 quand on ne sait pas trop où se situe une valeur supérieure à 0.9 Attention aux angles dans la prise de mesure : http://theses.ulaval.ca/archimede/fichiers/22198/ch04.html Sinon ici Tx la plus chaude de l'année, probablement jouée en classe 2 avec la brise soutenue à 34 km/h maxi, levée depuis longtemps. 32.5° au thermo MF dans le Stevenson, 32.1 à la Pt 1000, 32.4° au SHT75, 31.8 (dont +0.1°) à l'Elitech (Même datalogger que Cédric en test dans le Stevenson, très bon pour le prix pour le moment, mais qui tronque les Tx à cause d'une constante de temps trop longue avec ce boîtier hermétique, surtout dans cet abri plus lent que les autres. Calibrage à faire de +0.1°, car trop froid de 0.1° en écarts médian et moyen sur des milliers de relevés pour le moment entre 7.6° et 32.1° par rapport à la Pt 1000 de référence) 32.0° à la Pt 1000 dans le Socrima 31.7° SHT31 abri Davis méca 24h/24h 31.8° SHT31 même abri mais ventilo coupé (plus le sol est sec et chaud et plus le soleil est puissant et haut et plus la convection l'emporte et la ventilation devient négligeable pour cet abri qui surchauffe d'autant moins par rapport à l'abri ventilation activée que la partie supérieure porte une ombre sur tout l'abri vers l'heure de la Tx. Le sol avec de l'herbe sèche coupée depuis 15j et courte non coupée bien chaude avant que la brise se lève, génère de bonne bouffées qui montent directement dans l'abri) Je regarderai ce soir les relevés minutes pour le relevé de référence à la norme USCRN dans le meilleur abri ventilé Young ici. Classe 4 SW 34.3° Pt 1000 Socrima 35.5° Pt 1000 Cimel Classe 4 potager Est 35.5° Pt 1000 abri vue 10 coupelles.
  6. La constante de temps de mes SHT75 est pratiquement 4 fois plus courte sous 1 m/s que celle de la Pt 1000. En lissant pour compenser les différences de constante de temps, il n'y a pas cette différence. Il n'y a pas ces différences pour les Tn souvent bien moins brèves que les Tx ici (11.1° comme ce matin pour la Tn SHT75 et la Pt 1000), ni ces différences dans les hautes températures quand on compare la SHT75 à température assez stabilisée avec la Pt 1000. Dans l'abri méca Young c'est pire pour la constante de temps, plus courte encore avec la forte ventilation. La norme USCRN tient compte des constantes de temps, une Pt 1000 avec la même constante que les miennes, nécessite aux US dans l'abri méca un lissage sur 5 mn, un SHT75 nécessite un lissage sur 7 mn pour harmoniser les constantes. Un montage Davis avec ces composants Sensirion affiche des Tx plus basses ici que la Pt 1000, pour les mêmes raisons, capteur Davis plus lent, fait pour un abri méca (d'ailleurs le lissage du montage de la sonde Davis compense une partie de la surchauffe de l'abri méca Davis 24h/24h, partie supplémentaire par rapport à un Young, qu'on ne verra qu' en comparant avec des sondes identiques, comme avec les Pt 1000 et un lissage correct) Les thermo en verre sont connus dans les divers réseaux du monde pour chauffer plus les Tx (ex +0.3° en moyenne sur le réseau US) et refroidir plus les Tn (-0.2° aux US) que les stations auto à Pt 100/1000 (le thermo en verre échantillonne à chaque instant, pas une Pt 1000/100 qui est sur 10 s avec T instantanée qui est une moyenne sur 1 mn, ou un relevé toutes les minutes, ou autres lissages selon les pays). La SHT75 a été montée pour se rapprocher au mieux des thermo en verre, c'est déjà pour cette raison que j'avais dérivé une thermistance nue Davis d'avant 2006, y compris à l'époque de la Monitor 2 (une Monitor 2 dont la console échantillonne toutes les secondes alors que le datalogger lui ne capte que les Tx toutes les 2.5 s, renvoie des écarts de plusieurs dixièmes l'été avec cette sonde rapide entre la mesure Tx sur 2.5 s et celle sur 1s. Si la V2 échantillonnait autant et non pas seulement sur 10s, on verrait parfois plus que 0.5° d'écart sur la SHT75 avec la Pt 1000 simplement pour un manque d'harmonisation des façons de mesurer et non pas pour un problème d'abri et d'étalonnage). Il faut un capteur rapide pour afficher le plus souvent les mêmes T que les thermo MF en verre ici surtout l'été où les Tx sont plus brèves avec des courants d'air de T très hétérogènes avec la forêt et les sols nus de T proches.
  7. Jour le plus chaud de l'année. En classe 2 Abri Stevenson : thermo MF 31.0°, Pt 1000 30.6°, SHT75 31.1° Abri Socrima Pt 1000 : 30.3° Abri Young ventilé méca SHT75 : mesure de référence normes USCRN 29.7° (en instantané 30.9°) Abri Davis méca SHT 31 : 30.0° Abri Davis méca ventilo coupé SHT 31 : 30.6° En classe 4 secteur SW: Socrima Pt 1000 : 32.2° Cimel Pt 1000 : 33.4° En classe 4 potager secteur Est Abri Vue 10 coupelles Pt 1000 : 33.0°
  8. Jour le plus chaud de l'année. En classe 2 Abri Stevenson : thermo MF 29.1°, Pt 1000 28.8°, SHT75 29.1° Abri Socrima Pt 1000 : 28.7° Abri Young ventilé méca SHT75 : mesure de référence normes USCRN 28.0° (en instantané 29.5°) Abri Davis méca SHT 31 : 28.3° Abri Davis méca ventilo coupé SHT 31 : 28.7° En classe 4 secteur SW: Socrima Pt 1000 : 31.1° Cimel Pt 1000 : 32.2° En classe 4 potager secteur Est Abri Vue 10 coupelles Pt 1000 : 32.0°
  9. Coup de chance le morceau du lourd conduit a été amorti par la bordure de la toiture et retenu par la ligne téléphonique. Comme je craignais que ce poids traverse le toit de cette avancée extérieure dans la nuit avec un vent plus fort, je l'ai déjà descendu au sol. L'antenne directionnelle de l'ampli GSM est en place provisoirement et fonctionnelle, son cache est explosé, l'abri 7714 est mort, les tuyaux d'aération de la fosse, fixés à la cheminée, sont partis. Quelques tuiles et faîtières à changer et un peu de mortier, rien de méchant. https://scontent.xx.fbcdn.net/v/t31.0-8/17017023_775366732628130_965594907897553305_o.jpg?oh=d8ff782861be775c628e079519a924bd&oe=596467FA
  10. Grosse rafale localisée sur une partie de mon toit, une cheminée annexe vient de tomber avec l'antenne du relais GSM et un abri 7714... 114 km/h à 17.5 m (au moment où la cheminée est tombée) 105 km/h à 16 m (au moment où la cheminée est tombée) 98 km/h à 16.4 m ((au moment où la cheminée est tombée) 87 km/h à 10 m 82.3 km/h à 3.4 m (au moment où la cheminée est tombée) 76 km/h à 2 m
  11. A Besse bon début d'épisode venteux dans l'AM, rafales maxi de SW, secteur le plus dégagé dans l'axe du venturi de la plaine, un secteur qui ne relève pas de gros coups de vent, il faut vraiment des situations particulières comme par exemple aussi en Déc 99. 110 km/h à 17.5 m 98 km/h à 16 m 95 km/h à 16.4 m 87 km/h à 10 m 82 km/h à 3.4 m 76 km/h à 2 m
  12. Là On voit bien que de 90 à pratiquement 96 on est resté dans des Nino et neutre + , de plus il est fortement possible que le Pinatubo ait raboté le niveau à certains moments (de nombreux W/m2 très palpables en moins sur les capteurs de rayonnements directs au sol, les maxi journaliers, étaient réduits jusqu'à une centaine de W/m2 pendant les essais sur la mesure de la DI à Carpentras ! En comparaison une variation extrême de la constante solaire est indétectable par ces mêmes capteurs.) C'est certain qu'avec le fond actuel, sans volcan et une même période d'ENSO+ prolongée, ça devrait chiffrer autrement plus fort que sur cette période ! De 77 à 83 environ, là aussi pas d'ENSO- franchement souvent efficaces pour le froid et c'est vers la fin de cette période qu'on a observé la plus forte pente/10 ans de 0.42°/déc, à cause aussi d'une ENSO négative puissante et étalée en début de tendance. Ca ne m'étonnerait pas qu'on atteigne logiquement du 0.6°/10 ans d'ici 2022 avec de mêmes longues périodes d'ENSO rouge+, plutôt que 0.22°. Mais bon là je sens qu'ils vont devenir fous, alors que tout ne serait que cohérent avec le fond et le bruit déjà observé. Les modèles même simplifiés comme ceux de Météor sont déjà bien efficaces pour détecter une possible sortie anormale de route. Le fond est quand même connu assez vite une fois les forçages communiqués, après pour les détails du bruit et extraire précisément chaque composante ce n'est pas gagné déjà pour les spécialistes. Pour ceux qui ne comprennent pas que la décroissance après l'ENSO +, n'est vraiment pas brutale même sans emballement sur le fond, voici un exemple très pédagogique chez Méteor : https://climatevolution.com/2016/08/16/evolution-recente-de-la-temperature-globale-influence-de-lenso/ (Bien entendu selon les modèles, la décroissance sera plus ou moins différente, il y a des IC non négligeables, mais bon l'idée générale est là.) Le fond du modèle de base de Méteor n'est pas à la rue par rapport aux modèles évolués ( bien d'autres personnes surveillent ça de près avec des modèles simplifiés en plus des scientifiques avec leurs modèles puissants et personne ne revendique encore un problème de sous-estimation sur le fond à cause de ces dernières années et de ces mois ) : https://climatevolution.com/2015/11/22/comparaison-modele-climat-evolution-avec-cmip5/ EH aussi montre qu'on peut avoir une bonne idée du fond probable avec les bases physiques sans attendre longtemps (on sait tous que l'été sera plus chaud que l'hiver, mais on ne sait pas dans quelle mesure tel été sera plus chaud que tel autre à court-terme) : http://www.climate-lab-book.ac.uk/2015/back-of-the-envelope-attribution/
  13. Ben oui c'est clair, j'avais bien tout ça en tête, mais ça ne change pas qu'en synthèse de la science du domaine, rien du tout indique que ce sont probablement des amplifications significatives qui l'emportent de nos jours, pour produire les anomalies actuelles banales avec un bruit classique avec le RC de fond observé et celui prévu. Comme souvent en science ce n'est pas impossible vu qu'il existe une proba infime, mais c'est très improbable qu'à chaque fois qu'on observe un ENSO+ XL avec ou sans IPO+ même si elle génère un nouveau Nino dans la foulée, ou autres variables pas significativement différentes de celles du passé, d'y voir un RC qui s'emballe sur le fond, alors qu'on a un réchauffement interne qui est simplement compatible avec ce qui a été observé et avec le RC de fond prévu. Ceux qui cherchent à quoi attribuer les variations de T à différentes échelles, déterminent pourtant ce qui est anthropique ou pas avec des lois physiques (c'est certain que pour certains indices pour la prévis saisonnière qui ne sont que statistiques, ce n'est pas gagné !). Dans le chapitre 10 de l'AR5 qui parle d'attribution, c'est quelque peu le sujet de faire le tri entre le fond anthropique et la variabilité interne et externe naturelle, malgré qu'il est évident que pour l'interne tout est lié et que rien n'est probablement totalement indépendant du RC, mais l'important c'est là aussi la significativité. Tant que ce n'est pas le cas, exactement comme pour l'approximation linéaire, on peut considérer que l'impact du RC sur la variabilité à court-terme pour détecter une sortie de route à court-terme, n'est pas gênante. Quand la variabilité change significativement avant même que les physiciens quantifient les causes précises, ça saute aux yeux, comme pour la glace de mer en Arctique depuis 2007. La variabilité change sans photos avec des IC à des années lumières de se croiser ! Sinon pour ceux qui voudraient voir simplement écraser la variabilité autour du fond, avec un record annuel battu systématiquement chaque année dans 95% des cas, il faudrait un RC d'environ 20° par siècle (Une variabilité sera toujours présente, le record sera battu de façon plus ou moins importante) Ce n'est pas demain qu'on verra la valeur de chaque journée, mois, année..., égale à la valeur centrale de la climato (même si la terre est une boule de glace ou de feu, il y a des lois physiques qui font qu'il y aura une variabilité autour d'un signal de fond, plat ou non selon l'équilibre que l'on pourra quantifier/estimer un minimum pour ne pas délirer avec le bruit comme actuellement et pendant le hiatus interne ! ) Ceux qui voient à chaque hausse ou baisse de T à des échelles non climatiques, une accélération ou une absence de RC de fond, sans que les anomalies sortent des bornes physiques et statistiques, confondent la météo avec la climato. Le RC, c'est le réchauffement du climat, je ne l'ai pas défini moi-même, c'est écrit noir sur blanc que pour les paramètres, comme la T, il faut plusieurs décennies pour obtenir une valeur moyenne avec du sens, OK !? Donc il faut savoir de quoi on parle, du réchauffement de l'état moyen, du climat lui-même ou du réchauffement interne dans un échantillon de climat, à la petite semaine. Ca ne pose pas de problèmes de parler de plateau quand on ne dit pas que le RC a ralenti avec 15 ans de données ou d'une accélération intérieure de la T sur 3 ans si on ne dit pas que c'est le RC de fond qui s'emballe, mais ne n'est que de l'évolution interne qui ne permet pas sans le relier aux éléments physiques d'y voir un emballement pour le RC de fond. Quand on dit que tel jour ou tel mois s'est réchauffé, personne ici ne va me répondre que c'est l'année qui s'est réchauffée et qu'il y a emballement au niveau annuel ! Il n'y a que dans cette science biaisée par l'idéologique qu'on voit des raccourcis aussi lamentables, même pas du niveau scolaire et donc de la pure non science. Th38, je m'interroge dans le sens inverse, car je relie les chiffres avec les éléments physiques bien tangibles, comme le Pinatubo, l'ENSO XL, un Blob, le forçage anthropique en plus depuis 98 d'autant plus avec le fait qu'on suit le pire scénario. La question n'est pas cette reprise interne si logique avec ce bruit concerné, mais plutôt de savoir pourquoi la pente n'est déjà pas nettement plus forte qu'entre les 2 bons Ninos avec le Pinatubo plombant la pente sur 83-98 et pourquoi la valeur de 2016 avec l'aide de tout ce bruit chaud, n'est pas en haut des projections comme ce fût le cas en 98. Voilà des questions en rapport avec la physique, que je ne me poserais même pas si je regardais que mes stats en zappant les causes principales du bruit et du fond. La question c'est tout le contraire de l'emballement d'autant plus que l'étude sur l'IPO, montre qu'elle n'est pas suffisante pour expliquer la faiblesse de la pente du hiatus interne (27% d'explication seulement contre plus de 70% dans d'autres phases d'IPO) ! Il n'y a que les modèles qui me permettent de relativiser la contre-performance du RC de fond face à la variabilité sur cette courte période, car ils voient l'accélération plus tard. Sinon là j'aurais tendance à penser que les modèles surestiment, mais je garde en tête qu'il y a de l'inertie (une vingtaine d'années) pour sortir réellement de ce hiatus interne et que les modèles n'échantillonnent pas assez les possibles, d'où le plantage sur le hiatus interne de 15 ans si peu probable pour eux. A noter pour ceux qui n'ont pas remarqué ma correction, que le graphe initial des tendances/10 ans étaient tronqué et que nous dépassons les 0.22°/déc des prévis avec l'IPO. C'est une tendance interne avec de grands IC, qui ne peut-être assimilée au RC de fond (ça n'indique en aucun cas un RC plus fort !). C'est pareil que faire une comparaison deux moyennes de 5 jours qui se suivent, pour chercher l'évolution de fond du mois concerné par rapport à un autre échantillon de ce mois. Personne n'aura l'idée de me dire que le réchauffement de ce mois s'emballe par rapport aux autres mois, avec que 2 moyennes/10 jours, de tels éléments incompatibles pour ce diagnostic, mais je ne sais pas pourquoi, la majorité fait un blocage dès qu'on raisonne au niveau climatique, impossible de voir l'énormité, même chez certains scientifiques qui dans la com des publications mélangent ces échelles qu'ils ont pourtant eux-mêmes définies! Le principe de précaution pour les faibles proba du futur a bon dos face au principe de réalité de nos jours : http://m.levif.be/actualite/international/20-millions-de-personnes-pourraient-mourir-de-faim-d-ici-6-mois/article-normal-615899.html?utm_campaign=Echobox&utm_medium=social_vif&utm_source=Facebook#link_time=1487326352 http://www.lesechos.fr/industrie-services/energie-environnement/0211814544513-economies-denergie-leurope-seloigne-de-son-objectif-pour-2020-2066500.php Les faits sont têtus. Les croyances de la majorité sur le RC sans les actes significatifs dans les faits, n'ont aucun effet significatif dans les faits. Axer le changement sur le RC, un problème futur comparé aux actuels, donne l'impression d'avoir du temps et donc fournit l'excuse pour ne justement rien faire de significatif rapidement pour changer le modèle qui est à l'origine de la majorité des problèmes actuels et futurs dont le RC. Sinon quelle est la loi bidon qui dit que les morts actuels n'ont pas du tout la même valeur que les futurs les plus improbables par principe de précaution ? Bizarre cette précaution à géométrie plus que variable, où on réfléchit pour le plus improbable dans le futur au lieu d'agir dès à présent pour le certain ! Le principe de réalité aurait déjà dû nous faire changer depuis longtemps, mais nous sommes aux pieds de la déesse "économie" au service d'une minorité avec la complicité de la majorité des humains qui le veut bien dans les faits...
  14. Yoann44, le problème dans ce que tu dis dans IC, n'est pas que ça plaise ou non, mais que ce soit scolairement et scientifiquement assez correct par rapport à ce que nous disent les synthèses des scientifiques. C'est ce qui est trop douteux à ce niveau, qui ne convient pas et qui est en prime très contre-productif, fait douter du reste. Déjà quand tu commences avec "mes impressions", en faisant dire à des études et à des obs ce qu'elles ne disent surtout pas du tout, car tu n'arrives pas à voir la différence entre les prévis et les analyses avec le bruit et celles sur le fond, c'est très mal parti. Même au lycée, on ne se contente pas de vagues impressions biaisées par les erreurs classiques diffusées dans les blogs négativistes ou réchauffistes qui s'appuient systématiquement sur le bruit pour tordre le fond dans le sens qui leur convient ! Donc si tu veux lire les études et les blogs sans te faire piéger par leurs tendances et donc sans désinformer dans IC, tu dois garder les valeurs des prévis sur le fond, les échelles de temps et les paramètres concernés en tête. Quand on parle du RC du climat pour la T, c'est le réchauffement de la moyenne sur au moins 20 ans, donc quand tu lis une étude qui te donne une prévis de 0.22°+-0.13°/déc sur 2013-2022 à cause de l'IPO (variabilité interne !), ça t'indique de fait déjà que le blog est tordu s'il parle d'accélération du RC avec de tels éléments. D'autant plus que c'est une pente interne, donc courte, qui n'est même pas plus forte que le RC de fond prévu par les projections de l'AR5 (voir le listing plus bas). C'est une simple explication/prévision de la variation interne (donc avec le bruit) en valeur centrale avec le timing qui si elle se réalise, est même insuffisante pour parvenir à faire rentrer la moyenne climatique centrale pile dans les clous des projections. Cette prévision de variation interne est simplement plus forte que celle donnée par le bruit interne prévu par les projections sur la période (qui n'est que de 0.14°+-0.12° /déc sur cette période) sans initialisation (ce n'est pas ce qu'on appelle une prévis plus haute que les projections à l'échelle climatique pour le fond, et c'est le blog que tu lis qui t'induit en erreur !), ce qui est logique pour des modèles pas faits pour. Tu n'arrives pas, comme beaucoup d'autres, à comprendre malgré que ce soit indiqué de fait noir sur blanc que ce n'est pas une évolution climatique, mais une variation interne au climat (et oui l'IPO, l'ENSO, c'est du bruit et tant que les scientifiques n'ont pas sorti une synthèse qui nous dit qu'il faut revoir les prévis de fond (et non pas qu'affiner les prévis internes) à cause d'une sous-estimation d'une éventuelle amplification de l'IPO+ et ENSO+ à cause du RC, tu ne peux pas l'avancer, car il n'y a aucune preuve scientifique qui montre que leur évolution dépasse l'impact pour le fond prévu par les modèles) Tant que tu perdras de vue les échelles concernées et le niveau réel des prévis, tout comme ton blog de référence qui est habitué, les erreurs grossières comme l'actuelle seront pires que celles des négativistes, qui eux au moins ne nous parlent pas de ralentissement du RC et de refroidissement avec une pente confondue avec celle centrale sur 70-98 à l'inverse de vous. Tu n'imagines pas l'énormité de ce que tu racontes, car au moins pendant le faux hiatus, il y avait bien un décalage visuel avec la pente centrale sans que personne sorte la loupe, mais toi comme le blog concerné, vous êtes bien au-delà du réchauffisme pur et dur, c'est du grand n'importe quoi avec votre confusion entre le RC et le réchauffement de la T globale à des échelles internes au climat ! On va le voir avec mon graphe précédent. J'ai rajouté en orange la pente du faux hiatus à la mode de l'époque, puis une pente rouge décalée d'autant mais côté chaud, celle des réchauffistes normaux qui se noient dans le bruit mais au moins quand il y a un certain décalage avec la pente centrale, mais sans qu'il ait plus de sens que dans ton cas qui est vraiment hors sol ! Toi et autres arrivez à nous inventer une accélération du RC avant même que des réchauffistes normaux se réveillent avec la pente rouge. Elle n'indique déjà pas d'accélération sur le fond et toi tu essaies de nous en vendre une alors que la pente est confondue avec celle du milieu identique depuis 70, sans que les anomalies annuelles ou mensuelles, indiquent quoi que ce soit en ce sens. L'ENSO + si elle revient comme prévu à nouveau cette année dans un de tes graphes, sera simplement conforme avec ce que la physique nous indique. Il y a des périodes favorables à un surplus d'ENSO+ et d'autres favorables à un surplus d'ENSO- avec l'IPO donc d'après les derniers travaux. Donc tant que tu ne verras pas une synthèse revue par les pairs des travaux indiquant que le RCA a engendré une dérive du bruit lui-même au-delà de ce qui est prévu dans les modèles et donc qu'ils sont obligés de revoir les paramètres des modèles de projections pour changer les prévis sur le fond (là ils travaillent sur la prévis décennale que tu confonds avec le RCA fond !) , tu ne peux indiquer une accélération probable et surtout pas nous le dire ici, car il n'y a rien de nouveau dans ce sens qui a été admis par la science revue. Tu as un blog où tu es libre de poster de pareilles énormités contre-productives pour ta cause. Il faut de la rigueur quand on défend une cause ! Tu es impressionné par les 0.22° /déc sur 2013-2022 alors qu'avec les anomalies mensuelles GISS sur 12-73 à 11-83, la tendance /10 ans a été de 0.42°/déc et que c'est courant avec moins de forçage anthropique de dépasser cette pente sur 10 ans : C'est de la franche la rigolade cette prévis de 0.22°/déc et il faudra bien les 0.3° de pente / 10 ans pour rentrer dans les clous de la moyenne prévue sans absolument aucune accélération sur le fond ! Un rééquilibrage naturel du bruit sauf si les scientifiques trouvent qu'il y a une rétroaction supplémentaire non prévue par les modèles qui génère une tendance dans ce bruit. Donc replace ces 0.22°/déc sur cette courte période dans le contexte et par rapport au RC de fond prévu sur une durée efficace pour les modèles qui de toute façon n'est que de l'ordre de ce qui est prévu pour le fond (0.2°/déc) Dans l’AR4 sorti en 2007, il était aussi écrit : - Projection 2025/2005 de 0,45 à 0,5°C soit en moyenne 0,226°C par décennie, - Projection 2011-2030/1980-1999 de 0,64 à 0,69°C soit en moyenne 0,215°C par décennie, On retrouve ces 0.215° par calculs en valeur centrale sur 2016-2035 pour le scénario A1B aussi d'après le tableau récapitulatif des projections en annexe de l'AR5 : RCP 4.5 on a donc sur 20 ans (2006-2025) : 0.237°/déc RCP6 : 0.227°/déc RCP8.5 : 0.2575°/déc Donc ça c'est le RC de fond. Vu que nous sommes à 0.18° environ, 0.22° sur 2013-2022, c'est bien trop faiblard pour faire remonter la moyenne à ces niveaux centraux de pente effective (sans incertitude du modèle linéaire). Pour moi il est probable qu'avec un IPO+, et donc un surplus d'ENSO+, on affiche plus que 0.22°/déc vu que c'était le cas auparavant sans autant de RCA. Mais c'est du bruit qui ne change rien au fond et c'est du vent comme tes impressions. Il faut arrêter de m'attribuer tes défauts de lectures avec les stats, car tu es complètement déconnecté de la physique en commentant (comme le blog global climat) des graphes comme si la physique n'existait pas (quand tu lis un graphe, des données avec l'oeil, tu fais des stats sans outils, alors si en prime tu ne relies pas ces graphes aux réalités physiques...). Montrer que la valeur 2016 arrive un mm au-dessus du centre malgré un ENSO XL au lieu du haut des modèles, indique que tu lis qu'avec l'oeil d'un statisticien qui justement zappe qu'il y a eu un ENSO XL 2016 et donc qui ne va surtout pas chercher les paramètres physiques comme l'ENSO qui ont fait remonter la T à ce niveau des projections. Sans l'ENSO XL, pas de valeur de retour à ce niveau, ça c'est physique et pas statistique. Là un nouveau Nino est possible, et bien logique que la T 2017 puisse battre à nouveau le record alors que la prévis partait sur une Nina, aucun emballement en vue. Les modèles ne savent justement pas prévoir le bruit au bon moment. A chaque fois tu crois qu'ils ratent le fond car ils ne voient pas ce timing fin dans les détails. Tu as exactement la même façon de raisonner que les négativistes (si les modèles ne voient pas un plateau interne, alors le RC est faux, toi c'est s'il ne voit pas l'ENSO+ l'année suivante ou qu'elle fait monter la T simplement au milieu des modèles, alors il y a emballement, amplification, sortie de l'approximation linéaire ! Un gros film en 3 D quoi !) . Tout comme il était logique qu'on ne batte pas rapidement de record avec un surplus l'ENSO- à gogo. Non désolé, mais on ne peut pas raisonner comme ça, c'est de la non-science. Les modèles avec les projections sur les échelles efficaces pour eux, sont largement suffisants pour montrer le gros problème pas la peine d'inventer n'importe quoi avec le moindre bruit normal à la hausse, pour y voir des changements sans tenir compte du niveau de bruit physique déjà observé, qui ne changera rien au fond tant qu'il n'est pas démontré qu'il est plus amplifié que prévu par les modèles.
  15. Salut ! Pas étonnant car une rafale aux normes OMM déterminée sur 3 s est représentative de l'échelle de la taille d'un bon aéronef, sur 0.5 s (MF) elle est représentative que sur 5 m, donc au pas de l'Ultimeter bien plus fin aux fortes vitesses, elle est représentative pratiquement à l'échelle du moulinet. A 50 cm, peu de chances de capter la même rafale. Il faut aussi bien voir que 3 s aux normes OMM a été aussi déterminé en fonction des efforts significatifs pour les structures qui dépendent du volume d'air déplacé, j'en ai déjà parlé en détail dans ce forum il y a des années. (Une rafale sur 0.5 s et donc sur 0.03 s n'a rien à voir en terme d'efforts et de dégâts avec une même rafale sur 3 s, il y a la notion de déplacement de l'air qui est bien différente, tout comme par exemple pour fixer les esprits, il y a une différence d'effet entre une vague de durée classique de même hauteur qu'un tsunami qui dure plus longtemps et donc avec un volume d'eau déplacé bien plus important, une énergie autrement plus importante pour les structures)
  16. Et oui c'est bien pour ça que s'il y avait quelque chose d'anormal ça sauterait autrement aux yeux que ce soit avec les anomalies ou avec les pentes bien distinctes. On le verra forcément quand la pente violette sortira bien au-dessus de la pente jaune pourtant réduite par un Pinatubo. L'actuelle est en prime en dessous, à l'échelle nanoclimato dont ils se servent pour y voir quelque chose d'anormal par rapport aux obs et aux prévis. C'est cette incohérence que je relève. Il n'y a pas un seul élément qui montre que ça surchauffe anormalement par rapport au RC de fond attendu en valeur centrale, alors en valeur max, n'en parlons même pas !
  17. D'un point de vue statistique ou physique, il n'y a rien de rien de plus. Franchement c'est une illusion d'optique de voir quelque chose d'anormal pour les T avec l'intégrale négative de l'ENSO pseudo Nina ridicule comparée à l'intégrale de ce qui vient de se produire depuis des mois sur une durée supérieure à 1998. https://www.esrl.noaa.gov/psd/enso/mei/ Non seulement on voit que des anomalies mensuelles de ce Nino XL 2016 ne sont pas aussi hors de l'IP sup , ni qu'au dessus de +1 écart-type, que d'autres dans le passé avec pourtant un moindre forçage anthropique, mais en prime la pente de la tendance sur 98-012017 pente violette (Janvier est dans le demi IP de la tendance, dans 1 écart-type, rien de plus banal pour le RCA même calculé fin 98 en position neutre) n'arrive même pas à faire autant que celle sur 83-1998 (Pente jaune d'un autre bon Nino à un bon Nino), malgré un bruit froid monstrueux, le Pinatubo en 2 ème sous-suite de la tendance, qui réduit sa pente ! Une honte totale pour la période 98-012017 qui aurait été encore plus ridicule en comparaison avec un Pinatubo en 2 ème sous-suite de cette dernière tendance. On ne fait que rattraper du retard d'ENSO + depuis des années, donc logique qu'avec l'inertie renforcée sans vraie Nina comme après 98, on reste à des niveaux corrects pour essayer de rentrer dans les clous de la tendance calculée fin 98 et pas encore dans ceux des modèles, car je le répète, ce n'est pas optimal de n'arriver qu'au milieu des projections de l'AR5 avec un ENSO+ XL et long, un blob, un forçage anthropique en plus et j'avais oublié, un record d'extent bas mondial en même temps. Et oui il est assez possible que l'inertie soit renforcée par la faiblesse de l'extent de glace de mer sur la planète, moindre que toutes les autres années à fort Nino : Quand on mesure/interpole la T là où il y a normalement de la glace, alors qu'il n'y en n'a plus, ça dope l'anomalie globale bien plus que pour une surface en mer où la glace avait été toujours présentes à ces périodes. Les anomalies locales y sont bien plus monstrueuses avec de l'eau à la place de glace. A noter que depuis 2007 le bruit dans les variations de la glace de mer a vraiment significativement augmenté en Arctique (Voir chez Tamino). Reste à savoir pourquoi physiquement sans doigt mouillé dans ces secteurs à grande variabilité bien avant les relevés sat (durée trop courte dans ces coins pour se faire une bonne idée de la variabilité habituelle). De plus il reste à déterminer la part de variabilité dans le passage d'un record haut à un record bas d'extent en Antarctique. On a donc la tendance 70-2017 qui reste inférieure à celle sur 70-98 alors qu'en toute logique elle devrait/aurait dû finir par la dépasser avec plus de forçage, sans absolument aucune erreur de sous-estimation des projections AR5 (et encore moins de l'AR4 plus chaudes) et celle sur 98-2017 encore plus faible, est pire, plus à la ramasse alors qu' elle devrait être plus forte que toutes les autres. Elle n'arrive pas à dépasser la tendance jaune 1983-1998 avec un Pinatubo. Donc nous n'avons même pas encore rattrapé le niveau de pente plus global de 70-98, car là aussi il y a une inertie pendant des années avec un surplus d'ENSO pas fameux à cause des vents anormaux. Statistiquement j'avais calculé il y a des années que le bruit total (internes et externe avec le soleil) de la T autour de l'évolution du CO2, est significativement auto-corrélé sur 18-20 ans (par rapport à l'évolution du CO2 et non par rapport à l'évolution du fond de la T) et donc j'avais estimé qu'il fallait probablement ce laps de temps pour que l'ensemble du bruit habituel soit considéré comme à l'équilibre en moyenne pour le fond et c'est donc le bon timing actuellement pour que la T reprenne sa marche normale en avant par rapport au fond prévu sans erreur des modèles de projections). Il est logique que si l'ENSO reste enfin à des niveaux souvent plus corrects, on ne fasse que revenir à ce qui est prévu sans aucun problème pour les modèles (hors leur inaptitude à prévoir ces variations internes avec le bon timing et la bonne fréquence dans un échantillon de 20-30 ans) Ce ne sont pas quelques mois ou 2 années qui font un climat. En 2008, j'avais halluciné pour le raisonnement inverse côté froid, avec une pointure du GIEC à la TV en France qui faisait la même remarque en envisageant une surestimation des modèles si ça durait encore quelques mois dans le froid, noyé dans le bruit froid en raisonnant à court-terme au lieu de périodes d'au moins 20 ans et plus. Très fort pour se tirer un boulet dans le pied et pour bien faire croire au public que le bruit est équivalent au climat, surtout sortant de la bouche d'un réchauffiste ! On ne rattrape pas la fourchette haute des modèles comme déjà montré dans un des graphes du GIEC plus haut, mais juste le centre des projections de l'AR5, malheureusement (On rattrape le haut des prévis décennales expérimentales intégrées dans le même graphe des projections, suite à la mode du faux hiatus, ce haut qui ne se retrouve qu'au centre des projections de l'AR5). Il faudra que l'ENSO nous aide encore un moment en restant assez neutre et positive pour être parfaitement dans les clous des prévis, car sur le fond, rien de nouveau, on alimente la chaudière, les forçages et les rétroactions ne sont pas encore revues (en synthèse des travaux scientifiques), à la hausse ou à la baisse par les spécialistes (C'est certain qu'on peut toujours extraire une étude par-ci, par-là, totalement opposées entre-elles). Il n'y a que le travail d'analyse avec les modèles actualisés et améliorés, qui prendra de nombreux mois, qui pourra nous dire ou non si les paramètres sur le fond sont à revoir dans les modèles. Pour le moment rien en vue à ce niveau, car le fond est considéré comme assez bien cerné (hors scénarios humains imprévisibles) et même le niveau de bruit d'un point de vue physique est bien donné globalement en cumulé (variabilité naturelle interne + variabilité naturelle externe) comme par les statistiques (autour de +-0.2° au pas annuel autour de l'évolution de fond). Il ne faut pas oublier que le climat qui est pipé a une sacrée inertie que l'on observe et qui est physique, mais le bruit aussi lui-même a son inertie même sans RCA et que ce n'est pas pour rien qu'on préconise plusieurs décennies (2 au mini) pour y voir clair même sans aucun RC.
  18. J'ai eu 3 girou-anémo PB, même ceux qui ne se touchent pas dès le début, finissent par le faire à la main, à cause du jeu qui augmente. Le vent très fort provoque à partir de ce moment (ou dès le début neuf), des contacts (la girou n'est plus horizontale dans le vent puissant en penchant et le moulinet monte en ondulant, car il y a trop jeu dans cet ensemble. J'entendais les clacs des frottements par vent très fort, même du sol). Le moulinet explose un jour si on ne meule pas, donc libre à vous de ne pas vous servir de l'expérience des utilisateurs et d'attendre bêtement que ça se produise un jour de vent violent en ratant un record et tout en devant passer une commande... Bon après si l'anémo est à 2 m dans les obstacles et ne relève pas ou que très rarement du vent à plus de 60 km/h... Le pas de temps effectif de mesure dépend de la courbe de réponse, de la constante de distance de l'anémo et de la constante de temps, qui ne dépendent vraiment pas que du poids, d'autant plus avec une grosse coupelle déjà lancée qui n'a pas besoin d'autant de couple. La courbe de réponse de l'Ultimeter n'est pas du tout linéaire à l'inverse de celle de l'anémo MF. Elle varie en fonction de différentes équations du second degrés selon différentes gammes de vitesses. De plus à partir de 10 MPH, l'Ultimeter utilise le temps mis sur un 2 ème tour pour valider la vitesse. Il ne mesure pas le nb de tours de moulinet en un temps donné comme Davis ou MF, mais mesure le temps mis entre 2 contacts d'ILS (comme le pluvio Davis, c'est vérifié une 2 ème fois à partir de 10 MPH) et donc l'électronique mesure le temps sur 1 ou 2 tours selon la vitesse, sans calculer un nb de tours. Par exemple, un anémo MF avec une courbe de réponse bien plus simple de 1 tour / 1 m/s avec une constante de distance de 3.5 m, peut mesurer effectivement sur un pas d'environ 1/3 s à une vitesse de 10 m/s et donc 1/6 s à 20 m/s. L'anémo Ultimeter mesure une plus grande vitesse en 1 tour/1s et donc un moindre mouvement lui est nécessaire, c'est un gain de temps. Pour l'affichage, sauf gros problème, ça n'a aucun sens de chercher à valider le pas de temps avec à certaines vitesses, car ça dépendra des variations ou non de vitesses à chaque instant et donc si 60 km/h est tenu plus que le pas fin donné à cette vitesse, il n'y a vraiment pas de raisons de voir tous les échantillons possibles à l'écran, les 60 restent les x échantillons de 0.x s sans que ça change effectivement, de même si la vitesse baissait nettement dessous sans que l'oeil ait le temps de percevoir le changement, car le pas de temps court n'est plus celui donné pour 60, mais pour moins. De plus je ne crois pas à l'infaillibilité de l'oeil non bionique, capable de compter le moindre changement après la virgule ou autre. J'avais testé la console et PB m'avait communiqué la modif à faire dans la console pour sortir en direct les rafales de 0.33 s avec hyper terminal par exemple. Il y a cohérence avec les indications théoriques. Le problème principal chez nous, c'est qu'il y a des turbulences compliquées, c'est d'ailleurs pour cette raison que je ne pouvais pas me prononcer sur le vent de la WMR 300 alors que le pas de temps est le même que la Davis et donc qu'il a fallu tester l'anémo en soufflerie, car je voyais bien que les écarts étaient différents selon la direction du vent avec la position par rapport au mât. Ensuite il faut envisager les pannes très aléatoires d'ILS sur certaines Ultimeter. Il n'y a pas de changement dans les caractéristiques de/pour l'anémo.
  19. C'est la correction par rapport aux différentes heures de relevés pour récupérer les Tn et Tx pour la Tm, mais aussi la façon de calculer cette Tm avec plus de relevés que ces 2 valeurs, qui n'ont pas été les mêmes dans le temps, ni d'ailleurs en même temps à chaque époque pour les obs manuelles et actuelles secondaires (certains ne relevaient qu'une fois par jour, d'autres deux et les stations plus pro toutes les 3 heures, 1 heure, et les auto maintenant en permanence. Ils ne relevaient aussi pas tous au bon horaire OMM car 18h TU et 6H TU ça tombe en pleine nuit dans certains coins du monde). Enfin aux US, c'était surtout qu'un seul relevé par jour et vu l'étendue de fuseaux horaires ça change souvent dans ce même pays, c'est bien plus simple en France, mais c'est clair que l'impact n'est déjà pas négligeable ici (Je le vois régulièrement entre mes consoles météo qui relèvent de 0h à 0h TU les maxi et mini en comparant aux relevés maxi en 6h- 6h TU et mini 18Hh -18hTU et encore plus quand on compare à la moyenne vraie obtenue avec tous les échantillons sur 1 mn/24h. Tm annuelle plus froide ici qu'avec les relevés aux normes OMM)
  20. La T sat est bien extrapolée de fait, vu qu'il faut l'aide d'un GCM pour sortir une T "correcte" et surtout que ce ne sont pas des mesures aussi directes au même moment sur toute la planète (on n'a même pas un seul état de la T globale à un instant t, ni la possibilité de tomber autrement que par pur hasard sur le maxi et mini du jour en un point donné afin de sortir une moyenne comparable) . Steven Mosher qui a travaillé sur les T Berkeley l'avait justement encore indiqué dans des commentaires chez Watts à ceux qui rejetaient les GCM alors qu'ils les acceptaient de fait avec les T sat comme étant leur bible de la T observée (Le genre de commentaires intéressants que je garde en copie, vu que c'est comme sur le soleil, les mêmes histoires ressortent sans fin) “I think I can see why the so-called consensus has become so obsessed recently with destroying the credibility of the satellite data.” SM : You should have plotted the RAW RSS data. Nobody is obsessed with destroying the credibility of the modelled data produced from satellites. People are interested in what the actual adjustments are and the uncertainties. But Look Dave.. You like RSS. RSS has to perform a TOBS correction. Do your trust the physics of that TOBS correction? If yes… Then you just trusted a GCM.. because RSS corrects its data with the aid of a GCM. Different gcms have different diurnal cycles. They don’t validate against the real world. "Steven, please link to how a TOBS correction comes from a GCM " SM : https://www.ncdc.noaa.gov/cdr https://www.ncdc.noaa.gov/cdr/fundamental/mean-layer-temperature-rss http://www1.ncdc.noaa.gov/pub/data/sds/cdr/CDRs/Mean_Layer_Temperatures_RSS/AlgorithmDescription.pdf section 3.4.1.2 Local Measurement Time (Diurnal) Adjustments Next http://images.remss.com/papers/rsspubs/Mears_JGR_2011_MSU_AMSU_Uncertainty.pdf page 7 "The raw satellite data aren’t even temperatures." SM : Rss produces temperatures. Uah does not. “I have a question for anyone with knowledge: These “TOBS” adjustments. Are they done on a case by case basis? Or as a global change? In other words did someone actually comb through each and every record looking for time of observation changes? or did they just sort of “wing it” with a single adjustment to all the data at once?” SM : Which TOBS adjustment are you talking about. A) The TOBS adjustment for the US B) The TOBS adjustment for Satellities. They BOTH do TOBS adjustments. For the US. There are Three seperate approaches all validating each other. 1. The Case by Case approach. This has been validated EVEN BY CLIMATE AUDIT SKEPTICS and by John Daly. Every station is treated seperately 2. NOAA statistical approach. Matches the case by case. every station is treated separately 3. Berkeley earth statistical approach. Matches the case by case. every station is treated separately For SATELLITES. The TOBS adjustment is performed by using a single GCM model Different GCM models give different answers. Dans un article en lien plus bas qui traite plus globalement des différentes mesures : https://tamino.wordpress.com/2016/11/27/which-satellite-data/ https://www.youtube.com/watch?v=WX7aWsxe9yw Pour le suivi du climat global, on n'a pas besoin de tous ces nombreux points de mesures sur la planète pour obtenir une T globale assez correcte, une soixantaine de stations bien réparties suffit. Sur mer une T est représentative d'une bien plus grande échelle. On a surtout un problème de couverture aux pôles où la variabilité dans l'espace et le temps peuvent être très importante. Le problème de la T à partir des mesures au sol s'il existe, viendra plus des SST que des T terrestres, vu la surface bien plus importante couverte par les mers qui en prime contiennent le max de chaleur en surplus et de froid en stock. De plus l'homogénéisation des stations terrestres est réalisée de façon indépendante depuis longtemps par les différents pays avec des méthodes différentes de celles des organismes globaux, et le fait que les corrections donnent de mêmes résultats, laissent peu de place aux doutes autres que les incertitudes indiquées, la principale est celle de la couverture et non pas celle des mesures et avec l'environnement qui change. Pour les SST et donc la T de l'air au-dessus de l'eau, c'est différent, car c'est comme pour les satellites, en proportion, il n'y a pas grand monde qui bosse dessus et les travaux indépendants les uns des autres, sont bien moins nombreux, tout commes les points fixes. Ce n'est pas gagné d'homogénéiser comme pour les T au sol, les autres paramètres qui alimentent les réanalyses, vu les problèmes de mesures pures sur d'autres paramètres, bien plus énormes et beaucoup moins travaillés que pour la T mesurée par des thermomètres. Une comparaison avec Copernicus qui affiche bien les plus forts pics :
  21. Je vous reposte le pas de temps calculé en 2007 d'après les documents du constructeur à l'époque : Temps mini pour mesurer une rafale selon la vitesse de la rafale : (s) (Km/h) 0,5 8,5 0,4 19,7 0,25 30,6 0,18 41,7 0,15 49,2 0,13 60,5 0,11 72 0,09 83,7 0,08 91,5 0,07 103,4 0,06 119,5 0,05 144,1 0,04 177,9 0,03 235,4 0,03 292,1
  22. Oui Seb, j'avais bien vu que l'influence n'avait pas été marquée comme en 1998, mais vu les possibilités à un instant t de passer dessous/dessus les valeurs terrestres, je me suis dit que c'était à cause d'un timing différent avec pas mal de possibilités de voir tout et son contraire avec le ratissage des IC impensables. C'est de Kevin Cowtan : https://skepticalscience.com/surface_temperature_or_satellite_brightness.html En moyenne sur une bonne période c'est certain qu'il y a des compensations des erreurs qui limitent l'écart en valeur centrale et la version 4 de RSS remonte bien. On voit ici qu'au départ tout va bien et qu'ensuite chaque jeu de données sat dérive. Donc qu'est ce qu'on peut faire avec un truc pareil ? Sur terre on peut vérifier les biais bien plus facilement que là haut.
  23. Article très pédagogique de Victor Venema, qui démontre pourquoi je martèle qu'il vaut bien mieux comparer des moyennes que des tendances linéaires bien plus incertaines (Par exemple, une tendance sur 10 ans est 32 fois plus incertaine qu'une tendance sur 100 ans, alors qu'une moyenne sur 10 ans n'est que 3 fois plus incertaine qu'une moyenne sur 100 ans). Donc pour ceux qui veulent obtenir un taux avec peu d'années, il vaut mieux extraire des tendances effectives (donc hors modèle linéaire), en obtenant des différences de moyennes (sans chevauchement de données) pour calculer le taux effectif, afin de limiter les plus grossières interprétations. http://variable-variability.blogspot.fr/2016/11/statistically-significant-trends.html Cotissois, ben voyons, sans critique possible ! Je n'ai pas du tout vu que le catastrophisme avait agi dans la signature de l'accord, bien au contraire, c'est le néant, car il est sans obligations, sans contraintes, ni sanctions. Si ça avait été le cas j'aurais été parfaitement d'accord avec toi et je n'aurais pas dit que le catastrophisme ne servait à rien, je ne vois que du vent face au modèle suivi : Tant que la planète et l'homme se retrouveront au service de l'économie et non l'inverse, tout accord de ce genre sera caduque de fait (il y en a plein sur la faim, sur la guerre et autres, ça ne change rien). Ce sont donc des promesses qui n'engagent que ceux qui y croient. Les pays signent, ok, mais ils font ce qu'ils veulent quand ils le veulent selon les votes actuels et futurs de la population comme par exemple déjà aux US ..... (Les US ne sont qu'un échantillon du début du recul, ils ne sont pas plus illuminés qu'en France et qu'ailleurs pour voter pour quelqu'un de pas motivé par le problème futur, mais qui leur semble plus motivé pour ceux qu'ils vivent simplement de plus près que nous dans le monde réel de la chute en cours, qui est selon les chiffres du BLS, qu'environ 102.5 millions de personnes (dont environ 7.5 millions de chômeurs officiels, un chiffre qui fait le mythe du plein emploi aux US avec tous les incompétents en stats dans certains médias français) en âge de travailler, sont sur le bord de la route, sans activité (Tu vois un peu la proportion pour ce pays !), le RC leur fait une belle jambe pendant que certains se gavent sur leur compte et carbonise l'atmosphère toujours plus et tu crois vraiment que les choses vont rester bien tranquillement calmes et que ton accord de Paris va faire le poids contre les foules délaissées, exploitées là maintenant et un jour de plus en plus en France qui à la moindre épreuve un peu sérieuse pour la population, le rejettera même si c'est sans le dire, dans les faits).... et par tous ceux qui ne manqueront par la suite de tout faire voler en éclat, car pour beaucoup , il faut déjà survivre dans le présent à cause des autres symptômes invivables par la majorité dans bien des pays à cause de ce modèle. Cet accord ne change donc absolument rien dans les faits même dans un pays qui absolument tous les moyens financiers et technologiques de tout changer très rapidement https://lenergeek.com/2016/10/18/lallemagne-abuse-encore-du-charbon/ . Il suffit de lire le dernier livre de Jancovici pour voir le bilan avec les renouvelables en Allemagne et le cinéma inutile même en 3 D de tout ce beau monde qui n'a pas vu venir grand chose et se foutent déjà des morts actuels car il y a des accords pour lutter contre la pollution et la France est à la traîne. Vu comme certains dirigeants agissent pour les morts actuels et les arguments pour ne pas vouloir sauver des vies, on peut doucement rigoler de l'accord signé à Paris pour des morts virtuels du futur alors qu'on se fout déjà totalement de la 3 ème cause de mortalité en France : http://www.les-crises.fr/le-tres-polluant-chauffage-au-bois/ Ca reflète assez bien le fond, le RC futur n'est qu'un alibi pour cacher les problèmes actuels sous le tapis pour ne surtout pas changer de modèle dès maintenant (et oui si on disait qu'il faut changer ce modèle immédiatement et plus hypothétiquement dans le futur, il faudrait raser gratis dans les moyens de surconsommer). C'est celui qui disposera des dernières gouttes d'énergie la plus abondante et la moins chère qui l'emportera sur les autres et il suffit d'un seul pays significatif qui n'applique pas l'accord pour que les autres finissent par faire de même, sous peine de couler, même si la population du pays va relativement encore bien, ce qui ne sera pas le cas longtemps avec l'économie en lambeau et sans aucun sens à coups de QE (la somme injectée chaque mois en Europe pour les placements des plus riches, est pratiquement de l'ordre de ce qu'il faudrait chaque année pour éradiquer la faim et ça c'est pour laune minorité de possédants. C'est 60 à 80% en un mois qui s'évaporent, de la somme qu'il faut verser /an aux pays pauvres pour le RC...). C'est la loi de la compétitivité biaisée plus que jamais et encore plus à court-terme qui est maintenue, totalement inverse à ce qu'il faut pour respecter l'accord signé.
  24. 1/ Oui Cotissois, tu as bien raison si on en reste qu'au strict RC avec les scénarios donnés, sans tenir compte d'autres scénarios d'évolution de la société et du monde. Parfaitement d'accord sur le fait qu'il est plus risqué de mettre les 1% de proba +chaudes sur le même plan que 1% de froides où on ne risque rien. Cependant la réalité, l'histoire et des scientifiques qui analysent l'ensemble bien plus globalement, montrent bien plus de probabilités d'évolution du contexte général du monde hors RC, différente, que ça n'a pas de sens de cloisonner, vu que les prévis du RC sont basées sur des scénarios d'émissions qui ne prennent en compte qu'une société de bisounours qui se contente de consommer plus ou moins "tranquillement" sans grosses vagues, comme maintenant et depuis 1945, avec une population et une économie qui croissent assez normalement. Malheureusement, la probabilité qu'on reste assez bien "gentil", comme ces 70 dernières années dans les 10-30 ans, est des plus faible. Je n'ai pas remarqué que les peuples se ruent pour choisir un monde plus collaboratif, mais plutôt tout l'inverse. Mais bon il y avait plein d'optimistes comme toi qui n'ont rien vu venir dans les années 30, certains lançaient encore des commerces perdus d'avance à la veille même de la guerre... Tu me fais toujours penser à la banque "Lehman Brothers" qui à la veille de sa propre mort, sortait des modèles pour faire des profits avec le RC dans 100 ans, incapable de voir le contexte, les pertes et sa propre disparition à 24h. Au lieu de regarder la déchirure de la coque du Titanic, tu regardes trop loin et uniquement ce symptôme majeur bien réel si tout allait à peu près comme actuellement pour les 3 scénarios les plus chauds, sans la chute de la population et de l'économie prévue (dans la douleur, non voulue et organisée) par le rapport Meadows par exemple, ce qui est fortement improbable. 2 et 3/ Pas d'accord, car je raisonnais avant tout sur les projections à LT de l'AR4 et de l'AR5 (Je rappelle assez souvent qu'il faut regarder des moyennes au minimum sur 20 ans et que les prévis à court-termes sont expérimentales, pas assez fiables et je les ai sorties pour montrer qu'il n'y avait que là que ça rentrait dans les bornes hautes pour les prévis à CT de l'AR5 et qu'un rattrapage pour le Met Office) et en disant d'ailleurs que malgré l'ENSO, les T (y compris les séries les mieux corrigées et les plus chaudes), ne revenaient qu'au milieu des projections (et en haut de celles à court-terme de l'AR5 surfant sur la mode du faux hiatus), ceci malgré les corrections et malgré le fait que je pense comme des scientifiques qui travaillent sur les données, qu'elles ne sont probablement pas encore assez corrigées de biais qui masquent le RC, mais bon plus autant qu'avant les dernières corrections. J'utilise de préférence la série GISS car elle est assez disponible et c'est la série qui donne la T globale la moins incertaine (IC les plus petits), les sat avec des IC monstrueux pour la détermination de la T près du sol, sont indignes de la science actuelle pour cette mesure. On m'a toujours appris à utiliser les meilleures méthodes aux plus faibles incertitudes, ça me dépasse qu'on utilise les sat pour cette "mesure" en l'état actuel de leurs IC. Serge, je ne sais pas vraiment, probablement des rétroactions positives, des effets de seuils, en majorité autour de 2050 car c'est un moment où les scénarios vont vraiment commencer à bien à se différencier, mais certains modèles voient des accélérations avant comme après. Je ne fais que suivre la moyenne au centre. Je crois qu'il y aura des surprises, une accélération surprenante à un moment plus tôt que prévu, mais scientifiquement ça n'a aucune valeur et beaucoup moins que le rapport Meadows et autres qui de fait, font chuter les émissions malgré nous. Je sais que mon impression est influencée par le fait que les études font plus de pub à tout ce qui accentue le RC qu'à ce qui le minimise, j'essaie donc de rester hors de mes croyances et impressions quand j'analyse les chiffres. Et là les chiffres vont contre mes croyances, mais bon il y a du bruit et donc si nous rentrons dans une période avec l'ENSO aussi productive que de 78 à 98 à cause d'une PDO+, ça devrait monter plus, surtout s'il n'y a pas un volcan important comme dans cette période. Mais rien scientifiquement ne montre que ça va probablement se dérouler de cette façon, c'est une vague spéculation. La PDO pourrait aussi restée/redevenir fraîche si on se base sur sa périodicité moyenne, mais si le RC l'a influencée ou qu'elle varie loin de sa périodicité moyenne... Donc personne n'en sait rien, vu que les modèles ne le peuvent pas non plus encore.
  25. On voit que dans ces données Copernicus, l'ENSO impacte encore les anomalies mensuelles. Logique avec des mesures satellites comprises, connus pour être bien plus sensibles à l'ENSO ( et donc au bruit, plutôt qu'au RC de fond plus longtemps masqué.) La tendance de fond sur 79-012017 est de 0.178°/déc. Les résidus à comparer avec ceux de GISS de mon msg plus haut: 201501 -0,01 201502 0,02 201503 0,04 201504 -0,14 201505 -0,03 201506 0,01 201507 -0,01 201508 0,08 201509 0,10 201510 0,28 201511 0,23 201512 0,33 201601 0,35 201602 0,49 201603 0,41 201604 0,32 201605 0,22 201606 0,07 201607 0,17 201608 0,24 201609 0,18 201610 0,19 201611 0,23 201612 0,11 201701 0,17
×
×
  • Create New...