Aller au contenu

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

ChristianP

Adhérent Infoclimat
  • Compteur de contenus

    2904
  • Inscription

  • Dernière visite

  • Jours gagnés

    1

Tout ce qui a été posté par ChristianP

  1. Jour le plus chaud de l'année. En classe 2 Abri Stevenson : thermo MF 31.0°, Pt 1000 30.6°, SHT75 31.1° Abri Socrima Pt 1000 : 30.3° Abri Young ventilé méca SHT75 : mesure de référence normes USCRN 29.7° (en instantané 30.9°) Abri Davis méca SHT 31 : 30.0° Abri Davis méca ventilo coupé SHT 31 : 30.6° En classe 4 secteur SW: Socrima Pt 1000 : 32.2° Cimel Pt 1000 : 33.4° En classe 4 potager secteur Est Abri Vue 10 coupelles Pt 1000 : 33.0°
  2. Jour le plus chaud de l'année. En classe 2 Abri Stevenson : thermo MF 29.1°, Pt 1000 28.8°, SHT75 29.1° Abri Socrima Pt 1000 : 28.7° Abri Young ventilé méca SHT75 : mesure de référence normes USCRN 28.0° (en instantané 29.5°) Abri Davis méca SHT 31 : 28.3° Abri Davis méca ventilo coupé SHT 31 : 28.7° En classe 4 secteur SW: Socrima Pt 1000 : 31.1° Cimel Pt 1000 : 32.2° En classe 4 potager secteur Est Abri Vue 10 coupelles Pt 1000 : 32.0°
  3. Coup de chance le morceau du lourd conduit a été amorti par la bordure de la toiture et retenu par la ligne téléphonique. Comme je craignais que ce poids traverse le toit de cette avancée extérieure dans la nuit avec un vent plus fort, je l'ai déjà descendu au sol. L'antenne directionnelle de l'ampli GSM est en place provisoirement et fonctionnelle, son cache est explosé, l'abri 7714 est mort, les tuyaux d'aération de la fosse, fixés à la cheminée, sont partis. Quelques tuiles et faîtières à changer et un peu de mortier, rien de méchant. https://scontent.xx.fbcdn.net/v/t31.0-8/17017023_775366732628130_965594907897553305_o.jpg?oh=d8ff782861be775c628e079519a924bd&oe=596467FA
  4. Grosse rafale localisée sur une partie de mon toit, une cheminée annexe vient de tomber avec l'antenne du relais GSM et un abri 7714... 114 km/h à 17.5 m (au moment où la cheminée est tombée) 105 km/h à 16 m (au moment où la cheminée est tombée) 98 km/h à 16.4 m ((au moment où la cheminée est tombée) 87 km/h à 10 m 82.3 km/h à 3.4 m (au moment où la cheminée est tombée) 76 km/h à 2 m
  5. A Besse bon début d'épisode venteux dans l'AM, rafales maxi de SW, secteur le plus dégagé dans l'axe du venturi de la plaine, un secteur qui ne relève pas de gros coups de vent, il faut vraiment des situations particulières comme par exemple aussi en Déc 99. 110 km/h à 17.5 m 98 km/h à 16 m 95 km/h à 16.4 m 87 km/h à 10 m 82 km/h à 3.4 m 76 km/h à 2 m
  6. Là On voit bien que de 90 à pratiquement 96 on est resté dans des Nino et neutre + , de plus il est fortement possible que le Pinatubo ait raboté le niveau à certains moments (de nombreux W/m2 très palpables en moins sur les capteurs de rayonnements directs au sol, les maxi journaliers, étaient réduits jusqu'à une centaine de W/m2 pendant les essais sur la mesure de la DI à Carpentras ! En comparaison une variation extrême de la constante solaire est indétectable par ces mêmes capteurs.) C'est certain qu'avec le fond actuel, sans volcan et une même période d'ENSO+ prolongée, ça devrait chiffrer autrement plus fort que sur cette période ! De 77 à 83 environ, là aussi pas d'ENSO- franchement souvent efficaces pour le froid et c'est vers la fin de cette période qu'on a observé la plus forte pente/10 ans de 0.42°/déc, à cause aussi d'une ENSO négative puissante et étalée en début de tendance. Ca ne m'étonnerait pas qu'on atteigne logiquement du 0.6°/10 ans d'ici 2022 avec de mêmes longues périodes d'ENSO rouge+, plutôt que 0.22°. Mais bon là je sens qu'ils vont devenir fous, alors que tout ne serait que cohérent avec le fond et le bruit déjà observé. Les modèles même simplifiés comme ceux de Météor sont déjà bien efficaces pour détecter une possible sortie anormale de route. Le fond est quand même connu assez vite une fois les forçages communiqués, après pour les détails du bruit et extraire précisément chaque composante ce n'est pas gagné déjà pour les spécialistes. Pour ceux qui ne comprennent pas que la décroissance après l'ENSO +, n'est vraiment pas brutale même sans emballement sur le fond, voici un exemple très pédagogique chez Méteor : https://climatevolution.com/2016/08/16/evolution-recente-de-la-temperature-globale-influence-de-lenso/ (Bien entendu selon les modèles, la décroissance sera plus ou moins différente, il y a des IC non négligeables, mais bon l'idée générale est là.) Le fond du modèle de base de Méteor n'est pas à la rue par rapport aux modèles évolués ( bien d'autres personnes surveillent ça de près avec des modèles simplifiés en plus des scientifiques avec leurs modèles puissants et personne ne revendique encore un problème de sous-estimation sur le fond à cause de ces dernières années et de ces mois ) : https://climatevolution.com/2015/11/22/comparaison-modele-climat-evolution-avec-cmip5/ EH aussi montre qu'on peut avoir une bonne idée du fond probable avec les bases physiques sans attendre longtemps (on sait tous que l'été sera plus chaud que l'hiver, mais on ne sait pas dans quelle mesure tel été sera plus chaud que tel autre à court-terme) : http://www.climate-lab-book.ac.uk/2015/back-of-the-envelope-attribution/
  7. Ben oui c'est clair, j'avais bien tout ça en tête, mais ça ne change pas qu'en synthèse de la science du domaine, rien du tout indique que ce sont probablement des amplifications significatives qui l'emportent de nos jours, pour produire les anomalies actuelles banales avec un bruit classique avec le RC de fond observé et celui prévu. Comme souvent en science ce n'est pas impossible vu qu'il existe une proba infime, mais c'est très improbable qu'à chaque fois qu'on observe un ENSO+ XL avec ou sans IPO+ même si elle génère un nouveau Nino dans la foulée, ou autres variables pas significativement différentes de celles du passé, d'y voir un RC qui s'emballe sur le fond, alors qu'on a un réchauffement interne qui est simplement compatible avec ce qui a été observé et avec le RC de fond prévu. Ceux qui cherchent à quoi attribuer les variations de T à différentes échelles, déterminent pourtant ce qui est anthropique ou pas avec des lois physiques (c'est certain que pour certains indices pour la prévis saisonnière qui ne sont que statistiques, ce n'est pas gagné !). Dans le chapitre 10 de l'AR5 qui parle d'attribution, c'est quelque peu le sujet de faire le tri entre le fond anthropique et la variabilité interne et externe naturelle, malgré qu'il est évident que pour l'interne tout est lié et que rien n'est probablement totalement indépendant du RC, mais l'important c'est là aussi la significativité. Tant que ce n'est pas le cas, exactement comme pour l'approximation linéaire, on peut considérer que l'impact du RC sur la variabilité à court-terme pour détecter une sortie de route à court-terme, n'est pas gênante. Quand la variabilité change significativement avant même que les physiciens quantifient les causes précises, ça saute aux yeux, comme pour la glace de mer en Arctique depuis 2007. La variabilité change sans photos avec des IC à des années lumières de se croiser ! Sinon pour ceux qui voudraient voir simplement écraser la variabilité autour du fond, avec un record annuel battu systématiquement chaque année dans 95% des cas, il faudrait un RC d'environ 20° par siècle (Une variabilité sera toujours présente, le record sera battu de façon plus ou moins importante) Ce n'est pas demain qu'on verra la valeur de chaque journée, mois, année..., égale à la valeur centrale de la climato (même si la terre est une boule de glace ou de feu, il y a des lois physiques qui font qu'il y aura une variabilité autour d'un signal de fond, plat ou non selon l'équilibre que l'on pourra quantifier/estimer un minimum pour ne pas délirer avec le bruit comme actuellement et pendant le hiatus interne ! ) Ceux qui voient à chaque hausse ou baisse de T à des échelles non climatiques, une accélération ou une absence de RC de fond, sans que les anomalies sortent des bornes physiques et statistiques, confondent la météo avec la climato. Le RC, c'est le réchauffement du climat, je ne l'ai pas défini moi-même, c'est écrit noir sur blanc que pour les paramètres, comme la T, il faut plusieurs décennies pour obtenir une valeur moyenne avec du sens, OK !? Donc il faut savoir de quoi on parle, du réchauffement de l'état moyen, du climat lui-même ou du réchauffement interne dans un échantillon de climat, à la petite semaine. Ca ne pose pas de problèmes de parler de plateau quand on ne dit pas que le RC a ralenti avec 15 ans de données ou d'une accélération intérieure de la T sur 3 ans si on ne dit pas que c'est le RC de fond qui s'emballe, mais ne n'est que de l'évolution interne qui ne permet pas sans le relier aux éléments physiques d'y voir un emballement pour le RC de fond. Quand on dit que tel jour ou tel mois s'est réchauffé, personne ici ne va me répondre que c'est l'année qui s'est réchauffée et qu'il y a emballement au niveau annuel ! Il n'y a que dans cette science biaisée par l'idéologique qu'on voit des raccourcis aussi lamentables, même pas du niveau scolaire et donc de la pure non science. Th38, je m'interroge dans le sens inverse, car je relie les chiffres avec les éléments physiques bien tangibles, comme le Pinatubo, l'ENSO XL, un Blob, le forçage anthropique en plus depuis 98 d'autant plus avec le fait qu'on suit le pire scénario. La question n'est pas cette reprise interne si logique avec ce bruit concerné, mais plutôt de savoir pourquoi la pente n'est déjà pas nettement plus forte qu'entre les 2 bons Ninos avec le Pinatubo plombant la pente sur 83-98 et pourquoi la valeur de 2016 avec l'aide de tout ce bruit chaud, n'est pas en haut des projections comme ce fût le cas en 98. Voilà des questions en rapport avec la physique, que je ne me poserais même pas si je regardais que mes stats en zappant les causes principales du bruit et du fond. La question c'est tout le contraire de l'emballement d'autant plus que l'étude sur l'IPO, montre qu'elle n'est pas suffisante pour expliquer la faiblesse de la pente du hiatus interne (27% d'explication seulement contre plus de 70% dans d'autres phases d'IPO) ! Il n'y a que les modèles qui me permettent de relativiser la contre-performance du RC de fond face à la variabilité sur cette courte période, car ils voient l'accélération plus tard. Sinon là j'aurais tendance à penser que les modèles surestiment, mais je garde en tête qu'il y a de l'inertie (une vingtaine d'années) pour sortir réellement de ce hiatus interne et que les modèles n'échantillonnent pas assez les possibles, d'où le plantage sur le hiatus interne de 15 ans si peu probable pour eux. A noter pour ceux qui n'ont pas remarqué ma correction, que le graphe initial des tendances/10 ans étaient tronqué et que nous dépassons les 0.22°/déc des prévis avec l'IPO. C'est une tendance interne avec de grands IC, qui ne peut-être assimilée au RC de fond (ça n'indique en aucun cas un RC plus fort !). C'est pareil que faire une comparaison deux moyennes de 5 jours qui se suivent, pour chercher l'évolution de fond du mois concerné par rapport à un autre échantillon de ce mois. Personne n'aura l'idée de me dire que le réchauffement de ce mois s'emballe par rapport aux autres mois, avec que 2 moyennes/10 jours, de tels éléments incompatibles pour ce diagnostic, mais je ne sais pas pourquoi, la majorité fait un blocage dès qu'on raisonne au niveau climatique, impossible de voir l'énormité, même chez certains scientifiques qui dans la com des publications mélangent ces échelles qu'ils ont pourtant eux-mêmes définies! Le principe de précaution pour les faibles proba du futur a bon dos face au principe de réalité de nos jours : http://m.levif.be/actualite/international/20-millions-de-personnes-pourraient-mourir-de-faim-d-ici-6-mois/article-normal-615899.html?utm_campaign=Echobox&utm_medium=social_vif&utm_source=Facebook#link_time=1487326352 http://www.lesechos.fr/industrie-services/energie-environnement/0211814544513-economies-denergie-leurope-seloigne-de-son-objectif-pour-2020-2066500.php Les faits sont têtus. Les croyances de la majorité sur le RC sans les actes significatifs dans les faits, n'ont aucun effet significatif dans les faits. Axer le changement sur le RC, un problème futur comparé aux actuels, donne l'impression d'avoir du temps et donc fournit l'excuse pour ne justement rien faire de significatif rapidement pour changer le modèle qui est à l'origine de la majorité des problèmes actuels et futurs dont le RC. Sinon quelle est la loi bidon qui dit que les morts actuels n'ont pas du tout la même valeur que les futurs les plus improbables par principe de précaution ? Bizarre cette précaution à géométrie plus que variable, où on réfléchit pour le plus improbable dans le futur au lieu d'agir dès à présent pour le certain ! Le principe de réalité aurait déjà dû nous faire changer depuis longtemps, mais nous sommes aux pieds de la déesse "économie" au service d'une minorité avec la complicité de la majorité des humains qui le veut bien dans les faits...
  8. Yoann44, le problème dans ce que tu dis dans IC, n'est pas que ça plaise ou non, mais que ce soit scolairement et scientifiquement assez correct par rapport à ce que nous disent les synthèses des scientifiques. C'est ce qui est trop douteux à ce niveau, qui ne convient pas et qui est en prime très contre-productif, fait douter du reste. Déjà quand tu commences avec "mes impressions", en faisant dire à des études et à des obs ce qu'elles ne disent surtout pas du tout, car tu n'arrives pas à voir la différence entre les prévis et les analyses avec le bruit et celles sur le fond, c'est très mal parti. Même au lycée, on ne se contente pas de vagues impressions biaisées par les erreurs classiques diffusées dans les blogs négativistes ou réchauffistes qui s'appuient systématiquement sur le bruit pour tordre le fond dans le sens qui leur convient ! Donc si tu veux lire les études et les blogs sans te faire piéger par leurs tendances et donc sans désinformer dans IC, tu dois garder les valeurs des prévis sur le fond, les échelles de temps et les paramètres concernés en tête. Quand on parle du RC du climat pour la T, c'est le réchauffement de la moyenne sur au moins 20 ans, donc quand tu lis une étude qui te donne une prévis de 0.22°+-0.13°/déc sur 2013-2022 à cause de l'IPO (variabilité interne !), ça t'indique de fait déjà que le blog est tordu s'il parle d'accélération du RC avec de tels éléments. D'autant plus que c'est une pente interne, donc courte, qui n'est même pas plus forte que le RC de fond prévu par les projections de l'AR5 (voir le listing plus bas). C'est une simple explication/prévision de la variation interne (donc avec le bruit) en valeur centrale avec le timing qui si elle se réalise, est même insuffisante pour parvenir à faire rentrer la moyenne climatique centrale pile dans les clous des projections. Cette prévision de variation interne est simplement plus forte que celle donnée par le bruit interne prévu par les projections sur la période (qui n'est que de 0.14°+-0.12° /déc sur cette période) sans initialisation (ce n'est pas ce qu'on appelle une prévis plus haute que les projections à l'échelle climatique pour le fond, et c'est le blog que tu lis qui t'induit en erreur !), ce qui est logique pour des modèles pas faits pour. Tu n'arrives pas, comme beaucoup d'autres, à comprendre malgré que ce soit indiqué de fait noir sur blanc que ce n'est pas une évolution climatique, mais une variation interne au climat (et oui l'IPO, l'ENSO, c'est du bruit et tant que les scientifiques n'ont pas sorti une synthèse qui nous dit qu'il faut revoir les prévis de fond (et non pas qu'affiner les prévis internes) à cause d'une sous-estimation d'une éventuelle amplification de l'IPO+ et ENSO+ à cause du RC, tu ne peux pas l'avancer, car il n'y a aucune preuve scientifique qui montre que leur évolution dépasse l'impact pour le fond prévu par les modèles) Tant que tu perdras de vue les échelles concernées et le niveau réel des prévis, tout comme ton blog de référence qui est habitué, les erreurs grossières comme l'actuelle seront pires que celles des négativistes, qui eux au moins ne nous parlent pas de ralentissement du RC et de refroidissement avec une pente confondue avec celle centrale sur 70-98 à l'inverse de vous. Tu n'imagines pas l'énormité de ce que tu racontes, car au moins pendant le faux hiatus, il y avait bien un décalage visuel avec la pente centrale sans que personne sorte la loupe, mais toi comme le blog concerné, vous êtes bien au-delà du réchauffisme pur et dur, c'est du grand n'importe quoi avec votre confusion entre le RC et le réchauffement de la T globale à des échelles internes au climat ! On va le voir avec mon graphe précédent. J'ai rajouté en orange la pente du faux hiatus à la mode de l'époque, puis une pente rouge décalée d'autant mais côté chaud, celle des réchauffistes normaux qui se noient dans le bruit mais au moins quand il y a un certain décalage avec la pente centrale, mais sans qu'il ait plus de sens que dans ton cas qui est vraiment hors sol ! Toi et autres arrivez à nous inventer une accélération du RC avant même que des réchauffistes normaux se réveillent avec la pente rouge. Elle n'indique déjà pas d'accélération sur le fond et toi tu essaies de nous en vendre une alors que la pente est confondue avec celle du milieu identique depuis 70, sans que les anomalies annuelles ou mensuelles, indiquent quoi que ce soit en ce sens. L'ENSO + si elle revient comme prévu à nouveau cette année dans un de tes graphes, sera simplement conforme avec ce que la physique nous indique. Il y a des périodes favorables à un surplus d'ENSO+ et d'autres favorables à un surplus d'ENSO- avec l'IPO donc d'après les derniers travaux. Donc tant que tu ne verras pas une synthèse revue par les pairs des travaux indiquant que le RCA a engendré une dérive du bruit lui-même au-delà de ce qui est prévu dans les modèles et donc qu'ils sont obligés de revoir les paramètres des modèles de projections pour changer les prévis sur le fond (là ils travaillent sur la prévis décennale que tu confonds avec le RCA fond !) , tu ne peux indiquer une accélération probable et surtout pas nous le dire ici, car il n'y a rien de nouveau dans ce sens qui a été admis par la science revue. Tu as un blog où tu es libre de poster de pareilles énormités contre-productives pour ta cause. Il faut de la rigueur quand on défend une cause ! Tu es impressionné par les 0.22° /déc sur 2013-2022 alors qu'avec les anomalies mensuelles GISS sur 12-73 à 11-83, la tendance /10 ans a été de 0.42°/déc et que c'est courant avec moins de forçage anthropique de dépasser cette pente sur 10 ans : C'est de la franche la rigolade cette prévis de 0.22°/déc et il faudra bien les 0.3° de pente / 10 ans pour rentrer dans les clous de la moyenne prévue sans absolument aucune accélération sur le fond ! Un rééquilibrage naturel du bruit sauf si les scientifiques trouvent qu'il y a une rétroaction supplémentaire non prévue par les modèles qui génère une tendance dans ce bruit. Donc replace ces 0.22°/déc sur cette courte période dans le contexte et par rapport au RC de fond prévu sur une durée efficace pour les modèles qui de toute façon n'est que de l'ordre de ce qui est prévu pour le fond (0.2°/déc) Dans l’AR4 sorti en 2007, il était aussi écrit : - Projection 2025/2005 de 0,45 à 0,5°C soit en moyenne 0,226°C par décennie, - Projection 2011-2030/1980-1999 de 0,64 à 0,69°C soit en moyenne 0,215°C par décennie, On retrouve ces 0.215° par calculs en valeur centrale sur 2016-2035 pour le scénario A1B aussi d'après le tableau récapitulatif des projections en annexe de l'AR5 : RCP 4.5 on a donc sur 20 ans (2006-2025) : 0.237°/déc RCP6 : 0.227°/déc RCP8.5 : 0.2575°/déc Donc ça c'est le RC de fond. Vu que nous sommes à 0.18° environ, 0.22° sur 2013-2022, c'est bien trop faiblard pour faire remonter la moyenne à ces niveaux centraux de pente effective (sans incertitude du modèle linéaire). Pour moi il est probable qu'avec un IPO+, et donc un surplus d'ENSO+, on affiche plus que 0.22°/déc vu que c'était le cas auparavant sans autant de RCA. Mais c'est du bruit qui ne change rien au fond et c'est du vent comme tes impressions. Il faut arrêter de m'attribuer tes défauts de lectures avec les stats, car tu es complètement déconnecté de la physique en commentant (comme le blog global climat) des graphes comme si la physique n'existait pas (quand tu lis un graphe, des données avec l'oeil, tu fais des stats sans outils, alors si en prime tu ne relies pas ces graphes aux réalités physiques...). Montrer que la valeur 2016 arrive un mm au-dessus du centre malgré un ENSO XL au lieu du haut des modèles, indique que tu lis qu'avec l'oeil d'un statisticien qui justement zappe qu'il y a eu un ENSO XL 2016 et donc qui ne va surtout pas chercher les paramètres physiques comme l'ENSO qui ont fait remonter la T à ce niveau des projections. Sans l'ENSO XL, pas de valeur de retour à ce niveau, ça c'est physique et pas statistique. Là un nouveau Nino est possible, et bien logique que la T 2017 puisse battre à nouveau le record alors que la prévis partait sur une Nina, aucun emballement en vue. Les modèles ne savent justement pas prévoir le bruit au bon moment. A chaque fois tu crois qu'ils ratent le fond car ils ne voient pas ce timing fin dans les détails. Tu as exactement la même façon de raisonner que les négativistes (si les modèles ne voient pas un plateau interne, alors le RC est faux, toi c'est s'il ne voit pas l'ENSO+ l'année suivante ou qu'elle fait monter la T simplement au milieu des modèles, alors il y a emballement, amplification, sortie de l'approximation linéaire ! Un gros film en 3 D quoi !) . Tout comme il était logique qu'on ne batte pas rapidement de record avec un surplus l'ENSO- à gogo. Non désolé, mais on ne peut pas raisonner comme ça, c'est de la non-science. Les modèles avec les projections sur les échelles efficaces pour eux, sont largement suffisants pour montrer le gros problème pas la peine d'inventer n'importe quoi avec le moindre bruit normal à la hausse, pour y voir des changements sans tenir compte du niveau de bruit physique déjà observé, qui ne changera rien au fond tant qu'il n'est pas démontré qu'il est plus amplifié que prévu par les modèles.
  9. ChristianP

    stations peet bros

    Salut ! Pas étonnant car une rafale aux normes OMM déterminée sur 3 s est représentative de l'échelle de la taille d'un bon aéronef, sur 0.5 s (MF) elle est représentative que sur 5 m, donc au pas de l'Ultimeter bien plus fin aux fortes vitesses, elle est représentative pratiquement à l'échelle du moulinet. A 50 cm, peu de chances de capter la même rafale. Il faut aussi bien voir que 3 s aux normes OMM a été aussi déterminé en fonction des efforts significatifs pour les structures qui dépendent du volume d'air déplacé, j'en ai déjà parlé en détail dans ce forum il y a des années. (Une rafale sur 0.5 s et donc sur 0.03 s n'a rien à voir en terme d'efforts et de dégâts avec une même rafale sur 3 s, il y a la notion de déplacement de l'air qui est bien différente, tout comme par exemple pour fixer les esprits, il y a une différence d'effet entre une vague de durée classique de même hauteur qu'un tsunami qui dure plus longtemps et donc avec un volume d'eau déplacé bien plus important, une énergie autrement plus importante pour les structures)
  10. Et oui c'est bien pour ça que s'il y avait quelque chose d'anormal ça sauterait autrement aux yeux que ce soit avec les anomalies ou avec les pentes bien distinctes. On le verra forcément quand la pente violette sortira bien au-dessus de la pente jaune pourtant réduite par un Pinatubo. L'actuelle est en prime en dessous, à l'échelle nanoclimato dont ils se servent pour y voir quelque chose d'anormal par rapport aux obs et aux prévis. C'est cette incohérence que je relève. Il n'y a pas un seul élément qui montre que ça surchauffe anormalement par rapport au RC de fond attendu en valeur centrale, alors en valeur max, n'en parlons même pas !
  11. D'un point de vue statistique ou physique, il n'y a rien de rien de plus. Franchement c'est une illusion d'optique de voir quelque chose d'anormal pour les T avec l'intégrale négative de l'ENSO pseudo Nina ridicule comparée à l'intégrale de ce qui vient de se produire depuis des mois sur une durée supérieure à 1998. https://www.esrl.noaa.gov/psd/enso/mei/ Non seulement on voit que des anomalies mensuelles de ce Nino XL 2016 ne sont pas aussi hors de l'IP sup , ni qu'au dessus de +1 écart-type, que d'autres dans le passé avec pourtant un moindre forçage anthropique, mais en prime la pente de la tendance sur 98-012017 pente violette (Janvier est dans le demi IP de la tendance, dans 1 écart-type, rien de plus banal pour le RCA même calculé fin 98 en position neutre) n'arrive même pas à faire autant que celle sur 83-1998 (Pente jaune d'un autre bon Nino à un bon Nino), malgré un bruit froid monstrueux, le Pinatubo en 2 ème sous-suite de la tendance, qui réduit sa pente ! Une honte totale pour la période 98-012017 qui aurait été encore plus ridicule en comparaison avec un Pinatubo en 2 ème sous-suite de cette dernière tendance. On ne fait que rattraper du retard d'ENSO + depuis des années, donc logique qu'avec l'inertie renforcée sans vraie Nina comme après 98, on reste à des niveaux corrects pour essayer de rentrer dans les clous de la tendance calculée fin 98 et pas encore dans ceux des modèles, car je le répète, ce n'est pas optimal de n'arriver qu'au milieu des projections de l'AR5 avec un ENSO+ XL et long, un blob, un forçage anthropique en plus et j'avais oublié, un record d'extent bas mondial en même temps. Et oui il est assez possible que l'inertie soit renforcée par la faiblesse de l'extent de glace de mer sur la planète, moindre que toutes les autres années à fort Nino : Quand on mesure/interpole la T là où il y a normalement de la glace, alors qu'il n'y en n'a plus, ça dope l'anomalie globale bien plus que pour une surface en mer où la glace avait été toujours présentes à ces périodes. Les anomalies locales y sont bien plus monstrueuses avec de l'eau à la place de glace. A noter que depuis 2007 le bruit dans les variations de la glace de mer a vraiment significativement augmenté en Arctique (Voir chez Tamino). Reste à savoir pourquoi physiquement sans doigt mouillé dans ces secteurs à grande variabilité bien avant les relevés sat (durée trop courte dans ces coins pour se faire une bonne idée de la variabilité habituelle). De plus il reste à déterminer la part de variabilité dans le passage d'un record haut à un record bas d'extent en Antarctique. On a donc la tendance 70-2017 qui reste inférieure à celle sur 70-98 alors qu'en toute logique elle devrait/aurait dû finir par la dépasser avec plus de forçage, sans absolument aucune erreur de sous-estimation des projections AR5 (et encore moins de l'AR4 plus chaudes) et celle sur 98-2017 encore plus faible, est pire, plus à la ramasse alors qu' elle devrait être plus forte que toutes les autres. Elle n'arrive pas à dépasser la tendance jaune 1983-1998 avec un Pinatubo. Donc nous n'avons même pas encore rattrapé le niveau de pente plus global de 70-98, car là aussi il y a une inertie pendant des années avec un surplus d'ENSO pas fameux à cause des vents anormaux. Statistiquement j'avais calculé il y a des années que le bruit total (internes et externe avec le soleil) de la T autour de l'évolution du CO2, est significativement auto-corrélé sur 18-20 ans (par rapport à l'évolution du CO2 et non par rapport à l'évolution du fond de la T) et donc j'avais estimé qu'il fallait probablement ce laps de temps pour que l'ensemble du bruit habituel soit considéré comme à l'équilibre en moyenne pour le fond et c'est donc le bon timing actuellement pour que la T reprenne sa marche normale en avant par rapport au fond prévu sans erreur des modèles de projections). Il est logique que si l'ENSO reste enfin à des niveaux souvent plus corrects, on ne fasse que revenir à ce qui est prévu sans aucun problème pour les modèles (hors leur inaptitude à prévoir ces variations internes avec le bon timing et la bonne fréquence dans un échantillon de 20-30 ans) Ce ne sont pas quelques mois ou 2 années qui font un climat. En 2008, j'avais halluciné pour le raisonnement inverse côté froid, avec une pointure du GIEC à la TV en France qui faisait la même remarque en envisageant une surestimation des modèles si ça durait encore quelques mois dans le froid, noyé dans le bruit froid en raisonnant à court-terme au lieu de périodes d'au moins 20 ans et plus. Très fort pour se tirer un boulet dans le pied et pour bien faire croire au public que le bruit est équivalent au climat, surtout sortant de la bouche d'un réchauffiste ! On ne rattrape pas la fourchette haute des modèles comme déjà montré dans un des graphes du GIEC plus haut, mais juste le centre des projections de l'AR5, malheureusement (On rattrape le haut des prévis décennales expérimentales intégrées dans le même graphe des projections, suite à la mode du faux hiatus, ce haut qui ne se retrouve qu'au centre des projections de l'AR5). Il faudra que l'ENSO nous aide encore un moment en restant assez neutre et positive pour être parfaitement dans les clous des prévis, car sur le fond, rien de nouveau, on alimente la chaudière, les forçages et les rétroactions ne sont pas encore revues (en synthèse des travaux scientifiques), à la hausse ou à la baisse par les spécialistes (C'est certain qu'on peut toujours extraire une étude par-ci, par-là, totalement opposées entre-elles). Il n'y a que le travail d'analyse avec les modèles actualisés et améliorés, qui prendra de nombreux mois, qui pourra nous dire ou non si les paramètres sur le fond sont à revoir dans les modèles. Pour le moment rien en vue à ce niveau, car le fond est considéré comme assez bien cerné (hors scénarios humains imprévisibles) et même le niveau de bruit d'un point de vue physique est bien donné globalement en cumulé (variabilité naturelle interne + variabilité naturelle externe) comme par les statistiques (autour de +-0.2° au pas annuel autour de l'évolution de fond). Il ne faut pas oublier que le climat qui est pipé a une sacrée inertie que l'on observe et qui est physique, mais le bruit aussi lui-même a son inertie même sans RCA et que ce n'est pas pour rien qu'on préconise plusieurs décennies (2 au mini) pour y voir clair même sans aucun RC.
  12. ChristianP

    stations peet bros

    J'ai eu 3 girou-anémo PB, même ceux qui ne se touchent pas dès le début, finissent par le faire à la main, à cause du jeu qui augmente. Le vent très fort provoque à partir de ce moment (ou dès le début neuf), des contacts (la girou n'est plus horizontale dans le vent puissant en penchant et le moulinet monte en ondulant, car il y a trop jeu dans cet ensemble. J'entendais les clacs des frottements par vent très fort, même du sol). Le moulinet explose un jour si on ne meule pas, donc libre à vous de ne pas vous servir de l'expérience des utilisateurs et d'attendre bêtement que ça se produise un jour de vent violent en ratant un record et tout en devant passer une commande... Bon après si l'anémo est à 2 m dans les obstacles et ne relève pas ou que très rarement du vent à plus de 60 km/h... Le pas de temps effectif de mesure dépend de la courbe de réponse, de la constante de distance de l'anémo et de la constante de temps, qui ne dépendent vraiment pas que du poids, d'autant plus avec une grosse coupelle déjà lancée qui n'a pas besoin d'autant de couple. La courbe de réponse de l'Ultimeter n'est pas du tout linéaire à l'inverse de celle de l'anémo MF. Elle varie en fonction de différentes équations du second degrés selon différentes gammes de vitesses. De plus à partir de 10 MPH, l'Ultimeter utilise le temps mis sur un 2 ème tour pour valider la vitesse. Il ne mesure pas le nb de tours de moulinet en un temps donné comme Davis ou MF, mais mesure le temps mis entre 2 contacts d'ILS (comme le pluvio Davis, c'est vérifié une 2 ème fois à partir de 10 MPH) et donc l'électronique mesure le temps sur 1 ou 2 tours selon la vitesse, sans calculer un nb de tours. Par exemple, un anémo MF avec une courbe de réponse bien plus simple de 1 tour / 1 m/s avec une constante de distance de 3.5 m, peut mesurer effectivement sur un pas d'environ 1/3 s à une vitesse de 10 m/s et donc 1/6 s à 20 m/s. L'anémo Ultimeter mesure une plus grande vitesse en 1 tour/1s et donc un moindre mouvement lui est nécessaire, c'est un gain de temps. Pour l'affichage, sauf gros problème, ça n'a aucun sens de chercher à valider le pas de temps avec à certaines vitesses, car ça dépendra des variations ou non de vitesses à chaque instant et donc si 60 km/h est tenu plus que le pas fin donné à cette vitesse, il n'y a vraiment pas de raisons de voir tous les échantillons possibles à l'écran, les 60 restent les x échantillons de 0.x s sans que ça change effectivement, de même si la vitesse baissait nettement dessous sans que l'oeil ait le temps de percevoir le changement, car le pas de temps court n'est plus celui donné pour 60, mais pour moins. De plus je ne crois pas à l'infaillibilité de l'oeil non bionique, capable de compter le moindre changement après la virgule ou autre. J'avais testé la console et PB m'avait communiqué la modif à faire dans la console pour sortir en direct les rafales de 0.33 s avec hyper terminal par exemple. Il y a cohérence avec les indications théoriques. Le problème principal chez nous, c'est qu'il y a des turbulences compliquées, c'est d'ailleurs pour cette raison que je ne pouvais pas me prononcer sur le vent de la WMR 300 alors que le pas de temps est le même que la Davis et donc qu'il a fallu tester l'anémo en soufflerie, car je voyais bien que les écarts étaient différents selon la direction du vent avec la position par rapport au mât. Ensuite il faut envisager les pannes très aléatoires d'ILS sur certaines Ultimeter. Il n'y a pas de changement dans les caractéristiques de/pour l'anémo.
  13. C'est la correction par rapport aux différentes heures de relevés pour récupérer les Tn et Tx pour la Tm, mais aussi la façon de calculer cette Tm avec plus de relevés que ces 2 valeurs, qui n'ont pas été les mêmes dans le temps, ni d'ailleurs en même temps à chaque époque pour les obs manuelles et actuelles secondaires (certains ne relevaient qu'une fois par jour, d'autres deux et les stations plus pro toutes les 3 heures, 1 heure, et les auto maintenant en permanence. Ils ne relevaient aussi pas tous au bon horaire OMM car 18h TU et 6H TU ça tombe en pleine nuit dans certains coins du monde). Enfin aux US, c'était surtout qu'un seul relevé par jour et vu l'étendue de fuseaux horaires ça change souvent dans ce même pays, c'est bien plus simple en France, mais c'est clair que l'impact n'est déjà pas négligeable ici (Je le vois régulièrement entre mes consoles météo qui relèvent de 0h à 0h TU les maxi et mini en comparant aux relevés maxi en 6h- 6h TU et mini 18Hh -18hTU et encore plus quand on compare à la moyenne vraie obtenue avec tous les échantillons sur 1 mn/24h. Tm annuelle plus froide ici qu'avec les relevés aux normes OMM)
  14. La T sat est bien extrapolée de fait, vu qu'il faut l'aide d'un GCM pour sortir une T "correcte" et surtout que ce ne sont pas des mesures aussi directes au même moment sur toute la planète (on n'a même pas un seul état de la T globale à un instant t, ni la possibilité de tomber autrement que par pur hasard sur le maxi et mini du jour en un point donné afin de sortir une moyenne comparable) . Steven Mosher qui a travaillé sur les T Berkeley l'avait justement encore indiqué dans des commentaires chez Watts à ceux qui rejetaient les GCM alors qu'ils les acceptaient de fait avec les T sat comme étant leur bible de la T observée (Le genre de commentaires intéressants que je garde en copie, vu que c'est comme sur le soleil, les mêmes histoires ressortent sans fin) “I think I can see why the so-called consensus has become so obsessed recently with destroying the credibility of the satellite data.” SM : You should have plotted the RAW RSS data. Nobody is obsessed with destroying the credibility of the modelled data produced from satellites. People are interested in what the actual adjustments are and the uncertainties. But Look Dave.. You like RSS. RSS has to perform a TOBS correction. Do your trust the physics of that TOBS correction? If yes… Then you just trusted a GCM.. because RSS corrects its data with the aid of a GCM. Different gcms have different diurnal cycles. They don’t validate against the real world. "Steven, please link to how a TOBS correction comes from a GCM " SM : https://www.ncdc.noaa.gov/cdr https://www.ncdc.noaa.gov/cdr/fundamental/mean-layer-temperature-rss http://www1.ncdc.noaa.gov/pub/data/sds/cdr/CDRs/Mean_Layer_Temperatures_RSS/AlgorithmDescription.pdf section 3.4.1.2 Local Measurement Time (Diurnal) Adjustments Next http://images.remss.com/papers/rsspubs/Mears_JGR_2011_MSU_AMSU_Uncertainty.pdf page 7 "The raw satellite data aren’t even temperatures." SM : Rss produces temperatures. Uah does not. “I have a question for anyone with knowledge: These “TOBS” adjustments. Are they done on a case by case basis? Or as a global change? In other words did someone actually comb through each and every record looking for time of observation changes? or did they just sort of “wing it” with a single adjustment to all the data at once?” SM : Which TOBS adjustment are you talking about. A) The TOBS adjustment for the US B) The TOBS adjustment for Satellities. They BOTH do TOBS adjustments. For the US. There are Three seperate approaches all validating each other. 1. The Case by Case approach. This has been validated EVEN BY CLIMATE AUDIT SKEPTICS and by John Daly. Every station is treated seperately 2. NOAA statistical approach. Matches the case by case. every station is treated separately 3. Berkeley earth statistical approach. Matches the case by case. every station is treated separately For SATELLITES. The TOBS adjustment is performed by using a single GCM model Different GCM models give different answers. Dans un article en lien plus bas qui traite plus globalement des différentes mesures : https://tamino.wordpress.com/2016/11/27/which-satellite-data/ https://www.youtube.com/watch?v=WX7aWsxe9yw Pour le suivi du climat global, on n'a pas besoin de tous ces nombreux points de mesures sur la planète pour obtenir une T globale assez correcte, une soixantaine de stations bien réparties suffit. Sur mer une T est représentative d'une bien plus grande échelle. On a surtout un problème de couverture aux pôles où la variabilité dans l'espace et le temps peuvent être très importante. Le problème de la T à partir des mesures au sol s'il existe, viendra plus des SST que des T terrestres, vu la surface bien plus importante couverte par les mers qui en prime contiennent le max de chaleur en surplus et de froid en stock. De plus l'homogénéisation des stations terrestres est réalisée de façon indépendante depuis longtemps par les différents pays avec des méthodes différentes de celles des organismes globaux, et le fait que les corrections donnent de mêmes résultats, laissent peu de place aux doutes autres que les incertitudes indiquées, la principale est celle de la couverture et non pas celle des mesures et avec l'environnement qui change. Pour les SST et donc la T de l'air au-dessus de l'eau, c'est différent, car c'est comme pour les satellites, en proportion, il n'y a pas grand monde qui bosse dessus et les travaux indépendants les uns des autres, sont bien moins nombreux, tout commes les points fixes. Ce n'est pas gagné d'homogénéiser comme pour les T au sol, les autres paramètres qui alimentent les réanalyses, vu les problèmes de mesures pures sur d'autres paramètres, bien plus énormes et beaucoup moins travaillés que pour la T mesurée par des thermomètres. Une comparaison avec Copernicus qui affiche bien les plus forts pics :
  15. ChristianP

    stations peet bros

    Je vous reposte le pas de temps calculé en 2007 d'après les documents du constructeur à l'époque : Temps mini pour mesurer une rafale selon la vitesse de la rafale : (s) (Km/h) 0,5 8,5 0,4 19,7 0,25 30,6 0,18 41,7 0,15 49,2 0,13 60,5 0,11 72 0,09 83,7 0,08 91,5 0,07 103,4 0,06 119,5 0,05 144,1 0,04 177,9 0,03 235,4 0,03 292,1
  16. Oui Seb, j'avais bien vu que l'influence n'avait pas été marquée comme en 1998, mais vu les possibilités à un instant t de passer dessous/dessus les valeurs terrestres, je me suis dit que c'était à cause d'un timing différent avec pas mal de possibilités de voir tout et son contraire avec le ratissage des IC impensables. C'est de Kevin Cowtan : https://skepticalscience.com/surface_temperature_or_satellite_brightness.html En moyenne sur une bonne période c'est certain qu'il y a des compensations des erreurs qui limitent l'écart en valeur centrale et la version 4 de RSS remonte bien. On voit ici qu'au départ tout va bien et qu'ensuite chaque jeu de données sat dérive. Donc qu'est ce qu'on peut faire avec un truc pareil ? Sur terre on peut vérifier les biais bien plus facilement que là haut.
  17. Article très pédagogique de Victor Venema, qui démontre pourquoi je martèle qu'il vaut bien mieux comparer des moyennes que des tendances linéaires bien plus incertaines (Par exemple, une tendance sur 10 ans est 32 fois plus incertaine qu'une tendance sur 100 ans, alors qu'une moyenne sur 10 ans n'est que 3 fois plus incertaine qu'une moyenne sur 100 ans). Donc pour ceux qui veulent obtenir un taux avec peu d'années, il vaut mieux extraire des tendances effectives (donc hors modèle linéaire), en obtenant des différences de moyennes (sans chevauchement de données) pour calculer le taux effectif, afin de limiter les plus grossières interprétations. http://variable-variability.blogspot.fr/2016/11/statistically-significant-trends.html Cotissois, ben voyons, sans critique possible ! Je n'ai pas du tout vu que le catastrophisme avait agi dans la signature de l'accord, bien au contraire, c'est le néant, car il est sans obligations, sans contraintes, ni sanctions. Si ça avait été le cas j'aurais été parfaitement d'accord avec toi et je n'aurais pas dit que le catastrophisme ne servait à rien, je ne vois que du vent face au modèle suivi : Tant que la planète et l'homme se retrouveront au service de l'économie et non l'inverse, tout accord de ce genre sera caduque de fait (il y en a plein sur la faim, sur la guerre et autres, ça ne change rien). Ce sont donc des promesses qui n'engagent que ceux qui y croient. Les pays signent, ok, mais ils font ce qu'ils veulent quand ils le veulent selon les votes actuels et futurs de la population comme par exemple déjà aux US ..... (Les US ne sont qu'un échantillon du début du recul, ils ne sont pas plus illuminés qu'en France et qu'ailleurs pour voter pour quelqu'un de pas motivé par le problème futur, mais qui leur semble plus motivé pour ceux qu'ils vivent simplement de plus près que nous dans le monde réel de la chute en cours, qui est selon les chiffres du BLS, qu'environ 102.5 millions de personnes (dont environ 7.5 millions de chômeurs officiels, un chiffre qui fait le mythe du plein emploi aux US avec tous les incompétents en stats dans certains médias français) en âge de travailler, sont sur le bord de la route, sans activité (Tu vois un peu la proportion pour ce pays !), le RC leur fait une belle jambe pendant que certains se gavent sur leur compte et carbonise l'atmosphère toujours plus et tu crois vraiment que les choses vont rester bien tranquillement calmes et que ton accord de Paris va faire le poids contre les foules délaissées, exploitées là maintenant et un jour de plus en plus en France qui à la moindre épreuve un peu sérieuse pour la population, le rejettera même si c'est sans le dire, dans les faits).... et par tous ceux qui ne manqueront par la suite de tout faire voler en éclat, car pour beaucoup , il faut déjà survivre dans le présent à cause des autres symptômes invivables par la majorité dans bien des pays à cause de ce modèle. Cet accord ne change donc absolument rien dans les faits même dans un pays qui absolument tous les moyens financiers et technologiques de tout changer très rapidement https://lenergeek.com/2016/10/18/lallemagne-abuse-encore-du-charbon/ . Il suffit de lire le dernier livre de Jancovici pour voir le bilan avec les renouvelables en Allemagne et le cinéma inutile même en 3 D de tout ce beau monde qui n'a pas vu venir grand chose et se foutent déjà des morts actuels car il y a des accords pour lutter contre la pollution et la France est à la traîne. Vu comme certains dirigeants agissent pour les morts actuels et les arguments pour ne pas vouloir sauver des vies, on peut doucement rigoler de l'accord signé à Paris pour des morts virtuels du futur alors qu'on se fout déjà totalement de la 3 ème cause de mortalité en France : http://www.les-crises.fr/le-tres-polluant-chauffage-au-bois/ Ca reflète assez bien le fond, le RC futur n'est qu'un alibi pour cacher les problèmes actuels sous le tapis pour ne surtout pas changer de modèle dès maintenant (et oui si on disait qu'il faut changer ce modèle immédiatement et plus hypothétiquement dans le futur, il faudrait raser gratis dans les moyens de surconsommer). C'est celui qui disposera des dernières gouttes d'énergie la plus abondante et la moins chère qui l'emportera sur les autres et il suffit d'un seul pays significatif qui n'applique pas l'accord pour que les autres finissent par faire de même, sous peine de couler, même si la population du pays va relativement encore bien, ce qui ne sera pas le cas longtemps avec l'économie en lambeau et sans aucun sens à coups de QE (la somme injectée chaque mois en Europe pour les placements des plus riches, est pratiquement de l'ordre de ce qu'il faudrait chaque année pour éradiquer la faim et ça c'est pour laune minorité de possédants. C'est 60 à 80% en un mois qui s'évaporent, de la somme qu'il faut verser /an aux pays pauvres pour le RC...). C'est la loi de la compétitivité biaisée plus que jamais et encore plus à court-terme qui est maintenue, totalement inverse à ce qu'il faut pour respecter l'accord signé.
  18. 1/ Oui Cotissois, tu as bien raison si on en reste qu'au strict RC avec les scénarios donnés, sans tenir compte d'autres scénarios d'évolution de la société et du monde. Parfaitement d'accord sur le fait qu'il est plus risqué de mettre les 1% de proba +chaudes sur le même plan que 1% de froides où on ne risque rien. Cependant la réalité, l'histoire et des scientifiques qui analysent l'ensemble bien plus globalement, montrent bien plus de probabilités d'évolution du contexte général du monde hors RC, différente, que ça n'a pas de sens de cloisonner, vu que les prévis du RC sont basées sur des scénarios d'émissions qui ne prennent en compte qu'une société de bisounours qui se contente de consommer plus ou moins "tranquillement" sans grosses vagues, comme maintenant et depuis 1945, avec une population et une économie qui croissent assez normalement. Malheureusement, la probabilité qu'on reste assez bien "gentil", comme ces 70 dernières années dans les 10-30 ans, est des plus faible. Je n'ai pas remarqué que les peuples se ruent pour choisir un monde plus collaboratif, mais plutôt tout l'inverse. Mais bon il y avait plein d'optimistes comme toi qui n'ont rien vu venir dans les années 30, certains lançaient encore des commerces perdus d'avance à la veille même de la guerre... Tu me fais toujours penser à la banque "Lehman Brothers" qui à la veille de sa propre mort, sortait des modèles pour faire des profits avec le RC dans 100 ans, incapable de voir le contexte, les pertes et sa propre disparition à 24h. Au lieu de regarder la déchirure de la coque du Titanic, tu regardes trop loin et uniquement ce symptôme majeur bien réel si tout allait à peu près comme actuellement pour les 3 scénarios les plus chauds, sans la chute de la population et de l'économie prévue (dans la douleur, non voulue et organisée) par le rapport Meadows par exemple, ce qui est fortement improbable. 2 et 3/ Pas d'accord, car je raisonnais avant tout sur les projections à LT de l'AR4 et de l'AR5 (Je rappelle assez souvent qu'il faut regarder des moyennes au minimum sur 20 ans et que les prévis à court-termes sont expérimentales, pas assez fiables et je les ai sorties pour montrer qu'il n'y avait que là que ça rentrait dans les bornes hautes pour les prévis à CT de l'AR5 et qu'un rattrapage pour le Met Office) et en disant d'ailleurs que malgré l'ENSO, les T (y compris les séries les mieux corrigées et les plus chaudes), ne revenaient qu'au milieu des projections (et en haut de celles à court-terme de l'AR5 surfant sur la mode du faux hiatus), ceci malgré les corrections et malgré le fait que je pense comme des scientifiques qui travaillent sur les données, qu'elles ne sont probablement pas encore assez corrigées de biais qui masquent le RC, mais bon plus autant qu'avant les dernières corrections. J'utilise de préférence la série GISS car elle est assez disponible et c'est la série qui donne la T globale la moins incertaine (IC les plus petits), les sat avec des IC monstrueux pour la détermination de la T près du sol, sont indignes de la science actuelle pour cette mesure. On m'a toujours appris à utiliser les meilleures méthodes aux plus faibles incertitudes, ça me dépasse qu'on utilise les sat pour cette "mesure" en l'état actuel de leurs IC. Serge, je ne sais pas vraiment, probablement des rétroactions positives, des effets de seuils, en majorité autour de 2050 car c'est un moment où les scénarios vont vraiment commencer à bien à se différencier, mais certains modèles voient des accélérations avant comme après. Je ne fais que suivre la moyenne au centre. Je crois qu'il y aura des surprises, une accélération surprenante à un moment plus tôt que prévu, mais scientifiquement ça n'a aucune valeur et beaucoup moins que le rapport Meadows et autres qui de fait, font chuter les émissions malgré nous. Je sais que mon impression est influencée par le fait que les études font plus de pub à tout ce qui accentue le RC qu'à ce qui le minimise, j'essaie donc de rester hors de mes croyances et impressions quand j'analyse les chiffres. Et là les chiffres vont contre mes croyances, mais bon il y a du bruit et donc si nous rentrons dans une période avec l'ENSO aussi productive que de 78 à 98 à cause d'une PDO+, ça devrait monter plus, surtout s'il n'y a pas un volcan important comme dans cette période. Mais rien scientifiquement ne montre que ça va probablement se dérouler de cette façon, c'est une vague spéculation. La PDO pourrait aussi restée/redevenir fraîche si on se base sur sa périodicité moyenne, mais si le RC l'a influencée ou qu'elle varie loin de sa périodicité moyenne... Donc personne n'en sait rien, vu que les modèles ne le peuvent pas non plus encore.
  19. On voit que dans ces données Copernicus, l'ENSO impacte encore les anomalies mensuelles. Logique avec des mesures satellites comprises, connus pour être bien plus sensibles à l'ENSO ( et donc au bruit, plutôt qu'au RC de fond plus longtemps masqué.) La tendance de fond sur 79-012017 est de 0.178°/déc. Les résidus à comparer avec ceux de GISS de mon msg plus haut: 201501 -0,01 201502 0,02 201503 0,04 201504 -0,14 201505 -0,03 201506 0,01 201507 -0,01 201508 0,08 201509 0,10 201510 0,28 201511 0,23 201512 0,33 201601 0,35 201602 0,49 201603 0,41 201604 0,32 201605 0,22 201606 0,07 201607 0,17 201608 0,24 201609 0,18 201610 0,19 201611 0,23 201612 0,11 201701 0,17
  20. Pas obligatoirement CP3. Ca m'étonnerait que l'ENSO soit indépendante du RC de fond, il faut bien que la chaleur accumulée dans l'océan ressorte d'une façon ou d'une autre et donc aussi par là, vu que rien n'est étanche. Ca dépendra du niveau de dépendance, du genre de changement (c'est certain que si elle reste bloquée en phase éternelle ENSO XL...) et de la vitesse du changement pour la période analysée et si l'indice n'est pas corrigé en conséquence. Une dérive lente positive de l'ENSO même indétectable avec les stats, se retrouvera dans le signal de fond du RC, confondue avec le RC dont il sera une composante par réchauffement de et par l'ENSO. Au final on le verra dans la résultante du RC sur le fond, qui déviera des rails actuel. Si les pics d'ENSO sont plus forts, ils vont faire sortir les anomalies des IP par rapport à avant. Les IP sont identiques dans le réchauffement avant 1945 sans ce surplus de pics sur 35 ans que tu indiques. On verra comme pour l'AMO influencée par le réchauffement, une corrélation avec le réchauffement de fond, dopée artificiellement si l'indice n'a pas été assez nettoyé de l'influence du réchauffement. Enfin bon Tamino regarde si l'indice de l'ENSO ne contient pas de signal capable de biaiser le poids de l'ENSO et donc l'analyse. Une influence bien réelle mais insignifiante pour la période n'est pas importante pour l'analyse. Aucune idée Nanuq de l'avenir de ces oscillations lentes connues imprévisibles, je suis totalement incapable avec ces oscillations pas modélisables par les stats, car irrégulières, c'est du domaine de la physique. De plus je ne les suis plus de près en sachant que le forçage anthropique qui augmente jour après jour les rend de plus en plus secondaires, car elles sont/seront de moins en moins capables de masquer visuellement le RC de fond. On le voit à la courbe du LOESS sur 60 ans qui correspond à la pente linéaire du RC moderne alors qu'avant ce n'était pas le cas. La physique attribue déjà la totalité la pente moderne actuelle au RCA. Il n'y a que les bruits puissants d'action assez rapide (en dehors d'oscillations inconnues de très longues périodes, peu probables, mais bon scientifiquement on ne peut pas dire que c'est totalement impossible) qui peuvent masquer temporairement le fond (ENSO (liée à la PDO), volcans assez puissants, soleil très fatigué longtemps). Je ne rentre pas dans le bruit mineur parce qu'une fois qu'on voit qu'il n'y a pas de tendance ni d'amplitudes efficaces, avec les stats ça ne sert à rien, vu que ce n'est pas significatif pour le fond. En 2009 je m'étais amusé à utiliser les oscillations visibles (non significatives de leur existence pour les stats, et oui sans assez d'échantillons des oscillations, on ne peut pas dire qu'elles existent pour le fond, car le bruit aléatoire avec l'auto-corrélation, génère par hasard ce même genre d'oscillations et donc il faut un paquet de données pour démontrer que c'est autre chose que le hasard) dans les données pour les propager dans le futur avec le RC de fond avec les prévis d'AMO et autres, basses. Vers 2037 ça donnait une anomalie de 0.88° +-0.16°, donc tu vois assez improbable dans les modèles. C'est ce qu'un physicien appellera justement de la cyclomania, de la non-science, car il n'y a aucune physique derrière pour avoir le droit de propager un tel signal (qui même s'il colle sur des périodes de l'AMO, ou autres, ne prouve pas que c'est l'AMO qui l'a généré, car le hasard génère plein d'oscillations tombant bien parfois sur des paramètres utiles) parce qu'on voit des oscillations dans les données passées. Là je peux propager une droite linéaire un certain temps pour détecter les sorties de route, et aussi pour voir un peu plus loin, parce que les modèles indiquent qu'en général en moyenne ça l'est jusqu'aux environs de 2050, ce ne serait pas conforme à la physique de le faire ensuite.
  21. Je le sais bien que les modèles sont imparfaits et d'ailleurs en réalité les IC des modèles sont environ 2 fois plus grands que ceux diffusés dans les graphes de toutes les courbes (Aussi d'après Victor Vennema statisticien de haut niveau et spécialiste de l'homogénéisation), car ils n'intègrent pas les incertitudes spécifiques autour de chaque run/modèle. Les IC présentés sont basés sur les valeurs centrales de chaque run/modèle. Ca signifie qu'en fait il y a pire côté chaud, mais aussi côté froid et c'est ce côté froid que tu ne peux/veux discerner, car tu le zappes comme si l'incertitude des modèles se situaient qu'entre le centre des modèles et au-delà de l'IC supérieur côté chaud. Ton problème c'est que tu as un très fort biais chaud pour ne plus parvenir à voir les IC inférieurs qui ont pourtant la même proba en termes physiques que l'exemple de tes 1% . Et oui, s'ils peuvent rater des éléments qui produisent plus de chaleur que prévu, ce que les IC montrent aussi, c'est qu'ils ont la même probabilité de rater des rétroactions négatives et autres bricoles compensant ce sur quoi tu te fixes. On ne peut pas être objectif en zappant les probabilités physiques équivalentes à tes 1%, où la réalité peut-être plus froide que la prévision des modèles, donc le plus sensé, c'est de s'en tenir au centre en attendant que les spécialistes affinent. Au fil du temps, le fait est qu'on a plutôt corrigé des biais chauds dans les modèles. La dernière prévis à court-terme dans l'AR5 est d'ailleurs plus faible que la prévis des projections à plus long-terme de ce même AR5 elles-même plus froides que l'AR4. Donc tu vois, les physiciens trouvent sans cesse des bricoles avec les obs et les progrés, qui compensent ce qu'annoncent les catastrophistes bloqués sur les IC supérieurs et plus, comme si la probabilité inverse n'existait pas pour eux. Les faits montrent qu'actuellement que d'un AR à l'autre, les prévis ont été recalées plutôt à la baisse et non dans ton sens. Tu as un biais de sélection (tu ne vois que ce qui peut produire plus de chaleur que prévu), c'est très humain, ça se corrige en y pensant un maximum.
  22. Et non Th38, les anomalies sont bien tombées et décembre 2016 est pile sur la tendance centrale du RC donc en situation neutre de l'ENSO : 0.00 , on ne peut guère faire plus parfait. Et oui l'oeil est très trompeur, d'où l'intérêt des calculs ! Je le dis et le répète, les données montrent sans l'ombre d'un doute que nous sommes simplement revenus avec 2015 et 2016 au niveau où nous devrions être pour la tendance de fond au RC sur 70- 98 sans aucune accélération (il en manque même encore un peu, 3 centièmes/déc pour GISS avec les dernières données corrigées, alors que ce n'était pas le cas avant). Juin était même un peu négatif par rapport au RC de fond, mais bon normal car il y a d'autres bruits encore plus météo qui jouent ponctuellement à cette échelle mensuelle si fine. C'est novembre qui était au-dessus, mais c'est très normal même sans ENSO, d'autant plus que le lag le plus efficace pour l'influence de l'ENSO se situe de +3 à +6 mois selon les modèles (Pour celui de Tamino c'est + 3 mois il me semble de mémoire) et la décroissance ne se fait pas brutalement, mais progressivement, il y a une inertie + du bruit météo et autres qui jouent obligatoirement, qui font que c'est aléatoire visuellement dans une certaine marge et que c'est aussi par hasard que décembre se retrouve aussi pile sur le RC de fond, comme il aurait pu être un peu au-dessus ou en-dessous. Ce n'est pas la peine de s'occuper d'anomalies mensuelles en dessous de +-0.14° autour du fond du RC pour y voir quelque chose de spécial pour GISS si elles ne sont pas trop fréquentes à ces niveau maxi. C'est normal de chez normal pour une situation neutre que les anomalies se baladent entre ces bornes. On remarquera que la plus grande partie de 2015 n'est vraiment pas très chaude relative au RC de fond et que l'ENSO ressort qu'à partir octobre 2015. On le voit clairement en retirant le signal moyen de fond sur 1970-2016 de GISS . Depuis mai 2016 on voit bien le net changement et il ne reste probablement que l'inertie qui maintient encore le plus souvent la T un peu au-dessus du RC de fond: janv-15 0,04 févr-15 0,09 mars-15 0,12 avr-15 -0,04 mai-15 0,00 juin-15 0,00 juil-15 -0,07 août-15 0,00 sept-15 0,02 oct-15 0,27 nov-15 0,25 déc-15 0,32 janv-16 0,38 févr-16 0,56 mars-16 0,51 avr-16 0,29 mai-16 0,13 juin-16 -0,04 juil-16 0,03 août-16 0,18 sept-16 0,07 oct-16 0,08 nov-16 0,12 déc-16 0,00
  23. Yoann44, je n'ai eu aucune intension de te taquiner, donc inutile d'interpréter ce que je dis pour ne pas imaginer n'importe quoi. Je suis direct. Si tu as un doute, tu passes par MP. Oui c'est cela, mdr, des œillères "statistiques", alors il faudra que tu sortes la tête du sable, vu que j'ai pris la peine de sortir des comparaisons aussi avec les modèles PHYSIQUES qui montrent que la valeur 2016 ne fait que revenir au centre des prévis PHYSIQUES (qui elles envoient des records annuels bien plus élevés que les stats pour la période, mais bon ça tu le zappes), malgré un Nino puissant (Lui aussi bien physique et qui n'est pas nouveau. Ils existaient aussi avant le RC et dans certaines reconstructions on en voit même de plus puissants) qui donc indique qu'il a fallu toute la bonne force de cette variabilité interne habituelle en + du RC, pour revenir simplement au centre des courbes physiques. Donc par définition mon analyse n'est pas que statistique vu que le fil rouge quand j'utilise les stats, c'est les modèles qui sont les seules prévis scientifiquement et physiquement assez solidement établies, mais surtout prévues pour cerner l'évolution de moyennes sur 20 /30 ans qui elles aussi sont en retard sur les modèles et qui le resteront si la pente n'augmente pas plus sur le fond (ni les modèles pour le moment du moins, ni les stats, jamais, ne peuvent prévoir l'évolution à si court-terme pour permettre de savoir si le rattrapage va continuer ou pas d'ici 2025 par ex). 2016 est plus rare pour les stats que pour les modèles pour l'année concernée, mais ce record est aussi dans les bornes statistiques de la variabilité interne pas bien cernée au niveau timing et fréquence par les modèles. Ils ne voient vraiment pas la même probabilité d'un plateau de record stagnant sur 15 ans par ex après un record comme 98, pas plus qu'actuellement après 2016 alors que les modèles donnent bien une évolution linéaire en moyenne sur le fond jusque vers environ 2050, donc aucune raison de ne pas s'appuyer dessus pour détecter des vrais indices de sorties de route par rapport à ce que nous dit la physique. Donc absolument aucun indice physique comme statistique, que la T globale de l'air soit sortie de ce que nous dit la physique qui est synthétisée au mieux de ce que sait faire la science actuellement, par les modèles qui prennent en compte l'amplification polaire et l'action de la vapeur d'eau en plus. Il n'y a vraiment pas besoin d'attendre d'autres données pour constater que 2015 et 2016 ne sont pas exceptionnelles dans les modèles à la même date, ni pour les stats, à cause de l'ENSO, vu qu'on a déjà de quoi les comparer ! Sinon ça s'appelle de la négation de la réalité en refusant de voir que la valeur de 2016 n'est qu'au milieu des modèles malgré le Nino puissant et que lorsque l'on réduit l'anomalie de la valeur de l'influence de l'ENSO, le record est bien plus modeste et totalement conforme à la tendance centrale identique calculée jusqu'à fin 98, qui est celle pour l'état moyen pour un bruit neutre, un ENSO neutre. On voit encore ici, chez les spécialistes anglais, à nouveau très bien le rattrapage par rapport aux ex prévis et non une sortie de route, dans les nouvelles prévis physiques à court-terme. Il n'y a rien qui sorte des bornes et on était bien en dessous de la prévis cible rouge précédente pendant un bon moment avant ce simple rattrapage (donc malgré l' initialisation avec les obs). Ce sera très intéressant de voir comment évolue la courbe réelle par rapport aux prévis bleues (la meilleure proba physiquement, c'est le centre du bleu). http://www.metoffice.gov.uk/research/climate/seasonal-to-decadal/long-range/decadal-fc Le rattrapage se fait donc aussi bien statistiquement que sur des bases physiques. Il n'y a rien d'exceptionnel pour ces valeurs dans les deux cas. 2015 et 2016 ne sont pas qu'un morceau du signal de fond, c'est le bruit (l'ENSO et autres bricoles moins importantes) + le RC de fond, que cherche à prévoir avec le bon timing le modèle expérimental plus haut et donc nous ne sortons même pas de l'IC supérieur à 90% des prévis, encore moins de l'IC 95% non communiqué ici, car les prévis sont trop incertaines. La courbe a été au contraire un bon moment dessous l'IC inférieur à 90% et heureusement que 2015 et 2016 sont venues pour compenser. Merci à l'ENSO XXL d'avoir simplement stoppé les sueurs froides des physiciens travaillant sur le bruit en pensant bien avoir cerné le fond. Pour la plupart des spécialistes, le fond est assez bien vu et ce sont les variations internes au climat,donc celles à court terme dans lesquelles beaucoup se noient, celles logiquement pas vues par les modèles, le problème principal à régler pour comprendre et prévoir ces mini variations de 1 à 20-30 ans afin d'arrêter une fois pour tout de voir le fond s'accélérer ou ralentir faussement toutes les 5 minutes, sans en tenir compte. http://www.climate-lab-book.ac.uk/2016/making-sense/#comment-2037 2016 (comme d'autres records précédents) est bien entendu tout à fait exceptionnel dans l'absolu des mesures "modernes" depuis 1850 (et bien avant probablement, mais bon, les modèles ne sont pas faits pour reconstituer des records annuels, mais des moyennes/20-30 ans, donc ce n'est pas du tout certain sans disposer des relevés précis) en tant que record absolu annuel et / 12 mois glissants à l'instant t à cause l'ENSO + RC le plus important (le RC sans ENSO XXL aurait fini par sortir cette valeur, alors que l'ENSO XXL sans RC n'aurait jamais généré ce record). Mais il ne l'est pas dans le contexte actuel du RC de fond, car il est déjà virtuellement battu à cause de la tendance, même sans accélération prochaine sur le fond et il est parfaitement conforme et plutôt bien moyen en 2016 par rapport aux records des prévis physiques du même instant, sans accélération en général avant autour de 2050. C'est en ça qu'il n'a rien d'anormal. 2016 est banal de chez banal pour les modèles et pour la vitesse de réchauffement observée sur 1970-98 (qui n'a malheureusement pas accéléré depuis), car l'ENSO était puissante et donc pour analyser ce record, il faut retirer son influence pour vérifier si le RC a été anormalement plus consistant sur le fond pour la T de l'air qu'avant 98 comme certains veulent nous le vendre sans aucune démonstration scientifique probante, mais sur des impressions. Ici de 1978 à 1998, on voit bien dans ce graphe de Tamino qu'il y a un surplus de phases ENSO favorables au bruit chaud (ça t'indique la valeur à déduire en 2016 de l'anomalie observée pour la relativiser et apercevoir un peu plus le vrai RC de fond) qui a donné la hausse visuelle avant 98. Après 98 jusqu'en 2014, ça s'est tassé (bien moins de chaleur restituée par l'ENSO), d'où le plateau visuel (faux hiatus) et c'est ça, cette succession en importance et en fréquence de l'ENSO, qui est malheureusement encore bien trop imprévisible par la physique et donc par les modèles pour le moment. Les stats voient le plateau de record en terme de proba par rapport à la signature du bruit habituel observé autour d'un signal moyen de fond (là dans le graphe c'est le bruit de l'ENSO qui est extrait et qu'il faut ajouter au fond de l'évolution du RC, et si le réchauffement ne modifie pas très fortement l'ENSO, il n'y a aucune raison que les bruits négatifs de l'ENSO visibles sur ce graphe, disparaissent à l'avenir tant que la physique ne nous le montre pas), alors que les modèles voient les proba en fonction de ce qu'ils arrivent à simuler physiquement et donc ce sont des proba sur des observations de prévisions et non comme les stats sur des obs mesurées qui sont meilleures/plus précises que les T générées par un run/modèle donné, mais des stats qui ne pourront jamais prévoir une accélération, à l'inverse des modèles. Tu t'appuies sur des impressions pendant tes lectures. Les records même puissants d'autant plus locaux en Arctique ou autres, ne font pas une tendance globale à eux seuls. Dans ton article d'avis, on voit bien le nombre de commentaires de scientifiques qui envisagent que c'est la variabilité naturelle avec le RC de fond. Il n'y a aucun travail scientifique qui est encore terminé pour faire le tri entre la variabilité naturelle et le RC pour ce secteur, c'est trop tôt. Ce sont des régions bien plus régies qu'ailleurs par une variabilité forte autour du RC, les écart-types y sont énormes et donc comme indiqué les conditions météo peuvent avoir joué un grand rôle pour cette année. Ce n'est pas aussi "simple" que pour déterminer si la T globale 2016 est normale ou non avec l'ENSO + RC. On avait déjà eu le coup avec 2012, du jamais vu, et ça devait être la fin de la banquise dans les 5 ans pour ceux sortant le doigt mouillé avec des techniques insuffisantes par rapport aux modèles. Les modèles ne sortent pas des impressions et ils ne sont pas tordus volontairement à la baisse pour faire plaisir au GIEC. Ils existeraient de la même façon avec ou sans GIEC qui ne fait que les exploiter. Les stats non plus, elles suivent les obs et il y a des règles mathématiques bien précises pour ne pas leur faire dire n'importe quoi. Un effet de seuil sortira beaucoup de valeurs consécutives des bornes des stats et des modèles du paramètre concerné s'il n'a pas été prévu, ça sautera aux yeux, complètement différent et hors norme et qui il concernera pas qu'une ou deux années. Donc inutile d'attendre une donnée de plus car le signal avec le bruit prévu on l'a avec les modèles et avec les stats. Et hop 2016 est dedans, bonne pioche ! Normal ! Surprise pour ceux endormis par les mantras de faux hiatus avec l'entrain et même l'acharnement médiatique des meilleurs physiciens même jusqu'en février 2016. Ils sont toujours aussi totalement inconscients de l'impact de leur com, pour avoir publié en titre d'une de leur publication scientifique dans une grande revue, que le réchauffement avait bien réellement ralenti (ce qui signifie de fait sur le fond, vu que le RC c'est le réchauffement de l'état moyen ce qu'ils nient quasi-systématiquement de fait dans leur com principale). L'important n'est pas seulement que la courbe observée colle ou pas aux modèles, l'essentiel pour valider les modèles, c'est que les spécialistes trouvent pourquoi physiquement la courbe se situe à tel niveau. Ils n'ont vraiment pas besoin de recaler les forçages ou la sensibilité à la hausse pour faire rentrer à tout prix 2016 dans les bornes prévus par les modèles, c'est un fait. 2016 est au milieu des larges attentes en T annuelle, loin du record possible donné par les modèles. Bon c'est quelque peu hors sujet, mais je réponds pour l'histoire de tes 1% de risque avec la roue de la voiture. Là encore c'est zoomer sur un risque infime qui est sorti du contexte du fait que la voiture est probablement déjà en train de tomber de la falaise, donc ce 1%, perdre une roue à ce moment et non avant la sortie de route, est déjà le dernier des soucis. Le RC comme la famine, les morts par millions à cause de la guerre économique sans foi, ni loi efficace, ne sont que des symptômes du même modèle de développement exponentiel, de la croissance infinie pour une minorité ( on peut estimer ici en convertissant la monnaie http://www.globalrichlist.net/ qu'il n'y a qu'environ 456 millions de personnes au monde (592 millions quand j'avais regardé il y a plus de 6 mois) qui perçoivent au moins le SMIC net annuel français (qui font donc partie des 7.6% les plus riches en salaire de la planète, ceci pour bien fixer les idées sur ceux qui sont réellement responsables de la surconsommation des ressources et des émissions et qui ont en général les moyens de consommer au delà de la part de planète qui lui reviendrait de droit dans un monde utopique juste et donc sur qui devrait porter les vrais efforts (pas que symboliques, pour se donner bonne conscience, ou juste pour ce que l'on juge supportable et plaisant) tout en payant les dettes antérieures de dépassement pour que ceux ne consommant pas la part qui leur revient, le puisse pour avoir l'essentiel, mais bon. Ce n'est pas demain que notre CB sera bloquée en fonction du quota personnel atteint, bien au contraire ils ont inventé la taxe carbone pour encore rendre plus inaccessible la part à ceux qui ne pouvait déjà pas en disposer, tout en se réservant le reste (et oui ceux qui surconsomment le plus se foutent totalement de payer la taxe, car ils ont les moyens de continuer comme avant, ceux qui sont limites bien moins et donc ils leurs abandonnent une partie de leur part...). Donc tu peux être alarmiste, resserrer les boulons de ta roue, la voiture est déjà tombée depuis longtemps de la falaise, avant même que que tu aies pensé que la roue sera peut-être un problème. Il y a des personnes compétentes qui y ont pensé il y a longtemps, des scientifiques, il suffit voir les liens plus bas sur le rapport Meadows de 1972 et autres. Le RC comme la famine pourtant beaucoup simple à résoudre et qui fait disparaître 1 enfant / 5s (pas dans 50 ans, là maintenant pendant tu es concentré sur tes 1% insignifiants de la voiture qui plane déjà vers le sol. Eux c'est 100% de risque avec un IC à 100%. Et je pourrais prendre les chiffres de l'OMS dans l'ordre d'importance, pour te faire la liste des priorités qui ne sont rien d'autres que celles générées par ce modèle délirant avec tant de monde sur la planète et qui ne seront pas plus résolus que le RC, par la volonté dans un monde compétitif (loi du plus fort), sinon ça se saurait. Il faut un monde à 100% collaboratif et il n'y a que les bisounours qui oublient l'histoire, qui pensent que ce monde est possible de nos jours sans qu'il y ait d'abord un effondrement destructeur du système actuel bien avant le RC. Si un jour le RC devient un vrai problème du niveau de la famine, des guerres militaires, civiles et surtout économiques et d'abord s'il touche vraiment assez fort les plus "riches" pays (ce qui est l'inverse en général), la technologie recadrera ça sans risques à partir de l'espace par exemple, pour modifier l'entrée solaire sans modifier la composition de l'atmosphère (cher mais on trouvera les moyens, on en trouve bien toujours de très gros pour se faire la guerre et quand on aura vraiment la tête dans le sac...). Mais le problème c'est que bien d'autres symptômes nous auront probablement emportés bien avant celui du RC, qui sera réduit de fait automatiquement (et oui quand on rase gratis à grande échelle la population, c'est efficace pour réduire les émissions bien avant l'arrivée des plus fortes hausses de T, c'est la sélection naturelle qui induira ça, selon la loi du modèle compétitif dans la nature, qu'elle soit humaine ou pas, la nature régulera la population si on ne collabore pas à 100% pour l'éviter. On est plutôt sur la pente inverse de la collaboration à grande échelle et ce ne sont pas des signatures en bas d'accords sans contraintes qui vont aller contre ça par ex : http://www.les-crises.fr/bilan-2016-la-contagion-du-desordre-par-guillaume-berlat/ . Il y a un livre récent qui fait une bonne synthèse des progrés réalisés avec ce modèle qui a été nécessaire à une époque mais qui ne colle plus aux limites physiques de l'équilibre qu'il a permis de dépasser, mais surtout il fait un bon point des chemins possibles, bon et mauvais : "Vivement demain, 15 ans pour sortir de l'impasse". La plus grande incertitude pour le RC, n'est donc pas à cause des bases physiques, mais à cause des scénarios et donc l'inconnue majeure, c'est l'évolution de la société et du monde. C'est clair que le RC n'a déjà pas de sens pour ceux qui ne peuvent déjà pas consommer leur part de planète qui n'arrive plus à se soigner, se nourrir normalement, meurent bien plus qu'à cause du RC (voir chiffre de l'OMS), dans des pays qui n'étaient plus touchés, en Grèce et au Vénézuéla par ex et dans les pays qui vont suivre la liste, dans des pays en guerres civiles ou militaires, car c'est invivable. Même en France ou malgré la famine dans le monde, un agriculteur se suicide tous les 2 jours car il ne peut vivre de cette denrée si rare pour les personnes affamées, sans parler des 10 à 15 000 morts par an à cause du chômage (avant la crise), pour les mêmes raisons de fond, le modèle de développement inadapté et non pas à cause du réchauffement lointain qui sera réglé que si le modèle est changé pour régler les problèmes actuels et donc tout ceux depuis cette foi en la loi de la jungle. Ton risque de 1%, déjà très décalé des prévisions physiques les plus probables, est des plus négligeables, si tu le replaces pas dans le contexte de fond du monde déjà sur la mauvaise pente : http://www.europesolidaire.eu/repimg/20120408210916_Futurism_Got_Corn_graph_631_thumb.jpg http://www.liberation.fr/futurs/2012/06/15/le-scenario-de-l-effondrement-l-emporte_826664 , http://www.les-crises.fr/dennis-meadows-croissance/ . La physique qui est partout dans l'évolution recadrera car nous ne le feront pas nous-mêmes avant de nous fracasser. Ce blog avec bien d'autres articles passionnants que ces deux, devraient parler aux amateur de météo et de physique : http://www.francois-roddier.fr/?p=202 http://www.francois-roddier.fr/?p=233 Regarde ceux qui ont l'esprit cartésien et logique de quoi ils s'inquiètent bien avant le RC, pas vraiment de tes 1% , au contraire ils alimentent la fournaise, car ils savent qu'il y aura beaucoup de places libres pour eux sur la planète, car à terme ils n'auront plus besoin de travailleurs, avec les robots et les IA pour tout fabriquer (il a déjà été démontré qu'une IA est plus efficace pour en programmer une autre qu'un humain), créer quoi que ce soit : http://www.7sur7.be/7s7/fr/1504/Insolite/article/detail/3070439/2017/02/02/Les-milliardaires-de-la-Silicon-Valley-se-preparent-a-l-apocalypse.dhtml Tu vois je sors quelque peu la tête des stats. Ici dans IC je n'aborde le raisonnement que d'un point de vue scolaire (ex : peut-on dire que 2016 est anormal en toute rigueur avec ce que nous dit la science à l'instant t et donc par rapport au RC observé sur le fond, peut-on dire que le réchauffement s'est accéléré sur le fond ?) Le catastrophisme avec ta roue, n'a jamais rien changé depuis 1972, tout comme l'inverse pour les négativistes qui en général ne veulent surtout pas voir changer le modèle, n'ont pas de sens à ce niveau. On peut tout invoquer pour voir le pire ou indiquer que tout va bien, sans démonstrations scientifiques, exactement comme je l'ai fait plus haut avec des indices sur l'évolution du monde. C'est une vision parmi tant d'autres. Quand je fais des stats, je pars du principe que la moins mauvaise prévision de l'évolution de la T à l'échelle climatique avec les incertitudes physiques hors contexte d'évolution de la société, est donnée par la physique et donc par ces modèles assis dessus, car il y a "quelques" personnes très compétentes qui ont passé leur vie à étudier et à bosser sur les principes physiques de base concernés. Donc à partir du moment où on sort de ses propres croyances et qu'on ne peut démontrer scientifiquement qu'ils se plantent physiquement en rentrant dans les équations et les paramètres des modèles, ni en moyennes efficaces en comparant avec les obs, on admet ce qui ressort de cette science à l'instant t, du moins des prévis de scénarios pour un monde fonctionnant à peu près comme maintenant, sans le probable (sans effondrement de la population et du niveau de vie avec d'autres symptômes du modèle, bien avant celui du RC) Pour le bruit, des variations internes dans 30 ans de données ( donc dans un échantillon de climat), c'est différent, car on le sait que ce n'est que le début des prévis décennales, pas assez efficaces, ce que justement n'admettent pas assez les scientifiques dans leur communication pour persister à orienter systématiquement involontairement ou non, l'attention du public sur le bruit. D’entrée depuis toujours, ils ne diffusent même pas tout d'abord dans les sites officiels, des graphes d'évolution du climat, de l'état moyen (de moyennes sur 20 -30 ans) tels qu'ils définissent pourtant eux même le changement climatique (c'est à mourir de rire d'ailleurs, d'être aussi incohérent et de venir se plaindre que dans les faits rien ne change), mais ils affichent au premier plan que des graphes d'évolution au pas annuel avec des lissages toujours trop bruités, tout en ne recadrant clairement pas le buzz dans les médias, mais en plongeant le public toujours plus dedans en le suralimentant à la moindre variation interne comme là en 2016 à nouveau qui sera suivi un jour ou l'autre d'un bruit "froid" relativement au RC de fond.
  24. Pour ceux qui ne suivent pas le SE, dont Adri manifestement, mdr : Le Campbell (il y a des différences de qualité) est très loin de respecter le seuil de 120W/m2 de direct théorique pour brûler le papier (pas n'importe lequel, le seuil n'a été fixé que pour suivre le brûlage des cartons français du Campbell dans les essais), décidé par l'OMM en 1981 avec l'électronique. Le Campbell (boule + papier selon leurs qualités) "voit" à géométrie variable ce seuil entre 70 et 280W/m2 de direct d'après divers travaux dans les années 50 à 70, et c'est pour cette raison que vers 1971, le seuil était de 200W/m2, puis le CIMO a recommandé 105W/m2 avant de définir le seuil actuel avec des études pour coller au matériel français. Mais le problème n'est pas qu'au niveau du seuil, c'est qu'il ne fait pas assez la différence entre le direct et le diffus et surtout qu'il sur-brûle le papier avec les passages de nuages d'autant plus que c'est fréquent, brutal (petits nuages) et avec du vent. Comme pour l'héliographe pointu de MF, ce n'est pas le seuil le problème principal, vu que dans le réseau MF la qualité du Campbell et du papier est la même (Le seuil du Cimel est précis à +- 30W/m2 à 95% et ça représente en toutes saisons sous nos latitudes +- 5/6 mn et moins par très beau ciel et +-20 mn par ciel trouble et très humide. Pour le pyrhéliomètre de référence c'est +-3.6W/m2) L'incertitude journalière du Cimel est de [-30 mn ; 12 min] ( le Kipp and Zonen [-42 mn ; 23 mn] ) à Carpentras dans 95% des journées, (avec une ou deux journées par an qui peuvent atteindre +- 60 mn dans l'absolu par rapport la vraie mesure qui est encore meilleure que la mesure du pyrhéliomètre de référence) et qu'il faut élargir à [-45 mn ; + 45 mn] dans 95% des cas l'incertitude journalière dans les stations moins ensoleillées au Nord. A Comparer avec les +- 2h dans 95% des journées et certaines erreurs journalières jusqu'à 6 h à Mâcon avec le Campell comparé au Cimel. La surestimation de 10% en général nationalement au pas mensuel (des erreurs se compensent), vient surtout du sur-brûlage du papier avec l'insolation fractionnée. Pas d'écart ou 50h d'écart en moyenne annuelle/30 ans dans certaines stations du SE, ça ne veut rien dire pour les valeurs journalières. C'est dû aux propriétés statistiques des grandes moyennes et c'est pour la même raison que malgré d'énormes erreurs journalières dans des points de mesures qui entrent dans la T moyenne globale, ils peuvent donner la T globale avec une plus grande précision (+-0.05°) que la meilleure station avec le meilleur abri au monde (Et le comble c'est que dans les +-0.05° , la majorité de l'incertitude ne vient même pas des instruments moins précis, ni de grosses erreurs sur certains points, mais de la couverture insuffisante du globe. La meilleure station MF en classe 1 sans panne, donne la Tm d'une journée avec une incertitude de plusieurs dixièmes de degrés et donc pas à 0.05° près hors hasard. Rien que l'acquisition a une incertitude supérieure, il faut des conditions météo favorables et que des erreurs se compensent par hasard) Le Davis ne donne pas un seuil de direct, mais un seuil de global, qui est du direct + diffus, donc il faut souvent bien plus de global pour obtenir ce seuil de 120W/m2 de direct, donc votre oeil vous jouent des tours pour estimer le seuil de 120W/m2. Le trouble atmosphérique aussi joue dessus. L'OMM recommande une précision du seuil de +-20%. Il sera peut-être révisé un jour avec les nouvelles normes d'ouverture des pyrhéliomètres, instruments de référence de la mesure du direct et de la DI. (Peut-être un seuil revu à la baisse, l'ouverture plus importante favorisant du diffus résiduel, même celui généré par le capteur lui même). En cherchant très loin dans ces forums, il y a le lien vers mon fichier Excel qui permet de déterminer la DI journalière à partir du Davis comme MF et l'OMM à partir de la mesure du rayonnement global au pas sur 1 mn. Le mieux c'est de pouvoir intégrer sa station dans le réseau StatIC qui la détermine automatiquement avec cette méthode même si c'est avec un pas de 10 mn, ce sera bien mieux et moins cher qu'avec un Campbell (Adri voir chez Précis Mécanique pour te fournir en papier français conçu pour, utile dans le SE avec les belles journées au pas mensuel que si tu as vraiment un modèle de Campbell qualité MF, donc voir aussi chez Précis Mécanique)
  25. Salut Michel, J'avais étudié il y a très longtemps l'intensité Davis en comparant les valeurs avec un autre pluvio Davis branché sur un enregistreur d'événements Hobo qui enregistre la date et l'heure de chaque basculement à la seconde près. C'est bien l'intensité instantanée qui est calculée à partir du temps mesuré entre 2 basculements ( la valeur instantanée est affichée sur la console et la valeur maxi est enregistrée pour le pas d'enregistrement choisi, donc dans une minute ici et à partir du total tombé en 1 mn enregistré, on obtient l'intensité aux normes OMM). A l'époque j'avais un doute vu que la console peut mettre beaucoup plus que 10 s à changer l'affichage de l'intensité dans les très fortes intensités alors que l'intensité change manifestement et qu'il y a des bons de plusieurs mm d'un coup sur la console dans les très fortes intensités entre deux affichages figés anormalement alors qu'il n'y a pas de ruptures de communication avec l'ISS (Ca se produit avec ou sans fil, avec un pluvio Davis ou non Davis, depuis toujours sur toutes les versions de la Vantage). L'OMM avait déterminé que les pluvio sont trop imprécis pour descendre à ce pas de temps si fin, l'intensité est trop incertaine dans les fortes intensités. C'est l'intensité calculée d'après la quantité tombée sur 1 mn qui a été choisie.
×
×
  • Créer...