Aller au contenu
Les Forums d'Infoclimat

Ce tchat, hébergé sur une plateforme indépendante d'Infoclimat, est géré et modéré par une équipe autonome, sans lien avec l'Association.
Un compte séparé du site et du forum d'Infoclimat est nécessaire pour s'y connecter.

Suivi de l'englacement au pôle nord


sirius

Messages recommandés

Ce ne sont pas les sigmas de l'erreur de mesure, mais de la dispersion des valeurs. C'est à dire qu'en gros, on est dans le tiers inférieur de la distribution 79/06, ce qui est tout de même autre chose. Et d'après le NSIDC, on n'est même pas revenu dans les 2 sigams de 79/00.

Lien à poster
Partager sur d’autres sites

  • Réponses 7,5k
  • Créé
  • Dernière réponse

Les plus actifs

Les plus actifs

Messages populaires

En prenant l'avion hier, on est passé assez nord au niveau de la Sibérie pour éviter les vents d'Ouest assez violents. Du coup j'ai pris des photos vite fait, j'ai mis les endroits sur la map. Je suis

Effondrement catastrophique du volume de glace, on termine sur juin un record de faible volume et sur un record tous mois confondus de la plus grosse anomalie ...      

Magnifique performance de piano, autour de glaçons en dérive dans l'Arctique :    

Images postées

J'avais bien compris qu'il s'agissait de la dispersion des valeurs , et le fait de se trouver dans le dernier tiers d'une dispersion limitée à +/-2 sigmas , est compatible avec le fait de se trouver entre 1 et 2 sigmas , non ? J'aurais aussi bien pu proposer la formulation : il n'y a maintenant plus de différence significative entre le relevé actuel de l'extension et sa moyenne 79/06 (mais là , désolé , on n'a pas les données pour apprécier le risque bêta ) .. Maintenant , il est vrai que si on se réfère aux courbes du NSIDC , on reste encore très sensiblement au delà des 2 sigmas , donc dans le domaine de la différence significative au risque 2,5% maximum de se tromper ... default_angry.png

Lien à poster
Partager sur d’autres sites

Et, ne vous énervez pas, c'est mauvais pour le coeur default_tongue.png/emoticons/tongue@2x.png 2x" width="20" height="20">

Je maintiens, nous sommes significativement différent de la moyenne 79/06. En gros, l'erreur absolue sur la mesure de la banquise est de plus ou moins 100 000 km² en comptant large, ce qui fait que pour ne pas être significativement différent de 79/06, il faudrait être à xbarre +/- 100 000 km². On est loin du compte...

Vous pouvez très bien être à moins de 2 sigmas de la moyenne et être significativement différent de cette moyenne, ce n'est pas incompatible.

Pour les températures, c'est pareil. Pour les moyennes mensuelles, vous avez une incertitude absolue de +/- 0.1°C environ, mais les sigmas eux sont plutôt de l'ordre de 1°C, voire 1.5°C en Hiver (pour la France).

L'erreur de la moyenne et la dispersion d'une série sont liées quand on mesure un paramètre fixe. Par exemple, vous avez un moteur sur le banc en régime stable, et vous mesurez la température à l'échappement. Vos mesures vont être entâchées d'erreur, mais en théorie c'est une valeur constante que vous devez trouver. Vous mettez donc un thermocouple dans l'échappement, et vous vous faites n mesures. L'erreur de la moyenne est alors fonction de n, sigma, et du student à un risque donné.

Au contraire, quand votre population présente une variabilité, mais qu'à chaque fois vous n'avez qu'une seule mesure, l'erreur sur la moyenne doit être évaluée par d'autres méthodes plus ou moins complexes. Pour reprendre l'exemple du moteur, si maintenant vous faites mumuse avec le cable d'accél' (voire le starter pour les grands enfants default_tongue.png/emoticons/tongue@2x.png 2x" width="20" height="20"> ), à chaque mesure vous ne pourez mesurer la variable température à l'échappement qu'une seule fois. Cette mesure est entâchée d'une erreur (la même que celle mesurée précédément avec un peu de chance, ce n'est pas vrai dans le cas général. Par exemple, votre instrument peut être très lent. Pour un thermocouple, à ma connaissance cela ne pose pas de problèmes mais pour d'autres types d'instruments cela peut). Vous avez donc un échantillon de p mesures, chaque mesure ayant une erreur connue. La variabilité de l'échantillonage des p variables n'est pas lié à l'erreur de mesures sur les variables. Pour la banquise, c'est la même. La banquise du 5 juin 1971 est différente de la banquise du 6 juin 1971 tout comme elle est différente de la banquise du 28 Septembre 2011 ou du 24 Février 2072. Vous n'avez donc qu'une seule tentative pour mesure la superficie de la banquise, et vous ne pouvez pas répété ad nauseam la mesure jusqu'à obtenir une erreur standard pouillémesque rapport à la grandeur mesurée. L'erreur est donc estimée (un peu "pifométriquement" à mon humble avis pour la banquise) à environ 100 000 km² pour une mesure, mais cette erreur n'est en aucun cas lié à la dispersion de la population.

Lien à poster
Partager sur d’autres sites

Non , non , je ne m'énerve pas du tout . C'est non seulement mauvais pour le coeur , mais pour la tension . Chuis pas fou default_smile.png/emoticons/smile@2x.png 2x" width="20" height="20"> ... Je pense que j'avais mal choisi ma frimousse finale (smiley en anglo-saxon) . Quant aux caractères , je les avais augmentés pour une meilleure lisibilité . Je regarde ds mes bouquins de stat , et je vous réponds .. default_flowers.gif

Lien à poster
Partager sur d’autres sites

  • 2 weeks later...

Bon , me r'voilà ! default_flowers.gif comme disait Foch avant de commencer ses briefing heu...ses conférences , "De quoi s'agit-il?" Nous parlons d'une grandeur qui s'appelle l'extension de la banquise arctique . Elle a les dimensions d'une surface . Gauche , en plus , mais bon ...Cette grandeur est variable dans le temps . Il ne s'agit pas d'une grandeur fixe , dont on approcherait la valeur exacte par un nombre de mesures aussi grand qu'on veut ("ad nauseam" comme dirait "paix"). En outre , la variation de cette grandeur (et non la variation de la mesure) n'est pas aléatoire . Elle suit une vague sinusoïde . Elle est en quelque sorte programmée par les lois géophysiques . Cependant , si on considère l'ensemble des mesures à une date fixe , depuis n années , on a là une population de n individus . Si l'extension de la banquise arctique se reproduit , semblable à elle-même durant ces n années , alors cela a un sens de calculer la moyenne de la population de ces n individus , ainsi que leur écart-type . En revanche , s'il existe une variation continue durant ces n années , cela n'a pas grand sens . C’est le cas entre 1979 et aujourd'hui . Sauf si on réduit la population à quelque chose comme 1979/2000 (maximum) . Je considère que les références de type 1979/2008 sont biaisées .

Résumons donc . Nous sommes devant une population de n individus (attention , ce n'est pas un "échantillon statistique"), qui sont chacun la valeur (en millions de km²) , de l'aire de ladite exstension , et ce , par exemple , le 21 décembre , depuis l'année 1979 jusque l'année 2000 , soit une toute petite population de 21 individus .Cette population a une moyenne et un écart-type . Mais elle n'est pas forcément gaussienne (encore que , sur 21 individus , c'est difficile de ne pas être réputé gaussien ... default_dry.png ) .Bon . Et voilà que la mesure d'aujourd'hui , le 24 décembre 2011 est "écartée" de ladite moyenne de 2 écart-types . On pourrait raisonnablement en déduire que , si on veut absolument intégrer cette mesure dans la population des 21 individus (1979/2000) , elle n'aurait que 2,5 chances pour cent (unilatéralité) d'y être intégrée à bon droit . Là , je rejoins "paix" . default_191769.gif

Mais raisonnons autrement . Considérons que les 21 ne sont qu'un "échantillon statistique" extrait de la population des x années (les 21 plus les siècles à venir default_thumbup1.gif ) qui se trouveraient dans un mouchoir par rapport à cette fameuse moyenne . En ce cas , ce qui est appelé écart-type ds le graphe est un "estimateur" d'écart-type . C'est une estimation de l'écart-type réel de la population (inconnue , et pour cause) . Comment , alors , allons nous traiter le cas de la mesure d'aujourd'hui ? Eh bien , on va l'apprécier au vu du demi-intervalle de confiance t x s/racine de n , s étant l'estimateur de l'écart-type , et n l'effectif de l'"échantillon statistique" , ici 21) .

Dans notre cas , je n'ai pas avec moi les tables , mais ça donne un t de l'ordre de 2,5 avec P=95% . Avec racine de n=4,6 , on a donc un demi-intrevalle de confiance de 0,55 x s .Cela signifie que , même si la mesure du jour est ds la bande grise , il faut qu'elle soit à l'intérieur d'une demi-bande grise latérale pour qu'on puisse admettre que cette valeur n'est pas significativement différente de la moyenne indiquée par le trait noir . Et là , c'est "paix" qui va être content ...

default_wink.png/emoticons/wink@2x.png 2x" width="20" height="20">

Cependant , un bémol , me semble-t-il . Avec la notion de valeurs corrélées . En effet , la valeur du 24 décembre ne peut pas être très différente de celle du 23 , et celle-ci du 22 , etc...: la surface de la banquise arctique évolue d'une façon "régulière" et non pas erratique . Je ne suis pas sûr d'avoir bien compris le topo de Tamino là dessus default_tongue_smilie.gif , dont Chritian P donne la référence dans un autre top..heu sujet . M'enfin , j'ai compris que , dans ce cas là , cela rendait plus difficile l'exclusion d'une valeur . J’aurais pensé le contraire . Peut-être me planté-je . default_confused1.gif Enfin , si ça rend l'exclusion plus difficile ,on peut commencer à se dire qu'il n'y a pas de différence significative quand on commnence à rentrer ds le gris . Ce qu'on pouvait déjà se dire intuitivement avant tout ce pathos default_rolleyes.gif ...On n'en est pas loin au jour d'aujourd'hui . Cela dit , pourvou qué ça doure !

http://arctic-roos.org/observations/satellite-data/sea-ice/observation_images/ssmi1_ice_ext.png

Lien à poster
Partager sur d’autres sites

Posté(e)
Besse sur Issole (83 - Alt 275 m à 26 km de la mer)

superficie-minimale-banquises-hemisphere-nord-1870.jpg

Extrait de la belle série de graphes et d'images visibles ici sur le blog d'Olivier Berruyer:

http://www.les-crise...ise-arctique-1/

http://www.les-crise...ise-arctique-2/

Pour répondre sur le sujet de l'auto-corrélation à Eratosthène, dans les graphes suivants,

simulation sur 10000 échantillons :

ar1-timebase-10000.png?w=500

pour mieux voir les caractéristiques d'un bruit AR1 selon l'importance du paramètre phi, simulation sur 100 échantillons :

ar1-timebase-100.png

on voit donc bien pourquoi les IC seront plus larges en fonction du paramètre phi d'un bruit AR1 (si phi = 0 ,donc pas d'autoco et que la normalité est présente, c'est le bruit blanc normal, les IC sont de largeur habituelle avec les stats, et les tests basés sur les MCO sont valides, on observe plus rapidement (avec moins de mois, de jour ou autres), des différences significatives, vu qu'on voit le signal plus rapidement avec moins de bruit sans l'autoco)

Le bruit est d'autant plus important que phi l'est, donc les IC augmentent aussi en fonction de phi, le signal de fond est d'autant plus masqué par le bruit, que phi est grand, il faut soit le retirer, soit prendre encore plus de recul (plus d'années, de mois,...) que sans autoco, pour apercevoir le signal de fond.

Pour le modèle de Tamino par ex pour la série CRU, avant retrait du bruit, le paramètre phi du bruit avec autoco à décroissance ARMA (1 , 1) est proche de 0.89 (si on approche le bruit uniquement par un processus AR1 insuffisant, il est d'environ 0.75). Si on place ces valeurs dans les graphes plus haut, pour voir la forme du bruit typique à ces niveaux de phi, on remarque pas mal d'oscillations visibles, dues au bruit aléatoire avec ce niveau d'autoco. Ce type de bruit en plus d'élargir les IC, peut donner aussi l'illusion qu'il existe des cycles dans les données. Ils seront présents, même s'il ne sont pas réels dans le monde physique à cette fréquence et à cette amplitude et malgré le fait qu'on détecte ces cycles dans les données de T avec une bonne analyse spectrale. Il n'est pas évident de prouver sans physique, qu'ils n'ont pas été produits par les hasards de l'aléatoire avec ce niveau d'autoco, vu que ces oscillations sont typiques de ce type de bruit avec ce niveau de phi pour la longueur de la série donnée.

Le bruit et les obs, sont très forts pour nous rouler dans la farine, si on oublie la physique, c'est bien une des raisons pour lesquelles, les modèles qui intègrent la physique nécessaire, sont largement supérieurs à ce qu'on pourra déduire uniquement à partir des obs et des méthodes stats les plus performantes.

Lien à poster
Partager sur d’autres sites

Merci de vous être donné ce mal . Ouaahhh! j'ai du boulot ! vu le site d'olivier B. Du beau boulot . Il me fait penser à ce que j'étais à son âge (sauf que j'étais pas sorti premier d'un truc de droit...) . 68 , que je n'ai pas "fait" , m'a "rattrapé" ds les années 70 , en faisant pas mal de dégâts au passage . Nous étions tous animés d'une foi ds la nécessité et la possibilité de faire un monde "nouveau" , car ce monde qui venait serait le nôtre . Comme Olivier B. aujourd'hui . Las , les choses se sont dissoutes avec les années qui passent , inexorablement . Désillusion de vieux con , me direz-vous . Il reste qu'il y a des pb encore plus prégnants aujourd'hui , à commencer par la démographie , notamment au "sud" . L'avancée implacable du fanatisme et de l'obscurantisme chez les peuples les moins éduqués (encore le "sud"). Cf le Nigeria du nord , le Soudan , l'Afghanistan , etc... , liste non exhaustive . La course accrue et la compétition des grandes puissances (et des moins grandes) vers les matières premières et l'énergie .Le possible épuisement des combustibles fossiles (du moins , le pétrole) , mais là il y a énormément de désinformation , pour des raisons politico-stratégiques. La modification de l'échelle de temps ds le changement climatique (car le climmat a toujours changé , mais tant que c'était à l'échelle du millénaire , on s'en foutait un peu) , etc...

Désolé pour le HS

Lien à poster
Partager sur d’autres sites

Excepté la mer de Barentz et a mer de Kara, où il y a un énorme déficit par rapport à l'année dernière (on peut expliquer cela par le fort courant d'ouest/sud ouest) avec son gulf stream qui balaie tout l'océan atlantique, la glace s'est bien reformée partout, aussi bien du coté asiatique qu'américain avec ce vortex polaire bien concentré depuis le début de l'hiver.

deetmp.5418.png

Lien à poster
Partager sur d’autres sites

En effet Virgile, les relevés indiquent que tant l'aire que l'extension sont meilleures qu'elles en l'étaient l'an dernier à la même date, et il est fort probable que la forte concentration du vortex en ce début d'hiver en soit le principal facteur. Cela étant, la solidité de la banquise semble à l'inverse moindre cette année qu'en 2010 à la même période, particulièrement dans le bassin arctique.

Il faudra voir avec l'actualisation de fin décembre, mais à l'entrée de l'hiver Piomas donnait environ 500 kilomètres cube de glace de moins cette année qu'en 2010, soit quand même l'équivalent d'un cube de presque 8km de côté. default_unsure.png

Lien à poster
Partager sur d’autres sites

Posté(e)
Pierrelatte (confluent 26/07/30/84) - et Saint Palais sur mer (17) occasionnellement

En effet Virgile, les relevés indiquent que tant l'aire que l'extension sont meilleures qu'elles en l'étaient l'an dernier à la même date, et il est fort probable que la forte concentration du vortex en ce début d'hiver en soit le principal facteur. Cela étant, la solidité de la banquise semble à l'inverse moindre cette année qu'en 2010 à la même période, particulièrement dans le bassin arctique.

Il faudra voir avec l'actualisation de fin décembre, mais à l'entrée de l'hiver Piomas donnait environ 500 kilomètres cube de glace de moins cette année qu'en 2010, soit quand même l'équivalent d'un cube de presque 8km de côté. default_unsure.png

Une question : se deficit de volume peut etre il imputé à des entrées d'eau plus salées par la mer de Barents en raison de ce vigoureux flux de sud ouest sur zone?
Lien à poster
Partager sur d’autres sites

Une question : se deficit de volume peut etre il imputé à des entrées d'eau plus salées par la mer de Barents en raison de ce vigoureux flux de sud ouest sur zone?

Le déficit semble plutôt lié aux "cicatrices" de la fonte estivale : on est sorti en septembre avec une épaisseur de glace bien moindre dans tout le centre du bassin arctique qu'en 2010. Or, si les conditions ont permis une reprise en terme de surface bien meilleure cette année, il s'agit avant tout de glace jeune et fine, qui ne représente donc pas un volume important. Il sera beaucoup, beaucoup plus difficile de rattraper le déficit dans le centre du bassin - c'est d'ailleurs irrattrapable à l'échelle d'une seule saison, il faudrait plusieurs années de bonnes conditions pour reconstituer les mètres d'épaisseur qui ont été perdus dans ce secteur.
Lien à poster
Partager sur d’autres sites

Posté(e)
Pierrelatte (confluent 26/07/30/84) - et Saint Palais sur mer (17) occasionnellement

Le déficit semble plutôt lié aux "cicatrices" de la fonte estivale : on est sorti en septembre avec une épaisseur de glace bien moindre dans tout le centre du bassin arctique qu'en 2010. Or, si les conditions ont permis une reprise en terme de surface bien meilleure cette année, il s'agit avant tout de glace jeune et fine, qui ne représente donc pas un volume important. Il sera beaucoup, beaucoup plus difficile de rattraper le déficit dans le centre du bassin - c'est d'ailleurs irrattrapable à l'échelle d'une seule saison, il faudrait plusieurs années de bonnes conditions pour reconstituer les mètres d'épaisseur qui ont été perdus dans ce secteur.

OK, effectivement je ne l'avais pas vu sous cet angle. Et c'est clair qu'une seule année ne suffira pas à recuperer ce qui a été perdu, d'autant plus que cette glace juvenile est salée et qu'elle fondra "plus facilement" à la saison estivale. J'avais lu quelque part qu'il fallait entre 2 et 4 ans pour que la glace de mer libere son sel mais je retrouve plus la source
Lien à poster
Partager sur d’autres sites

Jolie embacle pour ses derniers jours de 2011 ! Surement du au froid qui s'est déporté du coté russe, c'est pas un froid durable mais qu'est que ça fait du bien à la banquise, on devrait se retrouvé très proche des normales pour début 2012 default_thumbup.gif .

Lien à poster
Partager sur d’autres sites

Invité Guest

On note aussi une persistance des anomalies positives des OLR, avec des anomalies particulièrement importantes et persistantes dans les régions qui ont le plus souffert cette été. La rétroaction positive de la banquise est devenue une réalité palpable au jour le jour, et montre combien l'embâcle qui se défend plutôt bien par rapport aux années récentes ne change pas grand'chose au déséquilibre énergétique de l'Arctique. On notera aussi les anomalies positives généralisées à l'ensemble du globe. Merci la Nina qui a permise de réchauffer la planète default_thumbup.gif De plus, la persistance d'une grosse anomalie autour des terres François Joseph met à mal l'hypothèse que le déficit abyssal de banquise en Kara et Barents soit du à la persistance du zonal.

compday8517011744364164.gif

Bref, la banquise n'est pas sorti de l'auberge, et nous avec.

Lien à poster
Partager sur d’autres sites

A ce jour et en regardant régulièrement:

http://arctic-roos.org/observations/satellite-data/sea-ice/ice-area-and-extent-in-arctic et

http://nsidc.org/arcticseaicenews/

Je la trouve en forme cette année si cela se fait au détriment d'un hivers doux en europe, c'est pas grave, mais au moins le Pole Nord retrouve ses lettres de noblesse, on peut être rassuré les ours ne se noieront pas de fatigue.

Lien à poster
Partager sur d’autres sites

A ce jour et en regardant régulièrement:

http://arctic-roos.org/observations/satellite-data/sea-ice/ice-area-and-extent-in-arctic

mais au moins le Pole Nord retrouve ses lettres de noblesse

Oui enfin, ne même pas arriver à un écart type en dessous de la moyenne (zone grisée sur les graphiques inférieurs), atteindre la moyenne d'ailleurs ce n'est même pas la peine d'en parler, alors même que l'on connaît les meilleures conditions de concentration de froid sur le pôle (favorisant l'embâcle) depuis plus de dix ans au moins, j'ai quand même du mal à appeler ça des lettres de noblesses ! default_pinch.gif

Même si ce n'est qu'un indicateur forcément imparfait, on peut noter que l'AO n'avait jamais été aussi positive qu'en ce début d'hiver depuis que cet indice existe, et de très loin d'ailleurs (moyenne de 1,5 sur le trimestre Oct-Nov-Dec, contre un ancien record à 0,95 en 1994).

Lien à poster
Partager sur d’autres sites

(...)

Tu as raison ! Je vais attendre la fin de l'hiver polaire avant de rééditer cette envolée lyrique, mais c'est vrai que comme l'avait fait remarquer Paix que les volumes de glaces sont pour l'instant à la baisse.
Lien à poster
Partager sur d’autres sites

  • 2 weeks later...
Posté(e)
Massif du Jura // La-Chaux-de-Gilley (25), 895m (Village Alt. mini/maxi : 880-1120m)

Bonjour,

Merci le Vortex bien concentré ?

seaice.recent.arctic.png

Lien à poster
Partager sur d’autres sites

Posté(e)
Bastia - Montesoro [Alt.: 56m]

Bonjour,

Merci le Vortex bien concentré ?

seaice.recent.arctic.png

Oui en effet ça fait déjà plus plaisir que de voir -1,5M même si un hiver ne suffira pas default_bored.gif

Sur 430 000 Km² la plus grosse partie de ce déficit se trouve en mer de Barents sans surprise !

recent365.anom.region.6.jpg

Lien à poster
Partager sur d’autres sites

Impressionnant , n'est-il pas , cet effleurement de l'extension de la banquise groelandaise avec l'Islande ?

c_map7.jpg

Question aux spécialistes : cela est-il de nature à arrêter ou ralentir le courant "chaud" de surface dans ce détroit ? ou alors est-ce parce que celle-ci aurait été perturbé (en vitesse , en direction , en puissance thermique) que l'extension groenlandaise a réussi à descendre jusque là ?

Lien à poster
Partager sur d’autres sites

Fut un temps, au cours d'une de ces joutes écrites dont j'ai le secret pour le meilleur et pour le pire, j'avais fait remarquer qu'en 2011 l'Arctique avait chauffé tout seul comme un grand. Ce fut cependant une affirmation gratuite, et comme "la science n'est pas négociable" (sic.), je reviens donc très partialement et partiellement sur le sujet. Mieux vaut tard que jamais dit on default_fear.gif . Pour le meilleur et pour le pire aussi, mon ordi doit me supporter et je crois que là, il a touché le fond. Mais, passionné que je suis, et mon ordi avec, nous avons continué à creuser. J'avais eu l'heur de souligner le lien entre passion et souffrance, et là mon ordi a bien compris ce que je voulais dire default_191769.gif . Tout ceci pour dire que j'ai fait un gros câlin à l'ordi (il le méritait bien le pauvre default_bored.gif ) et que par manque de mémoire vive, de mémoire morte, bref à court de ressources, j'ai du me résoudre à ne regarder que les années 2007, 2010 et 2011. Je vous passes le détail du pourquoi le choix de ces trois années default_happy.png/emoticons/happy@2x.png 2x" width="20" height="20"> Cela me rappelle ce que me disait le prof d'éco : "l'économie est l'allocation de ressources rares à des usages alternatifs". Cette fois-ci, c'est moi qui n'ai jamais aussi bien compris cette phrase default_laugh.png .

Bref, pour en venir au fait, j'ai déterré les équations quasi géostrophiques, et dans l'équation thermodynamique, j'ai discrétisé les dérivées pour calculer le terme Q (rien de grivois évidemment ici default_whistling.gif ). Pour mémoire :

energy3.gif

Je ne garantis rien non plus, je n'ai pas eu le loisir de vérifier que les calculs étaient exactes. Je dérive quand même sur 86400 secondes et quelques 111000 mètres (certes moins pour le zonal). Cela fait un peu flipper quand même default_huh.png

Donc, en espérant que cela ai un sens (surtout pour l'ordi en fait, si je lui dis qu'il a touché le fond pour rien, il va me maudire default_fear.gif )

q2007.jpg

q2010.jpg

q2011.jpg

Le terme Q a été moyenné entre 87.5° N et 70°N pour chaque jour, du 1er Juin au 31ème Août.

Une moyenne de la moyenne ( default_whistling.gif ) pour chaque longitude donne ceci :

meanq2007.jpg

meanq2010.jpg

meanq2011.jpg

Et une moyenne de la moyenne de la moyenne pour récupérer toute la quintessence de cet acte de masturbation intellectuel :

2007 : -0.0045 W/kg

2010 : -0.0032 W/kg

2011 : -0.0045 W/kg

On voit bien que c'est 2011 qui est le plus proche de l'équilibre...

On notera aussi sur les graphiques de la moyenne temporelle de la moyenne que cela n'est pas sans rappeler quelques délires mythiques de ces années. On retrouve donc un maximum du côté de 150°E, comme par hasard là où le polynia de Laptev a permis au anomalies OLR d'exploser...

On note aussi par exemple en 2011 un minimum aux environs de 180°, là où une langue de banquise âgée a résisté Dieu seul sait comment, et un peu plus à l'Est le maximum là où il y avait le polynia de Beaufort, etc... Bref, si j'étais sûr de mes calculs, je dirais qu'il y a anguille sous roche et même baleine sous gravillon à ce niveau, même si cela ne constitue pas en soi une preuve. Un jour, faudrait que j'essaye de boucler le bilan énergétique de l'Arctique. Cela devrait être bien poilant default_mellow.png

P.S. Au fait, je sais encore comparer des chiffres ^^ Mais pour avoir eu le jeu de données en main, à la montée en 2011 cela envoye du lourd, et c'est cela qui me semble important. J'avais déjà parlé à propos de l'Arctique Canadien d'un blocage auto entretenu. Cela chauffe, forçage BC, maintien du blocage,...

Sur les 50 premiers jours (en gros du 1er Juin à la mi Juillet) :

2007 : -0.004 W/kg

2010 : -0.001 W/kg

2011 : -0.0007 W/kg

Je suis plus que jamais convaincu que le gros anticyclone subtropical qui a squatté l'Arctique au début de l'été 2011 et qui a, par la même occasion, envoyé la banquise par le fond, était un pur produit local et s'est livré à un jeu de rétroactions malsains avec Hélios et Poséidon.

Lien à poster
Partager sur d’autres sites

Au fait les gens, je ne le dis jamais, mais si vous voulez les scripts, feuilles de calculs ou autre, n'hésitez pas à demander évidemment default_thumbup.gif Que ce soit à ce sujet, ou tout autre, tout est "open source" default_wink.png/emoticons/wink@2x.png 2x" width="20" height="20"> .

Lien à poster
Partager sur d’autres sites

J'aurais mieux fais de ne jamais commencer, je n'arrive plus à dormir maintenant. La passion, une souffrance. Bref, je suis aussi revenu à cette dénomination d'anti subtropical, et c'est peut être dramatique, mais c'est vrai.

Le pôle Nord est devenu le centre "stablement chaud", avec le géopotentiel qui se balade à 5600 mètres et la température au Z850 qui s'établit à l'aise Blaise à 5°C si ce n'est à 10°C. De par la relation du vent thermique, le manège s'est mis à tourner à l'envers. D'ailleurs, l'AO a été très basse durant cet été.

Si on considère le vent zonal au Z500 :

climindex85170117441817.png

Pas besoin de dessin, on voit bien que 2011 a touché le fond. Et encore, cette moyenne sur trois mois masque la réalité sur de plus courtes échéances :

climindex85170117441817.png

On a véritablement de manière autonome une réplique du schéma classique anti subtropical - zone barocline - dépressions des latitudes moyennes, sauf que le truc tourne à l'envers default_stuart.gif

compday8517011744181731.gif

compday8517011744181734.gif

On comprend bien dans ces conditions que le Pôle ne peut avoir que chauffer tout seul comme un grand, les advections zonales et méridionales ne pouvant que vider le Pôle de sa chaleur (conceptuellement on comprend bien que l'objectif est de mixer la chaleur, et ce n'est pas au profit de l'anti subtropical que se fait les transferts).

Le jour où un gars va réanalyser en profondeur 2011 et sortir tous les cadavres du placards, il ne va pas regretter le voyage... default_sick.gif

Lien à poster
Partager sur d’autres sites

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
  • En ligne récemment   0 membre est en ligne

    • Aucun utilisateur enregistré regarde cette page.
×
×
  • Créer...