charles.muller Posté(e) 19 mars 2007 Auteur Partager Posté(e) 19 mars 2007 Suite aux remarques de Meteor plus haut, voici le tableau complété par NOAA/NCDC, qui donne elle aussi 1998 plus chaude que 2007 pour le moment. *** Plusieurs choses : - les anomalies ne sont pas calculées sur la même moyenne de référence (Hadley : 1961-90 ; Nasa GISS : 1951-80 ; NOAA-NCDC : 1901-2000 ; satellite : moyennes mobiles 1979-présent). A part les satellites, où ils n'ont pas trop le choix, cette dispersion des moyennes de référence est un peu dommageable à la clarté et à la comparaison des divergences entre les bases. - Nasa Giss est un composite de plusieurs sources (Hadley pour les océans, GHCN/USHCN/SCAR pour les terres, dans ce dernier cas à peu près les mêmes données brutes que NOAA, mais avec des ajustements différents) Voir pour les explications : http://data.giss.nasa.gov/gistemp/, notamment lien vers les papiers de Hansen 1996, 1999 et 2001. - je crois me souvenir qu'en 2005, l'OMM avait donné sa propre estimation. Quelqu'un sait-il si l'OMM a sa base de données sur les T avec analyse indépendante et, dans cette hypothèse, où se situe le serveur ftp ? Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 19 mars 2007 Partager Posté(e) 19 mars 2007 Suite aux remarques de Meteor plus haut, voici le tableau complété par NOAA/NCDC, qui donne elle aussi 1998 plus chaude que 2007 pour le moment. tss, tss, t'es sûr là? /emoticons/biggrin@2x.png 2x" width="20" height="20"> je pinaille mais si je prends la moyenne des 3 organismes j'obtiens l'égalité quasi-parfaite entre les 2 années avec un léger excédent de 2007/1998 de 0.0185°C. Lien à poster Partager sur d’autres sites More sharing options...
miniTAX Posté(e) 19 mars 2007 Partager Posté(e) 19 mars 2007 tss, tss, t'es sûr là? /emoticons/biggrin@2x.png 2x" width="20" height="20"> je pinaille mais si je prends la moyenne des 3 organismes j'obtiens l'égalité quasi-parfaite entre les 2 années avec un léger excédent de 2007/1998 de 0.0185°C. Tant qu'on y est dans le pinaillage, il faudrait pondérer le nombre de jour différent de 10% entre janvier et février, si tant est que ce genre d'exercice ait une quelconque signification statistique Quand il y a dans une différence 2007-1998 de 0,11°C pour le Hadley Center et de 0,36°C pour le GISS, soit un écart de 0,25°C, cela veut dire que l'incertitude des mesure est de cet ordre de grandeur. Ce qui veut dire par exemple qu'une variation de 0,2°C n'est statistiquement pas significative. Tant que les fluctuations restent inférieures à l'incertitude, on peut voir la tendance qu'on veut. Quand il s'agit de mesures expérimentales, il est toujours bon de garder à l'esprit l'ordre de grandeur des incertitudes. Dit comme ça, ça semble évident et pourtant on voit des annonces officielles du genre +0,74°C depuis 150 ans +- 0,2°C. Lien à poster Partager sur d’autres sites More sharing options...
miniTAX Posté(e) 19 mars 2007 Partager Posté(e) 19 mars 2007 - les anomalies ne sont pas calculées sur la même moyenne de référence (Hadley : 1961-90 ; Nasa GISS : 1951-80 ; NOAA-NCDC : 1901-2000 ; satellite : moyennes mobiles 1979-présent). A part les satellites, où ils n'ont pas trop le choix, cette dispersion des moyennes de référence est un peu dommageable à la clarté et à la comparaison des divergences entre les bases. Si on compare la différence 2007-1998 (dernière colonne de ton tableau ci-dessus), la période de référence pour le calcul de l'anomalie ne change rien.D'ailleurs, il y a une chose qui m'a toujours intrigué: le Hadley Center et le CRU publient des températures globale de surface différentes avec des cartes d'anomalies différentes. Connais-tu la différence entre les 2 ? Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 20 mars 2007 Auteur Partager Posté(e) 20 mars 2007 Si on compare la différence 2007-1998 (dernière colonne de ton tableau ci-dessus), la période de référence pour le calcul de l'anomalie ne change rien. D'ailleurs, il y a une chose qui m'a toujours intrigué: le Hadley Center et le CRU publient des températures globale de surface différentes avec des cartes d'anomalies différentes. Connais-tu la différence entre les 2 ? Oui pour le premier point, bien sûr. Non pour le second point, mais je vais regarder. Comme l'enjeu "2007/1998" est assez faible en soi, ce thread sera notamment l'occasion de comprendre et commenter (de tout point de vue, sans a priori) pourquoi et comment les "bases de référence" divergent. Finalement, le débat commence là. Personnellement, je ne doute pas trop de la tendance (au réchauffement), mais je voudrais bien clarifier son ampleur. Y compris à la hausse, d'ailleurs, car rien n'est à exclure et il n'y a aucune raison a priori que les ingénieurs du GHCN / Gistemp / NOAA soient des pervers polymorphes . Sur une mesure du réel (une seule est bonne, à ce niveau "macro"), certains se trompent plus que d'autres, il faut essayer de voir qui et pourquoi. (En fait il faut déjà essayer de voir où les mesures divergent, et cela au cours de l'année, il faudra un volontaire pour plonger dans les grilles). Lien à poster Partager sur d’autres sites More sharing options...
achazare Posté(e) 3 avril 2007 Partager Posté(e) 3 avril 2007 Alors le mois de mars, il est comment dans l'HN, et ou en sommes nous de la comparaison 1998/2007 ? Lien à poster Partager sur d’autres sites More sharing options...
Alain Coustou Posté(e) 3 avril 2007 Partager Posté(e) 3 avril 2007 Je n'ai pas participé très activement à InfoClimat ces temps-ci. Trop d'activités : cours (notament le nouveau cours de climatologie et développement durable dont je suis chargé en Master de "Forêt et développement durable" à l'Université de Bordeaux), préparation d'une nouvelle édition de mes deux livres, conférences, participation à une émission radio... En ce qui concerne la température moyenne del'année 2007, il me parait logique de la voir comme devant être une année de pause dans l'hémisphère nord pour des raisons liées à l'activité solaire (bas du cycle) et à l'influence de la Niña, contrairement à certaines simulation de météo-France. Donc peu de records de chaleur dans l'HN, contrairement à 2006. En ce qui concerne la banquise arctique, je pronostique par contre une poursuite de son amincissement et de sa fragilisation, après son extension hivernale tardive en fin 2006. La débacle en mer de Barents devrait être particulièrement rapide. En ce qui concerne l'évolution de la composition atmosphérique, il me parait logique de s'attendre à un début de remontée du CH4 pour une double raison: pas de nouvelle aggravation prévisible de la réduction des surfaces humides des régions tropicales (Amazonie notamment) et poursuite des émanations de CH4 des marécages et tourbières dégelés en Sibérie et ailleurs. Si le réchauffement connait une pause en 2007 et 2008, elle sera donc seulement toute provisoire. Il faut s'attendre à une accélération ultérieure, notamment à partir de 2011 ou 2012, quand El Niño et le maximum du cycle solaire donneront un coup de pouce aux causes tendancielles de réchauffement climatique. Vous avez de la chance: je fais aussi des prévisions à échéance rapprochée. Vous n'aurez pas à attendre jusqu'en 2050 ou 2100 pour les vérifier, petits veinards ! Alain Lien à poster Partager sur d’autres sites More sharing options...
miniTAX Posté(e) 3 avril 2007 Partager Posté(e) 3 avril 2007 Merci Alain de donner de tes nouvelles (et des prévisions à court terme qu'on puisse te contredire ). J'espère que tu nous préviendras pour l'émission de radio ou éventuellement à nous fournir un lien de podcast. Bonne continuation. Lien à poster Partager sur d’autres sites More sharing options...
Ricquet Posté(e) 3 avril 2007 Partager Posté(e) 3 avril 2007 Tiens, je vais profiter de ce tableau pour expliquer pourquoi je suis arrivé sur ce sujet dans un "mode sceptique". Ces valeurs sont bien des degrés ? Ou plutôt des millièmes de degrés ?? Vous savez ce que c'est un millième de degré ? Je travaille dans le domaine de la résistance des matériaux, un truc bien carré ou on peut refaire le test quand on n'est pas certain du résultat. Bien plus "confortable" que de prévenir l'avenir du climat donc, je le reconnaît. Sur les matériaux composites on pratique des tests de vieillissement accéléré, notamment en cuve chaude. Les cuves font 50 litres de volume. Je serais déjà bien content de pouvoir contrôler la température de mes cuves au dixième de degré prêt ... avec les moyens technologiques de 2007. Alors quand je vois la Nasa exprimer des différences de température globale terrestre en millième de degré ... J'ai encore un gros doute là-dessus, je ne vous le cache pas. Lien à poster Partager sur d’autres sites More sharing options...
achazare Posté(e) 4 avril 2007 Partager Posté(e) 4 avril 2007 Tiens, je vais profiter de ce tableau pour expliquer pourquoi je suis arrivé sur ce sujet dans un "mode sceptique". Ces valeurs sont bien des degrés ? Ou plutôt des millièmes de degrés ?? Vous savez ce que c'est un millième de degré ? Je travaille dans le domaine de la résistance des matériaux, un truc bien carré ou on peut refaire le test quand on n'est pas certain du résultat. Bien plus "confortable" que de prévenir l'avenir du climat donc, je le reconnaît. Sur les matériaux composites on pratique des tests de vieillissement accéléré, notamment en cuve chaude. Les cuves font 50 litres de volume. Je serais déjà bien content de pouvoir contrôler la température de mes cuves au dixième de degré prêt ... avec les moyens technologiques de 2007. Alors quand je vois la Nasa exprimer des différences de température globale terrestre en millième de degré ... J'ai encore un gros doute là-dessus, je ne vous le cache pas. une série de 10 mesures au dixième: 0.1, 0.2, 0.4, 0.3, 0.2, 0.5, 0.7, 0.4, 0.5, 0.6 donne une moyenne de 0.39, donc au centième. On peu tomber facilement sur une serie qui donne un resultat moyen au millième... donc je ne comprend pas la remarque, somme nous incapable de mesurer au dixième de degré ? Lien à poster Partager sur d’autres sites More sharing options...
gbl Posté(e) 4 avril 2007 Partager Posté(e) 4 avril 2007 En attendant, en France : Source : Actu-environnement News de l'environnement Climat - Publiée le : 05/03/2007 L'hiver 2006-2007 est le plus doux en France depuis 1950 L'hiver 2006-2007 a été le plus doux en France depuis 1950, constate Météo France qui fait état d'une température moyenne supérieure de 2,1 degrés à la normale saisonnière. L'organisme prévoit également un printemps plus chaud que la normale. Avec une température moyenne supérieure de 2,1°C à la normale saisonnière, l'hiver 2006/2007 (décembre 2006 à février 2007) est le plus chaud observé en France depuis 1950, souligne Météo France dans un communiqué. Il devance ainsi ceux de 1989-1990 et 1974-1975 pour lesquels les températures avaient dépassé de deux degrés la normale saisonnière. Cet hiver remarquablement doux fait suite à un automne 2006 exceptionnellement chaud, jamais observé au cours de la période 1950-2006 et sans doute même jamais vécu depuis plusieurs siècles, observe l'organisme. Si la température moyenne de décembre n'a été finalement que légèrement supérieure à la normale saisonnière (+0,4°C), celles des mois de janvier et février l'ont chacune dépassé de 3°C, précise Météo France. Janvier 2007 se situe au second rang des mois de janvier les plus chauds en France pour la période 1950-2007, derrière janvier 1988 (+3,1°C). Février 2007 se place quant à lui au cinquième rang derrière février 1990 (+4,5°C), février 1966 (+ 3,5°C), février 1995 (+3,2°C) et février 2002 (+3,1°C). Depuis le début de l'hiver, la France n'a connu que deux épisodes de fraîcheur relative lors de la seconde quinzaine de décembre et la dernière semaine de janvier. La douceur a été 'particulièrement remarquable' les 18 et 19 janvier où des records ont été battus en de nombreuses régions, avec des températures de fin de nuit de 13,9°C à Agen et 12,7°C à Orly. D'après l'organisme, c'est dans le nord-est du pays que les températures moyennes hivernales ont été 'les plus remarquables', dépassant la normale de 3°C. En revanche, dans le sud-ouest, elles n'ont été que 'très légèrement supérieures' aux valeurs saisonnières. Météo France annonce par ailleurs un printemps plus chaud que la normale saisonnière. Selon les prévisions pour le trimestre mars-avril-mai 2007, les températures moyennes s'annoncent supérieures aux normales saisonnières en France métropolitaine et dans tous les DOM-TOM, sauf en Nouvelle-Calédonie. Des cumuls de précipitations supérieurs aux normales saisonnières sont prévus à la Réunion et à Wallis et Futuna, alors que la saison s'annonce plus sèche que la normale en Nouvelle-Calédonie. L'expression "l'hiver le plus chaud depuis 1950 "prête à confusion. Le lecteur croit que cet hiver arrive en 2ème position après 1950, ce qui est faux. Cet hiver est le plus doux sans doute depuis plus d'un siècle. Récemment, je suis intervenu à ce sujet à la réunion du Conseil Supérieur de la Météorologie pour demander de changer la formulation. Correction a été faite ; il est écrit dans le titre de la communication de MF que c'est "l'hiver le plus doux depuis plus de 50 ans" et dans le texte :"sur la période 1950-2007". Il ne peut donc plus y avoir de confusion ! Bravo à MF pour la rapidité de la réaction ! Lien à poster Partager sur d’autres sites More sharing options...
david3 Posté(e) 4 avril 2007 Partager Posté(e) 4 avril 2007 C'est vrai que cela prêtait à confusion. Merci Gbl pour cette correction. Lien à poster Partager sur d’autres sites More sharing options...
Pierre-Ernest Posté(e) 6 avril 2007 Partager Posté(e) 6 avril 2007 une série de 10 mesures au dixième: 0.1, 0.2, 0.4, 0.3, 0.2, 0.5, 0.7, 0.4, 0.5, 0.6 donne une moyenne de 0.39, donc au centième. On peu tomber facilement sur une serie qui donne un resultat moyen au millième... donc je ne comprend pas la remarque, somme nous incapable de mesurer au dixième de degré ? Ton raisonnement est mathématiquement faux. Dans l'exemple que tu donnes, la précision de tes mesures "au dixième" est certainement plus près du degré... que du centième de degré. Ce n'est pas parce que le nombre de décimales de la moyenne est de 1 que la mesure est au dixième. Ce n'est pas parce qu'un cadran ou un écran numérique donne le centième de degré que la mesure atteint cette justesse. La mesure de température doit être précise, fidèle et... juste. Donc, la remarque de Ricquet est très fondée. Lien à poster Partager sur d’autres sites More sharing options...
Marot Posté(e) 6 avril 2007 Partager Posté(e) 6 avril 2007 une série de 10 mesures au dixième: 0.1, 0.2, 0.4, 0.3, 0.2, 0.5, 0.7, 0.4, 0.5, 0.6 donne une moyenne de 0.39, donc au centième. On peu tomber facilement sur une serie qui donne un resultat moyen au millième... donc je ne comprend pas la remarque, somme nous incapable de mesurer au dixième de degré ? Très grossièrement, l'incertitude obtenue par accumulation de données est en raison inverse de la racine carrée de leur nombre.En conséquence, pour changer d'ordre de grandeur, du dixième au centième par exemple, il faut non pas 10 mais une centaine de mesures. La théorie sous-jacente est plus compliquée que ces deux phrases. On en trouve une présentation simplifiée ici. Lien à poster Partager sur d’autres sites More sharing options...
lds Posté(e) 6 avril 2007 Partager Posté(e) 6 avril 2007 pardon mais je ne vois pas en quoi la remarque de achazare est infondée. Il me semble que la seule chose qu'il a voulu dire c'est que ce n'est pas parceque, en moyennant les données, on fait apparaitre trois chiffres après la virgule, que les mesures moyénnées sont faites au milième. Les mesures de T actuelles, dans les stations officielles doivent être, je pense, de l'ordre du dixième (je me trompe peut-être mais je pense qu'il doit être possible de mesurer une T avec une précision de l'ordre de 0.1 ou 0.2°), et non pas au degré près (à voir chez vaisala par exemple). Donc, comme achazare je ne vois pas bien où est le problème. Il faut simplement ne pas se laisser abuser par l'opérateur de moyenne. Lien à poster Partager sur d’autres sites More sharing options...
Marot Posté(e) 6 avril 2007 Partager Posté(e) 6 avril 2007 pardon mais je ne vois pas en quoi la remarque de achazare est infondée. Il me semble que la seule chose qu'il a voulu dire c'est que ce n'est pas parceque, en moyennant les données, on fait apparaitre trois chiffres après la virgule, que les mesures moyénnées sont faites au milième. Les mesures de T actuelles, dans les stations officielles doivent être, je pense, de l'ordre du dixième (je me trompe peut-être mais je pense qu'il doit être possible de mesurer une T avec une précision de l'ordre de 0.1 ou 0.2°), et non pas au degré près (à voir chez vaisala par exemple). Donc, comme achazare je ne vois pas bien où est le problème. Il faut simplement ne pas se laisser abuser par l'opérateur de moyenne. Je n'avais pas compris le remarque d'achazare de cette façon.J'ai cru qu'il voulait dire qu'à partir de 10 mesures au dixième, la moyenne était exacte au centième. Interprêtation personnelle bien sur. Lien à poster Partager sur d’autres sites More sharing options...
achazare Posté(e) 6 avril 2007 Partager Posté(e) 6 avril 2007 Je n'avais pas compris le remarque d'achazare de cette façon. J'ai cru qu'il voulait dire qu'à partir de 10 mesures au dixième, la moyenne était exacte au centième. Interprêtation personnelle bien sur. Et non, ce n'est pas ce que je voulais dire mais bien ce qu'a compris lds... Lien à poster Partager sur d’autres sites More sharing options...
achazare Posté(e) 6 avril 2007 Partager Posté(e) 6 avril 2007 Ton raisonnement est mathématiquement faux. Dans l'exemple que tu donnes, la précision de tes mesures "au dixième" est certainement plus près du degré... que du centième de degré. Ce n'est pas parce que le nombre de décimales de la moyenne est de 1 que la mesure est au dixième. Ce n'est pas parce qu'un cadran ou un écran numérique donne le centième de degré que la mesure atteint cette justesse. La mesure de température doit être précise, fidèle et... juste. Donc, la remarque de Ricquet est très fondée. Tu n'as pas compris ce que je veux dire.... je ne parle pas du degré d'incertitude, ni de la résolution, ni de la précision des mesures. Je précise juste qu'une série de valeurs exprimées à l'unité peuvent donner une moyenne au millième. Donc donner une moyenne au millième, au delà du fait que cela ne soit pas pertinent, n'impose pas que les valeurs qui l'ont formé soient exprimées au millièmes.... Maintenant quelles sont les performances des capteurs de temperature utilisés ? Lien à poster Partager sur d’autres sites More sharing options...
Marot Posté(e) 6 avril 2007 Partager Posté(e) 6 avril 2007 Et non, ce n'est pas ce que je voulais dire mais bien ce qu'a compris lds... Vu et bien noté. Lien à poster Partager sur d’autres sites More sharing options...
Ricquet Posté(e) 6 avril 2007 Partager Posté(e) 6 avril 2007 une série de 10 mesures au dixième: 0.1, 0.2, 0.4, 0.3, 0.2, 0.5, 0.7, 0.4, 0.5, 0.6 donne une moyenne de 0.39, donc au centième. On peu tomber facilement sur une serie qui donne un resultat moyen au millième... donc je ne comprend pas la remarque, somme nous incapable de mesurer au dixième de degré ? Ca alors, les passionnés de météo n'ont jamais fait de statistique ?? A partir de la série que tu donnes, tu peux donner une valeur moyenne dans l'ordre de grandeur des individuelles. Donc, dans ce cas : 0.4 Les décimales suivantes n'ont aucune valeur. Mais ce n'est pas suffisant. Une moyenne seule ne veut pas dire grand-chose. Dans le cas de ta série, les limites de confiance à 95% sont de +/- 0.1 Donc, pour caractériser ta série, tu peux dire que sa valeur moyenne est de 0.4 +/- 0.1 ET C'EST TOUT ! Et je vais prolonger ton exemple : si je garde ta série et que je la compare à une autre (0.1, 0.3, 0.4, 0.2, 0.5, 0.6, 0.8 ,0.9, 0.7, 0.7) Tu vas calculer 0.39 pour la première et 0.52 pour la seconde. 0.13 de différence ... wouaw ... Oui mais, la seule manière acceptable statistiquement de caractériser ces deux séries c'est : 0.4 +/- 0.1 0.5 +/- 0.2 Et avec ça, les deux populations se recouvrent et tu ne peux pas dire qu'elles sont différentes. Et ce n'est pas moi qui l'affirme, ce sont les statistiques ! Entre parenthèse, c'est ce que fait le GIEC : augmentation de température de 0.6°C +/- 0.2 Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 8 avril 2007 Partager Posté(e) 8 avril 2007 Entre parenthèse, c'est ce que fait le GIEC : augmentation de température de 0.6°C +/- 0.2 voci un extrait du dernier rapport de synthèse: Eleven of the last twelve years (1995 -2006) rank among the 12 warmest years in the instrumental record of global surface temperature9 (since 1850). The updated 100-year linear trend (1906–2005) of 0.74 [0.56 to 0.92]°C is therefore larger than the corresponding trend for 1901-2000 given in the TAR of 0.6 [0.4 to0.8]°C. The linear warming trend over the last 50 years (0.13 [0.10 to 0.16]°C per decade) is nearly twice that for the last 100 years. The total temperature increase from 1850 – 1899 to 2001 – 2005 is 0.76 [0.57 to 0.95]°C. Urban heat island effects are real but local, and have a negligible influence (less than 0.006°C per decade over land and zero over the oceans) on these values. {3.2} il semble que le "retravail" des mesures amène à une précison supplémentaire puisque cette fois on arrive au centième. A moins que les gens du GIEC ne connaissent pas les statistiques. Lien à poster Partager sur d’autres sites More sharing options...
williams Posté(e) 8 avril 2007 Partager Posté(e) 8 avril 2007 voci un extrait du dernier rapport de synthèse: Eleven of the last twelve years (1995 -2006) rank among the 12 warmest years in the instrumental record of global surface temperature9 (since 1850). The updated 100-year linear trend (1906–2005) of 0.74 [0.56 to 0.92]°C is therefore larger than the corresponding trend for 1901-2000 given in the TAR of 0.6 [0.4 to0.8]°C. The linear warming trend over the last 50 years (0.13 [0.10 to 0.16]°C per decade) is nearly twice that for the last 100 years. The total temperature increase from 1850 – 1899 to 2001 – 2005 is 0.76 [0.57 to 0.95]°C. Urban heat island effects are real but local, and have a negligible influence (less than 0.006°C per decade over land and zero over the oceans) on these values. {3.2} il semble que le "retravail" des mesures amène à une précison supplémentaire puisque cette fois on arrive au centième. A moins que les gens du GIEC ne connaissent pas les statistiques. Ceci devrait etre impossible suivant ce que vous avez dit parfois quand on donnait des temperatures au centième avec des données assez vielles. Surtout que les valeurs prises sont depuis 1850. Donc ils exagerent ! Williams Lien à poster Partager sur d’autres sites More sharing options...
Ricquet Posté(e) 9 avril 2007 Partager Posté(e) 9 avril 2007 voci un extrait du dernier rapport de synthèse: Eleven of the last twelve years (1995 -2006) rank among the 12 warmest years in the instrumental record of global surface temperature9 (since 1850). The updated 100-year linear trend (1906–2005) of 0.74 [0.56 to 0.92]°C is therefore larger than the corresponding trend for 1901-2000 given in the TAR of 0.6 [0.4 to0.8]°C. The linear warming trend over the last 50 years (0.13 [0.10 to 0.16]°C per decade) is nearly twice that for the last 100 years. The total temperature increase from 1850 – 1899 to 2001 – 2005 is 0.76 [0.57 to 0.95]°C. Urban heat island effects are real but local, and have a negligible influence (less than 0.006°C per decade over land and zero over the oceans) on these values. {3.2} il semble que le "retravail" des mesures amène à une précison supplémentaire puisque cette fois on arrive au centième. A moins que les gens du GIEC ne connaissent pas les statistiques. Bin franchement, je finis par me le demander ! Dans cet extrait, il y a un résultat auquel je pouvais encore faire confiance : 0.6°C [0.4 to 0.8]. C'est déjà très "fin" comme mesure, mais soit .. Mais quand je vois l'influence des îlots urbains évaluée à 6 millièmes de degrés par décade ... /emoticons/tongue@2x.png 2x" width="20" height="20"> Essaye de mesurer la température de l'eau de ton bain à 6 millième de degré près ... Dernière remarque : je suis bien placé pour connaître la tentation de "retravailler" les mesures. Et bien placé pour savoir qu'on peut finir par leurs faire dire ce qu'on veut. Personnellement, au lieu de 0.76 [0.57 to 0.95]°C ils auraient mis 0.8 [0.6 to 1.0]°C, j'aurais trouvé ça plus crédible .... Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 10 avril 2007 Partager Posté(e) 10 avril 2007 Essaye de mesurer la température de l'eau de ton bain à 6 millième de degré près ... 0.006°C/décade n'est évidemment pas mesurable, c'est le résultat d'un calcul. Si la température d'un objet augmente de 20°C en 24 h on peut calculer qu'elle s'élève de 0.00023°C/s, bien qu'on ne sache pas le mesurer. Personnellement, au lieu de 0.76 [0.57 to 0.95]°C ils auraient mis 0.8 [0.6 to 1.0]°C, j'aurais trouvé ça plus crédible .... Tu raisonnes avec ta conception des choses issue, je n'en doute pas, de ton expérience professionnelle et d'un certain vécu des choses. Cependant, pour critiquer l'expression de résultats il faut connaître ce qui la sous-tend. Ta critique est "écoutable"vis à vis de ton expérience, mais pas, à mon sens, vis à vis du contenu mathématique et statistique qui constitue la base des résultats en question. A moins que tu le connaisses? Mais personnellement celà ne me dérange guère d'exprimer les résultats comme tu l'indiques. Lien à poster Partager sur d’autres sites More sharing options...
snowman43 Posté(e) 10 avril 2007 Le Puy en Velay Partager Posté(e) 10 avril 2007 0.76 [0.57 to 0.95]°C 2 chiffres après la virgule voir plus, ils sont vraiment fou. Les appareils de mesure n'ont qu'une définition de 0.1°C, après impossible de savoir si c'est 0.12 / 0.13 etc.. Je me demande ce qui les motive à faire ça. Si la température d'un objet augmente de 20°C en 24 h on peut calculer qu'elle s'élève de 0.00023°C/s, bien qu'on ne sache pas le mesurer. Oui, mais c'est faux. La température ne change pas de manière constante, ton objet peut augmenter à 17°C puis baisser à 15°C, donc le chiffre 0.00023°C est faux puisqu'il laisse présager une évolution constante. De toute manière, il y a un réel problème dans le système actuel de calcul de la température moyenne, on utilise (Tn+Tx)/2, on prend donc deux extrèmes de la journée qui ne réflètent souvent pas du tout l'évolution de la température au fil de la journée. En absolu, ce système à l'heure actuelle est scandaleux, il suffit qu'un des deux extrèmes soit perturbé pour fausser toute la moyenne, si on prenait la Tm de la journée en prenant la température toutes les 5 minutes on aurait pas ce problème. Chez moi je relève tous les jours 0.5° à 1.5°C de différence entre la Tm façon OMM et la vraie Tm de la journée (en prenant des mesures toutes les 5 minutes et en faisant la moyenne). En absolu le système OMM est très mauvais, mais en comparaison (avec lui même) il est bon. Ainsi il ne faut pas dire : "La température moyenne a augmenté de 0.5°C à Paris" mais "D'après notre système vieillot de moyenne, la température moyenne de Paris a augmenté de 0.5°C". Alors quand je vois qu'on essaye de définir l'évolution de la végétation et de la faune avec ces mesures, c'est tout bonnement scandaleux scientifiquement parlant. Le chêne s'en fout qu'il fasse 40°C pendant 10min, lui ca le gênerait s'il ferait plus de 30°C pendant 15h (exemple stupide, montrant toute la stupidité de l'utilisation qui est faîte de ces mesures), pareil pour les hommes pendant la canicule d'ailleurs. Lien à poster Partager sur d’autres sites More sharing options...
Messages recommandés