charles.muller Posté(e) 13 avril 2006 Partager Posté(e) 13 avril 2006 oui ce ne sont que des estimations basées sur ses propres courbes. Si l'on se base les courbes RSS et sur la même estimation on arrive à 2°C pour les 100 années à venir. Toutefois, les données satellitaires, pour intéressantes qu'elles soient, doivent être comparées avec l'évolution donnée par les radiosondages "The best source of upper air in-situ measurements for studying global temperature trends above the surface is the Radiosonde Atmospheric Temperature Products for Assessing Climate (RATPAC) dataset. Data collected and averaged between the 850-300 mb levels (approximately 5000 to 30,000 feet above the surface) indicate that 1958-2005 global temperature trends in the middle troposphere are similar to trends in surface temperature; 0.12°C/decade for surface and 0.15°C/decade for mid-troposphere. 2005 global mid-troposphere temperatures were 0.71°C above the 1961-1990 mean, 2nd warmest. " Lorsqu'on parle de tendance actuelle, il me semble non logique d'y intégrer comme cela est fait dans la courbe donnée plus haut, la période 58-76. On sait bien que le réchauffement accuse une accélération de la tendance à partir du milieu des années 75. En conséquence, si l'on ose une courbe de tendance entre 1975 et 2005 on obtient plutôt une valeur de 0.25 à 0.28°C par décade. Avant d'arriver sur les ballons sondes, un oeil sur ce que la NOAA dit des satellites (dans la même page du bilan global 2005). La carte ci-dessous montre que les tendances de la surface (0,18°C) restent supérieures à celles de la troposphère (0,14°C pour RSS, 0,12°C pour UAH). Rappelons que l'inverse est attendu des modèles actuels de circulation de la chaleur entre la surface et l'atmosphère, surtout aux tropiques. Sinon, pour les ballons sondes, il y a d'autres séries que RATPAC. Mais prenons celle-là. Comme les Américains sont des gens sympas /emoticons/tongue@2x.png 2x" width="20" height="20"> , leurs données sont souvent ouvertes et gratuites. C'est le cas ici. J'ai donc chargé les données Ratpac-A/ (conseillées pour le climat global / Ratpac-B/ ) et j'ai fait rapidos le graphe suivant pour 1979-2005. Tu obtiens très précisément une évolution de 0,3874°C sur la période, soit 27 ans. Ce qui fait du 0,143°C / décennie pour les ballons sondes. Cela colle avec les satellites (plus le RSS que l'UAH, mais l'inverse est vrai aux tropiques). Ton estimation à la louche était trop... pessimiste. Mais tu peux refaire les calculs sur la couche 850-300, pour plus de prudence. Les données sont là : ftp://ftp.ncdc.noaa.gov/pub/data/ratpac/r...nual-levels.txt Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 13 avril 2006 Partager Posté(e) 13 avril 2006 Je dirais tout simplement à ceux qui se poseraient des questions sur la réalité du réchauffement, sur ses causes et sur le futur que les forçages radiatifs sont pratiquement tous connus avec une bonne précision au cours de ces 20 dernières années. Je citerais le forçage des GES, l'effet direct des aérosols, le solaire, les aérosols stratosphériques. Un des rares forçages non connus est celui de l'effet indirect des aérosols sulfatés sur la nébulosité. Ce forçage serait négatif mais on ne connait pas sa valeur exacte. Néanmoins l'évolution des températures au cours de ces 20 dernières années est belle et bien là. Les radiosondages étant indépendants de l'effet urbain. Les 0.5°C d'augmentation de température montrent que l'effet indirect des aérosols n'est pas suffisamment important pour inhiber l'augmentation de l'ES anthropique. Concernant la sensibilité climatique au forçage elle est voisine de 0.63°C/W.m-2. C'est ce que montrent les mesures satellitaires hors atmosphère. Le forçage global aurait augmenté de 1W/m2 environ pdt cette période. C'est assez cohérent. - Oui, on commence à avoir des données sur 20 ans. Ce qui est un peu léger tu en conviendras, vu la somme des variables à considérer et des relations entre variables à paramétrer. En 20 ans, je doute fort que la profondeur soit suffisante. - Le plus intéressant des 20 dernières années, de l'avis même du GIEC, a surtout été le Pinatubo (1991) et l'ENSO (1997-98) pour essayer de rétrovalider certains points très faibles des modèles (aérosols, océan-atmosphère). - L'effet total des aérosols (direct + indirect) reste très flou. Par exemple -1,6W/m2 (+/-1,3) pour Boucher 2001 contre -0,6W/m2 (+/- 0,6) pour Hansen 2001. Voir les travaux de Andronova et Schesinger sur les pdfs des différentes estimations en cours. - Aux dernières nouvelles, le GIEC (cf IPPC Workshop 2004 on climate sensitivity) reconnaît que la sensibilité climatique ∆t [2xCO2] n'est pas une constante en projection, mais qu'elle évolue probablement selon les conditions locales ou selon les évolutions des rétroactions (cf. Sarah Raper 28, summary 31 pour la synthèse). Ce qui est un autre moyen de dire que les modèles fonctionnent d'autant mieux qu'ils peuvent mesurer les données régionales et l'ampleur exacte des rétroactions - c'est-à-dire qu'ils modélisent de mieux en mieux... le passé ! - Dans le même workshop, les chercheurs ne tranchent de toute façon pas sur la fourchette [2-4°C] pour la sensibilité climatique en doublement du CO2 et signalent même des estimations bien plus basses (0,75°C pour Shaviv et Reizer 2003 par exemple). Tu peux donc difficilement la chiffrer au centième de degré près. - Si tu trouves tout cela cohérent, chapeau bas. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 13 avril 2006 Partager Posté(e) 13 avril 2006 A lire un rapport tout récent : http://pdf.20minutes.fr/web/effet-de-serre.pdf Je constate en lisant le rapport que l'avis de MM Hulot et Jancovici est fort sollicité. Ce qui me laisse quand même un petit espoir pour le rapport 2015, non ? Je craignais que les opinions publiques en matière de climatologie soient réservées aux diplômés de la discipline. Mais non, la représentation nationale est très, très ouverte. Lien à poster Partager sur d’autres sites More sharing options...
ChristianP Posté(e) 13 avril 2006 Besse sur Issole (83 - Alt 275 m à 26 km de la mer) Partager Posté(e) 13 avril 2006 Je ne suis pas le dernier à critiquer des stations urbaines utilisées pour le suivi de l'évolution du climat surtout en données brutes, mais encore faut-il utiliser des critères corrects pour les classer comme urbaines. Je n'ai pas vu d'éléments significatifs publiés dans ce sujet pour montrer celles qui le sont. Il existe pourtant des critères OMM de distances à respecter selon la taille des villes pour les cataloguer objectivement comme urbaines. Pour l'OMM une station catégorie "urbaine" ne doit pas fournir de données dans les réseaux internationaux de suivi du climat, elles sont classées à leur place dans la catégorie "réseau business" Les noms des stations synoptiques (les vraies pour l'OMM, pas les pseudos synoptiques sur le papier pour les clients, comme Montsouris, Toulon ou autres de ce style) n'ont pas souvent un rapport avec les populations considérées, beaucoup s'en plaignent sur ces forums. Ces noms pour l'OMM sont prévus pour permettre aux utilisateurs des autres pays de localiser globalement les stations. On utilise donc le nom de la ville la plus proche même si la station est en pleine campagne à des dizaines de km de l'urbanisation (voir plus dans certains cas particulièrement isolé). Exemples. La station synoptique de Grenoble est à St Geoirs à une quarantaine de km de Grenoble (il faut donc analyser les paramètres de distances, d'occupation du sol et de populations par rapport à la concentration la plus proche). Ici Le Luc n'a rien à voir avec la station (un village est situé entre le Luc et la base dite du Cannet des Maures dans la cambrousse, loin de la population du Cannet). Quel est l'intéret de relever la population d'un secteur encore plus éloigné qui ne concerne pas la station hyper dégagée ? En plus de la situation urbaine, il faut aussi regarder de près chaque site (métadonnées), analyser la direction des vents sur chaque station (certaines stations dans le monde ne sont pas placées au hasard par rapport aux directions dominantes pour justement éviter d'être contaminées). Appliquer des corrections pour urbanisation à la louche sans rien connaître de leur installation est un gag. C'est comme si on appliquait les mêmes corrections à Hyères aéro et à Hyères plage (l'urbaine est celle de Hyères Plage), des stations qui n'ont absolument rien de commun pour une distance de 2 km à la même altitude (une station appelée "Hyères Pépinière" est installée sur l'île de Porquerolles, celà montre une fois de plus l'efficacité des noms pour juger de l'urbanisation d'une station) Les spécialistes utilisent des équations bien plus fines et efficaces pour déterminer le poids de l'ICU selon l'emplacement et l'environnement réel de la station (et non indirectement avec des lumières vues de l'espace qui dépendent des richesses des communes et pays et non des densités de bâti et de surfaces de matériaux réellement présents et mesuré précisément autour des stations dans d'autres études). Jones n'avait pas vraiment l'air au top d'après la thèse de Mestre qui a analysé les points de grille pour la France (ne pas utiliser de tests statistiques, homogénéiser à l'oeil même à l'époque, c'est assez énorme comme lacune à ce niveau scientifique !) : "Lorsqu'ils sont comparés à des longues séries instrumentales homogénéisées, les points de grille de la climatologie de Jones présentent entre deux et quatre ruptures nettes. Certains sauts dépassent le demi-degré. L'année 1994 est également considérée comme aberrante. Au regard de ces résultats, quel crédit peut-on réellement accorder aux valeurs estimées de la tendance ? Il faut noter que, même si les séries employées pour tester cette climatologie étaient mal homogénéisées, cela ne suffirait pas à expliquer les ruptures systématiques observées sur les points de grille de la climatologie de Jones. On rejoint ici les conclusions de Möberg & Alexandersson (1997), qui trouvent également de multiples sauts dans les points de grille de Jones sur la Scandinavie. Ayant accès aux données originales utilisées dans le processus d'interpolation, ils montrent que les ruptures détectées dans les points de grille de la climatologie sont dues aux inhomogénéités des séries initiales, ce qui paraît logique. Ils insistent sur le fait que la méconnaissance des données originales est aussi une des causes de ces problèmes. L'équipe de Jones a parfois utilisé des séries de mauvaise qualité, une erreur qui aurait probablement été évitée par les services météorologiques nationaux dont proviennent ces données. Par ailleurs, jusqu’à une période récente, l’emploi de tests statistiques de détection des ruptures était inconnu dans ce laboratoire, la détection s’effectuant visuellement..." Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 13 avril 2006 Partager Posté(e) 13 avril 2006 Jones n'avait pas vraiment l'air au top d'après la thèse de Mestre qui a analysé les points de grille pour la France (ne pas utiliser de tests statistiques, homogénéiser à l'oeil même à l'époque, c'est assez énorme comme lacune à ce niveau scientifique !) : "Lorsqu'ils sont comparés à des longues séries instrumentales homogénéisées, les points de grille de la climatologie de Jones présentent entre deux et quatre ruptures nettes. Certains sauts dépassent le demi-degré. L'année 1994 est également considérée comme aberrante. Au regard de ces résultats, quel crédit peut-on réellement accorder aux valeurs estimées de la tendance ? Il faut noter que, même si les séries employées pour tester cette climatologie étaient mal homogénéisées, cela ne suffirait pas à expliquer les ruptures systématiques observées sur les points de grille de la climatologie de Jones. On rejoint ici les conclusions de Möberg & Alexandersson (1997), qui trouvent également de multiples sauts dans les points de grille de Jones sur la Scandinavie. Ayant accès aux données originales utilisées dans le processus d'interpolation, ils montrent que les ruptures détectées dans les points de grille de la climatologie sont dues aux inhomogénéités des séries initiales, ce qui paraît logique. Ils insistent sur le fait que la méconnaissance des données originales est aussi une des causes de ces problèmes. L'équipe de Jones a parfois utilisé des séries de mauvaise qualité, une erreur qui aurait probablement été évitée par les services météorologiques nationaux dont proviennent ces données. Par ailleurs, jusqu’à une période récente, l’emploi de tests statistiques de détection des ruptures était inconnu dans ce laboratoire, la détection s’effectuant visuellement..." La critique de Mestre porte sur Jones 1994. Jones 2003 détaille les nombreuses révisions des grilles CRU en pp 207-214 de son papier. A noter qu'il y avait déjà eu une première série de révisions postérieure la critique de Mestre (Jones 2001). Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 13 avril 2006 Partager Posté(e) 13 avril 2006 En plus de la situation urbaine, il faut aussi regarder de près chaque site (métadonnées), analyser la direction des vents sur chaque station (certaines stations dans le monde ne sont pas placées au hasard par rapport aux directions dominantes pour justement éviter d'être contaminées). Appliquer des corrections pour urbanisation à la louche sans rien connaître de leur installation est un gag. [...] Les spécialistes utilisent des équations bien plus fines et efficaces pour déterminer le poids de l'ICU selon l'emplacement et l'environnement réel de la station (et non indirectement avec des lumières vues de l'espace qui dépendent des richesses des communes et pays et non des densités de bâti et de surfaces de matériaux réellement présents et mesuré précisément autour des stations dans d'autres études). Merci de toutes ces données, toujours aussi riches et précises. Le seul pb, c'est qu'à vous lire on ne peut guère avoir idée de l'effet urbain à l'échelle globale et sur le XXe siècle, vu tout ce qu'il faut prendre en compte sur chaque station particulière. Or, cette information est tout de même précieuse puisque le moindre forçage non atmosphérique change les estimations sur lesquelles tant de gens débattent et décident. La technique de Hansen et al. (luminosité / satellite) est sans doute très imparfaite. Mais sur plusieurs milliers de stations moyennées, elle donne quand même une idée de la tendance, non ? C'est vrai qu'il peut y avoir un bâtiment dans un coin sombre. Mais on est au moins sûr que la probabilité est plus forte d'un bâtiment dans les coins éclairés. A la limite, un affinement des données ne pourrait qu'accentuer la différence (en révisant à la baisse les stations que l'on croyait isolées - Hansen n'exclut d'ailleurs pas "quelques centièmes de degré" d'influence locale en ce sens, sur les "unlit stations"). Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 13 avril 2006 Partager Posté(e) 13 avril 2006 - Oui, on commence à avoir des données sur 20 ans. Ce qui est un peu léger tu en conviendras, vu la somme des variables à considérer et des relations entre variables à paramétrer. En 20 ans, je doute fort que la profondeur soit suffisante. - Le plus intéressant des 20 dernières années, de l'avis même du GIEC, a surtout été le Pinatubo (1991) et l'ENSO (1997-98) pour essayer de rétrovalider certains points très faibles des modèles (aérosols, océan-atmosphère). - L'effet total des aérosols (direct + indirect) reste très flou. Par exemple -1,6W/m2 (+/-1,3) pour Boucher 2001 contre -0,6W/m2 (+/- 0,6) pour Hansen 2001. Voir les travaux de Andronova et Schesinger sur les pdfs des différentes estimations en cours. - Aux dernières nouvelles, le GIEC (cf IPPC Workshop 2004 on climate sensitivity) reconnaît que la sensibilité climatique ∆t [2xCO2] n'est pas une constante en projection, mais qu'elle évolue probablement selon les conditions locales ou selon les évolutions des rétroactions (cf. Sarah Raper 28, summary 31 pour la synthèse). Ce qui est un autre moyen de dire que les modèles fonctionnent d'autant mieux qu'ils peuvent mesurer les données régionales et l'ampleur exacte des rétroactions - c'est-à-dire qu'ils modélisent de mieux en mieux... le passé ! - Dans le même workshop, les chercheurs ne tranchent de toute façon pas sur la fourchette [2-4°C] pour la sensibilité climatique en doublement du CO2 et signalent même des estimations bien plus basses (0,75°C pour Shaviv et Reizer 2003 par exemple). Tu peux donc difficilement la chiffrer au centième de degré près. - Si tu trouves tout cela cohérent, chapeau bas. Le forçage des GES est obtenu par un calcul ligne par ligne à partir des coefficients d'absorption des différents gaz. En conséquence le calcul du forçage par GES est par nature précis. Le calcul du forçage solaire l'est également (depuis 20 ans) il l'est bien sûr un peu moins lorsqu'on parle du siècle. Les effets directs des aérosols sont relativement bien mesurables également. Il reste les effets indirects qui ne peuvent être que modélisés et qui font l'objet de pas mal d'études. L'augmentation de température lors de ces deux dernières décennies est de 0.226°C/décade à 400hPa et 0.197°C/décade à 500hPa en global , de 1984 à 2004. les mêmes ballons sonde donnent 0.182 à la surface et 0.207 °C/décade entre la surface et 850 hPa. Génial ce fichier, vraiment! Cela confirme bien les mesures des stations même si cela remet quelque peu en cause le ventre de la mi-tropo, mais je ferai quelques recherches à ce sujet. Je prendrais donc les 0.182°C/décade. Cette augmentation de température est ce qui s'est passé réellement, en dehors des modèles, entre 1984 et 2004. Il me manque les dernières évaluations des forçages, mais , à partir des reconstructions de Crowley TJ, et en étendant 84-98 à 84 2004 j'obtiens un delta forçage en tendance de +0.83W/m2. En conséquence la sensibilité climatique est de 0.364/0.83 = 0.437°C/W.m-2. C'est différent des 0.63°C/W.m-2 cités plus haut. A mon sens cette différence provient de l'inertie thermique. Les 0.437°C/W.m-2 incluent les rétroactions, les effets indirects des aérosols, l'inertie thermique. Ils correspondent d'ailleurs , c'est un hasard, au delta des GES sur la même période. Rappelons que dans le scénario A2 à 800 ppm de CO2 le delta forçage pour le CO2 seul est de 4W/m2. J'avoue ne pas savoir ce qui a été pris exactement pour les autres GES, mais si on se base sur 4W/m2 supplémentaires pour ces derniers (CH4, O3, NOx,...) cela nous ferait une augmentation finale de 3.5°C à laquelle il faudrait ajouter une part de l'inertie thermique se résorbant (ce qui est déjà dans le tuyau). Désolé, mais je trouve toujours tous ces chiffres très cohérents et de plus en plus d'ailleurs. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 14 avril 2006 Partager Posté(e) 14 avril 2006 Le forçage des GES est obtenu par un calcul ligne par ligne à partir des coefficients d'absorption des différents gaz. [...] Désolé, mais je trouve toujours tous ces chiffres très cohérents et de plus en plus d'ailleurs. Désolé, je ne me lancerai pas ce soir dans de vastes calculs (mais c'est tentant, avec ces merveilleuses pluies de chiffres des bases de données). Je m'abstiens pour une raison très simple : les modèles font des centaines de milliers de calculs de ce genre, et font intervenir ensuite la densité de probabilité des fonctions qu'ils ont paramétrées (pdfs) pour dégager des résultats plus probables que d'autres. C'est la procédure classique. A ce jeu, je n'ai pas trop envie de lutter contre Deep Blue. Libre à toi de le faire. Sache quand même que les données des différentes couches de la troposphère ont été examinées en détail depuis 15 ans, vu le pb qu'elles représentent. D'ailleurs, le GIEC (2001) l'évoque longuement dans ce célèbre chapitre curieusement conçu dès le départ sur les incertitudes, là où le GIEC nous avait habitué à un ton plus affirmatif. En guise de synthèse et de conclusion (provisoire), je retiens simplement les points suivants, émanant de données apparement non contestées (dans leur intervalle de confiance / marge d'erreur) : - le modèle central aujourd'hui dominant du réchauffement par gaz à effet de serre réparti (well-mixed) suppose que les températures de la troposphère augmentent au moins aussi rapidement que celles de la surface (tout le monde le reconnaît) et plus rapidement aux tropiques (la plupart des modèles) ; - les données du réel ne correspondent pas pour le moment aux modèles, qu'il s'agisse des ballons-sondes ou des satellites montrant un ∆t inférieur pour la troposphère globale, et plus inférieur encore aux tropiques ; - partant de là, quatre possibilités : > nous sommes dans les marges d'erreur de chaque mesure (pourquoi pas ? à vérifier, cela fait simplement des marges très importantes à intégrer comme équiprobables dans les calculs des modèles) ; > les ballons sondes et les satellites se trompent (mais quid du progrès des mesures récentes ? et pourquoi sont-elless à peu près intercalibrées ?) ; > les modèles se trompent complètement (no comment :-) ; > les températures de surface sont surévaluées (est-ce le fameux effet urbain ?). En l'état des connaissances, je penche pour la quatrième et dernière hypothèse qui est la plus simple, vu que l'effet urbain est par ailleurs pas mal documenté, quoique non pris en compte "officiellement". Et je n'exclus pas la troisième. Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 14 avril 2006 Partager Posté(e) 14 avril 2006 > les ballons sondes et les satellites se trompent (mais quid du progrès des mesures récentes ? et pourquoi sont-elless à peu près intercalibrées ?) ; > les modèles se trompent complètement (no comment :-) ; > les températures de surface sont surévaluées (est-ce le fameux effet urbain ?). je ne comprends pas. Les données des ballons sonde ne se trompent pas puisqu'elles donnent : en surface (mesuré aussi par ballon-sonde je suppose, au départ du ballon) :0.182°C/décade sur 1984-2004 à 850 hPa toujours sur la même période: 0.207°C/décade. sur la période de 27 ans que tu citais plus haut nous sommes à 0.161°C pour les ballons sonde entre 500 et 400 hPa, alors que les satellites donnent 0.14°C pour la mi-tropo pour RSS. Tous ces chiffres ne correspondent pas trop mal avec les données des stations au sol. Ceci élimine donc , selon moi, la contrainte effet urbain. Les différentes mesures se trompent peut-être, dans le sens qu'elles ne donnent pas exactement la réalité. Mais qui peut vraiment s'en étonner? Je n'ai pas assorti les quelques chiffres donnés plus haut des barres d'erreur nécessaires, mais il ne faut évidemment pas les oublier. Pour ma part je les considère comme acceptables, bien qu'évidemment perfectibles. La question des modèles est un autre débat. Et à moins d'être capable d'en analyser le fonctionnement intime, ce domaine ne peut rester que l'affaire de spécialistes très pointus. Lien à poster Partager sur d’autres sites More sharing options...
florent76 Posté(e) 14 avril 2006 Partager Posté(e) 14 avril 2006 Le calcul du forçage solaire l'est également (depuis 20 ans) il l'est bien sûr un peu moins lorsqu'on parle du siècle. Le forçage solaire connu depuis 20 ans ??? Je ne comprends pas. Pourquoi discute t-on alors en ce moment même pour savoir si ce forçage ne serait pas en réalité actuellement au moins trois fois plus importants qu'inscrit dans les modèles ??? Florent. Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 14 avril 2006 Partager Posté(e) 14 avril 2006 Le forçage solaire connu depuis 20 ans ??? Je ne comprends pas. Pourquoi discute t-on alors en ce moment même pour savoir si ce forçage ne serait pas en réalité actuellement au moins trois fois plus importants qu'inscrit dans les modèles ??? Florent. je ne sais pas bien de quelle discussion tu parles. S'il s'agit de l'incertitude sur la variation du forçage solaire entre 1750 et maintenant, la variation s'explique principalement par le manque de connaissance évident de l'irradiance solaire en 1750. Par contre sur les 20 à 30 dernières années , nous disposons des mesures satellitaires. Ces dernières, comme je le disais tantôt, présentent des décalages suivant les satellites. Mais leurs variations, satellite par satellite, ne présentent pas d'écart important sur les 20 dernières années. extrait de scientific basis: 6.11.1 Total Solar Irradiance 6.11.1.1 The observational record Figure 6.4: Measurements of total solar irradiance made between 1979 and 1999 by satellite, rocket and balloon instruments (http://www.pmodwrc.ch/solar_const/solar_const.html). The fundamental source of all energy in the climate system is the Sun so that variation in solar output provides a means for radiative forcing of climate change. It is only since the late 1970s, however, and the advent of space-borne measurements of total solar irradiance (TSI), that it has been clear that the solar “constant” does, in fact, vary. These satellite instruments suggest a variation in annual mean TSI of the order 0.08% (or about 1.1 Wm-2) between minimum and maximum of the 11-year solar cycle. While the instruments are capable of such precision their absolute calibration is much poorer such that, for example, TSI values for solar minimum 1986 to 1987 from the ERB radiometer on Nimbus 7 and the ERBE experiment on NOAA-9 disagree by about 7 Wm-2 (Lean and Rind, 1998). More recent data from ACRIM on UARS, EURECA and VIRGO on SOHO cluster around the ERBE value (see Figure 6.4) so absolute uncertainty may be estimated at around 4 Wm-2. Although individual instrument records last for a number of years, each sensor suffers degradation on orbit so that construction of a composite series of TSI from overlapping records becomes a complex task. Figure 6.4 shows TSI measurements made from satellites, rockets, and balloons since 1979. Willson (1997) used ERB data to provide cross-calibration between the non-overlapping records of ACRIM-I and ACRIM-II and deduced that TSI was 0.5 Wm-2 higher during the solar minimum of 1996 than during solar minimum in 1986. If this reflects an underlying trend in solar irradiance it would represent a radiative forcing2 of 0.09 Wm-2 over that decade compared with about 0.4 Wm-2 due to well-mixed greenhouse gases. The factors used to correct ACRIM-I and ACRIM-II by Willson (1997) agree with those derived independently by Crommelynk et al. (1995) who derived a Space Absolute Radiometric Reference of TSI reportedly accurate to ± 0.15%. Fröhlich and Lean (1998), however, derived a composite TSI series which shows almost identical values in 1986 and 1996, in good agreement with a model of the TSI variability based on independent observations of sunspots and bright areas (faculae). The difference between these two assessments depends critically on the corrections necessary to compensate for problems of unexplained drift and uncalibrated degradation in both the Nimbus 7/ERB and ERBS time series. Thus, longer-term and more accurate measurements are required before trends in TSI can be monitored to sufficient accuracy for application to studies of the radiative forcing of climate. on voit bien sur ce graphe maintenant bien connu, et maintes fois montré sur ce forum, que, si les courbes manquent de standardisation ou de calibrage afin de déterminer la valeur absolue de l'irradiance, leurs variations intrinsèques, hormi les cycles de 11 ans, restent très faibles. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 14 avril 2006 Partager Posté(e) 14 avril 2006 je ne comprends pas. Les données des ballons sonde ne se trompent pas puisqu'elles donnent : [...] La question des modèles est un autre débat. Et à moins d'être capable d'en analyser le fonctionnement intime, ce domaine ne peut rester que l'affaire de spécialistes très pointus. Je t'ai répondu en créant une discussion spécifique sur le sujet (voir dans ce texte mes remarques en nota concernant nos derniers échanges ici). Lien à poster Partager sur d’autres sites More sharing options...
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant