miniTAX Posté(e) 5 mars 2007 Partager Posté(e) 5 mars 2007 Les modèles AOGCM, à ma connaissance, simulent la rétroaction vapeur d'eau dont fait partie la rétroaction nébulosité. En conséquence leur application à la reconstruction du climat fait intervenir la nébulosité. Les modèles ne savent PAS si avec un réchauffement, il y aura plus ou moins de nuage ! La nébulosité n'est donc certainement pas simulée mais seulement paramétrée. Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 5 mars 2007 Partager Posté(e) 5 mars 2007 P.S c'est qui "Thom", un marabout qui a "un certain succès" à prévoir le beau temps et à guérir les peines de coeur ? Faut réviser ses classiques scientifiques miniDUR. Je te mets sur la voie : proche de l'effet de seuil en climato. Tiens j'en ai une autre bonne de Thom pour toi : "Ce qui limite le vrai n'est pas le faux, mais l'insignifiant" Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 5 mars 2007 Partager Posté(e) 5 mars 2007 Ce doit être facile à trouver, les "cerveaux" du GIEC n'iraient quand même attribuer des changements de température sans être capables de simuler les nuages et leurs évolutions pluridécennales. Comme le dit Meteor, on tient compte du chgt de nébulosité via le chgt du taux de vapeur d'eau. Après, que la fonctionnelle Delta vapeur d'eau ---> Delta nébulosité soit sujette à incertitude, aucun climatologue ne le niera. Je pense qu'ici comme ailleurs des intervalles de confiance sont encore appliqués.Je te le dis, les "vrais cerveaux" pensent à tout, repose-toi Charles. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 5 mars 2007 Partager Posté(e) 5 mars 2007 Comme le dit Meteor, on tient compte du chgt de nébulosité via le chgt du taux de vapeur d'eau. Après, que la fonctionnelle Delta vapeur d'eau ---> Delta nébulosité soit sujette à incertitude, aucun climatologue ne le niera. Je pense qu'ici comme ailleurs des intervalles de confiance sont encore appliqués. Je te le dis, les "vrais cerveaux" pensent à tout, repose-toi Charles. Cela ne ferait que repousser la question : montre-moi les simulations de VE en 1950, 1975 et 2000 (et les comparaisons avec les observations dans le cas des dernières décennies). Mais surtout, me répondre que les modèles tiennent compte de la nébulosité "via" la VE n'a aucun sens. Si cette VE ne condense pas, ou bien si elle condense à basse, moyenne ou haute altitude, ou bien encore sur telle ou telle latitude, les effets sur le climat (les T surface en l'occurrence) seront différents. Autant dire que l'info VE est nulle en tant que telle sur la nébulosité. Je ne parle pas là des projections sur 2100, mais bien des observations et des simulations sur 1900-2000. Si l'on se demande quelle quantité d'énergie sortante a été piégée par les GES, il paraît logique de se demander aussi quelle quantité d'énergie entrante est parvenue à la surface pour la réchauffer. A moins que cette dernière grandeur et son évolution soit sans intérêt pour les "vrais et gros cerveaux". Mais tu auras la bonté de m'expliquer pourquoi en deux mots. Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 6 mars 2007 Partager Posté(e) 6 mars 2007 Mais surtout, me répondre que les modèles tiennent compte de la nébulosité "via" la VE n'a aucun sens. Si cette VE ne condense pas, ou bien si elle condense à basse, moyenne ou haute altitude, ou bien encore sur telle ou telle latitude, les effets sur le climat (les T surface en l'occurrence) seront différents. Autant dire que l'info VE est nulle en tant que telle sur la nébulosité. Toujours cette tendance à l'exagération qui confine à la naïveté. En ce qui concerne les modèles je suppose qu'à partir de la nébulosité existente on rajoute des termes correcteurs (linéaires+non linéaires) dépendant de la VE (dont l'évolution est intégrée au modèle) et qui en retour influenceront le forçage. Encore une fois c'est prévu...Je ne parle pas là des projections sur 2100, mais bien des observations et des simulations sur 1900-2000. Si l'on se demande quelle quantité d'énergie sortante a été piégée par les GES, il paraît logique de se demander aussi quelle quantité d'énergie entrante est parvenue à la surface pour la réchauffer. A moins que cette dernière grandeur et son évolution soit sans intérêt pour les "vrais et gros cerveaux". Mais tu auras la bonté de m'expliquer pourquoi en deux mots. C'est bien gentil ton petit cours mais tu aurais plus vite fait de dire que la nébulosité influence aussi le forçage.Ne fais pas croire aux lecteurs que la nébulosité est une totale inconnue pour l'avenir, même s'il y a des incertitudes et que l'on aura sans doute des surprises. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 6 mars 2007 Partager Posté(e) 6 mars 2007 Toujours cette tendance à l'exagération qui confine à la naïveté. En ce qui concerne les modèles je suppose qu'à partir de la nébulosité existente on rajoute des termes correcteurs (linéaires+non linéaires) dépendant de la VE (dont l'évolution est intégrée au modèle) et qui en retour influenceront le forçage. Encore une fois c'est prévu... Quelle exagération: le simple fait de rappeler que la VE ne donne pas d'indication particulière sur la nébulosité? Et comment peux-tu "supposer" au début de ta phrase en m'assurant que "c'est prévu" à la fin?C'est bien gentil ton petit cours mais tu aurais plus vite fait de dire que la nébulosité influence aussi le forçage. Non, pas vraiment : le forçage TOA reste le même, avec ou sans nébulosité, son effet sur les différentes couches et ses rétroactions varient en revanche selon la nébulosité. Ce que je dis et que tu fais semblant de ne pas bien comprendre, c'est que la nébulosité influence les températures de surface et que si l'on prétend simuler et attribuer avec une grande vraisemblance ces T surf., j'attends fort logiquement que l'on exclut cette nébulosité des facteurs explicatifs à l'échelle pluridécennale.Ne fais pas croire aux lecteurs que la nébulosité est une totale inconnue pour l'avenir, même s'il y a des incertitudes et que l'on aura sans doute des surprises. Une totale inconnue, pas tout à fait. Disons que lorsque les modèles divergent moitié / moitié sur le signe d'une rétroaction, ce qui est le cas aujourd'hui, on n'est pas loin du pile ou face.J'avais pris soin de repréciser : je ne parle pas ici de la projection de la nébulosité (comme rétroaction au RC notamment), mais plus simplement de son observation et de sa simulation. Je parle des nuages au-dessus de nos têtes, la première chose qu'un enfant de cinq ans remarque quand il se pose des questions sur le temps qu'il fait (mais apparemment, la dernière chose que les vrais, gros et vieux cerveaux sont capables de lui expliquer, vu la difficulté que tu as à satisfaire ma demande assez simple, celle d'un enfant de cinq ans se demandant s'il y a toujours autant de nuages dans le ciel). Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 6 mars 2007 Partager Posté(e) 6 mars 2007 Pour moi, les protocoles portent sur les recueils de données, y compris le calibrage des instruments. L'outil statistique n'en fait pas partie car il est utilisé dans la phase d'interprétation. Il faudrait préciser le sens du mot "protocole". Y a-t-il une définition courante en méthodologie / épistémologie? Le mot est pour moi attaché à la description d'une expérimentation et de ses mesures, avant toute interprétation, dans le but s'assurer la reproductibilité. Dans le cas des sciences climatiques, il existe de nombreux problèmes de mesure, mais je ne sais pas à quel "étage" les attribuer. Par exemple, quand deux bases satellite utilisent les mêmes données brutes mais divergent sur l'établissement d'une tendance à partir d'elles (sur les algorithmes d'interprétation, donc), ce n'est pas exactement le même cas de figure que lorsqu'un travail suggère que les mesures des températures de surface sont biaisées par les usages du sol (c'est-à-dire expriment en partie le budget énergétique de surface dans certains éléments non pris en compte par le budget radiatif TOA). Un problème est bien sûr que les mesures en question sont non reproductibles, car il ne s'agit pas d'une expérimentation en laboratoire. Autrement dit, les mesures 1900 ne vont pas être refaites, on doit désormais faire confiance à leur interprétation (aucune mesure de cette époque est utilisée sans être corrigée). Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 6 mars 2007 Partager Posté(e) 6 mars 2007 Non, pas vraiment : le forçage TOA reste le même, avec ou sans nébulosité, son effet sur les différentes couches et ses rétroactions varient en revanche selon la nébulosité. Je pense que tu te trompes. Quand on parle de forçage TOA il s'agit d'une équivalence (comme pour le PRG à x années des GES autres que le CO2). Donc l'action des nuages s'exprime en équivalent W/m^2 TOA.Bien sûr cette "unidimensionnalité" est une approximation, mais elle permet de faire des calculs, dont la justesse est assez étonnante d'ailleurs. Encore une fois je le répète, "les vrais gros cerveaux" y ont pensé. Mais si ça te permet d'exister d'essayer de comprendre ce qu'ils font, je trouve ça très bien. Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 6 mars 2007 Partager Posté(e) 6 mars 2007 Les modèles ne savent PAS si avec un réchauffement, il y aura plus ou moins de nuage ! La croissance de la fonction nébulosité (nuage) par rapport à la variable VE (vapeur d'eau) n'étonnerait pas un enfant de 4 ans.Idem pour VE en fonction du réchauffement. Le gros problème est celui de l'altitude des nuages. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 6 mars 2007 Partager Posté(e) 6 mars 2007 Je pense que tu te trompes. Quand on parle de forçage TOA il s'agit d'une équivalence (comme pour le PRG à x années des GES autres que le CO2). Donc l'action des nuages s'exprime en équivalent W/m^2 TOA. Bien sûr cette "unidimensionnalité" est une approximation, mais elle permet de faire des calculs, dont la justesse est assez étonnante d'ailleurs. Je ne comprends pas ta réponse. Au départ, tu nous dis : "la nébulosité influence aussi le forçage." Et maintenant, tu poses que cette nébulosité peut être exprimée en équivalent forçage. Mais ce dernier propos n'explique et ne justifie pas le premier. Es-tu basiquement d'accord avec le fait que les valeurs radiatives des forçages dans le bilan GIEC sont indépendantes de la nébulosité, sauf les deux effets indirects des aérosols (sur la formation et la profondeur optique des nuages, justement)? Si oui, le débat est clos, la nébulosité n'influence pas comme telle les autres forçages, mais ses variations modifient bien sûr le bilan surface-tropopause dans les deux sens (LW sortant et SW entrant). Je suis tout à fait persuadé que d'éventuelles variations longues de nébulosité, dessinant une tendance autre que la variabilité annuelle et aléatoire de la couverture nuageuse, peuvent être analysées comme un forçage transitoire à la manière dont tu le suggères. Et c'est bien la raison pour laquelle je suis sceptique face à une reconstruction / attribution des T surface 1950-2005 sans prendre en compte les phénomènes de global dimming / brightening, ou même plus basiquement sans être capable de vérifier que cette tendance existe et de la reproduire sur un modèle. Encore une fois je le répète, "les vrais gros cerveaux" y ont pensé. Mais si ça te permet d'exister d'essayer de comprendre ce qu'ils font, je trouve ça très bien. Tu sais, il est tout à fait possible d'échanger des arguments sans agresser son interlocuteur à chaque échange. Si la satisfaction de cette pulsion te soulage, je trouve ça très bien cependant et nous pouvons continuer ainsi. Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 6 mars 2007 Partager Posté(e) 6 mars 2007 Je ne comprends pas ta réponse. Au départ, tu nous dis : "la nébulosité influence aussi le forçage." Et maintenant, tu poses que cette nébulosité peut être exprimée en équivalent forçage. Mais ce dernier propos n'explique et ne justifie pas le premier. Es-tu basiquement d'accord avec le fait que les valeurs radiatives des forçages dans le bilan GIEC sont indépendantes de la nébulosité, sauf les deux effets indirects des aérosols (sur la formation et la profondeur optique des nuages, justement)? Si oui, le débat est clos, la nébulosité n'influence pas comme telle les autres forçages, mais ses variations modifient bien sûr le bilan surface-tropopause dans les deux sens (LW sortant et SW entrant). La variation de la nébulosité entraîne un "forçage" (ou rétroaction) qui est intégré aux modèles. Mais ce "forçage" n'est pas "externe" (Homme ou soleil) au système, donc il ne figure pas dans les "radiative forcing components". J'ai appelé ça "forçage" car son action s'exprime en W/m^2, et dans le bilan, l'origine du flux (Homme, soleil, rétroaction) n'a aucune importance.Tu sais, il est tout à fait possible d'échanger des arguments sans agresser son interlocuteur à chaque échange. Si la satisfaction de cette pulsion te soulage, je trouve ça très bien cependant et nous pouvons continuer ainsi. C'est ta marque de fabrique depuis que tu es sur ce forum. Il ne faut pas s'étonner des conséquences.Ceci dit, de quoi te plains-tu ? Tu as donné le ton et l'info arrive à passer... Pour être franc, ça n'est pas ma tasse de thé. /emoticons/biggrin@2x.png 2x" width="20" height="20"> Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 6 mars 2007 Partager Posté(e) 6 mars 2007 Cloud albedo effect. Ce n'est guère plus compréhensible en plus court et en anglais. Le problème est bien que l'albedo nuage+aérosols a connu selon certains des variations importantes à la hausse dans les années 1950-80, puis à la baisse dans les décennies 1980-90, sans que l'on soit capable pour le moment de certifier ces tendances, d'évaluer le poids relatif des aérosols et des nuages, de savoir si la part "nuage" est une variabilité naturelle ou forcée (une rétroaction dans ce dernier cas), etc. Comme les grandeurs énergétiques impliquées dans ces variations pluridécennales surpassent celle du forçage GES TOA (selon ton "équivalence" qui est aussi la mienne) et comme elles affectent nécessairement les températures de surface (qui ont justement connu une stagnation 1950-70 et une forte hausse 1980-90), je suggère qu'attribuer une cause majeure de variabilité reste aujourd'hui un exercice incertain, dont le résultat ne peut être sérieusement présenté comme "très vraisemblable" sur une période courte et une amplitude faible. Je considère en revanche comme "très vraisemblable" que le réchauffement 1860-2005 ne peut s'expliquer sans des facteurs anthropiques. Au-delà, je suspends mon jugement. C'est ta marque de fabrique depuis que tu es sur ce forum. Il ne faut pas s'étonner des conséquences. Ah, c'est étonnant. Je me souviens d'innombrables échanges courtois et apaisés, dès lors que l'on discute du fond. Mais les lecteurs se font leur opinion sur les uns et les autres, c'est l'essentiel. Lien à poster Partager sur d’autres sites More sharing options...
miniTAX Posté(e) 6 mars 2007 Partager Posté(e) 6 mars 2007 La variation de la nébulosité entraîne un "forçage" (ou rétroaction) qui est intégré aux modèles. Ah bon, forçage c'est rétroaction maintenant !?! Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 6 mars 2007 Partager Posté(e) 6 mars 2007 Un forçage TOA est un bilan entre flux descendant et flux montant à la tropopause. RF = flux descendant - flux montant. Le flux descendant est égal au flux total ( en première approche) et le flux montant est égal au flux SW montant (albédo) + flux IR montant. Si la nébulosité augmente le flux SW montant augmente et le RF est négatif. Pour calculer le bilan global il faut cependant tenir compte du RF TOA LW induit par ces mêmes nuages. Mais les variations de nébulosité sont bien responsables d'un forçage TOA, stricto sensus. Ce qui se passe c'est que certains forçages sont "indépendants" (GES, TSI, volcans,...) et que d'autres sont des rétroactions (VE, albédo glace ou neige,...). Quoique pour les GES ils sont souvent, pour partie, des rétroactions également. Par exemple le dégazage du CO2 et du CH4 de l'océan ou des sols quand la température s'élève. La durée de vie rentre également en compte. Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 6 mars 2007 Partager Posté(e) 6 mars 2007 SW montant (albédo) + flux IR montant. Si la nébulosité augmente le flux SW montant augmente et le RF est négatif. Merci pour ce résumé clair.Mais dans ce cas, le flux IR montant diminu aussi. Le RF est-il aussi sûrement négatif ? C'est peut-être ce tu as voulu dire par : Pour calculer le bilan global il faut cependant tenir compte du RF TOA LW induit par ces mêmes nuages. mais je n'ai pas compris le terme LW. Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 6 mars 2007 Partager Posté(e) 6 mars 2007 Merci pour ce résumé clair. Mais dans ce cas, le flux IR montant diminu aussi. Le RF est-il aussi sûrement négatif ? C'est peut-être ce tu as voulu dire par : mais je n'ai pas compris le terme LW. Oui c'est bien çà. En fait il faut aussi tenir compte dans le flux montant de la variation, éventuelle , du flux IR, instantanément bloqué par les nuages et venant du sol. Dans ce cas le flux LW montant baisse, ce qui a tendance à faire remonter le forçage radiatif. Le flux IR montant du nuage dépendra alors de la température au sommet de ce dernier. LW voulant dire Long Wave (domaine IR lointain) et SW voulant dire Short Wave (UV, visible et IR proche) Mais attention, il faut rappeler que celà concerne les flux instantanés. Dans le problème général de l'évolution climatique et bien que le changement de nébulosité soit une rétroaction du réchauffement initié par les GES (ou autre), le fait que les nouveaux nuages formés soient des cirrus à haut ES, albédo moyen et donc forçage positif ou des stratus à fort albédo mais ES faible donc forçage négatif montre bien l'importance de cette rétroaction. Le forçage TOA n'est bien sûr pas tout mais il permet de définir les grandes lignes. Le forçage de surface vient affiner notamment la répartition convection/radiation en basse couche. Mais là j'ai encore à sacrément bosser la question. Lien à poster Partager sur d’autres sites More sharing options...
holon Posté(e) 6 mars 2007 Partager Posté(e) 6 mars 2007 Le forçage TOA n'est bien sûr pas tout mais il permet de définir les grandes lignes. Le forçage de surface vient affiner notamment la répartition convection/radiation en basse couche. Mais là j'ai encore à sacrément bosser la question. /emoticons/smile@2x.png 2x" width="20" height="20"> Forçage de surface qui, je suppose, sera très influencé par l'évolution de la nébulosité (toujours elle). En retour, je suppose que le forçage de surface est déterminant (pas seulement la température ?) pour l'évaporation et in fine la nébulosité... Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 6 mars 2007 Partager Posté(e) 6 mars 2007 Forçage de surface qui, je suppose, sera très influencé par l'évolution de la nébulosité (toujours elle). En retour, je suppose que le forçage de surface est déterminant (pas seulement la température ?) pour l'évaporation et in fine la nébulosité... Sans doute et c'est pour çà qu'il faut des modèles pour s'y retrouver. Et il y a aussi des trucs bizarres avec certains aérosols qui tout en faisant un forçage de surface négatif la refroidissent bien moins que ne le laisserait supposer la valeur du forçage. C'est pourquoi on se plante quelquefois en interprétant ces forçages comme on le ferait pour les RF TOA. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 6 mars 2007 Partager Posté(e) 6 mars 2007 (...) Mais les variations de nébulosité sont bien responsables d'un forçage TOA, stricto sensus. (...) Si tu considères que l'on peut interpréter les variations de nébulosité comme un forçage TOA, tu comprends sans doute pourquoi Stanhill se permet de comparer le global dimming au forçage GES, puisque la part nuageuse de ce global dimming peut être exprimée en TOA et comparée à une autre valeur radiative, sur une période donnée. Idem pour le global brightening. L'argument "c'est une variation du SW en surface et cela n'a rien à voir" ne tient pas tellement, d'autant que le phénomène a parfois été quantifié directement TOA, comme Wong 2006 par exemple, sans passer par l'observation de surface. bien que le changement de nébulosité soit une rétroaction du réchauffement initié par les GES (ou autre) Cela ne résume pas tout changement de nébulosité, bien sûr. La cause la plus évidente, en tout cas la plus débattue, est le premier effet indirect des aérosols anthropiques. Par ailleurs, je ne sais pas si et sur quelle base on peut exclure des variations naturelles de couverture nuageuse globale, aux diverses échelles de temps à partir de la décennie. Sans doute et c'est pour çà qu'il faut des modèles pour s'y retrouver. Sauf que les modèles... ne s'y retrouvent pas jusqu'à plus ample informé. Je ne parle parle des modèles simples de radiation-convection, utilisés pour comprendre ce qui se passe sur les différentes couches dans des situations "idéales", mais bien des AOGCM censés simuler et projeter ce qui se passe dans le climat réel. Peux-tu me citer une intercomparaison à ce sujet? Ou même les parties des rapports GIEC expliquant comment les modèles actuels simulent la nébulosité 1900-2000, comment leurs runs sont comparés aux observations 1980-2005? Je n'ai rien trouvé pour ma part. Et le chapitre "Comparison of ISCCP data with model-simulated cloudiness" du site d'intercomparaison des modèles AR4 reste désespérément vide de tout papier pour le moment. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 6 mars 2007 Partager Posté(e) 6 mars 2007 Pour info, les fourchettes du FAR du GIEC 2007 se sont élargies par rapport à celles du TAR 2001, ça à dire que plus on avance, moins les modélisateurs sont sûrs de leur simulation. (...) Je te réponds ici, car sinon le post 1998-2007 va partir en free style sans lien avec son sujet. Ce que je trouve surtout curieux pour ma part, c'est que le GIEC a choisi de publier dans le SPM ses projections T2100 en couplage avec des modèles du cycle du carbone, alors que ces derniers sont à ce point rudimentaires que le couplage est pour le moment sans intérêt réel. Le chapitre 10, particulièrement confus dans le Second Draft (je suis impatient de voir la version finale pour comparer), retient dans son Executive Summary les scénarios B1, A1B, A2 (manière de dire que A1FI est là pour la galerie), et donne une fourchette 2080-2099 de 1,77 à 3,01 °C. Mon impression est que le 3°C maximum commençait à faire assez misérable dans la perspective cataclysmique à laquelle on nous a habitués, et que l'on a préféré pour les décideurs et les opinions publiques la résurrection de l'A1FI couplé pour faire bonne mesure aux modèles carbone. Histoire de conserver des valeurs hautes de 5 à 6°C, ou 4°C en meilleure estimation, dont les journaux à sensation se repaissent volontiers. De mon côté, je conserve à l'esprit que les valeurs médianes des projections AR4 2100 pour les scénarios réalistes sont désormais de 1,8 à 3 °C. Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 7 mars 2007 Partager Posté(e) 7 mars 2007 Ce que je trouve surtout curieux pour ma part, c'est que le GIEC a choisi de publier dans le SPM ses projections T2100 en couplage avec des modèles du cycle du carbone, alors que ces derniers sont à ce point rudimentaires que le couplage est pour le moment sans intérêt réel. C'est ton opinion. Toutefois le GIEC estime que les avancées dans le domaine du cycle du carbone lui permettent d'annoncer les chiffres en question. Le chapitre 10, particulièrement confus dans le Second Draft (je suis impatient de voir la version finale pour comparer), retient dans son Executive Summary les scénarios B1, A1B, A2 (manière de dire que A1FI est là pour la galerie), et donne une fourchette 2080-2099 de 1,77 à 3,01 °C. Le chapitre 10, particulièrement confus dans le Second Draft (je suis impatient de voir la version finale pour comparer), retient dans son Executive Summary les scénarios B1, A1B, A2 (manière de dire que A1FI est là pour la galerie), et donne une fourchette 2080-2099 de 1,77 à 3,01 °C. Mon impression est que le 3°C maximum commençait à faire assez misérable dans la perspective cataclysmique à laquelle on nous a habitués, et que l'on a préféré pour les décideurs et les opinions publiques la résurrection de l'A1FI couplé pour faire bonne mesure aux modèles carbone. Histoire de conserver des valeurs hautes de 5 à 6°C, ou 4°C en meilleure estimation, dont les journaux à sensation se repaissent volontiers. De mon côté, je conserve à l'esprit que les valeurs médianes des projections AR4 2100 pour les scénarios réalistes sont désormais de 1,8 à 3 °C. Le 3.01°C que tu donnes est bien pour l'année 2090 en moyenne par rapport à l'année 1990. Il est à comparer au 3.29°C donné dans le TAR. Il est vrai que c'est plus faible de 0.28°C. Toutefois il s'agit bien sûr des valeurs moyennes et apparemment sans cycle du carbone. Mais je n'irais pas jusqu'à dire, pour ma part, et surtout avec ton assurance, que le scénario A1F1 avec cycle carbone incorporé est impossible et qu'il a été réintroduit à des fins catastrophistes. Il est possible et il est normal que le GIEC en parle, comme il parle de scénarios très optimistes également. D'autres scénarii bien plus "durs" n'ont pas été pris en compte dans ce rapport. Enfin nous nous rappellerons aussi que les chiffres cités ne concernent que la fin du siècle et pas le siècle d'après où l'augmentation de température continuerait par exemple dans le cas de l'A2. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 7 mars 2007 Partager Posté(e) 7 mars 2007 C'est ton opinion. Toutefois le GIEC estime que les avancées dans le domaine du cycle du carbone lui permettent d'annoncer les chiffres en question. En effet, c'est mon opinion. Je me demande d'ailleurs comment le couplage a été effectué, car le texte de l'AR4 n'est pas très clair à ce sujet dans les chapitres 7 ou 10. Le projet C4MIP (sur le coulage carbone-climat) utilise apparemment 11 modèles travaillant sur le scénario A2, mais il n'est pas précisé comment ces résultats concernent ensuite les projections des autres scénarios. Je suppose que les rétroactions carbone ne sont pas les mêmes selon les T et selon les émissions, donc qu'une simple règle de trois ne permet pas de passer de A2 aux autres. (...) Mais je n'irais pas jusqu'à dire, pour ma part, et surtout avec ton assurance, que le scénario A1F1 avec cycle carbone incorporé est impossible et qu'il a été réintroduit à des fins catastrophistes. Il est possible et il est normal que le GIEC en parle, comme il parle de scénarios très optimistes également. D'autres scénarii bien plus "durs" n'ont pas été pris en compte dans ce rapport. (...) Pour relâcher 30 GtC/an en 2100 (A1FI ou même A2 qui n'est pas loin), il faut supposer que l'humanité roulera dans des 4x4 alimentés au charbon, non? Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 7 mars 2007 Partager Posté(e) 7 mars 2007 Pour relâcher 30 GtC/an en 2100 (A1FI ou même A2 qui n'est pas loin), il faut supposer que l'humanité roulera dans des 4x4 alimentés au charbon, non? Je ne sais pas mais comme on parle de réserves ultimes de C de l'ordre de 4000 Gt, et comme le scénario A1F1 prévoit une moyenne de 20 Gt/an pendant le siècle, celà ne me semble pas si idiot que celà. Quant à rouler avec du charbon c'est bien sûr une boutade. Je la prends comme telle. Cependant la liquéfaction du charbon est tout à fait dans le domaine du faisable. Et avec des rendements peut-être pas si idiots non plus. En conséquence ce scénario pour relativement peu probable qu'il est, avec nos yeux d'hommes du XXième siècle, reste possible à mon sens. Il est peut-être bon de rappeler certains chiffres: En 1904 la conso de fossile était de 624Gt/an. En 1954 elle était de 1865 Gt En 2004 elle était de 7676 Gt. Bien sûr il n'est pas question de prolonger la courbe "bêtement", même les plus hauts arbres ne montent pas jusqu'au ciel, mais mettons nous à la place de la personne de 1904 à qui on aurait annoncé une conso multipliée par 12 en 2004. Là il n'est pas question de ce chiffre mais d'une conso multipliée par 4 en 2100. Ce qui est important à mon sens c'est l'appréciation des réserves ultimes de C fossile, le reste ce n'est presque que du bavardage.. Lien à poster Partager sur d’autres sites More sharing options...
charles.muller Posté(e) 7 mars 2007 Partager Posté(e) 7 mars 2007 (...) En 1904 la conso de fossile était de 624Gt/an. En 1954 elle était de 1865 Gt En 2004 elle était de 7676 Gt. Bien sûr il n'est pas question de prolonger la courbe "bêtement", même les plus hauts arbres ne montent pas jusqu'au ciel, mais mettons nous à la place de la personne de 1904 à qui on aurait annoncé une conso multipliée par 12 en 2004. Là il n'est pas question de ce chiffre mais d'une conso multipliée par 4 en 2100. Oui, mais avec une démographie mondiale 2100/2000 qui n'est pas multiplée par 4, comme ce fut le cas pour 2004/1904. A1FI est au contraire assez conservateur sur la démographie. Le scénario fossile intensif consiste à dire que le mode de vie "fossile" du XXe siècle va se reproduire au XXIe siècle et se répandre dans de nouvelles populations. Ces deux hypothèses me semblent peu probables prises individuellement, encore moins en combinatoire, pour la seconde partie du siècle. Je ne connais aucune projection considérant que le pétrole et le gaz naturel seront tout aussi abondants et bon marché en 2050-2100 qu'aujourd'hui. Reste le charbon, en effet. (Je ne parle pas du méthane où tous les scénarios sont dans les choux pour le moment). Ce qui est important à mon sens c'est l'appréciation des réserves ultimes de C fossile, le reste ce n'est presque que du bavardage.. Ce chiffre de réserves ultimes ne signifie pas grand chose à mes yeux dans la logique d'un scénario. L'important dans les affaires humaines, c'est avant tout le coût relatif d'une énergie par rapport à ses alternatives. Le scénario FI suppose que le coût relatif du fossile sera toujours plus intéressant. On peut y croire, mais c'est assez difficile. Il faudrait que le prix du pétrole/gaz/charbon ne connaisse pas de hausse et/ou que les alternatives connues ne connaissent pas de progrès en rendement et/ou que les alternatives en phase R&D soient toutes des échecs. Lien à poster Partager sur d’autres sites More sharing options...
Invité Posté(e) 7 mars 2007 Partager Posté(e) 7 mars 2007 Oui, mais avec une démographie mondiale 2100/2000 qui n'est pas multiplée par 4, comme ce fut le cas pour 2004/1904. A1FI est au contraire assez conservateur sur la démographie. Le scénario fossile intensif consiste à dire que le mode de vie "fossile" du XXe siècle va se reproduire au XXIe siècle et se répandre dans de nouvelles populations. certes. Je n'oublie pas cependant la très forte disproportion, très souvent signalée, entre la conso par habitant des "riches" US,Europe et des pauvres (Asie, Afrique, etc.) Ces derniers aspirent, qu'on le veuille ou non, à accéder au niveau de vie des riches. C'est un des moteurs de la croissance mondiale et en particulier de la croissance de conso énergétique. Moteur qui algébriquement parlant, peut tout à fait et même en étant assez raisonnable mener aux chiffres du A1F1. Donc côté demande c'est clair. Côté offre, dans cette hypothèse, je ne vois guère le renouvelable dépasser 10% des 30Gt/an futures éventuelles. Les 30 Gt/an représentent une puissance d'énergie primaire de 35200 GW. Soit la puissance électrique de 35200 réacteurs nucléaires ou primaire de 10000 réacteurs. Si le renouvelable atteint 10% soit la puissance de 3520 réacteurs nucléaires ce sera le bout du bout du monde. A combien se monte la part du renouvelable, hors hydroélectricité, dans le monde? En 2002 c'était de l'ordre de 0.3%. Il y a encore du chemin pour multiplier par 120 cette production, et on peut donc être assez réservé quant à ce genre de projections. Quant au nucléaire, en dehors de la surrégénération, point de salut! Si on s'y met vraiment on peut peut-être réussir à avoir une part appréciable de la puissance de la fin du 21 ème siècle mais, en l'état de la technique actuelle, on pourra seulement commencer à voir des choses intéressantes (réacteurs en production réelle) à partir de 2050, si tout va bien. Nous ne parlerons pas de la "tarte à la crème" d'ITER bien sûr. Non pas que je méprise ce projet mais il vaut mieux attendre son démarrage et son "exploitation". Donc pas bp d'alternative au charbon à mon sens dans cette optique. La question du coût comparatif des énergies se pose évidemment mais quand on voit que l'exploitation off-shore du pétrole et du gaz arrive à être compétitive, on peut se poser des questions sur le coût de ce qui peut paraître difficile à exploiter actuellement. Bon ce n'est pas l'objet de ce post, mais quelqu'un connait-il un bon lien sérieux qui parle des réserves ultimes de charbon? C'est le sujet qui me préoccupe principalement, je dois dire. Peut-être à tort, mais si quelqu'un a les renseignements, qu'il ne se gêne pas. Lien à poster Partager sur d’autres sites More sharing options...
Messages recommandés