Ça sent la polémique à plein nez! Des climatologues se proposent de corriger les mesures récentes de température des océans, pour tenir compte d’un changement de thermomètre. De quoi, selon des chercheurs, rehausser la température moyenne de la dernière décennie, et peut-être faire de 2010 l’année la plus chaude de l’histoire des enregistrements météorologiques (1). On n’a pas fini d’en entendre parler.
Mesurer des températures, ce n’est pas simple. Et encore moins dans les océans. Jusqu’à présent, les mesures provenaient de prélèvements réalisés depuis des navires. Et la température de ces échantillons change au cours de l’opération (2). Mais depuis 2000, ce sont des bouées automatiques, qui captent la «vraie» température à un mètre sous la surface de l’eau. Ça n’a l’air de rien, mais cette différence de méthode aurait provoqué une baisse artificielle de température dans les mesures récentes. C’est, selon New Scientist, ce qu’expliquent des chercheurs du Met Office, qui estiment le poids de cette «erreur» à 0,03°C dans les valeurs de température moyenne qui sont publiées chaque année.
Depuis 1970, la température de la planète a grimpé en moyenne de 0,16°C tous les dix ans. Mais la dernière décennie aurait connu une hausse plus faible, sans doute de 0,09°C… La spécialiste américaine de l’atmosphère Susan Solomon avait relevé en janvier mars dernier, dans Science, que la concentration de vapeur dans la stratosphère a baissé depuis l’an 2000, ce qui aurait —par réduction de l’effet de serre liée à cette vapeur— freiné la tendance à la hausse des températures de 0,04°C. Si l’on ajoute la baisse de 0,03°C liées au changement de thermomètre océanique, la dernière décennie serait donc dans la tendance observée depuis quarante ans…
J’entends déjà les cris d’orfraie des négateurs de science, qui vont encore une fois dénoncer ce qu’ils qualifieront de tripatouillages. Il faudra bien évidemment que les calculs de Susan Solomon comme ceux du Met Office soient validés par d’autres travaux avant de considérer que la dernière décennie a chauffé aussi vite que les précédentes. Mais que faire d’autre? Se contenter de méthodes de mesure moins précises héritées du passé? Profiter des meilleurs outils du moment en taisant les écarts qu’ils provoquent? Il est vrai que pour certains, comparer une terre plate à une terre ronde semble une évidence scientifique… Pour ma part, je regarde ces nouveaux résultats avec la prudence qui s’impose, mais ce serait regrettable de se priver du nec plus ultra de la thermométrie pour satisfaire des gens qui s’appuient sur leur incompétence pour donner des leçons de science.
NB. Il y a quelques jours, Gavin Schmidt a commémoré les un an du prétendu climategate en rappelant comment, après avoir constaté le piratage du blog RealClimate le 17 novembre dernier (son login avait été changé), il avait découvert un fichier d’archive sur le site, contenant les fameux emails volés dans les ordinateurs de l’université britannique d’East Anglia. Un an plus tard, rappelle Gavin Schmidt, tous les scientifiques mis en cause ont été blanchis, aucune publication scientifique n’a été rétractée. Quand aux seuls criminels de cette histoire, ceux qui ont volé les emails, ils courent toujours… A lire ou à relire, la compilation des billets importants qui ont jalonné cette affaire, dans les colonnes de RealClimate (en anglais, hélas).
(1) De toutes les façons, vu les données de janvier à octobre, 2010 est déjà en seconde position, après 1998.
(2) C’est aussi un changement méthodologique qui explique très probablement le changement soudain relevé en 1945 dans les températures de l’océan pendant la seconde guerre mondiale: alors que les anglais —qui prélevaient des échantillons avec un seau— ont nettement moins contribué à fournir des mesures, les américains prenaient la température dans le tuyau d’eau de refroidissement des moteurs (Nature du
Drôle d’article, pluôt …. polémique avant la polémique !
Faire un ajustement des mesures pour tenir compte des changements d’instruments, cela n’est pas choquant en soi. Cela se fait couramment. Il y a polémique quand cela ne se fait pas dans la transparence, après contrôle et validation.
Si le décalage des mesures de température est confirmé, il est très regrettable pour le Met Office de ne s’en apercevoir qu’au bout de 10 ans. Si un écart a pu être mesuré, cela veut dire que les mesures ont été faites en parallèle, au moins sur un temps donné. Et le Met Office n’aurait pas vu, ou pas tenu compte de décalage pendant cette période ? Cela ne fait pas sérieux.
Pour connaitre l’évolution des températures ces dernières années, un site est précieux, regroupant plusieurs instituts de mesure : http://www.woodfortrees.org/plot/hadcrut3vgl/from:1995/offset:-0.15/plot/gistemp/from:1995/offset:-0.24/plot/uah/from:1995/plot/rss/from:1995
La mesure par satellite (RSS ou UHA) évite de nombreux problèmes en couvrant une plus grande surface, à condition qu’ils soient convenablement calibrés, régulièrement vérifiés et que l’on soit sur qu’ils mesurent la même chose. A comparer les mesures entre instituts, la tendance générale est la même.
Par rapport à ce problème d’écart de mesure, la référence à l’article de Solomon tombe comme un cheveu dans la soupe. Si elle est confirmée, la baisse de concentration de vapeur d’eau dans la stratosphère, depuis l’an 2000, freinant la tendance à la hausse des températures de 0,04°C, est une bonne nouvelle en soi. Cela voudrait dire qu’il existe des mécanismes naturels de régulation et confirme que tout n’est pas encore compris dans les mécanismes en jeu.
Le fait que 2010 soit une année record ou pas a peu d’intérêt. Cela fait partie de la variabilité annuelle et est du à un El Nino. A la limite, c’est plus du ressort de la météo que du climat. Qu’est-ce qui sera dit en 2011 alors que tout le monde prévoit une baisse par rapport à 2010 à cause de la Nina ?
Bonjour,
Les mesures par satellite (RSS ou UHA) ont leurs problèmes à eux. Typiquement, des problèmes pour couvrir les pôles, elles ne mesurent pas la température à la surface, mais l’atmosphère à plusieurs hauteurs, il s’agit d’une collection de mesures émanant d’une flotte de satellites, avec un remplacement régulier des satellites (ce qui nécessite une calibration de l’ensemble), il y a les dérives des orbites, le vieillissement du matériel etc..
On n’a quasiment jamais les « bonnes » mesures immédiatement, et il faut en effet des périodes très longues pour se rendre compte de ces dérives; d’où tout l’intérêt des produits de réanalyse qui tiennent compte de tout cela.
Il n’y a pas d’ensemble de mesures idéales, il s’agit toujours d’un compromis. Mais tous se ressemblent: la tendance à la hausse est indéniable (sauf pour les adeptes du site ‘We Use Wishful Thinking, ou tout est possible, même son contraire).
DDq, vous serait-il possible de nous produire la courbe des teneurs en vapeur d’eau de S.Salomon. Je n’y ai pas accès.
Allons BMD, vous ne connaissez pas Google Scholar? Vous auriez trouvé ceci en deux clics et 5 secondes… http://www.climate.unibe.ch/~plattner/papers/solomon10sci.pdf
Merci. J’aurais cru que les teneurs troposphériques auraient plus d’influence que les teneurs stratosphériques. En tous cas, certains l’affirment, selon Google Scholar. Impossible cependant de trouver des courbes de l’évolution troposphérique sur une longue période. Je suis preneur.
Voir le rapport du GIEC AR4, WG1, chapitre RT 3.1.3 : http://www.ipcc.ch/publications_and_data/ar4/wg1/fr/tssts-3-1-3.html
2 courbes montrent les évolutions de 1988 à 2004 : « La vapeur d’eau troposphérique et celle dans la troposphère supérieure augmente. »
L‘évolution de l’humidité relative et celle de l’humidité spécifique, jusqu’à une pression de 300 mb, est disponible sur le site « Earth system Researsh Laboratory, dans Physical Sciences Division ». Vous pouvez créer des tableaux d’évolution de 1948 à octobre 2010.
Dans l’étude de Solomon, je note que l’influence de la vapeur d’eau stratosphérique joue dans les 2 sens. Pour la période 1990 à 2000, la vitesse de réchauffement aurait été accentuée de + 30%, du fait de l’augmentation du taux de vapeur d’eau dans la stratosphère,
En fin d’article, Solomon dit que la cause des variations de quantités de vapeur d’eau stratosphériques n’est pas connue : rétroaction du climat ou fluctuations décennales.
Il ajoute que les modèles climatiques actuels prévoient une rétroaction de l’eau stratosphérique faible, car ils ne prennent pas en compte toutes les données climatiques.
Merci. je suis surpris par la difficulté de trouver de la documentation , malgré l’importance du sujet.
En fait, les tableaux disponibles d’évolutions du taux d’humidité, sur le site esrl.noaa.gov ne sont que des valeurs issues de ré-analyses climatiques faites par NCEP, et non des valeurs réelles mesurées. Un blog a traité du sujet, avec toutes les incertitudes que le sujet comporte. http://iceblog.over-blog.com/article-feedback-de-la-vapeur-d-eau-negatif-41338304.html
J’ai cherché les explications du Met Office prouvant une sous-estimation de 0,03°C, je ne trouve rien. D’où vient ce chiffre sorti quelques jours avant la réunion de Cancun ?
Comme l’avait expliqué le Met Office, les données SST sont tirées de l’International complète de l’Océan Data Set, ICOADS, de 1850 à 1997 et de la NCEP-GTS de 1998 à nos jours. Ce changement de base de données avait fait « couler de l’encre », car la température avait monté d’un seul coup de 0,12°C. Depuis, c’est surtout le nombre de mesures qui a augmenté passant de 300.000 en 1997 à 2,1 millions en 2010. Le tableau sur le site http://icoads.noaa.gov/images/nrt_nqbar.gif montre la répartition des types de mesures. Les balises dérivantes représentent plus de la moitié des mesures, suivi du réseau marin côtier automatisé (C-Man) et des bouées ancrées. C’est surtout entre 2005 et 2006 que le nombre de mesures a doublé, puis régulièrement à partir de 2008.
En fait, le Met Office a envoyé une étude au Journal of Geophysical Research.
Le document reprend l’examen des biais possibles dans les mesures de température des eaux de surface, à partir de navires et de bouées, entre 1850 et 2009.
Il précise que le chiffre de +0.03C est la limite supérieure du déficit de mesure du réchauffement, du fait du basculement des mesures navire / bouées au cours de la période comprise entre 1998-2009.
voir : http://www.reportingclimatescience.com/news-stories/article/met-office-to-revise-global-warming-data-upwards.html
Tiens ? Certains irréductibles admettent finalement que la courbe des températures de ces dernières années montrait des signes nets de faiblesse quant à la hausse ? (Et qu’il faudra donc la changer).
Beaucoup de personnes ont « commémoré » les 1 an du Climat-gate.
L’analyse de Mike Hulme, professeur de changement climatique à l’École des sciences de l’environnement à l’Université d’East Anglia, dans un artcle du Guardian « The year climate science was redefined” est très interessante :
http://www.guardian.co.uk/environment/2010/nov/15/year-climate-science-was-redefined
« Je crois qu’il ya eu des changements majeurs dans la façon dont la science du climat est effectuée, la façon dont le débat sur le climat est encadré et la façon dont la politique climatique est en cours de formation. Et je crois « climategate » a joué un rôle dans les trois »