Mostrando entradas con la etiqueta temperatura. Mostrar todas las entradas
Mostrando entradas con la etiqueta temperatura. Mostrar todas las entradas

domingo, 16 de septiembre de 2012

la temperatura más alta de los registros


La temperatura de garita meteorológica que se suponía más alta de todos los tiempos,  la tomada el 13 de septiembre de 1922 en El Aziza, Libia (localidad situada a unos 40 kilómetros al suroeste de Trípoli) ha sido invalidada por la Organización Meteorológica Mundial. La más alta es ahora la  de 56,7 grados centígrados registrada el 10 de julio de 1913 en el Valle de la Muerte, en la imagen (California, Estados Unidos). (Ver la noticia aquí)
Entre otras razones, las causas de la invalidación son:

- -        La situación inadecuada de la garita: sobre asfalto en vez de sobre césped o arena (esta última, en el caso que nos ocupa, sería prácticamente la única posible, al estar situada la estación en pleno desierto) siendo que el asfalto absorbe mucho mejor que otros materiales el calor del sol y se ha demostrado que influye en la medición aumentando la temperatura.

-      -   La inconsistencia con las lecturas de ese mismo día de las estaciones situadas en localidades vecinas, ya que ninguna registró una temperatura mayor de 32 grados.

-  -       El hecho de que el observador, posiblemente, no fuera el habitual: la medida de 58 grados está escrita con una caligrafía diferente a la de las entradas anteriores y parece que la persona que escribía no tenía claro en qué columna anotar las temperaturas. También se apunta que los termómetros usados tienen una barra magnética (ver en la imagen de abajo la barrita azul de la columna de la derecha arriba del mercurio) para registrar las máximas y las mínimas que, leída incorrectamente por arriba, y no por debajo de ella, puede dar una diferencia de 7 grados más.

-    -     El cambio de ubicación de la estación: se cambió en tres ocasiones. En su primera ubicación (de 1913 a 1920), registró una temperatura máxima de 48 grados, en la segunda (de 1920 a 1926), sobre la base de asfalto ya mencionada, marcó el presunto récord, y en el tercer emplazamiento, que ocupó entre 1927 y 1984, la máxima llegó a los 50 grados, registros muy lejanos de los 57,8 que supuestamente se registraron en la ubicación de 1922.


Parece claro, pues, que el registro es incorrecto y, por tanto, inválido. Lo curioso es que las causas que se aducen para invalidarlo no sean igualmente aplicadas a tantos y tantos registros de temperatura de similares características, (ubicación sobre asfalto o cerca de fuentes de calor  artificiales, observadores inadecuados, cambio de localización de las estaciones, inconsistencia entre urbanas y rurales etc.) deficiencias que se han denunciado en muchas ocasiones por meteorólogos reputados (véase aquí el estudio realizado por Anthony Watts sobre el asunto). Estos registros incorrectos, desgraciadamente, son los que se utilizan una y otra vez para hacernos creer una subida de temperaturas a finales del siglo XX muy por encima de la que realmente se ha producido, metiéndonos miedo con “el coco” del calentamiento global.

Por cierto, la ahora oficial temperatura más alta de todos los tiempos, se produjo nada menos que en 1913, casi nueve años más atrás que el récord invalidado del desierto de Libia en 1922. Si hay tanto calentamiento como dicen, ¿Cómo es que no se ha registrado ningún récord absoluto en los 99 años que han transcurrido desde entonces?


martes, 17 de enero de 2012

Gradualismo y saltacionismo en el clima



A principios del siglo XIX, un debate polarizaba el mundo científico de la época: en un bando se situaban los catastrofistas, con el francés Georges Cuvier (imagen derecha)a la cabeza, y en el otro los gradualistas, con el geólogo escocés Sir Charles Lyell (izquierda) como abanderado.
Cuvier, llamado el padre de la paleontología por sus estudios con fósiles, describía una historia geológica en la que existían largos períodos de estabilidad, en donde las especies permanecían invariables, seguidos de gigantescos eventos catastróficos que exterminaban las especies antiguas. Tras la extinción masiva, Dios creaba una nueva colección de especies que permanecían invariables hasta la siguiente gran catástrofe.
Lyell y los gradualistas, en cambio, no creían en grandes catástrofes, para ellos la historia del mundo es progresiva, gradual, sin más ni mayores catástrofes de las que podemos observar en la actualidad. El gradualismo cree que no hay necesidad de acontecimientos extraordinarios para explicar lo que se ve en los estratos de roca.
La balanza se decantó del lado de los gradualistas a mitad del siglo XIX, fundamentalmente gracias a la enorme influencia de las ideas de Charles Darwin, gradualista convencido.
Darwin explicaba su teoría evolucionista a partir de pequeños cambios, pequeñas diferencias mantenidas en el tiempo. Hasta las extinciones son graduales. Para Darwin, no existen extinciones masivas ni nada que se le parezca.

Tuvieron que pasar más de 100 años para que se atacase de manera efectiva el paradigma gradualista: en la década de los ’70 del siglo pasado, Niles Eldredge (en la imagen) y Stephen J. Gould elaboran su teoría de los equilibrios puntuados o teoría “saltacionista”. Estos paleontólogos, con muchísimos más datos de fósiles y geológicos de los que tuvo jamás Darwin, confeccionan una nueva teoría, similar en muchos aspectos a la catastrofista de Cuvier, pero que no rechaza de plano las ideas darwinistas: para ellos las especies evolucionan por selección natural, tal y como creía Darwin, pero esta evolución no es un proceso gradual y continuo, sino brusco y discontinuo, es decir, “a saltos”, un proceso en el que se alternan largos períodos de estasis, con poco o ningún cambio en las especies, con cortos períodos de crisis que ocasionan grandes extinciones, seguidos de rápida evolución y diversificación de las especies supervivientes, lo que genera nuevas especies adaptadas a los ambientes que han dejado libres las especies extintas, y vuelta a empezar.
Los descubrimientos, en la década de los ’80 de extinciones masivas al final de la era de los dinosaurios por los americanos Luís y Walter Álvarez (padre e hijo, cuya familia es de origen asturiano, en la imagen Walter), atribuidas al choque de un gran meteorito o asteroide, refuerzan las teorías de Eldredge y Gould. Hoy en día, la mayoría de los científicos creen en las extinciones masivas.
Pero, ¿son solo caídas de objetos celestes las que causan las extinciones o hay algo más?
Lo cierto es que, entre las grandes extinciones hay otras, no tan masivas ni tan globales, que podrían atribuirse a catástrofes de otro tipo, como supervolcanes, supernovas y grandes cambios climáticos de origen aún desconocido.
Si afinamos más, podemos ver que, incluso en los periodos de aparente estabilidad, se produce alguna extinción aislada, así como cambios en la distribución de muchas especies, algunos de ellos bruscos.
Por otro lado, si miramos al registro de temperaturas globales o a las temperaturas sacadas de los núcleos de hielo glaciar de la Antártida y Groenlandia, lo que vemos es un conjunto de picos y valles a veces muy profundos, en nada comparables a cambios graduales y sí a saltos. Estos cambios bruscos se pueden observar también en ciclos solares y registros oceánicos.
Es decir, que el viejo paradigma del gradualismo está en franco retroceso hoy en día.
Si se miran los registros a la luz del nuevo paradigma saltacionista se da uno cuenta de que la obsesión por las medias no tiene mucho sentido en el mundo real, ya que la media es un estadístico más, un valor que raramente tiene existencia salvo en breves instantes, y que solo sirve para hacernos una idea muy burda, muy “grosso modo”, de la realidad. Es mucho más útil y práctico ver la evolución de la temperatura a nivel regional e incluso local, pero si insistimos en querer conocer la temperatura global por aquello del miedo a la subida del nivel del mar, el deshielo de los glaciares o cualquier otra supuesta amenaza, deberíamos también intentar mirar las gráficas a la luz del nuevo paradigma: no tanto con rectas de regresión y tendencias lineales (la “brocha gorda” que nos proporciona poca información, y que además suele ser fácil de manipular por unos y por otros) como con escalones, saltos bruscos que nos llevan a períodos de relativa estabilidad, más cálidos o más fríos (ver aquí un ejemplo en la temperatura superficial oceánica por Bob Tisdale).


En realidad no es extraño que así suceda, dado que el clima tiene mucho de caótico y los sistemas caóticos suelen tener “atractores” (imagen: atractor de Lorenz), es decir, situaciones más o menos estables alrededor de los cuales gira u oscila el sistema durante un tiempo para cambiar bruscamente a otro nivel buscando otro atractor, alrededor del cual oscilará el sistema en un nuevo periodo de estabilidad antes del siguiente salto (ver aquí:).

sábado, 22 de octubre de 2011

Verdades a medias sobre el Dr. Muller y el calentamiento global


Estos días se habla mucho en los medios de comunicación masivos de un científico, el Dr. Richard Muller (en la imagen), por las declaraciones efectuadas (ver aquí) a raíz de la publicación de un trabajo sobre registros de temperatura patrocinado por la Universidad de Berkeley llamado BEST (Berkeley Earth Surface Temperature) y del que él ha sido uno de sus principales científicos. En la jerga habitual cuando hablan del tema los medios, se dice que este señor, que antes se inclinaba hacia posiciones escépticas, luego de hacer el citado estudio con miles de datos de temperaturas de todo el mundo, ha cambiado de opinión y ahora está convencido de que existe el calentamiento global, y como corolario, invita a los escépticos a dejar de serlo definitivamente.

Pero esa no es la verdad. Al menos, no toda la verdad.

Como, desgraciadamente, pasa siempre con este tema, los periodistas amarillistas seleccionan una parte de las declaraciones de los científicos, la que favorece a sus intereses corporativos y a su línea editorial, y ocultan la parte que no les interesa. ¿Por qué digo esto?
Empecemos por las verdades:

Es cierto que el Dr. Muller ha coordinado un estudio sobre miles de datos de temperaturas utilizando varias colecciones de registros de temperaturas, como los americanos GISS y NCDC y el británico HadCRU. También es cierto que el Dr. Muller, basándose en su estudio, ha declarado que ha existido un calentamiento en el último medio siglo de cerca de 1ºC.
Eso es todo con respecto a la verdad publicada en titulares.
Lo que no dicen los medios de comunicación, en sus calentólogos cortes publicitarios, es que el Dr Muller también ha afirmado:

1. Que el registro de temperaturas en que se basa su estudio está incompleto, sobre todo en lo referente a los océanos (que, no lo olvidemos, cubren un 71% de la superficie terrestre)
2. Que el mencionado registro incluye graves errores y sesgos, citando el informe del meteorólogo Anthony Watts en donde se descubre que los registros de un 70% de las estaciones meteorológicas de Estados Unidos están contaminados por efectos como el de isla de calor urbano al ir creciendo las ciudades en que se ubican.
3. Que, como consecuencia, el margen de error de las estaciones es muy grande, tanto que es, al menos, tres veces mayor que el aumento estimado de las temperaturas (0,64ºC) que sostiene el IPCC que se ha producido.
4. Que el número de huracanes a los que se les ha puesto nombre ha crecido, pero que esto es en gran parte debido a una mejor detección de éstos en lugares remotos gracias a los satélites y las modernas boyas, ya que antes pasaban desapercibidos, lo que explica el por qué el número de huracanes que golpean América ha descendido.
5. Que lo mismo pasa con los tornados: se detectan más ahora debido a los radares pero el número de los que tocan suelo y hacen daño ha descendido.
6. Que la variabilidad a corto plazo en las temperaturas de Estados Unidos ha ido en descenso desde 1800, lo que sugiere un clima más estable.
7. Que, según su estudio, un tercio de las estaciones meteorológicas mundiales han registrado enfriamiento global y dos tercios calentamiento, (es decir, un porcentaje significativo muestra enfriamiento).

Como vemos, muchas de las afirmaciones del científico, están abiertamente en contra de los alarmismos de muchos políticos y medios de comunicación. Pero ahí no queda la cosa:

Si analizamos el trabajo de Muller, encontramos que los registros, aparentemente independientes, en los que se ha basado, no lo son en cuanto al origen de los datos sino en cuanto a la metodología para tratarlos, es decir, la estadística que se ha usado es distinta en las distintas fuentes de donde los ha extraído él, pero los registros propiamente dichos son los mismos,por tanto si están contaminados y son incompletos, el error que se extrae de ellos puede ser muy grande, dando pie a “cocinas estadísticas” es decir, “arreglos” más o menos sesgados con la excusa de mitigar los sesgos y rellenar los huecos, lo que explica por qué las curvas de temperatura son distintas según quién las publique.

Tampoco dicen los medios que, según donde coloquemos el inicio de una serie de datos de temperatura, el resultado final será un número u otro. Me explico:
Si comenzamos la serie en un año relativamente frío como fue el año 1945 y lo terminamos en un año relativamente cálido, como fue el 2010, la diferencia será mucho más grande que si empezamos solo 5 años antes, en 1940, que fue un año relativamente cálido, y terminamos en 2008, que fue un año relativamente frío.
Por supuesto, no se dice nada de los demás registros de temperatura, como los satelitales, mucho más fiables y completos al abarcar también los océanos. ¿Será porque no muestran tanto calentamiento?.

Por último, hay que decir que, al contrario de lo que se desprende de la propaganda oficial, la inmensa mayoría de los escépticos no niegan que se haya producido calentamiento global, ni siquiera que este calentamiento haya sido provocado en parte por el ser humano, lo que dicen es que este calentamiento ha ocurrido fundamentalmente por causas naturales, que no es necesariamente malo, y que el calentamiento producido por el hombre es solo una pequeña parte de él.

Para saber más:
Blog del estadístico Briggs
http://wmbriggs.com/blog/?p=4525
Best en WUWT
http://wattsupwiththat.com/2011/10/20/the-berkeley-earth-surface-temperature-project-puts-pr-before-peer-review/
Declaraciones de Muller:
http://online.wsj.com/article/SB10001424052970204422404576594872796327348.html#printMode

viernes, 8 de abril de 2011

No es tan fácil medir la temperatura

Cuando me levanto y desayuno, antes de ir al trabajo, salgo a la terraza de mi piso y echo un vistazo al termómetro que tengo colgado en la pared. Es fácil. Con esta acción tan simple, me hago una idea de la temperatura que hace y qué abrigo debo ponerme. La sencillez de esta acción puede hacernos creer que es fácil llevar un registro histórico de temperaturas, dado que los termómetros llevan ya siglos con nosotros y que hay servicios meteorológicos dedicados profesionalmente a eso.
Nada más lejos de la realidad.
En primer lugar, no todos los países, incluso hoy en día, tienen servicios meteorológicos fiables, en especial los del tercer mundo, y no digamos hace 100 o 150 años. Tampoco los países occidentales han tenido históricamente estabilidad, recordemos las dos guerras mundiales del siglo XX.
Por otro lado, las estaciones de medida, con el paso del tiempo, han sufrido múltiples vicisitudes: cambios en la ubicación de las casetas meteorológicas, crecimiento de las ciudades con el consiguiente aumento del efecto isla de calor urbano, aumento del tráfico de aviones en los aeropuertos donde muchas de ellas están ubicadas, cambios en los usos del suelo alrededor de las estaciones situadas en áreas rurales, etc.
Hay que tener en cuenta también cambios en el instrumental y cambios incluso en la forma de medir, ya que en los registros antiguos se tomaban dos temperaturas diarias únicamente, la mínima y la máxima, hoy en día, en cambio, se realizan al menos 4 diarias.
En definitiva, si se quiere saber la temperatura media de nuestro planeta, hay que hacer ajustes en el registro.
Y, cuando se hacen ajustes, las posibilidades de error, pero también de manipulación y sesgo, son muy grandes. Dada la enorme politización que la cuestión climática ha alcanzado, no es extraño que ya no se crea nadie las gráficas que circulan por ahí con la temperatura global de los últimos 100 o 150 años.

Ahora parece que hay grupos interesados en averiguar la verdadera evolución de las temperaturas en las últimas décadas. Una muestra es este estudio de Mark Gibbas, del equipo Weather Source, en el estado de Utah (Estados Unidos) (click aquí). En él se ponen de manifiesto graves errores en los ajustes de gráficas de temperaturas en el USHCNv2 2009 ( U.S. Historical Climatology Network version 2) un trabajo de compilación y ajuste de temperaturas realizado por el NCDC (National Climatic Data Center) de Estados Unidos.
Y es que, cuando pensamos en estaciones meteorológicas, creemos que todas son como ésta:

pero en realidad a menudo son (o han sido) como ésta


Dado que los registros de temperaturas de Estados Unidos están considerados de los mejores del mundo, si no los mejores, da miedo considerar los errores y ajustes falsos que habrá en registros de otros países, la suma de todos ellos es lo que, a la postre, configura las gráficas de temperaturas globales que nos venden como precisas.

martes, 18 de enero de 2011

Más sobre manipulación de temperaturas

Parece que las gráficas sobre temperaturas globales que nos muestran las agencias norteamericanas NOAA y NASA no solo muestran errores de cálculo debido a no tener en cuenta adecuadamente los efectos del fenómeno de calentamiento conocido como isla de calor urbano y la pérdida de estaciones que vimos en la entrada anterior, sino que es aún mucho peor:
Según denuncia en un reciente documento( ver aquí) el eminente meteorólogo Joseph D’Aleo, la base de datos que utilizan estas agencias está gravemente falsificada con “cientos, si no miles de pares de estaciones de medición falsificadas y duplicadas”.
Esto ya se destapó en 2009 con los correos del “climategate”, el escándalo que sacudió la CRU de la Universidad de East Anglia (los datos brutos que manejan la NOAA y la NASA son los mismos que maneja la CRU). La manipulación es mayor en las regiones árticas, ya que, directamente, se inventan los datos en áreas en donde no existen estaciones de medición.
D’Aleo afirma que estas agencias amañaron datos de temperatura para crear un incremento artificial en la tendencia al calentamiento ocurrida desde los años ’30 del siglo pasado: Las temperaturas entre 1930 y 1950 fueron artificialmente ajustadas a la baja y los valores de las recientes décadas reajustados al alza para que pareciera mayor el calentamiento producido desde entonces. Numerosos artículos aparecidos recientemente en revistas con “peer-review” estiman que la desviación puede llegar a ser de entre un 30% y un 50% al alza sobre el incremento real de temperatura que ocurrió entre 1880 y la actualidad.


Las agencias norteamericanas se han resistido a explicar sus ajustes y a liberar sus datos para que sean examinados por científicos independientes, aunque eso podría cambiar debido al reciente cambio político en la Cámara de Representantes norteamericana.

viernes, 14 de enero de 2011

¿2010 el año más cálido del registro?

Se nos dice, por parte de la NOAA estadounidense y el GISS de la NASA, (ver aquí noticia) que 2010 ha sido el año más cálido desde que hay registros, al mismo nivel que 2005, pero, ¿es cierto?
En realidad NO LO SABEMOS
Y no lo sabemos porque, para elaborar esas estadísticas, en 2010 se tomaron datos de tan solo unas algo más de 1.000 estaciones meteorológicas en todo el mundo, pero no siempre fue así:
Resulta que en los años 60, 70 y 80 el número de estaciones utilizadas para computar los datos era mucho más elevado: en 1970 se utilizaban unas 6.000 estaciones, número que descendió a 5.000 en los años 80 y a 3.000 en los años 90, para caer posteriormente hasta las algo más de 1.000 actuales (ver gráfica).

Resulta, además, que muchas de esas estaciones desaparecidas estaban situadas en zonas rurales, por lo que el efecto isla de calor urbano no les influía demasiado. De las que quedan, la mayoría están situadas en ciudades grandes y aeropuertos, por lo que debería hacerse una corrección a la baja de las cifras actuales, corrección que estos organismos no realizan en la mayoría de los casos, y cuando lo hacen, es generalmente en sentido contrario al que deberían.
No se puede comparar un conjunto de datos con otro conjunto seis veces más pequeño y además sesgado a favor de ciudades grandes y aeropuertos.
La NOAA y el GISS son organismos dominados por activistas pro-calentamiento antropogénico, como el célebre James Hansen, uno de los calentólogos más radicales, así que les interesa proclamar años cada vez más cálidos.
Para ver realmente cuál ha sido el grado de calentamiento del año 2010, las mejores fuentes son, indudablemente, las mediciones por satélite de la baja troposfera que publican dos organismos diferentes: la UAH (Universidad de Alabama en Huntsville) (ver aquí) y el RSS (Remote sensing systems, empresa de Santa Rosa, California) (ver aquí). En ninguno de los dos aparece 2010 como el año más caliente del registro, récord que sigue ostentando 1998, por estrecho margen, eso sí.
Como estas mediciones no son exactamente superficiales, y tampoco podemos compararlas con los registros antiguos, ya que comenzaron a tomarse en 1979, quizás nunca sepamos cuál ha sido el año más cálido del registro superficial.
Pero yo no apostaría por 2010.

jueves, 23 de diciembre de 2010

¿Son de fiar las previsiones meteorológicas a medio plazo?


Según la AEMET este invierno será algo más frío de lo normal, en concreto habrá “ligera tendencia a temperaturas inferiores a los valores normales en la España peninsular y Baleares
Esto nos introduce en el tema de las predicciones meteorológicas, que no climáticas, que dirían los puristas, aunque el clima no sea más que una media de los parámetros meteorológicos medidos en un periodo de tiempo suficientemente largo (establecido en 30 años o más, a juicio de los que saben -o creen saber- algo de esto).
Aunque tiempo no sea clima, lo cierto es que son los meteorólogos quienes, a menudo, llevan la voz cantante en esto del clima, y también hablan, por supuesto del tiempo meteorológico a medio plazo.
En España, por ejemplo es la Agencia Estatal de Meteorología (AEMET) la que hace estas predicciones a medio plazo, y quien se hace eco entusiásticamente de las predicciones a largo plazo del IPCC de la ONU. La pregunta que surge es:
¿Son fiables estas predicciones?
La respuesta es, por supuesto, que depende de quién las haga. Si nos referimos a los organismos oficiales (AEMET, Met Office británico, NOAA, NASA americanas, etc.), podemos decir:
- Son muy fiables a muy corto plazo (3 ó 4 días)
- Son relativamente fiables en un plazo de 4 a 10 días
- Son muy poco fiables en un plazo mayor de 10 días

El 21 de septiembre de 2010, coincidiendo con la entrada del otoño, la AEMET afirmaba:
Las previsiones apuntan a un otoño más caluroso de lo habitual” (enlace aquí)
El 21 de Diciembre, la misma agencia constataba que el otoño había sido más frío de lo normal y que el año 2010 “ha sido uno de los menos cálidos en los últimos 16 años en España” (enlace aquí)
Otras agencias meteorológicas oficiales como el Met Office británico tienen incluso menor fiabilidad a medio plazo: después de encadenar un error tras otro en sus predicciones a medio plazo en los últimos 3 años, ya ni el alcalde de Londres les hace caso (ver aquí).
¿Qué tienen en común estas agencias?, ¿por qué fallan tanto en sus predicciones más allá de diez días?.
Aquí apunto algunos puntos en común de todas ellas:
- Creen en los gases invernadero como principales conductores del clima
- Creen en el Calentamiento Antropogénico Global
- Minimizan la influencia climática del sol
- Creen en el poder omnímodo de los superordenadores, sobre todo si son muy caros.
- Utilizan datos de temperaturas contaminados por el efecto isla de calor urbano.
- Utilizan los mismos modelos climáticos que el IPCC de la ONU (muchos son colaboradores de este organismo)
Así pues, ¿son fiables las predicciones a medio plazo de estas agencias?
La respuesta, claramente, es: NO
¿Serán fiables quizás, a largo plazo, digamos, 10 años?
El año 2000 el climatólogo David Viner, del CRU de la Universidad de East Anglia declaraba, refiriéndose a Inglaterra:
“within a few years winter snowfall will become "a very rare and exciting event".
(dentro de unos pocos años las nevadas en invierno se volverán un acontecimiento raro y emocionante)
y también:
“Children just aren't going to know what snow is"
(los niños ya no van a saber lo que es la nieve) (enlace aquí)
Los últimos dos inviernos en Inglaterra han sido extraordinariamente nivosos, y este invierno promete ser el más nevado de los últimos años a tenor de cómo ha caído en diciembre este meteoro.
Si añadimos a esto la falta de calentamiento global en estos diez últimos años a pesar de las predicciones del IPCC, la fiabilidad de estas agencias a largo plazo es:
CERO
Visto lo cual, solo se puede concluir que, quien aún así crea en los pronósticos a muy largo plazo, digamos a 50 ó 100 años de estas agencias, o es un ignorante o le gusta que le engañen.

Foto de Nieve en Londres:
http://www.jornada.unam.mx/2009/02/03/fotos/portada.jpg

sábado, 23 de octubre de 2010

correlacion entre CO2 y temperatura 3

En las anteriores entradas vimos que el CO2 no se correlaciona en absoluto con la temperatura a escalas de tiempo de millones de años pero, ¿qué pasa con las escalas de tiempo menores?...
Que sí se correlaciona.
-Excelente! (dirán los alarmistas) Por fin los científicos nos dan la razón en algo.
-Bueno, en realidad no
Porque sí, se correlaciona, pero no como esperaban los promotores del calentamiento antropogénico sino completamente al revés:
El CO2 sube y baja casi siempre acompañando las subidas y bajadas de temperatura en el último medio millón de años, según los núcleos de hielo de Groenlandia y la Antártida, pero no al mismo tiempo sino una media de 800 años después.
Y no es un solo estudio el que lo afirma así sino todos, aunque lógicamente, según el método empleado, se obtienen resultados distintos, y el retraso en la reacción del CO2 a la temperatura varía según diferentes autores entre 200 y 5.000 años (ver tabla).

De todas formas, la correlación no es perfecta y hay momentos en que es inexistente, como al final del penúltimo interglacial, el Eemiense, hace 120.000 años, cuando la temperatura comenzó a bajar y, por miles de años, el CO2 se obstinaba en no hacerlo.

Es curioso cómo intentan los alarmistas ocultar esta evidente prueba de que es la temperatura la causa de las subidas y bajadas del CO2 y no al contrario: dicen que, a pesar de que las glaciaciones y desglaciaciones comienzan antes de que suba o baje el CO2, este gas amplifica el efecto. La pregunta que surge es:
Entonces, ¿qué produce el aumento o disminución de la temperatura los primeros 800 años?
No saben. No contestan.

Referencias:
Center for Science and Public Policy. Pre-Iindustrial Atmospheric CO2 And Proxy Air and Sea Surface Temperature Data Provide No Evidence That Changes in CO2 Drive Changes in Temperature.scienceandpolicy.org & Center for the Study of Carbon Dioxide and Global Change: www.co2science.org

jueves, 14 de octubre de 2010

Correlación entre CO2 y temperatura (2)

En la anterior entrada vimos que, a escalas de tiempo de cientos de millones de años, no hay correlación entre el CO2 y la temperatura. Otros trabajos para intentar correlacionar estos dos parámetros a escalas de tiempo algo más cortas (decenas de millones de años) tampoco dejan bien parada la hipótesis del CO2 como conductor del clima de la Tierra. Por ejemplo, Pagani et al. (2005) investigan más profundamente un período algo más cercano en el tiempo: de -43 Ma hasta -5 Ma. Basándose en las concentraciones isotópicas del oxígeno.

En la figura se ve el gráfico que aparece en su trabajo. En él se observan las concentraciones de CO2 (línea ancha de colores) y temperatura (línea negra) durante la última parte de la Era Terciaria, desde hace unos 50 millones de años hasta el presente.
Como se puede apreciar en este gráfico, los autores:
1º) No encuentran correlación entre -43 y -34 millones de años, cuando se produce un suave declive de las temperaturas y fuertes oscilaciones de CO2 entre 2.200 y 800 ppm (el CO2 es la línea roja)
2º) Entre -34 y -33 millones de años encuentran una fuerte caída de las temperaturas y aumento al mismo tiempo de CO2 (inicio de la línea verde).
3º) Entre -33 y -26 millones de años hay poco cambio en las temperaturas y fuerte caída del CO2 (final de la línea verde).
4º) Entre -26 y -24 millones de años hay fuerte subida de temperaturas y ligera caída de CO2 (línea amarilla)
5º) Por último, entre -24 y -5 millones de años encuentran gran variación de temperatura y poca o ninguna variación de CO2 (línea azul).

Conclusión:Tampoco parece que haya correlación temperatura-CO2 a escalas de decenas o unidades de millón de años.

Referencias:
Pagani, M., Zachos, J.C., Freeman, K.H., Tipple, B. and Bohaty, S. 2005. Marked decline in atmospheric carbon dioxide concentrations during the Paleogene. Science 309: 600-603.

miércoles, 6 de octubre de 2010

Correlación entre CO2 y temperatura (1)

Una de las bases principales en las que se asienta la hipótesis del calentamiento antropogénico es la afirmación de que hay una estrecha correlación entre las subidas y bajadas de la concentración de CO2 en la atmósfera y los movimientos hacia arriba o hacia abajo de la temperatura. Desde el punto de vista de los alarmistas, esto es una prueba incontestable y Al Gore lo destaca en su documental y su libro.
Los críticos, en cambio, afirman que durante la mayoría de la historia geológica de la Tierra no se da esa correlación y en las ocasiones en que se produce, es la temperatura la que conduce el comportamiento del CO2 y no al revés.
Es importante señalar aquí que, si aplicamos los principios de la lógica, correlación no prueba causalidad, es decir, que dos sucesos ocurran simultáneamente en el tiempo no quiere decir que uno sea causa de otro. Por ejemplo, si estoy cantando una melodía de forma, digamos, poco armoniosa y se pone a llover, que los dos sucesos ocurran simultáneamente o uno inmediatamente después que el otro no quiere decir que mi mala interpretación musical haya producido la lluvia (aunque haya mucha gente, o incluso la mayoría de la gente, que lo crea así).
Cuando de verdad existe causalidad, es decir, cuando la correlación se da porque un fenómeno depende del otro, hay que averiguar cuál es la causa y cuál es el efecto.Hay bastantes artículos científicos que abordan la relación entre temperatura y CO2 a lo largo de diferentes eras geológicas. Entre los que van más lejos en el pasado encontramos el de Rothman (2002). (Figura: registro de la concentración atmosférica de CO2 según Rothman (2002) adaptado por Science and public policy y CO2 Science. En la escala de la izquierda, 1 es la concentración actual de CO2)
Este autor utiliza para su estudio mediciones de la erosión química de las rocas, de la desgasificación volcánica y metamórfica, del entierro del carbono orgánico, y también del contenido isotópico de carbono orgánico y estroncio en rocas sedimentarias marinas.
En su estudio encuentra concentraciones de CO2 atmosférico de 2 a 4 veces superiores a las actuales (actualmente hay unas 385 partes por millón, o ppm), con grandes oscilaciones periódicas cada 100 millones de años aproximadamente, entre 500 y 175 millones de años antes del presente.
A partir de ese momento aparece un declive, al principio más lento y luego más rápido hasta nuestros días.
En resumen, como se ve en la imagen, la correlación no existe, apareciendo incluso varios periodos fríos, como el final del ordovícico, el pérmico y el jurásico, donde se sitúan valores máximos de CO2.

Artículo de Rothman (2002)