sábado, 31 de diciembre de 2011

¿Hay otras soluciones al cambio climático?


En la propaganda que nos cuelan un día sí y otro también las diversas instituciones que promueven la teoría del cambio climático de origen humano, está de moda ahora incidir sobre el aumento de catástrofes naturales supuestamente extraordinarias que éste produce (incendios forestales, inundaciones, olas de frío y de calor, nevadas etc.), para, a continuación ofrecernos su solución: reducir emisiones de algunos gases de efecto invernadero (digo algunos porque no se incluye nunca al más importante de todos, el vapor de agua), en especial el CO2.
Para reforzar el mensaje, se nos amenaza con el riesgo que supone el no hacerlo ya, inmediatamente, no sea que superemos el umbral mas allá del cual no hay arreglo posible, umbral que, dicho sea de paso, cada vez cambian de fecha: primero dijeron 2008, para a continuación pegarle una patada adelante a la bola y señalar el 2011, ahora nos lo fijan para el 2016 o 2020…
Nos dicen que la suya es la única solución posible, que no hay alternativas, pero ellos saben perfectamente que:

1. Sí hay otras soluciones posibles
2. Estas otras soluciones son mucho más baratas
3. Y sobre todo, la teoría en que se basan no está respaldada por las observaciones del mundo real, antes al contrario, ha sido desmentida ya por cada vez más numerosas contradicciones y divergencias entre los datos observados realmente y los esperados (aquí la última ) aplicando los modelos matemáticos de ordenador que la utilizan como base.

Veamos algunas de estas soluciones:
Ellos suponen que los desastres vienen por el excesivo calentamiento del planeta, ¿no?
Bueno, pues una de las posibles soluciones sería enfriar la Tierra mediante geoingeniería: se han propuesto numerosas actuaciones posibles: pintar calles, carreteras y tejados con pintura blanca para aumentar la reflectividad de la superficie disminuyendo así la absorción de energía solar, poner en órbita paneles que reflejen luz solar y nos den sombra, sembrar de hierro la superficie de los océanos para que aumente la población de algas del fitoplancton que absorban el CO2, etc.
Está claro que poner en práctica estas soluciones requeriría realizar muchas pruebas y superar muchas dificultades pero también está claro que todas tienen un punto a su favor: nos saldrían más baratas, con una diferencia de varios órdenes de magnitud, que la depresión económica profunda que supondría para la humanidad suprimir o disminuir drásticamente la utilización de los llamados combustibles fósiles (ver aquí ).

Otra de las posibles soluciones sería mitigar el riesgo haciendo frente a los cambios que se pudieran producir. Los factores que habría que estudiar para ello, (según Calvo et al. 2009) serían tres:

1) La peligrosidad del evento, definida como la probabilidad de ocurrencia de un fenómeno cuya severidad lo hace potencialmente dañino en un lugar determinado y dentro de un intervalo de tiempo específico
2) La vulnerabilidad de la sociedad: es el grado de eficacia que tiene una sociedad para hacer frente a los cambios o adaptarse a ellos. La vulnerabilidad es menor cuanto más rica es una sociedad.
3) La exposición: es el total de personas y/o bienes expuestos a un determinado riesgo.

Actuando sobre cualquiera de estos factores o sobre todos a la vez, se puede reducir el daño que causan los eventos catastróficos de forma mucho más efectiva y barata que intentando cambiar el clima de toda la Tierra.
Un ejemplo de actuación sobre la exposición sería prohibir la construcción de viviendas y otros edificios en zonas inundables cercana a los ríos o en zonas al pie de laderas susceptibles de tener deslizamientos de tierras.
Un ejemplo de actuación sobre la vulnerabilidad sería crear o perfeccionar cuerpos de voluntarios de protección civil adiestrados para hacer frente a los desastres naturales carcterísticos de cada zona: terremotos en áreas sísmicas, inundaciones , aludes, etc.
Un ejemplo de actuación sobre la peligrosidad sería encargar estudios y mapas de riesgo que cuantifiquen los peligros característicos en cada zona, para poder priorizar la asignación de recursos a las áreas más susceptibles y optimizar las actuaciones necesarias.

Conclusión: Aunque nos creamos a los agoreros que pronostican un aumento de desastres naturales en un futuro próximo, hay muchas formas de luchar contra ello, siendo la más cara e inefectiva, a tenor de los resultados de las cumbres climáticas de la ONU, la que nos proponen los burócratas y espabilados que viven del cuento del cambio climático antropogénico. De todos modos, si yo tuviera que optar por una solución lo haría sin duda por la tercera, es decir, mitigar las catástrofes localmente allí donde ocurren por las siguientes razones:
En primer lugar porque es la más barata, está ya probada y es efectiva, y en segundo lugar, porque las catástrofes naturales van a seguir produciéndose sí o sí, aunque no se produzca ningún cambio en el clima, así que el dinero en ningún caso se desperdiciaría, cosa que sí podría pasar con las otras dos opciones, ya que:
En primer lugar las otras dos opciones son mucho más caras (en especial la de cambiar el clima), no están probadas y no se sabe si serían efectivas, y en segundo lugar, si la teoría es incorrecta (que lo es), se podría producir un enfriamiento del planeta, lo que causaría muchos más daños que el calentamiento, es decir, el remedio podría ser mucho peor que la enfermedad.
Referencias: Calvo, D. Molina, M.T.; Salvachúa, J. (2009) Ciencias de la Tierra y Medioambientales 2º Bachillerato. Ed. McGraw-Hill

domingo, 11 de diciembre de 2011

La hoja de ruta climática de la ONU en Durban según Monckton



Christopher Walter Monckton es un politico conservador británico, antiguo asesor de Margaret Thatcher, que se ha especializado en temas de cambio climático y es conocido por su gran conocimiento del tema y su postura en contra de las tesis oficiales de calentamiento global causado por el Hombre. Nos manda una crónica desde Durban, donde se celebra la convención climática anual de la ONU, destapando lo que no nos cuentan los medios de información de masas. Voy a intentar resumir sus principales conclusiones. (aquí el original en inglés):
En un documento de 138 páginas, los activistas climáticos exponen las siguientes acciones que pretenden que realicen los países que lo firmen:
1. Tribunal climático: Crear un tribunal climático internacional con poderes para obligar a los países occidentales a pagar enormes sumas de dinero en compensación por supuestas “deudas climáticas” con los países del tercer mundo. Por supuesto, ese tribunal no tendrá ningún poder sobre estos últimos, sólo afectará a los desarrollados.
2. Derechos de la “Madre Tierra”: Los países reconocerán y defenderán supuestos derechos de la Madre Tierra según los proponentes “para asegurar la armonía entre la humanidad y la naturaleza”
3. Derecho a sobrevivir: derecho de algunos grupos humanos supuestamente en peligro por la subida del nivel del mar (que no se está produciendo, de hecho lleva dos años bajando) y otros impactos derivados del cambio climático.
4. Guerras: las guerras y el mantenimiento de fuerzas de defensa, deben cesar (no se sabe muy bien a qué cuento ponen esto aquí, dado que no hay ninguna guerra actualmente por cuestiones climáticas).
5. Nueva meta de temperatura global: limitación de la temperatura global a 1 ºC por encima de los niveles preindustriales (como en los siglos inmediatamente anteriores a la era industrial estábamos en plena pequeña edad de hielo, la temperatura media global era 3 ºC más baja que la actual, esto significa que los proponentes quieren que la temperatura quede 2 ºC por debajo de la actual, es decir, más frío, ¡que es mucho más peligroso que el calor!)
6. Nueva meta de emisiones: -pero solo para países occidentales- con una reducción de emisiones de hasta el 50% en los próximos 8 años y ¡de más del 100%! para 2050 (es decir, no más gasolina, no más coches, no más aviones, no más trenes, no más barcos, no más gas en nuestras cocinas y calefacciones, etc., o sea, vuelta a la edad de piedra pero sin poder encender fuego en nuestras cuevas!)
7. Nueva meta de 300 ppmv (ppmv=partes por millón en volumen) de concentración de gases invernadero: como ahora estamos en 560 ppmv de gases (incluyendo las 390 ppmv de CO2 y el resto los otros gases en unidades equivalentes de CO2), esta meta significaría bajar a 210 ppmv de CO2 más 90 ppmv de los otros gases (lo que dificultaría a las plantas conseguir el CO2 necesario para sobrevivir, ya que por debajo de 150 ppmv las plantas mueren, el óptimo de la mayoría de los vegetales está por encima de 1.200 ppmv, así que la concentración de 210 ppmv está peligrosamente cerca del límite inferior de supervivencia de las plantas, por lo que su crecimiento y productividad menguaría con respecto a la actual. Resultado: menos comida y más hambre para el tercer mundo y para toda la biosfera).
8. El año tope para seguir aumentando emisiones: es este año, (por lo que deberíamos reducir emisiones en plena crisis económica).

Por último, señalar que Occidente pagaría todo, se habla de 100.000 millones de dólares anuales, dinero que administraría la ONU, por supuesto (el que parte y reparte…)

jueves, 8 de diciembre de 2011

Las cumbres climáticas: ¿científicas o políticas?


Es curioso cómo se trata el tema de las cumbres climáticas en los medios de comunicación españoles: mientras unos periódicos ponen la noticia en la sección “sociedad” como El País o el ABC, otros la incluyen en la sección “ciencia” como El Mundo y Público.
Las cumbres del clima empezaron siendo unas reuniones de unas 2.000 personas a mediados de los ’90 para pasar a ser megaconferencias con más de 20.000 representantes pertenecientes a 195 países. Pero no están solo los países: a estas reuniones van también representantes de las ONGs ambientalistas, o lo que es lo mismo, van grupos de presión, lobbys internacionales que, como todos los grupos de presión, apoyan sus intereses particulares.
Al decir del anterior responsable máximo de estas megacumbres, el holandés Yvo De Boer (ver aquí) “el cambio climático está tan relacionado con los intereses económicos que la negociación necesita empuje al máximo nivel” Y es por eso que convocaron hace dos años, en la cumbre climática de Coopenhague, a los presidentes de los países más poderosos del mundo. Lógicamente, cuando son los políticos los que negocian, se habla mucho de política y economía y poco (por no decir nada) de ciencia.
En la cumbre del año pasado en Cancun (México), unos estudiantes americanos pasaron un cuestionario de recogida de firmas a los asistentes para prohibir una pretendida sustancia letal: el “monóxido de dihidrógeno”. Según este cuestionario, la sustancia era mortal por inhalación, el componente principal de la lluvia ácida, su exceso producía miles de muertos al año etc. etc. Por supuesto, la inmensa mayoría de delegados firmaron la petición, sin percatarse de que estaban firmando que se prohibiera el agua (H2O, es decir, químicamente monóxido de dihidrógeno) lo cual demuestra que los delegados que van a esas cumbres no son precisamente científicos sino más bien políticos y funcionarios o empleados públicos, puestos a dedo en la mayoría de ocasiones, y que poco tienen que ver con la ciencia.

Entonces, ¿por qué algunos periódicos siguen incluyendo estos encuentros en la sección de ciencia?
En mi opinión la razón fundamental es que se está utilizando la ciencia para hacer descaradamente política.

Desgraciadamente, los acuerdos que se toman en esas cumbres, nos afectan a todos, ya que los esfuerzos económicos que implican son milmillonarios, perfectamente capaces de llevar a un país a la ruina si se hiciese caso de las pretensiones de algunos.
Por ejemplo, solo el coste de los derechos de emisión de CO2 en España, derivados del tratado de Kyoto será, según fuentes del Ministerio de Medio Ambiente, de 500 millones de euros a pagar por el sufrido contribuyente antes de 2014, siempre que no suba en el mercado el coste de la tonelada de CO2, que ahora está bajo mínimos, si esto sucede podría incluso doblarse.
Por otro lado, algunas empresas industriales se lucran vendiendo derechos de emisión de CO2 que les sobran debido al parón económico (ver aquí).
Y no hablemos ya del dispendio de las energías alternativas, que seguimos subvencionando con dinero público en plena crisis económica, lo que encarece el recibo de la luz (ya se habla de una nueva subida del 25% el año que viene) y hace perder competitividad a nuestras empresas. Mientras, nuestros principales competidores mundiales, al no estar sujetos a restricciones por no haber firmado el tratado de Kyoto (como Estados Unidos) o porque el mismo tratado los dejaba al margen (como Brasil, India y China), siguen produciendo bienes y servicios a precios baratos y emitiendo CO2 sin apenas restricciones.

De hecho, según la comisaria europea de Cambio Climático, Connie Hedegaard (ver aquí), los países que están dispuestos a firmar un nuevo tratado (el acuerdo de Kyoto termina el 2012) representan solo el 15% de las emisiones mundiales, ya que incluso se están descolgando países que lo firmaron anteriormente, como Canadá y el propio Japón.

Por último, hay que decir que estas conferencias son dudosamente democráticas, desde el momento en que están presentes las ONGs ambientalistas (en realidad multinacionales, muchas de ellas controladas por empresas petroleras) pero no otros grupos de presión, defensores de colectivos que se podrían ver también afectados: organizaciones de consumidores, sindicatos, empresarios, industrias no energéticas (que se ven afectadas por la subida de la energía) y, sí, también científicos no afectos al régimen , que los hay, y cada vez más, científicos que se ven sistemáticamente boicoteados, en sus publicaciones y aspiraciones de promoción profesional, por el lobby calentólogo y sus beneficiarios, que viven de la mamandurria del cambio climático, y que ven peligrar sus privilegios cuando se habla de ciencia de verdad.

martes, 22 de noviembre de 2011

Fenómenos extremos, el ultimo refugio alarmista


Parece que a los alarmistas ya no les queda sino recurrir a los desastres locales para seguir metiendo miedo. Ahora se descuelgan los James Hansen y compañía (ver aquí) intentando atemorizar al personal con las olas de calor que ocurrieron últimamente en Rusia y Texas, olvidando que fenómenos extremos se producen todos los años, pero cada vez en un sitio diferente, y que la mayoría de ellos pasan desapercibidos porque, o bien no fueron registrados por ocurrir en lugares remotos, o bien se produjeron en sitios poblados pero hace más de 1-2 siglos (según los países, que es cuando empiezan a aparecer registros fiables.

Hay innumerables registros históricos de fenómenos extremos mucho más terribles que las últimas olas de calor, y con muchos más muertos (ver aquí, por ejemplo, un registro de huracanes durante el siglo XX). Por supuesto, los alarmistas no los citarán nunca, entre otras razones porque se produjeron lejos de los tiempos actuales (es decir, antes de 1950-1955, que son las fechas que los alarmistas designan como el comienzo de la preponderancia de la influencia humana en el clima por encima de las causas naturales) y, por tanto, incluso para ellos las causas son indudablemente naturales.

Es decir, los registros históricos de desastres son malos para la “causa” del calentamiento global, y digo causa en el sentido de “cruzada” o de “objetivo ideológico a alcanzar”, ya que eso es lo que muchos de ellos consideran que es, saltándose todas las reglas de la ciencia. Y si no me creen, observen (ver aquí) los e-mails que han aparecido en un servidor de Rusia, sin duda continuación de los famosos correos del “Climategate” aparecidos hace ahora dos años. No me ha dado tiempo de analizarlos con detenimiento, pero prometen.

¿Qué pasó con las alarmas de calentamiento global acelerado, subida del nivel del mar, aumento de huracanes etc. etc.? Parece que ya no les sirven. Quizás porque al gran público, poco a poco y a pesar de los esfuerzos en contra de los medios de “desinformación” masiva, le empiezan a llegar ya las noticias de que los huracanes no han aumentado (al contrario, han disminuido, ver aquí), de que el calentamiento global hace más de 12 años que paró y no tiene pinta de volver a remontar en una larga temporada, más bien al contrario (ver todos los registros globales aquí), y de que el nivel del mar no solo no sube, sino que lleva ya dos años bajando (ver aquí).

sábado, 5 de noviembre de 2011

Los orangutanes y los tigres en peligro por los biocombustibles


Leo en WUWT ( ver aquí) que según un estudio de la Universidad de Leicester, los cultivos de aceite de palma para fabricar Biodiésel emiten mucho más CO2 a la atmósfera de lo que se creía, hasta un 60% más que el CO2 que emitimos usando petróleo, lo que representa un serio revés para las políticas de fomento de estos combustibles basadas en el miedo al efecto invernadero del CO2, políticas que aplican la Unión Europea y otros países desarrollados haciendo creer a la población que esos productos son más “ecológicos” y con menos emisiones de CO2 que el petróleo y sus derivados.
Por si esto fuera poco, el incremento del área cultivada para estos fines se produce a base de cargarse la selva tropical en países como Indonesia, lo que produce una tremenda pérdida de biodiversidad y amenaza la existencia de especies en peligro de extinción como los orangutanes y el tigre de Sumatra
El aumento en la producción de CO2 está asociado a la descomposición de materia orgánica en las turberas que se emplean para estos cultivos: los microorganismos degradan la materia orgánica produciendo CO2 que se escapa a la atmósfera.
Conclusión:
Durante años nos han intentado vender el pretendido peligro del aumento del CO2 en la atmósfera para colarnos sus maravillosas y ecológicas soluciones al realmente inexistente problema, en forma de energías “limpias”, entendiendo como limpias aquellas que no emiten CO2 o que emiten menos que los combustibles fósiles. Ahora resulta que es peor el remedio que la enfermedad: esas energías no son tan “limpias” después de todo. En realidad sí lo son, puesto que el aumento del CO2 es beneficioso para la vida vegetal. Pero lo que no son en modo alguno, debido la destrucción de las selvas tropicales que implican, es “ecológicas”.

jueves, 3 de noviembre de 2011

¿Es mucho siete mil millones de personas?


Ramón Pi, en un excelente artículo (ver aquí), nos demuestra que no.

Resumiendo, el artículo viene a decir que el planeta está casi vacío porque esos siete mil millones cabemos en un cuadrado de 84 kilómetros de lado a razón de un habitante por metro cuadrado y aún sobra sitio (en un cuadrado de 84 km de lado hay 7.056 millones de metros cuadrados) y que todo este ruido mediático del habitante nº siete mil millones, responde a una campaña de presión de la ONU contra los países pobres para obligarles a aceptar leyes de control de población, como esterilizaciones masivas, abortos y otras medidas anticonceptivas. Es decir, luchar contra la pobreza impidiendo que nazcan pobres, en lugar de sacarles del subdesarrollo mediante la mejora de las comunicaciones, la educación y la supresión de las dictaduras y tiranías que las asfixian y mantienen en su actual estado de postración y miseria.

Yo añadiría la cuestión de los alimentos: la ONU intenta alarmar a la gente con la teoría malthusiana de que se producirán hambrunas debido al crecimiento incontrolado de la población. La afirmación es claramente demagógica si tenemos en cuenta que, en contra de lo que pueda parecer, los países más densamente poblados del mundo no son la India ni China, sino Mónaco (con 17.300 habitantes por km2 y Singapur (más de 7.400 habitantes por km2) que no son países pobres precisamente, y quitado el caso de estos y otros mini estados, tenemos el ejemplo de los Países Bajos (Holanda) en Europa, uno de los países más ricos del mundo y con una densidad de 494 habitantes por km2 (China, por ejemplo tiene solo 141 y la India 395). Se da la circunstancia, además, de que los Países Bajos, a pesar de tener un territorio relativamente pequeño y en gran parte ganado al mar, poseen una de las mejores agriculturas de invernadero del mundo, con la que hacen la competencia a países muchísimo mejor situados geográficamente.
Lo que quiero decir con esto es que, utilizando las técnicas agrícolas disponibles hoy en día, con muy poco territorio se pueden producir enormes cantidades de alimentos y que, si la eficiencia agrícola holandesa se extendiera a todo el mundo, se podría producir comida para alimentar a una humanidad diez o más veces más numerosa que la actual. De hecho, ya se produce mucha más comida de la que se consume. En la Unión Europea, por ejemplo, los ganaderos españoles son multados si producen más leche de la que les está permitido, y se tiran a la basura cientos de toneladas de productos agrícolas para mantener artificialmente altos los precios de los alimentos.
El problema del hambre en el mundo no es el de la producción de más alimentos sino el de la imposible distribución de éstos debido a la situación política de los países pobres por el subdesarrollo al que condenan los tiranos a sus pueblos.

sábado, 22 de octubre de 2011

Verdades a medias sobre el Dr. Muller y el calentamiento global


Estos días se habla mucho en los medios de comunicación masivos de un científico, el Dr. Richard Muller (en la imagen), por las declaraciones efectuadas (ver aquí) a raíz de la publicación de un trabajo sobre registros de temperatura patrocinado por la Universidad de Berkeley llamado BEST (Berkeley Earth Surface Temperature) y del que él ha sido uno de sus principales científicos. En la jerga habitual cuando hablan del tema los medios, se dice que este señor, que antes se inclinaba hacia posiciones escépticas, luego de hacer el citado estudio con miles de datos de temperaturas de todo el mundo, ha cambiado de opinión y ahora está convencido de que existe el calentamiento global, y como corolario, invita a los escépticos a dejar de serlo definitivamente.

Pero esa no es la verdad. Al menos, no toda la verdad.

Como, desgraciadamente, pasa siempre con este tema, los periodistas amarillistas seleccionan una parte de las declaraciones de los científicos, la que favorece a sus intereses corporativos y a su línea editorial, y ocultan la parte que no les interesa. ¿Por qué digo esto?
Empecemos por las verdades:

Es cierto que el Dr. Muller ha coordinado un estudio sobre miles de datos de temperaturas utilizando varias colecciones de registros de temperaturas, como los americanos GISS y NCDC y el británico HadCRU. También es cierto que el Dr. Muller, basándose en su estudio, ha declarado que ha existido un calentamiento en el último medio siglo de cerca de 1ºC.
Eso es todo con respecto a la verdad publicada en titulares.
Lo que no dicen los medios de comunicación, en sus calentólogos cortes publicitarios, es que el Dr Muller también ha afirmado:

1. Que el registro de temperaturas en que se basa su estudio está incompleto, sobre todo en lo referente a los océanos (que, no lo olvidemos, cubren un 71% de la superficie terrestre)
2. Que el mencionado registro incluye graves errores y sesgos, citando el informe del meteorólogo Anthony Watts en donde se descubre que los registros de un 70% de las estaciones meteorológicas de Estados Unidos están contaminados por efectos como el de isla de calor urbano al ir creciendo las ciudades en que se ubican.
3. Que, como consecuencia, el margen de error de las estaciones es muy grande, tanto que es, al menos, tres veces mayor que el aumento estimado de las temperaturas (0,64ºC) que sostiene el IPCC que se ha producido.
4. Que el número de huracanes a los que se les ha puesto nombre ha crecido, pero que esto es en gran parte debido a una mejor detección de éstos en lugares remotos gracias a los satélites y las modernas boyas, ya que antes pasaban desapercibidos, lo que explica el por qué el número de huracanes que golpean América ha descendido.
5. Que lo mismo pasa con los tornados: se detectan más ahora debido a los radares pero el número de los que tocan suelo y hacen daño ha descendido.
6. Que la variabilidad a corto plazo en las temperaturas de Estados Unidos ha ido en descenso desde 1800, lo que sugiere un clima más estable.
7. Que, según su estudio, un tercio de las estaciones meteorológicas mundiales han registrado enfriamiento global y dos tercios calentamiento, (es decir, un porcentaje significativo muestra enfriamiento).

Como vemos, muchas de las afirmaciones del científico, están abiertamente en contra de los alarmismos de muchos políticos y medios de comunicación. Pero ahí no queda la cosa:

Si analizamos el trabajo de Muller, encontramos que los registros, aparentemente independientes, en los que se ha basado, no lo son en cuanto al origen de los datos sino en cuanto a la metodología para tratarlos, es decir, la estadística que se ha usado es distinta en las distintas fuentes de donde los ha extraído él, pero los registros propiamente dichos son los mismos,por tanto si están contaminados y son incompletos, el error que se extrae de ellos puede ser muy grande, dando pie a “cocinas estadísticas” es decir, “arreglos” más o menos sesgados con la excusa de mitigar los sesgos y rellenar los huecos, lo que explica por qué las curvas de temperatura son distintas según quién las publique.

Tampoco dicen los medios que, según donde coloquemos el inicio de una serie de datos de temperatura, el resultado final será un número u otro. Me explico:
Si comenzamos la serie en un año relativamente frío como fue el año 1945 y lo terminamos en un año relativamente cálido, como fue el 2010, la diferencia será mucho más grande que si empezamos solo 5 años antes, en 1940, que fue un año relativamente cálido, y terminamos en 2008, que fue un año relativamente frío.
Por supuesto, no se dice nada de los demás registros de temperatura, como los satelitales, mucho más fiables y completos al abarcar también los océanos. ¿Será porque no muestran tanto calentamiento?.

Por último, hay que decir que, al contrario de lo que se desprende de la propaganda oficial, la inmensa mayoría de los escépticos no niegan que se haya producido calentamiento global, ni siquiera que este calentamiento haya sido provocado en parte por el ser humano, lo que dicen es que este calentamiento ha ocurrido fundamentalmente por causas naturales, que no es necesariamente malo, y que el calentamiento producido por el hombre es solo una pequeña parte de él.

Para saber más:
Blog del estadístico Briggs
http://wmbriggs.com/blog/?p=4525
Best en WUWT
http://wattsupwiththat.com/2011/10/20/the-berkeley-earth-surface-temperature-project-puts-pr-before-peer-review/
Declaraciones de Muller:
http://online.wsj.com/article/SB10001424052970204422404576594872796327348.html#printMode

domingo, 16 de octubre de 2011

Supervolcanes y cambio global


A menudo oímos decir que el planeta está enfermo, que la polución, el cambio climático, el agotamiento de los recursos naturales, la contaminación acústica y lumínica, la pérdida de biodiversidad y otras lacras están “destruyendo la Tierra irreversiblemente”. Dicho esto, a continuación se señala al culpable: el Hombre. Pero no un ser humano cualquiera, no. El monstruo asesino es el hombre occidental, el urbanita del primer mundo, ése es el malo, el que está matando el planeta, con sus industrias y sus automóviles contaminantes.
La gente cree estas afirmaciones entre otras razones porque ha sido educada en la aceptación de que existe una verdad absoluta, revelada bien por los sacerdotes, en el caso de gente creyente, bien por los científicos, en el caso de gente agnóstica, y que esta verdad ya se conoce, al menos en sus rasgos fundamentales.
Pero no es así.
Al menos desde el punto de vista de la ciencia auténtica, la que emplea el método científico, los fenómenos que observamos a nivel global están poco o nada entendidos, y nos queda mucho camino y muchos experimentos por realizar para, siquiera, atisbar una pequeña parte del futuro más próximo de nuestro planeta.
Sin embargo algunas cosas sí sabemos.
Por ejemplo, sabemos que esos desastres que nos anuncian no son nada comparados con los desastres derivados de fenómenos naturales como los supervolcanes.
Un supervolcán (ver aquí) es un volcán que produce las mayores y más voluminosas erupciones de la Tierra. En realidad no es un término científico sino periodístico, pero se ha popularizado en los últimos años. Incluso los científicos lo emplean en referencia a erupciones que expulsen unas 50 veces la masa que expulsó el Krakatoa en su última erupción paroxística allá por 1883 (ver aquí).
En los últimos cientos de miles de años ha habido muchas erupciones de supervolcanes. Una de las más conocidas es la del Toba, en Indonesia, hace unos 70.000 años (ver aquí). Solo esta única erupción mató al menos al 60% de los seres humanos que entonces habitaban el planeta. Y no es de las más grandes. La erupción del supervolcán que hay en el Parque Nacional de Yellowstone en Estados unidos dejará pequeña la del Toba cuando se produzca. Y algunos científicos afirman que podría producirse en un futuro no muy lejano, debido a que la periodicidad que tiene este supervolcán es de unos 600.000 años y la última erupción se produjo hace ya 640.000 años.
Las erupciones de supervolcanes no son los únicos fenómenos naturales capaces de extinguir o, al menos diezmar de manera significativa a la humanidad. Otros peligros, como el choque de cometas o asteroides contra la Tierra también amenazan desde el espacio aunque éstos, teóricamente al menos, podrían ser desviados si se los detecta con la suficiente antelación.
Es curioso que los mismos que nos quieren hacer gastar cientos de miles de millones de dólares en intentar prevenir supuestos peligros artificiales como el calentamiento global, no mencionen los verdaderos peligros que amenazan la humanidad, que no son otros que los naturales, y regatean el dinero necesario para estudios más profundos sobre las causas que nos permitan, si no evitar las erupciones o los choques de cuerpos celestes, sí detectarlos a tiempo y estar preparados para paliarlos cuando ocurran.
Cuando empezaron las alarmas climáticas en los años 60, se habló de que con nuestros aerosoles estábamos causando enfriamiento global, luego el clima cambió y al enfriamiento le siguió una etapa de calentamiento, así que se dijo que estábamos provocando un calentamiento global con nuestro CO2. Cuando el calentamiento paró, allá por el año 1998, se dijo que causábamos un cambio climático, aumentando los fenómenos extremos. Últimamente se hablaba de un “cambio global” catastrófico, por supuesto causado por el Hombre, metiendo en el mismo saco las alarmas climáticas, la supuesta extinción masiva de especies, el agujero de la capa de ozono e incluso los tsunamis.
Por eso me ha sorprendido ver que, en las manifestaciones de indignados del 15 de octubre, uno de los eslóganes más repetidos fuera “por un cambio global”, en sentido positivo, por supuesto.

¡Qué poco duran los eslóganes últimamente!

miércoles, 12 de octubre de 2011

Volcanes submarinos y clima


Estamos asistiendo al nacimiento de un volcán en la isla de El Hierro, la más occidental de las islas Canarias (ver aquí). Se han producido ya las primeras erupciones. Es un acontecimiento extraordinario, entre otras cosas porque la última erupción en Canarias y en toda España, fue la del Volcán Teneguía (imagen de arriba) en la isla de La Palma, hace ya 40 años.
Se pueden ver fotos y reportajes de evacuados, unidades militares yendo de aquí para allá…
Pero no hay imágenes del volcán.
Y no las hay porque el volcán es submarino.
La mayoría de los volcanes de la Tierra son submarinos (ver aquí) y no se ven. Pero sus efectos podrían notarse más de lo que algunos están dispuestos a admitir.
Y es que existe una teoría que enlaza los movimientos del Sol alrededor del baricentro (el centro de gravedad del Sistema Solar) y la actividad volcánica: según Eduardo Ferreyra (2010), que cita estudios de la astrónoma checa Ivanka Charvatova, el sol describe dos patrones de movimientos alrededor de ese baricentro: en el patrón ordenado, dibuja una especie de trébol, y en el caótico, sus órbitas son desordenadas. Estos patrones se repiten de manera cíclica cada 178,7 años. La parte ordenada del ciclo dura unos 50 años, la útima ocurrió entre 1910 y 1960. Después de un periodo de transición, la parte caótica del ciclo empezó en 1990. Cuando el sol entra en la fase caótica, la actividad volcánica es mayor, tal y como ocurre en estos momentos con muchos volcanes en activo (recuérdese el año pasado el Eyjafjallajökull islandés, el Chaitén en Chile, el volcán de El Hierro actualmente, etc.)
De todas formas, como la mayoría de los volcanes son submarinos y sus erupciones pasan desapercibidas (si no están cerca de islas habitadas como las Canarias), es difícil establecer con precisión una estima de la actividad volcánica global y se hace indirectamente a través del velo de polvo de la atmósfera.
Queda por descubrir la conexión entre estos dos fenómenos, pero lo que está claro es la conexión entre la actividad volcánica y el clima: cuando aparecen fuertes erupciones volcánicas con emisiones de partículas que llegan a la estratosfera, como ocurrió en 1991 con el volcán Pinatubo en Filipinas, la temperatura global desciende por el efecto de sombrilla que ejercen las cenizas volcánicas.
El aumento de la actividad volcánica se añadiría a la débil actividad solar que se prevé para la segunda mitad de esta década, lo que provocaría un incremento del enfriamiento global, tal y como ocurrió durante el mínimo solar de Dalton, entre 1790 y 1830 con la erupción del volcán Tambora, en Indonesia, en abril de 1815.

Referencias: Ferreyra, E. (2010) Clima feroz. Lulu enterprises inc.

domingo, 2 de octubre de 2011

Más evidencia a favor de la conexión Sol-clima



El Sol, como casi todo en la Naturaleza, pasa por ciclos de mayor o menor actividad. El más conocido es el “Ciclo Solar” por antonomasia, que dura 11 años de media, pero se han descubierto otros de 22, 53, 88, 106, 213 y 420 años, y no es descartable que existan otros más largos aún como el de 1.500 años, que postulan algunos estudiosos del tema. Estos otros ciclos se superponen al ciclo de 11 años, haciéndolo más o menos fuerte y duradero.
El panel climático de científicos de la ONU (IPCC) - que, por cierto, se está descubriendo ahora (ver aquí) que está fuertemente infiltrado por activistas de organizaciones ecologistas como el WWF- ha intentado esconder el hecho de que el Sol es la estufa que calienta la Tierra, asignándole, en sus modelos climáticos, una importancia menor que la de los gases invernadero, especialmente el CO2. De hecho, el IPCC sólo tiene en cuenta los ciclos de 11 años, despreciando los demás, y aun en éstos, sólo se fija en un parámetro solar: la luminosidad total que es, curiosamente, el valor que menos varía durante el ciclo de 11 años, con una variación de entre el 0,10 y el 0,15 en los últimos ciclos. Pero, mal que les pese a los activistas pro-calentamiento antropogénico, hay otros parámetros solares que sí varían mucho durante el ciclo solar como los rayos ultravioleta (hasta un 30% de variación), los rayos X (hasta un 100%) y, por supuesto, también la actividad magnética, responsable de las manchas solares el viento solar y las erupciones solares que lanzan enormes cantidades de partículas cargadas al espacio, algunas de las cuales llegan a la Tierra produciendo las auroras polares.
Sobre este asunto, el profesor danés Henrik Svensmark elaboró, hace ya más de una década, una hipótesis sobre cómo pueden influir en el clima las emisiones solares, como el viento solar y las grandes erupciones de masa de la corona solar. Svensmark postula que la producción de nubes se ve afectada por la mayor o menor cantidad de rayos cósmicos que llegan a la Tierra. Estos rayos son partículas cargadas, procedentes de explosiones estelares de tipo supernova que ocurren en las estrellas en la última etapa de su vida, partículas que llegan a la Tierra constantemente, conocidas desde principios del siglo XX, pero de las que no se sabían sus efectos hasta ahora.
El Sol, en sus épocas más activas, mediante el viento solar y las erupciones de partículas, rechaza e impide el acceso de gran parte de estos rayos a la atmósfera. Por el contrario, cuando está en el mínimo del ciclo, la cantidad de rayos cósmicos que alcanzan la Tierra es muy superior. Si hay más rayos cósmicos, se incrementarán las nubes y el planeta se enfriará y si hay menos ocurrirá lo contrario.
La teoría ya fue puesta a prueba con éxito en un experimento realizado en 2007 en una cámara de burbujas de Coopenhage. Sin embargo, este experimento no podía controlar bien la cantidad de rayos cósmicos que se utilizaban, puesto que no tenían modo de producirlos y usaban los naturales, y no es fácilmente predecible qué cantidad exacta de éstos caerá en un momento dado. Este verano, sin embargo, por fin se realizó un experimento llamado CLOUD (nube en inglés) en el acelerador de partículas más grande del mundo, el del CERN de Ginebra. Este aparato sí puede producir rayos cósmicos artificiales, que pueden controlarse a voluntad e ir variando su cantidad para ver qué ocurre.
¿Y qué ocurrió? Pues que fue todo como Svensmark había predicho: se produjeron más núcleos de condensación de nubes cuantos más rayos cósmicos incidían (ver aquí).
La teoría está probada. El Sol afecta al clima por muchas más vías de las que los calentólogos del IPCC están dispuestos a admitir.
Esto se suma a los recientes estudios que confirman lo que ya se sabía por simple deducción, pero que los recalcitrantes miembros del panel climático de la ONU se negaban a admitir, esto es: que las nubes enfrían por el día más de lo que calientan por la noche, hasta 40 W/m2 más de enfriamiento en total (ver aquí) Es decir, cuantas más nubes, más se enfría el planeta.
Si uno entra a su casa en invierno y nota más calor o más frío del habitual, lo primero que hace es mirar qué le pasa a su estufa. Desde luego, lo que no hace es ponerse a analizar el aire a ver si hay más o menos CO2 (si lo hiciese seguramente le tacharíamos de loco).
El Sol es nuestra estufa. Deberíamos mirar a ver qué le ocurre más a menudo.

domingo, 25 de septiembre de 2011

El hielo del Ártico está aumentando!



Finales de septiembre. El otoño ya está aquí. Los calores estivales menguan y las lluvias enseñan la patita por debajo de la puerta.
El hielo flotante del Océano Ártico ha pasado su “tipping point”, su punto de inflexión anual y ya está aumentando, mal que les pese a algunos alarmistas. ¡Hay que ver qué tozudos son los ciclos naturales, todos los años se empeñan en cambiar el sentido de la tendencia: cada seis meses se invierte y pasa de bajar a subir en septiembre, y de subir a bajar en marzo!.
Pero, ¿no habíamos quedado en que el hielo del Ártico se estaba derritiendo , y que el derretimiento era “acelerado”?
Sí…pero no. Al igual que todos los años, el Océano Ártico comienza a acumular más hielo en septiembre. Este año, incluso más pronto que los últimos 3 ó 4 años, en que se había retrasado algo el inicio de la subida.
Y no, no ha habido récord de mínimo hielo. A pesar de las afirmaciones en contra de la Universidad de Bremen, la cantidad de hielo en el mínimo ha sido superior, en varios cientos de km2, que la cantidad mínima registrada en 2007, el año del récord (Récord que, sin embargo, es solo de los últimos 30 años, puesto que antes no se realizaban mediciones por satélite y no era posible establecer mediciones fiables). Al menos eso dicen las otras 4 organizaciones que miden el hielo, algunas muy calentólogas y nada sospechosas de querer “cocinar” estadísticamente los datos para aumentar la cantidad de hielo que hay realmente (más bien de lo contrario). Y es que el récord ya empieza a ser antiguo, 4 años tiene ya, y eso, la verdad, no cuadra muy bien con las afirmaciones “algorianas” de aceleración en el calentamiento.
Hay que recordar que el hielo es menos denso que el agua, así que, si se derritiese todo el hielo del Ártico durante el verano, el nivel del mar no subiría ni un milímetro, ya que ese hielo ya está flotando en el mar.
Es el mismo efecto que si se ponen unos cuantos cubitos de hielo en un vaso, se llena de agua hasta el borde y se deja que se vayan derritiendo los cubitos. No se preocupen, no les hará falta ningún trapo para coger el agua si realizan la experiencia, ya que ésta no rebasará el borde. Y no lo hará porque el hielo, al tener menos densidad que el agua líquida, ocupa más volumen para la misma masa, y al derretirse no incrementa la cantidad total de materia que hay en el vaso, únicamente aumenta su densidad, por lo que la misma masa cabe en menos espacio. Es como si el cubito encogiese hasta ocupar exactamente el volumen de su parte sumergida.
Así que no, aunque se derritiera todo el hielo algún verano, no pasaría nada. Y además, en otoño volvería a aparecer. De hecho, hay estudios (ver aquí la noticia en WUWT) que demuestran que, durante los últimos 10.000 años, ha habido periodos, como el llamado Óptimo Climático del Holoceno (entre hace 5.000 y 8.000 años) en que la extensión de hielo en el Ártico era mucho menor que la que se alcanza actualmente, hasta un 50% menor que la que se alcanzó el año del último récord, el 2007. Incluso se cree que, durante el interglaciar anterior, el Eemiense, hace unos 125.000 años, todo el Ártico quedaba libre de hielos en verano.
Y sin embargo, como ahora, en otoño volvía el hielo, fiel a su cita anual. Como las lluvias. Como el frío. Como volverán las alarmas de los calentólogos el próximo verano.
¡Qué tozudos son los ciclos naturales!

sábado, 17 de septiembre de 2011

Gusanos gigantes del Ordovícico


A principios de septiembre asistí al congreso bienal de la Real Sociedad Española de Historia Natural, dedicado esta vez preferentemente a la geología. En la excursión post-congreso, investigadores del CSIC (Consejo Superior de Investigaciones Científicas) nos llevaron al Parque Nacional de Cabañeros, en la provincia de Ciudad Real, a ver los espectaculares fósiles de gusanos gigantes del Ordovícico. En la foto de arriba, el Dr Gutiérrez Marco aparece señalando el fósil.
En realidad, no se ven los gusanos, sino solo sus icnofósiles, es decir, las pistas que dejaron al excavar galerías en los sedimentos del fondo marino donde vivían.
Estas galerías estaban reforzadas internamente por mucus y otras sustancias que depositaba el gusano, y que servían para endurecer la cavidad para que no colapsara. Cuando murió el animal, se rellenaron de sedimentos y quedaron así preservadas hasta hoy en día. Las galerías tienen una media de 20 cm de diámetro y los gusanos se estima que tuvieron una longitud de entre 1 y 3 metros y un grosor de entre 15 y 20 cm. Se han encontrado huellas de gusanos aún más grandes pero en periodos más recientes como el pérmico y el Jurásico, así que estas huellas son las más antiguas de gusanos gigantes que se han encontrado a nivel mundial, ya que vivieron hace la friolera de 475 millones de años.
Los gusanos vivieron buenos y cálidos tiempos, con el CO2 atmosférico entre 4.400 y 7.000 partes por millón (hoy está en 390 solamente) y temperaturas que en algunos lugares eran de 40 y 50ºC, aunque estos gusanos no lo disfrutarían, puesto que el territorio que hoy es la Península Ibérica, estaba situado muy cerca del polo sur y completamente sumergido.
Los gusanos vivieron su época dorada principalmente porque los sedimentos que se depositaban en los mares procedentes de los continentes eran muy abundantes, ya que las tierras emergidas no tenían aún vida vegetal.
En esas condiciones, la tierra desnuda se erosionaba muy rápidamente lo que producía que las plataformas continentales fueran extensísimas. Es decir, los sedimentos que llegaban al mar, se acumulaban cerca de la costa, formando mares de poco fondo que llegaban a tener miles de kilómetros de distancia desde el continente hasta el borde de la plataforma, donde empezaba ya el océano profundo, por unas pocas docenas de km en el mejor de los casos hoy en día.
Pero todo lo bueno se termina acabando y llegó el frío, en forma de una profunda glaciación, que irrumpió hacia finales del Ordovícico (hace 447 millones de años) extinguiendo a estos animales, junto con muchas otras especies.
Es en épocas cálidas cuando prospera la vida, incluso en los mares polares, y es la vida la que, de alguna manera, moldea la naturaleza en su beneficio: cuando aparecieron las plantas terrestres, moderaron la tasa de erosión del suelo pudiendo así prosperar más y mejor en el nuevo medio que habían conquistado.
Aquí la nota de prensa cuando se descubrieron los fósiles

jueves, 25 de agosto de 2011

La amenaza de la malaria en España


Una amenaza común en los reportajes alarmistas sobre el cambio climático es la expansión de la malaria a los países europeos desde sus áreas endémicas africanas. Dado que la malaria o paludismo es la enfermedad parasitaria que más muertos causa en la actualidad a nivel mundial, es una amenaza nada desdeñable que te mete rápidamente el miedo en el cuerpo.
Sin embargo, la malaria es una enfermedad que no se circunscribe solamente a los países tropicales, y en el pasado existía malaria endémica en regiones frías, incluso en ciudades cercanas al círculo polar ártico.
En España, la malaria o paludismo, como también se la conoce, fue una enfermedad endémica hasta los años 60 del siglo pasado, concretamente el último caso originado dentro del país ocurrió en 1961.
Sobre este tema, acaba de salir un estudio (Bueno Marí, 2011) en el Boletín de la Asociación Española de Entomología sobre mosquitos anofeles (imagen de arriba) en la Comunidad Valenciana (España), los vectores que transmiten el Plasmodium, el protozoo parásito responsable del paludismo(imagen de abajo).


En este estudio el autor indica que, hacia 1930, se produjeron tres acontecimientos que terminaron siendo determinantes para la erradicación de la malaria en España:
1º) la creación de dispensarios antipalúdicos
2º) el apoyo económico y científico por parte de la OMS (Organización Mundial de la Salud)
3º) el creciente asesoramiento técnico por parte de excelentes entomólogos
Es decir, la malaria se erradica en España durante el siglo XX no por una bajada de temperaturas, ya que de hecho subieron, sino por la mejora de las condiciones sanitarias de la población y por un mejor conocimiento de la biología de los mosquitos transmisores, lo que permitió la lucha activa contra ellos y la disminución de sus poblaciones, aunque nunca se llegó a erradicarlos.
Para el caso concreto de la Comunidad Valenciana, el autor encuentra hasta 9 especies de mosquitos del género Anopheles que podrían ser vectores del paludismo, aunque no todos con la misma eficacia, siendo más peligrosas las especies que viven cerca de asentamientos urbanos, como la especie Anopehles algeriensis, que se ha encontrado a un kilómetro escaso de la ciudad de Alicante. Curiosamente, en la zona de cultivo de arroz de los alrededores de la Albufera de Valencia, un lugar muy próximo a la ciudad de Valencia que fue una peligrosa zona palúdica hasta mediados del siglo XX, el autor constata que actualmente no hay tanto peligro debido a la elevada concentración de nitratos, herbicidas, fungicidas e insecticidas que hacen imposible la vida de las larvas de los mosquitos del género Anopheles, no así la de otros mosquitos, como los del género Culex, mejor adaptados a esas condiciones y abundantes en la zona pero que no son vectores del paludismo. Es decir, lo que nos salva a los valencianos del retorno del paludismo no es el clima sino los pesticidas.
Si bien es cierto que, en el estudio citado el autor rinde pleitesía al pensamiento dominante, y afirma que el cambio climático puede crear escenarios favorables para el desarrollo del vector (haciéndose eco de un estudio de Martens et al. de 1999), no lo es menos que todo en su trabajo corrobora que, como en el pasado, siguen existiendo actualmente en España los mosquitos y las condiciones climáticas adecuadas para el desarrollo de la enfermedad, y que si no se desarrolla y extiende, a pesar de la constante llegada de emigrantes y turistas infectados procedentes de países con malaria endémica (se cifran entre 300 y 400 casos anuales), es por la vigilancia sanitaria y el aislamiento de los enfermos. De hecho, ya se ha confirmado un caso en Huesca de transmisión autóctona, es decir, una persona que se infectó en España sin haber viajado al extranjero. Es un caso aislado, pero podrían aparecer otros, de ahí la importancia del mantenimiento de los excelentes niveles que actualmente ha alcanzado la sanidad española.

Conclusión: La malaria fue endémica en España en el pasado y sigue siendo una amenaza latente que, efectivamente, podría materializarse de nuevo en el futuro, pero no por el cambio climático, sino por una disminución de los niveles sanitarios debido a la crisis económica o por cualquier otra razón.

Referencias:
Bueno Marí, R. (2011) El anofelismo en la Comunidad Valenciana: un ejemplo de estudio del potencial malariogénico de España (Diptera, Culicidae). Boletín de la Asociación Española de Entomología, 35 (1-2): 47-83.

sábado, 30 de julio de 2011

Cimientos a remojo, ¿peligro inminente?

La subida del nivel del mar ha sido utilizada como una de las principales amenazas con que nos “alegran” la vida los alarmistas de siempre. En los años 1980 comenzaron diciendo que la subida iba a ser de varios metros en un siglo, hasta 6 m si creemos en Al Gore y su asesor científico James Hansen.
La mentira era de tal calibre que, poco a poco tuvieron que ir moderando sus apocalípticas predicciones, principalmente porque la tozuda realidad, al paso de los años, iba difiriendo cada vez más de sus apocalípticas profecías, y así, el IPCC de la ONU, donde se supone está la crème de la crème científica mundial (es falso, solo están los calentólogos y algún escéptico testimonial) pronosticaba, en 1990, un aumento máximo de hasta 3,6 m en un siglo; en 1995 ya la cifra menguó hasta 1,24 m; en 2001 la dejaron en 77 cm y, en el último informe de 2007, se quedó en 59 cm de subida máxima y 18 de mínima (según los diversos escenarios de emisiones de CO2 efectuados por la "malvada humanidad").
Como una subida tan pequeña no mete ya tanto miedo, hay que encontrar otro medio de seguir asustando a la gente con el nivel del mar y así, aparece la idea de los cimientos a remojo, invocada hace poco por nuestro eximio alarmista Antonio Ruíz de Elvira, (pinchar aquí) que nos intenta atemorizar con una enorme y terrorífica subida futura del mar de ¡10 cm!
El cuento es el siguiente: aunque el nivel del mar suba pocos centímetros, digamos diez, esta subida es suficiente para filtrarse por el subsuelo y socavar los cimientos de los edificios de todas las ciudades costeras del mund... perdón, del planeta. Así que ¡seguimos en peligro!, ¡ONU, sálvanos!
Ya lo dije antes, la realidad es muy tozuda y esta nueva amenaza es difícilmente vendible, sobre todo si uno se pasea por las ciudades costeras de países con turismo de sol y playa como España.
La imagen siguiente es de la playa del Acequión, en Torrevieja, ciudad turística de la Comunitat Valenciana, en el sureste de España.


Se aprecia que los edificios, la mayoría de 10 alturas, están a escasos metros de la orilla de la playa, en algunos casos menos de diez metros, y prácticamente con su base a muy pocos centímetros sobre el nivel del mar. Por tanto, sus cimientos están en su totalidad por debajo del nivel del mar, y siendo la costa arenosa y la roca del subsuelo de tipo arenisca porosa, al construirlos tuvieron que bombear el agua que se iba filtrando en el hueco.
Estos edificios tienen ya varias décadas, el más antiguo tiene más de 40 años, y no son una excepción, la mayoría de los edificios de primera línea de costa en las playas españolas están ya con sus cimientos a remojo.
Si tenemos en cuenta que el nivel del mar ha subido entre 20 y 30 cm durante el siglo XX, que la subida supuestamente se estaba acelerando a finales de siglo, y que ya llevamos más de 10 años del siglo XXI donde, se supone, el nivel del mar iba a crecer aún más deprisa, resulta que estos edificios ya han sufrido una subida de más de 10 cm del mar.
¿Les ha ocurrido algo por esa subida? ¿Han sufrido daños en sus cimientos?

No.

En realidad estos edificios no están en peligro por el cambio climático, están en peligro por la Ley de Costas española, que prohíbe edificar a menos de 100 m de la orilla del mar, aunque hay excepciones como las edificaciones realizadas anteriormente a la entrada en vigor de esta ley, excepciones que podrían ser revocadas en un futuro con ministros más radicales aún (todo es susceptible de empeorar).
Si desaparecen, no será por la fuerza de las olas, ya que están protegidos dentro de la rada del puerto, será, o bien por las leyes, o bien porque todas las cosas se hacen viejas, incluidos nosotros.
Tarde o temprano tendrán que derribarlos, pero no por el deterioro de sus cimientos, sino porque las viviendas que hay en ellos se irán deteriorando (y pasando de moda) con el paso de los años. Aquí cabe preguntarse: ¿cuántos edificios de viviendas de más de 100 años hay en pie actualmente en nuestras ciudades?

jueves, 28 de julio de 2011

En el sureste de la Península Ibérica tampoco sube el mar

En la anterior entrada vimos las costas del noroeste de la Península Ibérica. Por pura simetría, toca ahora revisar el sureste peninsular.
En las costas del sureste se produce el fenómeno contrario a las de Galicia, es decir, hay un levantamiento tectónico propiciado por la presión que ejerce la Placa Tectónica Africana al moverse hacia el norte y empujar la placa donde está situada la Península Ibérica, una subplaca de la más grande Placa Tectónica Europea. La velocidad a la que se desplazan estas placas es lentísima y solo se aprecian estos fenómenos a escalas temporales de miles de años.
La fotografía siguiente se tomó a principios del siglo XX, y corresponde al llamado muelle de las eras de la sal en la localidad alicantina de Torrevieja.


En este muelle, las barcazas que se aprecian en la foto, cargaban y descargaban mercancías, fundamentalmente sal de las Salinas de Torrevieja, y las llevaban a los barcos mercantes más grandes, como el que se ve al fondo, que no podían acercarse tanto a la costa al no haber sido construido aún el puerto actual.

Las Salinas son una antigua albufera abierta al mar Mediterráneo que, poco a poco, debido al levantamiento del terreno y a la sedimentación de los pequeños torrentes que desembocan en ella, se ha ido colmatando y aislando del mar, con el que solo se comunica actualmente por un pequeño canal, llamado acequión, abierto por la mano del hombre para, cada año, rellenar la laguna de agua salada, canal que se cierra después para que se evapore el agua y deje la sal en el fondo, ésta luego se extrae y se lleva a los barcos que la exportan a todo el mundo.
Hoy en día el proceso está mecanizado, y existe una cinta transportadora que lleva la sal directamente a los barcos que atracan en el puerto, pero a principios del siglo XX se hacía todo de forma manual. El muelle ha sido conservado y su caballete de madera restaurado recientemente como atracción turística, lo que se aprecia en la fotografía siguiente tomada por mí en julio de 2011


Como se ve, los sillares de piedra del muelle son los originales, y se ha reconstruido solo una baranda de piedra más clara en el borde, así como la superestructura de madera.
Desde luego, si ha habido un aumento del nivel del mar durante el siglo transcurrido desde que se tomó la primera imagen hasta la actualidad, éste no ha sido significativo en absoluto. Las barcas están donde estaban y podrían seguir cargando sal igual que hace cien años.
Igual que en la entrada anterior podemos concluir diciendo: si la subida del nivel del mar que supuestamente se produjo a lo largo de un siglo entero no ha causado daño alguno, ¿por qué iba a causarlo una subida de igual magnitud como la que el IPCC proyecta para finales del siglo actual?
Los alarmistas nos meten miedo con una subida del nivel del mar, pero la realidad es tozuda y nos demuestra que hay que desconfiar siempre de lo que dicen los agoreros apocalípticos y, sobre todo, no tener miedo si no es al propio miedo.

domingo, 24 de julio de 2011

La subida del nivel del mar no es tan amenazante, después de todo

Una de las amenazas más empleadas por aquellos que quieren hacernos creer que el cambio climático es cosa del hombre se refiere al aumento del nivel del mar.
La hipótesis que manejan los alarmistas, y que hemos comprado casi todos los ciudadanos de a pie, es que las cosas iban más o menos bien hasta que, durante el siglo XX y, especialmente, a partir de los años 50, las emisiones de CO2 de origen industrial comienzan a ser más importantes que los fenómenos naturales, como cambios en la actividad solar, ciclos oceánicos y demás. Como consecuencia, el calentamiento global comienza a derretir los glaciares y hielos polares y el nivel del mar comienza a subir. Estos científicos estiman que, durante el siglo XX, la subida media del nivel del mar fue de unos 20-30 cm, subida que sería desigual, mayor en las costas que tienen tendencia al hundimiento y menor en las que tienen tendencia al levantamiento.
Las costas del noroeste de la Península Ibérica tienen tendencia al hundimiento por causas naturales de tipo geológico, como lo atestigua el fenómeno de las rías, que aparecen como consecuencia de que el hundimiento de los valles de los ríos, cuando éstos llegan a la costa, es más rápido que la deposición de los sedimentos que transportan esos ríos en la desembocadura. Cuando se produce el fenómeno contrario, se produce un delta, pues los sedimentos se acumulan en la desembocadura.
Al hundirse el terreno, el mar penetra, en ocasiones varios kilómetros, por el valle del río formando un fiordo (en el caso de valles de origen glaciar) o una ría, ocasionando que el tramo final del valle del río se llene de agua salada.
En un viaje a Galicia, visitando el Museo de Bellas Artes de A Coruña, me encuentro con una pintura del puerto de esta bella ciudad gallega. Es obra del pintor Juan Martínez Abades y está fechada en 1897:

En ella se aprecia el Castillo de San Antón, situado en una isla a la entrada de la bahía. Actualmente, el castillo se encuentra unido a tierra por una pasarela. La imagen siguiente, de una postal turística, es de 1995:


Como vemos, el castillo está tan por encima de la superficie como estaba en 1897, 98 años atrás.
La imagen siguiente la tomé yo en julio de 2011:

Se aprecia peor, ya que los árboles del jardincito de delante han crecido desde 1995, pero aun así se ve claramente que no ha habido un aumento significativo del nivel del mar en los 114 años que han transcurrido desde que Juan Martínez Abades pintó el cuadro, ni siquiera en una costa de hundimiento como las gallegas.
La subida media del nivel del mar pronosticada por el IPCC de la ONU para 2100, es de entre 18 y 59 cm, es decir, de media aproximadamente igual a lo que, según ellos mismos, ha subido el mar desde finales del siglo XIX hasta el presente.
Si no ha habido ninguna consecuencia significativa con la subida producida durante el siglo XX, ni siquiera en costas de hundimiento, ¿por qué iba a haberla con la subida que se produzca durante el siglo XXI?

viernes, 10 de junio de 2011

Las bacterias asesinas y el calentamiento global


¿Qué tienen en común una infección alimentaria que causa diarrea hemorrágica grave y que hace enfermar a miles de personas matando a decenas de ellas, con la hipótesis del calentamiento global antropogénico?
Aparentemente, nada. En realidad, bastante:

El principio de precaución.

Según este principio, ampliamente usado por ecologistas, calentólogos y políticos de su cuerda, hay que ser muy cuidadosos con las nuevas tecnologías, porque no se saben sus efectos a largo plazo y podrían causar todo tipo de enfermedades incurables, en especial todo tipo de tumores y cánceres malignos.
Este es el principio invocado por organizaciones como la OMS y Greenpeace (esta última, por cierto, reciente ganadora del primer Premio Ruíz de Elvira al alarmismo sostenible) para alarmar, un día sí y otro también, con el calentamiento global o también, como ha pasado recientemente, con los teléfonos móviles, y pasó anteriormente con las líneas de alta tensión, el café, la sacarina, los pepinillos en vinagre y un largo etcétera de sustancias comunes y no tan comunes que han sido señaladas, culpabilizadas y demonizadas por estos “savonarolas” y “torquemadas” de nuestros días, siempre con escaso, por no decir nulo, fundamento científico, pero con gran éxito mediático por parte de la prensa amarillista, ávida en todo momento de sensacionalismo barato.
El principio de precaución suena razonable en la vida diaria, y todos hacemos uso de él alguna vez: si vemos que está muy nublado, antes de salir de casa cogemos el paraguas o el chubasquero por si acaso llueve.
Pero todo tiene su coste, y aunque sea poco, nadie coge el paraguas si ve que el día amanece despejado, por la molestia de llevarlo todo el rato encima.
Es decir, el principio de precaución es razonable cuando la probabilidad de que ocurra un evento es alta, y la molestia o el coste de las precauciones a adoptar no superan el coste de no adoptarlas y de que ocurra el evento en cuestión.
Desgraciadamente, los costes de las alarmas climáticas que son lanzadas una y otra vez por estas organizaciones son astronómicos, muy superiores a los beneficios de adoptar políticas mitigadoras de los posibles daños, en el dudoso caso de que al final se produjesen, como han demostrado economistas de la talla de Bjorn Lomborg (2008).
El caso de la intoxicación por una cepa virulenta de la bacteria E. coli en Alemania es también ejemplo de lo que acabo de afirmar: invocando el principio de precaución se lanzó la alarma contra los pepinos españoles con poco o nulo fundamento científico, a partir de unos análisis que ni siquiera se han mostrado claramente en público, y se tardó casi una semana en desmentir la acusación, con el resultado de enormes pérdidas económicas que han llevado al borde de la ruina a muchas empresas agrícolas españolas.
Al fin, tras 30 muertos y tres mil afectados, se ha encontrado el culpable: los brotes de soja procedentes de una granja “orgánica” alemana (ver aquí):
Más les valiera a estos alarmistas desinfectar bien sus muy ecológicas granjas orgánicas, exquisitamente sostenibles y amigables con el medio ambiente, pero sucias y enfermas, y dejar en paz a los agricultores normales y corrientes del sur que, como se ha demostrado, son mucho más limpios, eficientes y baratos que ellos.
Y es que siempre se ve la mota en el ojo ajeno, pero no la viga en el propio.
Referencias:
Lomborg, B. (2008). En frío. La guía del ecologista escéptico para el cambio climático. Ed. Espasa. Madrid,284 pp.

martes, 31 de mayo de 2011

Alemania en horas bajas


Una intoxicación alimentaria que ha causado ya 14 víctimas mortales y cientos de enfermos (hasta 1.200 según algunos) (ver aquí) sacude la todopoderosa nación teutona. La bacteria causante, Escherichia coli (en la imagen de arriba), es un microorganismo común en nuestro intestino grueso que presenta numerosas cepas o variantes, la mayoría inofensivas, pero algunas pueden llegar a producir diarreas hemorrágicas fatales, como se está viendo en Alemania. La epidemia en sí es grave, pero sería una noticia más si se hubiera producido en un país subdesarrollado. Lo extraordinario del hecho es que ocurra en un país plenamente desarrollado del corazón de la Europa próspera, un país que es, además, el motor económico del viejo continente, el que más pronto se ha recuperado de la reciente crisis económica mundial. La noticia se une a la declaración (ver aquí) de su primera ministra, Ángela Merkel, de que se van a ir cerrando progresivamente las 17 centrales nucleares que tiene el país, por lo que en un plazo de 11 años la energía nuclear será historia en Alemania, lo que les causará, indudablemente, un aumento de los costes de generación de electricidad, con la consiguiente pérdida de competitividad de sus productos industriales y más dependencia energética del exterior. ¿Qué está pasando en Alemania?
Desde luego que el análisis es complejo y difícil, pero todo apunta a una causa: el movimiento verde.
El movimiento medioambientalista viene demonizando, desde hace mucho tiempo (ver aquí), la industria, la agricultura moderna y casi toda otra forma de progreso como los móviles, los coches, toda clase de productos químicos y en general el modo de vida occidental como fuente de todos los males. Las soluciones, según estos nuevos ascetas, sería prescindir de todo producto industrial, cultivar cada uno sus propios alimentos, vivir en el campo “respetando el medio natural”, etc. En definitiva, volver al Neolítico o, incluso, al Paleolítico si hacemos caso de los que quieren suprimir la agricultura. Lo que implica también una reducción drástica de la población mundial, otro objetivo a conseguir.
La agenda de esta gente está clara y el procedimiento es sencillo. Ellos dicen: “Volvamos a lo orgánico”, -aunque eso signifique encarecimiento de los alimentos, posibles contaminaciones bacterianas (ver aquí y aquí), hambre y muertos-. “Saquemos energía del viento y del sol” -aunque eso signifique un encarecimiento tremendo de la energía que produzca un colapso industrial-
En definitiva: no más energía barata, no más comida barata
Para que la gente trague con el regreso al pasado, nada más útil y fácil que propagar el miedo, y se amenaza, por supuesto, con lo que la gente más teme: cáncer, guerras, huracanes, inundaciones, sequías, terremotos, tornados…
Y así, vemos que se ha acusado de producir cáncer, por supuesto, sin pruebas fiables, a casi cualquier sustancia química artificial, a radiaciones de todo tipo, a aparatos electrónicos como los móviles e incluso a los productos de la agricultura industrial; o que se acusa al progreso y la superpoblación de acabar con el agua y otros recursos naturales, lo que desencadenaría guerras; o que, en fin, se acusa a la industria y el transporte de producir CO2, lo que causaría desastres climáticos.
Todo ello basándose, la mayoría de las veces, en proyecciones de modelos informáticos que dicen lo que quiere el modelista que digan, exagerando y proyectando hacia el infinito tendencias reales o inventadas que, en la realidad, nunca se mantienen y que cambian de signo al cabo de pocos años porque son ciclos naturales o porque son modas pasajeras, o porque los países progresan y cambian, pasando a proteger el medio ambiente y a reparar los daños causados en épocas anteriores.
Alemania es un gran país, con muchos recursos materiales y humanos, así que todavía hay esperanzas. Esperemos no seguir su ejemplo.

miércoles, 25 de mayo de 2011

Más apoyo a la teoría de los rayos cósmicos


La teoría de los rayos cósmicos como formadores de nubes fue enunciada en los años ‘90 por el científico danés Henrik Svensmark y su colega Friis-Kristensen (Svensmark & Friis-Kristensen, 1997). Esta teoría resolvía la paradoja de cómo la poca variabilidad de la irradiación solar total podía tener tanto efecto en el clima como mostraban los gráficos cuando se acoplaban las anomalías de la temperatura global con los ciclos solares.
Quizás era demasiado fantástica, demasiado galáctica para ser cierta, así que muchos renombrados climatólogos, en especial los comprometidos con la teoría del calentamiento antropogénico, pero también muchos escépticos, la rechazaron o, por lo menos, la pusieron en “stand by” a la espera de comprobaciones posteriores.
Ahora ha recibido un nuevo apoyo de un científico que hasta ahora parecía ignorarla: nada menos que el Dr. Roy Spencer (ver aquí), el mismo que, junto con John Christy, confecciona las gráficas de temperatura global que edita la Universidad de Alabama, es decir, un científico de referencia mundial en el asunto del cambio climático. Spencer ha efectuado un estudio (aún sin publicar de una manera formal) con datos recogidos por el satélite CERES durante los últimos 10 años (de 2000 a 2010) sobre luz solar reflejada y luz infrarroja emitida por la Tierra. Estos datos los ha combinado con otros sobre rayos cósmicos recogidos en Moscú durante las mismas fechas. Después de múltiples cálculos y comparaciones, el Dr. Spencer llega a la conclusión de que los rayos cósmicos están bien correlacionados con el aumento o disminución de nubes bajas, es decir, a más rayos cósmicos, más nubes que reflejan el sol, con el consiguiente enfriamiento de la Tierra, la misma conclusión a la que llega Svensmark en su teoría.
En números, el efecto neto sería una pérdida de energía entrante al sistema climático de 0,55 vatios por metro cuadrado por cada 1.000 unidades de rayos cósmicos que llegan a la Tierra.
El Sol, mediante el viento solar, influye en la cantidad de rayos cósmicos que llegan a la Tierra. Como la intensidad del viento solar varía ampliamente por los ciclos solares, durante un ciclo solar típico de 11 años, se debería sumar la influencia directa sobre el clima de la variación en la irradiación solar total (el único efecto del sol que reconocen los ortodoxos) y la influencia indirecta sobre los rayos cósmicos que tiene el sol al impedir la llegada de estos rayos cuando está más activo, siendo la influencia indirecta hasta 2,8 veces superior a la directa. Las dos juntas representan, pues, una influencia solar mucho mayor que la reconocida por los científicos oficialistas del IPCC de la ONU, empeñados como están en minimizar las causas naturales de variabilidad climática y poner énfasis en la influencia humana.
Spencer al final le quita importancia señalando que esto es solo una influencia más de las muchas que tiene el sistema climático, pero no cabe duda de que la teoría de Svensmark sale muy reforzada con este nuevo estudio.

Referencias:
Svensmark, H. & Friis-Kristensen, E. 1997. Variation of Cosmic Ray Flux and Global Cloud Coverage-a Missing Link. J. Atmos & Solar-Terrest. Phys. 59:1225-1232.

martes, 17 de mayo de 2011

¿Está causando un genocidio la doctrina del calentamiento antropogénico?


Así parece creerlo el geofísico canadiense Norm Kalmanovich, basándose en el encarecimiento de las cosechas provocado por el desvío para combustibles de una parte importante de los alimentos básicos de la población mundial como son los cereales (en la imagen, un campo de arroz). Según este científico, el 6,5% de los cereales del mundo están siendo utilizados para producir 85.000 millones de litros de bioetanol siguiendo los acuerdos del protocolo de Kyoto, que impulsa estas medidas basándose en la teoría del calentamiento antropogénico producido por el consumo de combustibles fósiles.
Kalmanovich parte de la constatación de un hecho: las medidas de la radiación infrarroja saliente hacia el espacio que vienen efectuando los satélites desde 1979. Estas medidas, según sus palabras:
demonstrate that OLR is responding strictly to the fourth power of the Earth’s absolute temperature in perfect accordance to basic physics theory, but is in no way responding to the 57.1% increase in CO2 emissions from fossil fuels since 1979
traducción: demuestran que la OLR (Outgoing longwave radiation = radiación de onda larga saliente) está respondiendo estrictamente a la cuarta potencia de la temperatura absoluta de la Tierra en perfecto acuerdo con la teoría física básica, pero en absoluto respondiendo al 51% de incremento en las emisiones de CO2 procedentes de combustibles fósiles desde 1979.

Resulta que el principio básico, la clave de bóveda que sujeta la teoría en la que se basan los creyentes en el calentamiento antropogénico, es el incremento del efecto invernadero que provocaría un aumento del CO2 en la atmósfera proveniente de la quema de los combustibles fósiles. Para que este efecto se produzca, es necesario que el CO2 extra que emitimos los humanos atrape cada vez más radiación infrarroja (de onda larga) emitida por la Tierra. Lo que los satélites observan, sin embargo, es que la emisión infrarroja que emite la Tierra hacia el espacio, no está siendo atrapada en mayor cantidad a medida que suben las emisiones de CO2 (y han subido nada menos que un 51% desde 1979), lo que echa por tierra toda la teoría del calentamiento catastrófico producido por el malvado ser humano.
Un encarecimiento de un 20 ó un 30% en el precio del trigo o del arroz es solo un leve inconveniente para los habitantes de los países ricos, pero puede significar la diferencia entre la vida y la muerte (por hambre, o por enfermedades asociadas a ella) en los países más pobres.
Kalmanovich es un científico semirretirado y, por tanto, sin miedo a perder su puesto de trabajo o a quedarse sin ayuda para sus proyectos científicos. Desgraciadamente, los científicos más jóvenes no están en su misma situación. Y no lo reprocho. No se puede exigir heroísmo cuando tu trabajo está en juego.
Más información aquí.

sábado, 7 de mayo de 2011

El erizo y la acidificación marina


En periodismo se oye decir a menudo aquello de que “¿No hay noticias?: buenas noticias”
Esto se cumple a rajatabla con el alarmismo climático y así, periódicamente, nos encontramos con noticias sobre tal o cual científico que declara su preocupación por tal o cual especie marina amenazada por la “acidificación del mar producida –cómo no- por nuestras emisiones de CO2 a la atmósfera”: que si las especies con conchas y caparazones calcáreos no podrán fabricarlos ya, que si las larvas del plancton morirán por exceso de acidez, etc., etc.

El erizo de mar común, Paracentrotus lividus (del latín lividus = amoratado, cárdeno, lila) es una especie con caparazón calcáreo y larvas planctónicas que se encuentra en todo el Mediterráneo y en las costas del Atlántico desde Irlanda y Escocia por el norte, hasta las Islas Canarias por el sur. Vive en sustratos rocosos, donde excava depresiones para evitar ser arrastrado por olas y corrientes. Se alimenta de algas, actuando de control sobre varias especies de éstas.
Y es comestible. Sus huevas (gónadas del macho y de la hembra) son un manjar muy apreciado, sobre todo en Francia, aunque también se consume en España, Portugal, Italia, Grecia...
Por tanto es una especie de importancia comercial, así que hay dinero para hacer estudios sobre él.

En uno de estos estudios, un equipo de 11 científicos, la mayoría franceses, (Martin et al, 2011) han estudiado el posible efecto sobre las larvas de erizo de mar común de un aumento de la acidificación marina. En concreto, se hizo crecer larvas de erizo en aguas con diferentes grados de pH (entre 8,1 y 7,0 (el agua de mar tiene un pH por lo general superior a 8). La banda más baja (pH: 7,0) correspondería a una concentración atmosférica de 6.630 ppm de CO2, es decir, 17 veces la concentración actual, y la más alta (pH: 8,1) a una concentración de CO2 atmosférico de unas 400 ppm, es decir, similar a la actual. Pues bien, Paracentrotus lividus, incluso con el pH más bajo, no tuvo ningún problema con la puesta y fertilización de sus huevos, y las larvas que salieron de ellos tampoco experimentaron una mortalidad superior a la normal , ni tampoco el pH bajo supuso un impedimento para la fabricación del esqueleto calcáreo. Las larvas únicamente sufrieron un leve retraso en su crecimiento. Los autores atribuyen este hecho a la gran plasticidad genética de estos erizos, que son capaces de poner en funcionamiento genes capaces de contrarrestar la variación de las condiciones ambientales a las que los sometieron los investigadores.

Es una buena noticia, los animales marinos no son tan frágiles ni están tan desvalidos frente al cambio climático como se creía.
Por eso no saldrá en la Prensa.
Por eso la difundo yo

domingo, 1 de mayo de 2011

Incertidumbres, satélites y modelos climáticos


En la escuela nos hacen aprender datos y medidas: la Tierra tiene 6.378 km de radio, la Luna está a 384.400 km de la Tierra, el Everest tiene 8.848 m de altura... Son cifras que parecen sólidas, firmes, matemáticamente exactas.

¿Son correctas? Quizás. Siempre y cuando no tengamos en cuenta los errores.

Porque en la escuela no nos hablan casi nunca de los errores, de las inexactitudes, de las dificultades que se tienen para realizar mediciones precisas. Y no digamos cuando estas magnitudes son estimaciones, medias estadísticas de fenómenos como la influencia de la irradiación solar, la de los gases de efecto invernadero o la de los aerosoles en el clima.
Las mediciones, en buena praxis científica, deben siempre ir acompañadas de márgenes de error, aunque sólo sea porque todo en este mundo es perfectible, y las mediciones no son una excepción, al contrario, dependen muchísimo no solo de quién las realice (con toda la carga subjetiva e ideológica que todos y cada uno llevamos dentro, algunos más que otros por supuesto) sino también de los instrumentos con los que se efectúan, que no siempre, mejor dicho, nunca son perfectos.
Así que no es de extrañar que, cuando se lee un artículo científico realmente serio, es decir, escrito en una revista científica para otros científicos igualmente serios, no se escatimen frases como: “conocemos aún muy poco de ... (la cuestión que sea)” o “para establecer resultados concluyentes (o más exactos) es necesaria una más profunda y extensa investigación”
Sin embargo, cuando nos encontramos con las reseñas de estos mismos artículos en la prensa o en documentales y programas de divulgación, la frase que aparece es: "los científicos afirman ... (tal o tal cosa)". Desaparece toda mención a las incertidumbres, posibles errores o cosas que aún ignoramos, apareciendo en su lugar afirmaciones tajantes, categóricas, excluyentes de cualquier discrepancia o posible crítica.
Por supuesto, no todos los periodistas son así. Y tampoco todos los asuntos son tratados igual. El asunto del clima, al ser uno de los más politizados, sin embargo, es de los peores en ese aspecto: abundan las descalificaciones salvajes a los críticos del pensamiento único calentólogo y las demonizaciones de otras teorías distintas a la oficial.
Por eso es tan raro ver un artículo (pinchar aquí) como el de Mishchenko et al. (2007) (al que llego siguiendo a Willis Eschenbach en WUWT, ver aquí) reconociendo que existen esas incertidumbres en asuntos climáticos:
Although the climate effects of solar variability and aerosols are believed to be nearly comparable to those of the greenhouse gases (GHGs; such as carbon dioxide and methane), they remain poorly quantified and may represent the largest uncertainty regarding climate change”.
(Aunque los efectos climáticos de la variabilidad solar y los aerosoles se cree que son casi comparables a los de los gases invernadero (tales como dióxido de carbono y metano), están mal cuantificados y pueden representar la incertidumbre más grande al considerar el cambio climático)

Y no solo existen, son muy grandes:

…the current uncertainties in the TSI and aerosol forcings are so large that they preclude meaningful climate model evaluation by comparison with observed global temperature change
Es decir, “las incertidumbres en TSI (irradiación solar total) y aerosoles son tan grandes que excluyen una evaluación significativa de los modelos climáticos por comparación con el cambio observado de temperatura global”
Y es que hay una única ocasión en que estas incertidumbres suelen salir a la luz pública: cuando se trata de conseguir y justificar fondos de dinero público para una nueva y carísima investigación, que dará fama y dinero a los científicos en cuestión. En 2007 Mishchenko et al. intentaban justificar, con ese artículo, la misión Glory, que consistía en poner en órbita un satélite de la NASA para medir la irradiación solar y los aerosoles.
Desgraciadamente, el satélite ha fallado y no ha podido entrar en órbita, así que seguiremos teniendo esas incertidumbres y los científicos oficiales excusa para decir que los modelos aún pueden resultar correctos, a pesar de que cada vez sus predicciones se alejan más y más de la realidad observada.

Eso sí, mientras tanto, la opinión pública permanece en la ignorancia y creyendo que los sabios científicos de la NASA lo saben todo sobre el cambio climático.