Mostrando entradas con la etiqueta clima. Mostrar todas las entradas
Mostrando entradas con la etiqueta clima. Mostrar todas las entradas

25 febrero 2010

Lluvias, inundaciones y embalses

Llueve en España desde hace semanas. Enero ha recogido una media de 95 litros por metro cuadrado, lo cual puede parecer modesto pero es un 45% más de la media 1970-2000. Esa media también oculta la variabilidad sobre el territorio porque un porcentaje relevante del mismo ha recibido más del doble de la media mientras que en algunas zonas como Cataluña y Galicia ha llovido entre un 50 y un 75% de lo normal.
Las consecuencias han sido buenas y malas. Sobre las últimas hay que mencionar amplias zonas inundadas en el Sur, con graves daños en las propiedades aunque sin afortunadamente sin muertes. Y digo "afortunadamente" con intención porque en España se ha ignorado que los ríos crecen de vez en cuando y se ha construído en "zona inundable" desde hace décadas. Misterios del urbanismo actual, supongo.
Las buenas consecuencias son que con estas lluvias se cierra un periodo irregular, con altibajos, pero durante el cual las reservas en los embalses iban disminuyendo poco a poco, incluyendo alarmas de desabastecimiento como la de Barcelona de hace tres o cuatro años.


Esta imagen muestra parte del embalse de Orellana, en Extremadura (España). Las aguas profundas aparecen negras, las someras en verde, la vegetación en rojo y las zonas sin ella en azul. Pulsar encima para ampliar.

En Extremadura están los mayores embalses de España, dedicados a regadío, suministro de agua a la población y generación hidroeléctrica. La capacidad máxima del sistema es de 7723 hectómetros cúbicos, de los cuales 3219 corresponden al embalse de La Serena y 1505 al de García Sola. En total hay 20 embalses con capacidades entre las mencionadas antes y los 3.3 hm3 de Cornalbo, del que se conserva el muro de origen romano.
Estos días unos amigos me están enviando las cantidades de agua que están entrando en todos ellos, datos que creo son de interés. Hay que recordar que después de un periodo de sequía, las primeras lluvias quedan retenidas en el suelo que, si las precipitaciones persisten puede llegar a saturarse. La llegada de agua a los embalses se efectúa con una inercia de días, tanto al comienzo como al final. Ahora estamos en una situación de saturación y probablemente todo lo que llueve acaba llegando a los vasos. Así se explica que, de un día a otro, la cantidad de agua embalsada crezca alrededor de un 2% en los grandes sisremas ya que los menores están ya al 100% o más. Y ya, por fin, los datos.
En la primera columna tienen los nombres y en la segunda la capacidad máxima en hm3. A continuación están los porcentajes de ocupación en sólo dos fechas (mañana les pondré una tabla más completa). Fíjense que en el primero de octubre Cíjara estaba solamente al 25% mientras que hoy supera el 95%. 



EMBALSES  CMAX 01/10/2009 25/02/2010
E2-01 Cijara 1505.2 24.7 95.5
E2-03 Garcia Sola 554.2 31.4 93.6
E2-04 Orellana 807.9 67.4 93.9
Total Guadiana: 2867.3 38.0 94.7
E2-06 La Serena 3219.2 36.0 77.9
E2-07 Zujar 301.9 75.6 71.5
Total Zujar: 3521.1 39.4 77.4
E2-08 Cancho Fresno 15.2 52.5 101.2
E2-09 Ruecas 41.9 68.2 101.3
E2-11 Sierra Brava 232.4 48.1 100.9
E2-12 Gargaligas 21.3 54.3 101.0
E2-13 Cubilar 6.0 52.0 102.8
Total Ruecas: 316.9 51.5 101.0
E2-15 Los Molinos 33.7 86.1 103.5
E2-16 Alange 851.7 20.9 54.8
Total Matachel: 885.4 23.3 56.7
E2-20 Hornotejero 24.4 68.3 96.8
E2-21 Boqueron 5.5 68.8 102.2
E2-22 Canchales 25.9 38.1 122.7
Total Lácara: 55.8 54.4 109.3
E2-17 Cornalbo 3.1 18.5 107.0
E2-18 Proserpina 5.0 58.1 93.7
E2-19 Montijo 11.2 100.0 76.1
E2-24 Villar_del_Rey 130.0 50.2 96.1
E2-28 Tentudía 5.0 39.8 100.6
TOTAL GENERAL: 7723.5 37.8 82.8

El balance es que desde un 38% general hace menos de 5 meses hemos llegado a un 83% hoy lo cual garantiza el abastecimiento para al menos tres años. Salvo en Alange, que aún está bajo, el resto de grandes presas comienza a aliviar como medida preventiva por lo que no será fácil que se llenen mucho más. Las menores ya liberan agua desde hace días porque están llenas.

Actualización a 1 de marzo: los embalses del Guadiana y del sistema Lácara deben estar aliviando ya que han bajado del 94.7 al 89.9 en en primer caso y del 109.3 al 105.5 en el segundo. Alange ha subido un 3% aunque sigue siendo el embalse más bajo del conjunto.

30 septiembre 2009

Cambio global: intenciones y contradicciones

Aventuraba yo el otro día hablando del desarrollo y de la "sostenibilidad" que anunciar medidas a medio y largo plazo está bien pero no cuando, a) se usan como coartada para no poner en práctica otras medidas evidentes y de urgencia inmediata y/o b) en realidad no se piensa en llevarlas a la práctica cuando llegue el momento. M. A. Sabadell abundó en este asunto en su blog en Público hace unos meses.

La cosa venía a cuento de que, como ya les conté alguna vez, estamos finalizando un proyecto donde intentamos evaluar los potenciales efectos que algunos escenarios de cambio climático tendrían sobre la vegetación peninsular. No puedo aún darles detalles pero la cosa pinta de regular a mal. Y claro, en las reuniones ya se empieza a plantear la discusión: ¿qué se puede hacer para reducir ese posible daño?

La pregunta es un arma de doble filo: por un lado se reconoce la necesidad de hacer algo pero, por otra, se reconoce el fracaso de no haber hecho nada en el pasado. Por ese motivo, y aunque las discusiones tienen su interés, creo poco en las medidas que podemos recomendar tomar. La causa es mi impresión de que muchas medidas de protección del medio natural son esencialmente lo que dije antes: coartadas. Me explico con un ejemplo conocido: España firma en 1990 el compromiso de que en el año 2014 sus emisiones de CO2 no se incrementarían más allá del 15%. A 5 años de esa fecha nuestras emisiones ya han aumentado casi el triple. ¿Cuál es el motivo? Pues fácil: después de firmar no se ha hecho gran cosa para controlar esas emisiones. Eso sí, la firma se presentó como un éxito, un gran detalle de solidaridad mundial y de buen rollo ambiental. ¿Qué se va a hacer cuando llegue la fecha y se haga patente el flagrante incumplimiento? Con mis poderes paranormales predigo que se firmará otro acuerdo, tal vez más ambicioso (total, qué más da) pero con fecha del 2025 o 2050. Y con este pasará, muy probablemente, lo mismo que con el anterior.

Parece común en estos tiempos la sensación de que firmar un acuerdo es suficiente para conseguir la meta. O de que anunciar que algo se va a hacer es equivalente a haberlo hecho. Parece tan común como la desidia para tomar medidas inmediatas ante los daños reales que estamos, ahora, viendo crecer ante nuestros ojos.

En el caso de nuestro proyecto de vulnerabilidad de la vegetación nos encontramos con una paradoja (parajoda diría alguno) que afecta tanto a los bosques como a las especies singulares. Ambos grupos lo van a pasar mal y probablemente algunas especies desaparezcan definitivamente si se confirma alguno de los escenarios analizados. Pero su problema principal no es el cambio climático, nunca lo ha sido. Su problema viene de nuestra actuación pasada y actual. Varios bosques pueden verse reducidos drásticamente pero esto es una consecuencia sobrevenida sobre la realidad de que ya los tenemos en una situación crítica: fragmentados y limitados a unas extensiones ridículas respecto a su área potencial. Del mismo modo, muchas especies que actualmente están en las “listas rojas” o equivalentes, lo están debido como causa primaria a la reducción o degradación de su hábitat no porque hayan subido las temperaturas de febrero o bajado las lluvias de abril.

Temperatura media de las máximas anual en el periodo 1961-1990; los datos de las estaciones provienen de la AEMET, su tratamiento, organización y proceso posterior (interpolación y gradientes antitudinales) es nuestro.

Otro día me desahogo y les cuento algunas medidas obvias que hay que tomar, a ver si están de acuerdo conmigo. Mientras tanto les diré que la semana pasada estuve en La Casa Encendida en Madrid, reunido con otros "agentes" de la compleja cadena que analiza y propone cosas respecto al llamado "cambio global". Analiza y propone pero no dispone. Allá estábamos un par de universitarios, algunas organizaciones ecologistas, otras ONG no directamente ecologistas, sindicatos del campo, seguros, algún medio de comunicación y varios técnicos del Ministerio y de las Comunidades Autónomas. Por la mañana nos dedicamos en privado a hablar de los problemas y retos, también de las soluciones. Por la tarde hubo una mesa redonda pública en el auditorio.

Mis sensaciones son encontradas. Por un lado es necesario hacer estas reuniones, por otro nunca sale nada nuevo de ellas. Lo que sí me quedó claro fueron dos cosas, una buena y otra mala. La buena es que el personal técnico, funcionario o contratado, es generalmente estusiasta y se molesta en hacer bien su trabajo. La mala es que en el piso de arriba, los políticos de ir y venir cada cuatro años, no les hacen ni puñetero caso. Los tienen porque mola en estos tiempos pero no se creen nada ni están dispuestos a mojarse lo más mínimo. Finalmente, la repetición de ese patrón de exigencia y frustración tiene efectos demoledores en los técnicos. La muestra de ese divorcio, el más importante de toda la cadena de decisión, es que los políticos no están nunca en las discusiones, eso lo dejan a los técnicos que, lógicamente, no tienen responsabilidad en las decisiones finales, en la acción o la inacción.

Por lo tanto, las medidas que propondremos serán probablemente brindis al sol porque suponen decisiones serias y con efectos a medio y largo plazo. Para un político medio esto carece de interés: muchos no creen que haya que hacer nada (primera dificultad) pero aunque eso no se de, las decisiones son complicadas y van contra la corriente: mucha mejor gestión del suelo, mucha menos contaminación, mucho mejor control en la explotación del agua, muchos más medios contra los incendios, promoción real y decidida del transporte público... todo ello aderezado con honradez en la gestión urbanística, sensibilidad ambiental y mucho sentido común. Nada interesante a cuatro años vista.

Les dejo con un par de mapas, el de arriba y el de abajo. Tenemos muchos más, a cientos, resultado de modelizaciones donde trabajamos con tres modelos, dos escenarios (A2 y B2) y tres horizontes temporales. Como ya se han expueto en público creo que puedo ponerlos aquí para ir abriendo boca y contarles más adelante los detalles de la cuestión, lo que hemos hecho y lo bueno y lo malo del proyecto, que de todo hay, claro.

Temperatura media de las máximas anual prevista en el periodo 1971-2100 de acuerdo con el modelo CGCM2 y el escenario A2. La escala de colores es la misma que en la figura de arriba. La temperatura media se incrementa 4.6 ºC.

12 febrero 2009

Principio de precaución

Debo confesarles que no he leído demasiado sobre el presunto cambio climático, no tengo tiempo. Por eso, porque no domino el tema hasta el nivel de dar una opinión fundamentada, me quedo con las pistas que dan algunos artículos que leo a veces y cuya metodología sí entiendo y me parece fiable. De esos trabajos (he comentado algunos en este blog: 1, 2, 3, 4) se deduce, creo yo, una cosa muy simple: lo más razonable sería aplicar el principio de precaución. Tal vez no haya calentamiento, tal vez estemos viendo sólo una fluctuación, un hipo terráqueo, o tal vez haya calentamiento pero no está acelerado por la acción humana, o tal vez haya y no pase nada o sea tarde, o tal vez... Pero antes de pasar de todo habría que echar un vistazo a fotos como las de abajo porque nunca fue tan cierto que una imagen vale más que mil palabras.
.
Glaciar Upsala, Argentina. La foto superior corresponde a 1924 y la inferior al 2004.

28 enero 2009

Calentamiento antártico

La figura de abajo muestra los cambios de temperatura en ºC por década estimados a partir de medidas tomadas tanto por estaciones en superficie como desde satélites. En síntesis y según los autores del trabajo, la Antártida se ha calentado una media de 0.1 ºC por década desde 1957, con una subida acumulada de 0.5 ºC a nivel general y de algo más de 0.8 ºC en la Antártida Oeste (zonas en rojo, próximas a la Península Antártica). La tendencia no es homogénea y en la Antártida Este no se ha encontrado ninguna variación significativa mientras que la zona del Polo Sur parece haberse enfriado en las últimas décadas. En la imagen, los datos de temperatura se han superpuesto a una base topográfica generada por el Radarsat y la extensión de hielo corresponde a mayo de 2008.

Imagen tomada de aquí (tendencia en ºC/década)

De los datos existentes ya se conocía el evidente calentamiento de la Península Antártica aunque todo hacía suponer que era un fenómeno local, tanto más porque el interior del continente estaba aparentemente enfriándose. Los resultados de este trabajo no contradicen eso pero muestran que el calentamiento afecta a una zona más amplia de la Antártida Oeste, no sólo a la Península. Las tendencias en el resto del continente son de una magnitud mínima y pueden considerarse no significativas con la información disponible actualmente.
¿Cómo se ha hecho este trabajo? Pues intentando resolver el problema de que en la Antártida hay unas estaciones terrestres mal distribuidas aunque con largos registros, mientras que los satélites cubren bien toda la zona con buena resolución pero sólo desde hace relativamente pocos años. Los autores han establecido correlaciones entre ambas series de medidas para acabar estimando los "huecos" existentes en las series y rellenando zonas no cubiertas por las estaciones. Así han elaborado mapas de los últimos 50 años que cubren toda la Antártida. La técnica es interesante: se llama regEM de regularized expectation maximization y han desarrollado un módulo para usarlo en Matlab. Se supone que las técnicas usadas han permitido paliar los dos problemas básicos del asunto: la escasez y pésima distribución de las estaciones meteorológicas disponibles y el control de las incertidumbres que se propagan a lo largo de todo el proceso.
Los autores insisten en que sus resultados no contradicen que parte de la Antártida esté enfriándose ni cuestionan la hipótesis de que el calentamiento de la zona Oeste se deba a un incremento general en la velocidad del cinturón de vientos del Oeste (que, por cierto, ya comentamos en este blog en otro contexto).

La imagen superior ha sido portada de Nature esta semana.

El algoritmo regEM está descrito en
Schneider, T., 2001: Analysis of incomplete climate data: Estimation of mean values and covariance matrices and imputation of missing values. Journal of Climate, 14, 853–871.

05 septiembre 2008

Gustavo, el huracán

El satélite Envisat ha permitido hacer esta composición donde se muestra el trayecto de Gustavo con cuatro posiciones: 25, 28 y 30 de agosto y 1 de septiembre (de derecha a izquierda). La imagen puede verse con mucho detalle, pulsen encima para ampliar.

Imagen: ESA (Observing the Earth)

Gustav es el séptimo huracán de este año, precedido por Arthur, Bertha, Cristobal, Dolly, Edouard y Fay. Como curiosidad les contaré que existen seis listas de nombres para huracanes que pueden repetirse, por tanto, cada seis años. Por ejemplo, Andrea fue el primer nombre en el año pasado y lo será también en el 2013. Estas listas contienen nombres comenzando por la A, como Andrea o Arthur, y finalizando en la W, como Wendy o Wilfred.
Estas listas contenían sólo nombres femeninos. En 1979 se consideró algo incorrecto (?) y desde entonces se alternan nombres femeninos y masculinos cuidando de que cada año el primer huracán se alterne también.
Sin embargo, hay excepciones en la continuidad de las listas: cuando un huracán es especialmente dañino su nombre se retira y no vuelve a ser usado. Desde 1954, 70 nombres han sido retirados, entre ellos algunos que, a pesar de nuestra mala memoria, aún recordamos como Mitch (1998), Wilma y Katrina (2005). La lista completa está aquí.
Podemos recordar, ya de paso, que la dureza de los huracanes se expresa en una escala de cinco grados llamada de Saffir-Simpson. Sólo ha habido tres huracanes considerados de categoría 5, la máxima. El primero arrasó los Cayos de Florida el día 2 de septiembre de 1935 (artículo). El Camille (fotos aquí) afectó a la desembocadura del Mississippi el 17 de agosto de 1969. Finalmente, el Andrew sembró la destrucción en Florida el 24 de agosto de 1992 (artículo). En esta categoría los vientos máximos se mantienen a más de 250 km/h.

Efectos del huracán de 1935 en Florida (fuente).

A día de hoy, Hanna, Ike y Josephine ya están en fila en el Atlántico. Hanna y Josephine son tormentas tropicales por el momento. Ike ha alcanzado la categoría 3.
Nota: este último enlace al National Hurricane Center muestra un mapa dinámico con lo que cambiará con el tiempo.

10 julio 2008

El Perito Moreno y el cambio climático

Leo en Informativos Telecinco:
El glaciar Perito Moreno, en el sur de Argentina, ha empezado un proceso de ruptura inusual en pleno invierno austral. Esto es algo que no ocurría desde el año 1917. Lo habitual es que el glaciar comience su deshielo durante el verano. El hecho de que ocurra en pleno invierno parece una señal más del cambio climático que está sufriendo la Tierra.
Lo cual son sólo verdades a medias aparte de alguna inexactitud. Es cierto que es inusual (aunque faltan datos importantes), es falso que no ocurra desde 1917. Es insostenible que es ruptura invernal sea achacable con claridad a ningún cambio climático. Aparte de esto, el fenómeno merece la pena, veamos de qué va la cosa y qué datos hay:

La imagen que ven abajo es la del famoso glaciar, que desciende desde los hielos andinos (Campo de Hielo Sur) hasta el Lago Argentino, en la Patagonia. La gran lengua helada llega desde el Oeste y acaba cruzando el Brazo Sur del lago hasta chocar con la orilla Este (foto panorámica). El hielo, de unos 60 m de altura y de 3 a 5 km de frente forma un dique que divide el lago en dos partes. De vez en cuando, grandes bloques se desprenden del frente y caen sobre el lago. Pero este no es el único espectáculo que el Perito Moreno nos ofrece.

Imagen tomada de Google Earth

El sistema es inestable ya que, al quedar represado por la lengua glaciar, el nivel en la parte Sur, la más alejada de la desembocadura del lago, sube poco a poco debido a los aportes de agua. La presión creciente sobre el hielo crea un gran túnel de desagüe y el ciclo finaliza con el colapso de su bóveda, un magnífico espectáculo que pueden ver en el video. No se pierdan el final, a partir de los 2'15". Si lo anterior no funciona, pueden usar este enlace.

Estuve allá, hace unos años, en un día gélido que le iba muy bien al paisaje. La ladera de enfrente está cubierta por bosques de haya antártica (Nothofagus) que contrastan con el irreal blanco azulado del hielo. Gente del lugar (de El Calafate en realidad) me comentó que estaban preocupados porque el fenómeno era antes regular y que ya se estaba retrasando mucho. Tendrían que esperar hasta marzo del año 2004 para ver otra ruptura. Habían pasado 16 años desde la anterior, en febrero de 1988. Sin embargo, el siguiente ciclo fue rápido: en marzo del 2006 volvió a romperse. Y en julio de 2008, ayer, fue la siguiente ocasión.

La percepción de regularidad es falsa como puede verse a continuación en las fechas de las rupturas con mes/año allá donde se sabe (o donde he encontrado datos). Las rupturas en el invierno austral están en azul y en granate las del verano; en cursiva donde no he encontrado datos:

  • son las siguientes: 1917, 1935, 2/1940, primavera/1947, 3/1952, 3/1953, 9/1954, 10/1956, 3/1960*, 2/1963, 2/1966*, 1970, 1972, 1975, 1977, 1980, 1984, 2/1988, 3/2004, 3/2006, 7/2008. Los asteriscos significan dos rupturas ese año (datos de aquí). La figura de abajo lo representa gráficamente salvo los dos últimos años (de Stuefer et al., 2007).
  • los intervalos en años son, aproximadamente: 18, 5, 7, 5, 1, 1, 2, 4, 3, 3, 4, 2, 3, 2, 3, 4, 4, 16, 2, 2.

Aunque, en efecto, las rupturas suelen producirse a finales del verano, en 1954 se produjo una en invierno y la de dos años después en el primer mes de primavera. No he encontrado información sobre el mes de ruptura de 9 años: 1917, 1935, 1970, 1972, 1975, 1977, 1980, 1984 por lo que no sabemos si hubo algún otro evento invernal o no. En cualquier caso, las relaciones con el cambio climático son temerarias y con esta serie de datos carecen de sentido. He comentado en este blog que hay muchos otros glaciares que están retrocediendo en las últimas décadas así como algún otro trabajo relevante, es innecesario acudir a este estandarte.

La referencia del trabajo mencionado:
Martin Stuefer, Helmut Rott, Pedro Skvarca, 2007, Glaciar Perito Moreno, Patagonia: climate sensitivities and glacier characteristics preceding the 2003/04 and 2005/06 damming events, Journal of Glaciology, 53: 3-16.

Del diario personal:
Llegamos al aeropuerto de Río Gallegos desde Buenos Aires. La empresa de acercarnos a El Calafate parecía ardua ya que sólo nos ofrecían un autobús para recorrer los más de 300 km que lo separaba de Río Gallegos. La carretera empezaba a pavimentarse ese año por lo hacerse todo ese camino de ripio y llegar de madrugada a nuestro destino no era plato de gusto. Vi a dos tipos vestidos de piloto que se acercaba por el pasillo. Y cuando digo "de piloto" me refiero a que iban con cazadora de cuero marrón, pantalones acolchados y sendos sacos de lona colgados del hombro. Reconozco que suelo tener suerte en la vida y esa vez no fue excepción: me acerqué, les pregunté y me dijeron que salían en media hora para allá y que tenían plazas libres. Fuimos a una pequeña oficina y pagamos algo menos de lo que costaba el viaje por tierra. Al preguntar por el avión nos señalaron una puerta que daba a una trasera de las pistas. Allí estaba: una avioneta DHC-6, roja y gris, de apenas unos 15 m de largo con dos motores de hélice. Dentro había asientos para una decena de personas ya que la parte trasera estaba ocupada por un montón de bultos a los que se unieron nuestros equipajes. Un rótulo bajo las alas explicaba la situación: Fuerza Aérea Argentina. Los dos pilotos iban en una cabina cuya puerta estuvo abierta todo el viaje. Así pudimos ver los Instrumentos analógicos, los controles de los motores que bajaban del techo... una sorpresa. Volamos sobre la Patagonia a unos 2000 m de altura y aterrizamos suavemente en la pista de tierra de El Calafate.
La vuelta fue otro cantar porque una tormenta nos obligó a desviarnos. Todos nos sentíamos bastante mal y un turista francés que iba delente de mí me señaló un instrumento de la cabina. Era el altímetro y marcaba 5500 m. La avioneta no estaba presurizada.

16 enero 2008

¿Cómo será de verde la península en el 2100?

Bueno, por el momento no tenemos ni idea de cómo estará esto en el 2100 pero aprovechando que estas semanas están muy "espesas" y que tengo muy poco tiempo les pongo acá un artículo del Periódico de Extremadura donde se hace referencia a un trabajo que han encargado a nuestro grupo de investigación. Aunque aparezca sólo yo, codirigimos la historia desde la UEX y el Real Jardín Botánico de Madrid.
El artículo, de Aitor Fernández, ha recogido bien la entrevista telefónica, algo que destaco porque no es fácil sintetizar el rollo que le metí a bocajarro.
Al final comentaré algo más de este proyecto que toca uno de los temas preferidos de las reuniones, blogs y barras de bar: los efectos del cambio climático.
El Gobierno encarga a la Universidad de Extremadura un estudio sobre cómo afectará el cambio climático a los bosques españoles.
La preocupación sobre cómo afectará el cambio climático al medio en el que vivimos sigue calando en las administraciones. Diversos grupos de investigación han realizado ya sus pronósticos sobre el incremento de las temperaturas, la reducción de las precipitaciones, la aceleración del deshielo de los polos y de los glaciares o la subida del nivel del mar. Ahora el Ministerio de Medio Ambiente ha dado un paso más y quiere saber cuál será el impacto de este fenómeno sobre las masas boscosas españolas. Para ello ha depositado su confianza en un grupo de científicos de la Universidad de Extremadura.
Angel M. Felicísimo, profesor de Ingeniería Cartográfica, Geodesia y Fotogrametría, está al frente del equipo de investigadores que realizará este trabajo.

"Vamos a aplicar diversos modelos de cambio climático y haremos una estimación de cómo se comportarán las especies vegetales ante estas situaciones, qué zonas ganarán masa forestal y cuáles la perderán", explica. El objetivo principal, en principio, es conocer qué puede ocurrir con los bosques españoles, aunque también aplicarán la metodología a hábitats protegidos y a especies concretas que aún deben concretar con el ministerio.

La iniciativa ha partido de la Oficina Española de Cambio Climático, que ya ha firmado el convenio con los investigadores de la universidad extremeña. El trabajo debe realizarse entre este año y el 2009 y además es el primero de estas características que realizará el Gobierno. "Hasta ahora contamos con estudios parciales y algo dispersos; nosotros vamos a aplicar métodos estadísticos novedosos que consideramos fiables para un estudio global", comenta Angel M. Felicísimo.

Los responsables de este grupo de investigación ya han probado las técnicas que comenzarán a aplicar en las próxima semanas. "Hemos realizado un trabajo similar en Ecuador por lo cual las técnicas a aplicar nos son conocidas. Allí hemos podido ver, entre otras cosas, cómo el cambio climático no es una catástrofe general, sino que hay zonas que ganan biodiversidad y otras que la pierden", agrega.

Además, todo el proceso y los avances que vayan realizando se harán públicos inmediatamente. Para ello pondrán en marcha una web en internet donde irán volcando todos los contenidos de la investigación, "hemos convenido con la Oficina Española de Cambio Climático que este sea un trabajo transparente en todos los sentidos, donde sea posible la participación de todos los que puedan y quieran aportar algo".

Pero, ¿qué credibilidad y fiabilidad tienen este tipo de trabajos si se fundamenta en supuestos? Según Angel M. Felicísimo, "no hace falta ser creyente o no para hacer este trabajo, nosotros no vamos a desarrollar los modelos de cambio climático sino que vamos a informar de las consecuencias que tendrían en los bosques peninsulares los cambios que otros científicos, especialistas en ello, dicen que se van a producir".

Allá por junio hablé de este proyecto en EnRedados. A los interesados en este tema les sugiero relean ese post porque se dan algunos detalles técnicos del proyecto. Y si tienen dudas o sospechas, no tengo ningún inconveniente en aclararlas aquí, sobre la marcha. El proyecto en cuestión dispondrá de página web donde se pondrá mucha información sobre su desarrollo, datos, métodos y resultados, de forma que cualquiera pueda intervenir y comentar.

17 noviembre 2007

El origen humano del calentamiento global desacreditado

Un trabajo publicado en el número del 3 de noviembre del Journal of Geoclimatic Studies muestra que el calentamiento global no está provocado por la actividad humana sino por el incremento del número de bacterias emisoras de CO2 en los fondos marinos. La referencia completa es:

Daniel A. Klein; Mandeep J. Gupta; Philip Cooper; Arne F.R. Jansson, (2007), Carbon dioxide production by benthic bacteria: the death of manmade global warming theory?, Journal of Geoclimatic Studies, 13(3): 223-231.
DOI:152.9967/r755100729-450172-00-4

Donde los dos primeros autores son del Departmento de Climatología (University of Arizona) y los dos segundos del Departmento de Física Atmosférica (Göteborgs Universitet).

El incremento de dióxido de carbono es natural y de origen bacteriano. Remitirá en los próximas décadas por lo que la alarma actual es infundada. Sigamos contami- nando que no pasa nada.

El trabajo de Klein y colegas desacredita la teoría actualmente propuesta de que la causa primaria del calentamiento global son las emisiones de CO2 originadas por la actividad humana. Traduzco el resumen:

Se ha establecido que el incremento de la temperatura global se debe mayoritariamente al incremento de concentraciones de dióxido de carbono en la atmósfera. La posición de "consenso" atribuye este incremento a la quema de combustibles fósiles en los procesos industriales. Este es el mecanismo que sirve de apoyo a la teoría de calentamiento global de origen antrópico.

Nuestros datos demuestran que los que suscriben la teoría de consenso han obviado la fuente primaria emisora de dióxido de carbono. Mientras que una pequeña parte del incremento de las emisiones puede atribuirse a la actividad industrial, esta es ampliamente sobrepasada (más de 300 veces) por los volúmenes crecientes de CO2 producidos por eubacterias saprofíticas que viven en los sedimentos de las plataformas continentales que flanquean los océanos Atlántico y Pacífico. Es más, las emisiones bacterianas, al contrario que las industriales, se ajustan con exactitud a las fluctuaciones de la temperatura global de los pasados 140 años.

Este trabajo propone también un mecanismo para explicar el incremento de las emisiones bacterianas de CO2. Una serie de "explosiones" naturales de algas que comienzan en el sigo XIX causaron mortalidades masivas entre los principales predadores de bacterias, los moluscos braquiópodos del género Tetrarhynchia. Estos periodos de explosión de algas, como muestra el registro paleontológico, se han producido por más de tres millones de años y siempre se les ha acompañado un importante incremento de emisiones de CO2 como resultado de la multiplicación bacteriana cuando la presión de predación disminuye. Este fenómeno dura unos 150-200 años. Si el episodio actual es consistente con este registro podemos esperar un máximo de emisiones entre este momento y la mitad del siglo, volviendo luego a los niveles de base. Nuestros datos sugieren que la actual inquietud sobre el calentamiento global de origen antrópico no tiene fundamento.

El trabajo no ha estado exento de dificultades y hacen algunas denuncias demoledoras:

Cuando hemos retado a eminentes científicos del clima que suscriben la teoría de "consenso", nuestro interés a tropezado con evasivas y en algunos casos con reacciones agresivas. Esta discusión ha sido prohibida por los editores de revistas científicas. Esta revista es una valerosa excepción pero ha estado bajo una gran presión para que no planteara el asunto. Se deben, concluimos, simplemente a que hay demasiado en juego.

Y no sólo eso sino que se arriesgan por una causa justa:

Nuestros resultados nos colocan en una difícil posición. Consideramos nuestra obligación publicarlo tanto por objetividad científica como para impedir un terrible error (por sus consecuencias extremadamente costosas) por parte de los gobiernos del mundo.

Sabemos que esto puede poner nuestras carreras en dificultades.

Hemos sido advertidos, individual y colectivamente [...] de que podemos ser privados de toda financiación en el futuro e incluso podemos arriesgar la financiación de los departamentos donde trabajamos.

Creemos que esta intimidación académica contradice el espíritu de la libre investigación [...] y deploramos las respuestas agresivas que hemos tenido antes de la publicación y tememos la reacción que este trabajo pueda provocar.

Las dificultades vienen avaladas por el editorial del JGS, (ahora inaccesible pero copiado aquí) y que decía entre otras cosas:

Antes de venir a esta revista, Daniel Klein y colegas enviaron su trabajo a otras 43 revistas. Todas lo rechazaron y ninguna dió razón científica de su decisión.

Una conspiración en toda regla.
Bueno, hasta aquí la reseña de este apasionante y heroico trabajo. Ahora los metadatos:

Hay más detalles interesantes y divertidos para la gente curiosa. Por ejemplo, los supuestos predadores son, según ellos, "moluscos braquiópodos", cuando se trata de grupos (Phylum) diferentes: Mollusca y Brachiopoda.

Otro ejemplo, en este caso una referencia:

Tibbold, WR and JD Rawsthorne (1998). Miocene, Pliocene and Plasticine fossil records for eukaryotic mass on the West African continental shelf. Journal of Submarine Research 18:5. 196-203.

Mioceno, Plioceno y Plasticino, sí, han leido bien.

Y así todo, una mezcla de jerga científica, ecuaciones delirantes (Q³uct, jyΦ = ∑cy³11, por ejemplo) y referencias falsas mezcladas con otras verdaderas.

Puestos a comentar algo, diría que este intento de fraude revela lo peor y lo mejor de internet. Por un lado, cualquiera puede montarse una fachada más o menos convincente y vender falsedades dándoles la apariencia de un trabajo honrado. Por otro, el fraude se destapó en muy pocas horas gracias también a dos circunstancias: la existencia de la red que permite verificar los datos de forma independiente y la existencia de personas que no se tragan todo lo que le dicen.

En España el trabajo no ha tenido eco porque nos enteramos de todo tarde, como siempre, eternamente pendientes de crisis políticas catastróficas que nos acercan asintóticamente al día del juicio final. Menos mal que en este caso no había nada de que enterarse.

Que tengan un buen fin de semana.

Nota: en Nature hacen una entrevista al supuesto autor del artículo fraudulento. No les recomiendo que la lean ya que aquí usa de nuevo un nombre falso y desde el anonimato su credibilidad es igual a la del propio artículo: nula.

26 octubre 2007

Apuntes sobre cambio climático (1)

Introduzco en el buscador de la-prestigiosa-revista-Science las palabras "climate change": 2915 resultados. Hago lo mismo en Nature: 2105 resultados. Son más de 5000 resultados (no todos son artículos pero sí una mayoría) sólo en dos revistas que, por otra parte, no están dedicadas expresamente al tema.
En vez de enzarzarnos en discusiones políticas, podemos acudir a las fuentes. Este primer trabajo estudió la evolución de 67 glaciares desde los años 50 hasta los 90. El resultado básico es que los glaciares pierden hielo a un ritmo que se acelera

Ese es uno de los motivos por lo cuales el cambio climático es un tema de conversación donde casi nadie habla con conocimiento de causa: temo que ninguno de nosotros ha leido ni el 1% de dichos trabajos (bueno, descontando a Arturo que veo que se asoma por aquí, saludos).

Para apuntarse a Capuletos o Montescos sería conveniente leerlos pero como no puede ser ya que a nuestro tiempo es limitado y los temas de interés son infinitos, habrá que acudir a mecanismos alternativos y asignarles mayor o menor credibilidad. Por mi parte, simplifico lo más posible y sólo me fío de algunos artículos cuya metodología me parece sólida. Y, visto el interés del asunto, de vez en cuando voy a ponerles por aquí alguno de ellos. Algunas veces, incluso, intentaré explicar, dentro de mis limitaciones, las razones de su fiabilidad (o falta de ella).

El de hoy es el siguiente:

Anthony A. Arendt, Keith A. Echelmeyer, William D. Harrison, Craig S. Lingle, Virginia B. Valentine (2006) Rapid Wastage of Alaska Glaciers and Their Contribution to Rising Sea Level, Science, 297 (5580): 382-386. DOI:10.1126/science.1072497

Es decir: "Rápido desgaste de los glaciares de Alaska y su contribución al crecimiento del nivel del mar" (sí, siempre suena mucho mejor en inglés).

Resumen:

Hemos usado altimetros láser aerotransportados para estimar los cambios de volumen de 67 glaciares en Alaska desde mediados de la década de los 50 hasta mediados de los 90. La tasa media de cambio de espesor en estos glaciares fue de -0.52 m/año. La extrapolación a todos los glaciares de Alaska da un cambio de volumen total anual de -52 ± 15 km3/año (equivalente en agua), lo que supone una subida de nivel del mar (SLE) de 0.14 ± 0.04 mm/año. La repetición de medidas de 28 glaciares desde mediados de los 90 hasta 2000-2001 sugiera un incremento en la tasa de adelgazamiento: -1.8 m/año. Esto apunta a una pérdida de volumen anual para los glaciares de Alaska de -96 ± 35 km3/año, o 0.27 ± 0.10 mm/año SLE, durante la pasada década. Estas pérdidas recientes están cerca del doble de la pérdida estimada para el hielo de Groenlandia durante el mismo periodo y es mucho mayor que las pérdidas estimadas publicadas previamente para los glaciares de Alaska, lo que constituye la mayor contribución glaciar al incremento del nivel del mar hasta el momento.

No está de más comentar que la altimetría láser se basa en la emisión de cortos pulsos de luz (monocromática y coherente) dirigidos hacia la superficie del terreno y en la detección del reflejo. Midiendo el tiempo entre la emisión y la recepción es posible estimar la distancia hasta la superficie reflectante. Habitualmente la luz se emite en la porción infrarroja del espectro con lo que es invisible para nosotros. Se emiten algunos miles de pulsos por segundo que se dirigen mediante un espejo móvil para realizar un barrido continuo del terreno que se sobrevuela. La localización exacta del avión y la puntería del láser se controlan mediante el uso combinado de GPS y de un Sistema Inercial de Navegación. El resultado es un modelo digital de superficie (MDS) donde tenemos millones de puntos georreferenciados.

Datos complementarios: hay unos 160000 glaciares en la Tierra. Los de Alaska (y Canadá cercanos, que metemos en el mismo saco) tienen una superficie de unos 90000 km2, un 13% de la superficie glaciar total. De estos, los autores han estimado los cambios en volumen y área de 67, un 20% del total.

Métodos: se trazaron perfiles longitudinales sobre los glaciares y sus tributarios principales desde alturas de 50 a 300 m sobre la superficie. Los perfiles fueron comparados con las curvas de nivel de mapas topográficos del USGS y CDEMR que fueron realizados con fotos aéreas de los años 50 a los 70. Las diferencias en elevación se hicieron mediante la intersección de los perfiles y curvas de nivel.

Desde los 50 a 1993-1996 (primer periodo) se midieron 67 glaciares. Desde 1999 hasta el presente (2002, segundo periodo) se repitieron medidas en 28 de ellos. En estos casos, se compararon los nuevos perfiles con los viejos, con independencia de la topografía subyacente.

Resultados: aparte de los mencionados en el resumen de arriba, se encuentra que la mayor parte (no todos) de los glaciares retroceden. El área de los glaciares se redujo un 0.8% (131º km2) en el primer periodo (45 años) y un 0.4% en los últimos 5-7 años.

Opiniones al vuelo: creo que la parte relativa al nivel del mar sobraba aunque queda bien en el título del trabajo. El motivo es que, aunque la muestra es grande, la extrapolación introduce un error difícilmente evaluable y el resultado, al menos a mí, no me parece muy relevante.

Los errores inherentes a la altimetría láser son reducidos (unos 30 cm) pero con la cartografía antigua la cosa se pone peor, con posibles errores en la altura de 15 a 45 m. Por ese motivo los resultados de la estimación volumétrica absoluta pueden ser discutibles pero lo son menos los de cambios entre perfiles, donde sólo intervienen estos y no las curvas de nivel. Los autores comentan que han manejado estos errores (y algunos otros) y, funciñon de ello, han determinado el intervalo de confianza "razonable" para las estimaciones que presentan.

Los perfiles son densos, con 10000 a 20000 puntos en cada glaciar (es una media, los glaciares son de tamaños diferentes), lo que aumenta la fiabilidad de las comparaciones.

Una figura: la línea gruesa representa el cambio de grosor general (ordenadas) en función de la altura (abscisas). Con la salvedad de los finales de las lenguas glaciares, las zonas bajas sufren el mayor adelgazamiento. La figura de arriba es para el primer periodo y la de abajo para el segundo. Tazlina, Turquoise y Columbia son glaciares de tipos diferentes que se han representado individualmente.

Recordemos los resultados básicos: existe una pérdida neta de hielo más intensa en las zonas de menor altitud y casi inexistente en las cabeceras. La tasa de adelgazamiento en el "periodo reciente" es de casi tres veces la estimada en el periodo anterior.

La fotografía anterior (glaciar Columbia, Alaska) fue tomada en septiembre de 1966. Las líneas rojas representan el límite frontal a lo largo de los años (tomado de Meier, M.F. & Dyurgerov, M.B., 2002, How Alaska affects the World, Science 297: 349-350.

23 octubre 2007

Don Mariano y el cambio climático

"Los romanos hicieron en estos casos lo que todo príncipe prudente debe hacer, lo cual no consiste simplemente en preocuparse de los desórdenes presentes sino también de los futuros, y de evitar los primeros a cualquier precio. Porque previniéndolos a tiempo se pueden remediar con facilidad pero si se espera que progresen la medicina llega a deshora, pues la enfermedad se ha vuelto incurable."

"Por lo tanto, aquel que en un principado no descubre los males sino una vez nacidos no es verdaderamente sabio, pero ésta es virtud que tienen pocos".

El Príncipe, Nicolás Maquiavelo

Metadatos:


Grabación de don Mariano Rajoy

Transcripción a partir de la grabación:

Yo le digo: yo de este asunto sé poco, pero mi primo supongo que sabrá. Y entonces dijo: ‘Oiga, He traído aquí a... diez de los más importantes científicos del mundo... y ninguno me ha garantizado el tiempo que iba a hacer mañana en Sevilla’.

¿Cómo alguien puede decir lo que va a pasar en el mundo dentro de 300 años? No lo sé, es decir, no lo sé, es un asunto al que hay que estar muy atentos... Pero, en fin, tampoco lo podemos convertir... en el gran problema mundial. Hay otros problemas más importantes, como los problemas del sector energético, los problemas de las emisiones, y otros problemas muy importantes.

La reseña de lo dicho en Público.es
Una entrevista al primo de don Mariano Rajoy.

Javier Brey Abalo es un físico de prestigio en el Área de Física Teórica, con 154 publicaciones, 1870 citas y un índice h de 23. Ha declinado comparecer ante los medios de comunicación y creo que ha hecho bien. Aunque uno sea cautivo de sus palabras también puede hacerse dueño de sus silencios.

16 octubre 2007

[Breves] Cambio climático en España

A través de la lista Meteoclim (Foro sobre clima y meteorología) de RedIris (Red Española de I+D) me entero de dónde descargar el documento llamado Informe preliminar de los impactos en España por efecto del cambio climático. El informe completo (12 Mb) está aquí y para descargarlo por capítulos pueden acceder a esta página del Ministerio de Medio Ambiente.

05 octubre 2007

Mares


El autor del video es Fernando Bullón y aparece, con algún otro igualmente impresionante, en la revista RAM

04 junio 2007

EnRedados

Verán que me he prodigado menos este mes, apenas un par de entradas semanales. Les daré la explicación pertinente comenzando por decir que no me gusta la gestión. Aún así, cuando un par de colegas me pidieron que respondiera a una convocatoria de la CYTED no pude negarme a pesar del indudable impacto que la cosa tendría en mi calidad de vida.
CYTED es el acrónimo de Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo, una institución que publica convocatorias periódicamente sobre áreas estratégicas como agroalimentación, salud, desarrollo sostenible o tecnologías de la información. La idea general es clara: unir en redes colaborativas a grupos de investigación para, mediante el intercambio de conocimientos, técnicas y personas, generar un efecto sinérgico que potencie el conocimiento en esas áreas.
Planteamos una Red Temática para analizar las previsiones de los modelos de cambio climático en diversos escenarios y su repercusión en los bosques de Colombia, México, Ecuador, Argentina, Bolivia y España.
Aceptado el reto, estas semanas hemos estado organizando un proyecto donde intervienen México, Colombia, Bolivia, Argentina, Ecuador y España, del que me ha tocado la coordinación. Como novedad se me ocurrió montar un wiki como herramienta de colaboración dado, además, el poco tiempo disponible, la dispersión de los grupos y la dificultad de comunicarse a seis bandas con facilidad. La experiencia ha sido buena y del wiki salió el proyecto que fue presentado el pasado día 31 a la CYTED.
Una parte relevante del proyecto es el compromiso de que datos, métodos, resultados y documentación serán públicos. La otra es el propio proyecto que, aparte de reuniones y cursos de formación mutuos, analizará el posible impacto del cambio climático sobre la distribución de los ecosistemas forestales de cada país.

Dicho así suena fuerte pero el esquema es simple: supongan que un bosque aparece a media ladera de una cordillera. Analizando el clima nos damos cuenta de que la zona donde aparece ese bosque coincide con bastante fidelidad con una combinación de temperaturas máximas menores de 25ºC (límite inferior en altitud) y mínimas superiores a -5ºC (límite superior en altitud).
Si un modelo de cambio climático señala que las temperaturas máximas aumentarán 2ºC y las mínimas se reducirán 3ºC (incremento de la continentalidad por tanto), la consecuencia previsible es que el bosque reducirá su extensión porque el límite inferior subirá en altitud y el superior bajará estrechando la zona compatible.
Basándonos en este método, el proyecto plantea generar las zonas compatibles para los principales bosques de todos los países que intervienen en la Red a partir de datos climáticos actuales. Y luego, en la fase siguiente, se repetirán las estimaciones modificando los mapas climáticos de acuerdo con los 4 modelos de cambio climático (MCC) más extendidos y 4 escenarios posibles (crecimiento sostenible, exponencial...).
La idea es comparar la distribución actual con la prevista por todos los MCC y ver qué se gana, qué se pierde y dónde.
Lógicamente, la cosa es algo más compleja que lo escrito arriba. Sólo en cuanto a los métodos estadísticos posibles llevamos trabajando tres años en nuestro grupo, realizando ensayos controlados con una docena de opciones y analizando los resultados para descartar algunas opciones y usar otras.

Mapa de distribución potencial del roble (Quercus petraea) en la Liébana (Cantabria) construido a partir de variables climáticas, topográficas y litológicas.

Fíjense que no hemos dicho nada sobre la exactitud o no de los MCC porque este ejercicio no la da por supuesta ni mucho menos. Es más, está previsto analizar los siguientes parámetros:
  • coherencia de las previsiones de los 4 MCC para cada variable climática (usamos 19) en cada tipo de escenario en cada país.
  • coherencia de las previsiones de cambios de distribución de cada bosque en cada tipo de escenario y en cada país.
El motivo es que puede pasar que los MCC predigan cosas distintas entre sí lo cual, según la magnitud de la discrepancia, generaría fuertes sospechas sobre los modelos y, ya de paso, invalidaría los posibles resultados. En cualquier caso, se analizará si existen zonas para las que todos los MCC predicen lo mismo: pérdidas, ganancias o ausencia de cambios en la extensión del bosque.

¿Cuál es la utilidad práctica de esto? Pues que al sectorizar las zonas de cambio y estabilidad datos información para orientar las políticas de gestión ambiental. Por ejemplo, sería razonable que las zonas de bosque que previsiblemente van a perderse sean prioritarias a la hora de destinar recursos para su estudio mientras duren, que las que supuestamente van a mejorar puedan protegerse de actuaciones agresivas basadas en que ahora no valen demasiado y que las que van a seguir igual puedan preservarse manteniéndolas como están. Claro que plasmar esto en normativa legal es una parte en la que nosotros ya no entramos.

Para finalizar: una de las peculiaridades de todo este asunto es que prácticamente todo lo necesario para llevar adelante este proyecto está disponible en internet sin restricciones de ningún tipo:
  • Documentación:
    • Modelos de cambio climático: CGCM2 (Coupled Atmosphere Ocean General Circulation Model, Canadian Center for Climate Modelling and Analysis), CSIRO2 (Commonwealth Scientific and Industrial Research Organization), HadCM3 (UK Hadley Centre for Climate Prediction and Research) y PCM (Parallel Climate Model, US National Center for Atmospheric Research)
    • Escenarios: se plantearán los denominados SRES-A1, A2, B1 y B2, descritos en The SRES Scenarios cuya descripción exhaustiva puede encontrarse en el Special Report of Emission Scenarios.
  • Datos:
  • Programas:
El desenlace en noviembre.

17 diciembre 2006

Vientos del Oeste (2)

¿Recuerdan esta figura? La puse en un post anterior donde hablaba de Vito Dumas y su inverosímil vuelta al mundo. Y también comentaba que la imagen provenía de un satélite llamado Quikscat que, con apenas 110 W, escaneaba continuamente los océanos para darnos datos de velocidad y rumbo del viento (diarios y gratuitos).


La figura representa la velocidad del viento en el hemisferio Sur, con la Antártida en el centro. La banquisa y las zonas terrestres aparecen en negro: pueden reconocer Sudamérica abajo a la izquierda, Australia arriba a la derecha y África y Madagascar asomando arriba a la izquierda.
La zona oscura central es la suma del hielo continental y oceánico con lo se puede seguir la extensión de la banquisa día a día desde que el satélite fue lanzado a mediados de 1999 (¿alguien se anima?).
Las velocidades están representadas en una gama de grises desde el negro (calmas) hasta el blanco (30 m/s o más).
En aquel post comenté la zona blanca en el Cabo de Hornos, de cuyas dificultades dan fe los testimonios literarios y los pecios en el fondo del mar. También estaba claro el cinturón de vientos llamados los 40 rugientes, por cuyo borde hizo el viaje Vito Dumas. Pero quedaban por explicar los fortísimos vientos justo al borde de la banquisa, rodeados por zonas más calmas. Hace unos días, de casualidad, encontré la razón.
El fenómeno ocurre en realidad en muchos lugares montañosos: durante el día, el Sol calienta las laderas y estas, por proximidad, el aire en contacto con ellas. Al calentarse el aire se hace más ligero y acaba por remontar ladera arriba en forma de brisa cálida. Por la noche, las laderas se enfrían por radiación y la capa de aire adyacente baja de temperatura. El aire frío, pesado, desciende ladera abajo acumulándose al final en los valles inferiores y facilitando las heladas de inversión que se acompañan frecuentemente de nieblas. Una vez sufrí un episodio que ilustra bien el fenómeno. Acampamos en el fondo de una dolina, donde se abría una cueva que queríamos explorar al día siguiente. Por la noche hizo un frío sorprendentemente intenso que apenas nos dejó dormir. Al amanecer fue suficiente con subir una centena de metros por las paredes de la dolina para que la temperatura subiera espectacularmente y, de paso, descubrir nuestra estupidez.
Se trata de los llamados vientos catabáticos, vientos de gravedad por los cuales el aire frío fluye sobre el terreno como un río hasta “desembocar” en las llanuras o en el mar.
En la Antártida, el símil debería ser más bien como un torrente o un tsunami porque se han medido vientos catabáticos de más de 300 km/h. En BBC Weather podemos leer un resumen:
But one of the strongest katabatic winds we experience on this planet blows in the Antarctic. Here the lowest layers of the air, sitting on some of the high plateaux, come into contact with the cold dense ice sheet. The air cools to very low temperatures and spills over the mountain ridges as a katabatic wind. These Antarctic winds have been measured at over 200 miles and hour and are some of the strongest winds measured on our planet at ground level, outside those in some tornadoes.
Los vientos catabáticos en esta zona son enormemente violentos no sólo por las bajísimas temperaturas sino por los grandes desniveles ya que la Antártida tiene 2500 m de altura media, una pista de aceleración magnífica porque, además, no hay árboles ni ningun otro obstáculo que retarde el flujo. El resultado es que en algunas bases científicas la velocidad media anual del viento supera los 70 km/h. Mal sitio para vivir, especialmente si la situación se adereza con episodios como el descrito en la estación Dumont d'Urville donde en 1993 se registró un periodo de vientos catabáticos de diez días durante los cuales la velocidad no bajó de 150 km/h. Como dicen en esa página, los tornados pueden ser más violentos pero desde luego no tan persistentes.
Para terminar, un recuerdo a Douglas Mawson, que trabajó en la medida sistemática del clima antártico. Fue él que que dio los primeros datos sobre estos huracanes de gravedad, tal vez porque plantó su “laboratorio” en el peor sitio posible: la Commonwealth Bay, el mejor observatorio de vientos catabáticos del mundo. Su libro The Home of the Blizzard, está disponible en Proyecto Gutemberg.

Sobre la Antártida sólo una frase: Antarctica is the coldest, highest, windiest, driest, and iciest continent on earth"(de aquí)
  • Temperatura mínima absoluta: -89.4 ºC (-129 ºF) en Vostok, 21 de julio de 1983 (temperatura mínima absoluta mundial).
  • Elevación media: 2500 m
  • Viento: lo dicho, registro de vientos de 360 km/h (200 mph) en la Commonwealth Bay.
  • Precipitación: la precipitación media no llega a los 5 l/(m2.año)
  • Hielo: en la Tierra de Wilkes se ha medido una capa de hielo de 4776 m de espesor.

24 noviembre 2006

Algo se derrite en Groenlandia

Datos calientes sobre deshielos y niveles del mar, saquen la canoa del sótano

¿Se acuerdan de Grace? Dos satélites gemelos que miden la gravedad de la Tierra. En el post sobre ellos les comenté un trabajo donde se hablaba de la reducción del hielo en la Antártida. Hoy se publica otro en Science cuyo resumen no puede ser más claro, les traduzco sólo una frase de los resultados (Gt son gigatoneladas):
Desde 2003 a 2005, la capa de hielo ha perdido 101±16 Gt/año, con una ganancia de 54 Gt/año por encima de los 2000 m y una pérdida de 155 Gt/año a menores alturas.
Esta tasa se ajusta bien a la estimación de -117 Gt/año hecha entre 1996 y 2005 mediante una técnica completamente diferente llamada interferometría radar de la que prometo hablarles próximamente.
Este segundo trabajo añade algunos datos sobre el movimiento de los glaciares; dicen, por ejemplo:
Hemos detectado una aceleración en los glaciares por debajo de los 66º N entre 1996 y 2000, que se ha ampliado a los 70º en 2005. La aceleración en la descarga de hielo supone un incremento en la pérdida de masa de hielo de 90 a 200 km3/año.
¿Qué efectos tiene esto sobre el nivel del mar? He buscado datos, no opiniones, y los he encontrado en la página Sea Level Change de la Universidad de Colorado. De nuevo, dos satélites son los responsables: Topex/Poseidon y Jason. Llevan altímetros que miden la distancia entre ellos y el mar con una precisión excepcional. Dada la incertidumbre en la posición orbital y el movimiento del mar, a pesar de esa precisión es necesaria una cantidad ingente de medidas para obtener una exactitud razonable. Pero ya las tenemos y los datos tomados desde 1992 señalan que el nivel medio del mar sube unos 3.0±0.6 mm/año. No parece mucho pero, al menos a mí, la gráfica me desasosiega un poco.

Para terminar y como dije al hablar de GRACE; los métodos de medida no saben de ideologías, ni de consecuencias políticas, son sólo instrumentos que toman datos, es decir, información verificable sobre la realidad. Los datos no saben si es usted neocon o antisistema, saque sus conclusiones pero no obvie la información.

Referencias
S. B. Luthcke, et al., 2006, Recent Greenland Ice Mass Loss by Drainage System from Satellite Gravity Observations, Science, 314 (5803): 1286-1289. DOI: 10.1126/science.1130776
Rignot, E.,Kanagaratnam, P., 2006, Changes in the Velocity Structure of the Greenland Ice Sheet, Science, 311 (5763): 986-990. DOI: 10.1126/science.1121381
Grab this Widget ~ Blogger Accessories
 
º