31 diciembre 2009

Fotografía: corrección de perspectiva

Ando estos días por Oviedo haciendo fotos de algunos edificios notables, a ver si me voy acostumbrando a mirar hacia arriba y no sólo al suelo o a los escaparates. Levantando la vista y planificando la foto en la cabeza te das cuenta de cosas que normalmente pasan desapercibidas. Una de ellas es lo difícil que resulta fotografiar un edificio completo, de suelo a techo, eludiendo coches, farolas y semáforos (de los anuncios ni hablamos). Otra, lo complicado de la luz en esas calles, donde las casas siempre están (Murphy ataca de nuevo) en sombra por sí misma o a la sombra de otra, especialmente en estas fechas invernales. La excepción son las plazas, con espacio ¡por fin! para decidir distancias y encuadres. Pero ahí atacan los cables. Estos días, la foto clásica de la fachada principal de la catedral es imposible porque a algún lumbreras se le ocurrió pasar un grueso cable eléctrico a diez metros de altura por el mismo medio de la plaza. La solución es acercarse y tomar la foto por debajo del cable pero eso genera un efecto que puede resultar molesto: la distorsión por perspectiva.
Es una deformación que depende estrechamente del ángulo de la toma respecto a la línea perpendicular a la fachada. Normalmente dejamos ese efecto sin corregir pero en las fotos arquitectónicas puede ser indeseable. Abajo tienen una imagen bastante normal donde pueden ver que las líneas de la fachada no son paralelas, por ejemplo, la casa es más ancha abajo que arriba y las estructuras verticales no son paralelas ni entre sí ni a los bordes de la foto. La solución directa sería hacer la toma perpendicularmente a la fachada y en su punto medio (a media altura también), circunstancias en las que la distorsión por perspectiva se hace mínima. En el caso de la foto de abajo ni siquiera pude ponerme más a la derecha porque había un camión aparcado a mi lado. La levitación ayudaría pero aún no la tengo entre mis habilidades.


En fotogrametría hay programas específicos para hacer la corrección por perspectiva y generar una ortoimagen: una imagen donde las propiedades métricas se conservan, es decir, sobre la que podemos medir y obtener datos de distancias y ángulos válidos. En fotografía no hace falta tanta historia y nos basta con una corrección aproximada. Hoy les cuento que he encontrado un filtro para Photoshop muy cómodo de usar y que pueden descargarse como versión de prueba en DCE Tools Essentials. Lo que hace es superponer una rejilla rectangular a la imagen y permitirnos mover las esquinas hasta ajustarlas a las estructuras de la foto. Fijados los cuatro vértices, se realiza una transformación que distorsiona la imagen hasta hacerla encajar en la rejilla rectangular inicial. El resultado con la foto anterior lo tienen abajo.

Este procedimiento no hace milagros y cuando es necesario expandir una zona de la imagen tiene que sacarse los píxeles de la manga, interpolando a partir de los realmente existentes. Si son pocos no hay problema pero si nos excedemos la resolución será claramente menor en el lado "corto" de la imagen original. Tampoco se trata de una transformación en tres dimensiones, sólo juega con píxeles en un plano, lo que genera extraños efectos si la imagen no representa un objeto esencialmente plano. Abajo tienen un ejemplo de ese problema.

La imagen original

La imagen rectificada. Observen que son visibles los laterales de las dos galerías, efecto especialmente notable en los aleros, justo por debajo de la vegetación. En estos casos puede ser conveniente corregir exclusivamente la distorsión vertical.
Que tengan un buen comienzo de año.

28 diciembre 2009

Crónica escrita de La Habana: monedas y monedas

No me gusta llegar a ciudades desconocidas de noche, probablemente es un reflejo condicionado por bastantes noches que pasé hace años haciendo auto-stop y donde el tránsito nocturno por las carreteras era tan necesario como deprimente. Aquí era inevitable pero además Iberia me obsequió con una hora más de retraso a añadir a las 10 horas necesarias para cubrir el trayecto. Eché de menos los asientos de Aeroméxico de una semana atrás, con algo más de espacio entre ellos y piadosamente algo más anchos (qué importantes llegan a ser unos centímetros al cabo de cinco o seis horas).

Aterrizamos a las 22 h locales, las 3 de la madrugada según reloj interno. ¿Es la primera vez que viene?­ —me preguntó una chica uniformada en el tercer control­—. Sí —contesté—. ¿Me puede hacer un favor? Claro ¿qué necesita? —ya empezamos, pensé—.

Aquí conviene una pausa. Favores en los viajes me han pedido unos cuantos, inocuos a veces y no tanto en según qué sitio. Por ejemplo, aquella chica marroquí que quería que le pasara a España un paquete envuelto en papel marrón y abundante cinta adhesiva que contenía, decía, pantalones para unos parientes suyos. O aquél sujeto en Bogotá que, argumentaba que no podía pagar el exceso de equipaje y que seguro que a mí me quedaban aún unos kilos disponibles en la maleta.

En este caso la cosa era menos evidente: la uniformada de espléndida sonrisa me pedía un billete de cinco euros a cambio de 5 pesos, el “cambio aproximado”, explicó. En fin, un pequeño peaje para salir del aeropuerto con más rapidez. Dije que sí, por supuesto, con la consiguiente pérdida de un euro y medio en la transacción. Bienvenido a Cuba, me dijo.

Por suerte ese fue el único detalle algo chungo de mi visita y se relaciona con el tema que hoy les cuento y con la pregunta ¿merece la pena intentar ese cambio fraudulento? Resulta que sí, que merece la pena, algo que se debe a una peculiaridad del sistema económico cubano: la existencia de dos monedas diferentes, derivada a su vez de la necesidad de que convivan dos mundos paralelos.

Verán abajo un par de billetes escaneados. Aparte de que están retocados para que no sean muy fieles al original hay una sutil diferencia entre ellos. Fíjense que el primero indica veinte pesos y el segundo un peso. Sin embargo, el primero vale menos que el segundo y en según qué sitios no podría siquiera usarse. La pista necesaria para resolver el "misterio" está en el rótulo que aparece debajo del valor en el segundo billete y que dice "pesos convertibles" (pulsar encima para ampliar).

El caso es que en Cuba existen simultáneamente dos monedas distintas, los pesos cubanos (moneda nacional) y los pesos convertibles o "CUC". El propio Banco de Cuba reconoce que esta doble circulación de monedas es una dificultad para la planificación monetaria y de hecho crea dos mundos diferentes. Por un lado, las transacciones en tiendas no agrícolas, los bienes y servicios turísticos y el propio combustible de vehículos se hacen en CUC. Por otro, en el mercado interno, fuertemente subvencionado por el Estado, se usan los pesos cubanos, moneda en la que cobra la mayoría de la población. Como podía suponerse, ambas monedas tienen un valor distinto y 1 peso convertible es oficialmente igual a 24 pesos cubanos en la compra y 25 en la venta. La norma es que el visitante debe cambiar su moneda por CUC para poder manejarse por Cuba y una pequeña fracción en pesos cubanos para algunos usos como propinas de aparcamientos o taxis populares. Todas las monedas fuertes se aceptan sin problemas y el euro en estos momentos se cambia por 1.33 CUC aproximadamente. Sin embargo, llevar dólares estadounidenses no es una buena idea ya que su cambio está penalizado con un 10%. También pueden usarse tarjetas de crédito en los lugares turísticos con la excepción de las emitidas por bancos de EE.UU., que no están admitidas.

Mercado en La Habana

Cobrar en la moneda nacional es equivalente a estar excluido de todo el entramado comercial que opera en CUC ya que los precios son un auténtico disparate para el ciudadano cubano. Por poner un ejemplo, el salario medio en Cuba supera un poco los 400 pesos cubanos y el de un licenciado universitario anda por los 700, algo menos de 30 CUC en este último caso. En el ámbito de los titulados superiores he conocido gente que cobra más (hasta 1200 pesos) o menos (hasta los mencionados 400). Dado que una comida tipo "plato del día" (no a la carta) en un restaurante normal (no de lujo) en La Habana está entre los 8 y los 10 CUC (190-240 pesos cubanos), es fácil entender que se trata de un servicio dirigido solamente al visitante que llega con moneda fuerte, no para el ciudadano local.

Otra consecuencia que se deriva del doble mercado es que en la realidad el cambio del CUC es ficticio ya que está fijado de forma artificial desde el Estado, que parece manejarlo en mi ignorante opinión como un arancel ante la entrada de divisas y para hacer acopio de monedas fuertes utilizables en el mercado internacional.

La doble moneda hizo su aparición en 1993, cuando se despenalizó la tenencia de divisas y se permitieron las cuentas bancarias en dólares como reacción a la hiperinflación derivada de la enorme crisis de esos años en Cuba. A la entrada del dólar en la economía se sumó la apertura a inversiones extranjeras, lo que permitió hacer frente a la pésima situación económica. Aunque la economía local siguió funcionando en pesos cubanos, el dólar circulaba como moneda alternativa en transacciones, compras y ventas de cierta entidad. Esto generó también problemas ya que hubo empresas que trabajaban en dólares mientras que otras, especialmente las dependientes del Estado por economía o por regulación siguieron con los pesos.

En el año 2003 las cuentas en dólares se convirtieron progresivamente a CUC, una moneda que existía ya antes pero que era marginal hasta ese momento. Todo el mercado fuerte pasó a trabajar en CUC y el dólar desapareció de la circulación nacional. Desde entonces, la doble moneda persiste al no equilibrarse el mercado interno con el externo. El coste social ha sido grande para los que no tienen acceso al peso convertible mientras que en sectores económicos relacionados con el turismo surgen oportunidades de lucro desproporcionadas respecto al mercado interno. Por otra parte, el cambio obligado a CUC permite aumentar la reserva de divisas y tener una garantía más fiable para el comercio exterior, reticente a operar con el peso cubano, cuya exportación está prohibida y que no cotiza en mercados internacionales.

Los cubanos esperan que la promesa, hecha hace ya mucho tiempo, de que el peso cubano y el CUC acaben convergiendo llegue a ser una realidad. Por ahora no parece que esté próximo dicho acontecimiento ya que el cambio se mantiene fijo y la economía cubana no logra hacer despegar la moneda nacional. Mientras tanto, la gasolina "especial" supera 1 CUC por litro y el alquiler de un coche pequeño anda por los 50-70 CUC diarios. En contraste, un autobús urbano cuesta apenas 0,40 pesos cubanos y un taxi popular (los "almendrones") son 10 o 20 pesos cubanos según el trayecto.

Los almendrones son viejos coches de los EE.UU. que se usan para transporte público y donde la gente sube y baja durante los trayectos para llevar el coche siempre lleno. El coche de la foto es particular (lleva matrícula amarilla) pero es uno de los múltiples modelos que circulan por La Habana, un auténtico museo del coche estadounidense de décadas atrás.

25 diciembre 2009

De RAW y bits ¿por qué tomar fotos en formatos "brutos"?

Llevaba muchos años haciendo fotografías con cámaras analógicas, las que había en ese tiempo. Cuando decidí que había que comenzar con las digitales se plantearon algunas incógnitas porque algunos conceptos eran radicalmente nuevos.

Una de las cuestiones era decidir sobre el formato y la calidad de las fotos. Para mí la respuesta era evidente ya que considero que las fotos son lo único que nos queda del pasado, más fieles que los recuerdos y, por supuesto, algo mucho más duradero. Bajo ese punto de vista siempre quiero la mayor calidad posible dentro de las limitaciones que pueda tener en cada momento.

Con algunas cámaras pequeñas la cosa no es demasiado complicada porque sólo nos ofrece la opción del formato JPEG con alta, media o baja calidad. En este caso, la calidad es función inversa de la compresión de las imágenes. JPEG es un formato que nunca respeta los datos originales sino que los reduce a unos coeficientes que permiten su almacenamiento en ficheros de menor tamaño del que sería necesario para conservar la toma original. Al descomprimir o decodificar la imagen sólo se recupera una aproximación de los valores iniciales de los píxeles. Y a mayor compresión, menor tamaño y peor calidad. Toqué el tema hace casi tres años en Que no, que no trabaje con imágenes JPEG (relacionada, por si les pica la curiosidad: Porqué no escuchar a Amaral en el teléfono móvil). Después de leer ese post queda claro que debemos huir del JPEG si podemos y si no es así grabar con la máxima calidad posible y, caso de querer manipular las fotos, pasarlo previamente a un formato como TIF, que se comprime sin pérdida de calidad (usen el algoritmo LZW, claro).

Los formatos RAW
Con las cámaras un poco más avanzadas las opciones cambian y creo que todas permiten grabar en el formato llamado genéricamente RAW y que en cada marca puede adoptar nombres diferentes: NEF en Nikon, CRW en Canon...
Ahora tengo una Nikon D70s, comprada de segunda mano hace unos meses. Las incógnitas en este caso eran la naturaleza del formato RAW, llamado NEF en mi caso, si tenía que usarlo preferentemente a cualquier otro y las razones para ello.
Como solo soy un principante en esto (saben de mi pasión por hablar de lo que ignoro) lo que les contaré a continuación les parecerá banal a algunos de ustedes pero como no lo he encontrado bien explicado por ahí, se lo suelto condensado por si resulta de interés.

El sensor digital y la resolución radiométrica
El primer punto es saber cómo funciona, aunque sea muy someramente, una cámara digital. La idea básica es que el objetivo transmite la imagen exterior sobre una matriz de minúsculos sensores sensibles a la luz llamados CCD o CMOS según el tipo. Cuando nos dicen que nuestra cámara tiene 8 Megapíxeles significa que hay aproximadamente 8 millones de elementos fotosensibles en esa matriz. Es importante saber que esos elementos son sensibles a la intensidad de la luz no a su color. Consecuentemente, el sensor solo capta imágenes en tonos de gris. ¿Cómo se reproduce el color? Pues haciendo el truco se poner sobre cada elemento del sensor un filtro que solo deja pasar la luz verde, azul o roja. Si un elemento recibe solamente la componente verde de la luz, está midiendo la intensidad de ese color. Si sus vecinos miden respectivamente la de la luz azul y roja, podrán combinarse las tres medidas para tener una idea aproximada del color real de la luz.

Lógicamente, este método reduce la resolución efectiva del sensor al color porque, aunque el número de píxeles sigue siendo el mismo, el color debe asignarse en grupos como mínimo de tres píxeles. El proceso de mezcla se denomina demosaicing en inglés y el filtro se llama Bayer por Bryce E. Bayer, el tipo que lo inventó. El filtro suele estar formado por un 50% de elementos verdes, un 25% de rojos y un 25% de azules. Se dice que la abundancia de verdes se debe a la mayor sensibilidad de ojo humano a los matices de ese color aunque debo confesarles que yo no lo tengo nada claro.

¿Qué pasa cuando la luz, sea del color que sea, incide sobre un elemento fotosensible? El resultado es que cada elemento genera un voltaje eléctrico proporcional a la luz recibida. Este voltaje es analógico y debe ser trasformado a un valor digital. Aquí viene uno de los puntos clave del asunto: no todos los sensores son capaces de diferenciar el mismo número de niveles de iluminación. A esa capacidad se le suele llamar resolución radiométrica. Si un sensor tiene una resolución radiométrica de 8 bits se supone que es sensible a 256 diferentes grados de iluminación entre el mínimo y el máximo de luz que mide (2 elevado a 8). Por debajo del mínimo, que no tiene que ser necesariamente la oscuridad absoluta, la señal será nula y a partir de cierta intensidad de luz el sensor queda saturado y ya no es capaz de medir niveles superiores.
En resumen, un sensor nos proporciona intensidades de luz entre 0 y un número variable de niveles que depende de su resolución radiométrica: 0-255 para 8 bits, 0-4095 para 12 bits y 0-16383 para 16 bits. Además, se almacena un conjunto de metadatos sobre la cámara, la toma (diafragma, velocidad de obturación...), etc.

Millones de colores
Los niveles pueden ser de rojo, verde o azul gracias al filtro Bayer y al combinarlos para obtener el color real de cada zona de la imagen multiplicamos las posibilidades. Si trabajamos con 256 niveles por color primario, el número de colores que se pueden definir es de 256 x 256 x 256, unos 16,8 millones. Eso parece mucho pero si el sensor es de 12 bits serán casi 69 mil millones de colores y con 14 bits llegamos a superar los 4,3 billones.
Parece que nuestro ojo puede distinguir varios millones de colores (las referencias que he encontrado son muy contradictorias pero la más seria parece ser esta) pero está claro que los 12 o 14 bits exceden nuestra capacidad sensorial. Por añadidura las pantallas de ordenador son normalmente de 24 bits (8 bits por color primario) y excepcionalmente de 30 bits (ver este modelo de HP). En cualquier caso, parece innecesario tomar imágenes en 12 o 14 bits por color primerio ya que eso nos lleva a poder componer un montón de modulaciones que jamás veremos y que no podemos representar siquiera en una pantalla. ¿O esto no es del todo correcto?

Los motivos del RAW
Yo creo que el enfique anterior no es correcto y que debemos siempre tomar las imágenes en RAW con el máximo número de bits que nos permita la cámara. El motivo es que las imágenes son digitales, es decir, están codificadas en cifras y esa información, aunque no podamos verla, existe y puede ser procesada. Cuando tomamos la misma escena en 8 y 12 bits, el rango dinámico no cambia pero la resolución tonal, la capacidad de resolver tonos diferentes, sí. Eso es enormemente importante si luego queremos manipular las fotos para, por ejemplo, realzar detalles en las zonas más oscuras o modificar las importancias relativas de luces, medios tonos y sombras: en los 12 bits habrá mucha más información que en los 8 bits y los resultados serán muy diferentes. Gracias a esta información podremos también corregir mejor problemas derivados de contraluces o de errores en la exposición.

El formato RAW es, en resumen, un enorme depósito de información apenas procesada a partir del cual podemos empezar a trabajar con cualquier programa como Gimp o Photoshop para realizar los tratamientos básicos que son casi siempre necesarios: corregir las desviaciones tonales y mejorar la resolución tonal en las zonas extremas, más oscuras y más iluminadas. Eso sí, no olviden guardar los RAW originales como guardaban antes los negativos analógicos.

Un formato abierto para los ficheros RAW
Comenté antes de pasada que hay varios formatos que pueden incluirse genéricamente bajo la denominación RAW. De hecho, cada marca de cámaras tiene el suyo del que no sólo no desvela su estructura sino que habitualmente difiere de los demás en la longitud de su cabecera, en los metadatos o, incluso, en el uso o no de niveles ligeros de compresión. Esto plantea problemas ahora y en el futuro ya que el NEF actual puede no ser legible por un Photoshop o Gimp de dentro de cinco años. Una posible solución ha venido de Adobe, que propuso en septiembre de 2004 un formato abierto llamado DNG (Digital Negative), basado en un estándar previo de escaso éxito (TIFF/EP). Para intentar que se convierta en un estándar más aceptado ha puesto en internet un programa gratuito, Adobe DNG Converter, que lee los RAW y los transforma en DNG sin pérdida de información y conservando los metadatos. Posteriormente estos DNG deberán ser importados por nuestro programa de proceso de imágenes, manipulados en lo que nos apetezca y guardados en otro formato no-RAW. En ese paso yo prefiero usar TIF de 16 bits a pesar del mayor tamaño de las imágenes. A partir de aquí, lo que quieran; por ejemplo, Flickr sólo admite JPG, GIF y PNG por lo hay que hacer la transformación pertinente y asumir que Flickr es sólo un muestrario de imágenes de calidad limitada y no un almacén de fotos de la más alta calidad. Esas deben quedar en nuestro disco externo y en nuestra copia de seguridad.

15 diciembre 2009

02 diciembre 2009

En defensa de los derechos en la Red

Al conocerse algunos aspectos un tanto sorprendentes de la "Ley de economía sostenible" propuesta por el actual gobierno de España, un grupo de personas elaboró ayer este manifiesto al cual me adhiero y doy publicidad.

Ante la inclusión en el Anteproyecto de Ley de Economía sostenible de modificaciones legislativas que afectan al libre ejercicio de las libertades de expresión, información y el derecho de acceso a la cultura a través de Internet, los periodistas, bloggers, usuarios, profesionales y creadores de internet manifestamos nuestra firme oposición al proyecto, y declaramos que…
  1. Los derechos de autor no pueden situarse por encima de los derechos fundamentales de los ciudadanos, como el derecho a la privacidad, a la seguridad, a la presunción de inocencia, a la tutela judicial efectiva y a la libertad de expresión.
  2. La suspensión de derechos fundamentales es y debe seguir siendo competencia exclusiva del poder judicial. No debe producirse ningún cierre sin sentencia. Este anteproyecto, en contra de lo establecido en el artículo 20.5 de la Constitución, pone en manos de un órgano no judicial -un organismo dependiente del ministerio de Cultura-, la potestad de impedir a los ciudadanos españoles el acceso a cualquier página web.
  3. La nueva legislación creará inseguridad jurídica en todo el sector tecnológico español, perjudicando uno de los pocos campos de desarrollo y futuro de nuestra economía, entorpeciendo la creación de empresas, introduciendo trabas a la libre competencia y ralentizando su proyección internacional.
  4. La nueva legislación propuesta amenaza a los nuevos creadores y entorpece la creación cultural. Con Internet y los sucesivos avances tecnológicos se ha democratizado extraordinariamente la creación y emisión de contenidos de todo tipo, que ya no provienen prevalentemente de las industrias culturales tradicionales, sino de multitud de fuentes diferentes.
  5. Los autores, como todos los trabajadores, tienen derecho a vivir de su trabajo con nuevas ideas creativas, modelos de negocio y actividades asociadas a sus creaciones. Intentar sostener con cambios legislativos a una industria obsoleta que no sabe adaptarse a este nuevo entorno no es ni justo ni realista. Si su modelo de negocio se basaba en el control de las copias de las obras y en Internet no es posible sin vulnerar derechos fundamentales, deberían buscar otro modelo.
  6. Consideramos que las industrias culturales necesitan para sobrevivir alternativas modernas, eficaces, creíbles y asequibles y que se adecuen a los nuevos usos sociales, en lugar de limitaciones tan desproporcionadas como ineficaces para el fin que dicen perseguir.
  7. Internet debe funcionar de forma libre y sin interferencias políticas auspiciadas por sectores que pretenden perpetuar obsoletos modelos de negocio e imposibilitar que el saber humano siga siendo libre.
  8. Exigimos que el Gobierno garantice por ley la neutralidad de la Red en España, ante cualquier presión que pueda producirse, como marco para el desarrollo de una economía sostenible y realista de cara al futuro.
  9. Proponemos una verdadera reforma del derecho de propiedad intelectual orientada a su fin: devolver a la sociedad el conocimiento, promover el dominio público y limitar los abusos de las entidades gestoras.
  10. En democracia, las leyes y sus modificaciones deben aprobarse tras el oportuno debate público y habiendo consultado previamente a todas las partes implicadas. No es de recibo que se realicen cambios legislativos que afectan a derechos fundamentales en una ley no orgánica y que versa sobre otra materia.
Para profundizar en el asunto y tener claro qué es y qué no es este anteproyecto sugiero leer el post La economía sostenible e Internet, un desastre en ciernes.

01 diciembre 2009

Reunión en México

Como aparece en los comentarios del post anterior, he tenido una temporada muy saturada lo que me ha obligado a dejar el blog en espera. Por suerte la cosa parece que mejora. Desde el verano he estado preparando el informe final de un proyecto que ya les comenté hace un tiempo en ¿Cómo será de verde la Península en 2100? y en EnRedados. Dicho proyecto ya está entregado y el wiki donde se explica todo se hará público en enero, ya les iré comentando algo de los resultados. Por otra parte, he tenido un viaje en noviembre cuya preparación también me ha tenido ocupado y este próximo domingo me voy de nuevo. Para entretener la espera hasta que me asiente de una vez les pongo aquí algunas fotos del viaje pasado, tomadas en el día de asueto donde salimos a pasear cámara en ristre. En esta ocasión es fácil saber cual es el sitio. Si les gusta la muestra, les animo a echar un vistazo al álbum en Flickr.




Vista general de la fachada de la Catedral de México. Está construida uniendo dos fotogramas con lo cual el tamaño final es de 3309 x 3259 píxeles (disponible en Flickr). Como no usé trípode no fue posible que los bordes superior e inferior encajaran correctamente. Las fotos anteriores son de un pueblo llamado Malinalco, donde parece que informaron al emperador mexica Moctezuma que habían llegado unos hombres blancos a las costas orientales de sus dominios.

23 octubre 2009

Entre las mariposas

El mariposario del Parque de las Ciencias en Granada es un lugar algo sofocante, un microclima necesario para que puedas verte rodeado de mariposas que tienen todo su ciclo vital en ese relativamente pequeño espacio. Les pongo una foto tomada sobre la marcha, algo un poco difícil dada la luz tamizada y el continuo movimiento de los coloristas bichejos.

El tapiz del millón de arañas

Es sólo una curiosidad pero me apetece contársela. El American Museum of Natural History expone un tapiz con unas dimensiones de 3.4 x 1.2 m cuya característica más exótica es que está hecha de seda de araña. Durante 4 años, setenta personas se dedicaron a capturar arañas en la estación de las lluvias en los alrededores de Antananarivo, Madagascar. Otra docena de personas se dedicó a urdir los hilos y a tejer el tapiz con su seda en un telar manual y con técnicas desarrolladas, por lo visto, a finales del XIX por un tal Jacob Paul Camboué, misionero francés.
Cada araña puede producir unos 25 m de seda, de ahí (y de la pasión por los números redondos) la estimación de que el tapiz ha necesitado sobre un millón de arañas para ser tejido. Un cálculo rápido supone que cada persona debió capturar unas 30 arañas al día durante el periodo de recolección, algo tal vez un poco exagerado. A pesar de todo, millón arriba, millón abajo, el tapiz está expuesto en la Gran Galería del museo ostentando un espectacular color dorado.
La araña es Nephila madagascariensis, un bicho bastante grande como pueden ver en la foto de abajo. Más datos en Spider silk.

Nephila madagascariensis (pulsar encima para ampliar); foto del AMNH.

Fragmento del tapiz dorado (foto AMNH)

10 octubre 2009

Hoy que es de madrugada

Hoy que es domingo y es de madrugada y llevo un tiempo perdido por Youtube y Spotify mientras los demás duermen, me apetece ponerles un poco de música. Es ese estado de ánimo que llega a veces sin avisar el que me permite usar como coartada y como catalizador que Mary Travers murió hace un par de semanas y que en mi adolescencia pasé muchas horas oyendo su música, la de Peter, Paul & Mary. La oí a destiempo, como tantas cosas que hicimos en esos años, qué le vamos a hacer. A destiempo pero, viéndolo hoy con perspectiva, no necesariamente mal. Que tengan una buena noche.

08 octubre 2009

Cómo ver murciélagos negros en una noche oscura

En Cómo se enfría un tucán ya vimos alguna posibilidad de las cámaras térmicas que, como su propio nombre sugiere, miden la emisión de calor del objeto. Hoy, aunque ya ha salido por varios sitios, les comento un trabajo del biólogo
Nickolay Hristov de la Winston-Salem State University. Al hombre se le ocurrió que sería bueno hacer una estimación de la cantidad de murciélagos que viven dentro de las cuevas Carlsbad en Nuevo México. El problema era que los bichos tenían la irritante costumbre de salir de noche y claro, así no hay quien vea nada. Pero a grandes problemas, grandes soluciones y Hristov consiguió una cámara térmica con la que cada murciélago se ve algo así como un espermatozoide errante.
Aunque uno de los videos se ha hecho medio famoso, el trabajo original pasó desapercibido. El artículo es de acceso libre:
Hristov et al., 2008, Applications of thermal infrared imaging for research in aeroecology, Integrative and Comparative Biology, 48(1): 50-59.
En el trabajo cuentan algunas cosas interesantes y dan alguna imagen más de murciélagos. Por ejemplo, abajo tienen una toma global de una colonia dentro de la cueva. Las temperaturas son más altas donde hay mayor aglomeración de bichos, cuyo número se ha estimado en este caso en unos 542000. Mil arriba, mil abajo, supongo.

Abajo les pongo el video mencionado, tomado dentro de una de las galerías de la cueva. Los trazos de cada murciélago se deben al retardo de la cámara térmica. Por si tienen curiosidad por los gadgets, la cámara es una FLIR Therma CAM S65.



La resolución de la imagen no es gran cosa, de 640x480 píxeles pero el efecto es espectacular. Por si tienen más curiosidad, en la parte de material suplementario tienen seis videos para disfrutar un rato.

07 octubre 2009

La ciencia en España no necesita tijeras

Gabilondo lo sintetizó con claridad en un informativo el pasado 1 de octubre, después de lo que ya he comentado en este blog y de los artículos destacados en Twitter creo no hace falta decir más, sólo hace falta una rectificación por parte de nuestras volubles autoridades.



04 octubre 2009

En busca del Orang Pendek

Hace un tiempo les comenté la existencia de una organización especializada en esa ficticia disciplina llamada criptozoología. Esa organización se llama Centre for Fortean Zoology y está formada por personas inasequibles al desaliento ya que los resultados de sus pesquisas y expediciones son indistiguibles de cero año tras año. Leo en El País a Enric González reseñando el final de su última campaña: una expedición a Sumatra en busca del orang pendek, un homínido habitante de las junglas, menos famoso que el yeti pero igualmente inexistente.

Las campañas de la CFZ son, ahora que lo pienso, como las de Atapuerca, pero con una sutil diferencia: en Atapuerca trabajan científicos que van extrayendo maravillosos fragmentos de lo que fue nuestro pasado; en el CFZ "trabajan" cantamañanas que no han aportado jamás la más mínima evidencia de que lo que hacen no sea estúpido.

¿He sido duro con eso de "cantamañanas"? Tal vez merezca la pena que les reponga un post donde hablaba de otra campaña del CFZ en busca, en esa ocasión, del ninki-nanka. Subtitulé el post "donde una expedición que vende tangas parte hacia Gambia a buscar dragones (o algo así)". Ahora verán la razón.

El ninki-nanka es un dragón estilo Fujur con “escamas simétricas” (¿) y una cresta sobre una cabeza caballuna. El intrépido investigador que comanda la expedición se llama Richard Freeman, director zoológico del CFZ, “the only professional, scientific and full-time organisation in the world dedicated to cryptozoology”. Llevan en este empeño desde 1992 con numerosas expediciones tras el “gusano de la muerte” de Mongolia (de más de 1 m de longitud, saliva corrosiva y capaz de matar camellos con sus descargas eléctricas), serpientes gigantes en Tailandia y, cómo no, chupacabras en Puerto Rico.

Los resultados hasta ahora son escasos. Bueno... son cero. Los reportajes de las expediciones son de turista, ahora foto con este lugareño, ahora señalo el sitio donde apareció el bicho… Ni un ejemplar, ni un resto, ni siquiera pelos o excrementos. Tampoco fotos aunque en estos tiempos es tan fácil trucarlas que no las aceptaría nunca como prueba de nada.

Y es que yo, siempre positivo, quiero llamar la atención de los criptozoólogos sobre el hecho simple de que cualquier pelo o cagada del yeti, bigfoot o bestia extraña sería una prueba irrefutable de su existencia. Actualmente no hay problema alguno en analizar el ADN contenido en dichos elementos lo que confirmaría si se trata de algo conocido o de algo extraño y, en su caso, lo colocaría en su lugar taxonómico. Y lo mismo digo con restos de saliva en las víctimas del chupacabras o del gusano asesino. ¿No saben esto los “profesionales” de la criptozoología?
Consecuentemente ahora viene la pregunta clave: ¿cagan los dragones? Es una suposición razonable, supongo, que permitirá que Freeman traiga una bosta de ninki-nanka cuyos análisis nos convencerán a todos de que algo raro está pasando ahí afuera.

Pero no, lamentablemente, al fin de la expedición todas las evidencias apuntan a que los ninki-nanka no cagan ya que no han traído nada que sea analizable y creo que un resto de semejante criatura no debería pasar desapercibido.

El caso del orang pendek es como todos, muchas fotos turísticas en el blog de la expedición y poco donde hincar el diente. Salvo algo interesante, perdido en el texto de uno de los posts: afirman haber recogido pelo en un árbol cerca de una serie de misteriosas huellas y prometen que los resultados del análisis de ADN se harán rápidamente ¿estamos ante la prueba definitiva? Sospecho que dicho análisis será banal o no se hará público nunca pero bueno, es sólo mi opinión, vamos a esperar acontecimientos. La noticia es del pasado 29 de septiembre, a ver si durante este mes nos dicen algo. Como era de esperar, Freeman no ha perdido el tiempo y ya ha propuesto nombre científico para el homínido, Pongo martyri. ¿Para qué esperar al ADN? Le asignamos incluso posición taxonómica y listo. Con un par.

Mientras tanto, las actividades del Centre for Fortean Zoology no se limitan a viajar por el mundo en traje de camuflaje, también tienen tiendas en varios lugares de la red. Por ejemplo, pueden ustedes comprarse un tanga con la foto de Freeman para colaborar con la causa. Yo paso porque no creo que me quedara bien.

[Súmate a la iniciativa la ciencia en España no necesita tijeras]

01 octubre 2009

[Breves] Manuel Alcántara en hoy.es

"Nuestros gobernantes son como aquel general que era tan valiente que no se rendía ni ante la evidencia..."
La de arriba es una de las frases memorables que Alcántara suele espolvorear sobre sus artículos. En este habla de los recortes presupuestarios en ciencia.

30 septiembre 2009

Cambio global: intenciones y contradicciones

Aventuraba yo el otro día hablando del desarrollo y de la "sostenibilidad" que anunciar medidas a medio y largo plazo está bien pero no cuando, a) se usan como coartada para no poner en práctica otras medidas evidentes y de urgencia inmediata y/o b) en realidad no se piensa en llevarlas a la práctica cuando llegue el momento. M. A. Sabadell abundó en este asunto en su blog en Público hace unos meses.

La cosa venía a cuento de que, como ya les conté alguna vez, estamos finalizando un proyecto donde intentamos evaluar los potenciales efectos que algunos escenarios de cambio climático tendrían sobre la vegetación peninsular. No puedo aún darles detalles pero la cosa pinta de regular a mal. Y claro, en las reuniones ya se empieza a plantear la discusión: ¿qué se puede hacer para reducir ese posible daño?

La pregunta es un arma de doble filo: por un lado se reconoce la necesidad de hacer algo pero, por otra, se reconoce el fracaso de no haber hecho nada en el pasado. Por ese motivo, y aunque las discusiones tienen su interés, creo poco en las medidas que podemos recomendar tomar. La causa es mi impresión de que muchas medidas de protección del medio natural son esencialmente lo que dije antes: coartadas. Me explico con un ejemplo conocido: España firma en 1990 el compromiso de que en el año 2014 sus emisiones de CO2 no se incrementarían más allá del 15%. A 5 años de esa fecha nuestras emisiones ya han aumentado casi el triple. ¿Cuál es el motivo? Pues fácil: después de firmar no se ha hecho gran cosa para controlar esas emisiones. Eso sí, la firma se presentó como un éxito, un gran detalle de solidaridad mundial y de buen rollo ambiental. ¿Qué se va a hacer cuando llegue la fecha y se haga patente el flagrante incumplimiento? Con mis poderes paranormales predigo que se firmará otro acuerdo, tal vez más ambicioso (total, qué más da) pero con fecha del 2025 o 2050. Y con este pasará, muy probablemente, lo mismo que con el anterior.

Parece común en estos tiempos la sensación de que firmar un acuerdo es suficiente para conseguir la meta. O de que anunciar que algo se va a hacer es equivalente a haberlo hecho. Parece tan común como la desidia para tomar medidas inmediatas ante los daños reales que estamos, ahora, viendo crecer ante nuestros ojos.

En el caso de nuestro proyecto de vulnerabilidad de la vegetación nos encontramos con una paradoja (parajoda diría alguno) que afecta tanto a los bosques como a las especies singulares. Ambos grupos lo van a pasar mal y probablemente algunas especies desaparezcan definitivamente si se confirma alguno de los escenarios analizados. Pero su problema principal no es el cambio climático, nunca lo ha sido. Su problema viene de nuestra actuación pasada y actual. Varios bosques pueden verse reducidos drásticamente pero esto es una consecuencia sobrevenida sobre la realidad de que ya los tenemos en una situación crítica: fragmentados y limitados a unas extensiones ridículas respecto a su área potencial. Del mismo modo, muchas especies que actualmente están en las “listas rojas” o equivalentes, lo están debido como causa primaria a la reducción o degradación de su hábitat no porque hayan subido las temperaturas de febrero o bajado las lluvias de abril.

Temperatura media de las máximas anual en el periodo 1961-1990; los datos de las estaciones provienen de la AEMET, su tratamiento, organización y proceso posterior (interpolación y gradientes antitudinales) es nuestro.

Otro día me desahogo y les cuento algunas medidas obvias que hay que tomar, a ver si están de acuerdo conmigo. Mientras tanto les diré que la semana pasada estuve en La Casa Encendida en Madrid, reunido con otros "agentes" de la compleja cadena que analiza y propone cosas respecto al llamado "cambio global". Analiza y propone pero no dispone. Allá estábamos un par de universitarios, algunas organizaciones ecologistas, otras ONG no directamente ecologistas, sindicatos del campo, seguros, algún medio de comunicación y varios técnicos del Ministerio y de las Comunidades Autónomas. Por la mañana nos dedicamos en privado a hablar de los problemas y retos, también de las soluciones. Por la tarde hubo una mesa redonda pública en el auditorio.

Mis sensaciones son encontradas. Por un lado es necesario hacer estas reuniones, por otro nunca sale nada nuevo de ellas. Lo que sí me quedó claro fueron dos cosas, una buena y otra mala. La buena es que el personal técnico, funcionario o contratado, es generalmente estusiasta y se molesta en hacer bien su trabajo. La mala es que en el piso de arriba, los políticos de ir y venir cada cuatro años, no les hacen ni puñetero caso. Los tienen porque mola en estos tiempos pero no se creen nada ni están dispuestos a mojarse lo más mínimo. Finalmente, la repetición de ese patrón de exigencia y frustración tiene efectos demoledores en los técnicos. La muestra de ese divorcio, el más importante de toda la cadena de decisión, es que los políticos no están nunca en las discusiones, eso lo dejan a los técnicos que, lógicamente, no tienen responsabilidad en las decisiones finales, en la acción o la inacción.

Por lo tanto, las medidas que propondremos serán probablemente brindis al sol porque suponen decisiones serias y con efectos a medio y largo plazo. Para un político medio esto carece de interés: muchos no creen que haya que hacer nada (primera dificultad) pero aunque eso no se de, las decisiones son complicadas y van contra la corriente: mucha mejor gestión del suelo, mucha menos contaminación, mucho mejor control en la explotación del agua, muchos más medios contra los incendios, promoción real y decidida del transporte público... todo ello aderezado con honradez en la gestión urbanística, sensibilidad ambiental y mucho sentido común. Nada interesante a cuatro años vista.

Les dejo con un par de mapas, el de arriba y el de abajo. Tenemos muchos más, a cientos, resultado de modelizaciones donde trabajamos con tres modelos, dos escenarios (A2 y B2) y tres horizontes temporales. Como ya se han expueto en público creo que puedo ponerlos aquí para ir abriendo boca y contarles más adelante los detalles de la cuestión, lo que hemos hecho y lo bueno y lo malo del proyecto, que de todo hay, claro.

Temperatura media de las máximas anual prevista en el periodo 1971-2100 de acuerdo con el modelo CGCM2 y el escenario A2. La escala de colores es la misma que en la figura de arriba. La temperatura media se incrementa 4.6 ºC.

27 septiembre 2009

Donde dije digo, digo Diego: recortes en investigación

Hace pocos años, el gobierno nos hablaba con entusiasmo de que con ellos llegaría el fin del "retraso histórico" en la investigación en España, de sangrante fuga de cerebros, de la precariedad en la carrera investigadora. Al contrario, comenzaríamos a potenciar la búsqueda de la excelencia que nos llevaría a la única salida a la situacióin actual: el cambiar el modelo productivo sosteniéndolo sobre la investigación e innovación.
Hoy, con la volubilidad propia de la ausencia de convicciones, con la alegre algarabía de los inconscientes, nos dicen que todo ha cambiado. Todo aquello era sólo si la cosa económica iba bien, si no, hay otras prioridades. En el borrador de presupuestos para el año que viene se barajó inicialmente una reducción de los fondos para ciencia de un 37%, que luego dicen que redujo hasta un 18%. Todo filtraciones, ni confirmadas ni desmentidas por la que fue la "gran esperanza" venida de la empresa, la ministra Cristina Garmendia cuyas intervenciones son cualquier cosa menos claras (copio y pego de La Vanguardia.es):
Cristina Garmendia declaró ayer en Bruselas que "es una prioridad del Gobierno mantener la inversión en I+D+i", informa Europa Press. Garmendia dijo que "no se va a recortar ningún proyecto del Plan Nacional" de los que están en marcha –que ya tenían presupuesto asignado– y que "habrá nuevas convocatorias del plan nacional con presupuesto suficiente" –aunque no precisó cuántas convocatorias ni a cuánto asciende el concepto suficiente–.
El compromiso electoral de Zapatero de aumentar la inversión en I+D un 16% anual para acercarse a ese objetivo del 3% no se ha cumplido ni una sola vez en esta legislatura. Sí se cumplió en el 2008, aunque con presupuestos aprobados en la legislatura anterior. En el 2009 el aumento ya sólo fue del 2,5% –que una vez tenida en cuenta la inflación quedó en un crecimiento casi nulo–. Y en el 2010 se va a hacer "el máximo ejercicio de austeridad", reconoció el martes la ministra Cristina Garmendia.
La primera legislatura sí fue comprometida con el objetivo ya que entre 2005 y 2008 la inversión casi se duplicó. Pero todo eso debe ser un movimiento a medio y largo plazo, no "premios" unos años sí y otros no. Lamentablemente, la falta de consistencia de la política científica sólo genera desconcierto y desánimo, todo ello en contradicción con el objetivo aprobado en la UE en el año 2002, con España a favor, de aumentar la inversión en I+D hasta el 3% del PIB. La firma de este acuerdo, vendida en su momento como un éxito, era esencialmente humo, como se demuestra ahora. Nuestra inversión real no llegaba al 1.3% en el 2007 (últimas cifras disponibles) a pesar de las inversiones de los dos años anteriores ¿dónde quedará el año que viene?

Pero ¿no será que estamos pidiendo demasiado? Parece que no, como mostró hace ya unos días un artículo que aclaraba la magnitud del dinero afectado. Joan Guinovart, presidente de la Confederación de Sociedades Científicas de España, lo titulaba en El País: ¿Hundir la ciencia por el valor de seis Ronaldos? Y decía entre otras cosas:
La apuesta por la investigación y la innovación había sido, hasta ahora, uno de los mayores aciertos de la política del Gobierno [...] El presidente, una vez electo, cumplió su palabra y durante los años 2005 al 2008 la inversión casi se duplicó. Ello llevó la ciencia española a una etapa que fue calificada por la prestigiosa revista Nature como "la nueva edad de plata de España" [...]
La primera señal de que la nave zozobraba llegó con el presupuesto del 2009. La Confederación de Sociedades Científicas de España [...] detectó que la tendencia al alza se interrumpía y que para el presente año el crecimiento real era prácticamente nulo.
Datos no desmentidos oficialmente y confirmados confidencialmente hablan de un retroceso de más del 30% de la inversión en I+D prevista para el año próximo [...]
Todo ello, ¿qué reportaría a las arcas del Estado? El ahorro en el Plan Nacional, que es la savia que alimenta la investigación que se lleva a cabo en las universidades, los hospitales, el CSIC y otros organismos públicos de investigación, sería de unos 580 millones de euros. Me dirán que eso es mucho dinero. Yo les reto a que lo calculen en CRs (Cristianos Ronaldos, o el coste de fichar a un jugador galáctico). Efectivamente, se trata de seis CRs. ¿Vamos a dejar hundir el sistema público de I+D por lo que cuestan seis futbolistas? [...]
Presidente, recuerde sus promesas y su compromiso. Dijo que no nos fallaría. No lo haga. No ahora. No en este tema. No hipoteque su futuro y el de toda España por el precio de medio equipo de fútbol.
Finalmente, hace apenas dos días se hizo público el Manifiesto sobre la financiación de la ciencia en España, una solicitud firmada por media docena de cientificos de primera línea ayer mismo, es breve y simple:

El presidente y los ex presidentes de la Sociedad Española de Bioquímica y Biología Molecular, con ocasión del 32 Congreso Nacional de Bioquímica y Biología Molecular,

MANIFIESTAN:

  • Que deben mantenerse las dotaciones presupuestarias destinadas a la investigación científica básica y, en particular, al Plan Nacional y a los programas de investigación en red.
  • Que el Plan de Economía Sostenible del Gobierno no puede llevarse a efecto con éxito sin contar con una sólida base científica.
  • Que la inversión en I+D es esencial para consolidar, tanto en España, como en Europa, una economía basada en el conocimiento, según lo acordado en la cumbre europea de Lisboa del año 2000.
Firmantes: Miguel Ángel de la Rosa Acosta, Federico Mayor Zaragoza, Margarita Salas Falgueras, Carlos Gancedo Rodríguez, Joan J. Guinovart Cirera, Jesús Ávila de Grado, Vicente Rubio Zamora.

No se pide más que coherencia y un poco de visión de futuro, sólo eso. Pero esas virtudes nunca han sido frecuentes aquí, qué le vamos a hacer. Mientras tanto, el Consejo de Ministros aprobó ayer el borrador de presupuestos. Aún no hay análisis de lo destinado realmente a I+D.

Hay gente que apenas necesita una libreta y un lápiz para trabajar. A otros casi nos basta con un ordenador. Pero hay ramas de la ciencia que necesitan laboratorios, material, personal, trabajo de campo, continuidad, seguridad... No sólo equipamiento sino condiciones de entorno, laborales y una perspectiva razonable de futuro. Eso no parece que se entienda demasiado bien cuando el futuro termina en unas elecciones a cuatro años vista.

07 septiembre 2009

Impactos sobre la Tierra

Ya saben ustedes que la hipótesis más aceptada hoy sobre la extinción masiva ocurrida hace 65 millones de años, a finales del Cretácico, se atribuye al impacto de un meteorito en el actual Golfo de México. El cráter, llamado Chicxulub, no es actualmente visible aunque se detecta con claridad analizando las anomalías gravitatorias de la zona, como podemos ver en la figura inferior, donde la costa de Yucatán está representada por la línea blanca.


Anomalías gravimétricas en la zona del cráter de Chicxulub

La Tierra, como cualquier otro planeta o satélite, está expuesta al impacto de meteoritos aunque la mayoría no son detectados y casi todos son de un tamaño demasiado pequeños como para atravesar la atmósfera y dejar cráteres reconocibles. Sólo de vez en cuando el impacto se debe a objetos grandes, de decenas de metros o más, que dejan una huella visible en la superficie. Por suerte, la historia reciente no tiene registro de ninguno de tamaño excesivo pero sí quedan huellas de impactos pasados bastante grandes. Los que se han encontrado están recogidos en una base de datos específica: la Earth Impact Database, donde, entre otros, aparece el probablemente más conocido: el cráter Barringer de Arizona, de 1200 m de diámetro y apenas 50000 años de edad:

Cráter Barringer (foto de la Encyclopedia of Science)

¿La EID tiene catalogados 176 cráteres. Este es un número muy conservador ya que sólo se incluyen aquellas estructuras que han sido identificadas con suficiente seguridad. Aparte de las mencionadas, otras muchas habrán sido borradas por la erosión o son ilocalizables por la vegetación (los existentes están preferentemente en zonas áridas). Lógicamente, unos dos tercios de los meteoritos habrán caído sobre el mar sin dejar más huella que un tsunami pero fue hace tiempo y no estábamos para verlo.

El mayor cráter que se ha localizado no es el de los dinosaurios sino el llamado Vredefort que está en Sudáfrica y mide 300 km de diámetro. Eso sí, es viejo y queda poco de él ya que el impacto fue hace unos 2000 millones de años (Ma) nada menos. La mejor forma de verlo es mediante las medidas gravimétricas (ver imágenes aquí). Le sigue el de Sudbury, en Canadá, con 250 km y 1850 Ma y luego tenemos el ya mencionado de Chicxulub, con 170 km y mucho más reciente: 65 Ma. Hay 27 cráteres de más de 30 km de diámetro.

La base de datos nos muestra, además de los listados y datos específicos, mapas con la distribución por continentes. Abajo tienen el de Europa:

Mapa de Earth Impact Database

Al hilo de esta cuestión, acabo de leer el libro de Walter Álvarez sobre la secuencia de descubrimientos que llevó a la localización del cráter de Chicxulub ("Tyrannosaurus rex y el cráter de la muerte", Drakontos). Hablaré otro día de este libro, muy interesante, pero hoy comentaré solamente que una de las cuestiones básicas es el problema de la datación absoluta. En el caso de Chicxulub, tenía que comprobarse si el acontecimiento era coetáneo con el límite K/T (Cretácico-Terciario) pero ese era un caso académico solamente. Desde un enfoque más general, muchos nos planteamos la pregunta ¿cuál es la probabilidad de que un meteorito grande choque con la Tierra?

Para responder a esto hay dos vías de análisis. La más directa no nos da probabilidades genéricas sino alarmas concretas: se trata de detectar y seguir la trayecvtoria de los objetos potencialmente peligrosos para prever su posible acercamiento a la Tierra. Se hace a través del Near Earth Object Program que actualmente tiene catalogados 6292 objetos de los cuales unos 1062 tienen un diámetro estimado de 1 km o más y 145 se han etiquetado como "asteroides potencialmente peligrosos" (PHA, Potentially Hazardous Asteriods). Para ser un PHA, el asteroide debe cumplir dos condiciones: que su órbita se corte con la nuestra a menos de 0.05 UA (unos 7.500.000 km) y que mida 150 m de diámetro o más.

La otra vía es analizar la frecuencia y antigüedad de los impactos para así estimar un valor de probabilidad de impacto. Personalmente creo que este ejercicio no es demasiado interesante ya que los eventos son independientes e infrecuentes por lo que decir que puede esperarse un impacto cada, por ejemplo, 70 millones de años, no da apenas información: el próximo puede estar al caer o no suceder en los próximos mil millones de años: el error asociado a la media es enorme debido al pequeño tamaño de muestra y a la incertidumbre en las dataciones.

A este respecto, se ha publicado hace muy poco un artículo donde se cuestionan las dataciones absolutas de muchos de los cráteres mencionados en el catálogo. Se titula An appraisal of the ages of terrestrial impact structures y según sus autores sólo 25 cráteres han sido datados con una incertidumbre inferior al 2%, la mayoría mediante técnicas de radioisótopos (U/Pb y 40Ar/39Ar). Del resto, 86 ni siquiera pueden considerarse datados. El caso de Chicxulub es de los buenos aunque su edad propuesta imicialmente de 64.98±0.05 ha sido revisada corrigiendo un error sistemático hasta llevarla a 65.81±0.14 Ma. También se consideran sólidamente datados los mencionados Vredeforty y Sudbury.

Ya puestos, recordemos que la extinción masiva del fin del Cretácico no fue la más importante de la historia de la Tierra, puesto que le corresponde a la ocurrida hace 251 Ma (Pérmico-Triásico). Se ha propuesto un impacto como causa de esta extinción pero las evidencias son indirectas y el posible cráter no se ha identificado aunque diferentes equipos los sitúan tanto en los mares del Norte de Australia como en la Antártida.

Para terminar ¿qué nos dice el Near Earth Object Program sobre los riesgos inmediatos? Por el momento pueden estar ustedes traquilos porque no hay nada previsto en el próximo siglo. El riesgo de impacto se expresa sintéticamente en la llamada escala Torino que va de 0 a 10. Los valores 8, 9 y 10 se aplican a impactos seguros y el valor depende del daño causado. Al día de hoy sólo hay un objeto por encima de cero, el llamado 2007 VK184, de unos 130 m de diámetro. El máximo acercamiento se producirá en algún momento entre los años 2048 y 2057. La probabilidad de impacto es, por suerte, de sólo 0.00034. Y no, no hay nada para el 2012 ni nada se está acercando desde los confines del Sistema Solar, eso sólo está en la imaginación de algunos apocalípticos.

03 septiembre 2009

El Expediente X de Kerala

Kerala, Sur de India,
25 de julio de 2001, 8:45 a.m.

Comienza a llover. Nada infrecuente, es verdad, pero en este caso la lluvia es roja. Además, algunos dicen que se ha oído un trueno o algo similar un poco antes del fenómeno, que se repitió con frecuencia decreciente durante casi un par de meses más. La lluvia coloreada se debe normalmente al arrastre de partículas en suspensión en la atmósfera y, como mucho, aparece como una curiosidad en los diarios. Estas lluvias, sin embargo, atrajeron la curiosidad de algunos investigadores locales que intentaron publicar sus extraños resultados al cabo de un par de años. Con escaso éxito, todo hay que decirlo.

Los protagonistas de mayor tamaño de este asunto son Godfrey Louis y A. Santhosh Kumar, ambos doctores en física en la Universidad de Kerala. Los dos investigadores analizaron muestras de la lluvia roja y propusieron algunas cosas sorprendentes: el color rojo era debido a unas estructuras muy similares a células que eran muy probablemente de origen extraterrestre y habían sido traídas por un meteorito que se había disgregado en la atmósfera. De ser así, se trataría de la primera evidencia sólida de vida extraterrestre y consecuentemente del mayor descubrimiento científico de la historia.

Imagen de las células en suspensión en el agua de la lluvia roja (fuente)

Los dos primeros artículos de Louis y Kumar son de finales del año 2003 y nunca fueron publicados en revistas científicas aunque pueden encontrarse en arXiv.org. Sus títulos son Cometary panspermia explains the red rain of Kerala y New biology of red rain extremophiles prove cometary panspermia y en el primero se dice lo siguiente:

  • la lluvia contenía una enorme cantidad de células rojas de unos 5 micrómetros de diámetro
  • la explosión que se oyó al comenzar la lluvia puede provenir de la desintegración de un meteorito
  • lo cual apunta a que el origen de las células es extraterrestre y fueron transportadas por dicho meteorito
  • dichas células podrían ser esporas de un microorganismo extremófilo

Los autores consideran imposible que las "células" estuvieran previamente en la atmósfera y fueran arrastradas por la lluvia y modelizan una posible trayectoria cometaria que encajaría (más o menos) con las lluvias observadas. Sus argumentos no son concluyentes pero no deja de ser un comienzo prometedor. Luego se ponen a analizar las famosas células lo que debería ser bastante más interesante. Sin embargo, su análisis es visual y los resultados que presentan son de pruebas sin interés biológico alguno. Nada concluyente hasta el momento.

El segundo trabajo, de apenas dos meses después, es mucho más espectacular ya que los autores afirman:

  • que lo presente en la lluvia roja son esporas de microorganismos
  • que son microorganismos quimiosintéticos
  • que se desarrollan y se reproducen a 300 ºC en cualquier medio de cultivo
  • que se dividen mediante un proceso especial de fisión
  • que no tienen ADN
Según Louis y Kumar sus análisis con una prueba clara de que se trata de formas de vida diferentes de las presentes en la Tierra lo cual confirma la hipótesis de su origen extraterrestre. Ahora deberíamos preguntarnos ¿cómo es posible que estos resultados no se hayan publicado en Nature o Science y hayan quedado semiperdidos entre otros miles de artículos de arXiv?
La razón es simple: las pruebas no son lo suficientemente buenas. Por ejemplo, las que han hecho para el cultivo de los presuntos microorganismos no se atienen a ningún protocolo normal usado en microbiología y se detectan grandes lagunas en las explicaciones que, al final, dejan la sensacion de que no se ha verificado definitivamente nada de lo que se afirma.

Sin meternos en demasiados líos y dado que tienen ustedes los trabajos originales para hacer una consulta directa, diré que las dudas al respecto son muchas y serias. Por ejemplo, no se explica como se han recogido las muestras ni como se han conservado durante los años que duró la investigación. ¿Eran botellas estériles? ¿Poseen en el departamento de Física material y protocolos adecuados para la toma y conservación de muestras biológicas? ¿Hay garantía de que las muestras no estaban contaminadas? ¿Por qué no se contó con microbiólogos para las etapas de cultivo y pruebas biológicas? ¿Por qué no aparecen resultados de cultivos a temperaturas normales? ¿Cómo es que no se han hecho análisis con PCR que sí hu8nieran sido concluyentes?
Las dudas persisten dado que en su última publicación, ya en una revista científica, donde sintetizan los trabajos de 5 años, todo lo relativo a los cultivos, ciclos vitales, quimiosíntesis... ha desaparecido.
El artículo se publicó en Astrophysics and Space Science y se titula The red rain phenomenon and its possible extraterrestrial origin. Tienen una copia aquí.

¿Y qué dicen otros grupos que hayan analizado las muestras? Bueno, no parece que los autores hayan dado con facilidad muestras a grupos externos o tal vez no hayan tenido demanda, no sé. Aparte de artículos periodíscos, hay un informe de Thiruvananthapuram (India) que presenta resultados interesantes. Firmado por S. Sampath y colegas en el 2001 y titulado Colored Rain: A Report on the Phenomenon dice que las partículas en suspensión parecen esporas al microscopio óptico y que en el laboratorio de microbiología de Tropical Botanic Garden and Research Institute (TBGRI) se consiguió que germinaran en un medio de cultivo convencional y a temperatura ambiente. Lo que salió de ahí se identificó como una muy terrenal alga del género Trentepohlia. Esta alga es uno de los simbiontes de líquenes que son abundantes en esa zona de India por lo que los autores de este informe plantean que aunque el fenómeno es indudablemente extraño, la hipótesis de un origen local de las esporas es consecuente con los análisis. Tienen la foto del alga abajo:


Afirmaciones extraordinarias requieren pruebas extraordinarias o, al menos, sólidas. No es el caso. Incluso algunas de las explicaciones que Louis y Kumar presentan a favor de su hipótesis son poco convincentes. Por ejemplo, nadie vió o detectó el meteorito ni está verificado el supuesto "trueno" antes de la primera lluvia. Pero incluso aunque el meteorito fuera real no es lógico que las lluvias rojas duraran dos meses y sobre una zona tan limitada geográficamente sino que deberían haberse extendido sobre un área muchísimo más amplia.
Como conclusión: la panspermia sigue siendo una hipótesis sobre el origen de la vida sobre la Tierra. No es imposible ni absurda pero no hay la más mínima prueba de que haya ocurrido alguna vez y la lluvia de Kerala no ha aportado nada a favor de esa hipótesis. Otra vez será.

13 agosto 2009

[Breves] Rabinos contra la gripe A

Hay un par de formas de enfrentarse a la gripe A, esencialmente vacunas (aún en fase de desarrollo) y antivirales (genéricos y de eficacia limitada). Los rabinos de Israel poseen una "tercera vía" y han decidido actuar. Vean el video (apenas 45 segundos) porque el espectáculo es difícil de describir, casi se ve a los virus deshacerse en el aire a golpe de trompeta. Atentos a las estadísticas de afectados en Israel en los próximos días porque, supongo, el efecto será inmediato.

09 agosto 2009

Un virus erradicado reaparece en Nigeria

En 1999, la Global Polio Eradication Initiative anunció la erradicación del tipo 2 de virus de la poliomielitis, uno de los tres serotipos existentes. De este virus sólo quedaron muestras en algunos laboratorios y la lucha se centró en los tipos 1 y 3 mediante vacunas monovalentes específicas.

Recordemos que la poliomielitis es una enfermedad que afecta sobre todo a niños menores de 5 años a los que paraliza al invadir su sistema nervioso y destruir las neuronas motoras. La parálisis es irreversible ya que esas neuronas no se regeneran y es mortal si afecta a los músculos que permiten la respiración (entre el 5 y el 10% de los casos).

Actualmente, la polio se considera endémica en 4 países: Afganistán, Nigeria, India y Pakistán, con casos importados en otra docena de países asiáticos y africanos.

Las campañas de vacunación han sido globalmente un éxito ya que la incidencia de la polio se ha reducido en más del 99% desde el inicio de las vacunaciones hace unos 20 años. Hasta entonces, la enfermedad paralizaba a unos 350000 niños al año. El pasado año 2008 ese número fue de unos 1700 en todo el mundo; en 2009 llevamos unos 770.

Sin embargo, 10 años después de la erradicación del poliovirus tipo 2, este ha reaparecido en el Norte de Nigeria con unos 130 casos detectados. Su origen no es “natural” sino que procede del virus atenuado presente en algunas vacunas orales (OPV, oral polio vaccines). El fenómeno de los VDPV (vaccine-derived polio virus) no es nuevo y se ha detectado ocasionalmente en zonas con bajo nivel de vacunación pero es la primera vez que se “resucita” al extinto tipo 2. Lamentablemente, este nuevo VDPV no sólo es capaz de producir la enfermedad sino también de transmitirse de persona a persona.

El riesgo de recirculación de los virus atenuados de las vacunas se ha asumido hasta el presente porque los casos que provocan son mínimos comparados con el efecto global de la vacunación. Tanto es así que se ha descartado usar otro tipo de vacuna llamada IPV donde los virus están muertos y no son, por tanto, susceptibles de mutar, reactivarse y propagarse. El caso es que la IPV debe ser inyectada por personal con formación sanitaria mientras que la OPV se toma por vía oral, sin mayores preocupaciones sobre jeringuillas, agujas, esterilización… algo importante en las condiciones ambientales y sanitarias de los países afectados.

Dado que la polio no tiene tratamiento, la solución será la intensificación de las vacunaciones en las zonas afectadas. Para ello podrán usarse las vacunas trivalentes, efectivas contra los tres tipos de virus, y adaptadas al nuevo patógeno tipo 2. El uso de estas vacunas ha sido cada vez menor debido a que las monovalentes (contra un tipo único de virus) son significativamente más efectivas. Habrá que dar marcha atrás.

Administración de la OPV (de la Global Polio Eradication Initiative)

05 agosto 2009

[Fotos] Valdediós

He decidido hacer una cuenta en Flickr y organizar las fotos allá, supongo que era inevitable. Esta es de la Iglesia de San Salvador pero hay alguna más de mi periplo de ayer.

03 agosto 2009

Experimentando con HDR

HDR significa High dynamic range y es una técnica fotográfica que lo mismo puede dar buenos resultados que generar auténticos monumentos al mal gusto. Hay mucha información en internet y yo no estoy, ni de lejos, capacitado para dar lecciones por lo que me limitaré a contarles lo esencial. La idea es que una cámara digital no consigue, por puras limitaciones físicas, registrar adecuadamente todo el rango de reflectancia de una escena con fuertes contrastes de iluminación. Supongamos un interior más bien oscuro donde hay una ventana al exterior. Elegimos un diafragma y jugamos con el tiempo de exposición. Podemos elegir una exposición larga para que nos salga bien el interior poco iluminado pero en este caso la ventana quedará saturada y sin ningún detalle. O bien, elegimos una exposición más corta para evitar ese desagradable efecto pero entonces el interior apenas se adivinará entre las sombras.
Una solución a este problema es tomar varias fotografías con exposiciones diferentes: una sobreexpuesta, una equililbrada y una subexpuesta. En la primera quedarán más o menos bien las sombras, en la segunda los medios tonos y en la tercera las luces.
La técnica HDR es fundir las tres tomas de forma que tengamos lo mejor de todas: las sombras de una, las luces de otra y los medios tonos de la tercera.

El caso es que en este mes de vacaciones que pasaré en Asturias me apetecía experimentar un poco esta y otras técnicas que nunca he usado. Hoy por la tarde me acerqué a uno de los monumentos prerrománicos de Asturias, la Iglesia de Santa Cristina de Lena. Ha sido un día gris, de luz difusa y con algo de bruma. Los resultados del experimento están abajo, a ver si les gustan. Cuando echen un vistazo por ahí verán que la técnica HDR puede dar resultados espectaculares pero en este caso yo perseguía más conseguir una foto que reflejara el objeto en cuestión perdiendo poca información en las iluminaciones extremas: menos espectáculo pero tal vez más realismo. Lógicamente hace falta un trípode sólido porque los tres (o más) fotogramas deben encajar entre sí. Fijado el trípode y elegido el encuadre sólo hace falta medir la luz y tomar la primera imagen. Luego se subexpone y sobreexpone 1.5 diafragmas para las dos siguientes consiguiendo así un efecto no demasiado escandaloso.
Como curiosidad, verán que 4 de las imágenes presentan una distorsión bastante evidente lo cual es debido a que la falta de sitio, incluso en el exterior, me obligó a usar un objetivo de 10 mm de distancia focal. La otra está tomada algo más lejos con un zoom más convencional. La fusión la hice con la versión de prueba de Photomatix.
Aquí he subido imágenes reducidas, aunque pulsando sobre ellas se amplían bastante. Si quieren, pueden descargarlas al tamaño original (1 Mb cada una más o menos) en el enlace de Wikimedia Commons relativo a la Iglesia de Santa Cristina de Lena. o en el álbum de Facebook.





26 julio 2009

[Breves] Office Eclesial vs Linux Cristux

Se lo creerán o no pero ha salido Microsoft Office Eclesial 2.1, una "versión católica" del Office. Pero no se solivianten los alérgicos a Bill Gates que la batalla entre el bien y el mal aún no ha terminado: el software libre también aprovecha la ocasión con su versión especial Linux Cristux, el Linux para cristianos. Alguna reseña que he encontrado por ahí lo explica (copio/pego):
Pues cabe decir que nuestro amigo el pingüino Tux de linux nos muestra su lanzamiento de un primer Sistema Operativo Cristiano (osea un Windows en donde el protagonista estrella no es Bill Gates si no es Jehova)...
En Viva Linux (1) y en Universia (2) lo completan:
(1) ¿porqué no una una distribución cristiana ecuménica basada Ubuntu con aplicaciones de software libre y enlaces de ambientación cristiana?
(2) Ya está disponible un LiveCD para acercarse a Dios por medio de GNU sin necesidad de tocar el disco duro.
Pues claro ¿por qué no? Aunque no me queda claro cual sería la diferencia entre una distribución ecuménica y otra que no lo sea. Tampoco está claro cual fue la idea original, si el mencionado Cristux o su competencia Jesux, la distribución "for Christian hackers".

25 julio 2009

¿El 24% de las españolas toma psicofármacos? Falso

A cualquiera que lea eso se le deberían encender las alarmas pero parece que no ha sido así. La "noticia" viene de un trabajo publicado en Atención Primaria, una revista editada por Elsevier, por investigadores de un centro madrileño. Se hacen eco de la presunta conclusión, entre muchos otros, Plataforma SINC donde se afirma sin aparente rubor:
Pero los resultados publicados en la revista Atención Primaria son impactantes: en España, el 24% de las mujeres toma antidepresivos y más del 30%, tranquilizantes
Estamos en crisis, sí. ¿Pero hasta ese punto? Pues no, todo se debe a una mala lectura y peor interpretación del trabajo original cuya referencia es: Pérez Cuadrado, S., et al., 2009, Consumo de psicofarmacos y disfuncion familiar. Atención primaria, 41(3): 153-157.
Lamentablemente dicha revista no es accesible sin previo pago de su importe por lo que tenemos que quedarnos con el resumen que, de todas formas, es suficiente para hacerse una idea del problema:
Acudieron 625 mujeres, de las que se entrevistó a 121 (19,36%), con una media de edad de 46,8±12,7 años. El 90% son españolas. El 55,4% están casadas, el 67% tiene hijos, el 3,3% no tiene estudios y el 75,2% ha cursado estudios primarios y el 21,5%, estudios universitarios. Trabaja fuera de casa el 57,9%. Los antidepresivos son utilizados por el 24% de las mujeres y las benzodiacepinas, por un 30,6%. El consumo de benzodiacepinas aumenta con la edad (p<0,001).
Este resumen es un poco raro pero ya nos da los datos fundamentales y usando otro, en inglés y algo más explícito, publicado en Pubmed, podemos hacernos una idea del asunto.
¿Qué ha pasado en realidad? ¿Está justificada la afirmación de que casi una cuarta parte de la españolas toma psicofármacos?
En estos textos empezamos a comprender de dónde salen los números. Resulta que la muestra de la población fue una fracción de las mujeres que acudieron a un Centro de Atención Primaria durante una semana de marzo de 2005. De las 625 mujeres fueron entrevistadas un 20% (121) de las cuales 29 tomaban tomaban antidepresivos. No figuran en el resumen los criterios de selección.
La afirmación que aparece en los diarios es absurda por al menos dos motivos. El primero y más importante es que la muestra no es representativa ya que no ha sido seleccionada al azar entre la población sino entre las personas que acudieron a un centro sanitario en concreto de una zona concreta de una única ciudad de España y en una sola semana. Este procedimiento casi garantiza la presencia de sesgos importantes, especialmente por la primera circunstancia. El segundo motivo es que, al final, la proyección sobre 20 millones de mujeres se realiza con una muestra de 121 lo cual sugiere una mínima fiabilidad de los porcentajes estimados.
En descargo de los autores del trabajo hay que decir que los titulares de los artículos no parecen haber salido de ellos sino de un excesivo entusiasmo por el espectáculo por parte de algunos periodistas. La conclusión real del artículo es que no hay relación aparente entre el consumo de psicofármacos y disfunción familiar. Pero claro, eso no da para un titular.


Actualización. He recibido el trabajo publicado completo y, como podía suponerse visto el resumen, en ningún lugar aparece que las autoras pretendan aplicar sus resultados a la población en general.
Grab this Widget ~ Blogger Accessories
 
º