31 diciembre 2009
Fotografía: corrección de perspectiva
Es una deformación que depende estrechamente del ángulo de la toma respecto a la línea perpendicular a la fachada. Normalmente dejamos ese efecto sin corregir pero en las fotos arquitectónicas puede ser indeseable. Abajo tienen una imagen bastante normal donde pueden ver que las líneas de la fachada no son paralelas, por ejemplo, la casa es más ancha abajo que arriba y las estructuras verticales no son paralelas ni entre sí ni a los bordes de la foto. La solución directa sería hacer la toma perpendicularmente a la fachada y en su punto medio (a media altura también), circunstancias en las que la distorsión por perspectiva se hace mínima. En el caso de la foto de abajo ni siquiera pude ponerme más a la derecha porque había un camión aparcado a mi lado. La levitación ayudaría pero aún no la tengo entre mis habilidades.
En fotogrametría hay programas específicos para hacer la corrección por perspectiva y generar una ortoimagen: una imagen donde las propiedades métricas se conservan, es decir, sobre la que podemos medir y obtener datos de distancias y ángulos válidos. En fotografía no hace falta tanta historia y nos basta con una corrección aproximada. Hoy les cuento que he encontrado un filtro para Photoshop muy cómodo de usar y que pueden descargarse como versión de prueba en DCE Tools Essentials. Lo que hace es superponer una rejilla rectangular a la imagen y permitirnos mover las esquinas hasta ajustarlas a las estructuras de la foto. Fijados los cuatro vértices, se realiza una transformación que distorsiona la imagen hasta hacerla encajar en la rejilla rectangular inicial. El resultado con la foto anterior lo tienen abajo.
Este procedimiento no hace milagros y cuando es necesario expandir una zona de la imagen tiene que sacarse los píxeles de la manga, interpolando a partir de los realmente existentes. Si son pocos no hay problema pero si nos excedemos la resolución será claramente menor en el lado "corto" de la imagen original. Tampoco se trata de una transformación en tres dimensiones, sólo juega con píxeles en un plano, lo que genera extraños efectos si la imagen no representa un objeto esencialmente plano. Abajo tienen un ejemplo de ese problema.
Etiquetas, Bitacoras.com: fotografía
28 diciembre 2009
Crónica escrita de La Habana: monedas y monedas
Aterrizamos a las 22 h locales, las 3 de la madrugada según reloj interno. ¿Es la primera vez que viene? —me preguntó una chica uniformada en el tercer control—. Sí —contesté—. ¿Me puede hacer un favor? Claro ¿qué necesita? —ya empezamos, pensé—.
Aquí conviene una pausa. Favores en los viajes me han pedido unos cuantos, inocuos a veces y no tanto en según qué sitio. Por ejemplo, aquella chica marroquí que quería que le pasara a España un paquete envuelto en papel marrón y abundante cinta adhesiva que contenía, decía, pantalones para unos parientes suyos. O aquél sujeto en Bogotá que, argumentaba que no podía pagar el exceso de equipaje y que seguro que a mí me quedaban aún unos kilos disponibles en la maleta.
En este caso la cosa era menos evidente: la uniformada de espléndida sonrisa me pedía un billete de cinco euros a cambio de 5 pesos, el “cambio aproximado”, explicó. En fin, un pequeño peaje para salir del aeropuerto con más rapidez. Dije que sí, por supuesto, con la consiguiente pérdida de un euro y medio en la transacción. Bienvenido a Cuba, me dijo.
Por suerte ese fue el único detalle algo chungo de mi visita y se relaciona con el tema que hoy les cuento y con la pregunta ¿merece la pena intentar ese cambio fraudulento? Resulta que sí, que merece la pena, algo que se debe a una peculiaridad del sistema económico cubano: la existencia de dos monedas diferentes, derivada a su vez de la necesidad de que convivan dos mundos paralelos.
Verán abajo un par de billetes escaneados. Aparte de que están retocados para que no sean muy fieles al original hay una sutil diferencia entre ellos. Fíjense que el primero indica veinte pesos y el segundo un peso. Sin embargo, el primero vale menos que el segundo y en según qué sitios no podría siquiera usarse. La pista necesaria para resolver el "misterio" está en el rótulo que aparece debajo del valor en el segundo billete y que dice "pesos convertibles" (pulsar encima para ampliar).
El caso es que en Cuba existen simultáneamente dos monedas distintas, los pesos cubanos (moneda nacional) y los pesos convertibles o "CUC". El propio Banco de Cuba reconoce que esta doble circulación de monedas es una dificultad para la planificación monetaria y de hecho crea dos mundos diferentes. Por un lado, las transacciones en tiendas no agrícolas, los bienes y servicios turísticos y el propio combustible de vehículos se hacen en CUC. Por otro, en el mercado interno, fuertemente subvencionado por el Estado, se usan los pesos cubanos, moneda en la que cobra la mayoría de la población. Como podía suponerse, ambas monedas tienen un valor distinto y 1 peso convertible es oficialmente igual a 24 pesos cubanos en la compra y 25 en la venta. La norma es que el visitante debe cambiar su moneda por CUC para poder manejarse por Cuba y una pequeña fracción en pesos cubanos para algunos usos como propinas de aparcamientos o taxis populares. Todas las monedas fuertes se aceptan sin problemas y el euro en estos momentos se cambia por 1.33 CUC aproximadamente. Sin embargo, llevar dólares estadounidenses no es una buena idea ya que su cambio está penalizado con un 10%. También pueden usarse tarjetas de crédito en los lugares turísticos con la excepción de las emitidas por bancos de EE.UU., que no están admitidas.
Mercado en La Habana
Cobrar en la moneda nacional es equivalente a estar excluido de todo el entramado comercial que opera en CUC ya que los precios son un auténtico disparate para el ciudadano cubano. Por poner un ejemplo, el salario medio en Cuba supera un poco los 400 pesos cubanos y el de un licenciado universitario anda por los 700, algo menos de 30 CUC en este último caso. En el ámbito de los titulados superiores he conocido gente que cobra más (hasta 1200 pesos) o menos (hasta los mencionados 400). Dado que una comida tipo "plato del día" (no a la carta) en un restaurante normal (no de lujo) en La Habana está entre los 8 y los 10 CUC (190-240 pesos cubanos), es fácil entender que se trata de un servicio dirigido solamente al visitante que llega con moneda fuerte, no para el ciudadano local.
Otra consecuencia que se deriva del doble mercado es que en la realidad el cambio del CUC es ficticio ya que está fijado de forma artificial desde el Estado, que parece manejarlo en mi ignorante opinión como un arancel ante la entrada de divisas y para hacer acopio de monedas fuertes utilizables en el mercado internacional.
La doble moneda hizo su aparición en 1993, cuando se despenalizó la tenencia de divisas y se permitieron las cuentas bancarias en dólares como reacción a la hiperinflación derivada de la enorme crisis de esos años en Cuba. A la entrada del dólar en la economía se sumó la apertura a inversiones extranjeras, lo que permitió hacer frente a la pésima situación económica. Aunque la economía local siguió funcionando en pesos cubanos, el dólar circulaba como moneda alternativa en transacciones, compras y ventas de cierta entidad. Esto generó también problemas ya que hubo empresas que trabajaban en dólares mientras que otras, especialmente las dependientes del Estado por economía o por regulación siguieron con los pesos.
En el año 2003 las cuentas en dólares se convirtieron progresivamente a CUC, una moneda que existía ya antes pero que era marginal hasta ese momento. Todo el mercado fuerte pasó a trabajar en CUC y el dólar desapareció de la circulación nacional. Desde entonces, la doble moneda persiste al no equilibrarse el mercado interno con el externo. El coste social ha sido grande para los que no tienen acceso al peso convertible mientras que en sectores económicos relacionados con el turismo surgen oportunidades de lucro desproporcionadas respecto al mercado interno. Por otra parte, el cambio obligado a CUC permite aumentar la reserva de divisas y tener una garantía más fiable para el comercio exterior, reticente a operar con el peso cubano, cuya exportación está prohibida y que no cotiza en mercados internacionales.
Los almendrones son viejos coches de los EE.UU. que se usan para transporte público y donde la gente sube y baja durante los trayectos para llevar el coche siempre lleno. El coche de la foto es particular (lleva matrícula amarilla) pero es uno de los múltiples modelos que circulan por La Habana, un auténtico museo del coche estadounidense de décadas atrás.
25 diciembre 2009
De RAW y bits ¿por qué tomar fotos en formatos "brutos"?
Con las cámaras un poco más avanzadas las opciones cambian y creo que todas permiten grabar en el formato llamado genéricamente RAW y que en cada marca puede adoptar nombres diferentes: NEF en Nikon, CRW en Canon...
Ahora tengo una Nikon D70s, comprada de segunda mano hace unos meses. Las incógnitas en este caso eran la naturaleza del formato RAW, llamado NEF en mi caso, si tenía que usarlo preferentemente a cualquier otro y las razones para ello.
Como solo soy un principante en esto (saben de mi pasión por hablar de lo que ignoro) lo que les contaré a continuación les parecerá banal a algunos de ustedes pero como no lo he encontrado bien explicado por ahí, se lo suelto condensado por si resulta de interés.El sensor digital y la resolución radiométrica
El primer punto es saber cómo funciona, aunque sea muy someramente, una cámara digital. La idea básica es que el objetivo transmite la imagen exterior sobre una matriz de minúsculos sensores sensibles a la luz llamados CCD o CMOS según el tipo. Cuando nos dicen que nuestra cámara tiene 8 Megapíxeles significa que hay aproximadamente 8 millones de elementos fotosensibles en esa matriz. Es importante saber que esos elementos son sensibles a la intensidad de la luz no a su color. Consecuentemente, el sensor solo capta imágenes en tonos de gris. ¿Cómo se reproduce el color? Pues haciendo el truco se poner sobre cada elemento del sensor un filtro que solo deja pasar la luz verde, azul o roja. Si un elemento recibe solamente la componente verde de la luz, está midiendo la intensidad de ese color. Si sus vecinos miden respectivamente la de la luz azul y roja, podrán combinarse las tres medidas para tener una idea aproximada del color real de la luz.Lógicamente, este método reduce la resolución efectiva del sensor al color porque, aunque el número de píxeles sigue siendo el mismo, el color debe asignarse en grupos como mínimo de tres píxeles. El proceso de mezcla se denomina demosaicing en inglés y el filtro se llama Bayer por Bryce E. Bayer, el tipo que lo inventó. El filtro suele estar formado por un 50% de elementos verdes, un 25% de rojos y un 25% de azules. Se dice que la abundancia de verdes se debe a la mayor sensibilidad de ojo humano a los matices de ese color aunque debo confesarles que yo no lo tengo nada claro.¿Qué pasa cuando la luz, sea del color que sea, incide sobre un elemento fotosensible? El resultado es que cada elemento genera un voltaje eléctrico proporcional a la luz recibida. Este voltaje es analógico y debe ser trasformado a un valor digital. Aquí viene uno de los puntos clave del asunto: no todos los sensores son capaces de diferenciar el mismo número de niveles de iluminación. A esa capacidad se le suele llamar resolución radiométrica. Si un sensor tiene una resolución radiométrica de 8 bits se supone que es sensible a 256 diferentes grados de iluminación entre el mínimo y el máximo de luz que mide (2 elevado a 8). Por debajo del mínimo, que no tiene que ser necesariamente la oscuridad absoluta, la señal será nula y a partir de cierta intensidad de luz el sensor queda saturado y ya no es capaz de medir niveles superiores.
En resumen, un sensor nos proporciona intensidades de luz entre 0 y un número variable de niveles que depende de su resolución radiométrica: 0-255 para 8 bits, 0-4095 para 12 bits y 0-16383 para 16 bits. Además, se almacena un conjunto de metadatos sobre la cámara, la toma (diafragma, velocidad de obturación...), etc.Millones de colores
Los niveles pueden ser de rojo, verde o azul gracias al filtro Bayer y al combinarlos para obtener el color real de cada zona de la imagen multiplicamos las posibilidades. Si trabajamos con 256 niveles por color primario, el número de colores que se pueden definir es de 256 x 256 x 256, unos 16,8 millones. Eso parece mucho pero si el sensor es de 12 bits serán casi 69 mil millones de colores y con 14 bits llegamos a superar los 4,3 billones.
Parece que nuestro ojo puede distinguir varios millones de colores (las referencias que he encontrado son muy contradictorias pero la más seria parece ser esta) pero está claro que los 12 o 14 bits exceden nuestra capacidad sensorial. Por añadidura las pantallas de ordenador son normalmente de 24 bits (8 bits por color primario) y excepcionalmente de 30 bits (ver este modelo de HP). En cualquier caso, parece innecesario tomar imágenes en 12 o 14 bits por color primerio ya que eso nos lleva a poder componer un montón de modulaciones que jamás veremos y que no podemos representar siquiera en una pantalla. ¿O esto no es del todo correcto?Los motivos del RAW
Yo creo que el enfique anterior no es correcto y que debemos siempre tomar las imágenes en RAW con el máximo número de bits que nos permita la cámara. El motivo es que las imágenes son digitales, es decir, están codificadas en cifras y esa información, aunque no podamos verla, existe y puede ser procesada. Cuando tomamos la misma escena en 8 y 12 bits, el rango dinámico no cambia pero la resolución tonal, la capacidad de resolver tonos diferentes, sí. Eso es enormemente importante si luego queremos manipular las fotos para, por ejemplo, realzar detalles en las zonas más oscuras o modificar las importancias relativas de luces, medios tonos y sombras: en los 12 bits habrá mucha más información que en los 8 bits y los resultados serán muy diferentes. Gracias a esta información podremos también corregir mejor problemas derivados de contraluces o de errores en la exposición.El formato RAW es, en resumen, un enorme depósito de información apenas procesada a partir del cual podemos empezar a trabajar con cualquier programa como Gimp o Photoshop para realizar los tratamientos básicos que son casi siempre necesarios: corregir las desviaciones tonales y mejorar la resolución tonal en las zonas extremas, más oscuras y más iluminadas. Eso sí, no olviden guardar los RAW originales como guardaban antes los negativos analógicos.Un formato abierto para los ficheros RAW
Comenté antes de pasada que hay varios formatos que pueden incluirse genéricamente bajo la denominación RAW. De hecho, cada marca de cámaras tiene el suyo del que no sólo no desvela su estructura sino que habitualmente difiere de los demás en la longitud de su cabecera, en los metadatos o, incluso, en el uso o no de niveles ligeros de compresión. Esto plantea problemas ahora y en el futuro ya que el NEF actual puede no ser legible por un Photoshop o Gimp de dentro de cinco años. Una posible solución ha venido de Adobe, que propuso en septiembre de 2004 un formato abierto llamado DNG (Digital Negative), basado en un estándar previo de escaso éxito (TIFF/EP). Para intentar que se convierta en un estándar más aceptado ha puesto en internet un programa gratuito, Adobe DNG Converter, que lee los RAW y los transforma en DNG sin pérdida de información y conservando los metadatos. Posteriormente estos DNG deberán ser importados por nuestro programa de proceso de imágenes, manipulados en lo que nos apetezca y guardados en otro formato no-RAW. En ese paso yo prefiero usar TIF de 16 bits a pesar del mayor tamaño de las imágenes. A partir de aquí, lo que quieran; por ejemplo, Flickr sólo admite JPG, GIF y PNG por lo hay que hacer la transformación pertinente y asumir que Flickr es sólo un muestrario de imágenes de calidad limitada y no un almacén de fotos de la más alta calidad. Esas deben quedar en nuestro disco externo y en nuestra copia de seguridad.
Etiquetas, Bitacoras.com: fotografía , NEF , RAW
15 diciembre 2009
Crónicas gráficas de La Habana
Etiquetas, Bitacoras.com: Cuba , fotografía , viajes
02 diciembre 2009
En defensa de los derechos en la Red
Ante la inclusión en el Anteproyecto de Ley de Economía sostenible de modificaciones legislativas que afectan al libre ejercicio de las libertades de expresión, información y el derecho de acceso a la cultura a través de Internet, los periodistas, bloggers, usuarios, profesionales y creadores de internet manifestamos nuestra firme oposición al proyecto, y declaramos que…
- Los derechos de autor no pueden situarse por encima de los derechos fundamentales de los ciudadanos, como el derecho a la privacidad, a la seguridad, a la presunción de inocencia, a la tutela judicial efectiva y a la libertad de expresión.
- La suspensión de derechos fundamentales es y debe seguir siendo competencia exclusiva del poder judicial. No debe producirse ningún cierre sin sentencia. Este anteproyecto, en contra de lo establecido en el artículo 20.5 de la Constitución, pone en manos de un órgano no judicial -un organismo dependiente del ministerio de Cultura-, la potestad de impedir a los ciudadanos españoles el acceso a cualquier página web.
- La nueva legislación creará inseguridad jurídica en todo el sector tecnológico español, perjudicando uno de los pocos campos de desarrollo y futuro de nuestra economía, entorpeciendo la creación de empresas, introduciendo trabas a la libre competencia y ralentizando su proyección internacional.
- La nueva legislación propuesta amenaza a los nuevos creadores y entorpece la creación cultural. Con Internet y los sucesivos avances tecnológicos se ha democratizado extraordinariamente la creación y emisión de contenidos de todo tipo, que ya no provienen prevalentemente de las industrias culturales tradicionales, sino de multitud de fuentes diferentes.
- Los autores, como todos los trabajadores, tienen derecho a vivir de su trabajo con nuevas ideas creativas, modelos de negocio y actividades asociadas a sus creaciones. Intentar sostener con cambios legislativos a una industria obsoleta que no sabe adaptarse a este nuevo entorno no es ni justo ni realista. Si su modelo de negocio se basaba en el control de las copias de las obras y en Internet no es posible sin vulnerar derechos fundamentales, deberían buscar otro modelo.
- Consideramos que las industrias culturales necesitan para sobrevivir alternativas modernas, eficaces, creíbles y asequibles y que se adecuen a los nuevos usos sociales, en lugar de limitaciones tan desproporcionadas como ineficaces para el fin que dicen perseguir.
- Internet debe funcionar de forma libre y sin interferencias políticas auspiciadas por sectores que pretenden perpetuar obsoletos modelos de negocio e imposibilitar que el saber humano siga siendo libre.
- Exigimos que el Gobierno garantice por ley la neutralidad de la Red en España, ante cualquier presión que pueda producirse, como marco para el desarrollo de una economía sostenible y realista de cara al futuro.
- Proponemos una verdadera reforma del derecho de propiedad intelectual orientada a su fin: devolver a la sociedad el conocimiento, promover el dominio público y limitar los abusos de las entidades gestoras.
- En democracia, las leyes y sus modificaciones deben aprobarse tras el oportuno debate público y habiendo consultado previamente a todas las partes implicadas. No es de recibo que se realicen cambios legislativos que afectan a derechos fundamentales en una ley no orgánica y que versa sobre otra materia.
Etiquetas, Bitacoras.com: cagüentodo , internet
01 diciembre 2009
Reunión en México
Vista general de la fachada de la Catedral de México. Está construida uniendo dos fotogramas con lo cual el tamaño final es de 3309 x 3259 píxeles (disponible en Flickr). Como no usé trípode no fue posible que los bordes superior e inferior encajaran correctamente. Las fotos anteriores son de un pueblo llamado Malinalco, donde parece que informaron al emperador mexica Moctezuma que habían llegado unos hombres blancos a las costas orientales de sus dominios.
Etiquetas, Bitacoras.com: fotografía , México , viajes
23 octubre 2009
Entre las mariposas
El tapiz del millón de arañas
Cada araña puede producir unos 25 m de seda, de ahí (y de la pasión por los números redondos) la estimación de que el tapiz ha necesitado sobre un millón de arañas para ser tejido. Un cálculo rápido supone que cada persona debió capturar unas 30 arañas al día durante el periodo de recolección, algo tal vez un poco exagerado. A pesar de todo, millón arriba, millón abajo, el tapiz está expuesto en la Gran Galería del museo ostentando un espectacular color dorado.
La araña es Nephila madagascariensis, un bicho bastante grande como pueden ver en la foto de abajo. Más datos en Spider silk.
Etiquetas, Bitacoras.com: curiosidades
10 octubre 2009
Hoy que es de madrugada
08 octubre 2009
Cómo ver murciélagos negros en una noche oscura
Nickolay Hristov de la Winston-Salem State University. Al hombre se le ocurrió que sería bueno hacer una estimación de la cantidad de murciélagos que viven dentro de las cuevas Carlsbad en Nuevo México. El problema era que los bichos tenían la irritante costumbre de salir de noche y claro, así no hay quien vea nada. Pero a grandes problemas, grandes soluciones y Hristov consiguió una cámara térmica con la que cada murciélago se ve algo así como un espermatozoide errante.
Aunque uno de los videos se ha hecho medio famoso, el trabajo original pasó desapercibido. El artículo es de acceso libre:
Hristov et al., 2008, Applications of thermal infrared imaging for research in aeroecology, Integrative and Comparative Biology, 48(1): 50-59.En el trabajo cuentan algunas cosas interesantes y dan alguna imagen más de murciélagos. Por ejemplo, abajo tienen una toma global de una colonia dentro de la cueva. Las temperaturas son más altas donde hay mayor aglomeración de bichos, cuyo número se ha estimado en este caso en unos 542000. Mil arriba, mil abajo, supongo.
Abajo les pongo el video mencionado, tomado dentro de una de las galerías de la cueva. Los trazos de cada murciélago se deben al retardo de la cámara térmica. Por si tienen curiosidad por los gadgets, la cámara es una FLIR Therma CAM S65.
La resolución de la imagen no es gran cosa, de 640x480 píxeles pero el efecto es espectacular. Por si tienen más curiosidad, en la parte de material suplementario tienen seis videos para disfrutar un rato.
Etiquetas, Bitacoras.com: ciencia , murciélago , termografía
07 octubre 2009
La ciencia en España no necesita tijeras
Etiquetas, Bitacoras.com: cagüentodo , ciencia , políticas
04 octubre 2009
En busca del Orang Pendek
Hace un tiempo les comenté la existencia de una organización especializada en esa ficticia disciplina llamada criptozoología. Esa organización se llama Centre for Fortean Zoology y está formada por personas inasequibles al desaliento ya que los resultados de sus pesquisas y expediciones son indistiguibles de cero año tras año. Leo en El País a Enric González reseñando el final de su última campaña: una expedición a Sumatra en busca del orang pendek, un homínido habitante de las junglas, menos famoso que el yeti pero igualmente inexistente.
Las campañas de la CFZ son, ahora que lo pienso, como las de Atapuerca, pero con una sutil diferencia: en Atapuerca trabajan científicos que van extrayendo maravillosos fragmentos de lo que fue nuestro pasado; en el CFZ "trabajan" cantamañanas que no han aportado jamás la más mínima evidencia de que lo que hacen no sea estúpido.
¿He sido duro con eso de "cantamañanas"? Tal vez merezca la pena que les reponga un post donde hablaba de otra campaña del CFZ en busca, en esa ocasión, del ninki-nanka. Subtitulé el post "donde una expedición que vende tangas parte hacia Gambia a buscar dragones (o algo así)". Ahora verán la razón.
El ninki-nanka es un dragón estilo Fujur con “escamas simétricas” (¿) y una cresta sobre una cabeza caballuna. El intrépido investigador que comanda la expedición se llama Richard Freeman, director zoológico
Los resultados hasta ahora son escasos. Bueno... son cero. Los reportajes de las expediciones son de turista, ahora foto con este lugareño, ahora señalo el sitio donde apareció el bicho… Ni un ejemplar, ni un resto, ni siquiera pelos o excrementos. Tampoco fotos aunque en estos tiempos es tan fácil trucarlas que no las aceptaría nunca como prueba de nada.
Y es que yo, siempre positivo, quiero llamar la atención de los criptozoólogos sobre el hecho simple de que cualquier pelo o cagada del yeti, bigfoot o bestia extraña sería una prueba irrefutable de su existencia. Actualmente no hay problema alguno en analizar el ADN contenido en dichos elementos lo que confirmaría si se trata de algo conocido o de algo extraño y, en su caso, lo colocaría en su lugar taxonómico. Y lo mismo digo con restos de saliva en las víctimas del chupacabras o del gusano asesino. ¿No saben esto los “profesionales” de la criptozoología?
Consecuentemente ahora viene la pregunta clave: ¿cagan los dragones? Es una suposición razonable, supongo, que permitirá que Freeman traiga una bosta de ninki-nanka cuyos análisis nos convencerán a todos de que algo raro está pasando ahí afuera.
Pero no, lamentablemente, al fin de la expedición todas las evidencias apuntan a que los ninki-nanka no cagan ya que no han traído nada que sea analizable y creo que un resto de semejante criatura no debería pasar desapercibido.
Mientras tanto, las actividades del Centre for Fortean Zoology no se limitan a viajar por el mundo en traje de camuflaje, también tienen tiendas en varios lugares de la red. Por ejemplo, pueden ustedes comprarse un tanga con la foto de Freeman para colaborar con la causa. Yo paso porque no creo que me quedara bien.
[Súmate a la iniciativa la ciencia en España no necesita tijeras]
Etiquetas, Bitacoras.com: criptozoología , cuento chino , ninki-nanka , orang-pendek
01 octubre 2009
[Breves] Manuel Alcántara en hoy.es
"Nuestros gobernantes son como aquel general que era tan valiente que no se rendía ni ante la evidencia..."La de arriba es una de las frases memorables que Alcántara suele espolvorear sobre sus artículos. En este habla de los recortes presupuestarios en ciencia.
30 septiembre 2009
Cambio global: intenciones y contradicciones
La cosa venía a cuento de que, como ya les conté alguna vez, estamos finalizando un proyecto donde intentamos evaluar los potenciales efectos que algunos escenarios de cambio climático tendrían sobre la vegetación peninsular. No puedo aún darles detalles pero la cosa pinta de regular a mal. Y claro, en las reuniones ya se empieza a plantear la discusión: ¿qué se puede hacer para reducir ese posible daño?
La pregunta es un arma de doble filo: por un lado se reconoce la necesidad de hacer algo pero, por otra, se reconoce el fracaso de no haber hecho nada en el pasado. Por ese motivo, y aunque las discusiones tienen su interés, creo poco en las medidas que podemos recomendar tomar. La causa es mi impresión de que muchas medidas de protección del medio natural son esencialmente lo que dije antes: coartadas. Me explico con un ejemplo conocido: España firma en 1990 el compromiso de que en el año 2014 sus emisiones de CO2 no se incrementarían más allá del 15%. A 5 años de esa fecha nuestras emisiones ya han aumentado casi el triple. ¿Cuál es el motivo? Pues fácil: después de firmar no se ha hecho gran cosa para controlar esas emisiones. Eso sí, la firma se presentó como un éxito, un gran detalle de solidaridad mundial y de buen rollo ambiental. ¿Qué se va a hacer cuando llegue la fecha y se haga patente el flagrante incumplimiento? Con mis poderes paranormales predigo que se firmará otro acuerdo, tal vez más ambicioso (total, qué más da) pero con fecha del 2025 o 2050. Y con este pasará, muy probablemente, lo mismo que con el anterior.
Parece común en estos tiempos la sensación de que firmar un acuerdo es suficiente para conseguir la meta. O de que anunciar que algo se va a hacer es equivalente a haberlo hecho. Parece tan común como la desidia para tomar medidas inmediatas ante los daños reales que estamos, ahora, viendo crecer ante nuestros ojos.
En el caso de nuestro proyecto de vulnerabilidad de la vegetación nos encontramos con una paradoja (parajoda diría alguno) que afecta tanto a los bosques como a las especies singulares. Ambos grupos lo van a pasar mal y probablemente algunas especies desaparezcan definitivamente si se confirma alguno de los escenarios analizados. Pero su problema principal no es el cambio climático, nunca lo ha sido. Su problema viene de nuestra actuación pasada y actual. Varios bosques pueden verse reducidos drásticamente pero esto es una consecuencia sobrevenida sobre la realidad de que ya los tenemos en una situación crítica: fragmentados y limitados a unas extensiones ridículas respecto a su área potencial. Del mismo modo, muchas especies que actualmente están en las “listas rojas” o equivalentes, lo están debido como causa primaria a la reducción o degradación de su hábitat no porque hayan subido las temperaturas de febrero o bajado las lluvias de abril.
Temperatura media de las máximas anual en el periodo 1961-1990; los datos de las estaciones provienen de la AEMET, su tratamiento, organización y proceso posterior (interpolación y gradientes antitudinales) es nuestro.
Otro día me desahogo y les cuento algunas medidas obvias que hay que tomar, a ver si están de acuerdo conmigo. Mientras tanto les diré que la semana pasada estuve en La Casa Encendida en Madrid, reunido con otros "agentes" de la compleja cadena que analiza y propone cosas respecto al llamado "cambio global". Analiza y propone pero no dispone. Allá estábamos un par de universitarios, algunas organizaciones ecologistas, otras ONG no directamente ecologistas, sindicatos del campo, seguros, algún medio de comunicación y varios técnicos del Ministerio y de las Comunidades Autónomas. Por la mañana nos dedicamos en privado a hablar de los problemas y retos, también de las soluciones. Por la tarde hubo una mesa redonda pública en el auditorio.
Mis sensaciones son encontradas. Por un lado es necesario hacer estas reuniones, por otro nunca sale nada nuevo de ellas. Lo que sí me quedó claro fueron dos cosas, una buena y otra mala. La buena es que el personal técnico, funcionario o contratado, es generalmente estusiasta y se molesta en hacer bien su trabajo. La mala es que en el piso de arriba, los políticos de ir y venir cada cuatro años, no les hacen ni puñetero caso. Los tienen porque mola en estos tiempos pero no se creen nada ni están dispuestos a mojarse lo más mínimo. Finalmente, la repetición de ese patrón de exigencia y frustración tiene efectos demoledores en los técnicos. La muestra de ese divorcio, el más importante de toda la cadena de decisión, es que los políticos no están nunca en las discusiones, eso lo dejan a los técnicos que, lógicamente, no tienen responsabilidad en las decisiones finales, en la acción o la inacción.
Por lo tanto, las medidas que propondremos serán probablemente brindis al sol porque suponen decisiones serias y con efectos a medio y largo plazo. Para un político medio esto carece de interés: muchos no creen que haya que hacer nada (primera dificultad) pero aunque eso no se de, las decisiones son complicadas y van contra la corriente: mucha mejor gestión del suelo, mucha menos contaminación, mucho mejor control en la explotación del agua, muchos más medios contra los incendios, promoción real y decidida del transporte público... todo ello aderezado con honradez en la gestión urbanística, sensibilidad ambiental y mucho sentido común. Nada interesante a cuatro años vista.
Les dejo con un par de mapas, el de arriba y el de abajo. Tenemos muchos más, a cientos, resultado de modelizaciones donde trabajamos con tres modelos, dos escenarios (A2 y B2) y tres horizontes temporales. Como ya se han expueto en público creo que puedo ponerlos aquí para ir abriendo boca y contarles más adelante los detalles de la cuestión, lo que hemos hecho y lo bueno y lo malo del proyecto, que de todo hay, claro.
Temperatura media de las máximas anual prevista en el periodo 1971-2100 de acuerdo con el modelo CGCM2 y el escenario A2. La escala de colores es la misma que en la figura de arriba. La temperatura media se incrementa 4.6 ºC.
Etiquetas, Bitacoras.com: cambio global , clima , políticas
27 septiembre 2009
Donde dije digo, digo Diego: recortes en investigación
Hoy, con la volubilidad propia de la ausencia de convicciones, con la alegre algarabía de los inconscientes, nos dicen que todo ha cambiado. Todo aquello era sólo si la cosa económica iba bien, si no, hay otras prioridades. En el borrador de presupuestos para el año que viene se barajó inicialmente una reducción de los fondos para ciencia de un 37%, que luego dicen que redujo hasta un 18%. Todo filtraciones, ni confirmadas ni desmentidas por la que fue la "gran esperanza" venida de la empresa, la ministra Cristina Garmendia cuyas intervenciones son cualquier cosa menos claras (copio y pego de La Vanguardia.es):
Cristina Garmendia declaró ayer en Bruselas que "es una prioridad del Gobierno mantener la inversión en I+D+i", informa Europa Press. Garmendia dijo que "no se va a recortar ningún proyecto del Plan Nacional" de los que están en marcha –que ya tenían presupuesto asignado– y que "habrá nuevas convocatorias del plan nacional con presupuesto suficiente" –aunque no precisó cuántas convocatorias ni a cuánto asciende el concepto suficiente–.La primera legislatura sí fue comprometida con el objetivo ya que entre 2005 y 2008 la inversión casi se duplicó. Pero todo eso debe ser un movimiento a medio y largo plazo, no "premios" unos años sí y otros no. Lamentablemente, la falta de consistencia de la política científica sólo genera desconcierto y desánimo, todo ello en contradicción con el objetivo aprobado en la UE en el año 2002, con España a favor, de aumentar la inversión en I+D hasta el 3% del PIB. La firma de este acuerdo, vendida en su momento como un éxito, era esencialmente humo, como se demuestra ahora. Nuestra inversión real no llegaba al 1.3% en el 2007 (últimas cifras disponibles) a pesar de las inversiones de los dos años anteriores ¿dónde quedará el año que viene?
El compromiso electoral de Zapatero de aumentar la inversión en I+D un 16% anual para acercarse a ese objetivo del 3% no se ha cumplido ni una sola vez en esta legislatura. Sí se cumplió en el 2008, aunque con presupuestos aprobados en la legislatura anterior. En el 2009 el aumento ya sólo fue del 2,5% –que una vez tenida en cuenta la inflación quedó en un crecimiento casi nulo–. Y en el 2010 se va a hacer "el máximo ejercicio de austeridad", reconoció el martes la ministra Cristina Garmendia.
Pero ¿no será que estamos pidiendo demasiado? Parece que no, como mostró hace ya unos días un artículo que aclaraba la magnitud del dinero afectado. Joan Guinovart, presidente de la Confederación de Sociedades Científicas de España, lo titulaba en El País: ¿Hundir la ciencia por el valor de seis Ronaldos? Y decía entre otras cosas:
La apuesta por la investigación y la innovación había sido, hasta ahora, uno de los mayores aciertos de la política del Gobierno [...] El presidente, una vez electo, cumplió su palabra y durante los años 2005 al 2008 la inversión casi se duplicó. Ello llevó la ciencia española a una etapa que fue calificada por la prestigiosa revista Nature como "la nueva edad de plata de España" [...]Finalmente, hace apenas dos días se hizo público el Manifiesto sobre la financiación de la ciencia en España, una solicitud firmada por media docena de cientificos de primera línea ayer mismo, es breve y simple:
La primera señal de que la nave zozobraba llegó con el presupuesto del 2009. La Confederación de Sociedades Científicas de España [...] detectó que la tendencia al alza se interrumpía y que para el presente año el crecimiento real era prácticamente nulo.
Datos no desmentidos oficialmente y confirmados confidencialmente hablan de un retroceso de más del 30% de la inversión en I+D prevista para el año próximo [...]
Todo ello, ¿qué reportaría a las arcas del Estado? El ahorro en el Plan Nacional, que es la savia que alimenta la investigación que se lleva a cabo en las universidades, los hospitales, el CSIC y otros organismos públicos de investigación, sería de unos 580 millones de euros. Me dirán que eso es mucho dinero. Yo les reto a que lo calculen en CRs (Cristianos Ronaldos, o el coste de fichar a un jugador galáctico). Efectivamente, se trata de seis CRs. ¿Vamos a dejar hundir el sistema público de I+D por lo que cuestan seis futbolistas? [...]
Presidente, recuerde sus promesas y su compromiso. Dijo que no nos fallaría. No lo haga. No ahora. No en este tema. No hipoteque su futuro y el de toda España por el precio de medio equipo de fútbol.
El presidente y los ex presidentes de la Sociedad Española de Bioquímica y Biología Molecular, con ocasión del 32 Congreso Nacional de Bioquímica y Biología Molecular,
MANIFIESTAN:
Firmantes: Miguel Ángel de la Rosa Acosta, Federico Mayor Zaragoza, Margarita Salas Falgueras, Carlos Gancedo Rodríguez, Joan J. Guinovart Cirera, Jesús Ávila de Grado, Vicente Rubio Zamora.
- Que deben mantenerse las dotaciones presupuestarias destinadas a la investigación científica básica y, en particular, al Plan Nacional y a los programas de investigación en red.
- Que el Plan de Economía Sostenible del Gobierno no puede llevarse a efecto con éxito sin contar con una sólida base científica.
- Que la inversión en I+D es esencial para consolidar, tanto en España, como en Europa, una economía basada en el conocimiento, según lo acordado en la cumbre europea de Lisboa del año 2000.
No se pide más que coherencia y un poco de visión de futuro, sólo eso. Pero esas virtudes nunca han sido frecuentes aquí, qué le vamos a hacer. Mientras tanto, el Consejo de Ministros aprobó ayer el borrador de presupuestos. Aún no hay análisis de lo destinado realmente a I+D.
Hay gente que apenas necesita una libreta y un lápiz para trabajar. A otros casi nos basta con un ordenador. Pero hay ramas de la ciencia que necesitan laboratorios, material, personal, trabajo de campo, continuidad, seguridad... No sólo equipamiento sino condiciones de entorno, laborales y una perspectiva razonable de futuro. Eso no parece que se entienda demasiado bien cuando el futuro termina en unas elecciones a cuatro años vista.
Etiquetas, Bitacoras.com: cagüentodo , ciencia , presupuestos
07 septiembre 2009
Impactos sobre la Tierra
Ya saben ustedes que la hipótesis más aceptada hoy sobre la extinción masiva ocurrida hace 65 millones de años, a finales del Cretácico, se atribuye al impacto de un meteorito en el actual Golfo de México. El cráter, llamado Chicxulub, no es actualmente visible aunque se detecta con claridad analizando las anomalías gravitatorias de la zona, como podemos ver en la figura inferior, donde la costa de Yucatán está representada por la línea blanca.
La Tierra, como cualquier otro planeta o satélite, está expuesta al impacto de meteoritos aunque la mayoría no son detectados y casi todos son de un tamaño demasiado pequeños como para atravesar la atmósfera y dejar cráteres reconocibles. Sólo de vez en cuando el impacto se debe a objetos grandes, de decenas de metros o más, que dejan una huella visible en la superficie. Por suerte, la historia reciente no tiene registro de ninguno de tamaño excesivo pero sí quedan huellas de impactos pasados bastante grandes. Los que se han encontrado están recogidos en una base de datos específica: la Earth Impact Database, donde, entre otros, aparece el probablemente más conocido: el cráter Barringer de Arizona, de 1200 m de diámetro y apenas 50000 años de edad:
¿La EID tiene catalogados 176 cráteres. Este es un número muy conservador ya que sólo se incluyen aquellas estructuras que han sido identificadas con suficiente seguridad. Aparte de las mencionadas, otras muchas habrán sido borradas por la erosión o son ilocalizables por la vegetación (los existentes están preferentemente en zonas áridas). Lógicamente, unos dos tercios de los meteoritos habrán caído sobre el mar sin dejar más huella que un tsunami pero fue hace tiempo y no estábamos para verlo.
El mayor cráter que se ha localizado no es el de los dinosaurios sino el llamado Vredefort que está en Sudáfrica y mide 300 km de diámetro. Eso sí, es viejo y queda poco de él ya que el impacto fue hace unos 2000 millones de años (Ma) nada menos. La mejor forma de verlo es mediante las medidas gravimétricas (ver imágenes aquí). Le sigue el de Sudbury, en Canadá, con 250 km y 1850 Ma y luego tenemos el ya mencionado de Chicxulub, con 170 km y mucho más reciente: 65 Ma. Hay 27 cráteres de más de 30 km de diámetro.
La base de datos nos muestra, además de los listados y datos específicos, mapas con la distribución por continentes. Abajo tienen el de Europa:
Mapa de Earth Impact Database
Al hilo de esta cuestión, acabo de leer el libro de Walter Álvarez sobre la secuencia de descubrimientos que llevó a la localización del cráter de Chicxulub ("Tyrannosaurus rex y el cráter de la muerte", Drakontos). Hablaré otro día de este libro, muy interesante, pero hoy comentaré solamente que una de las cuestiones básicas es el problema de la datación absoluta. En el caso de Chicxulub, tenía que comprobarse si el acontecimiento era coetáneo con el límite K/T (Cretácico-Terciario) pero ese era un caso académico solamente. Desde un enfoque más general, muchos nos planteamos la pregunta ¿cuál es la probabilidad de que un meteorito grande choque con la Tierra?
Para responder a esto hay dos vías de análisis. La más directa no nos da probabilidades genéricas sino alarmas concretas: se trata de detectar y seguir la trayecvtoria de los objetos potencialmente peligrosos para prever su posible acercamiento a la Tierra. Se hace a través del Near Earth Object Program que actualmente tiene catalogados 6292 objetos de los cuales unos 1062 tienen un diámetro estimado de 1 km o más y 145 se han etiquetado como "asteroides potencialmente peligrosos" (PHA, Potentially Hazardous Asteriods). Para ser un PHA, el asteroide debe cumplir dos condiciones: que su órbita se corte con la nuestra a menos de 0.05 UA (unos 7.500.000 km) y que mida 150 m de diámetro o más.
La otra vía es analizar la frecuencia y antigüedad de los impactos para así estimar un valor de probabilidad de impacto. Personalmente creo que este ejercicio no es demasiado interesante ya que los eventos son independientes e infrecuentes por lo que decir que puede esperarse un impacto cada, por ejemplo, 70 millones de años, no da apenas información: el próximo puede estar al caer o no suceder en los próximos mil millones de años: el error asociado a la media es enorme debido al pequeño tamaño de muestra y a la incertidumbre en las dataciones.
A este respecto, se ha publicado hace muy poco un artículo donde se cuestionan las dataciones absolutas de muchos de los cráteres mencionados en el catálogo. Se titula An appraisal of the ages of terrestrial impact structures y según sus autores sólo 25 cráteres han sido datados con una incertidumbre inferior al 2%, la mayoría mediante técnicas de radioisótopos (U/Pb y 40Ar/39Ar). Del resto, 86 ni siquiera pueden considerarse datados. El caso de Chicxulub es de los buenos aunque su edad propuesta imicialmente de 64.98±0.05 ha sido revisada corrigiendo un error sistemático hasta llevarla a 65.81±0.14 Ma. También se consideran sólidamente datados los mencionados Vredeforty y Sudbury.
Ya puestos, recordemos que la extinción masiva del fin del Cretácico no fue la más importante de la historia de la Tierra, puesto que le corresponde a la ocurrida hace 251 Ma (Pérmico-Triásico). Se ha propuesto un impacto como causa de esta extinción pero las evidencias son indirectas y el posible cráter no se ha identificado aunque diferentes equipos los sitúan tanto en los mares del Norte de Australia como en la Antártida.
Para terminar ¿qué nos dice el Near Earth Object Program sobre los riesgos inmediatos? Por el momento pueden estar ustedes traquilos porque no hay nada previsto en el próximo siglo. El riesgo de impacto se expresa sintéticamente en la llamada escala Torino que va de 0 a 10. Los valores 8, 9 y 10 se aplican a impactos seguros y el valor depende del daño causado. Al día de hoy sólo hay un objeto por encima de cero, el llamado 2007 VK184, de unos 130 m de diámetro. El máximo acercamiento se producirá en algún momento entre los años 2048 y 2057. La probabilidad de impacto es, por suerte, de sólo 0.00034. Y no, no hay nada para el 2012 ni nada se está acercando desde los confines del Sistema Solar, eso sólo está en la imaginación de algunos apocalípticos.
03 septiembre 2009
El Expediente X de Kerala
25 de julio de 2001, 8:45 a.m.
Comienza a llover. Nada infrecuente, es verdad, pero en este caso la lluvia es roja. Además, algunos dicen que se ha oído un trueno o algo similar un poco antes del fenómeno, que se repitió con frecuencia decreciente durante casi un par de meses más. La lluvia coloreada se debe normalmente al arrastre de partículas en suspensión en la atmósfera y, como mucho, aparece como una curiosidad en los diarios. Estas lluvias, sin embargo, atrajeron la curiosidad de algunos investigadores locales que intentaron publicar sus extraños resultados al cabo de un par de años. Con escaso éxito, todo hay que decirlo.
Los protagonistas de mayor tamaño de este asunto son Godfrey Louis y A. Santhosh Kumar, ambos doctores en física en la Universidad de Kerala. Los dos investigadores analizaron muestras de la lluvia roja y propusieron algunas cosas sorprendentes: el color rojo era debido a unas estructuras muy similares a células que eran muy probablemente de origen extraterrestre y habían sido traídas por un meteorito que se había disgregado en la atmósfera. De ser así, se trataría de la primera evidencia sólida de vida extraterrestre y consecuentemente del mayor descubrimiento científico de la historia.
Imagen de las células en suspensión en el agua de la lluvia roja (fuente)
Los dos primeros artículos de Louis y Kumar son de finales del año 2003 y nunca fueron publicados en revistas científicas aunque pueden encontrarse en arXiv.org. Sus títulos son Cometary panspermia explains the red rain of Kerala y New biology of red rain extremophiles prove cometary panspermia y en el primero se dice lo siguiente:
- la lluvia contenía una enorme cantidad de células rojas de unos 5 micrómetros de diámetro
- la explosión que se oyó al comenzar la lluvia puede provenir de la desintegración de un meteorito
- lo cual apunta a que el origen de las células es extraterrestre y fueron transportadas por dicho meteorito
- dichas células podrían ser esporas de un microorganismo extremófilo
Los autores consideran imposible que las "células" estuvieran previamente en la atmósfera y fueran arrastradas por la lluvia y modelizan una posible trayectoria cometaria que encajaría (más o menos) con las lluvias observadas. Sus argumentos no son concluyentes pero no deja de ser un comienzo prometedor. Luego se ponen a analizar las famosas células lo que debería ser bastante más interesante. Sin embargo, su análisis es visual y los resultados que presentan son de pruebas sin interés biológico alguno. Nada concluyente hasta el momento.
El segundo trabajo, de apenas dos meses después, es mucho más espectacular ya que los autores afirman:
- que lo presente en la lluvia roja son esporas de microorganismos
- que son microorganismos quimiosintéticos
- que se desarrollan y se reproducen a 300 ºC en cualquier medio de cultivo
- que se dividen mediante un proceso especial de fisión
- que no tienen ADN
La razón es simple: las pruebas no son lo suficientemente buenas. Por ejemplo, las que han hecho para el cultivo de los presuntos microorganismos no se atienen a ningún protocolo normal usado en microbiología y se detectan grandes lagunas en las explicaciones que, al final, dejan la sensacion de que no se ha verificado definitivamente nada de lo que se afirma.
Sin meternos en demasiados líos y dado que tienen ustedes los trabajos originales para hacer una consulta directa, diré que las dudas al respecto son muchas y serias. Por ejemplo, no se explica como se han recogido las muestras ni como se han conservado durante los años que duró la investigación. ¿Eran botellas estériles? ¿Poseen en el departamento de Física material y protocolos adecuados para la toma y conservación de muestras biológicas? ¿Hay garantía de que las muestras no estaban contaminadas? ¿Por qué no se contó con microbiólogos para las etapas de cultivo y pruebas biológicas? ¿Por qué no aparecen resultados de cultivos a temperaturas normales? ¿Cómo es que no se han hecho análisis con PCR que sí hu8nieran sido concluyentes?
Las dudas persisten dado que en su última publicación, ya en una revista científica, donde sintetizan los trabajos de 5 años, todo lo relativo a los cultivos, ciclos vitales, quimiosíntesis... ha desaparecido.
El artículo se publicó en Astrophysics and Space Science y se titula The red rain phenomenon and its possible extraterrestrial origin. Tienen una copia aquí.
¿Y qué dicen otros grupos que hayan analizado las muestras? Bueno, no parece que los autores hayan dado con facilidad muestras a grupos externos o tal vez no hayan tenido demanda, no sé. Aparte de artículos periodíscos, hay un informe de Thiruvananthapuram (India) que presenta resultados interesantes. Firmado por S. Sampath y colegas en el 2001 y titulado Colored Rain: A Report on the Phenomenon dice que las partículas en suspensión parecen esporas al microscopio óptico y que en el laboratorio de microbiología de Tropical Botanic Garden and Research Institute (TBGRI) se consiguió que germinaran en un medio de cultivo convencional y a temperatura ambiente. Lo que salió de ahí se identificó como una muy terrenal alga del género Trentepohlia. Esta alga es uno de los simbiontes de líquenes que son abundantes en esa zona de India por lo que los autores de este informe plantean que aunque el fenómeno es indudablemente extraño, la hipótesis de un origen local de las esporas es consecuente con los análisis. Tienen la foto del alga abajo:
Afirmaciones extraordinarias requieren pruebas extraordinarias o, al menos, sólidas. No es el caso. Incluso algunas de las explicaciones que Louis y Kumar presentan a favor de su hipótesis son poco convincentes. Por ejemplo, nadie vió o detectó el meteorito ni está verificado el supuesto "trueno" antes de la primera lluvia. Pero incluso aunque el meteorito fuera real no es lógico que las lluvias rojas duraran dos meses y sobre una zona tan limitada geográficamente sino que deberían haberse extendido sobre un área muchísimo más amplia.
Como conclusión: la panspermia sigue siendo una hipótesis sobre el origen de la vida sobre la Tierra. No es imposible ni absurda pero no hay la más mínima prueba de que haya ocurrido alguna vez y la lluvia de Kerala no ha aportado nada a favor de esa hipótesis. Otra vez será.
Etiquetas, Bitacoras.com: panspermia Kerala
13 agosto 2009
[Breves] Rabinos contra la gripe A
Etiquetas, Bitacoras.com: gripe , psicodelia , religión
09 agosto 2009
Un virus erradicado reaparece en Nigeria
En 1999, la Global Polio Eradication Initiative anunció la erradicación del tipo 2 de virus de la poliomielitis, uno de los tres serotipos existentes. De este virus sólo quedaron muestras en algunos laboratorios y la lucha se centró en los tipos 1 y 3 mediante vacunas monovalentes específicas.
Recordemos que la poliomielitis es una enfermedad que afecta sobre todo a niños menores de 5 años a los que paraliza al invadir su sistema nervioso y destruir las neuronas motoras. La parálisis es irreversible ya que esas neuronas no se regeneran y es mortal si afecta a los músculos que permiten la respiración (entre el 5 y el 10% de los casos).
Actualmente, la polio se considera endémica en 4 países: Afganistán, Nigeria, India y Pakistán, con casos importados en otra docena de países asiáticos y africanos.
Las campañas de vacunación han sido globalmente un éxito ya que la incidencia de la polio se ha reducido en más del 99% desde el inicio de las vacunaciones hace unos 20 años. Hasta entonces, la enfermedad paralizaba a unos 350000 niños al año. El pasado año 2008 ese número fue de unos 1700 en todo el mundo; en 2009 llevamos unos 770.
Sin embargo, 10 años después de la erradicación del poliovirus tipo 2, este ha reaparecido en el Norte de Nigeria con unos 130 casos detectados. Su origen no es “natural” sino que procede del virus atenuado presente en algunas vacunas orales (OPV, oral polio vaccines). El fenómeno de los VDPV (vaccine-derived polio virus) no es nuevo y se ha detectado ocasionalmente en zonas con bajo nivel de vacunación pero es la primera vez que se “resucita” al extinto tipo 2. Lamentablemente, este nuevo VDPV no sólo es capaz de producir la enfermedad sino también de transmitirse de persona a persona.
El riesgo de recirculación de los virus atenuados de las vacunas se ha asumido hasta el presente porque los casos que provocan son mínimos comparados con el efecto global de la vacunación. Tanto es así que se ha descartado usar otro tipo de vacuna llamada IPV donde los virus están muertos y no son, por tanto, susceptibles de mutar, reactivarse y propagarse. El caso es que la IPV debe ser inyectada por personal con formación sanitaria mientras que la OPV se toma por vía oral, sin mayores preocupaciones sobre jeringuillas, agujas, esterilización… algo importante en las condiciones ambientales y sanitarias de los países afectados.
Dado que la polio no tiene tratamiento, la solución será la intensificación de las vacunaciones en las zonas afectadas. Para ello podrán usarse las vacunas trivalentes, efectivas contra los tres tipos de virus, y adaptadas al nuevo patógeno tipo 2. El uso de estas vacunas ha sido cada vez menor debido a que las monovalentes (contra un tipo único de virus) son significativamente más efectivas. Habrá que dar marcha atrás.
Administración de la OPV (de la Global Polio Eradication Initiative)
05 agosto 2009
[Fotos] Valdediós
He decidido hacer una cuenta en Flickr y organizar las fotos allá, supongo que era inevitable. Esta es de la Iglesia de San Salvador pero hay alguna más de mi periplo de ayer.
Etiquetas, Bitacoras.com: fotografía , Valdediós