27 febrero 2009

Una realidad no muy lejana

Nos lo recuerda Eudald Carbonell en su blog Sapiens hablando Sobre la diversidad. Yo no había caído en ello y, al leerlas, me he quedado pensando en las implicaciones de estas frases y me ha parecido oportuno compartirlas aquí:

[...] nuestro género emerge en el Plioceno africano hace unos tres millones de años. Desde ese momento, el linaje humano ha ido prosperando de tal forma que en la actualidad el único homínido vivo es el Homo sapiens. Lo más importante consiste en explicar que antes no siempre había sido así. Solamente hemos de retroceder unas decenas de miles de años y encontramos que en nuestro planeta vivían cuatro especies: Homo erectus y Homo floresiensis en Asia, Homo neanderthalensis en Europa y el Oeste de Asia, y el Homo sapiens en África y Euroasia. Ahora nuestro género está representado por una única especie: el Homo sapiens. La pérdida de diversidad ha sido vertiginosa desde hace unos 15000 años y sólo nosotros sobrevivimos a la extinción.

Ya he dejado caer alguna vez que estamos demasiado acostumbrados a vernos solos y que eso nos lleva a creer que realmente lo estuvimos siempre, con esa distancia innegable con el resto de los seres vivos. Pero no, en España, hace menos de 30000 años los neandertales circulaban en lo que sería su último refugio antes de desaparecer y eran tan humanos como nosotros. Asimilar que existió un mundo reciente poblado por al menos cuatro especies de homínidos tiene, al menos para mí, repercusiones a la hora de valorarnos: afortunados pero del montón, brillantes pero con mucho por aprender, especialmente de nuestra historia (ya de paso, lean la mía con los neandertales, un recuerdo lejano que me gusta rememorar).

Cada hallazgo en paleontología humana nos desequlibra cada vez más en nuestro pedestal de barro. El último son unas huellas de alguien que hace 1.5 millones de años caminaba por un valle de la actual Kenia.

Una de las huellas recién descubiertas (foto tomada de aquí)

25 febrero 2009

Júpiter arde ¿es que no lo ven?

Sólo como curiosidad y porque la gripe se hace más llevadera con una buena sesión de risas: hay alguna gente con escasa tolerancia a la evidencia que ha anunciado que Júpiter está en ignición por obra y arte de seres extraterrestres superiores y que será no se qué de nuestro futuro y tal. Por si no lo han leído bien, lo repito: Júpiter se ha convertido en una estrella y eso lo han provocado ETs para salvar nuestro mundo. Sí, ya sé que otros nos amenazan con todo lo contrario pero es los designios de la federación galáctica son inescrutables.
Lo interesante de esta nueva tontería, si no no la habría mencionado siquiera, es que se han atrevido a dar fechas. Bueno, dos fechas porque la primera era para fines del año pasado 2008 y ya pasó. ¿Ha ocurrido? No. ¿Han rectificado? No. ¿Por qué? Por que la ignición se ha producido pero está en "dimensiones superiores". Ya. Reconozco que se me había pasado por alto esa posibilidad.
Otros se mojan más y dicen que ya se ha convertido en una estrella y que será visible a simple vista el próximo equinoccio (que este año toca el 20 de marzo aunque las mentes superiores no se hayan enterado del todo bien).
¿Fuentes? La mejor es la de un "periodista para mentes galácticas" porque se lo ha chivado una secta de ETs superguais con fuente en Cristo Miguel Atón de no se qué Federación Galáctica (sí, tal cual). Cómo no, se ha propagado por ahí con rapidez, todo ello facilitado por la ausencia de neuronas funcionales (esto es sólo una hipótesis, no descarto abducciones o consumo de destilados). En esa página podemos, para aprovechar el tiempo, votar si el Anticristo es Obama (va ganando), Al Gore o Sarkozy. Con lo fácil que es preguntárselo de Cristo Miguel Atón y que lo fulmine con su espada láser.
La única fuente documental no procedente de filtraciones estraterrestres o de juzgados españoles es la filmación en directo de OVNIS gigantes y de la explosión de Júpiter tomados por una misión de la NASA que, casualmente, no toma imágenes de Júpiter y en cuyo video aparecen hermosos reflejos en la óptica del sensor. Detalles sin importancia supongo porque, lógicamente, todo está ahí, a la vista ¿o no?
Vamos a lo importante. Rafapal, periodista galáctico, Ramón Alberto, hermano galáctico: lo primero que teníais que hacer era quitar la publicidad de los blogs (os digo yo que el puerco dinero está reñido con la elevación espiritual y Google es realmente Gran Hermano, no seais colaboracionistas). Lo segundo que agradecería es una respuesta ¿por qué ningún astrónomo profesional o aficionado habla de esa nueva estrella que ha nacido donde estaba Júpiter? Yo, en mi latitud, no lo veo actualmente ¿me estoy perdiendo algo? Venga, voy a armarme de paciencia y espero hasta el equinoccio. Luego hablamos ¿vale? A ver si teneis lo que hay que tener.

Nota: para vuestra tranquilidad, aunque leais que "fumar cannabis diariamente puede predisponer a la psicosos y a la esquizofrenia" no hagais caso, es una noticia donde se vuelve a confundir asociación (dudosa) con causalidad.

Actualización: llegó el "gran día", el 23 de marzo pasó y de la estrella joviana nada se sabe. ¿Cuál es la explicación, periodistas galácticos? ¿Qué nueva disculpa será esta vez?

19 febrero 2009

Nueva gansada criptozoológica

Abajo tienen la foto del monstruo que, según la noticia, mide 100 pies de largo (unos 30 m). Se dice que la serpiente en cuestión ha sido fotografiada en Borneo desde un helicóptero que sobrevolaba la zona. ¿Por qué es probablemente (soy amable) falsa?
Pues porque reúne todas las características que hacen que la sospecha sea fundamentada aparte, por supuesto, de la naturaleza de lo fotografiado, que no tiene precedente:
  • la foto es anónima: se ignora quién la hizo y dónde está ese lugar cuando estos deberían ser datos conocidos
  • la foto es de mala calidad y, examinada con algo de ampliación, muestra manchas y cambios de tonalidad
  • la foto es única, algo incomprensible cuando uno se encuentra algo tan espectacular
  • las ondas son extrañas, no aparecen en la cabeza sino varios metros por detrás y salen casi perpendiculares al cuerpo
  • un animal de 30 m sería algo nunca visto pero este, dado el tamaño de los árboles, mide un mínimo de 200 m

Noticia original: Strange News: 100-Foot 'Borneo Monster' Said Photographed

Actualización: en el segundo comentario nos dan un enlace a la misma foto sólo que de mucha mejor calidad y, sorpresa, sin bicho. Esta es:


Los sólidos polos de la Luna

Un altímetro láser emite un pulso de luz y mide el tiempo que tarda en recibir el reflejo. Con eso es posible medir la distancia entre el altímetro y el suelo. Este es el sencillo principio en el que se basan los radares, sonares y sistemas dedicados a medir distancias: pulso ... eco. Cuando se hace repetidamente desde un avión o un satélite acabamos obteniendo un conjunto de datos en tres dimensiones que forman un modelo de la superficie. Esa superficie puede estar en la Tierra o en cualquier otro sitio.
Lo que les comento hoy es que se ha publicado muy recientemente una nueva topografía de la Luna construida mediante un instrumento llamado LALT (Laser Altimeter, no han sido muy creativos) transportado por un satélite de la Japan Aerospace Exploration Agency. En 20 kg de peso se integra un sistema de medida basado en un láser infrarrojo (1064 nm) que permite obtener las elevaciones de la superficie con una exactitud de unos 5 m. Todo esto se realiza desde unos 150 km de altitud y de forma relativamente lenta: una medida por segundo.
Acudiendo a la página web original podemos descargar los datos de elevaciones como ficheros de texto (tres columnas con las coordenadas) y procesarlos con las herramientas adecuadas. Abajo les incluyo dos figuras que ilustran bien esta cuestión: el Polo Norte y el Polo Sur lunares, generados a partir de los datos de puntos de la página japonesa y un poco de trabajo con un sistemas de información geográfica. Cada uno de ellos tiene como origen unos 647000 puntos.

El Polo Norte lunar está en el centro de la imagen, que muestra las zonas con latitudes superiores a los 85º N (proyección polar estereográfica).

El Polo Sur lunar está en el centro de la imagen, que muestra las zonas con latitudes superiores a los 85º S (proyección polar estereográfica).

Enlazando con uno de nuestros temas favoritos, estos datos revelan un resultado inesperado que no hará cambiar la ciencia: la Luna no tiene agujeros en los Polos. Mal que les pese a algunos. Aunque siempre queda la socorrida huída hacia adelante: los japoneses han falsificado la información, lo mismo que hace la NASA. Esta actitud tiene su lado bueno y su lado malo. El bueno es que se puede seguir impermeable a la información sin más esfuerzo que negarse a aceptar que dos más dos son cuatro (hay gente a la que le cuesta poco este ejercicio de voluntad). El malo que hay que añadir otra agencia y varios cientos de personas más a la conspiración mundial.
El artículo en el que se han publicado los resultados es el siguiente:
H. Araki et al., Lunar Global Shape and Polar Topography Derived from Kaguya-LALT Laser Altimetry, Science, 323(5916): 897-900, 2009.

14 febrero 2009

Dataciones con carbono 14 (2): problemas y soluciones

El otro día comenté los fundamentos de las dataciones mediante carbono 14. En un correo me preguntaron sobre si es cierto que hay problemas que pueden introducir errores en las dataciones hasta el extremo, según algunos, de no contradecir que los fósiles humanos tienen todos menos de 6033 años (justo eso, en efecto, cosas de la Biblia, dicen). Bueno, pues vamos a ello.

La datación en bruto (entiéndase muy bruta) asumiría que el carbono 14 en la atmósfera ha sido constante dentro de esos 60000 años que representan el máximo periodo datable. Este es un argumento que puede usarse, y se usa, para criticar las dataciones e intentar invalidar resultados incómodos. Y sobre esto tenemos una cosa mala y una buena. La mala es que, en efecto, los niveles de C14 han variado en el tiempo. La buena es que los que usan la técnica no son idiotas y lo saben.

¿Cómo se soluciona este problema? Lógicamente, es necesario conocer cuales han sido los niveles de C14 en la atmósfera en el pasado lo más detalladamente posible. Si llegamos a obtener esos niveles podremos corregir las dataciones en función del tiempo transcurrido y generar resultados fiables. Es decir, la frase que he encontrado por ahí y que dice "el mayor error en la teoría de la datación por radiocarbono está en la suposición de que el nivel de carbono 14 en la atmósfera ha sido siempre igual al de la actualidad" es falsa. Un error sólo lo es si no se corrige (Perogrullo, 2009, com. pers.).

La mejor solución sería encontrar algún sitio donde se conservara material orgánico de tiempos pasados y que, además, pudiera datarse por métodos independientes con seguridad. Así, si localizamos materia orgánica de 18220 años de edad podríamos hacer la prueba y encontrar, por ejemplo, que según el C14 tiene 17100. El cociente entre la edad C14 y la real sería el factor de corrección aplicable a esa edad.

Esta forma de corregir las dataciones es posible porque hay sitios que son datables y que conservan materia orgánica de cada año: los árboles. Los árboles de zonas no ecuatoriales presentan en sus troncos los llamados anillos de crecimiento que se forman por acumulación de materia año tras año. Los anillos pueden contanrse ya que presentan tonos diferentes en la época de crecimiento y en la de reposo. Además, son de grueso distinto, según la bondad del año en lo que al clima se refiere: anchos en años de fuerte crecimiento y estrechos en años de sequía, frío o cualquier otro factor limitante.
El conjunto de anillos representa, por tanto, un registro útil para saber la edad del árbol (número de anillos) y una síntesis de lo benigno de las condiciones climáticas del año (grosor de cada anillo). Pero, además, la materia de cada anillo contendrá el C14 correspondiente al año en el que se ha formado.

Anillos en un ejemplar de Pseudotsuga menziesii cortado en México, © H.D. Grissino-Mayer.

¿Cómo se datan los anillos? Si el árbol ha sido cortado en la actualidad basta con contar los anillos hacia el interior: en el ejemplo de arriba, el árbol se cortó en 1993 y se contaron 223 anillos, luego nació en 1770. Abajo se muestra una imagen donde aparece representado el grosor de los anillos y la fecha que les corresponde en un árbol de Italia.


En el eje de abscisas aparecen los años y en el de ordenadas en grueso del anillo en mm (ejemplo de un tilo de 223 años de edad cortado en 1993 en Italia)

¿Cómo se datan los anillos? Si el árbol ha sido cortado en la actualidad basta con contar los anillos hacia el interior: en el ejemplo anterior, el árbol se cortó en 1993 y se contaron 223 anillos luego nació en 1770. El problema aparece cuando tenemos un árbol cuya edad conocemos contando los anillos pero que no sabemos cuando fue cortado, es decir, tenemos una serie como la de arriba pero desconocemos los valores del eje de abscisas. Este problema se ha ido solucionando superponiendo series datos y buscando periodos que estén estrechamente correlacionadas. Por ejemplo, es posible que tengamos un árbol con 200 anillos y encontramos que los últimos 50 (los más modernos) coinciden en su grosor (en realidad en sus variaciones interanuales) con los 50 más antiguos del árbol del gráfico superior. Ese significa que murió en 1820 y nació 200 años antes, en 1620. Este procedimiento ha sido aplicado con miles de árboles modernos y antiguos de tal forma que actualmente tenemos dataciones por dendrocronología de gran exactitud que comienzan hace 11400 años.
Los esfuerzos no se han detenido aquí, como es lógico, y se han utilizado bastantes más fuentes de carbono antiguo para ampliar ese límite temporal: anillos en corales, burbujas de aire en testigos de hielo y sedimentos que forman un estrato anual han sido las fuentes más comunes. El resultado es que ya existe una serie de concentraciones de C14 atmosférico mucho más larga:

Contenido atmosférico en C14 respecto al presente.

La figura viene de un trabajo bastante reciente: Hughen, K. et al., 2004, 14C Activity and global carbon cycle changes over the past 50,000 years, Science, 303: 202-207. La zona gris alrededor de la línea representa la incertidumbre, muy elevada en los últimos 10000 años pero mínima en los primeros 15000 y bastante buena (en todo caso perfectamente utilizable) hasta los 38000 años antes del presente.
Las curvas de calibración que buscábamos ya son posibles con la enorme acumulación de datos existente, siempre en crecimiento. En la página de datación por radiocarbono de la Universidad de Columbia, nos permiten calibrar fechas C14 en un formulario online (con indicación de su incertidumbre) o examinar la 'Fairbanks0107' calibration curve con posibilidad de hacer zoom hasta casi año por año.

Como conclusión les diría que los datos existentes, las curvas de calibración y las técnicas actuales de medición de la radiación beta son suficientes para hacer buenas dataciones con una fiabilidad que puede estimarse. Quedan otros problemas, desde luego, entre los cuales el más grave es el de la contaminación de la muestra, algo que puede ocurrir tanto in situ como en el laboratorio. Pero eso va en la experiencia, el cuidado y los protocolos que se aplican a las mediciones, como en cualquier otra disciplina científica.
Para terminar en colores les pongo abajo un fuerte zoom sobre una zona de la curva de calibración basada en anillos de árboles coincidente con los supuestos 6033 años de antigüedad del hombre. Irónicamente, a los partidarios de la juventud de todo lo vivo no les viene bien la corrección por cambios en el C14 porque revela que las muestras son algo más antiguas que lo indicado por los resultados sin corregir. Cosas que pasan.
De la 'Fairbanks0107' calibration curve (zoom sobre los 600o años antes del presente)

12 febrero 2009

Principio de precaución

Debo confesarles que no he leído demasiado sobre el presunto cambio climático, no tengo tiempo. Por eso, porque no domino el tema hasta el nivel de dar una opinión fundamentada, me quedo con las pistas que dan algunos artículos que leo a veces y cuya metodología sí entiendo y me parece fiable. De esos trabajos (he comentado algunos en este blog: 1, 2, 3, 4) se deduce, creo yo, una cosa muy simple: lo más razonable sería aplicar el principio de precaución. Tal vez no haya calentamiento, tal vez estemos viendo sólo una fluctuación, un hipo terráqueo, o tal vez haya calentamiento pero no está acelerado por la acción humana, o tal vez haya y no pase nada o sea tarde, o tal vez... Pero antes de pasar de todo habría que echar un vistazo a fotos como las de abajo porque nunca fue tan cierto que una imagen vale más que mil palabras.
.
Glaciar Upsala, Argentina. La foto superior corresponde a 1924 y la inferior al 2004.

11 febrero 2009

En el Sur de Australia


Esta foto circula por todos los rincones de la Red pero no resisto la tentación de ponerla en mi blog. La escena se produce en medio de los grandes incendios del Sur de Australia.

10 febrero 2009

Ante todo tranquilidad

A algunos se les va la olla. Pero mucho. A ver, un concurso de buena vista (absténganse los sensibles): ¿a qué corresponde esta imagen tomada con un microscopio? ¿Una célula madre? ¿Padre? ¿Un cocolitofórido? ¿Un huevo frito tratado con nitrógeno líquido? Para no perder la perspectiva recuerden que se coge el objeto, se le corta transversalmente y esa rodaja es el objeto de la fotografía convenientemente impregnada en parafina y emparedada entre dos vidrios. Y no, no se me ha ocurrido otra etiqueta.

La solución aquí.

08 febrero 2009

200 años negando la evolución

Un artículo recomendable sobre el Institute for Creation Research y sus personajes en Publico.es

Dataciones con carbono 14 y un experimento

En una web creacionista encontré un argumento que explicaba que las dataciones con carbono 14 se basaban en un principio obviamente incorrecto y que los resultados correctos eran una confirmación científica de las teorías de la Tierra Joven.

Antes comentaré unas bases muy generales de esta modalidad de datación para que luego juzguemos la mencionada explicación. El caso es que el carbono, parte esencial de la estructura de los seres vivos, presenta dos isótopos estables: el carbono 12 (98.9%) y el 13 (1.1%). El C12 contiene 6 neutrones y 6 protones en su núcleo mientras que el C13 contiene un neutrón más. Ninguno de ellos es útil para datación. Afortunadamente, existe un isótopo escaso pero real: el famoso carbono 14 o C14, descubierto en 1940, formado por 8 neutrones y 6 protones. El C14 es inestable y acaba por emitir una partícula beta con lo que se convierte en nitrógeno 14 (7 neutrones y 7 protones).
Lógicamente, si no hubiera una producción más o menos continua de C14, éste habría desaparecido de la Tierra pues se habría transformado en su totalidad. La producción de C14 tiene lugar en la alta atmósfera por el choque de los rayos cósmicos con el N14 repartiéndose posteriormente por todo el planeta. Las plantas absorben carbono en la fotosíntesis (los tres isótopos) y los demás acabamos incorporándolo a nuestros tejidos comiéndonos unos a otros. Aunque el C14 está desintegrándose continuamente, durante la vida se mantienen unas relaciones C14/C12 aproximadamente constantes (como en la atmósfera) porque existe un continuo recambio. Al morir, sin embargo, dejamos de absorber carbono y el C14 comienza a disminuir ya que se transforma en N14 y no hay reemplazo.

¿Cómo puede usarse el C14 para datar un resto orgánico? Pues precisamente midiendo la relación C14/C12 en esos restos mediante detectores de partículas beta. En un resto reciente la relación será igual a la presente en el CO2 de la atmósfera de cuando vivía y en un resto antiguo será menor. El punto clave es fijar cual es la tasa de desintegración para poder establecer una relación entre el tiempo transcurrido y la relación C14/C12. Para eso se mide la tasa en cuestión y se estima el llamado periodo de semidesintegración, que es el tiempo que tarda en transformarse la mitad del C14 presente en una muestra. Para el C14, este periodo es de 5730 años. Eso significa que tras 5730 años, la cantidad de C14 original se habrá reducido a la mitad; tras otros 5730 años, a una cuarta parte y tras otros 5730 a una octava parte de la original. Según van quedando menos átomos de C14, el método pierde fiabilidad y el límite máximo para una datación por C14 es de unos 60 mil años.


Uno de los casos más conocidos del uso de esta técnica fue la datación de la Sábana Santa. El artículo, publicado en 1989 en Nature, dió como resultado que tres laboratorios dataron la tela en los siglos XIII-XIV.

Este comportamiento no es especialmente intuitivo y el argumento usado en la página creacionista que mencioné al principio es el siguiente: si al cabo de 5730 años se ha desintegrado la mitad del C14, tras otros 5730 años se habrá desintegrado la otra mitad por lo que 11000 años es límite de tiempo para usar el C14 en dataciones. Por ese motivo, muestras datadas en, por ejemplo, 40000 años son, en realidad, mucho más recientes, probablemente de unos 7 u 8 mil años. Los partidarios de esta argumentación la usan para acomodar las pruebas de datación a su particular cronología bíblica.

El problema de la argumentación anterior es que es errónea por no entender qué significa "periodo de semidesintegración" ni comprender el mecanismo subyacente a la aleatoreidad de la desintegración de un átomo concreto. La clave está en que no podemos saber cuando un átomo va a desintegrarse, sólo podemos estimar su probabilidad en un periodo de tiempo concreto. El comportamiento de un átomo es impredecible en el sentido de que puede desintegrarse al cabo de unos segundos o al cabo de diez mil años: no podemos saberlo, sólo sabemos que lo hará en algún momento. En cambio, el comportamiento de un conjunto grande de átomos obedece a las leyes estadísticas y encontraremos, se supone, la tasa de decaimiento prevista.

Como el concepto no es especialmente intuitivo, he preferido plantear un método alternativo a las ecuaciones matemáticas simulando en una sencilla hoja de cálculo la desintegración de 500 átomos de C14 a lo largo de 105 periodos de tiempo (1). Así veremos los resultados sin acudir a ecuaciones matemáticas. En la hoja, los 500 átomos de la "muestra" están en la primera columna y todos tienen para t=0 el valor 1 (C14, no se ha desintegrado). La desintegración de un átomo concreto se produce aleatoriamente y he fijado esa probabilidad en 0.05 para acelerar el proceso pero puede cambiarse, claro. En cada paso, un átomo se desintegra si de un generador de números aleatorios (2) en el rango 0-1 sale un número menor que 0.05. En ese caso, en la columna siguiente tomara el valor 0 y, lógicamente, cuando un átomo se desintegra queda en ese estado de forma permanente. Así vamos avanzando en el tiempo hasta el periodo o ciclo 105.
¿Cuál es la probabilidad de que un átomo concreto no se haya desintegrado en dos ciclos? Pues será de 0.95 * 0.95 = 0.9025; tras ciclos será de 0.8574 y así sucesivamente. O dicho de otro modo, tras un único ciclo se habrá desintegrado el 5.00% de los átomos, tras dos el 9.75%, tras tres el 14.26%, etc. A los 100 ciclos la probabilidad de que un átomo concreto no se haya desintegrado es muy baja, de 0.00592 aproximadamente.
Como el proceso es aleatorio, los porcentajes anteriores no se cumplirán exactamente, tanto más por el reducido número de átomos del experimento (sólo 500). Los resultados están en forma gráfica y abajo les copio un par de ellos que muestran la cantidad de átomos de C14 que quedan en cada ciclo. Son muy parecidos pero no iguales:

Gráficos resultado de simulaciones de desintegración aleatoria de 500 átomos de C14

A partir de los gráficos es posible estimar el periodo de semidesintegración, que aquí corresponde aproximadamente al ciclo 14-15, donde quedan unos 250 átomos de C14. Y si vamos a los ciclos 28-30 veremos que allí quedan unos 125 átomos de C14. Conclusión: la regla de semidesintegración se cumple y cualquiera, sin aparato matemático alguno puede comprobarlo.

No creo que los creacionistas de la web aquella acepten esto, claro (alguna excusa nueva se sacarán de la manga, como los de la Tierra Hueca), pero ha sido un ejercicio sencillo e interesante. Las dataciones por C14 tienen otros problemas, como la concentración de C14 atmosférico, que es variable en el tiempo, pero en este post sólo quería aclarar el concepto de periodo de semidesintegración y comprobarlo mediante un experimento virtual.

(1) los periodos de tiempo o ciclos son arbitrarios en este ejemplo porque sólo nos interesa verificar que la desintegración se comporta como se dice.
(2) la hoja está en formato xls (MS Excel); si la función aleatorio() no funciona, revise que tenga activa la casilla del Mení Herramientas - Complementos - Herramientas para análisis. Las sucesivs pruebas se realizan pulsando la tecla F9 con lo que todos los cálculos se rehacen incluyendo la generación de números aleatorios.

06 febrero 2009

Medicamento producido por una cabra transgénica

La noticia es breve pero importante: la FDA acaba de aprobar la producción industrial de un medicamento mediante un animal transgénico. Se trata de ATryn, que se obtiene de la leche de cabras cuyo ADN ha sido alterado para pruducir más cantidad de antitrombina, una proteína que inactiva varias enzimas responsables de la coagulación de la sangre. Para conseguir los animales transgénicos se introduce el ADN humano responsable de la producción de la proteína en una célula embrionaria de cabra que luego se desarrolla hasta su nacimiento en una madre caprina de "alquiler". Una vez adulta, su leche contendrá una cantidad importante de antitrombina recombinante humana que será extraída y purificada para su uso.

La compañía que llevará adelante el proceso se llama GTC Biotherapeutics y las primeras beneficiadas serán las personas afectadas por una deficiencia hereditaria que afecta a la producción de antitrombina y que suelen morir por trombosis.

05 febrero 2009

Calculando

Me apetece contárselo: tengo dos vecinos de pasillo que usan ordenadores para hacer simulaciones de propagación electromagnética. Estas simulaciones se realizan resolviendo sistemas de ecuaciones simultáneas, algo normal en aplicaciones físicas. Aunque L tiene un flamante Mac en su mesa (nadie es perfecto) eso no le parece suficiente y sus últimos trabajos se realizaron en Santiago de Compostela, donde tiene su residencia Finis Terrae, un ordenador que pesa 35 toneladas. Por dar algún dato, tiene una memoria de casi 20 Tb (1 terabyte = 1024 gigabytes), 2528 CPU de 64 bits, 390 Tb en disco... Todo funciona bajo Linux y está conectado a 20 Gb/s mediante fibra óptica. Con todo esto, Finis Terrae es el sexto ordenador de España, lista encabezada a día de hoy por el Mare Nostrum de Barcelona. Aún así, los colegas dicen que su arquitectura les viene bien para esos cálculos, lo cual debe ser cierto porque han conseguido programar y hacer resolver un sistema de ecuaciones con 500 millones de incógnitas (ver aquí). En realizar esa tarea se utilizó un 42% del ordenador (1024 núcleos y 6 Tb de RAM) durante 38 horas de operación en total.
¿Qué aplicaciones prácticas tiene este trabajo? En principio, dado que vivimos sumergidos en un mundo de campos electromagnéticos, muchas.
L menciona la simulación de los radares que poco a poco irán equipando los coches y que controlarán los cambios de carril, la proximidad de objetos, la detección de barreras, peatones, señales... Las características de respuesta de todos estos objetos en condiciones reales es prácticamente desconocida por lo que las simulaciones permitirán definir los parámetros operacionales. comprobar sus variantes y, al final, ahorrar tiempo y dinero.
Otro ejemplo es diseño de estructuras dotadas de múltiples antenas, cuyo comportamiento hasta ahora se hacía de forma individual con la seguridad de que al final, al montar el conjunto sobre la plataforma (satélite, barco...) iba a haber interacciones no previstas que obligarían a la modificación del diseño mediante en conocido método de "ensayo y horror".
Finalmente, lo más curioso que comenta es la aplicación de estas simulaciones para el análisis de superficies de invisibilidad. Pero eso ha prometido contarlo otro día. Mientras tanto quédense con lo mejor del post: una vista panorámica de su despacho.

Donde se demuestra que las reglas de la archivística tienen extrañas ramificaciones (post relacionado: el hábitat de la doctoranda)

04 febrero 2009

Como hacer (o no hacer) una encuesta en un blog

Supongan que quiero hacer una encuesta en mi blog sobre un asunto cualquiera. Para ello pillo el artilugio "encuesta" en la página de diseño de Blogger y me pongo a redactar la pregunta y las opciones de respuesta. ¿Debo poner lo primero que se me ocurra o hay alguna regla que me ayude a diseñar un buen cuestionario?
En principio, hay 4 condiciones que nos garantizan que las cosas nos van a salir bien. Como son fáciles de respetar creo que merece la pena que antes de ponernos a teclear afanosamente nos tomemos un minuto y las tengamos en cuenta (luego las comento con algunos ejemplos):
  1. La pregunta debe ser clara y comprensible. Esto debería ser evidente pero hay ejemplos por ahí de lo contrario.
  2. Las respuestas deben ser semánticamente homogéneas, es decir, deben referirse al mismo criterio y no a enfoques distintos del problema.
  3. Las opciones de respuesta deben cubrir rangos diferentes, es decir, no deben solaparse entre sí.
  4. El conjunto de opciones debe cubrir el rango completo de respuestas.
Y ya está, no hay mucho más. Sin embargo, verán que esto no suele aplicarse con la frecuencia que sería aconsejable, les comento unos pocos ejemplos que ayuden a aclarar esos cuatro puntos y algunos otros que aparecen de vez en cuando.

1. En uno de los blogs que sigo, V nos plantea la cuestión: "aprendo de ciencia principalmente de..." y nos propone 4 respuestas:
  • revistas
  • internet
  • periódicos
  • televisión
Este es un caso donde la pregunta (formulada a su manera) es clara pero las opciones pueden plantearse mejor. Por ejemplo, "internet" es una forma de acceso mediante la cual llego a revistas, periódicos y televisión. La condición 3, por tanto, no se cumple: ¿qué contesto si aprendo principalmente de revistas pero accedo a estas normalmente por internet?
Tampoco las cuatro opciones que se dan cubren la totalidad de posibilidades de respuesta (condición 4); por ejemplo, sin llegar a la exhaustividad, se echa en falta la opción "libros".
¿Cómo podríamos corregir estos problemas y, ya de paso, obtener más información con el mismo esfuerzo? Personalmente (para gustos hay colores) usaría algo como "valore de 1 a 5 la importancia de cada fuente en su aprendizaje sobre ciencia" poniendo como opciones libros, revistas científicas, revistas de divulgación, periódicos, radio, televisión, blogs y, por si acaso, otros (que podrían ser, por ejemplo, "podcasts").

2. Un caso bastanta pintoresco es este ejemplo de Scrapper's Place, donde preguntan "Con cuánta frecuencia escribes en tus páginas?" con las opciones (incluyo los resultados):
  • siempre: 60%
  • a veces: 40%
  • nunca: 0%
En este caso, el principal problema es las opciones no dan respuesta adecuada a la pregunta: si nos preguntan por la frecuencia (¿cuántas veces hijo mío...?) ¿qué significa "siempre"? ¿todos los días, a todas horas? ¿dejo de escribir sólo para comer?
La tercera respuesta obtuvo cero con razón ¿cómo, si alguien tiene "páginas", no escribirá "nunca" en ellas?
Lógicamente, la forma adecuada de plantear las opciones sería proponer rangos de frecuencia reales adaptados al tema que se esté tratando.

3. Pasando a los medios de comunicación, en 20minutos.es preguntan ¿te darías de alta para recibir multas de tráfico por 'e-mail' y SMS? Y dan como opciones:
  • Sí, porque ahora nunca me entero de las multas que me ponen
  • No, si la DGT me quiere encontrar, que me busque
  • Me parece que el sistema actual es el más adecuado
Aquí aparece la manía, compartida con otros medios, de añadir una "coletilla" a las respuestas simples "sí" o "no" dándoles una intención. El resultado es que siempre falla la condición 4: mi voto puede ser "sí" o "no" por motivos completamente distintos de los presentados ahí (que, por cierto, son bastante tontos). Y en este caso minimalista también se rompe la condición 2 porque la tercera opción no tiene relación con las otras.
En 20 minutos esta historia se repite de forma constante en todas sus encuestas, parece que no pueden resistir la tentación de añadir la gracia. Lo más adecuado y simple es hacer como El Mundo, que en todos sus "debates" propone sólo dos respuestas "sí" y "no".

4. Finalmente, tampoco rne.es se luce en sus encuestas, por ejemplo:
¿Qué te han parecido los 8 años de la presidencia estadounidense de Bush?
  • El mundo es peor tras su mandato
  • Ha sabido enfrentarse al terrorismo
  • Ha defendido los intereses de la gran industria
En este caso, a una pregunta excesivamente genérica (¿qué opina del mar?) se añaden tres opciones que es posible aceptar simultáneamente o de dos en dos en combinaciones libres o, ya puestos, ninguna. Tampoco cubren todo el espectro de respuestas ni tienen que ver demasiado entre sí...

En fin, y vale ya de rollo. Termino comentando que un medio de comunicación profesional tiene mucha más responsabilidad que un bloguero que, a fin de cuentas, bastante hace con regalarnos su trabajo para que podamos leerlo y disfrutar de él. Por tanto, que no se entienda esto como una crítica sino como ejemplos para que mejoremos poco a poco. Tal vez me anime a mí mismo a poner aquí una encuesta alguna vez...

01 febrero 2009

Cómo funciona el "ojo de halcón" en el tenis

Los partidos de tenis del Abierto de Australia me han hecho buscar los fundamentos del sistema que llaman "ojo de halcón" (traducción del original inglés hawk-eye). Curiosamente no he encontrado nada o, más exactamente, sólo generalidades del tipo "se usan cámaras que transmiten sus imágenes a un ordenador que calcula la trayectoria". Incluso la página de la empresa carece de información técnica.
Les cuento lo que supongo que ocurre haciendo una mezcla de lo poco que he encontrado disperso por ahí y de suposiciones razonables.

La pista está cubierta por un conjunto de seis a diez cámaras digitales. Es esencial que todas las líneas de la pista estén cubiertas simultáneamente por varias cámaras, preferiblemente cuatro o más. Aunque no he encontrado ningún esquema de la situación real, es razonable suponer que todas estén altas sobre la pista de forma que la inclinación hacia abajo sea de al menos 20º y que sus campos visuales se superpongan lo más posible.

Cobertura de la pista mediante cámaras cuyos campos visuales se superponen.

Las cámaras filman de forma continua a alta velocidad, su posición es fija y conocida y la orientación de su eje focal está bien determinada con relación a un sistema de coordenadas local. Un ejemplo de este tipo de cámaras son las de la serie CamRecord: los modelos 600 y 1000 captan respectivamente 500 y 1000 imágenes por segundo con una resolución de 1280x1024 píxeles. Por dar una idea de los datos, una pelota a 100 km/h se habrá movido en 2 ms (cámara CamRecord 600) unos 55 mm entre dos fotogramas siempre que la trayectoria sea perpendicular al eje focal.
La esencia del proceso es la siguiente:
  • una cámara capta una secuencia donde la pelota queda representada por unos pocos píxeles que deben ser reconocidos del resto de la imagen. Esos píxeles cambian de posición en cada "fotograma" debido al movimiento de la pelota. En tiempo real, esos píxeles deben ser detectados y su posición en cada fotograma registrada en el campo de visión de la cámara. Lógicamente, la pelota se "ve" pero no es posible determinar la distancia y el dato no es 3D.
  • otra cámara situada en una posición diferente capta el mismo movimiento y lo representa en su plano propio.
  • dado que las cámaras están sincronizadas, la posición de la pelota en un momento determinado puede estimarse en ambas cámaras; en cada una de ellas define una semirrecta con origen en la cámara y que pasa por el punto donde se ha localizado la pelota.
  • la localización 3D se construye mediante la intersección de las dos trayectorias en el espacio, algo que es posible calcular geométricamente dado que se conoce la posición de cada cámara y su orientación.
Una cámara registra la trayectoria como posiciones discretas calculando un vector para cada fotograma.

Simultáneamente, otra cámara hace lo mismo; obsérvese que hay posiciones cuyos vectores casi coinciden. En este caso esa cámara no será muy útil para discriminar esa parte de la trayectoria.

Aunque teóricamente se puede restaurar cada posición 3D y, por tanto, la trayectoria con sólo dos cámaras, la redundancia ayuda a reducir la incertidumbre y a "reparar" los errores de reconocimiento. Es muy deseable tener al menos cuatro secuencias distintas. La intersección de las cuatro trayectorias es mucho más robusta, tanto más porque se pueden introducir restricciones geométricas para garantizar la coherencia de las trayectorias que, por ejemplo, sabemos que deben trazar curvas relativamente suaves con velocidad decreciente.
Las posiciones deben analizarse secuencialmente para localizar el momento del bote, donde la trayectoria cambia bruscamente.

Los momentos "interesantes" son aquellos en los que esa continuidad se rompe, especialmente el momento del saque y los botes en el suelo. El primer caso interesa para estimar la velocidad del servicio pero su localización espacial no es demasiado importante. En cambio, los botes sí deben localizarse de la manera más exacta posible. Para ello, el plano de la pista (otra restricción geométrica más) y las líneas están previamente definidas en el sistema de referencia local lo que permite representarlas a la vez que el bote de la pelota.
El resultado es un gráfico de la trayectoria estimada de la pelota. La huella de la pelota sobre la pista es sólo una estimación, aunque los fabricantes del sistema hablan de errores de alrededor de los 4 mm.

El gráfico que nos ponen en la pantalla representa la estimación de la trayectoria. Su exactitud dependerá de factores como los ángulos de toma de las cámaras, la distancia a ellas y la velocidad de la pelota. Las pistas sintéticas facilitan la tarea por su color uniforme y su superficie regular.
Grab this Widget ~ Blogger Accessories
 
º